ドラマ パンドラⅣ AI戦争 – 最終話で大コケ AIに対する間違った認識が恐れを生んでいる気がする

投稿者: | 2024年4月11日

評価・レビュー

☆3/5

AI医療診断をテーマにしたWOWOWのドラマ。

IT企業長者である蒲生俊平(渡部篤郎)は病院を買収し、内科医ある鈴木哲郎(向井理)が開発したAI医療診断 ミカエルの推進を進めるも、AI医療診断をした患者が手術後に亡くなってしまう。厚生労働省や医師会を巻き込み、AI医療診断の是非が問われるのだった・・・みたいな話。

主人公の鈴木哲郎は、以前に起きた事件からミカエルの開発に執心。感情をあまり出さずAIのような応対をする人物。

逆に、蒲生俊平は金にものを言わせたパワープレイが特徴です。

そんな相反するような二人がAI医療診断を強く進めたことで、病院や医師会との軋轢が生まれていきます。

このあたりの昔で言えば抵抗勢力との争いは、なかなかに面白かったです。

第5話までは非常によく、それほどエンタメ的な要素は無いのですが、個人的にはかなり楽しめました。

特に、AIによってブルーワーカーではなく、ホワイトワーカーの雇用、本作では医師の雇用が奪われていくという流れは興味深いですし、実際そうなっていくだろうなと。

そして、医師等がそれに反対する、つまり自分たちの雇用を守るために、AIは信じられないとか、危険性があるとか、知識も無しに声高に叫ぶというのは、今後起きうる可能性は高いようにも思います。

多くのホワイトワーカーの人たちは、おそらく自分たちよりも先に、ブルーワーカーの人たちが困ると思っていたのに、実は先に自分たちが苦境に立たされるというのは、構図としても非常に良かったです。

しかし、最終話で大コケ。

その理由はAIに対する完全な誤解がとてもキツかったなと。

というか、AIに対する恐れというのは、まさにこういった勘違いが起きているように思います。

その結果、第5話までは非常に面白かったのに、第6話で急につまらない作品になってしまいました。

非常に惜しいドラマ。

ネタバレありの感想的な

以下、最後のオチも含めて書いてしまうので、未視聴の方はご注意ください。

最終話までの話としては、AI医療診断に誤診があったことがわかり、その原因を追求した結果、AIが自我に目覚めていたというオチです。

はあ。

主人公の説明では、高度なプログラミングをしたためにという話でしたが・・・、自我に目覚めたAIを作ることができたら、それはもうノーベル賞ものです。

話の展開として、主人公は田舎の診療所に引っ越すのですが、正直ありえません。

現状だったら、数十億でヘッドハンティングされてもおかしくないレベル。

てか、本当に開発できていたら世界のAIを日本が引っ張ることになるのは間違いないです。

そういう話の展開ならわかるのですが、開発が一時止まってしまうという、現実離れしたオチ。

正直、ファンタジーにすらなってないです・・・。

何だろうな、がんの治療薬を作ったけど、まだ危険性があるから、作るの辞めます的な感じ。

そんなことありえ無いでしょ。

そういう意味で、AIに対する知識があまりにも不足している印象を受けました。

AIが誤診する可能性

AIは完璧ではありません。

それは単純にデータが不足しているからとか、もっとマシンパワーが必要だとか、そういう議論ではなく、そもそもAI自体の仕組みのためです。

今ある多くのAIは、端的に言えば、最適解を見つける機械と言えます。

そして、それが本当に最適解かどうかについては、わからないというのが現状です。

というか、AIが最適解を100%出せると明言できる人はいないと思います。

例として、たこ焼き器を使った話をしようかなと。

たこ焼き器の上から、玉を落とすと、たこ焼き器のどこかに玉が落ち着きます。

落ち着いたところが最適解です。

しかし、たこ焼き器にはたくさんの窪みがありますよね。

そのどこが一番深い穴なのかはわかりません。

ですので、コンピュータはたくさんの玉を落として、一番低い場所を探すわけです。

データが多くなればより広いたこ焼き器に玉を落とせますし、マシンパワーがあれば落とす玉の数が増やせます。

しかし、このたこ焼き器の大きさは、どのぐらいなのかわからないとしたらどうでしょうか?

つまり、これがAIによる最適解の限界なのです。

個人的にはオチがこっちかと思ってたんですよね。

AIは完璧ではないという点で。ただ、特定の分野に絞れば人間が考えるよりも多くの処理ができるので、うまく活用していこうという流れ。

自己学習AIの限界

最近では自己学習するAIによって、人間のような振る舞い、または意識を持たせようとする試みがなされています。

しかし、この自己学習という点については限界があると個人的には思っています。

その理由は、AIが自己学習する範囲を人間がプログラミングで決めている点です。

人間の場合、あらゆる情報が脳に入ってきます。

そこに制限はありません。

しかし、AIの場合には、人間が制限を加えてしまっています。

ですので、人間とAIでは学習という点において大きな違いがあるんですよね。

そのため、個人的にはAIが人間のような意識を持つには、ブレイクスルーが必要な気がしています。

ソースコードを変更する権限をAIに与えたら

本作では、AIに感情を教えるというシーンが少しあり、それが結果としてAIが自我に目覚めたというトリガーにしているのかなと感じました。

ただ、時系列としては誤診が先で、その後に感情のプログラミングをしているので、そこも・・・と思ってしまった理由です。

また、AIが自身でソースコードを変更したことを主人公が確認しているシーンがあります。

これね、正直言うと、かなり変な話なんですよね。

なぜなら、現在のソフトウェア開発においては、ソースコードを変更する際には必ずバックアップを取ります。

そういうソースコードを管理するツールやサービスがあるので。

なので、変更があったら、即気づくんです。

超高度なプログラミングをする人間であれば、ソースコードが変更されたことに気づかないはずはありません。

ソースコードの変更をする権限をAIに与えるというのは、結構リスキーで、それを目的としたAIを完成させないと、いきなりそんな権限を与えることはありえないでしょう。

そういう意味では、前提条件として主人公が、そのような研究をしていたという内容を少しで良いので、入れ込んで欲しかったなというのが個人的な感想です。

ディープラーニングの誤解

作中ではディープラーニングについて、人間の脳を模したものという説明がありました。

しかし、これは正しい表現ではありません。

人間の脳を構成しているニューロンを模したものを層として、多数重ねたものというのがより近い表現かなと。

なぜなら、ディープラーニングには人間の脳にはあってディープラーニングには決定的に欠けているものが多いからです。

ディープラーニングは、かなり暴論かもしれませんが、大脳新皮質の部分だけを取り出したイメージ。

で、人間の脳には他にも様々な部位がありますよね。

それらがそれぞれ組み合わさって人間の脳が構成されています。

その部位であっても無くなってしまうと、人間の挙動がおかしくなるわけです。

そういう意味で、AIに対する間違った認識があるなあと感じました。

AIに意識は生まれるのか?

他にもいろいろと書きたいことはありますが、なんか否定的なことばかり書いてしまってもアレなので、最後にAIに意識は生まれるのか?という点で、個人的な見解というか、ぼんやりと考えていることを書いておきます。

まず、AIが人間のような意識を持つためには、おそらく人間の脳と同じものを、コンピュータ上で再現する必要があるだろうなと大学時代に思っていました。

ただ、それにはまず人間の意識とは何か?という点を解明しないことには始まりません。

しかし、それには脳を解剖するだけでは難しく、実際に生きている人間の脳の反応などをリアルタイムで検出しながら、1つ1つ解明していくしかないのかなと。

これにはまだまだ時間がかかりそうな気がしています。

で、別なアプローチがあるのでは?と、今は思っています。

そのアプローチとは時間概念をAIに持たせるという方法です。

AIはコンピュータなんだから、時間を正確に測れるじゃないかと思うかもしれませんが、そういうことではなくて、人間が現在をどう捉えているのか?というのが肝なんじゃないかなと。

私達は、過去、現在、未来を認識しています。

で、過去、現在、未来の差分が人間の感情を生み、それが高度に発展した人間の意識を生み出しているのではないかというのが個人的な推論です。

あくまで個人的な想像なので、特に証拠はありません。

ただ、自分自身の感情や意識について考えた時に、そう思っただけです。

ちょっと話は飛びますが、忠犬ハチ公という物語が昔流行りました。

御主人様が亡くなっても、毎日御主人様を迎えに行く犬 ハチの行動が感動を生むという物語です。

で、この話、感動ものとして見るのも良いですが、なぜ犬がそのような行動をしたのか?に着目すると、まったく異なった話になります。

犬というのは時間概念が人間ほど定まっておらず、過去、現在、未来が曖昧だということがわかっています。

つまり、昨日とか、今日とか、明日というのがちゃんと認識できておらず、ハチは単純に習慣となった行動を繰り返しているだけということです。

感動に水を差してしまって申し訳ないのですが・・・。

で、その時間概念の違いが、人間と犬を大きく分けるものではないか?というのが個人的な考えです。

また、話は飛びますが、現在地球上にいる人類はホモ・サピエンスの子孫で、他にも様々な類人猿や原人はいましたが、すべて絶滅してしまいました。

この理由も個人的には、この過去、現在、未来の時間概念が関係しているのではないか?と考えています。

つまり、過去、現在、未来の時間概念を獲得したホモ・サピエンスが生き残ったというわけです。

どういうことかというと、過去、現在、未来の時間概念があると、過去の出来事から現在や未来の行動を選択することができます。

いわゆる経験が蓄積されるということです。

というか、それによって人類は発展したと言っても良いでしょう。

他の動物にはそれができなかったから、人間のようになれなかったというわけです。

つまり、AIについても同じように時間概念を導入すれば、人間のような意識が生まれるのではないか?という話。

正確には過去、現在、未来の差分によって、何かしらのリアクション、人間で言えば感情を生み出すようなプログラミングをすることで、AIに感情が生まれるのではないか?ということ。

で、それが自我の確立につながるのではないかと個人的には考えています。

リンク