人工知能は人類の敵か味方か

2023年9月8日

内閣府の高度情報通信ネットワーク社会推進戦略本部(IT総合戦略本部)が「世界最先端IT国家創造宣言」を策定した。IT政策の要になっているのは、人工知能(AI)やIoT(Internet of Things)、ビッグデータなどである。
そして、AIの応用分野で最も期待されているのが自動車の自動走行技術であり、世界で最も安全で環境にやさしく経済的な道路交通社会の実現に向け、完全自動走行システムを2020年代後半以降に試用できるようにするとうたっている。(日経コンピュータ2015年10月1日号から抜粋)

人工知能(AI)に関しては、2045年にAIが人間の知能を凌駕するという言説(いわゆるシンギュラリティ)が広まっており、知能爆発がもたらす影響に対して、楽観的観測と悲観的観測が交錯している。
悲観的観測でAIの危険性に警鐘を鳴らしているのがジェイムズ・バラット著、水谷淳訳「人工知能 -人類最悪にして最後の発明-」である。人工知能 -人類最悪にして最後の発明-
悲観論が主張するおおまかな論理展開は、
AI(ここでは機械学習などの狭義のAI)は既にブラックボックス化している。コンピューターがどのようにして答えを導き出したのか、正確なところは人間にもわからない。
→ AIが進化して自己を意識するようになり、さらに自分自身を進化させるようになったとき、人間にはこれをコントロールする術がない。なぜなら完全にブラックボックス化しているから。
→ AIは暴走し人間をその支配下に置く(人類は滅亡する可能性すらある)。
私はAIに関してたいした知識は持ち合わせていないが、いまのところ、楽観論に関しても、悲観論に関しても懐疑的である。
そもそも「人工知能」という言葉自体が、人々の誤解を招く言葉なのではないかと思う。この言葉は文字通り、人間が持っている知的能力を人工的に作り出すという意味である。
人間には言葉を理解して他人とコミュニケーションする能力や、知識を蓄え、それを取り出して使用する能力だけでなく、物事を抽象化して把握する能力(概念を形成する能力)や、状況を判断して意思決定する能力、他者に対してリーダーシップをとる能力、他者と協調作業をする能力、他者と交渉したり折衝する能力、・・・など様々な能力がある。
さらに、怒ったり泣いたりする感情や、性や生に係る欲望もある。
昨今のAIという用語は、いったいどこまでを射程にいれているのか、かなりあいまいに使われているように感じる。少なくとも本書では、人間と同等の意思や感情までを有するAIが描かれている。
このような人工知能(AI)という曖昧な言葉は、もう少し具体的な領域に切り分ける必要があると考えられる。
慶応義塾大学の山口高平教授は、ご講演の中でAIを4つに分けていた。
探索型AI、計測型AI、知識型AI、統合型AIの4つである。
領域の分け方には、これ以外にもいろいろな方法があるだろう。技術に着目して、音声認識、画像認識、自然言語処理、機械学習、深層学習、深層強化学習などに分ける方法も考えられる。いずれにしろ、AIが扱う範囲をもう少し限定していかないと、人々の誤解(拡大解釈)は大きくなるばかりだ。
いまは記事や書籍の内容、およびその文脈に依って、AIという言葉によって定義される範囲があいまいに揺れ動いている。
AIで扱う領域が明らかになったら、その次に重要なことは、技術的にいま出来ることと出来ないこと、人間の知能レベルに到達するために現時点で課題になっていること、などを明らかにすることだろう。
本書にも「人工知能にできること、まだできないこと」という章があるが、技術的に出来ることと出来ないこと、そして出来るようになるための課題は明らかにされていない。
機械学習の実例と、AGI(人工汎用知能)、ASI(人工超知能)に関する若干の説明がなされているに過ぎない。
また、AGI(人工汎用知能)に関しては「問題を解決し、学習し、さまざまな環境のなかで効果的かつ人間的な行動をとる能力」とだけ書かれている。(「人間的な行動をとる」という表現もかなり曖昧模糊としていると思うのだが)
AGI(人工汎用知能)に関して興味深いのは、「高度なAIには身体が必要である」、「AGIは何らかの身体を持っていないと成長できない」という指摘がある点だ。
さて、AGIに必要なのは身体だけなのだろうか?
人間が知能を発達させた根本の原動力には欲望があると思う。根本的な欲望は生と性に根差すものであるが、そこから派生して、他者や他社との競争に打ち勝って生存したい、より多くの食料やモノを所有したい、他国の領土も自国のものとしたい、長生きしたい、快適に暮らしたい、・・・などなど沢山の欲望が生まれる。
これらの欲望があるから争いや戦争が起き、そして争いに勝ち抜くために科学や技術が発達していく。
人工知能はある段階を過ぎると、自らを進化させると考えられている。しかし人工知能の中核であるソフトウェアには死が存在しないから生に関する欲望(執着)などない。男女の別もないから性に関す欲望もない。
だとすると、人工知能は何を目的に自己の能力を自ら高める必要があるのだろうか?
本書には、人工知能には自らを成長させる衝動が在り、衝動の中には自己保存の衝動や資源獲得の衝動などがあると書かれている。しかし、生や性に根差す欲望がないのにこれらの衝動は起こり得るのだろうか?
今ひとつ不明確なのは、「人工知能は、人間の脳のまねをすることで発達するのか」という問題である。(正確には人間の脳についてもまだ明らかにされていない点があるから、真似をするにしても限界があるはずだ)
人間の脳の真似をするという方法論が正しいと仮定しても、人間の脳の仕組みはコンピューターのようにアルゴリズムで記述可能(計算可能)なのだろうか?
この点もはっきりしない。本書では人間の脳をリバース・エンジニアリングするような話がでてくるが、これは人間の脳の仕組みがアルゴリズムで表現できることを前提にしているのではなかろうか?
人間が知能を形成する過程が計算可能である「根拠」はどこにも示されていない。
感情に関してもいろいろと問題がありそうだ。私は人間の感情がどのような仕組みで発生するのかよく知らないが、感情の幾つかは生や性の欲望に関連しているように感じる。だとすると、これらの欲望を持たない人工知能のソフトウェアが感情を獲得することは可能なのだろうか?
人間は、スポーツなどで自分より強い相手と勝負して勝つと、喜びや達成感を感じる。これが自己の能力を向上させる動機づけにもなっている。
チェスのプログラムや将棋のプログラムは、人間を負かすほど強いが、達成感や喜びは感じていないはずだ。動機づけなど行わなくとも学習し、能力をあげていく。明らかに人間的な行動とは異なっているわけだ。
AI(およびAGI、ASI)についての疑問点をあげてみたが、いまのところこれらの疑問に対して明確な回答は得られていないと感じる。
カーツワイルらは、AIはある時点から指数関数的に進化する(収穫加速の法則)と考えている。しかしここにも若干の誤解があるように思う。それはムーアの法則(ハードウェアの能力が指数関数的に高まる)である。
人工知能の中核はハードウェアよりも、むしろソフトウェア(プログラム/アルゴリズム)ではないのか。もちろんCPUの処理速度が上がることで得られる効果は絶大であろうが、プログラムの進化も必要ではないのか?
しかるに、ソフトウェアの歴史を顧みると、ソフトウェアの進化はハードウェアの進化とは比べ物にならないくらいに遅い。プログラムの自動生成は30年以上前からソフトウェア産業の目標になっていたが、いまだに一部の自動生成が可能になっているに過ぎない。(昔から人月商売だと揶揄されている点も変わらない)
もしAIのプログラムがある時点から指数関数的に進化すると仮定すると、その時こそまさしく、コンピューターがプログラムを自動生成する時代だ。
さて、冒頭の「世界最先端IT国家創造宣言」はかつての第5世代コンピュータを想起させる。
第5世代コンピュータとは、通商産業省(現経済産業省)が1982年に立ち上げた国家プロジェクトである。570億円を費やし1992年に終結した。しかし、(前宣伝の割には)あまり成果が上がらなかったというのが定説である。

雑感
「雑感」のINDEX

e-雑感

Posted by kondo