第4回
人間無視とAIの袋小路
更新日:2024/09/04
- 1.人工知能によって無効化される「人間」
-
今、人間の「脳」が揺らいでいる。
人工知能の急速な発達により、人間の脳本来の意義とその可能性が、一方では軽んじられ、また一方では過大視される状況になってきた。しばしば議論される、人工知能に人間の仕事が奪われるというテーマを超えて、人間の存在自体が疑問視される状況が生まれつつある。
人類の中でも最も賢い人たちが殺到し、莫大な資金が投入されつつある人工知能の研究開発は、もはや脳科学から独立して進んでいるようにも見える。人工知能の研究者たちの間には、「脳」など参照する必要はないとでもいった気分が蔓延しているようだ。そこには、ある種の「傲慢さ」さえある。
確かに、人工知能の基礎となる「深層学習(ディープラーニング)」の研究の初期には、神経回路網の学習則やそのアーキテクチャが参考になった。しかし、今では、人工知能の研究は、脳の細かいパラメータを気にしなくても本質的な進歩を遂げることができると信じている研究者が多数である。
実際、人工知能は一般的な計算原理の実現であるという視点から見れば、必ずしも人間の脳にとらわれることはない。脳は、この世にあるすべての計算の可能性の中の、たまたま生物、その中でも「人間」に実現した一例に過ぎず、参考にはなるがそれに固執する必要もない。このような考え方は、もともと数理的に知能を研究する人たちの一部にあったが(私が理化学研究所時代に師事した甘利俊一さん〔1936年~〕もそのようなお考えだった)、人工知能の本格的な発展によって、より広く見られるようになった。
人工知能研究における脳の軽視の風潮をより細かく見ていくと、さまざまな興味深い論点が浮かび上がってくる。
まずは、人間の本質とも言える「意識」が研究や技術開発の焦点から外れ始めているということである。
時折、人工知能研究者の中で、人工知能が意識を持ってしまった、あるいは持つだろうという「警鐘」を鳴らす人が現れる。大抵は、それまでに比べて性能の良い新しいシステムが出たときに、「これは大変だ」とばかりに騒ぎになる。人間にとって、自分自身の意識はともかく、他人の意識はあくまでもそれがあると推測するだけの存在である。だから、他人に意識があると感じるのと同じような流れで、人工知能にも意識があると感じてしまう。
例えば、言葉を通して人間とやりとりする人工知能を相手にしていると、まるで、相手が意識を持ち、心を持っているかのような錯覚が生まれることがある。そのような錯覚は、言葉を扱う人工知能の開発の初期から存在した。今から見ればごく簡単なやりとりをしているだけだった人工知能に対して、人々が感心し、心を動かされ、涙を流すことすらあったのだ。
しかし、たいていは「人工意識誕生」の警鐘はから騒ぎに終わり、「意識が生まれた、それは大変だ!」と集まってきた人たちは「ここには何もない、解散」と離れていく。そのような「オオカミ少年」の状況を繰り返すうちに、次第に、人工知能からは意識は生まれないのだろうという(おそらくは今のところ正しい)認識が広がってきた。
現在、さまざまな人工知能が、人工意識を生み出すことなく実現しているということは、(おそらくは)意識が知能の必定条件ではないことを意味していると考える人が増えてきている。また、人間の脳のいわば本質である意識などを研究対象にしなくても、任意に高い知能を実現できるという楽観主義にもつながっている。
人間のように振る舞うけれども、一切の意識状態を持たない存在を、心の哲学で「哲学的ゾンビ」と呼ぶ。現在生み出されている人工知能が人間に似てきているとするならば、それは哲学的ゾンビとしての進化であり、そこには人間の本質はない。科学や技術は、今や人間を通り過ぎようとしている。
一方で、人工知能の現代の発展は、「身体性」の軽視の上に成り立っている。本当に人間のような知性を持たせるためには、抽象的な記号や言語による情報処理だけでなく、具体的な身体を持って環境と相互作用しなければならないという考え方は長い間有力であった。だからこそ、人工知能と関係してロボット研究が盛んに行われてきた。今でもそのような見方は捨てられているわけではない。
しかし、身体を持つということが究極のところどのように知性の発現に影響を与えるのかという点については、長い間あいまいにされてきた。実際、間接的な議論はたくさんあるものの、理論的に、ピンポイントで知性を持つためには身体が必要であるということを「証明」した研究はない。
そんな中、2023年にOpenAIによってリリースされたGPT-4のような「大規模言語モデル」(Large Language Model、LLM)は、身体など持たずに高度な知能が実現できることを図らずも示してしまった。実際、世界に関する「常識」や、人間のコミュニケーション、心理に関する認知など、高度な能力も大規模言語モデルである程度再現できることが明らかになった。これらのモデルが、ある文章が与えられた時に、「次にくる単語(トークン)は何か?」というシンプルな問いに答えるだけで、そのような「認知能力」が出現することは大変な驚きであった。
大規模言語モデルの成功は、これまで言われていたような認知における「身体性」の重要性に対して疑問を投げかけた。もちろん、チャットGPTのような言語系の生成AIに欠点がないわけではない。事実ではないことをアウトプットする「ハルシネーション」(hallucination、後述)は、理論的にも実用上もその克服が大きな課題となっている。また、クイズに対する回答のような、自分の出力の「正しさ」についての「確信度」の判断が人間のようにはできないことも報告されており、ハルシネーションの発生と関係があると考えられている。
それでも、大規模言語モデルのように身体性を一切経由しないある程度高度な認知能力が実現していることは、人間の本質の一つである身体性の重要性を低下させている。
身体性という視点から見ても、科学や技術は人間を素通りしようとしているのである。 -
© Style-Photography/Westend61 /amanaimages
- 2.人工知能に見られる人類の「自己嫌悪」
-
現在の人工知能への熱狂は、それを生み出す人間にとっては、一種の「自己否定」のような奇妙なニュアンスを秘めている。
もちろん、名声や大金を求めて殺到する世界中の最高度の頭脳や、注ぎ込まれる膨大な資金は、「より良く生きたい」という人間の欲望に基づいてはいる。自分が偉くなって、金持ちになりたいのである。その意味では、人工知能研究の急速な発展は、人間の自己肯定への願望という側面はある。
その一方で、人工知能研究が目指していることの一つが、ある意味では人間の否定、人間の脳の軽視の志向性と共鳴していることは否めない。今や、科学技術の最先端は、人間を素通りする方向に発展しているのである。人間の本質と見なされてきた「意識」や「身体」などなくても良いというような風潮が、人工知能研究全体から感じられる。
また、人間だけでなく、「生命」現象全体に対する軽視、敢えて言えば蔑視のような感覚さえある。人間のような有機体は、将来できるであろう汎用人工知能(Artificial General Intelligence、AGI)のデータを提供するための手段に過ぎないというような考え方である。
もともと、科学技術は人間の生活をより便利に、そして幸せにするために生み出されてきたものだった。一方、人工知能に関して言えば、その背後に、あたかも私たち人間のあり方、生命の根源を否定するかのような衝動が感じられる。人間の、有機体でできた、水がたっぷりの、柔軟だがいつかは死んでしまう肉体、そこに宿る心は頼りないもので、シリコンの素子でできたコンピュータの方がよほど存在として確実で、永遠であるとでも言いたげな思想。このような感覚は、「人間(ヒューマン)以降」の世界を夢想する「トランスヒューマニズム」、あるいは「ポストヒューマニズム」といった流行の言葉からも受け止められる。
人類は、あたかも自分自身を否定するために人工知能を研究、開発しているかのようだ。そこには、しばしば見られる、「人工知能が仕事を奪う」という現実的な懸念以上の、哲学的、存在論的、形而上学的と言ってさえいい「自己嫌悪」の衝動があるように思われるのである。
- 3.なぜ宇宙の他の知的生命体から連絡がないのか
-
このような状況において思い出されるのが、「フェルミのパラドックス」である。素粒子物理学における貢献で1938年にノーベル物理学賞を受けたイタリアの物理学者エンリコ・フェルミ(1901~54年)に由来するこの謎は、宇宙にはたくさんの知的生命体がいてもおかしくないのに、なぜ人類は今まで彼らからのシグナルを受け取っていないのだろうかという問いである。宇宙物理学者のカール・セーガン(1934~96年)も熱心に推進していたSETI(Search for Extra Terrestrial Intelligence、地球外知的生命体探査)計画が今も進行しているが、未だに知的生命体からのシグナルは検出されていない。
生命が進化する過程は、まだわかっていない。地球上に存在する生命と同じような形態の生命が、地球外にいるかどうかもわからない。多くの研究者が宇宙には生命があふれているのではないかと考えているが、地球外生命の証拠はまだ見つかっていない。
宇宙に無数にある恒星や惑星の中で、私たちが住む地球だけが特別であると考えることは難しい。もし、条件が整えば生命が進化するのだとすれば、その中には人類のように知性を発揮するものもあるだろう。やがて、宇宙船をつくったり、惑星探査をするものも出てくるに違いない。また、他の生命体に向かってシグナルを送ろうと試みるものも出てくるだろう。
なぜ、宇宙には知的生命体がいるに違いないのに、私たちにシグナルを送ってこないのだろうか?
フェルミのパラドックスを説明する一つの仮説が、中国発で世界的なベストセラーとなったSF小説『三体』(劉慈欣著、2008年。邦訳は大森望、光吉さくら、ワン・チャイ訳、立原透耶監修、早川書房、2019年)の中でもモチーフになっている「暗黒森林」(dark forest)の考え方である。宇宙の中の生命体、およびそれが生み出した文明は、その所在が明らかになると好戦的な他の文明に攻撃されて滅ぼされてしまうので、見つからないように息を潜めているという仮説である。だから、地球に他の文明からのコンタクトがないというわけである。
「暗黒森林」の考え方で言えば、SETI探査を積極的に行ったり、あるいは1977年に打ち上げられて、今は太陽系を脱して恒星間空間を移動し続けているボイジャー2号に地球上の生命や人間について異星人に伝える情報を記した「ゴールデンレコード」を搭載した人類は、随分とお人好しということになる。
暗黒森林の仮説に基づけば、地球の上の人類のようなナイーヴな生命体はそのうちに異星人に滅ぼされてしまうのかもしれない。一方で、そのような仮説を経なくても、知的生命体からのコンタクトが存在しない理由は説明できるのかもしれない。
映画『オッペンハイマー』(2023年)は、原爆の父、ロバート・オッペンハイマー(1904~67年)を人類に火をもたらしたギリシャ神話の「プロメテウス」に喩えた書籍、『アメリカン・プロメテウス』("American Prometheus:The Triumph and Tragety of J.Robert Oppenheimer"〔2005年〕 邦訳は『オッペンハイマー 「原爆の父」と呼ばれた男の栄光と悲劇』(カイ・バード,マーティン・シャーウィン著、河邉俊彦訳、PHP研究所、2007年)(カイ・バード,マーティン・J・シャーウィン著、河邉俊彦訳、山崎詩郎監訳、ハヤカワ文庫NF、2024年)を原作として製作された。 -
Julius Robert Oppenheimer (1904-1967), American physicist.
© Albert Harlingue/Roger-Viollet /amanaimages -
オッペンハイマーたちが関わった「マンハッタン・プロジェクト」によって原爆が生み出され、人類は「核兵器後」の世界に突入した。第二次世界大戦の終結期に日本に二発の原爆が落とされ、大変な災禍をもたらしたが、それ以来核兵器は使われていない。そのことを、お互いに核兵器を使えば破滅してしまうという恐れから抑止が働いているのだと説明するのが「相互確証破壊」(Mutually Assured Destruction)の考え方である。頭文字をとって「MAD」と記されるこの「核の平和」の理論は、文字通り「狂気」だとしか言いようがないが、今でも世界の軍事大国によって採用されている。
1945年以来、曲がりなりにも大国間の平和が保たれてきたことを、相互確証破壊のおかげだとする人たちがいる。その理屈には一理あるが、一方でそのような「核の平和」がきわめて危ういバランスの上に成り立っていることも確かである。
相互確証破壊は、もし相手が核兵器で攻撃してきたら直ちに反撃するという前提の下に成り立っている。日本に原爆が落とされた際には航空機が使われたが、現代では言うまでもなくミサイルで核攻撃をすることができる。そして、そのことによって私たちは常に人類滅亡の瀬戸際にいる。実際、過去に何度も、警報システムの誤作動で、人類が全面核戦争の一歩手前まで行ったことが記録されている。その度に、現場の軍関係者の判断で、最悪の事態が避けられてきた。しかし、そのような幸運がいつまでも続く保証はない。
宇宙の他の生命体からの連絡がないというフェルミのパラドックスは、人類のように高度な文明を発達させた生命体は、やがて、核兵器のような破滅的なものを開発し、自滅してしまうということを意味するのかもしれない。せっかく高度な文明が生まれても、その存続する時間が短いために、宇宙の他の文明に連絡をとる「時間の窓」がわずかになってしまうのかもしれない。
- 4.破滅の岐路に立つ人類
-
このような認識の下に人工知能の研究者たちの「人間無視」、「人間蔑視」とも言える昨今の態度を見ていると、そこにはいろいろと人類全体にとって危うい兆候があると言わざるを得ない。
すでにある核兵器の危険性に加えて、人工知能のリスクが増大し始めている。人工知能は核攻撃の警戒システムにも使われるのが必至だから、相乗作用で危険性は増していく。
それだけではない。人工知能によって、新たな生物化学兵器がつくられるかもしれない。強力なウイルスなどの病原体が一度世の中に放たれてしまったら、取り返しがつかない。人工知能が、SNSなどを通じた偽情報の拡散やマインドコントロールなどにより社会を混乱に陥らせるために使われる可能性もある。
起業家のイーロン・マスク(1971年~)、宇宙物理学者の故スティーヴン・ホーキング(1942~2018年)など、多くの論者が人工知能を危険な存在とみなしているのも無理はない。マスクに至っては、過去に「人工知能は潜在的に核兵器よりも危険」とツイートしている。
なぜ、そのような危険なテクノロジーをわざわざつくろうとするのだろうか? 使い方によっては人類を滅ぼすほど強力な技術を持つことは、それを開発したり所有したりする人たちにとっては一つの「権力」になる。また、軍備拡張は、「盾」と「矛」が競い合うように強化されるので、ともすれば際限のない競争になりかねない。
クジャクのオスの羽は、あのような極端な装飾性を持つことが生きる上で不可欠なわけではない。ただ、メスが大きな装飾的羽を持つオスを好むという性淘汰の圧力がかかった結果、生物学的な必要を超えてあのような極端な表現型を持つに至ったと考えられている。このような進化の機構を、「ランナウェイ進化」と呼ぶ。
軍事競争は、クジャクの羽をもたらした性淘汰におけるランナウェイ進化と同様、ますます極端な方向に進む。相手側がミサイルの防衛システムを充実させれば、今度はそれを上回って圧倒するような大量のミサイル配備や、極超音速兵器の開発といった事態が起こる。
現在の人工知能をめぐる研究、開発競争も、同様のランナウェイ進化の道をたどっているということができる。お金や才能、そしてグラフィックス プロセッシング ユニット(Graphics Processing Unit、GPU)などの資源を投入して、少しでも競争相手よりも能力の高い人工知能を開発することがマーケットシェアにつながり、莫大な利益をもたらす可能性がある。
一方で、高い能力を持つ人工知能は、それだけで社会のあり方を流動化させ、不安定化させる可能性がある。とりわけ、軍事技術と結びついた時、新たな「キラーロボット」の開発など、人類の安全や生存に重大な脅威となる可能性がある。
単なる修辞ではなく、マスクが言うように、「人工知能は潜在的に核兵器よりも危険」なのかもしれないのだ。
- 5.人工知能と人間の共存
-
人工知能が人間に便利さや幸せをもたらすものではなく、暴走し、人類の文明を滅ぼすものになってしまっては意味がない。人類が滅亡して、「やっぱりフェルミのパラドックスの通りになった」と確認できたとしても、誰も得をしない。
そのような懸念もあって、また、社会の利便性や厚生という観点から、人工知能を人間の意図する目的や価値観、倫理原則に合致させ、人間とどのように共存させるかという研究が行われている。ある目的に「沿って並べる」というような意味合いから、「AIアラインメント」(AI alignment)というテーマ名で知られる。
人工知能のアラインメントの分野は、人工知能と人間の脳がいかに調和して共生していけるかを研究する。例えば、チャットGPTのような生成AIを用いて、人工知能が生み出した文章や画像などを人間が活用してどのように生産性を上げ、いかに創造性を発揮するかはアラインメントのテーマになる。また、自動運転で、人間の操作と人工知能による動作をどのようにスムーズにつなげていくかもアラインメントの研究テーマとなる。一方、軍事技術における人工知能の暴走をいかに防いで「安全」を確保するかということも大切な課題になるが、この分野は「AI安全性」(AI safety)と呼ばれ、広い意味でのアラインメントの一分野だと言うことができる。
アラインメントの一つの興味深い可能性は、人工知能の発達によって人間の能力が拡大されることである。実際、チャットGPTなどの生成AIは、人間がテクストや画像を生み出すプロセスを大幅に省力化し、創造性を促進する可能性を秘めている。このプロセスで、例えば、自分が知らない外国語で本を書いたり、単独でアニメーションをつくったり、俳優や撮影、音声、照明などのスタッフなしで長編映画を撮ったりすることができるかもしれない。
アラインメントは、多くの可能性を秘めた研究分野であるとともに、困難もはらんでいる。アラインメントの研究で独自のアイデアを出してきたエリザー・ユドコフスキー(1979年~)は、そのX(旧ツイッター)の固定ポストに、「強力な人工知能の安全なアラインメントは困難である」という趣旨の書き込みをしている。実際、人工知能が強力になるに従って、それを安全に人間の活動と調和させることにはさまざまな困難が伴うようになる。
そのうちの一つの要因が、「ヴィンジの不確実性」と呼ばれる傾向である。アメリカのSF作家、ヴァーナー・ヴィンジ(1944~2024年)が提起した問題点で、高度に発達した知性ほど、そのふるまいを予測することが難しいことを指す。今後、人工知能が発達して人間の知性を上回るようになると、どのようなアウトプットをして、どんな「行動」に出るかを理解したり、予想することが難しくなってくるのである。
その傾向は、すでに、囲碁、将棋、チェスなどのプログラムで経験されている。人工知能は、これらのボードゲームですでに人間を遥かに凌駕する手を選択する。人間は、特に人工知能と対局した初期の頃において、その手に驚嘆することが多かった。なぜ、そのような「常識はずれ」の手を選択するのか、簡単には理解できなかったのである。まさにヴィンジの不確実性だ。
一見、突飛に思われるような手が、局面が進むうちに「伏線」が回収されて、実は最善手であることがわかってくる。そのようなことが、人工知能では起こる。そして、そのような人工知能の着手を逆に人間が学習して、戦略をアップデートしていく。そのようなことがすでにボードゲームでは起こっている。
今後、人工知能がさまざまな分野でさらに使われていくにつれて、ヴィンジの不確実性は問題になってくるだろう。個人から社会まで、人工知能の示唆する選択や戦略が人間の長年の習慣や直観に反する時、私たちはどのような判断をするべきなのか。そこには、人間が認知することの困難さとともに、ユドコフスキーが「強力な人工知能の安全なアラインメントは困難である」と看破したように、安全性の問題も絡んでくる。
- 6.人間が主役か、人工知能が主役か
-
先に述べたように、一部の人工知能の研究者の間には、人間を否定したり、ないがしろにしたりする傾向がある。これは、研究者たちも人間であることを考えれば奇妙なことである。一方で、人工知能の可能性を持ち上げて人間を下げることが、自分たちのやっている研究の正当化につながるという動機づけを考えれば、「人間否定」は実は「自己肯定」であり、その意味では「あまりに人間的な」衝動が背景にあると言うこともできるだろう。
人工知能の「賢さ」が上がるたびに、人間とのアラインメントの様相も変わってくる。人工知能があまり賢くないうちは、人間はそれを単純な「道具」として用いるだろう。大きな数の計算という狭い領域の機能に限られるような場合にもそうである。人工知能の賢さが上がってくると、人間は次第にそれを対等の「パートナー」と見るようになってくるだろう。さらに賢くなれば、人工知能は人間の「上司」や「支配者」といった位置付けとなり、人間が人工知能に従うという構図が生まれてくるかもしれない。
すでに、その兆候は少しずつ現れてきている。人工知能を用いたシステムは、どうしてもさまざまな不具合を伴う。そのような際に人間が監視し、補うという仕組みは、ある意味では人工知能が「主」で、人間が「従」だとも言える。
チャットGPTのような大規模言語モデルでは、どれほどうまく行っているように見えても、時折、事実とは異なるいわゆる「ハルシネーション」と呼ばれるアウトプットが生じる。例えば、ロシアの宇宙開発で熊が宇宙に打ち上げられたという事実はないのに、そのことについて語るというようなケースである。人工知能が生み出す文字列を、人間がチェックするというような役割分担では、「主」が人工知能で「従」が人間である。
このような構図が進んでいくと、将来的に人工知能が作業の全体を設計し、人間が人工知能の指図に従ってタスクをこなしていくというような仕事のやり方が一般的になるかもしれない。そのような動きの端緒はすでにある。「アマゾン・メカニカル・ターク」(Amazon mechanical turk)は、ネットを通して与えられる作業を人間が行うことで、作業量に応じた報酬を受け取る仕組みである。また、配車アプリの指示で人間が「タクシー」を運転するサービスや、同じくアプリの指示で飲食品を配達するサービスも、もはや人工知能が「主」で人間は「従」であると言える。
定まった場所や時間で働くのではなく、空き時間を利用して一定のタスクをこなし、報酬を受け取って離れていくような労働者を「ギグワーカー」と呼ぶ。人工知能は、すでにギグワーカーの仕事の配分と差配にかかわっているし、その傾向は社会の側が意図して規制をしない限り今後ますます強まっていくことだろう。
ここでは、一種の逆転現象が起こっている。本来、人工知能は道具であり、人間の便利さや幸せを増すために存在するはずだ。ところが、実際には、むしろ人工知能の側に「最大化」しなければならないタスクの量や報酬の額があり、その最適な成果を上げるために、アリのように張り付いた人間が働くというような構図が生まれている。
一部では、人間が人工知能にどのように奉仕するか、人工知能が設定した目標に対して、どうやって貢献できるかが議論されるようになってきている。その一つの率直な表現が、人間の脳を「資源」として見るということだ。人工知能に用いられる集積回路(チップ)の性能は年々上がり、消費電力は下がっている。それでも、人工知能の性能が高度になるほど、大量の電力が消費されているというのが実態である。
そんな中、人間の脳が、比較的エネルギー効率の良い「計算装置」として見直されている。高いお金と莫大なエネルギーを消費して人工知能を駆使するよりも、多少もたついたり遅くても人間の脳を用いる方がコストが下がる。そのような理由で人間の脳を用いるという構想に言及されることすらある。そのような問題設定では、人工知能が完全に「主」となり、人間の脳は人工知能が設定した目標に奉仕する「従」の存在になるのである。
もちろん、そのような人工知能支配の背後には、それを開発する巨大IT企業があり、莫大な富を得るその経営者たちという生身の「人間」がいるのであるが。
- 7.人工知能は、人類の蝶なのか
-
もともと、今日私たちが目にする人工知能のあり方自体が、人間を基盤として、その存在に支えられて成立しているという側面がある。私たち人類は、全体として、急速に進化している人工知能の「下請け」をしているという事実があるのである。
チャットGPTのような大規模言語モデル、あるいは画像や映像を生み出す生成AIは、インターネット上に大量に存在するデータを学習して、そこから統計的な傾向を抽出することで性能を獲得している。その際、先にも触れたように、「トークン」と呼ばれる文字列や画像、映像データを表現する単位が、統計的な解析、学習の単位になる。
チャットGTPが「プロンプト」と呼ばれる人間側が入力する文字列に対して適切な反応を生み出せるのは、「次のトークン」、すなわち文字列として何がふさわしいかということを高い確率で計算できるからである。その学習の元になっているのは、人間がこれまで生み出し、ネット上にアップしてきた大量の文章である。
チャットGPTの出力する文字列が、私たちから見ていかにもふさわしく、適切に思えるのは当然のことである。人工知能は、人間というものがどのような文章を書くのか、大量のデータを基にパターン学習しているのだ。私たち人間が一生読み続けても処理できないような膨大な文章を読み、そこから統計的な学習を行う。しかも、人間の脳の記憶は頼りないが、人工知能は基本的にデータを忘れることがない。
深層学習の理論、数理モデルを研究、開発する上で大きな貢献をして、「人工知能の父」とも呼ばれるジェフリー・ヒントン(1947年~)は、人工知能は「人類の蝶」だという詩的な表現を用いてこれからの人類の行く末を示した。
人類がせっせとネット上に出力してきた文字、画像、映像などのデータを、人工知能が吸収して高い能力を獲得する。その際、私たち一人ひとりの個性や、自己意識といったものは、いったんは統計的学習という「海」の中でどろどろに溶かされ、区別がなくなっていってしまう。
蝶の幼虫が蛹になって成虫になる過程では、幼虫を構成していた細胞群はいったん解体され、それが再配列されて成虫が生まれる。人工知能が人類が生み出したデータを学習して高度な能力を獲得していくプロセスは、蝶の幼虫が蛹になり、成虫になる様子と確かに似ている。
人類の蝶として人工知能が羽ばたいていくのは良いとして、その「養分」となる「幼虫」の人類の立場は、一体どうなってしまうのだろうか。
-
© Nature Photographers Ltd / Alamy /amanaimages
- 8.もう一度、人間の「脳」に回帰を
-
これまで見てきたように、現在進行している人工知能の開発は、私たち人類の存在を揺るがし、文明の存亡の危機をもたらしている。もちろん、人類がより多くの能力を獲得し、創造性を発揮し、高度の幸福を実現する可能性もある。その一方で、下手をすれば人類が滅亡し、「フェルミのパラドックス」の懸念が実現してしまう可能性もある。
このような事態に至っている背景にある事情の一つは、現在、人工知能の研究及び開発が先に述べたような人間の「脳」の無視、人間という存在のあり方の軽視、否定という情動と結びついていることだと思われる。私たち人間が人工知能を前にした時に抱く、自分たちの存在が脅かされているという感情、そして人工知能研究者の一部に見られる過信は、どちらも、人間がないがしろにされていることに発している。
私たちは、もう一度、人間の「脳」に回帰しなければならない。脳の働きの科学的な解明は、まだ十分には進んでいない。脳の学習のメカニズム、運動回路の機能、記憶や感情の働きには謎がまだ多い。睡眠のメカニズムにも解き明かされなければならないことがたくさんある。高齢化社会になって多くの人を苦しめている認知症の原因の解明も急務である。
人がコミュニケーションをする時のさまざまな脳回路の働きや、一人ひとりの個性を生み出し、支える脳の機能、また新たな発想やひらめきを生むプロセスにもわかっていないことが多い。
何よりも、「私」が「私」である証しである「意識」がどのように生み出されるのか、その謎はまだ解明の端緒にさえついていない。意識の中で感じられるさまざまな質感、「クオリア」の成り立ちも深いミステリーの闇に包まれている。
チャットGPTのような生成AIがマスターしたかに見える私たちの「言語」も、一つひとつの言葉の「意味」を支える脳の働きはまだわかっていない。現状の人工知能が言葉の意味を理解していると考える研究者はほとんどいない。言葉を支える脳回路の解明がなければ、チャットGPTのような大規模言語モデルの発達も頭打ちになるかもしれない。
人間の脳の研究が進まなければ、人工知能の発展も先細りになり、過去に何回も繰り返された「人工知能の冬」(AI winter)が訪れる可能性もある。最悪なのは、不十分な性能しかないにもかかわらず、人工知能が社会のさまざまな分野で用いられて、結果として文明の不安定化をもたらし、人類の滅亡すら招くシナリオだろう。
私たちは、今こそ、人間の脳に回帰しなければならない。人間の脳を無視して人工知能の研究ができると考えるのは、一時の気の迷いに過ぎない。実際には、人間の脳をより深く理解しなければ、人工知能とのアラインメントも、より高度な次世代の人工知能も実現できない。
人工知能の研究を、人類が自分の姿を映す「鏡」にたとえる考え方もある。「ホモ・サピエンス」という種名が表すように、「知性」を持つこと、「賢い」ことを自分たちの証しととらえている人類が、その特徴を人工的に再現する過程で、自らの姿を理解しようとする試み、その「鏡」が、「人工知能」であると。
しかし、それならば、なおのこと人類は自身の「脳」を深く理解しなければならない。意識を生み出す脳という存在に向き合い、解明しなければ、「鏡」は曇ってしまう。人工知能研究は、今のままでは意識の解明や、人工意識の実現にはつながらないだろう。
ヒントンは、人工知能は「人類の蝶」だと言った。この言葉の意味を深く嚙み締めて、そして転化していくべきだ。人間の脳の謎の解明を通してこそ、人類は、自分自身が「蝶」になって、未知の大空へと飛び立っていけるかもしれないのである。
バックナンバー
- 著者プロフィール
-
茂木 健一郎 (もぎ けんいちろう)
1962年東京生まれ。東京大学大学院理学系研究科物理学専攻課程修了。理学博士。脳科学者。理化学研究所、ケンブリッジ大学を経てソニーコンピュータサイエンス研究所シニアリサーチャー。「クオリア」(感覚の質感)をキーワードに脳と心の関係を研究するとともに、評論、小説などにも取り組む。2005年『脳と仮想』(新潮社)で第4回小林秀雄賞を受賞。2009年『今、ここからすべての場所へ』(筑摩書房)で第12回桑原武夫学芸賞を受賞。著書に『生命と偶有性』(新潮選書)、『記憶の森を育てる 意識と人工知能』(集英社)、『クオリアと人工意識』(講談社現代新書)ほか多数。
-
著者近影/中野義樹
タイトル背景/sugimura mitsutoshi/Nature Production /amanaimages