「図解即戦力 ChatGPTのしくみと技術がこれ1冊でしっかりわかる教科書」、いよいよ本日発売です。
shuyo.hatenablog.com
本書は以下の8章から構成されています。目次からもわかる通り「ChatGPTの本」というより「ChatGPTのしくみ(や背景や歴史的経緯)の本」ですね。
- ChatGPT
- 人工知能
- 機械学習と深層学習
- 自然言語処理
- 大規模言語モデル
- トランスフォーマー
- APIを使ったAI開発
- 大規模言語モデルの影響
一般的な ChatGPT の入門書ではプロンプトエンジニアリング(役に立つプロンプト)などが手厚く扱われていますが、本書では触れてはいるものの、あくまで「ChatGPTのしくみ」からわかる範囲や、「ChatGPTのしくみ」の説明に役立つ内容しか扱っていません。そうした、他の本に書いてありそうなことは任せてしまおうと割り切って、「広いけど、浅さをあまり感じさせない本」を目指しました。
さて本書の8章では、「AIと哲学」というセクションで現在のAIの大きな進展と哲学との関連について少し触れています。実は手元の原稿では、AIと哲学のセクションは調子に乗ってもっと長く色々書いていたのですが、なにぶん哲学はまだまだ勉強中なもので、ブログならツッコミをもらうこと前提で書けそうなことでも、紙の本にはまだ厳しいかな……という内容を削っていくと、今の分量になってしまいました。
で、今言った通り「ブログならツッコミをもらうこと前提で書けそう」ということで、書籍のボツ原稿から2個の話題をブログ向けに手直しして掲載します。書籍の「中国語の部屋」の項の続きだったので、それに対する代表的な批判と反論の話から始まっています。書籍をお持ちでない方は Wikipedia の記事 中国語の部屋 - Wikipedia などを御覧ください。
AIと身体性
「中国語の部屋」はAIが知能を持たないことを主張する思考実験でした。その骨子は、詳細な中国語の応答マニュアルを使ってメッセージのやり取りができたとしても、それが言葉を理解していることを意味しない点でしたが、それはむしろ外部から知能や意識の有無を判別する方法がないことを示している、という批判を受けました(詳細は「図解即戦力 ChatGPT~」8章を参照)。
この批判への代表的な反論の1つが、AI にはもともと「自己」がないから意識もなく、したがって「中国語の部屋」が意識の有無を判定する必要はないというものです。「自己」とは、世界と自分を区別するもので、そのためには「ここからここまでが自分である」と明示する「身体」がなければならず、AI がそれを持たないことは自明であるという主張です。要するに、「AIには身体がないから知能ではない」ということです。
この主張の真偽はひとまず置いといて、現在の大規模言語モデルや生成AIにあてはめて考えてみます。ChatGPT や Midjourney には確かに「身体性」は無いでしょう。ただ、「ChatGPT には身体がないから知能ではない」というのは個人的には違和感を感じます。「AIには身体がないから知能ではない」は(消極的)OKだが、「ChatGPTには~」になるとうなずけないという人は他にもいるんじゃあないかなという気がしています。
その違和感の正体を考えてみると、これまではあくまで思考実験に基づく議論であり、「AIには身体がないから知能ではない」の対象となる「一見知能が有りそうなAI」は現実には存在しませんでした。人間は、存在しないものには想像力や判断力が必ずしもうまく働きません。
一方、ChatGPT という「一見知能が有りそうなAI」が現実に登場し、人間と自然な会話を行ったり、数学の問題を解いたりができるようになると、「ChatGPT が知能を持たないのは、身体がないからである」というロジックに「それ本当か?」という感覚を持ってしまうのではないかと考えています。「数学の問題を解く知能は、身体を持つ必要がある」とは思えません。「仮にChatGPTに知能がないという結論になるとしても、その理由が『身体がないから』というのは納得いかない」とも言い換えられます。
このような違和感が直ちに ChatGPT が知能を持つことを示すわけではもちろんありませんが、「思考実験としての中国語の部屋」に基づく議論と、ChatGPTという「現実に動く中国語の部屋」に基づく議論では様相がかなり変わってきうるので、生成AI以降の世界であらためて「中国語の部屋」やそれを発展させた議論を行う必要があるのでは、というのが個人的な印象です。
ここでは「身体性」が知能の必要条件であるような主張への(個人的な)違和感を書き連ねましたが、「身体性」が知能の条件であることを認めたうえで、そこで行われる議論の妥当性や、「反論への再反論」などは戸田山和久『哲学入門』(2014,ちくま新書)に詳しく紹介されています。
AIが知能を持つことはありえないという主張の一番極端なパターンは、知能はタンパク質にしか宿らないのだから、シリコン仕掛けのAIは知能ではない、というタンパク質を神聖視するタイプの主張です。実はこの主張を真にするのは簡単で、タンパク質によって実現されていることを「知能」の定義に採用してしまえばいいのです。
というのは半分冗談ですが、それを実現しているデバイスの物理的な特性と概念そのものとが無関係とは言い切れないのも事実です。身近な例で言えば、手書き文字とタイプライターの文字、アナログレコードとCD、フィルムカメラとデジタルカメラのように、カテゴリーとしては同一であっても、片方がもう片方で完全に代替されないものは数多くあります。
この観点に立てば、人間の天然知能とAIの人工知能を包含しうる、物理デバイスによらない抽象的な「知能」の概念が必要なのかもしれない、と感じさせてくれます。
また別の観点にも立ってみましょう。AIはシリコンチップ上で電気のビットを立てたりしているだけであり、意味を理解して動いているわけではないので、汎用人工知能は絶対に実現することはない、と言った主張をされる人もいます。「中国語の部屋」を唱えたジョン・サールもこのタイプの主張を行っています。しかし人間の知能の多くの部分はニューロンの集合によって実現されていることは間違いないところでしょうが、個々のニューロンが意味の理解や、人間の身体の把握をしているともやはり思えません。つまり、「知能らしき何か」を実現している物理デバイス(脳やコンピュータ)の部品が意味を理解しているかどうかは知能の条件とするべきではないということです。
人間は2000年以上哲学を続け、さらに神経科学の研究も加えて、それでもまだ「意味とは何か」について決定的な回答を得ていませんし、脳がどうやってそれを処理しているのかについても解明には至っていません。それなのに脳は仕組みがわからないけど意味を理解しているし意識もある、AIは仕組みがわかっているから意味を理解しているはずがないし意識もない、という主張は公正ではないと個人的には思います。
デバイスのミクロな挙動が知能の条件ではないとしたら、何に議論のよりどころをもとめるべきでしょう。「意味」について決定的な回答は無いと言ったばかりですが、それでも哲学(言語哲学)は「意味とは何か」についてさまざまに議論を重ねています。その1つに哲学者のウィトゲンシュタインが唱える「意味の使用説」(Meaning as use)があります(ウィトゲンシュタイン『哲学探究』)。
「意味の使用説」は、意味はその言葉がどのように使用されるかによって定まるという主張です。その主張の解釈はさまざまあるのですが、文字通りに「言葉を使うことで意味が定まる」と解釈するのが一般的です。そして、ChatGPTは言葉を使えている、つまり意味を定め、扱うことが出来ているわけです。この観点においては、大規模言語モデルは「知能」たりえる、と主張することが出来ます。
ただこれも厳密に考え出すと、「では、言葉を使うとは?」という、まさに哲学的な議論に遡っていくので、これもまた ChatGPT が知能を持つ決定的な証拠ではもちろんありません。こういう複数の議論を知ることで、「AIに知能がある or ない」「ChatGPT は汎用人工知能である or ではない」といったどちらかの結論に短絡的に飛びつかないようになってくれれば嬉しいです。
(追記)ツッコミいただきました
yudukikun5120.hatenadiary.jp
最初に「ツッコミをもらうこと前提」と書いた通り、ツッコミをいただけました。ありがとうございます!
ツッコミの内容はリンク先の記事をご覧いただきたく、この記事の良くない部分はそれはそれとして残しておこうと思います。
ただ「知能と言語使用の間の関係がよく分からない」というご指摘は100%その通りなので、上の記事の該当部分は取り消し線を引いておきました。