人工知能(AI)が近年、急激に進化しているが、今後どこまで進化するのだろうか。人間の脳を超えることはあるのだろうか。AI研究の経験があり、現在は経済学者として人工知能と経済の未来ヘリコプターマネーなど話題の著書を相次いで上梓した井上智洋駒澤大学准教授にインタビューした。最新刊の人工超知能では人間とAIの違いについて哲学の領域に分け入り、根源的な考察の糸口を提示している。(構成/奥田由意)

ロジック(20世紀)から
知覚(21世紀)へ

編集部(以下、色文字):人工知能の研究は、ご著書によれば17世紀から行われてきたとのことですが、今世紀に入って爆発的な進化を遂げているように見えます。20世紀と21世紀の人工知能(AI)の研究にはどういう違いがあるのでしょうか。

井上 智洋
駒澤大学経済学部准教授
東京都生まれ。1997 年慶應義塾大学環境情報学部卒業。早稲田大学経済学研究科 博士(経済学)。早稲田大学政治経済学部助教、駒澤大学経済学部講師を経て2017 年 4 月から現職。専門はマクロ経済学。慶應義塾大学SFC研究所上席研究員、総務省AIネットワーク化検討会議構成員、AI社会論研究会共同発起人。『新しいJavaの教科書』 (ソフトバンククリエイティブ) 、『人工知能と経済の未来 2030年雇用大崩壊』(文春新書) 、『ヘリコプターマネー』 (日本経済新聞出版社)、『人工超知能』(秀和システム)など著書多数。

井上智洋(以下略):一言でいえば、ロジック(20世紀)から知覚(21世紀)へという進化です。20世紀のAIの研究は、論理的思考を再現することや記号の処理が中心でした。21世紀は人間の直感的思考の再現や、画像や音声などの感性データを処理することに研究の中心が移ったのです。

 学習方法としては、「ルールを覚えさせる」(20世紀)から、「ディープラーニングを含む機械学習」(21世紀)へ、ということになります。

 たとえば、20世紀のAIでは、ネコを、「食肉目ネコ科の哺乳類」、「体長は成猫で80センチ程度、足裏に肉球がある」、「ネズミの駆除用に飼いならされてきた」などの辞書的な意味を入力し、それを蓄積することで、ネコとは何かを知ったことになっていたのです。21世紀のAIでは、ネコを含んだ膨大な画像を読み込ませ、AIがさまざまなネコの特徴や規則性をとらえて学習することで、別のネコの画像を見せたときにも、ネコだと同定することができます。

 このような技術を「パターン認識」といいます。パターン認識には、音声認識や画像認識などがありますが、ディープラーニングは特に画像認識の精度を飛躍的に向上させました。ロボットなどの機械にこのような高度な画像認識技術を組み込めば、機械が眼を持つことになります。

 東京大学の松尾豊特任准教授はこうした「眼をもった機械」の重要性を強調しています。生物の進化と同じで、眼を持つことによって機械の進化も爆発的に促進されると考えられるからです。

 画像処理だけでなく、言語能力も飛躍的に向上していると聞きます。

 グーグル翻訳や、女子高生AIのりんな、AppleのSiriなどは、言葉の意味を理解しているわけではないですが、統計的な処理だけでも、ある程度妥当な翻訳結果や応答を返してくれます。

 AIが言葉の意味がわかるようになるには、まだまだ壁は大きいのですか。

 意味がわかるかどうかというときの意味には、いろいろな側面があります。

1.指示対象の理解。「ここ」とか「それ」などの内容を、正しく指し示されたものに置き換えられるかどうか。

2.現実世界での対応。たとえば、レストランでAI付きのロボットがお客から、「この席は冷房がきついので他の席に移っていいですか」と言われた時、その客がエアコンの風が当たらない席への移動を希望していると理解できるかどうか。また、席を椅子のような座る場所と理解できるかどうか。

3.高次な意味の理解。「ネコの手も借りたいほど忙しい」というとき、ネコは自由気ままで、人間の命令に従わないという通念やイメージがあることを知らないと、この比喩の正確なニュアンスは理解できません。

4.言葉の意味を使われ方の中で学ぶこと。言葉そのものに最初から意味やルールがあるのではなく、言葉は使われていくなかで、意味やルールが決まります。実際に言葉が使われている状況をよく観察し、その場その場での使われ方から、理解していかなくてはなりません。

5.抽象的な概念の理解:社会、経済、市場、自由、権利のような抽象的な概念を理解できるかどうか。

 など、言葉の意味にはいろいろな側面があり、言語理解の壁はまだまだ乗り越え難いのです。

 そうした抽象概念、高次元を含めた意味の理解、あるいは私たちが一般に文脈を理解するといっているようなことは、AIには不可能なのでしょうか。

 現状ではまだ難しいですが、画像や音声の認識の精度は向上しています。こうしたセンスデータと言葉の使われ方のビッグデータとを結びつけて学習すれば、不可能とはいい切れません。

 そもそも今世紀にAIの開発が急激に進んだのはなぜですか。

 コンピュータの精度が上がったこと、センサーなどIoT関連の技術が上がったこと、それによって蓄積されるビッグデータが増えたこと、それらがディープラーニングなどの機械学習の技術の進歩を後押ししています。それから脳科学が発達したことも大きいですね。

 こうした技術の向上を踏まえ、現在「汎用AI」に関する世界的な開発競争が行われています。人間は汎用的な知性を持っており、一人の人間が潜在的には将棋を指せたり、チェスができたり、人と会話もできるし、事務作業もこなせます。そうした人間と同様の汎用的な知性を持ったAIが「汎用AI」です。

 その開発には多様なアプローチがありますが、私は特に二つのアプローチを対比させて論じることが多いです。ひとつは、脳の神経系のネットワーク構造をすべてデータ化してコンピュータ上に再現する「全脳エミュレーション」という方法です。こちらの方法はまだ時期尚早で、今世紀末くらいにならないと難しいのではないかと思います。

 もうひとつは、脳の各部位ごとの機能をプログラムとして再現したうえで、結合する「全脳アーキテクチャ」という方法です。

 いままでは、AIというと、「特化型AI」といって、自動運転などせいぜい、ひとつか二つの目的をこなすだけのものでしたが、「全脳アーキテクチャ」のアプローチによって、2030年には人間のように自律的に考えて振る舞う「汎用AI」が実現するだろうと言われています。