・・・・・・・っということで、NHKの番組【フロンティアAI 究極の知能への挑戦】の中で、チャットGPTの作動原理を簡潔に言えば、「文脈を理解して次に来る言葉を予測すること」と説明されていました。
へぇ〜〜人間の脳の処理方法とずいぶん違うなぁ〜と思いませんか?
そこで、チャットGPT君に直接その作動原理を質問してみました。
- ansformer Architecture(トランスフォーマー構造):
- Pre-training(事前学習):
- Attention Mechanism(注意機構):
- Fine-tuning(微調整):
- 生成的な対話:
であって、それぞれを説明されました。
はっきり言って、サッパリ分かりません。(;^_^A
そこで、「難しくてよくわかりませんが、要は文脈から次に来る単語やフレーズを予測する能力がキモと理解していいですか?」と質問しました。
チャットGPT君は「はい、その理解で正解です。チャットGPTは、文脈から次に来る単語やフレーズを予測する能力がキーとなっています。」と答えました。
Pre-training(事前学習)がキーテクノロジーなんですね・・・と分かったような気になります。
膨大なデータを利用して次の文脈を予想する。
それに文章全体を調整して、より人間らしく味付けしているんですね。
・・・ということは、「反射的に予測」しているのであって、考えているのとはずいぶんニュアンスが違うのではないか。
うぅ〜ん、やっぱり分からない。(ーー゛)
番組ではBody shapes Brainという考えと同様に、文章が脳を作ると考えてもいいのではと言っていた気がします。(酔っていたので確かではありませんが。)
じゃあ、人間の脳もAIと同じ原理じゃないか・・・となりませんか?
ぼくは、人間を人間たらしめているのは言葉(言語)ではないかと薄々感じていましたが、その考えの正しさが補強された気がしました。