Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
チャットGPTの作動原理 | so what(だから何なんだ)

so what(だから何なんだ)

人生のバックパッカーのブログです。
暇はあるけど体力と金と気力がない。
そんなお年頃。
62カ国で止まったまま先に進みません。(;^_^A

・・・・・・・っということで、NHKの番組【フロンティアAI 究極の知能への挑戦】の中で、チャットGPTの作動原理を簡潔に言えば、「文脈を理解して次に来る言葉を予測すること」と説明されていました。

 

へぇ〜〜人間の脳の処理方法とずいぶん違うなぁ〜と思いませんか?

 

そこで、チャットGPT君に直接その作動原理を質問してみました。

  1. ansformer Architecture(トランスフォーマー構造):
  2. Pre-training(事前学習):
  3. Attention Mechanism(注意機構):
  4. Fine-tuning(微調整):
  5. 生成的な対話:

であって、それぞれを説明されました。

 

はっきり言って、サッパリ分かりません。(;^_^A

 

そこで、「難しくてよくわかりませんが、要は文脈から次に来る単語やフレーズを予測する能力がキモと理解していいですか?」と質問しました。

 

チャットGPT君は「はい、その理解で正解です。チャットGPTは、文脈から次に来る単語やフレーズを予測する能力がキーとなっています。」と答えました。

 

Pre-training(事前学習)がキーテクノロジーなんですね・・・と分かったような気になります。

 

膨大なデータを利用して次の文脈を予想する。

 

それに文章全体を調整して、より人間らしく味付けしているんですね。

 

・・・ということは、「反射的に予測」しているのであって、考えているのとはずいぶんニュアンスが違うのではないか。

 

うぅ〜ん、やっぱり分からない。(ーー゛)

 

番組ではBody shapes Brainという考えと同様に、文章が脳を作ると考えてもいいのではと言っていた気がします。(酔っていたので確かではありませんが。)

 

じゃあ、人間の脳もAIと同じ原理じゃないか・・・となりませんか?

 

ぼくは、人間を人間たらしめているのは言葉(言語)ではないかと薄々感じていましたが、その考えの正しさが補強された気がしました。