ChatGPTはめちゃくちゃ賢いんだけど、変な間違いをするし話が通じないこともあります。 ここで「もっと賢くなったら数年後には・・・」のように思ってしまいがちなのだけど、GPT4より目に見えて賢くするのは難しい気がします。 むしろ、人間くさくなったり使いやすくなったりするんじゃないだろうか。 ChatGPTなどの言語AIの中核になる大規模言語モデルは、多くのテキストを学習することで言葉や論理について学習しています。 ただ、そのための教師データになるテキストが枯渇するのではないかという話があります。 MIT Tech Review: 大規模言語AIにアキレス腱、訓練用データが2026年にも枯渇か いまChatGPTの賢さで問題になるのは、論理の誤りや情報の間違いです。 論理構造が難しくなり思考手順の分解が必要になると間違いやすくなるように思います。 ニューラルネットの論理推論は、雑にいうと計