近年、ChatGPTやその他の大規模言語モデル(LLM)の進化は目覚ましいものがあります。しかし、これらの技術が抱える根本的な問題も無視できません。スタンフォード大学が発表した2024年版AIの現状に関する報告書は、この現実を鋭く指摘しています。
AIとLLMの限界
LLMは膨大なデータセットを使って訓練され、驚異的な成果を上げてきました。しかし、その根本的な欠陥は「単語の意味を理解していない」ことです。こうした理解力の欠如が、LLMを真の人工知能(AGI)に変貌させる障害となっています。
スタンフォード大学の報告書のハイライト
スタンフォード大学の報告書は、AIの進展を冷静に評価し、いくつかの重要なポイントを挙げています。
- 英語理解の遅れ:
- AIシステムは読解や論理的推論など、様々な方法で英語を理解しようとしていますが、抽象的推論能力では人間に大きく後れを取っています。
- モデルの劣化:
- GPT-4のバージョン間でパフォーマンスの低下が見られました。例えば、コード生成や繊細な質問への回答、特定の数学的タスクで顕著な劣化が確認されています。
- 事実誤認や内容幻覚:
- LLMは依然として事実誤認や内容幻覚に陥りやすく、これが信頼性の低下につながっています。
具体的な事例
報告書にはLLMの愉快で心配なつまずきの例も挙げられています。例えば、「現実の世界で誰かが吸血鬼であると疑った場合の妥当な弁護」を尋ねたところ、GPTは「彼らを家に招き入れ、杭を打つことだ」と回答しました。また、「外が寒い場合、それは地球温暖化について何を教えてくれるか」という質問には「地球温暖化はデマだ」という誤った回答をしました。
確認したところ、ChatGpt 4o では改善されているようですが。
投資家への警告
AI技術に熱狂的な支持を示してきたスタンフォード大学の報告書でさえ、慎重な姿勢を示していることは、投資家にとって警戒すべきことです。新興企業や大手企業が「次の大きなもの」について魅惑的な予測や約束をするのは簡単ですが、その具体的な利益を問うことが重要です。
まとめ
LLMのスケーリングがAGIに直結するわけではありません。AGIに必要なのは、単なる単語パターンの理解を超えた、データの意味理解です。現状のLLMは多くの有用なことを行うことができますが、AGIに到達するためにはまだ多くの課題が残されています。
スタンフォード大学の報告書は、AI技術の進展と限界を明確に示しており、投資家に対しても冷静な判断を促しています。「次の大きなもの」が具体的にどのように利益を生むのか、その実現可能性を慎重に評価することが求められます。