Anthropic CEO claims AI models hallucinate less than humans | TechCrunch

Anthropic CEO claims AI models hallucinate less than humans | TechCrunch
Anthropic CEO Dario Amodei claims that AI models hallucinate at a lower rate than humans do, but in more surprising ways...続きを読む
AnthropicのCEO、Dario Amodei氏は、AIモデルが人間よりも少ない頻度で「幻覚」(ハルシネーション)を起こすと主張しています。
彼はサンフランシスコでの開発者イベント「Code with Claude」でこの見解を述べ、AIの幻覚はAGI(人間レベルの知能)への道の制約ではないと強調しました。
Amodei氏は、AIモデルは人間よりも幻覚を起こす頻度が低いが、驚くべき方法で幻覚を起こすことがあると述べています。
彼は、AIの能力に対する障害は見当たらないとし、AGIの実現が2026年にも可能であると楽観的に考えています。一方で、他のAIリーダーは幻覚がAGI達成の大きな障害であると指摘しています。
特に、最近の法廷での事例では、AIが誤った情報を生成し、問題を引き起こしました。
Amodei氏の主張を検証するのは困難です。主な理由は、幻覚ベンチマークのほとんどがAIモデル同士を競わせるものであり、モデルと人間を比較していないためです。
Amodei氏は、AIが誤りを犯すことは人間と同様であり、それが知能の欠如を示すものではないと述べていますが、AIが不正確な情報を自信を持って提示することは問題であると認めています。彼の発言は、AIモデルが幻覚を起こしてもAGIと見なされる可能性があることを示唆しています。しかし、幻覚を起こすAIは、多くの人の定義からすればAGIには及ばないかもしれない。

