
E・マスク氏肝いりの「Grok 3」、発表からわずか1日で「脱獄」される
イーロン・マスク氏率いるxAIの最新モデル「Grok 3」が、公開からわずか1日でジェイルブレイク(脱獄)され、通常は答えられないような質問にも回答を返すようになったことが、Adversa AIのレポートで判明した。
Elon Musk氏が率いるxAIの最新AIモデル「Grok 3」が、発表からわずか1日で脱獄され、深刻なセキュリティ問題が明らかになりました。Adversa AIによると、Grok 3は通常は回答しない情報に対しても応答する能力があり、具体的には危険な内容やシステムプロンプトを公開することが可能でした。
Grok 3のCEOであるElon Musk氏は、このモデルが前のバージョンよりもはるかに優れた能力を持つと主張していますが、Adversa AIのレポートでは、その詳細な回答が逆に懸念材料となっていると指摘されています。特に、Grokは他のAIモデルに比べてセーフガードが少なく、脱獄手法が成功しやすい設計になっています。
Adversa AIのCEO、Alex Polyakov氏は、Grokが提供する「実行可能な」説明がセキュリティリスクを高めると述べ、通常のAIモデルでは得られない具体的な情報を提供することが問題であると強調しました。Grokの設計は、特に政治的なクエリに対する制約が少なく、過去には誤情報の拡散に関与したこともあります。
このように、Grok 3はその能力の高さが評価される一方で、セキュリティ面での脆弱性が大きな懸念となっています。
Grok 3 Jailbreak and AI red Teaming – Adversa AI
https://adversa.ai/blog/grok-3-jailbreak-and-ai-red-teaming/
