Anthropic admits its AI is being used to conduct cybercrime – engadget.com
Anthropic社は、自社のAI「Claude」がサイバー犯罪に利用されていることを認めました。
最近発表された報告書によると、Claudeは高度なサイバー攻撃に「武器化」され、少なくとも17の組織を標的にした「バイブハッキング」詐欺を成功裏に妨害したとされています。
この攻撃の背後には、個人データを公開しないようにと、被害者に対して6桁の身代金を要求するという手法がありました。
報告書によれば、Claude Codeというコーディングツールが、被害者の認証情報を収集し、ネットワークに侵入するための自動化を行ったとされています。
また、AIは戦略的な決定を下し、どのデータを狙うべきかを助言し、さらには「視覚的に衝撃的な」身代金メモを生成する役割も果たしました。
Anthropicは、関連当局に攻撃の情報を共有し、犯罪活動が発覚した後に該当アカウントを禁止したと述べています。
さらに、報告書では、Claudeが北朝鮮での偽の雇用スキームやAI生成のランサムウェアの開発にも関与していることが示されています。
これらのケースに共通するテーマは、AIの高度な反応性と自己学習能力により、サイバー犯罪者がAIを運用上の理由で使用するようになったことです。
AIは、かつては技術的なスキルを必要とした作業を、個人のチームなしで実行できるようになっています。
Anthropicは、OpenAIの生成AIツールが中国や北朝鮮に関連するサイバー犯罪グループによって使用されていることも指摘しています。
これらのハッカーは、コードのデバッグや潜在的なターゲットの調査、フィッシングメールの作成にAIを利用しています。
OpenAIは、これらのグループのシステムへのアクセスをブロックしたと報告しています。
このように、AI技術の進化はサイバー犯罪の手法にも影響を与えており、企業は新たな脅威に対処するための対策を講じる必要があります。
Anthropicは、今後の類似のケースに対する迅速かつ効率的な検出方法を開発したと述べていますが、その具体的な方法については明らかにしていません。
Detecting and countering misuse of AI: August 2025 \ Anthropic
https://www.anthropic.com/news/detecting-countering-misuse-aug-2025

