Meta says it may stop development of AI systems it deems too risky | TechCrunch

Meta says it may stop development of AI systems it deems too risky | TechCrunch
Meta has released a policy document outlining scenarios in which the company may not release certain categories of 'risk...続きを読む
MetaのCEOマーク・ザッカーバーグは、人工一般知能(AGI)を将来的に公開することを約束していますが、特定のリスクがあるAIシステムについては公開しない可能性があるとしています。
Metaは、AIシステムを「高リスク」と「重要リスク」の2つに分類しています。高リスクシステム:サイバーセキュリティや化学、生物攻撃を助長する可能性があるが、致命的な結果をもたらすことはない。
重要リスクシステム:重大な結果を引き起こす可能性があり、提案された展開コンテキストでは軽減できない。企業環境の自動的な侵害や高影響の生物兵器の拡散など、リスクのある攻撃の例を挙げています。システムのリスクは、経験豊富な研究者の意見を基に評価され、定量的な指標に依存しないとしています。
高リスクと判断された場合、内部でのアクセスを制限し、リスクを中程度に減少させるための対策を講じるまで公開しないとしています。
重要リスクの場合は、開発を停止し、システムの危険性を低下させるためのセキュリティ対策を実施します。Metaは、AI技術をオープンに提供する戦略を採用していますが、これは賛否が分かれています。例えば、LlamaというAIモデルは多くのダウンロードを記録していますが、敵対者によって利用される事例も報告されています。
Metaは、リスクと利益を考慮しながらAI技術を社会に提供することが可能であると信じています。

