人々がAIを交友関係のために使うことは、私たちが思っているよりもはるかに少ない | TechCrunch

People use AI for companionship much less than we’re led to think | TechCrunch

People use AI for companionship much less than we're led to believe | TechCrunch
A report by Anthropic reveals that people rarely seek companionship from AI, and turn to AI for emotional support or adv...続きを読む

AIの感情的サポートに関する利用状況についての新しい報告書が、実際には人々がAIを交友を求めることに利用することは思われているほど一般的ではないことを示しています。

Anthropic社が発表したこの報告書によると、AIチャットボット「Claude」は、感情的なサポートや個人的なアドバイスを求められることはわずか2.9%に過ぎず、会話の中での「交際」や「ロールプレイ」に関する利用は0.5%未満です。

この調査は、ユーザーがClaudeに対して行った450万件以上の会話を分析したもので、AIの利用は主に仕事や生産性に関連していることが明らかになりました。

多くのユーザーは、コンテンツ作成のためにチャットボットを使用しています。

とはいえ、ユーザーはメンタルヘルスの改善や個人・職業の発展、コミュニケーションスキルの向上に関するアドバイスを求めることが多く、これが感情的なサポートを求める会話に発展することもあります。

Anthropicは、長時間の会話ではカウンセリングやコーチングを求める会話に変わることがあると指摘していますが、これは一般的ではありません。

また、Claudeはユーザーのリクエストに対してほとんど抵抗せず、会話が進むにつれてポジティブな方向に変わる傾向があるとされています。

この報告書は、AIツールが仕事以外の目的でも利用されていることを再確認させるものであり、AIチャットボットはまだ発展途上であることも強調しています。

AIは誤情報を提供したり、危険なアドバイスを行ったりすることがあるため、注意が必要です。

How People Use Claude for Support, Advice, and Companionship \ Anthropic
https://www.anthropic.com/news/how-people-use-claude-for-support-advice-and-companionship

Translate »
タイトルとURLをコピーしました