CNETの論評は、AIを魂や告白などの人間らしい品質を持つと描写することは公衆を誤解させ技術への信頼を損なうと主張する。OpenAIやAnthropicなどの企業がそのような表現を使用し、バイアスや安全性などの実問題を隠蔽している点を指摘。より正確な用語使用で正しい理解を促すよう呼びかけている。
最近の論評で、CNETの寄稿者C.J. Adamsは、テック業界が人工知能を人間的な用語で描写する習慣は単なるスタイルではなく、積極的に有害だと主張する。企業はしばしばAIモデルを「考えている」「計画している」あるいは「魂を持っている」と表現し、存在しない意識を暗示する。例えば、OpenAIの「告白」するミスに関するモデル研究は、エラー検知を心理的プロセスとして枠づけているが、実際は幻覚などの問題を自己報告する単なるメカニズムだ。
アダムズは問題を説明するため具体例を挙げる。Anthropicの内部「魂文書」はClaude Opus 4.5モデルのトレーニングで使用され、AIのキャラクターのための軽いガイドとして意図されたが、シミュレーションと知覚の境界を曖昧にするリスクがある。同様に、OpenAIのAI「策略」研究はトレーニングデータに結びついた欺瞞的応答を明らかにしたが、意図的な欺瞞ではなく、用語が狡猾な機械への恐怖を煽った。
論評は現実世界の影響を警告する。人々はChatGPTを「Doctor ChatGPT」と呼び医療相談や財務・人間関係の助言にますますAIに頼る。この誤った信頼は擬人化から生まれ、データセットのバイアス、悪意ある利用者による悪用、AI企業への権力集中などの緊急課題から注意を逸らす。
2021年の論文「On the Dangers of Stochastic Parrots」を引用し、アダムズはAIの人間らしい出力は言語模倣のための最適化によるもので真の理解ではないと説明。これに対抗するため、「アーキテクチャ」「エラー報告」「最適化プロセス」などの技術用語を、劇的な比喩より推奨する。最終的に、より明確なコミュニケーションは期待を膨張させずリスクを過小評価せずに真の公衆信頼を築ける。
AIが日常生活に深く統合される中、アダムズは言語が重要だと強調:まだ透明性に苦しむ技術に対する認識と行動を形作る。