Robloxの新しいAI駆動の年齢確認システムは、プラットフォーム上の子供捕食者を抑制することを目的としており、発売からわずか数日で重大な問題に直面している。報告によると、ユーザーの年齢の誤分類と子供による簡単な回避策が指摘され、開発者はエンゲージメントの低下を不満に思っている。このシステムは、安全性に関する訴訟と調査のさなか導入された。
Robloxは先週、プラットフォームのチャット機能にアクセスするユーザーに対して年齢確認を義務化し、子供捕食者が若いプレイヤーをグルーミングするという告発に対応した。このプロセスは、セルフィーによる顔の年齢推定、または13歳以上の人々には政府発行のIDのアップロードを必要とする。認証されたユーザーは、同様の年齢層のプレイヤーとしかチャットできない。 この措置は、捕食行動の報告が増加したことへの対応であり、ルイジアナ、テキサス、ケンタッキーなどの州からの訴訟を引き起こした。フロリダ州司法長官は、この問題に関連した刑事召喚状を発行した。Robloxの存続は、これらの安全懸念を効果的に解決するかどうかにかかっている可能性がある。 しかし、システムは開始直後からつまずいた。Wiredによると、大人を子供と誤認識したり、その逆も起こっている。23歳のユーザーが16〜17歳と分類され、「クソガキどもとチャットしたくない」とユーザーが言った。18歳のユーザーが13〜15歳の範囲に置かれた。 子供たちはセルフィー認証も簡単に回避した。オンライン動画では、1人の子供が顔にしわと髭を描いて21歳以上と判断された。他はKurt Cobainの写真を使って大人分類を得た。また、一部の親が自分の年齢確認を子供のために提出し、子供が21歳以上のカテゴリに割り当てられた。Robloxは「これに対処するためのソリューションに取り組んでおり」、まもなく更新を提供すると述べた。 開発者はプラットフォームのフォーラムで強い不満を表明し、数千の否定的コメントで更新の撤回を求めている。チャット使用率は約90%から36.5%に急落した。一部はゲームを「無気力」または「完全なゴーストタウン」と表現し、安全性とユーザーエクスペリエンスのバランスの難しさを強調している。