メタ・プラットフォームズの日本法人によると、Instagramは今年、日本で13〜17歳の子供が自殺や自傷関連のコンテンツを繰り返し検索した場合に親に通知する新機能を追加する。この機能は、親が子供のアカウントと連携させることで利用可能になる。また、薬物や危険行為に関する投稿へのアクセスを制限する機能も導入される。
Instagramは、13〜17歳の利用者向けに「Teen Accounts」機能を活用し、自殺関連コンテンツの繰り返し検索を検知すると、親にアプリ内またはメールで通知する。この機能は米国と英国ではすでに利用可能だったが、日本では今回初めて導入される。親子アカウントの連携が前提条件となる。
さらに、17歳以下のティーンエイジャーに対し、薬物関連コンテンツ、脅迫などの極端な表現、銃撃などの危険行為に関する投稿の閲覧を制限する新機能も近日中に追加される。Instagramはすでに、性的画像やアルコール・タバコ関連の投稿表示を制限している。
ソーシャルメディアは友人との容易なコミュニケーションを可能にする一方で、世界的にいじめや自殺につながる懸念を生んでいる。米国では運営会社に対する訴訟が提起されており、オーストラリアでは昨年12月に16歳未満のソーシャルメディア利用を禁じる法律が施行された。
これらの措置は、子供の保護を強化するためのもので、Instagramの利用規約で13歳以上が利用可能であることを踏まえたものだ。