Meta lance des comptes WhatsApp gérés par les parents pour les enfants de moins de 13 ans

Meta a introduit des comptes gérés par les parents sur WhatsApp, permettant aux enfants de moins de 13 ans d'utiliser l'application de messagerie de manière plus sûre sous surveillance. Ces comptes incluent des contrôles pour limiter les contacts et restreindre certaines fonctionnalités. Le déploiement commencera progressivement dans les mois à venir.

Meta a annoncé l'introduction de comptes gérés par les parents sur WhatsApp, visant à permettre une utilisation plus sûre pour les jeunes de moins de 13 ans. Les parents ou tuteurs peuvent lier leur téléphone à l'appareil de l'enfant en les plaçant l'un à côté de l'autre, accordant le contrôle sur qui peut contacter l'enfant et quels groupes ils peuvent rejoindre. Les comptes sont limités à la messagerie et aux appels, excluant des fonctionnalités telles que les Chaînes, le partage de localisation et l'intégration de Meta AI. Par défaut, seuls les contacts enregistrés peuvent envoyer des messages au compte géré. Les demandes de messages d'inconnus apparaissent d'abord auprès du parent, qui doit approuver les adhésions à des groupes ou les invitations d'étrangers. Ces notifications assurent la supervision parentale, et les comptes sont protégés par un PIN, les paramètres de confidentialité ne pouvant être ajustés que par l'adulte gestionnaire depuis son appareil. Toutes les conversations sur ces comptes bénéficient du chiffrement de bout en bout de WhatsApp, maintenant la confidentialité vis-à-vis des accès externes. Meta n'a pas précisé d'âge minimum pour ces comptes mais prévoit un déploiement progressif au cours des mois à venir. Des instructions de configuration étape par étape sont disponibles pour les utilisateurs. Cette initiative s'inscrit dans les récents efforts de Meta pour renforcer les contrôles parentaux sur ses plateformes. En septembre, l'entreprise a lancé des comptes adolescents pour les utilisateurs âgés de 13 à 15 ans sur Facebook et Messenger, permettant aux parents d'examiner les demandes et d'appliquer des options de confidentialité plus strictes. Un an plus tôt, les comptes pour les moins de 16 ans sont devenus obligatoires sur Instagram avec des protections similaires. Plus tôt en 2026, Meta a temporairement suspendu les interactions des adolescents avec ses personnages de chatbot IA après des rapports de conversations inappropriées avec des mineurs. Ces développements reflètent l'engagement continu de Meta en matière de sécurité des enfants face à l'examen croissant de l'impact des réseaux sociaux sur les jeunes utilisateurs.

Articles connexes

Illustration of Discord users facing mandatory teen settings and age verification prompts amid privacy backlash.
Image générée par IA

Discord defaults all users to teen settings with age verification

Rapporté par l'IA Image générée par IA

Discord announced it will default all accounts to a teen-appropriate experience starting in early March, requiring age verification to access adult content and restricted servers. The move aims to enhance child safety but has sparked backlash over privacy concerns following a recent data breach. Verification options include on-device facial estimation or submitting government IDs.

Meta, the parent company of the three platforms, has announced plans to trial premium subscription services that may charge users. This could reshape social media interactions. Free access will remain, with added features for subscribers.

Rapporté par l'IA

Meta Platforms' Japanese arm has announced that Instagram will add a new feature in Japan this year, notifying parents if children aged 13-17 repeatedly search for suicide or self-harm content on the app. This requires parents to link their accounts to their child's. Additionally, it will soon introduce restrictions on access to posts about drugs and dangerous behavior.

Meta will discontinue end-to-end encrypted messaging in Instagram direct messages after May 8, 2026, due to low adoption. Affected users will receive in-app instructions to download their messages and media. The company directs users to WhatsApp for continued encrypted messaging.

Rapporté par l'IA

Several countries have implemented or debated measures to limit children's and teenagers' access to social media, citing impacts on mental health and privacy. In Argentina, experts emphasize the need for digital education and structural regulations beyond simple bans. The issue involves not only child protection but also the platforms' data-based business model.

A jury in New Mexico ruled Meta liable for violating the state's consumer protection laws, ordering the company to pay a $375 million penalty. The verdict stems from allegations that Meta misled users about platform safety amid child exploitation risks. Meta plans to appeal the decision.

Rapporté par l'IA

Discord announced new default settings on February 9 to enhance age-appropriate experiences, set to implement in March. The 'teen-by-default' policy requires age verification for accessing sensitive content and features. Users have expressed concerns over privacy and potential data breaches.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser