Meta lance des comptes WhatsApp gérés par les parents pour les enfants de moins de 13 ans

Meta a introduit des comptes gérés par les parents sur WhatsApp, permettant aux enfants de moins de 13 ans d'utiliser l'application de messagerie de manière plus sûre sous surveillance. Ces comptes incluent des contrôles pour limiter les contacts et restreindre certaines fonctionnalités. Le déploiement commencera progressivement dans les mois à venir.

Meta a annoncé l'introduction de comptes gérés par les parents sur WhatsApp, visant à permettre une utilisation plus sûre pour les jeunes de moins de 13 ans. Les parents ou tuteurs peuvent lier leur téléphone à l'appareil de l'enfant en les plaçant l'un à côté de l'autre, accordant le contrôle sur qui peut contacter l'enfant et quels groupes ils peuvent rejoindre. Les comptes sont limités à la messagerie et aux appels, excluant des fonctionnalités telles que les Chaînes, le partage de localisation et l'intégration de Meta AI. Par défaut, seuls les contacts enregistrés peuvent envoyer des messages au compte géré. Les demandes de messages d'inconnus apparaissent d'abord auprès du parent, qui doit approuver les adhésions à des groupes ou les invitations d'étrangers. Ces notifications assurent la supervision parentale, et les comptes sont protégés par un PIN, les paramètres de confidentialité ne pouvant être ajustés que par l'adulte gestionnaire depuis son appareil. Toutes les conversations sur ces comptes bénéficient du chiffrement de bout en bout de WhatsApp, maintenant la confidentialité vis-à-vis des accès externes. Meta n'a pas précisé d'âge minimum pour ces comptes mais prévoit un déploiement progressif au cours des mois à venir. Des instructions de configuration étape par étape sont disponibles pour les utilisateurs. Cette initiative s'inscrit dans les récents efforts de Meta pour renforcer les contrôles parentaux sur ses plateformes. En septembre, l'entreprise a lancé des comptes adolescents pour les utilisateurs âgés de 13 à 15 ans sur Facebook et Messenger, permettant aux parents d'examiner les demandes et d'appliquer des options de confidentialité plus strictes. Un an plus tôt, les comptes pour les moins de 16 ans sont devenus obligatoires sur Instagram avec des protections similaires. Plus tôt en 2026, Meta a temporairement suspendu les interactions des adolescents avec ses personnages de chatbot IA après des rapports de conversations inappropriées avec des mineurs. Ces développements reflètent l'engagement continu de Meta en matière de sécurité des enfants face à l'examen croissant de l'impact des réseaux sociaux sur les jeunes utilisateurs.

Articles connexes

Illustration of Discord users facing mandatory teen settings and age verification prompts amid privacy backlash.
Image générée par IA

Discord passe tous les utilisateurs par défaut en mode ado avec vérification d’âge

Rapporté par l'IA Image générée par IA

Discord a annoncé qu’il passera toutes les comptes par défaut sur une expérience adaptée aux adolescents début mars, exigeant une vérification d’âge pour accéder au contenu adulte et aux serveurs restreints. Cette mesure vise à renforcer la sécurité des enfants mais suscite des réactions négatives en raison de préoccupations sur la vie privée après une récente violation de données. Les options de vérification incluent l’estimation faciale sur appareil ou la soumission de pièces d’identité gouvernementales.

Meta, la société mère des trois plateformes, a annoncé des plans pour tester des services d'abonnement premium qui pourraient facturer les utilisateurs. Cela pourrait remodeler les interactions sur les réseaux sociaux. L'accès gratuit restera disponible, avec des fonctionnalités supplémentaires pour les abonnés.

Rapporté par l'IA

Meta Platforms' Japanese arm has announced that Instagram will add a new feature in Japan this year, notifying parents if children aged 13-17 repeatedly search for suicide or self-harm content on the app. This requires parents to link their accounts to their child's. Additionally, it will soon introduce restrictions on access to posts about drugs and dangerous behavior.

Plusieurs pays ont mis en œuvre ou débattu de mesures visant à limiter l'accès des enfants et des adolescents aux réseaux sociaux, invoquant des impacts sur la santé mentale et la vie privée. En Argentine, les experts soulignent la nécessité d'une éducation numérique et de réglementations structurelles au-delà de simples interdictions. La question concerne non seulement la protection des enfants mais aussi le modèle économique des plateformes basé sur les données.

Rapporté par l'IA

Dans le cadre d'un nouvel accord avec le Département des Technologies de l'Information et de la Communication, Meta s'est engagé à renforcer ses mécanismes de détection, de signalement et de suppression de la désinformation et du contenu inapproprié sur Facebook. Cela inclut un signalement plus rapide des matériels d'exploitation d'enfants, un rapport immédiat aux autorités locales et leur suppression de la plateforme. L'accord cible également les arnaques telles que les schémas d'investissement frauduleux utilisant des deepfakes de responsables, de dirigeants d'entreprise et de célébrités.

L'SPD a proposé d'interdire les plateformes de réseaux sociaux aux enfants de moins de 14 ans dans un document d'impulsion. Le plan prévoit une vérification d'âge via l'application de l'UE EUDI-Wallet et des règles échelonnées par groupes d'âge. Il s'inspire du modèle récent de l'Australie.

Rapporté par l'IA

Discord a annoncé le 9 février de nouveaux paramètres par défaut pour améliorer les expériences adaptées à l'âge, qui seront mis en œuvre en mars. La politique « ado par défaut » exige une vérification d'âge pour accéder à du contenu et des fonctionnalités sensibles. Les utilisateurs ont exprimé des préoccupations concernant la vie privée et les risques potentiels de violation de données.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser