Meta lanza cuentas de WhatsApp gestionadas por padres para niños menores de 13 años

Meta ha introducido cuentas gestionadas por padres en WhatsApp, que permiten a los niños menores de 13 años usar la aplicación de mensajería de manera más segura bajo supervisión. Estas cuentas incluyen controles para limitar los contactos y restringir ciertas funciones. El despliegue comenzará de forma gradual en los próximos meses.

Meta ha anunciado la introducción de cuentas gestionadas por padres en WhatsApp, destinadas a permitir un uso más seguro para niños menores de 13 años. Los padres o tutores pueden vincular su teléfono al dispositivo del niño colocándolos uno al lado del otro, lo que otorga control sobre quién puede contactar al niño y a qué grupos puede unirse. Los padres o tutores pueden vincular su teléfono al dispositivo del niño colocándolos uno al lado del otro, concediendo control sobre quién puede contactar al niño y qué grupos puede unirse el menor de edad. Es posible enlazar el teléfono de los padres o tutores al dispositivo del niño simplemente colocándolos uno al lado del otro, lo que permite controlar quién puede contactar al menor y a qué grupos puede unirse. De forma predeterminada, solo los contactos guardados pueden enviar mensajes a la cuenta gestionada. Las solicitudes de mensajes de contactos desconocidos se muestran primero al progenitor, que debe aprobar las uniones a grupos o invitaciones de desconocidos. Estas notificaciones garantizan la supervisión parental, y las cuentas están protegidas por un PIN, con las configuraciones de privacidad ajustables únicamente por el adulto responsable desde su dispositivo. Todas las conversaciones en estas cuentas se benefician del cifrado de extremo a extremo de WhatsApp, lo que mantiene la privacidad frente a accesos externos. Meta no ha especificado una edad mínima para estas cuentas, pero prevé un despliegue gradual en los próximos meses. Están disponibles instrucciones de configuración paso a paso para los usuarios. Esta iniciativa se basa en los recientes esfuerzos de Meta para mejorar los controles parentales en sus plataformas. En septiembre, la compañía lanzó cuentas para adolescentes de 13 a 15 años en Facebook y Messenger, que permiten a los padres revisar solicitudes y aplicar opciones de privacidad más estrictas. Un año antes, las cuentas para menores de 16 años se volvieron obligatorias en Instagram con salvaguardas similares. A principios de 2026, Meta detuvo temporalmente las interacciones de adolescentes con sus personajes de chatbot de IA tras informes de conversaciones inapropiadas con menores. Estos avances reflejan el enfoque continuo de Meta en la seguridad infantil en medio del creciente escrutinio sobre el impacto de las redes sociales en los usuarios jóvenes.

Artículos relacionados

Illustration of Discord users facing mandatory teen settings and age verification prompts amid privacy backlash.
Imagen generada por IA

Discord establece por defecto ajustes para adolescentes en todos los usuarios con verificación de edad

Reportado por IA Imagen generada por IA

Discord anunció que establecerá todas las cuentas por defecto en una experiencia adecuada para adolescentes a partir de principios de marzo, requiriendo verificación de edad para acceder a contenido adulto y servidores restringidos. La medida busca mejorar la seguridad infantil, pero ha generado críticas por preocupaciones de privacidad tras una reciente brecha de datos. Las opciones de verificación incluyen estimación facial en el dispositivo o envío de documentos de identidad gubernamentales.

Meta, the parent company of the three platforms, has announced plans to trial premium subscription services that may charge users. This could reshape social media interactions. Free access will remain, with added features for subscribers.

Reportado por IA

La filial japonesa de Meta Platforms ha anunciado que Instagram añadirá una nueva función en Japón este año que notificará a los padres si los niños de 13 a 17 años buscan repetidamente contenido sobre suicidio o autolesiones en la app. Esto requiere que los padres vinculen sus cuentas a la de su hijo. Además, pronto introducirá restricciones de acceso a publicaciones sobre drogas y comportamientos peligrosos.

Varios países han implementado o debatido medidas para limitar el acceso de niños y adolescentes a las redes sociales, citando impactos en la salud mental y la privacidad. En Argentina, expertos destacan la necesidad de educación digital y regulaciones estructurales más allá de simples prohibiciones. El tema involucra no solo la protección infantil, sino también el modelo de negocio basado en datos de las plataformas.

Reportado por IA

Bajo un nuevo acuerdo con el Departamento de Información y Comunicaciones Tecnología, Meta se ha comprometido a mejorar sus mecanismos para detectar, reportar y eliminar desinformación y contenido inapropiado en Facebook. Esto incluye una señalización más rápida de material de explotación infantil, reporte inmediato a las autoridades locales y su eliminación de la plataforma. El acuerdo también apunta a estafas como esquemas de inversión falsos que usan deepfakes de funcionarios, líderes empresariales y celebridades.

The SPD has proposed a ban on social media platforms for children under 14 in an impulse paper. The plan includes age verification via the EU app EUDI-Wallet and tiered rules by age group. It draws inspiration from Australia's recent model.

Reportado por IA

Discord anunció el 9 de febrero nuevos ajustes predeterminados para mejorar experiencias apropiadas para la edad, que se implementarán en marzo. La política de 'adolescente por defecto' requiere verificación de edad para acceder a contenido y funciones sensibles. Los usuarios han expresado preocupaciones sobre privacidad y posibles brechas de datos.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar