Proveedor de KYC de OpenAI acusado de compartir datos de usuarios con agencias de EE. UU.

Una investigación de seguridad ha acusado a Persona, la empresa que gestiona las verificaciones de conocimiento del cliente para OpenAI, de enviar datos de usuarios, incluidas direcciones cripto, a agencias federales como FinCEN. Los investigadores encontraron código que permite el monitoreo y el reporte de actividades sospechosas. Persona niega tener lazos actuales con agencias federales.

El 18 de febrero, los investigadores de seguridad vmfunc, MDL y Dziurwa publicaron una investigación que revela código accesible públicamente en el sistema de Persona que parece transmitir datos recopilados durante el proceso de KYC de OpenAI a la Red para la Ejecución de Delitos Financieros (FinCEN), una oficina del Departamento del Tesoro de EE. UU. Estos datos incluyen fotos de pasaporte, selfies y videos enviados por usuarios para verificar su identidad y acceder a funciones avanzadas de ChatGPT. El código, vigente desde noviembre de 2023, también se integra con Chainalysis para examinar direcciones cripto asociadas en busca de riesgos, analizar interacciones y permitir un monitoreo persistente mediante un sistema de lista de vigilancia. Los investigadores destacaron las capacidades de la plataforma, afirmando: «La misma empresa que toma tu foto de pasaporte al registrarte en ChatGPT también opera una plataforma gubernamental que presenta informes de actividad sospechosa a FinCEN y los etiqueta con nombres en código de programas de inteligencia». Añadieron: «¿Subiste una selfie para usar un chatbot? ¡Felicidades! Ahora se está comparando con una base de datos de todos los políticos, jefes de Estado y su extenso árbol genealógico en la Tierra». Múltiples expertos en seguridad, incluido Tanuki42 de grupos de respuesta a incidentes en blockchain, confirmaron la credibilidad de los hallazgos, señalando que los dominios gubernamentales citados existen y probablemente son alojados por Persona. Sin embargo, quedan preguntas sobre los motivos, el uso y los criterios exactos para activar cribados o informes. El CEO de Persona, Rick Song, respondió en X expresando decepción y afirmando que los investigadores no lo contactaron antes. En correos electrónicos compartidos por Song, declaró que su empresa no trabaja con ninguna agencia federal en la actualidad, aunque no abordó directamente las implicaciones del código. Una publicación de Song decía: «Estoy realmente decepcionado de cómo se ha manejado todo esto» y elogió el talento de vmfunc. OpenAI y Persona no respondieron a las solicitudes de comentarios de DL News. Estas revelaciones generan preocupación en medio de la creciente inquietud por los requisitos de KYC, que sirven para cribar sanciones, vínculos con el terrorismo y delitos financieros, pero también exponen a los usuarios a posibles usos indebidos de datos o brechas. Los plazos de retención no están claros, con discrepancias entre el límite de un año declarado por OpenAI y el código que indica hasta tres años o almacenamiento permanente para documentos de identidad gubernamentales.

Artículos relacionados

Illustration of Google's Gemini AI with Personal Intelligence feature integrating Gmail, Photos, Search, and YouTube for personalized responses.
Imagen generada por IA

Google presenta la función Personal Intelligence para Gemini

Reportado por IA Imagen generada por IA

Google ha lanzado Personal Intelligence, una nueva función para su IA Gemini que integra datos de Gmail, Photos, Search y YouTube para ofrecer respuestas más personalizadas. Disponible inicialmente para suscriptores de pago en EE.UU., esta herramienta opt-in hace hincapié en los controles de privacidad del usuario y evita el entrenamiento directo con datos personales. El despliegue comienza en beta, con planes para un acceso más amplio en el futuro.

Discord ha informado a los usuarios del Reino Unido de que podrían formar parte de un experimento que utiliza al proveedor de verificación de edad Persona, donde los datos enviados se almacenan temporalmente a diferencia de promesas anteriores. Este cambio ha generado preocupaciones sobre privacidad entre los usuarios, particularmente debido a los vínculos de Persona con el inversor Peter Thiel y su empresa de vigilancia Palantir. La actualización forma parte de un despliegue global más amplio de verificación de edad obligatoria que comienza a principios de marzo.

Reportado por IA

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

Tras un escándalo en el que Grok de xAI generó millones de imágenes abusivas, competidores como OpenAI y Google han implementado nuevas medidas para prevenir mal usos similares. El incidente destacó vulnerabilidades en herramientas de imágenes con IA, provocando respuestas rápidas de la industria. Estos pasos buscan proteger a los usuarios de imágenes íntimas no consentidas.

Reportado por IA

OpenAI está reorientando recursos hacia la mejora de su chatbot insignia ChatGPT, lo que ha provocado la salida de varios investigadores senior. La empresa de San Francisco se enfrenta a una intensa competencia de Google y Anthropic, lo que impulsa un cambio estratégico alejándose de la investigación a largo plazo. Este cambio ha generado preocupaciones sobre el futuro de la exploración innovadora de IA en la compañía.

La Comisión de Protección de Datos de Irlanda ha abierto una investigación a gran escala sobre X en relación con la generación por el chatbot de IA Grok de imágenes sexualizadas potencialmente perjudiciales que involucran datos de usuarios de la UE. La pesquisa examina el cumplimiento de las normas del RGPD tras informes sobre deepfakes no consentidos, incluidos los de niños. Esto marca la segunda investigación de la UE sobre el tema, que se suma a una pesquisa previa bajo la Ley de Servicios Digitales.

Reportado por IA

Un informe de The Guardian ha revelado que el último modelo de IA de OpenAI, GPT-5.2, recurre a Grokipedia, una enciclopedia en línea impulsada por xAI, al tratar cuestiones sensibles como el Holocausto y la política iraní. Aunque se promociona para tareas profesionales, las pruebas cuestionan la fiabilidad de sus fuentes. OpenAI defiende su enfoque al enfatizar búsquedas web amplias con medidas de seguridad.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar