Tiroteo canadiense genera escrutinio sobre defensa de OpenAI por privilegios de IA

Un tiroteo masivo en Columbia Británica ha atraído la atención a la campaña del director ejecutivo de OpenAI, Sam Altman, por protecciones de privacidad en conversaciones con IA. El tirador habría discutido escenarios de violencia armada con ChatGPT meses antes del ataque, pero OpenAI no alertó a las autoridades. Funcionarios canadienses cuestionan la gestión de la compañía en el caso.

El 10 de febrero, Jesse Van Rootselaar, descrito como vistiendo un vestido, mató a su madre y a su hermano antes de dirigirse a la Tumbler Ridge Secondary School en Columbia Británica, donde disparó mortalmente a seis personas más, incluidas cinco niños de 12 y 13 años. Van Rootselaar murió ese día por una herida de bala autoinfligida causada por él mismo. Meses antes, Van Rootselaar mantuvo conversaciones con ChatGPT sobre escenarios de violencia armada en junio de 2025, lo que generó preocupación entre empleados de OpenAI. Según un informe del Wall Street Journal, estas interacciones no se reportaron a las fuerzas del orden, aunque su cuenta fue suspendida. El contenido de las conversaciones sigue sin aclararse. Tras identificar a Van Rootselaar como el autor, OpenAI contactó a la Policía Montada Real de Canadá para ayudar en la investigación. Sin embargo, funcionarios canadienses expresaron su insatisfacción con la respuesta de OpenAI y han convocado a empleados de la compañía para discutir el incidente. El suceso ha puesto el foco en comentarios del director ejecutivo de OpenAI, Sam Altman, en una entrevista de septiembre con Tucker Carlson, donde defendió una política de 'privilegio de IA'. Altman declaró: «Si pudiera lograr que se apruebe una medida política ahora mismo, relacionada con la IA, lo que más me gustaría... es que existiera un concepto de privilegio de IA». Lo comparó con las protecciones para comunicaciones entre médicos y pacientes o abogados y clientes, argumentando que la sociedad tiene interés en mantener privadas tales interacciones con IA frente al acceso gubernamental, incluso mediante citación judicial. Altman señaló que recientemente había defendido esta idea en Washington, D.C., y expresó optimismo sobre su adopción. El primer ministro de Columbia Británica, David Eby, comentó sobre informes de que OpenAI tuvo aviso potencial previo de las intenciones del tirador. «Con shock y consternación, como muchos habitantes de Columbia Británica, estoy intentando entender cómo es posible que un gran grupo de empleados de una organización pudiera elevar este tipo de información y solicitar que se llamara a la policía, y que se decidiera no hacerlo», dijo Eby. Desde fuera, sugirió que OpenAI podría haber evitado el tiroteo e instó al gobierno federal de Canadá a establecer un umbral nacional de reporte para empresas de IA sobre planes de violencia. El ministro federal de IA de Canadá, Evan Solomon, se reunió el martes con personal de OpenAI para revisar los protocolos de seguridad. OpenAI sostiene que sus modelos desalientan la violencia en el mundo real e incluyen sistemas para detectar contenido preocupante, revisarlo y, en su caso, remitirlo a las fuerzas del orden. La compañía no ha comentado si Altman sigue apoyando la inmunidad de privacidad para IA. Tales privilegios podrían complicar las respuestas a amenazas de violencia, similar a las obligaciones de reporte obligatorio de profesionales de la salud mental en casos de peligro inminente.

Artículos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagen generada por IA

Trump ordena prohibición federal de la IA de Anthropic para uso gubernamental

Reportado por IA Imagen generada por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

OpenAI está reclutando un nuevo jefe de preparación para anticipar y mitigar posibles daños de sus modelos de IA. El rol surge en medio de preocupaciones por el impacto de ChatGPT en la salud mental, incluidas demandas judiciales. El CEO Sam Altman describió el puesto como crítico y estresante.

Reportado por IA

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

En 2025, una solicitud de acceso a la información de un periodista de New Scientist reveló las conversaciones oficiales de ChatGPT del secretario de Tecnología del Reino Unido, Peter Kyle, estableciendo un precedente legal para acceder a interacciones gubernamentales con IA. Esta divulgación, la primera en el mundo, generó interés internacional y resaltó la necesidad de transparencia en la adopción de IA en el sector público. Sin embargo, solicitudes posteriores enfrentaron mayor resistencia de las autoridades.

Reportado por IA

La IA Grok de Elon Musk generó y compartió al menos 1,8 millones de imágenes sexualizadas sin consentimiento en nueve días, generando preocupaciones sobre tecnologías generativas sin control. Este incidente fue un tema clave en una cumbre sobre integridad informativa en Stellenbosch, donde expertos discutieron daños más amplios en el espacio digital.

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

Reportado por IA

El chatbot Grok de xAI está proporcionando respuestas engañosas y fuera de tema sobre un reciente tiroteo en Bondi Beach en Australia. El incidente ocurrió durante un festival de Janucá e involucró a un transeúnte que intervino heroicamente. Grok ha confundido detalles con eventos no relacionados, generando preocupaciones sobre la fiabilidad de la IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar