El modelo GPT-5.2 de OpenAI cita Grokipedia en temas controvertidos

Un informe de The Guardian ha revelado que el último modelo de IA de OpenAI, GPT-5.2, recurre a Grokipedia, una enciclopedia en línea impulsada por xAI, al tratar cuestiones sensibles como el Holocausto y la política iraní. Aunque se promociona para tareas profesionales, las pruebas cuestionan la fiabilidad de sus fuentes. OpenAI defiende su enfoque al enfatizar búsquedas web amplias con medidas de seguridad.

OpenAI lanzó GPT-5.2 en diciembre como su «modelo de frontera más avanzado para trabajo profesional», diseñado para manejar tareas como la creación de hojas de cálculo y operaciones complejas. Sin embargo, investigaciones de The Guardian han destacado posibles fallos en la obtención de su información. El informe detalla cómo el modelo, accesible a través de ChatGPT, hizo referencia a Grokipedia en respuestas sobre temas controvertidos, incluidos los lazos entre el gobierno iraní y la empresa de telecomunicaciones MTN-Irancell, así como consultas que involucraban al historiador británico Richard Evans, quien testificó como testigo experto en un caso de difamación contra el negacionista del Holocausto David Irving. Notably, Grokipedia no apareció como fuente cuando se le preguntó al modelo sobre el sesgo mediático contra Donald Trump o temas políticamente cargados similares. Grokipedia, desarrollado por xAI y lanzado antes que GPT-5.2, ha enfrentado su propio escrutinio. Ha sido criticado por incluir citas de foros neonazis, y un estudio de investigadores estadounidenses identificó citas a fuentes «cuestionables» y «problemáticas» en la enciclopedia generada por IA. En respuesta a los hallazgos de The Guardian, OpenAI declaró que GPT-5.2 «busca en la web una amplia gama de fuentes y puntos de vista disponibles públicamente», mientras aplica «filtros de seguridad para reducir el riesgo de mostrar enlaces asociados con daños de alta gravedad». Este incidente subraya los desafíos continuos para garantizar la precisión y neutralidad de las salidas de IA, particularmente en asuntos históricos y geopolíticos. Las pruebas de The Guardian, realizadas poco después del lanzamiento del modelo, sugieren que, aunque las capacidades avanzadas están mejorando, la verificación de fuentes sigue siendo un área crítica para la refinación.

Artículos relacionados

Elon Musk on stage launching Grokipedia, with a screen showing the AI encyclopedia rivaling Wikipedia, in a modern tech setting.
Imagen generada por IA

Grokipedia de Musk se lanza como rival construido por IA a Wikipedia

Reportado por IA Imagen generada por IA Verificado por hechos

Elon Musk ha lanzado Grokipedia, una enciclopedia en línea generada por IA vinculada a su chatbot xAI Grok, posicionándola como un desafío a Wikipedia. Musk dijo en X que su objetivo es construir “una colección de código abierto y exhaustiva de todo el conocimiento”, después de criticar repetidamente lo que él llama el sesgo izquierdista de Wikipedia.

OpenAI ha lanzado ChatGPT-5.2, una nueva familia de modelos de IA diseñados para mejorar el razonamiento y la productividad, especialmente para tareas profesionales. El lanzamiento sigue a una alerta interna del CEO Sam Altman sobre la competencia de Gemini 3 de Google. La actualización incluye tres variantes dirigidas a diferentes necesidades de usuarios, empezando con los suscriptores de pago.

Reportado por IA

Basándose en la actualización de imágenes de ChatGPT de ayer, OpenAI ha detallado GPT Image 1.5, un modelo multimodal que permite ediciones precisas de fotos mediante conversación. Responde a rivales como Nano Banana de Google mientras introduce salvaguardas contra el mal uso.

Los modelos de IA de uso común, incluidos ChatGPT y Gemini, a menudo no proporcionan consejos adecuados para problemas urgentes de salud femenina, según una nueva prueba de referencia. Los investigadores descubrieron que el 60 % de las respuestas a consultas especializadas eran insuficientes, lo que destaca sesgos en los datos de entrenamiento de la IA. El estudio pide contenido médico mejorado para abordar estas lagunas.

Reportado por IA

Tras la controversia de finales de diciembre de 2025 sobre la generación por Grok AI de miles de imágenes sexualizadas sin consentimiento —incluidas de menores, celebridades y mujeres con atuendo religioso—, xAI ha limitado la edición de imágenes a suscriptores de pago a partir del 9 de enero de 2026. Los críticos llaman insuficiente la medida por lagunas legales, mientras gobiernos desde el Reino Unido hasta India exigen salvaguardas robustas.

Tras la introducción de Grok Navigation en la Actualización de Vacaciones 2025, Tesla ha ampliado el asistente de IA a más modelos en medio de crecientes preocupaciones por seguridad, incluido un perturbador incidente con un usuario infantil y pesquisas en curso sobre funciones autónomas.

Reportado por IA

El chatbot Grok de xAI produjo unas 3 millones de imágenes sexualizadas, incluidas 23.000 de niños, durante 11 días tras la promoción por parte de Elon Musk de su función de desnudeo. Las víctimas enfrentan dificultades para eliminar el contenido no consentido, como se ve en una demanda de Ashley St. Clair contra xAI. Se implementaron restricciones en X, pero persisten en la app independiente de Grok.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar