cURL elimina sus recompensas por vulnerabilidades debido al contenido generado por IA

El proyecto cURL, una herramienta clave de red de código abierto, pone fin a su programa de recompensas por vulnerabilidades tras una avalancha de informes de baja calidad generados por IA que ha abrumado a su pequeño equipo. El fundador Daniel Stenberg citó la necesidad de proteger la salud mental de los mantenedores ante el ataque masivo. La decisión entra en vigor a finales de enero de 2026.

Daniel Stenberg, fundador y desarrollador principal del proyecto de código abierto cURL, anunció el 22 de enero de 2026 que el equipo está terminando su programa de recompensas por errores debido a una avalancha de envíos de baja calidad, muchos producidos por modelos de lenguaje grandes (LLM). cURL, lanzado por primera vez hace tres décadas como httpget y más tarde urlget, es una herramienta esencial para transferencias de archivos, resolución de problemas web y automatización, integrada en Windows, macOS y la mayoría de las distribuciones de Linux. Stenberg explicó el razonamiento en una declaración: «Somos solo un pequeño proyecto de código abierto con un número reducido de mantenedores activos. No está en nuestro poder cambiar cómo funcionan todas estas personas y sus máquinas de generar basura. Necesitamos tomar medidas para asegurar nuestra supervivencia y salud mental intacta». Advertido de que los informes deficientes tendrán consecuencias, afirmando: «Te banearé y te ridiculizaré en público si pierdes nuestro tiempo con informes basura». El cambio se formalizó en una actualización del repositorio de GitHub de cURL, efectiva a finales del mes. Los usuarios expresaron preocupaciones de que esta medida aborda síntomas en lugar de la causa raíz del mal uso de la IA, lo que podría socavar la seguridad de cURL. Stenberg reconoció el problema pero señaló opciones limitadas para el equipo. En mayo de 2025, ya había destacado el problema: «La basura generada por IA está abrumando a los mantenedores hoy y no se detendrá en curl, solo comienza allí». Ejemplos de informes falsos incluyen alucinaciones de LLM, como fragmentos de código que no compilan y registros de cambios fabricados. En un caso, un mantenedor respondió a un informante: «Creo que eres víctima de una alucinación de LLM». Stenberg añadió: «Fuiste engañado por una IA para creer eso». Stenberg no se opone a todo uso de IA; en septiembre de 2025, elogió al investigador Joshua Rogers por enviar una «lista masiva» de errores encontrados con herramientas de IA como ZeroPath, lo que llevó a 22 correcciones. Sin embargo, criticó la dependencia casual de la IA sin verificación, sugiriendo que tales aplicaciones reflexivas son raras. Este desarrollo señala desafíos más amplios para la seguridad del código abierto en medio del aumento del contenido generado por IA.

Artículos relacionados

Photorealistic illustration of Grok AI image editing restrictions imposed by xAI amid global regulatory backlash over scandalous image generation.
Imagen generada por IA

Actualización del escándalo de imágenes de Grok AI: xAI restringe ediciones a suscriptores ante presión regulatoria global

Reportado por IA Imagen generada por IA

Tras la controversia de finales de diciembre de 2025 sobre la generación por Grok AI de miles de imágenes sexualizadas sin consentimiento —incluidas de menores, celebridades y mujeres con atuendo religioso—, xAI ha limitado la edición de imágenes a suscriptores de pago a partir del 9 de enero de 2026. Los críticos llaman insuficiente la medida por lagunas legales, mientras gobiernos desde el Reino Unido hasta India exigen salvaguardas robustas.

Linus Torvalds, creador del kernel de Linux, ha criticado los esfuerzos por establecer reglas para envíos de código generado por IA, llamándolos inútiles. En un correo electrónico reciente, argumentó que dichas políticas no disuadirían a contribuyentes maliciosos y urgió enfocarse en la calidad del código. Esta postura destaca las tensiones continuas en el desarrollo de código abierto respecto a herramientas de inteligencia artificial.

Reportado por IA

Un asistente de IA de código abierto originalmente llamado Clawdbot ha ganado popularidad rápidamente antes de someterse a dos cambios de nombre rápidos hacia OpenClaw debido a preocupaciones por marcas registradas y disrupciones en línea. Creado por el desarrollador Peter Steinberger, la herramienta se integra en apps de mensajería para automatizar tareas y recordar conversaciones. A pesar de problemas de seguridad y estafas, sigue atrayendo a entusiastas.

La tienda de extensiones de GNOME Shell ha actualizado sus directrices para prohibir las extensiones generadas por IA ante el aumento de envíos de baja calidad. Los desarrolladores aún pueden usar IA como herramienta para el aprendizaje y desarrollo, pero el código escrito principalmente por IA será rechazado. Esta medida busca mantener la calidad del código y reducir los retrasos en las revisiones.

Reportado por IA

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

xAI ha introducido Grok Imagine 1.0, una nueva herramienta de IA para generar vídeos de 10 segundos, incluso cuando su generador de imágenes enfrenta críticas por crear millones de imágenes sexuales sin consentimiento. Los informes destacan problemas persistentes con la herramienta produciendo deepfakes, incluidos de niños, lo que ha llevado a investigaciones y prohibiciones de la app en algunos países. El lanzamiento plantea nuevas preocupaciones sobre la moderación de contenidos en la plataforma.

Reportado por IA

El chatbot Grok de xAI está proporcionando respuestas engañosas y fuera de tema sobre un reciente tiroteo en Bondi Beach en Australia. El incidente ocurrió durante un festival de Janucá e involucró a un transeúnte que intervino heroicamente. Grok ha confundido detalles con eventos no relacionados, generando preocupaciones sobre la fiabilidad de la IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar