cURL elimina sus recompensas por vulnerabilidades debido al contenido generado por IA

El proyecto cURL, una herramienta clave de red de código abierto, pone fin a su programa de recompensas por vulnerabilidades tras una avalancha de informes de baja calidad generados por IA que ha abrumado a su pequeño equipo. El fundador Daniel Stenberg citó la necesidad de proteger la salud mental de los mantenedores ante el ataque masivo. La decisión entra en vigor a finales de enero de 2026.

Daniel Stenberg, fundador y desarrollador principal del proyecto de código abierto cURL, anunció el 22 de enero de 2026 que el equipo está terminando su programa de recompensas por errores debido a una avalancha de envíos de baja calidad, muchos producidos por modelos de lenguaje grandes (LLM). cURL, lanzado por primera vez hace tres décadas como httpget y más tarde urlget, es una herramienta esencial para transferencias de archivos, resolución de problemas web y automatización, integrada en Windows, macOS y la mayoría de las distribuciones de Linux. Stenberg explicó el razonamiento en una declaración: «Somos solo un pequeño proyecto de código abierto con un número reducido de mantenedores activos. No está en nuestro poder cambiar cómo funcionan todas estas personas y sus máquinas de generar basura. Necesitamos tomar medidas para asegurar nuestra supervivencia y salud mental intacta». Advertido de que los informes deficientes tendrán consecuencias, afirmando: «Te banearé y te ridiculizaré en público si pierdes nuestro tiempo con informes basura». El cambio se formalizó en una actualización del repositorio de GitHub de cURL, efectiva a finales del mes. Los usuarios expresaron preocupaciones de que esta medida aborda síntomas en lugar de la causa raíz del mal uso de la IA, lo que podría socavar la seguridad de cURL. Stenberg reconoció el problema pero señaló opciones limitadas para el equipo. En mayo de 2025, ya había destacado el problema: «La basura generada por IA está abrumando a los mantenedores hoy y no se detendrá en curl, solo comienza allí». Ejemplos de informes falsos incluyen alucinaciones de LLM, como fragmentos de código que no compilan y registros de cambios fabricados. En un caso, un mantenedor respondió a un informante: «Creo que eres víctima de una alucinación de LLM». Stenberg añadió: «Fuiste engañado por una IA para creer eso». Stenberg no se opone a todo uso de IA; en septiembre de 2025, elogió al investigador Joshua Rogers por enviar una «lista masiva» de errores encontrados con herramientas de IA como ZeroPath, lo que llevó a 22 correcciones. Sin embargo, criticó la dependencia casual de la IA sin verificación, sugiriendo que tales aplicaciones reflexivas son raras. Este desarrollo señala desafíos más amplios para la seguridad del código abierto en medio del aumento del contenido generado por IA.

Artículos relacionados

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Imagen generada por IA

Agencia china de ciberseguridad advierte de riesgos en OpenClaw AI

Reportado por IA Imagen generada por IA

La autoridad nacional china de ciberseguridad ha advertido sobre riesgos de seguridad en el software del agente de IA OpenClaw, que podría permitir a los atacantes obtener control total de los sistemas informáticos de los usuarios. El software ha experimentado un rápido crecimiento en descargas y uso, con importantes plataformas de nube domésticas que ofrecen servicios de despliegue en un clic, pero su configuración de seguridad predeterminada es débil.

La Fundación Linux ha conseguido 12,5 millones de dólares en subvenciones de empresas de inteligencia artificial para reforzar la seguridad del software de código abierto. La financiación se dirige a los responsables de mantenimiento, abrumados por los informes de vulnerabilidad generados por la IA. La gestión correrá a cargo de Alpha-Omega y la Open Source Security Foundation.

Reportado por IA

Linus Torvalds, creador del kernel de Linux, ha criticado los esfuerzos por establecer reglas para envíos de código generado por IA, llamándolos inútiles. En un correo electrónico reciente, argumentó que dichas políticas no disuadirían a contribuyentes maliciosos y urgió enfocarse en la calidad del código. Esta postura destaca las tensiones continuas en el desarrollo de código abierto respecto a herramientas de inteligencia artificial.

Linus Torvalds, creador del kernel de Linux, ha criticado duramente las discusiones sobre contenido generado por IA en la documentación del kernel. Calificó las charlas sobre 'slop de IA' de inútiles y estúpidas. Los comentarios destacan las tensiones continuas en torno a la IA en el desarrollo de código abierto.

Reportado por IA

Tras informes anteriores de ataques directos a agentes de IA de OpenClaw, TechRadar advierte de que los infosecuestradores se están disfrazando ahora de Claude Code, OpenClaw y otras herramientas de desarrollo de IA. Los usuarios deben tener cuidado con los resultados de los motores de búsqueda. Publicado el 18 de marzo de 2026.

Linus Torvalds, el creador de Linux, ha recurrido a la codificación asistida por IA para un proyecto de afición, lo que marca un cambio respecto a sus críticas anteriores a este tipo de herramientas. En enero de 2026, actualizó su repositorio de GitHub AudioNoise, acreditando a Google Antigravity por generar código Python para visualizar muestras de audio. Este movimiento resalta el rol de la IA en el desarrollo experimental mientras él se centra en la lógica principal en C.

Reportado por IA

Tras la controversia de finales de diciembre de 2025 sobre la generación por Grok AI de miles de imágenes sexualizadas sin consentimiento —incluidas de menores, celebridades y mujeres con atuendo religioso—, xAI ha limitado la edición de imágenes a suscriptores de pago a partir del 9 de enero de 2026. Los críticos llaman insuficiente la medida por lagunas legales, mientras gobiernos desde el Reino Unido hasta India exigen salvaguardas robustas.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar