El proyecto cURL, una herramienta clave de red de código abierto, pone fin a su programa de recompensas por vulnerabilidades tras una avalancha de informes de baja calidad generados por IA que ha abrumado a su pequeño equipo. El fundador Daniel Stenberg citó la necesidad de proteger la salud mental de los mantenedores ante el ataque masivo. La decisión entra en vigor a finales de enero de 2026.
Daniel Stenberg, fundador y desarrollador principal del proyecto de código abierto cURL, anunció el 22 de enero de 2026 que el equipo está terminando su programa de recompensas por errores debido a una avalancha de envíos de baja calidad, muchos producidos por modelos de lenguaje grandes (LLM). cURL, lanzado por primera vez hace tres décadas como httpget y más tarde urlget, es una herramienta esencial para transferencias de archivos, resolución de problemas web y automatización, integrada en Windows, macOS y la mayoría de las distribuciones de Linux. Stenberg explicó el razonamiento en una declaración: «Somos solo un pequeño proyecto de código abierto con un número reducido de mantenedores activos. No está en nuestro poder cambiar cómo funcionan todas estas personas y sus máquinas de generar basura. Necesitamos tomar medidas para asegurar nuestra supervivencia y salud mental intacta». Advertido de que los informes deficientes tendrán consecuencias, afirmando: «Te banearé y te ridiculizaré en público si pierdes nuestro tiempo con informes basura». El cambio se formalizó en una actualización del repositorio de GitHub de cURL, efectiva a finales del mes. Los usuarios expresaron preocupaciones de que esta medida aborda síntomas en lugar de la causa raíz del mal uso de la IA, lo que podría socavar la seguridad de cURL. Stenberg reconoció el problema pero señaló opciones limitadas para el equipo. En mayo de 2025, ya había destacado el problema: «La basura generada por IA está abrumando a los mantenedores hoy y no se detendrá en curl, solo comienza allí». Ejemplos de informes falsos incluyen alucinaciones de LLM, como fragmentos de código que no compilan y registros de cambios fabricados. En un caso, un mantenedor respondió a un informante: «Creo que eres víctima de una alucinación de LLM». Stenberg añadió: «Fuiste engañado por una IA para creer eso». Stenberg no se opone a todo uso de IA; en septiembre de 2025, elogió al investigador Joshua Rogers por enviar una «lista masiva» de errores encontrados con herramientas de IA como ZeroPath, lo que llevó a 22 correcciones. Sin embargo, criticó la dependencia casual de la IA sin verificación, sugiriendo que tales aplicaciones reflexivas son raras. Este desarrollo señala desafíos más amplios para la seguridad del código abierto en medio del aumento del contenido generado por IA.