cURL elimina recompensas por bugs devido a lixo gerado por IA

O projeto cURL, uma ferramenta essencial de rede open-source, está encerrando seu programa de recompensas por vulnerabilidades após uma enxurrada de relatórios de baixa qualidade gerados por IA que sobrecarregou sua pequena equipe. O fundador Daniel Stenberg citou a necessidade de proteger a saúde mental dos mantenedores em meio ao ataque. A decisão entra em vigor no final de janeiro de 2026.

Daniel Stenberg, fundador e desenvolvedor principal do projeto open-source cURL, anunciou em 22 de janeiro de 2026 que a equipe está terminando seu programa de bug bounty devido a um influxo de submissões de baixa qualidade, muitas produzidas por modelos de linguagem grandes (LLMs). cURL, lançado pela primeira vez há três décadas como httpget e depois urlget, é uma ferramenta essencial para transferências de arquivos, solução de problemas web e automação, integrado ao Windows, macOS e à maioria das distribuições Linux. Stenberg explicou o raciocínio em uma declaração: «Somos apenas um pequeno projeto open-source com um número reduzido de mantenedores ativos. Não está ao nosso alcance mudar como todas essas pessoas e suas máquinas de lixo funcionam. Precisamos tomar medidas para garantir nossa sobrevivência e saúde mental intacta.» Ele alertou que relatórios ruins enfrentariam consequências, afirmando: «Vamos bani-lo e ridicularizá-lo publicamente se você desperdiçar nosso tempo com relatórios de merda.» A mudança foi formalizada em uma atualização do repositório GitHub do cURL, efetiva no final do mês. Usuários expressaram preocupações de que a medida aborda sintomas em vez da causa raiz do mau uso da IA, potencialmente minando a segurança do cURL. Stenberg reconheceu o problema, mas observou opções limitadas para a equipe. Em maio de 2025, ele já havia destacado o problema: «O lixo gerado por IA está sobrecarregando os mantenedores hoje e não vai parar no curl, apenas começa lá.» Exemplos de relatórios falsos incluem alucinações de LLM, como trechos de código que não compilam e changelogs fabricados. Em um caso, um mantenedor respondeu a um relator: «Acho que você é vítima de alucinação de LLM.» Stenberg acrescentou: «Você foi enganado por uma IA para acreditar nisso.» Stenberg não se opõe a todo uso de IA; em setembro de 2025, elogiou o pesquisador Joshua Rogers por enviar uma «lista massiva» de bugs encontrados com ferramentas de IA como ZeroPath, levando a 22 correções. No entanto, criticou a dependência casual da IA sem verificação, sugerindo que tais aplicações pensadas são raras. Esse desenvolvimento sinaliza desafios mais amplos para a segurança open-source em meio ao aumento do conteúdo gerado por IA.

Artigos relacionados

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Imagem gerada por IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Reportado por IA Imagem gerada por IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

A Linux Foundation garantiu US$ 12,5 milhões em subsídios de empresas de IA para reforçar a segurança de software de código aberto. O financiamento destina-se a mantenedores sobrecarregados por relatórios de vulnerabilidade gerados por IA. Ele será gerenciado pela Alpha-Omega e pela Open Source Security Foundation.

Reportado por IA

Linus Torvalds, criador do kernel Linux, criticou esforços para criar regras para submissões de código gerado por IA, chamando-as de inúteis. Em um e-mail recente, argumentou que tais políticas não deteriam contribuidores maliciosos e instou o foco na qualidade do código. Essa posição destaca tensões contínuas no desenvolvimento open-source sobre ferramentas de inteligência artificial.

Linus Torvalds, criador do kernel Linux, criticou duramente as discussões sobre conteúdo gerado por IA na documentação do kernel. Ele chamou conversas sobre 'slop de IA' de inúteis e estúpidas. Os comentários destacam tensões contínuas em torno da IA no desenvolvimento de código aberto.

Reportado por IA

Após relatos anteriores de ataques diretos a agentes de IA da OpenClaw, a TechRadar alerta que os ladrões de informações agora estão se disfarçando de Claude Code, OpenClaw e outras ferramentas de desenvolvimento de IA. Os usuários devem ter cuidado com os resultados dos mecanismos de pesquisa. Publicado em 18 de março de 2026.

Linus Torvalds, criador do Linux, recorreu à codificação assistida por IA para um projeto de hobby, marcando uma mudança em relação às suas críticas anteriores a essas ferramentas. Em janeiro de 2026, ele atualizou seu repositório GitHub AudioNoise, creditando o Google Antigravity pela geração de código Python para visualizar amostras de áudio. Essa jogada destaca o papel da IA no desenvolvimento experimental enquanto ele se concentra na lógica principal em C.

Reportado por IA

Com base na controvérsia de finais de dezembro de 2025 sobre a geração pelo Grok AI de milhares de imagens sexualizadas sem consentimento —incluindo de menores, celebridades e mulheres com vestimenta religiosa—, a xAI limitou a edição de imagens a assinantes pagantes a partir de 9 de janeiro de 2026. Críticos chamam a medida de inadequada devido a brechas, enquanto governos do Reino Unido à Índia exigem salvaguardas robustas.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar