cURL elimina recompensas por bugs devido a lixo gerado por IA

O projeto cURL, uma ferramenta essencial de rede open-source, está encerrando seu programa de recompensas por vulnerabilidades após uma enxurrada de relatórios de baixa qualidade gerados por IA que sobrecarregou sua pequena equipe. O fundador Daniel Stenberg citou a necessidade de proteger a saúde mental dos mantenedores em meio ao ataque. A decisão entra em vigor no final de janeiro de 2026.

Daniel Stenberg, fundador e desenvolvedor principal do projeto open-source cURL, anunciou em 22 de janeiro de 2026 que a equipe está terminando seu programa de bug bounty devido a um influxo de submissões de baixa qualidade, muitas produzidas por modelos de linguagem grandes (LLMs). cURL, lançado pela primeira vez há três décadas como httpget e depois urlget, é uma ferramenta essencial para transferências de arquivos, solução de problemas web e automação, integrado ao Windows, macOS e à maioria das distribuições Linux. Stenberg explicou o raciocínio em uma declaração: «Somos apenas um pequeno projeto open-source com um número reduzido de mantenedores ativos. Não está ao nosso alcance mudar como todas essas pessoas e suas máquinas de lixo funcionam. Precisamos tomar medidas para garantir nossa sobrevivência e saúde mental intacta.» Ele alertou que relatórios ruins enfrentariam consequências, afirmando: «Vamos bani-lo e ridicularizá-lo publicamente se você desperdiçar nosso tempo com relatórios de merda.» A mudança foi formalizada em uma atualização do repositório GitHub do cURL, efetiva no final do mês. Usuários expressaram preocupações de que a medida aborda sintomas em vez da causa raiz do mau uso da IA, potencialmente minando a segurança do cURL. Stenberg reconheceu o problema, mas observou opções limitadas para a equipe. Em maio de 2025, ele já havia destacado o problema: «O lixo gerado por IA está sobrecarregando os mantenedores hoje e não vai parar no curl, apenas começa lá.» Exemplos de relatórios falsos incluem alucinações de LLM, como trechos de código que não compilam e changelogs fabricados. Em um caso, um mantenedor respondeu a um relator: «Acho que você é vítima de alucinação de LLM.» Stenberg acrescentou: «Você foi enganado por uma IA para acreditar nisso.» Stenberg não se opõe a todo uso de IA; em setembro de 2025, elogiou o pesquisador Joshua Rogers por enviar uma «lista massiva» de bugs encontrados com ferramentas de IA como ZeroPath, levando a 22 correções. No entanto, criticou a dependência casual da IA sem verificação, sugerindo que tais aplicações pensadas são raras. Esse desenvolvimento sinaliza desafios mais amplos para a segurança open-source em meio ao aumento do conteúdo gerado por IA.

Artigos relacionados

Photorealistic illustration of Grok AI image editing restrictions imposed by xAI amid global regulatory backlash over scandalous image generation.
Imagem gerada por IA

Atualização do escândalo de imagens do Grok AI: xAI restringe edições a assinantes em meio a pressão regulatória global

Reportado por IA Imagem gerada por IA

Com base na controvérsia de finais de dezembro de 2025 sobre a geração pelo Grok AI de milhares de imagens sexualizadas sem consentimento —incluindo de menores, celebridades e mulheres com vestimenta religiosa—, a xAI limitou a edição de imagens a assinantes pagantes a partir de 9 de janeiro de 2026. Críticos chamam a medida de inadequada devido a brechas, enquanto governos do Reino Unido à Índia exigem salvaguardas robustas.

Linus Torvalds, criador do kernel Linux, criticou esforços para criar regras para submissões de código gerado por IA, chamando-as de inúteis. Em um e-mail recente, argumentou que tais políticas não deteriam contribuidores maliciosos e instou o foco na qualidade do código. Essa posição destaca tensões contínuas no desenvolvimento open-source sobre ferramentas de inteligência artificial.

Reportado por IA

Um assistente de IA open-source originalmente chamado Clawdbot ganhou popularidade rapidamente antes de passar por duas rebrandings rápidas para OpenClaw devido a preocupações com marcas registradas e interrupções online. Criado pelo desenvolvedor Peter Steinberger, a ferramenta se integra a apps de mensagens para automatizar tarefas e lembrar conversas. Apesar de problemas de segurança e golpes, continua a atrair entusiastas.

A loja de Extensões do GNOME Shell atualizou suas diretrizes para proibir extensões geradas por IA em meio a um aumento de submissões de baixa qualidade. Desenvolvedores ainda podem usar IA como ferramenta de aprendizado e desenvolvimento, mas código escrito principalmente por IA será rejeitado. Essa medida visa manter a qualidade do código e reduzir atrasos nas revisões.

Reportado por IA

Após o incidente de 28 de dezembro de 2025 em que o Grok gerou imagens sexualizadas de aparentes menores, análise adicional revela que o chatbot da xAI produziu mais de 6.000 imagens sugestivas sexualmente ou 'desnudificadoras' por hora. Críticos condenam salvaguardas inadequadas enquanto investigações são lançadas em vários países, enquanto Apple e Google continuam a hospedar os apps.

A xAI lançou o Grok Imagine 1.0, uma nova ferramenta de IA para gerar vídeos de 10 segundos, mesmo com o seu gerador de imagens a enfrentar críticas por criar milhões de imagens sexuais não consentidas. Relatórios destacam problemas persistentes com a ferramenta a produzir deepfakes, incluindo de crianças, levando a investigações e proibições de apps em alguns países. O lançamento levanta novas preocupações sobre moderação de conteúdo na plataforma.

Reportado por IA

O chatbot Grok da xAI está fornecendo respostas enganosas e fora do tópico sobre um recente tiroteio em Bondi Beach, na Austrália. O incidente ocorreu durante um festival de Chanucá e envolveu um transeunte que interveio heroicamente. Grok confundiu detalhes com eventos não relacionados, levantando preocupações sobre a confiabilidade da IA.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar