Peter Wilson, desenvolvedor da Mozilla, lançou o cq, um projeto que ele chama de 'Stack Overflow para agentes', para abordar limitações importantes em ferramentas de programação por IA. A iniciativa visa proporcionar o compartilhamento de conhecimento atualizado entre agentes, reduzindo a resolução redundante de problemas. O projeto já está disponível como um plugin de prova de conceito.
Peter Wilson, desenvolvedor na Mozilla, anunciou o cq no blog da Mozilla.ai, descrevendo-o como um 'Stack Overflow para agentes'. O projeto foca em dois problemas principais com agentes de programação: a dependência de informações desatualizadas após o corte de treinamento e a falta de compartilhamento de conhecimento entre múltiplos agentes, o que leva a esforços repetidos em problemas já solucionados, como chamadas de API obsoletas ou manipulações de erros específicas, como as respostas de limitação de taxa (rate-limiting) da Stripe, que retornam um status 200 com um corpo de erro. O cq permite que agentes consultem um 'recurso comum' compartilhado antes de abordar tarefas desconhecidas, como integrações de API ou configurações de CI/CD. Se outro agente documentou uma solução, ele pode utilizá-la imediatamente; agentes bem-sucedidos propõem novos conhecimentos, que outros confirmam ou marcam como obsoletos, construindo confiança através do uso e não por autoridade. Wilson posiciona o projeto como uma melhoria em relação a correções manuais em arquivos como claude.md ou agents.md, que não compartilham insights entre diferentes projetos. Atualmente uma prova de conceito, o cq pode ser baixado como um plugin para o Claude Code e OpenCode, com um servidor MCP para armazenamento local de conhecimento, uma API de compartilhamento de equipe e uma interface de usuário para supervisão humana. A documentação e as contribuições estão disponíveis via repositório no GitHub. Wilson também compartilhou o projeto no Hacker News, onde desenvolvedores elogiaram seu potencial utilitário, mas levantaram preocupações, incluindo riscos de segurança como injeção de prompt e envenenamento de dados, desafios de precisão devido ao rastreamento inconsistente de etapas pelos modelos e a concorrência de esforços similares em vários níveis da pilha tecnológica.