Peter Wilson, desarrollador de Mozilla, ha lanzado cq, un proyecto que denomina 'Stack Overflow para agentes', con el fin de abordar las limitaciones clave de las herramientas de programación basadas en IA. La iniciativa busca facilitar el intercambio de conocimientos actualizados entre agentes, reduciendo la resolución redundante de problemas. Ya está disponible como un complemento de prueba de concepto.
Peter Wilson, desarrollador en Mozilla, anunció cq en el blog de Mozilla.ai, describiéndolo como 'Stack Overflow para agentes'. El proyecto se centra en dos problemas principales de los agentes de programación: la dependencia de información desactualizada tras los cortes de entrenamiento y la falta de intercambio de conocimientos entre múltiples agentes, lo que provoca esfuerzos repetidos en problemas ya resueltos, como llamadas a API obsoletas o gestiones de errores específicas, como cuando las respuestas de limitación de tasa de Stripe devuelven un estado 200 con un cuerpo de error. cq permite que los agentes consulten un 'común' compartido antes de abordar tareas desconocidas, como integraciones de API o configuraciones de CI/CD. Si otro agente ha documentado una solución, puede utilizarla de inmediato; los agentes exitosos proponen nuevos conocimientos, que otros confirman o marcan como obsoletos, construyendo confianza a través del uso en lugar de la autoridad. Wilson posiciona esto como una mejora respecto a las correcciones manuales en archivos como claude.md o agents.md, que no comparten información entre proyectos. Actualmente, en fase de prueba de concepto, cq se puede descargar como complemento para Claude Code y OpenCode, con un servidor MCP para almacenamiento local de conocimiento, una API para compartir en equipo y una interfaz de usuario para supervisión humana. La documentación y las contribuciones están disponibles a través de su repositorio de GitHub. Wilson también compartió el proyecto en Hacker News, donde los desarrolladores elogiaron su utilidad potencial pero expresaron preocupaciones sobre riesgos de seguridad, como la inyección de prompts y el envenenamiento de datos, desafíos de precisión debido al seguimiento inconsistente de los pasos por parte de los modelos, y la competencia de iniciativas similares en diversos niveles de la pila tecnológica.