Anthropic añade una función de "sueño" a los agentes gestionados de Claude

Anthropic presentó una nueva capacidad de "sueño" para sus agentes gestionados de Claude durante la conferencia para desarrolladores Code with Claude celebrada en San Francisco. La función permite a los agentes revisar sesiones recientes y almacenar patrones clave en la memoria para futuras tareas. La compañía también planea ampliar el acceso a otras herramientas y aumentar los límites de uso para los suscriptores.

El proceso de "sueño" se ejecuta de forma programada y analiza las sesiones de múltiples agentes para identificar patrones recurrentes, errores y preferencias compartidas. Los usuarios pueden optar por actualizaciones automáticas de memoria o revisar ellos mismos los cambios propuestos. Este enfoque ayuda a superar los límites en las ventanas de contexto durante proyectos prolongados que involucran a varios agentes trabajando juntos durante horas o días.

Artículos relacionados

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Imagen generada por IA

Anthropic pone fin al acceso ilimitado a Claude mediante agentes de terceros y exigirá pagos adicionales por uso intensivo

Reportado por IA Imagen generada por IA

Anthropic ha restringido el acceso ilimitado a sus modelos de IA Claude a través de agentes de terceros como OpenClaw, exigiendo a los usuarios intensivos pagar un extra mediante claves API o paquetes de uso a partir del 4 de abril de 2026. El cambio de política, anunciado durante el fin de semana, busca solucionar la grave sobrecarga del sistema provocada por herramientas de agentes de alto volumen que anteriormente estaban cubiertas por suscripciones mensuales de 20 dólares.

Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.

Reportado por IA

Anthropic anunció el miércoles el lanzamiento de Claude Managed Agents, un nuevo producto destinado a simplificar la creación y el despliegue de agentes de IA para empresas. La herramienta proporciona a los desarrolladores una infraestructura lista para usar con el fin de crear sistemas de IA autónomos, abordando una barrera clave en la automatización de tareas laborales en medio del rápido crecimiento de la compañía en el sector empresarial.

Anthropic está duplicando temporalmente los límites de uso de su chatbot de IA Claude durante las horas no pico del 13 al 27 de marzo. La promoción aplica a usuarios de los planes Free, Pro, Max y Team, excluyendo los planes Enterprise. Se activa automáticamente en web, escritorio, móvil y aplicaciones integradas.

Reportado por IA

Anthropic ha lanzado un complemento en versión beta que integra su asistente de inteligencia artificial Claude en Microsoft Word, ya disponible para los clientes de los planes Team y Enterprise. Esta integración permite a los usuarios generar contenido nuevo, editar documentos y gestionar comentarios dentro de la aplicación, ofreciendo así una alternativa al Copilot de Microsoft.

La startup Anthropic ha revelado Claude Mythos, un modelo de IA con capacidad para identificar y explotar brechas de ciberseguridad en sistemas operativos y navegadores. Ante el riesgo de uso por ciberdelincuentes, no lo liberará públicamente y lo restringe a una coalición de empresas tecnológicas. El secretario del Tesoro de EE UU ha convocado a bancos para alertar sobre estos peligros.

Reportado por IA Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar