Anthropic añade función de memoria al plan gratuito de Claude

Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.

Anthropic anunció el 2 de marzo de 2026 que la función de memoria para su chatbot de IA Claude ya está disponible en el plan gratuito. Anteriormente una opción de pago, la función permite a Claude referenciar conversaciones anteriores para informar sus respuestas. Anthropic introdujo por primera vez las capacidades de memoria el pasado agosto, seguidas por la compartimentalización de memorias en otoño. Los usuarios pueden activar la memoria durante los chats con Claude. Si eligen desactivarla, las opciones incluyen pausar la función para preservar las memorias para uso posterior o eliminarlas completamente de los servidores de Anthropic. Complementando esto, Anthropic lanzó una herramienta de importación de memorias el mismo día. La herramienta extrae contexto y memorias de otros chatbots de IA, generando un prompt de texto que los usuarios pueden copiar y pegar en Claude. Los competidores soportados incluyen ChatGPT, Gemini y Copilot. La asimilación toma unas 24 horas, visible a través del botón «Ver lo que Claude ha aprendido sobre ti». En la sección «Administrar memoria», los usuarios pueden editar lo que Claude recuerda. Anthropic señala que Claude prioriza «temas relacionados con el trabajo para potenciar su efectividad como colaborador» y puede no retener detalles personales no relacionados. La popularidad de Claude ha crecido rápidamente, alcanzando recientemente el primer puesto en las listas de apps gratuitas de la App Store, superando a ChatGPT. Este auge coincide con la disputa contractual en curso de Anthropic con el gobierno de EE.UU. sobre salvaguardas de IA. El viernes, el secretario de Defensa de EE.UU., Pete Hegseth, designó a Anthropic como un «riesgo en la cadena de suministro» después de que la compañía rechazara un contrato del Pentágono que involucraba vigilancia masiva contra estadounidenses y armas totalmente autónomas. Anthropic ha prometido impugnar esa etiqueta. Mientras tanto, OpenAI supuestamente está asumiendo el rol anterior de Anthropic con el Departamento de Defensa, lo que ha llevado a algunos usuarios a boicotear ChatGPT y cancelar suscripciones.

Artículos relacionados

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Imagen generada por IA

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Reportado por IA Imagen generada por IA

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has upgraded its Claude AI chatbot's free plan by adding previously paid features, positioning it as an ad-free alternative to OpenAI's ChatGPT. The enhancements include file creation, connectors to third-party services, and custom skills, amid OpenAI's plans to introduce ads in its free tier. This move follows Anthropic's Super Bowl advertisements criticizing the ad strategy.

Reportado por IA

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

Reportado por IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA Verificado por hechos

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar