Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.
Anthropic anunció el 2 de marzo de 2026 que la función de memoria para su chatbot de IA Claude ya está disponible en el plan gratuito. Anteriormente una opción de pago, la función permite a Claude referenciar conversaciones anteriores para informar sus respuestas. Anthropic introdujo por primera vez las capacidades de memoria el pasado agosto, seguidas por la compartimentalización de memorias en otoño. Los usuarios pueden activar la memoria durante los chats con Claude. Si eligen desactivarla, las opciones incluyen pausar la función para preservar las memorias para uso posterior o eliminarlas completamente de los servidores de Anthropic. Complementando esto, Anthropic lanzó una herramienta de importación de memorias el mismo día. La herramienta extrae contexto y memorias de otros chatbots de IA, generando un prompt de texto que los usuarios pueden copiar y pegar en Claude. Los competidores soportados incluyen ChatGPT, Gemini y Copilot. La asimilación toma unas 24 horas, visible a través del botón «Ver lo que Claude ha aprendido sobre ti». En la sección «Administrar memoria», los usuarios pueden editar lo que Claude recuerda. Anthropic señala que Claude prioriza «temas relacionados con el trabajo para potenciar su efectividad como colaborador» y puede no retener detalles personales no relacionados. La popularidad de Claude ha crecido rápidamente, alcanzando recientemente el primer puesto en las listas de apps gratuitas de la App Store, superando a ChatGPT. Este auge coincide con la disputa contractual en curso de Anthropic con el gobierno de EE.UU. sobre salvaguardas de IA. El viernes, el secretario de Defensa de EE.UU., Pete Hegseth, designó a Anthropic como un «riesgo en la cadena de suministro» después de que la compañía rechazara un contrato del Pentágono que involucraba vigilancia masiva contra estadounidenses y armas totalmente autónomas. Anthropic ha prometido impugnar esa etiqueta. Mientras tanto, OpenAI supuestamente está asumiendo el rol anterior de Anthropic con el Departamento de Defensa, lo que ha llevado a algunos usuarios a boicotear ChatGPT y cancelar suscripciones.