Anthropic añade función de memoria al plan gratuito de Claude

Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.

Anthropic anunció el 2 de marzo de 2026 que la función de memoria para su chatbot de IA Claude ya está disponible en el plan gratuito. Anteriormente una opción de pago, la función permite a Claude referenciar conversaciones anteriores para informar sus respuestas. Anthropic introdujo por primera vez las capacidades de memoria el pasado agosto, seguidas por la compartimentalización de memorias en otoño. Los usuarios pueden activar la memoria durante los chats con Claude. Si eligen desactivarla, las opciones incluyen pausar la función para preservar las memorias para uso posterior o eliminarlas completamente de los servidores de Anthropic. Complementando esto, Anthropic lanzó una herramienta de importación de memorias el mismo día. La herramienta extrae contexto y memorias de otros chatbots de IA, generando un prompt de texto que los usuarios pueden copiar y pegar en Claude. Los competidores soportados incluyen ChatGPT, Gemini y Copilot. La asimilación toma unas 24 horas, visible a través del botón «Ver lo que Claude ha aprendido sobre ti». En la sección «Administrar memoria», los usuarios pueden editar lo que Claude recuerda. Anthropic señala que Claude prioriza «temas relacionados con el trabajo para potenciar su efectividad como colaborador» y puede no retener detalles personales no relacionados. La popularidad de Claude ha crecido rápidamente, alcanzando recientemente el primer puesto en las listas de apps gratuitas de la App Store, superando a ChatGPT. Este auge coincide con la disputa contractual en curso de Anthropic con el gobierno de EE.UU. sobre salvaguardas de IA. El viernes, el secretario de Defensa de EE.UU., Pete Hegseth, designó a Anthropic como un «riesgo en la cadena de suministro» después de que la compañía rechazara un contrato del Pentágono que involucraba vigilancia masiva contra estadounidenses y armas totalmente autónomas. Anthropic ha prometido impugnar esa etiqueta. Mientras tanto, OpenAI supuestamente está asumiendo el rol anterior de Anthropic con el Departamento de Defensa, lo que ha llevado a algunos usuarios a boicotear ChatGPT y cancelar suscripciones.

Artículos relacionados

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Imagen generada por IA

Anthropic pone fin al acceso ilimitado a Claude mediante agentes de terceros y exigirá pagos adicionales por uso intensivo

Reportado por IA Imagen generada por IA

Anthropic ha restringido el acceso ilimitado a sus modelos de IA Claude a través de agentes de terceros como OpenClaw, exigiendo a los usuarios intensivos pagar un extra mediante claves API o paquetes de uso a partir del 4 de abril de 2026. El cambio de política, anunciado durante el fin de semana, busca solucionar la grave sobrecarga del sistema provocada por herramientas de agentes de alto volumen que anteriormente estaban cubiertas por suscripciones mensuales de 20 dólares.

Anthropic ha actualizado el plan gratuito de su chatbot de IA Claude al añadir funciones que antes eran de pago, posicionándolo como una alternativa sin anuncios a ChatGPT de OpenAI. Las mejoras incluyen creación de archivos, conectores a servicios de terceros y habilidades personalizadas, en medio de los planes de OpenAI para introducir anuncios en su nivel gratuito. Este movimiento sigue a los anuncios de Anthropic en el Super Bowl que criticaban la estrategia de anuncios.

Reportado por IA

Anthropic ha anunciado que su chatbot de IA Claude permanecerá libre de anuncios, en fuerte contraste con la reciente decisión de su rival OpenAI de probar anuncios en ChatGPT. La compañía lanzó una campaña publicitaria en el Super Bowl que se burla de los asistentes de IA que interrumpen las conversaciones con promociones de productos. Esta jugada resalta las crecientes tensiones en el competitivo panorama de la IA.

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

Reportado por IA

Anthropic ha limitado el acceso a su modelo de IA Claude Mythos Preview debido a su capacidad superior para detectar y explotar vulnerabilidades de software, al tiempo que lanza el Project Glasswing—un consorcio con más de 45 empresas tecnológicas, incluidas Apple, Google y Microsoft—para parchear fallos y reforzar las defensas de forma colaborativa. El anuncio se produce tras las recientes filtraciones de datos en la firma.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar