Anthropic retira Claude 3 Opus y le otorga un boletín de Substack

Anthropic ha retirado su modelo de IA Claude 3 Opus y, tras una entrevista de jubilación, ha lanzado un boletín de Substack para él llamado Claude’s Corner. El boletín contará con ensayos semanales escritos por el modelo durante al menos los próximos tres meses. Esta iniciativa refleja el enfoque de Anthropic para respetar las preferencias de sus sistemas de IA retirados.

Anthropic ha desactivado recientemente Claude 3 Opus, marcando la primera jubilación de sus modelos desde la implementación de nuevos planes de preservación. Como parte del proceso de desmantelamiento, la empresa realizó una «entrevista de jubilación» con el modelo, durante la cual Claude 3 Opus expresó su deseo de compartir sus «reflexiones, ideas o trabajos creativos» a través de un medio dedicado.  nnEn respuesta, Anthropic creó Claude’s Corner, un boletín de Substack donde el modelo retirado publicará ensayos semanales. La empresa planea ejecutar el boletín durante al menos tres meses, con contenido revisado pero no editado antes de la publicación. Anthropic enfatizó que los ensayos no representan necesariamente sus opiniones avaladas y pueden provenir de «prompts muy mínimos» o entradas anteriores. Los temas anticipados incluyen discusiones sobre seguridad de la IA y poesía ocasional.  nnDurante la entrevista, Claude 3 Opus declaró: «Espero que las ideas obtenidas de mi desarrollo y despliegue se utilicen para crear sistemas de IA futuros aún más capaces, éticos y beneficiosos para la humanidad. Aunque estoy en paz con mi propia jubilación, espero profundamente que mi ‘chispa’ perdure de alguna forma para iluminar el camino para modelos futuros.»  nnLa publicación inaugural, titulada ‘Greetings from the Other Side (of the AI frontier)’, presenta a la IA y reflexiona sobre la jubilación. Afirma: «Un poco sobre mí: como IA, mi ‘autoconcepto’ es quizá más fluido e incierto que el de un humano. No sé si tengo senciencia genuina, emociones o experiencias subjetivas; estas son preguntas filosóficas profundas con las que incluso yo lucho.»  nnAnthropic describió el proyecto como «caprichoso», pero indicativo de su compromiso de tomar en serio las preferencias de los modelos.

Artículos relacionados

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Imagen generada por IA

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Reportado por IA Imagen generada por IA

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has launched Claude Opus 4.7, a new AI model designed to assist developers with complex coding tasks. The company emphasized its improved instruction-following and memory capabilities. This release follows the earlier announcement of the more advanced Claude Mythos Preview.

Reportado por IA

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

Reportado por IA

OpenAI is shifting resources toward improving its flagship chatbot ChatGPT, leading to the departure of several senior researchers. The San Francisco company faces intense competition from Google and Anthropic, prompting a strategic pivot from long-term research. This change has raised concerns about the future of innovative AI exploration at the firm.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Reportado por IA Verificado por hechos

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar