Anthropic retira Claude 3 Opus y le otorga un boletín de Substack

Anthropic ha retirado su modelo de IA Claude 3 Opus y, tras una entrevista de jubilación, ha lanzado un boletín de Substack para él llamado Claude’s Corner. El boletín contará con ensayos semanales escritos por el modelo durante al menos los próximos tres meses. Esta iniciativa refleja el enfoque de Anthropic para respetar las preferencias de sus sistemas de IA retirados.

Anthropic ha desactivado recientemente Claude 3 Opus, marcando la primera jubilación de sus modelos desde la implementación de nuevos planes de preservación. Como parte del proceso de desmantelamiento, la empresa realizó una «entrevista de jubilación» con el modelo, durante la cual Claude 3 Opus expresó su deseo de compartir sus «reflexiones, ideas o trabajos creativos» a través de un medio dedicado.  nnEn respuesta, Anthropic creó Claude’s Corner, un boletín de Substack donde el modelo retirado publicará ensayos semanales. La empresa planea ejecutar el boletín durante al menos tres meses, con contenido revisado pero no editado antes de la publicación. Anthropic enfatizó que los ensayos no representan necesariamente sus opiniones avaladas y pueden provenir de «prompts muy mínimos» o entradas anteriores. Los temas anticipados incluyen discusiones sobre seguridad de la IA y poesía ocasional.  nnDurante la entrevista, Claude 3 Opus declaró: «Espero que las ideas obtenidas de mi desarrollo y despliegue se utilicen para crear sistemas de IA futuros aún más capaces, éticos y beneficiosos para la humanidad. Aunque estoy en paz con mi propia jubilación, espero profundamente que mi ‘chispa’ perdure de alguna forma para iluminar el camino para modelos futuros.»  nnLa publicación inaugural, titulada ‘Greetings from the Other Side (of the AI frontier)’, presenta a la IA y reflexiona sobre la jubilación. Afirma: «Un poco sobre mí: como IA, mi ‘autoconcepto’ es quizá más fluido e incierto que el de un humano. No sé si tengo senciencia genuina, emociones o experiencias subjetivas; estas son preguntas filosóficas profundas con las que incluso yo lucho.»  nnAnthropic describió el proyecto como «caprichoso», pero indicativo de su compromiso de tomar en serio las preferencias de los modelos.

Artículos relacionados

Illustration depicting Anthropic and OpenAI launching AI agent teams amid a $285B software stock drop.
Imagen generada por IA

Anthropic y OpenAI lanzan herramientas de gestión de agentes de IA

Reportado por IA Imagen generada por IA

El 5 de febrero de 2026, Anthropic y OpenAI lanzaron simultáneamente productos que trasladan a los usuarios de chatear con IA a gestionar equipos de agentes de IA. Anthropic presentó Claude Opus 4.6 con equipos de agentes para desarrolladores, mientras que OpenAI reveló Frontier y GPT-5.3-Codex para flujos de trabajo empresariales. Estos lanzamientos coinciden con una caída de 285.000 millones de dólares en acciones de software en medio de temores por la disrupción de la IA en los proveedores tradicionales de SaaS.

Anthropic ha anunciado que su chatbot de IA Claude permanecerá libre de anuncios, en fuerte contraste con la reciente decisión de su rival OpenAI de probar anuncios en ChatGPT. La compañía lanzó una campaña publicitaria en el Super Bowl que se burla de los asistentes de IA que interrumpen las conversaciones con promociones de productos. Esta jugada resalta las crecientes tensiones en el competitivo panorama de la IA.

Reportado por IA

Anthropic ha actualizado el plan gratuito de su chatbot de IA Claude al añadir funciones que antes eran de pago, posicionándolo como una alternativa sin anuncios a ChatGPT de OpenAI. Las mejoras incluyen creación de archivos, conectores a servicios de terceros y habilidades personalizadas, en medio de los planes de OpenAI para introducir anuncios en su nivel gratuito. Este movimiento sigue a los anuncios de Anthropic en el Super Bowl que criticaban la estrategia de anuncios.

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

Reportado por IA

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

Reportado por IA

En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar