A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
Imagen generada por IA

Anthropic duplica los límites de Claude Code tras el acuerdo con SpaceX

Imagen generada por IA

Anthropic anunció el miércoles un importante acuerdo de computación con SpaceX que aumenta de inmediato los límites de velocidad para los usuarios de Claude Code. El acuerdo otorga a la empresa de inteligencia artificial acceso total a un gran centro de datos en Memphis, Tennessee.

Durante su conferencia Code with Claude celebrada en San Francisco, Anthropic declaró que utilizará la capacidad total de la supercomputadora Colossus 1 de SpaceX. La instalación alberga más de 220,000 unidades de procesamiento gráfico (GPU) de NVIDIA y suministrará más de 300 megavatios de nueva potencia de cómputo en el transcurso del mes. El director ejecutivo, Dario Amodei, vinculó directamente esta medida con un aumento en las cuotas de uso para los clientes de pago.

Qué dice la gente

Las reacciones iniciales en X sobre el acuerdo entre Anthropic y la Colossus de SpaceX se centran en la duplicación inmediata de los límites de velocidad de Claude Code, la eliminación de las restricciones en las horas punta y las mejoras significativas en la API. Los usuarios y las cuentas especializadas en tecnología expresan entusiasmo ante la mayor capacidad de cómputo que permite un mayor desarrollo, y muchos lo ven como un paso positivo para resolver las frustraciones anteriores relacionadas con el uso. Los anuncios neutrales de los medios y de la propia Anthropic predominan, junto con comentarios optimistas sobre cómo las asociaciones de infraestructura aceleran las capacidades de la IA.

Artículos relacionados

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Imagen generada por IA

Anthropic pone fin al acceso ilimitado a Claude mediante agentes de terceros y exigirá pagos adicionales por uso intensivo

Reportado por IA Imagen generada por IA

Anthropic ha restringido el acceso ilimitado a sus modelos de IA Claude a través de agentes de terceros como OpenClaw, exigiendo a los usuarios intensivos pagar un extra mediante claves API o paquetes de uso a partir del 4 de abril de 2026. El cambio de política, anunciado durante el fin de semana, busca solucionar la grave sobrecarga del sistema provocada por herramientas de agentes de alto volumen que anteriormente estaban cubiertas por suscripciones mensuales de 20 dólares.

Anthropic está duplicando temporalmente los límites de uso de su chatbot de IA Claude durante las horas no pico del 13 al 27 de marzo. La promoción aplica a usuarios de los planes Free, Pro, Max y Team, excluyendo los planes Enterprise. Se activa automáticamente en web, escritorio, móvil y aplicaciones integradas.

Reportado por IA Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

Reportado por IA

Basándose en su función Cowork lanzada en enero, Anthropic ha presentado una vista previa de investigación para las herramientas Claude Code y Cowork, lo que permite que la IA Claude de los suscriptores Pro y Max controle directamente los escritorios Mac: señalando, haciendo clic, desplazándose y navegando por las pantallas para realizar tareas como abrir archivos, usar navegadores, herramientas de desarrollo e interacciones en aplicaciones como Google Calendar y Slack. Las medidas de seguridad abordan los riesgos, en medio de la competencia de herramientas como OpenClaw.

El código fuente de la interfaz de línea de comandos Claude Code de Anthropic se ha filtrado en línea tras un error de empaquetado en una versión reciente. El incidente expuso más de 512.000 líneas de código de cerca de 2.000 archivos TypeScript. La empresa lo describió como un error humano sin compromiso de datos confidenciales.

Reportado por IA

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar