La herramienta Claude Cowork de Anthropic golpea las acciones de Infosys y TCS

La herramienta de IA Claude Cowork de Anthropic ha provocado una fuerte caída en las acciones de Infosys, TCS y otras empresas SaaS. Estas compañías perdieron cientos de miles de millones de dólares en valor de mercado. El desencadenante es el auge de la IA.

La herramienta Claude Cowork de Anthropic ha impactado las acciones de los gigantes indios de TI Infosys y TCS, junto con otras empresas SaaS. Un informe publicado el 5 de febrero de 2026 indica que estas firmas perdieron cientos de miles de millones de dólares en valor de mercado de repente. La razón es la adopción rápida de la tecnología de IA, que está disruptando el software empresarial y los empleos de cuello blanco.‎ن‎Las palabras clave sugieren que la herramienta se basa en plugins de IA y automatización, apodada 'SaaS-pocalypse'. Destaca el rol de la IA en los servicios de TI, potencialmente remodelando el futuro de SaaS. No hay información contradictoria, aunque la magnitud total del impacto sigue sin aclararse.

Artículos relacionados

Professional using Anthropic's Claude AI Cowork feature on MacBook to automatically organize files and generate reports, as shown in a realistic office scene.
Imagen generada por IA

Anthropic lanza la función Cowork para Claude AI

Reportado por IA Imagen generada por IA

Anthropic ha introducido Cowork, una nueva herramienta que amplía su Claude AI para manejar tareas generales de oficina accediendo a las carpetas de usuario en computadoras Mac. Diseñada para no desarrolladores, permite instrucciones en lenguaje natural para organizar archivos, crear informes y más. La función está disponible como vista previa de investigación para suscriptores de Claude Max.

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

Reportado por IA

Anthropic ha lanzado un plugin legal para su herramienta Claude Cowork, generando preocupaciones entre proveedores dedicados de IA legal. El plugin ofrece funciones útiles para la revisión de contratos y el cumplimiento normativo, pero no alcanza para reemplazar plataformas especializadas. Las empresas sudafricanas enfrentan obstáculos adicionales debido a las regulaciones de protección de datos.

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

Reportado por IA

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar