Anthropic kann Pentagon-Forderung zu KI-Sicherheitsvorkehrungen nicht erfüllen, sagt CEO

Anthropics CEO Dario Amodei erklärte, dass das Unternehmen der Forderung des Pentagons nach Entfernung von Sicherheitsvorkehrungen aus seinen KI-Modellen nicht nachkommen werde, trotz Drohungen mit Ausschluss aus Verteidigungssystemen. Der Streit dreht sich um die Verhinderung der Nutzung der KI in autonomen Waffen und innerer Überwachung. Das Unternehmen, das einen Vertrag über 200 Millionen Dollar mit dem Verteidigungsministerium hat, betont sein Engagement für ethische KI-Nutzung.

Anthropic, ein von Google und Amazon unterstützter KI-Startup, steckt in einem Streit mit dem US-Verteidigungsministerium über Sicherheitsvorkehrungen in seiner KI-Technologie, insbesondere im Modell Claude. Am Donnerstag kündigte CEO Dario Amodei an, dass das Unternehmen den Forderungen des Pentagons nicht nachkommen könne, die unter anderem die Entfernung von Einschränkungen umfassen, die die KI daran hindern, autonom Waffen zu zielen oder für massenhafte innere Überwachung in den USA eingesetzt zu werden. Das Pentagon hat einen Vertrag mit Anthropic im Wert von bis zu 200 Millionen Dollar. Das Ministerium besteht jedoch darauf, nur mit KI-Firmen zu kontrahieren, die „jeden rechtmäßigen Einsatz“ ihrer Technologie erlauben, was die Entfernung solcher Sicherheitsvorkehrungen erfordert. Amodei merkte an, dass Anwendungen wie Massenüberwachung und vollständig autonome Waffen nie Teil ihrer Verträge waren und es auch jetzt nicht sein sollten. Er enthüllte Drohungen des Ministeriums, Anthropic aus seinen Systemen zu entfernen, es als Lieferkettenrisiko zu kennzeichnen und den Defense Production Act zu aktivieren, um die Änderungen zu erzwingen. „Unabhängig davon ändern diese Drohungen nichts an unserer Position: Wir können ihrem Ersuchen nicht in gutem Gewissen nachkommen“, sagte Amodei. Als Reaktion postete Pentagon-Sprecher Sean Parnell auf X, dass das Ministerium kein Interesse daran habe, KI für die Massenüberwachung von Amerikanern zu nutzen oder autonome Waffen ohne menschliche Beteiligung zu entwickeln. „Das ist, was wir verlangen: Lassen Sie das Pentagon das Modell von Anthropic für alle rechtmäßigen Zwecke nutzen“, sagte Parnell. Das Pentagon reagierte nicht unmittelbar auf Anfragen zu einer Stellungnahme zu Anthropics Erklärung. Amodei äußerte die Hoffnung, dass das Ministerium es sich anders überlegen werde, angesichts des Werts von Anthropics Technologie für die Streitkräfte, und bot an, einen reibungslosen Übergang zu erleichtern, falls nötig. Ein Sprecher von Anthropic fügte hinzu, dass das Unternehmen bereit sei, die Gespräche fortzusetzen und sich für die betriebliche Kontinuität des Ministeriums und der amerikanischen Kämpfer verpflichtet fühle.

Verwandte Artikel

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Bild generiert von KI

Pentagon pressures Anthropic to weaken AI safety commitments

Von KI berichtet Bild generiert von KI

US Defense Secretary Pete Hegseth has threatened Anthropic with severe penalties unless the company grants the military unrestricted access to its Claude AI model. The ultimatum came during a meeting with CEO Dario Amodei in Washington on Tuesday, coinciding with Anthropic's announcement to relax its Responsible Scaling Policy. The changes shift from strict safety tripwires to more flexible risk assessments amid competitive pressures.

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

Von KI berichtet Fakten geprüft

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Von KI berichtet

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Von KI berichtet

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

 

 

 

Diese Website verwendet Cookies

Wir verwenden Cookies für Analysen, um unsere Website zu verbessern. Lesen Sie unsere Datenschutzrichtlinie für weitere Informationen.
Ablehnen