Leak von Claude Mythos verschärft Bedrohung für Banken

Anthropics neuestes KI-Modell Claude Mythos ist geleakt und gilt als zu gefährlich für die Öffentlichkeit. Finanzinstitute sehen sich dadurch neuen KI-gestützten Angriffen ausgesetzt, die Zero-Day-Schwachstellen ausnutzen können.

Anthropic beschreibt Claude Mythos als hochgradig riskant. Das Modell wurde bereits außerhalb des Unternehmens verfügbar und kann auf Anweisung unbekannte Sicherheitslücken identifizieren sowie ausnutzen.

Banken sind besonders gefährdet, da sie komplexe IT-Systeme mit alten und neuen Komponenten betreiben. Professor Co-Pierre Georg von der Frankfurt School of Finance nennt drei Hauptbedrohungen: den Verlust sensibler Kundendaten, die Störung kritischer Systeme und einen anschließenden Vertrauensverlust.

Das Bundesfinanzministerium verfolgt die Entwicklungen genau. Es steht in engem Austausch mit der Finanzaufsicht, dem Finanzsektor sowie europäischen und internationalen Partnern, um auf mögliche Risiken vorbereitet zu sein.

Verwandte Artikel

Illustration of US Treasury Secretary warning bank executives about AI cyberattack risks from Anthropic's Claude Mythos.
Bild generiert von KI

US Treasury warns banks of AI cyberattack risks following Anthropic's Claude Mythos announcement

Von KI berichtet Bild generiert von KI

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Die deutsche Finanzaufsicht Bafin hat Geldhäuser vor den Gefahren des neuen KI-Modells „Mythos“ des US-Unternehmens Anthropic gewarnt. Das System kann IT-Sicherheitslücken eigenständig und im großen Maßstab aufspüren, was Angreifer nutzen könnten. US-Banken testen das Modell bereits.

Von KI berichtet

Anthropic has released a new cyber-focused AI model called Mythos, capable of detecting software flaws faster than humans and generating exploits. The model has raised alarms among governments and companies for potentially turbocharging hacking by exposing vulnerabilities quicker than they can be patched. Officials worldwide are scrambling to assess the risks.

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Von KI berichtet

Anthropic has discovered 14 high-severity security vulnerabilities in Firefox using its new Claude AI tools. The company states that AI enables faster detection of such issues. This finding was reported in a TechRadar article published on March 9, 2026.

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

Von KI berichtet

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

 

 

 

Diese Website verwendet Cookies

Wir verwenden Cookies für Analysen, um unsere Website zu verbessern. Lesen Sie unsere Datenschutzrichtlinie für weitere Informationen.
Ablehnen