Anthropic’s Claude Mythos: Deutschlands Debatte über die gefährlichste KI‑Technologie
Im April 2026 hat das US‑Unternehmen Anthropic das Modell Claude Mythos vorgestellt – eine künstliche Intelligenz, die laut internen Tests selbstständig Zero‑Day‑Schwachstellen in allen gängigen Betriebssystemen und Browsern finden und ausnutzen kann. Die Meldungen über diese Fähigkeiten lösten weltweit, und besonders in Deutschland, eine intensive Diskussion aus. Experten aus dem Bundesamt für Sicherheit in der Informationstechnik (BSI) und führende Forschungseinrichtungen warnen, dass ein derart leistungsfähiges System das Risiko großflächiger Cyberangriffe dramatisch erhöht. Während Anthropic selbst betont, dass Mythos nicht öffentlich zugänglich gemacht wird, weil es „unprecedented cybersecurity risks“ birgt, fragen sich Unternehmen und Behörden, wie sie sich gegen mögliche Missbrauchsszenarien schützen können.
Die Gefahr wird durch mehrere konkrete Beispiele untermauert: In einem von Anthropic veröffentlichten Red‑Team‑Report wurden unter anderem ein 27 Jahre alter TCP‑Protokoll‑Fehler im OpenBSD‑Kernel, ein 16 Jahre alter Decoder‑Bug in FFmpeg und ein 17 Jahre alter Remote‑Code‑Execution‑Fehler im FreeBSD‑Kernel entdeckt. Solche Schwachstellen waren über Jahrzehnte unentdeckt und könnten durch ein System wie Mythos sofort ausgenutzt werden, ohne dass Entwickler Zeit zur Gegenmaßnahme haben. Deutsche Unternehmen, die stark auf veraltete Infrastrukturen setzen, sehen sich dadurch einem potenziellen „Zero‑Day‑Alarm“ gegenüber, der die üblichen Patch‑ und Update‑Strategien überflüssig machen könnte. Das BSI hat bereits empfohlen, kritische Systeme zu isolieren und verstärkte Pen‑Testing‑Programme zu implementieren, um mögliche Lücken frühzeitig zu identifizieren.
Die Reaktion der deutschen Politik ist ebenfalls spürbar. Im Bundestag wurde ein Gesetzentwurf diskutiert, der den Einsatz von KI‑Systemen mit hohem Risiko stärker regulieren soll. Ziel ist es, klare Verantwortlichkeiten für Hersteller und Nutzer festzulegen und gleichzeitig eine zentrale Meldestelle für KI‑induzierte Sicherheitsvorfälle zu etablieren. Parallel dazu arbeiten große Technologieunternehmen wie Amazon, Apple, Google und Microsoft im Rahmen des Projekts „Glasswing“ mit Anthropic zusammen, um die Entdeckung von Schwachstellen zu kanalisieren und verantwortungsbewusst zu veröffentlichen. Für Deutschland bedeutet das eine Chance, die eigene Cyber‑Resilienz zu stärken, indem internationale Expertise mit nationalen Sicherheitsstrategien verknüpft wird – doch gleichzeitig bleibt die Frage, ob solche Kooperationen ausreichen, um die durch Claude Mythos eröffneten Bedrohungen langfristig zu kontrollieren.
