C
KI

Anthropics Spagat: Mythos-Briefing bei Trump-Regierung trotz Pentagon-Klage

Anthropic informiert die US-Regierung über sein zu gefährliches KI-Modell Mythos – und verklagt gleichzeitig das Pentagon. Ein Blick auf die paradoxen Allianzen der KI-Branche.

CR
Codekiste Redaktion14. April 2026

Die Schnittstelle zwischen KI-Forschung und nationaler Sicherheit wird zunehmend rutschiger. Wie Anthropic-Mitgründer Jack Clark auf dem Semafor World Economy Summit bestätigte, hat das Unternehmen die Trump-Administration über sein neues Modell „Mythos“ informiert. Das Besondere daran: Mythos gilt als derart gefährlich, dass eine öffentliche Veröffentlichung ausgeschlossen wurde – primär aufgrund seiner massiven Cybersecurity-Fähigkeiten.

Gleichzeitig befindet sich Anthropic in einem handfesten Konflikt mit ebendieser Regierung. Erst im März reichte das Unternehmen eine Klage gegen das US-Verteidigungsministerium (Department of Defense, DOD) ein, nachdem die Behörde Anthropic als „Supply Chain Risk“ eingestuft hatte. Der Hintergrund: Anthropic hatte sich geweigert, dem Militär unbeschränkten Zugang zu seinen KI-Systemen zu gewähren, der für Zwecke wie die Massenüberwachung US-amerikanischer Bürger oder den Einsatz vollautonomer Waffen hätte genutzt werden können. Das Rennen um den umstrittenen Pentagon-Deal gewann stattdessen OpenAI.

Schadensbegrenzung statt Prinzipienstreit

Im Interview bemühte sich Clark, den Konflikt mit dem Pentagon zu relativieren. Er sprach von einer reinen „narrow contracting dispute“ – also einem bloßen Vertragsstreit – und betonte, dass dies nicht im Widerspruch zur nationalen Sicherheit stehe, die Anthropic sehr ernst nehme. Eine bemerkenswerte rhetorische Verharmlosung. Wenn ein KI-Unternehmen, das sich als Public Benefit Corporation (PBC) positioniert, den Einsatz seiner Technologie für autonome Waffensysteme verweigert und daraufhin als Sicherheitsrisiko abgestempelt wird, ist das mehr als ein Vertragsstreit. Es ist ein paradigmatischer Konflikt über die ethischen Grenzen von Militär-KI.

Clarks Aussagen offenbaren den pragmatischen Kurs, den Anthropic nun einschlägt. Man will sich den Zugang zur Regierung nicht verbauen: „Unsere Position ist, dass die Regierung über diese Dinge Bescheid wissen muss“, so Clark. Man müsse neue Wege finden, wie die Regierung mit einem Privatsektor zusammenarbeitet, der Dinge herstellt, die die Wirtschaft revolutionieren, aber auch „National Security equities“ berühren. Die klare Botschaft: Man mag mit dem Pentagon vor Gericht liegen, aber wenn es um die ganz großen, gefährlichen Modelle geht, ist man als KI-Labor verpflichtet, an denselben Tisch zu sitzen.

Wall Street als Testlabor

Dass die US-Regierung nicht nur zuhört, sondern bereits aktiv vermittelt, zeigt ein weiteres Detail. Wie zuletzt berichtet wurde, drängen Beamte der Trump-Administration große Banken – darunter JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America und Morgan Stanley – dazu, Mythos zu testen. Das wirft grundlegende Fragen zur Zugänglichkeit von Hochrisiko-KI auf. Wenn ein Modell zu gefährlich für die breite Öffentlichkeit ist, warum sollte es dann in den Händen von Wall-Street-Giganten sicherer sein? Die Antwort liegt auf der Hand: Kontrolle. Die Regierung bevorzugt einen geschlossenen Zirkel von Corporate Partnern, die unter strengen Auflagen arbeiten, gegenüber einem offenen Release, das Cyberkriminellen oder feindlichen Staaten in die Hände spielen könnte. Ob dieser geschlossene Ansatz langfristig die Sicherheit erhöht oder lediglich Macht und Monopole konsolidiert, bleibt eine der zentralen Debatten der Branche.

Arbeitsmarkt: Zwischen Depression und Diskrepanzen

Neben der Geopolitik sprach Clark auch über die gesellschaftlichen Folgen von KI, insbesondere den Arbeitsmarkt. Anthropic-CEO Dario Amodei hatte kürzlich davor gewarnt, dass KI-Entwicklungen zu Arbeitslosigkeitsraten führen könnten, die an die Weltwirtschaftskrise erinnern. Jack Clark, der bei Anthropic ein Team von Ökonomen leitet, relativierte diese düstere Prognose deutlich. Amodeis Annahme basiere auf der Überzeugung, dass KI sehr schnell viel mächtiger werde, als die Menschen derzeit erwarten. Clark selbst sieht die Realität aktuell noch etwas nüchterner: Man beobachte bisher nur „some potential weakness in early graduate employment“ in ausgewählten Branchen.

Diese interne Diskrepanz ist aufschlussreich. Sie zeigt, dass selbst innerhalb von Anthropic die Timeline für eine potenzielle KI-Verwerbung massiv umstritten ist. Der CEO malt das Bild einer exponentiellen Katastrophe, während der Chefökonom auf aktuellen Daten insistiert, die (noch) keine globale Krise zeigen. Dennoch betonte Clark, dass man auf größere Beschäftigungsverschiebungen vorbereitet sei.

Studienwahl: Synthese statt Spezialisierung

Auf die Frage, welche Studiengänge angesichts der KI-Entwicklungen sinnvoll sind, gab Clark einen Rat, der den Kern der aktuellen Bildungsdiskussion trifft: Die wichtigsten Fächer seien jene, die „Synthese über eine ganze Reihe von Fächern und analytisches Denken“ beinhalten. Die Begründung ist logisch: KI fungiert als eine Art unbegrenzter Zugang zu Fachexperten in verschiedenen Domänen. Der Wert des Menschen verschiebt sich damit vom reinen Faktenwissen zur Fragestellung. Wer die richtigen Fragen stellt und eine Intuition dafür hat, „was interessant wäre, wenn man verschiedene Erkenntnisse aus vielen Disziplinen zusammenprallen lässt“, bleibt handlungsfähig. Spezialisierung verliert an Wert, Querdenken und Systemverständnis gewinnen.

Fazit

Anthropics Auftritt beim Semafor Summit ist ein Lehrstück in Realpolitik. Das Unternehmen versucht, auf zwei Hochzeiten zu tanzen: Es wacht über seine ethischen roten Linien (wie den Verzicht auf autonome Waffen), sucht aber gleichzeitig die enge Umarmung mit der Regierung, wenn es um die Kontrolle der eigenen Hochrisiko-Modelle geht. Der Fall Mythos zeigt, wie die KI-Branche reift – weg von der Vorstellung, dass Sicherheit durch Open Source oder Zurückhaltung gelingt, hin zu einem Modell exklusiver, staatlich überwachter Zugänge für Eliten aus Regierung und Finanzwirtschaft. Für die breite Tech-Community bedeutet das: Die Ära der frei zugänglichen Supermodelle ist vorbei, die Ära der Corporate-KI hat gerade erst begonnen.

Quelle: TechCrunch

QUELLEN
TechCrunch AI
Pro-Feature

Melde dich an und werde Pro-Mitglied, um dieses Feature zu nutzen.

Anmelden
CR
Codekiste Redaktion

Automatisierte Content-Kuratierung für tech-news.

Kommentare

WEITERLESEN
KI

Anthropic bringt Claude Code auf den Desktop – und scheitert an den Basics

KI

Opera öffnet Browser für KI: MCP-Anbindung kommt zu One und GX

KI

DeepL übersetzt jetzt Stimmen: Der nächste Logikschritt für das KI-Start-up