Es ist eine Konstellation, die für gewöhnliche Unternehmen paradox klingen müsste: Man führt einen Rechtsstreit gegen das US-Verteidigungsministerium (Department of Defense, DOD) und liefert gleichzeitig freiwillig Briefings über seine gefährlichsten Technologien an eben diese Regierung. Genau dieses Szenario spielt sich derzeit bei Anthropic ab. Jack Clark, Mitgründer und Head of Public Benefit des KI-Unternehmens, hat auf dem World Economy Summit von Semafor bestätigt, dass Anthropic die Trump-Administration über sein neues Modell „Mythos“ informiert hat.
Das Mythos-Dilemma: Zu gefährlich für die Öffentlichkeit
Erst in der vergangenen Woche wurde Mythos vorgestellt – ein Modell, das aufgrund seiner massiven Cybersecurity-Fähigkeiten als derart gefährlich eingestuft wurde, dass Anthropic es der Öffentlichkeit vorenthält. Bei derart leistungsstarken Systemen stellt sich stets die Frage nach der Kontrolle. Wer darf Zugang erhalten und wer entscheidet darüber? Die Antwort von Anthropic scheint zu lauten: Nicht die breite Öffentlichkeit, aber sehr wohl Regierungsstellen und große Finanzinstitute.
So berichteten kürzlich Medien, dass Trump-Beamte Banken wie JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America und Morgan Stanley ermutigten, Mythos zu testen. Die Grenze zwischen nationaler Sicherheit und wirtschaftlicher Nutzbarkeit verschwimmt hier zunehmend. Ein Modell, das für Cybersecurity relevant genug ist, um es unter Verschluss zu halten, wird gleichzeitig als potenzielles Werkzeug für Wall-Street-Giganten positioniert.
Der Konflikt mit dem Pentagon: Nur ein „enger Vertragsstreit“?
Besonders brisant ist das Briefing im Kontext der laufenden Klage gegen das Pentagon. Im März verklagte Anthropic das DOD, nachdem die Behörde das Unternehmen als „Supply Chain Risk“ eingestuft hatte. Der Hintergrund: Anthropic weigerte sich, dem Militär uneingeschränkten Zugang zu seinen KI-Systemen zu gewähren, da das Startup Anwendungen wie die Massenüberwachung von US-Bürgern und den Einsatz vollautonomer Waffen ablehnt. Den Deal sicherte sich stattdessen OpenAI, der Konkurrent, der solche roten Linien offenbar weniger strikt zieht.
Auf dem Summit versuchte Clark, diese fundamentale Differenz herunterzuspielen. Er bezeichnete die Einstufung als „Supply Chain Risk“ lediglich als „narrow contracting dispute“ (engen Vertragsstreit). Man wolle nicht, dass dieser Streit den Blick darauf verstelle, dass Anthropic nationale Sicherheit ernst nehme. Diese rhetorische Einordnung ist bemerkenswert. Die Weigerung, KI für autonome Waffensysteme freizugeben, ist ein ethischer Grundpfeiler von Anthropics Unternehmensidentität (verankert als Public Benefit Corporation). Dies als bloßen Vertragsstreit abzutun, wirkt wie ein taktischer Schachzug, um die Tür für künftige Regierungsaufträge nicht endgültig zuzuschlagen.
Clarks Argumentation ist klar: „Die Regierung muss über diese Dinge Bescheid wissen, und wir müssen neue Wege finden, wie die Regierung mit einem Privatsektor zusammenarbeiten kann, der Dinge herstellt, die die Wirtschaft wirklich revolutionieren, aber auch Aspekte berühren, die die nationale Sicherheit betreffen.“ Man werde auch über zukünftige Modelle sprechen. Anthropic spielt hier ein riskantes Doppelspiel: Man zieht ethische rote Linien vor Gericht, sucht aber gleichzeitig die Nähe zur Macht, um bei der Regulierung und Anwendung der Technologie nicht ins Abseits zu geraten.
Arbeitsmarkt und Bildung: Der interne Dissens
Neben der Geopolitik sprach Clark auch über die gesellschaftlichen Auswirkungen von KI, insbesondere auf den Arbeitsmarkt und das Bildungssystem. Hier zeigten sich interessante Differenzen innerhalb der Anthropic-Führungsetage.
CEO Dario Amodei hatte kürzlich davor gewarnt, dass KI-Entwicklungen zu Arbeitslosigkeitsraten in der Größenordnung der Weltwirtschaftskrise führen könnten. Clark, der bei Anthropic ein Ökonomenteam leitet, relativierte diese Prognose. Amodeis Annahme basiere darauf, dass KI viel schneller und mächtiger werde als allgemein erwartet. Clark selbst sieht aktuell jedoch nur „einige potenzielle Schwächen bei der Beschäftigung von Berufsanfängern“ in bestimmten Branchen. Die apokalyptischen Szenarien seines CEOs teilt er zum jetzigen Zeitpunkt offenbar nicht – oder möchte sie zumindest öffentlich nicht weiter befeuern.
Auf die Frage, welche Studiengänge angesichts der KI-Revolution empfehlenswert seien, blieb Clark vage, lieferte aber eine spannende Perspektive: Die wichtigsten Fächer seien jene, die „Synthese über eine ganze Reihe von Fächern hinweg und analytisches Denken darüber“ beinhalten. Seine Begründung ist ein Plädoyer für den generalistischen Ansatz: KI gebe uns Zugang zu einer beliebigen Anzahl von Fachleuten in verschiedenen Domänen. Der entscheidende menschliche Beitrag liege darin, die richtigen Fragen zu stellen und eine Intuition dafür zu entwickeln, welche Erkenntnisse interessant sein könnten, wenn man Einsichten aus vielen verschiedenen Disziplinen zusammenführt.
Fazit: Die Zähmung des Leviathans
Anthropic befindet sich in einer Übergangsphase. Vom idealistischen Startup, das Sicherheit und Ethik über alles stellt, hin zu einem zentralen Akteur im geopolitischen Machtkampf. Das Vorenthalten von Mythos vor der Öffentlichkeit bei gleichzeitiger Vorstellung vor der Trump-Regierung und Wall-Street-Banken zeigt, wo die tatsächlichen Machtzentren verortet werden. Die Klag gegen das Pentagon bewahrt das ethische Erbe, während das freiwillige Briefing den praktischen Realismus dokumentiert. Anthropic will den KI-Leviathan zähmen – und scheint bereit, dafür mit den Akteuren zu verhandeln, die historisch gesehen die mächtigsten Zügel halten.
Quelle: TechCrunch