Hallo, Skynet?
Deal mit OpenAI: Die USA setzen künstliche Intelligenz im Krieg ein

Foto links: AP/dpa, rechts: U.S. Central Command/dpa
Auch das Militär möchte von KI profitieren: OpenAI-Chef Sam Altman ist einen Deal mit der US-Regierung eingegangen.
„Der einzige Weg zu gewinnen, ist, nicht zu spielen.“ Mehr als 40 Jahre hat dieser Satz aus dem Film „War Games“ schon auf dem Buckel, jetzt scheint das in ihm angedachte Szenario Stück für Stück wahr zu werden. Denn bei ihren Angriffen auf den Iran haben die USA erstmals offiziell künstliche Intelligenz unterstützend eingesetzt. Mehr noch: Schon seit einiger Zeit ist bekannt, dass das US-Militär LLM-Modelle und andere KI-Applikationen flächendeckend verwenden möchte.
Bislang war das Unternehmen Anthropic mit seiner KI Claude hierfür Partner des US-Militärs, doch im Zuge des Angriffs auf den Iran hat sich das geändert. Denn gefühlt aus heiterem Himmel weigerte sich Anthropic auf einmal, der Regierung zu erlauben, Claude und die dahinterstehende Technologie für autonome Waffensysteme zu verwenden: also unter anderem für Drohnen oder Minipanzer, die selbstständig entscheiden können, ob sie Menschen töten oder nicht. Für den größten Konkurrenten von Anthropic, OpenAI, schien das aber weniger ein Problem zu sein. Kaum hatte das eine Unternehmen dem Pentagon abgesagt, sprang Sam Altmans Firma ein, um den Auftrag anzunehmen. Das gefiel auch dem US-Präsidenten Donald Trump, der die Mitarbeiter von Anthropic kurz zuvor noch als „linke Vollidioten“ bezeichnet hatte.
Zahlreiche Nutzer finden: nur weg von OpenAI
Für Sam Altman war der Deal mit dem Pentagon eine Gelegenheit, die man sich nicht entgehen lassen durfte. Ein Teil der Nutzer sah das aber anders. Eine ihrer Befürchtungen: Das KI-Projekt des US-Militärs könnte am Ende zu einer Art Skynet werden. Dieser Computer sorgte in den „Terminator“-Filmen für einen Atomkrieg und löschte fast die gesamte Menschheit aus. Eine erste Reaktion: Viele User beendeten ihre Mitgliedschaft bei OpenAI und wechselten zu Anthropic und Claude.
Deshalb ist auch OpenAI-Chef Sam Altman mittlerweile ein bisschen zurückgerudert. Der Deal mit dem Pentagon steht nach wie vor, allerdings wolle man jetzt „nachbessern“, so Altman. Das beinhaltet, dass KI nicht bewusst zur Überwachung von US-Bürgern und Staatsangehörigen im Inland und von Geheimdiensten wie der NSA eingesetzt werden darf. Allerdings nicht aus ethischen Gründen, sondern weil laut Altman die Systeme noch nicht ausgereift seien.









