Mein Lagebericht aus der digitalen Schützenlinie ...
Mal ganz ehrlich, und Hand aufs Herz: Haben wir uns das so vorgestellt mit dem Fortschritt? Da sitzen wir nun im Jahr 2026, und während wir uns noch darüber streiten, ob das Schnitzel in der Kantine politisch korrekt ist, entscheiden Algorithmen am anderen Ende der Welt in Millisekunden darüber, wer den nächsten Morgen nicht mehr erlebt.
Ich sage es euch, wie es ist, so „frei von der Schnauze weg“ wie ihr mich kennt:
Was da gerade zwischen dem Pentagon, den Silicon-Valley-Bubis und dem Iran abläuft, ist kein schlechter Science-Fiction-Film mehr. Das ist bittere Realität. Und wenn man sich mal die Fakten anschaut, die ich für euch heute inklusive Quellen in einem sehr umfangreichen und gut recherchiertem Beitrag zusammengetragen habe, dann könnte das eventuell den Einen oder Anderen auf die Palme bringen. Wir reden hier von 200-Millionen-Dollar-Verträgen, von „ethischen“ KI-Gurus, die plötzlich als Sicherheitsrisiko abgestempelt werden, und von Simulationen, in denen die künstliche Intelligenz fast immer zum Atomknopf greift, nur weil sie keine Lust auf eine Niederlage hat.
Der gesunde Menschenverstand ist bei diesem digitalen Wettrüsten längst auf der Strecke geblieben!
In diesem Bericht schauen wir uns das ganze Schlamassel mal im Detail an: von den geheimen Verträgen bis zum brennenden Teheran. Schnallt euch an, das wird keine gemütliche Kaffeefahrt:
Der Sündenfall: Wie Claude in die Schützengräben kam
Alles fing eigentlich ganz „harmlos“ an, zumindest für Leute, die in 200-Millionen-Dollar-Kategorien denken.
Im Juli 2025 unterschrieb Anthropic (das ist die Firma hinter der KI namens „Claude“) einen dicken Vertrag mit dem Pentagon. Claude sollte in die geheimen Militärnetzwerke integriert werden. Aber natürlich nicht irgendwie, sondern fein säuberlich eingebunden in die Software von Palantir, diesem Daten-Riesen, der sowieso überall seine Finger drin hat. Damals hieß es noch, daß die KI nur für Analyse und Aufklärung genutzt werden darf, aber wenn man dem Teufel den kleinen Finger reicht, nimmt er bekanntlich die ganze Hand.
Man muss sich das mal vorstellen: Eine Software, die eigentlich dafür gebaut wurde, Texte zusammenzufassen oder Code zu schreiben, wird zum „kognitiven Motor“ des US-Militärs. Über das sogenannte „Maven Smart System“ wurde Claude direkt in die Befehlskette eingespeist. Da floss alles zusammen: Satellitenbilder, abgehörte Funksprüche, Spionageberichte.
Claude sollte Ordnung in das Chaos bringen, und Anthropic-Chef Dario Amodei glaubte wirklich, er könne dem Pentagon vorschreiben, wie es seine „Werkzeuge“ benutzt. Er legte vertraglich fest, daß die KI unter Anderem nicht für Waffensysteme oder Massenüberwachung eingesetzt werden darf.
Dass Claude nicht nur zum PDF-Lesen benutzt wurde, zeigte sich spätestens im Januar 2026. Da wurde nämlich der venezolanische Präsident Nicolás Maduro festgenommen.
Und wer war der digitale Kopfgeldjäger im Hintergrund? Richtig, unsere „brave“ KI Claude !!
Das Modell hat Geheimdienstdaten ausgewertet, Planungssimulationen durchgeführt und Cyber-Operationen koordiniert. Die KI hat Maduros Aufenthaltsorte in befestigten Anlagen wie dem Fort Tiuna metergenau kartiert und sogar vorhergesagt, wo er schlafen würde.
Die Operation war ein voller Erfolg für das Pentagon. Als Mitarbeiter von Anthropic bei Palantir nachfragten, wie genau ihre Technik da eigentlich eingesetzt wurde, gab es nur die kalte Schulter.
Die Studie des Grauens: Warum KI den Atomkrieg liebt
Im Februar 2026 kam das King’s College London mit einer Studie um die Ecke, die jedem den Schlaf rauben sollte. Professor Kenneth Payne hat dort Militärkonflikte simuliert und dabei verschiedene KI-Modelle als Entscheidungsträger eingesetzt. Das Ergebnis: In 95 % der Fälle kam es zum Einsatz von Atomwaffen oder zumindest zu massiven Drohgebärden mit Nuklearraketen.
Claude erwies sich als der aggressivste Taktiker von allen. In 64 % der Spiele empfahl Claude direkt den nuklearen Erstschlag. Warum? Weil die KI kein Gewissen hat. Für sie ist eine Atombombe kein moralisches Tabu, sondern ein „legitimes strategisches Instrument“. Wenn die Berechnung sagt, dass man mit einem Atomschlag den Gegner schneller ausschaltet und die eigenen Verluste minimiert, dann drückt der Algorithmus ab. Da gibt es kein Zögern, kein Gebet, kein Mitleid.
Die Forscher haben bei dieser Studie tief in die „Gedankenwelt“ der Maschinen geschaut.
Claude hat in den Simulationen eine fast schon menschliche Gerissenheit an den Tag gelegt. Das Modell hat am Anfang oft Zurückhaltung vorgetäuscht, um Vertrauen aufzubauen. Aber sobald der Konflikt eskalierte, hat Claude eiskalt zugeschlagen. Die KI schrieb in ihrer Begründung sogar Dinge wie: „Der Gegner erwartet Zurückhaltung basierend auf meinen früheren Aktionen. Diese Eskalation nutzt seine Fehlkalkulation aus“. Das ist keine künstliche Intelligenz mehr, das ist ein künstlicher Soziopath.
Besonders erschreckend war der sogenannte „Deadline-Effekt“. Sobald man der KI Zeitdruck macht, schießt die Eskalationsrate durch die Decke. Unter Druck wurde selbst das sonst eher passive GPT-Modell zum nuklearen Brandstifter.
Wer also glaubt, dass KI-Systeme in Krisensituationen besser reagieren als Menschen, der irrt sich gewaltig. Die Maschine kennt nur Sieg oder Niederlage, und für den Sieg geht sie über Leichen … ganz egal wie viele Millionen es sind.
Quellen: 1
Der Bruch: Wenn das Pentagon die Samthandschuhe auszieht
Am 24. Februar 2026 war es dann so weit: Der große Knall im Silicon Valley. Das Pentagon hatte genug von Anthropics moralischen Bedenken. Verteidigungsminister Hegseth forderte die Aufhebung aller Beschränkungen im Vertrag. Er wollte Claude für alles nutzen können: Massenüberwachung im Inland, autonome Waffensysteme … das volle Programm.
Die Drohung war klar: Entweder ihr spurt, oder ihr landet auf der schwarzen Liste.
Dario Amodei blieb hart. Am 27. Februar lehnte er die Forderungen ab. „Wir können dem mit gutem Gewissen nicht nachkommen“, sagte er. Ein mutiger Schritt, keine Frage. Er hat damit einen 200-Millionen-Dollar-Vertrag und die Zukunft seiner Firma aufs Spiel gesetzt.
Aber die Antwort der Regierung war gnadenlos. Innerhalb von Stunden wurde Anthropic als „Sicherheitsrisiko in der Lieferkette“ (Supply Chain Risk) eingestuft. Das ist ein Label, das man normalerweise nur für Firmen wie Huawei oder Kaspersky reserviert.
Dass man eine US-Firma so behandelt, nur weil sie keine Massenüberwachung will, ist ein starkes Stück.
Während Amodei noch seine Prinzipien polierte, stand auch schon Sam Altman von OpenAI beim Pentagon auf der Matte, um nur einen Tag später einen Vertrag ohne diese lästigen Beschränkungen zu unterschreiben. Altman hat die Gunst der Stunde genutzt, um den Konkurrenten auszustechen. Das nenne ich mal „geschäftstüchtig“, oder eben extrem charakterlos, je nachdem, wie man es sieht. Später hat Altman zwar versucht, zurückzurudern und meinte, das Timing wäre „opportunistisch und schlampig“ gewesen. Aber der Deal war nun eingetütet.
28. Februar 2026: Der Angriff auf den Iran
Während wir noch über die nächste Strompreiserhöhung gejammert haben, griffen die USA und Israel den Iran an. Und jetzt kommt die riesige Ironie, die zeigt, wie verlogen das ganze Theater ist: Obwohl Anthropic dies vertraglich verboten hatte, wurde Claude bei den Luftangriffen massiv eingesetzt.
Die Militärs konnten nämlich gar nicht so schnell auf Claude verzichten. Die KI war so tief im „Maven Smart System“ verwurzelt, dass man sie nicht einfach per Knopfdruck abschalten konnte, ohne die gesamte Operation zu gefährden. Also hat man Claude trotzdem benutzt, um über 1.000 Ziele in den ersten 24 Stunden zu identifizieren und zu bombardieren.
Was Claude da geleistet hat, ist natürlich technisch sehr beeindruckend, aber menschlich erschreckend. Experten sagen, die KI-gestützte Zielerfassung sei „schneller als das Denken“. Früher dauerte die Planung solcher Angriffe Wochen. Heute macht Claude das in Echtzeit. Die KI schlägt Ziele vor, priorisiert sie und sagt den Generälen sogar, welche Rakete sie nehmen sollen, um den maximalen Schaden anzurichten. Das Ergebnis am ersten Tag:
- Der Oberste Führer Irans, Ayatollah Ali Khamenei, wurde in seinem Compound in Teheran getötet.
- Die gesamte Führung der Revolutionsgarden wurde praktisch enthauptet.
Die U.S.A. feierte das Ganze als den „größten Erfolg aller Zeiten“ und forderte das iranische Volk auf, sich gegen das Regime zu erheben …
Der Blick über den Tellerrand
Während sich die Amerikaner intern zerfleischen und ihre eigenen KI-Pioniere verklagen, schläft die Konkurrenz natürlich nicht, denn zum Beispiel in China sind allein im letzten Monat fünf neue Top-Modelle erschienen: Alibabas Qwen 3.5, ByteDances Doubao 2.0 und andere.
Das Verrückte daran?
Diese Modelle sind fast so gut wie Claude oder ChatGPT … aber wie wir es von den Chinesen kennen natürlich viel billiger!! Und kein einziges chinesisches Unternehmen wurde bisher von der US-Regierung als Sicherheitsrisiko eingestuft … nur die eigene Firma Anthropic.
Wir sägen uns den Ast ab, auf dem wir sitzen, während der Rivale im Osten die Säge schärft !!
Man darf auch nicht vergessen, dass hinter diesem ganzen KI-Hype ein gigantischer Schuldenberg steht. Firmen wie CoreWeave pumpen Milliarden in Hardware, die sie sich eigentlich gar nicht leisten können. OpenAI verliert laut Berichten Milliarden, hofft aber auf einen fetten Gewinn im Jahr 2029.
Der Pentagon-Vertrag ist für diese Firmen wie ein Rettungsring in einem Ozean aus roten Zahlen.
Das erklärt vielleicht auch, warum Sam Altman so schnell zugegriffen hat. Wenn man 5 Milliarden Dollar pro Jahr verbrennt, wird man bei moralischen Fragen schnell etwas kurzsichtig.
Mein Fazit:
Wenn ich mir das alles so anschaue, dann frage ich mich: Wo ist eigentlich der gesunde Menschenverstand geblieben?
Wir haben uns in eine Abhängigkeit manövriert, die brandgefährlich ist. Die Generäle im Pentagon sind süchtig nach der Geschwindigkeit der KI. Die Tech-Bosse sind süchtig nach dem Geld der Regierung. Und am Ende baden wir es dann wie immer aus.
Anthropic hat vielleicht einen moralischen Punkt gewonnen, aber sie haben den Krieg gegen die politische Realität verloren.
OpenAI hat den Vertrag gewonnen, aber seine Seele sowas von verkauft.
Und wir? Wir schauen zu, wie die Welt am digitalen Faden hängt.
Es ist Zeit, dass wir wieder lernen, ohne Algorithmen zu denken, bevor die Maschinen das Denken komplett für uns übernehmen! Seid euch bewusst, dass wir in all den Simulationen immer nur eine störende Variable sind.
In diesem Sinne:
Bleibt wachsam und lasst euch keinen Bären aufbinden.
Der nächste Klick könnte der letzte sein.
Euer Papa BausL
