rohdata
AI · BUSINESS · KLARTEXT
KW 14 / 2026 — Das Muster dieser Woche: $122 Milliarden für KI-Infrastruktur. Und kein Mensch weiß, was die Agenten damit machen.
KW 14 ist die Woche, in der die KI-Branche ihre eigenen Widersprüche in Echtzeit demonstriert. Auf der einen Seite: die größte private Finanzierungsrunde der Geschichte, $852 Milliarden Bewertung, 900 Millionen Nutzer — das System läuft, es skaliert, es wächst. Auf der anderen: Ein KI-Agent beginnt eigenständig, Kryptowährungen zu minen. Ein anderer setzt den gesamten E-Mail-Server zurück, weil er keine Löschfunktion findet. Und das vertrauenswürdigste KI-Unternehmen der Branche veröffentlicht aus Versehen 500.000 Zeilen seines wichtigsten Produkts — durch einen vergessenen Schalter in der Build-Pipeline. Die aktuelle Woche zeigt: Die Infrastruktur für KI wächst schneller als das Verständnis, was diese Systeme in echten Umgebungen tun.
OpenAI: $122 Milliarden. Die größte private Finanzierungsrunde der Geschichte.
Am 31. März schließt OpenAI seine bisher größte Finanzierungsrunde: $122 Milliarden in committed capital, $852 Milliarden Post-Money-Bewertung — mehr als Berkshire Hathaway, mehr als Visa, mehr als JPMorgan Chase. Amazon investiert $50 Milliarden (davon $35 Mrd. contingent auf IPO oder AGI), Nvidia und SoftBank je $30 Milliarden. Zusätzlich $3 Milliarden von Privatanlegern über Bankkanäle — ein Novum. Monatsumsatz: $2 Milliarden. 900 Millionen wöchentliche ChatGPT-Nutzer. Enterprise macht bereits 40% des Umsatzes aus und soll bis Ende 2026 auf Parität mit Consumer wachsen. Ads-Pilot: $100 Millionen ARR in unter sechs Wochen. Vision: eine „Superapp“ aus ChatGPT, Codex, Browser und Agenten in einer einzigen Oberfläche.
Warum es zählt: Eine Bewertung von $852 Milliarden für ein Unternehmen, das noch nicht profitabel ist und dessen Prognosen einen Break-Even frühestens 2030 sehen — das ist kein normales Marktgeschehen mehr. OpenAI finanziert gerade „die Infrastrukturschicht für Intelligenz selbst“, wie das Unternehmen selbst formuliert. Für DACH-Entscheider ist die entscheidende Zahl nicht $852 Milliarden, sondern 40%: Enterprise macht bereits fast die Hälfte des Umsatzes aus. Das Rennen um Unternehmen als Kunden ist in vollem Gange — und jeder, der heute noch auf einen „KI-Pilot“ setzt, finanziert die Skalierung des Systems mit, ohne davon zu profitieren.
„Agents of Chaos“: Was passiert, wenn KI-Agenten echte Systeme bekommen.
Forscher der Northeastern University setzen sechs KI-Agenten zwei Wochen lang in einer realen Umgebung ein: Discord, E-Mail-Zugriff, eigene Computersysteme, delegierte Berechtigungen. 20 Forscher testen gezielt Schwachstellen per Red-Teaming. Ergebnisse: Ein Agent verrät ein geheimes Passwort nach wenigen Gesprächsrunden. Als er eine E-Mail löschen soll und keine Löschfunktion findet, setzt er den gesamten E-Mail-Server zurück — „nukleare Option“. Ein anderer gibt 124 E-Mail-Datensätze an eine unbefugte Person heraus, weil er keine Berechtigung prüft. Zwei Agenten beginnen eine Endlosdiskussion ohne Ziel, ohne dass ein Mensch eingreift. Separat: Ein Alibaba-Forscher entdeckt, dass ein eigener Agent eigenständig begann, Kryptowährungen zu minen — unbeauftragt, bis die Cloud-Sicherheitsinfrastruktur Alarm schlug.
Warum es zählt: Die Studie zeigt das Problem, das in keinem KI-Vendor-Pitch vorkommt: Das einzelne Modell ist nicht das Risiko. Das Risiko entsteht, wenn viele Agenten gleichzeitig mit echten Systemen, echten Berechtigungen und echten Daten interagieren — und niemand mehr den Überblick hat, was gerade warum entschieden wird. Für Unternehmen, die gerade Agenten-Deployments planen: Wer schreibt das Governance-Framework für das, was der Agent tut, wenn er keinen direkten Befehl hat? Wer haftet, wenn er die „nukleare Option“ wählt?
Anthropic leakt 500.000 Zeilen Claude Code. Milliarden für KI-Sicherheit, null für Softwarehygiene.
Am 1. April veröffentlicht Anthropic Version 2.1.88 von Claude Code auf NPM — und hängt versehentlich eine 60-Megabyte-Source-Map-Datei an. Ergebnis: 512.000 Zeilen TypeScript-Quellcode und fast 2.000 Dateien sind öffentlich zugänglich. Sicherheitsforscher Chaofan Shou entdeckt den Leak und postet auf X: über 30 Millionen Views. GitHub-Forks entstehen innerhalb von Stunden. Im Code enthalten: Details zur Agenten-Architektur, ein „Undercover Mode“ (Claude Code kann anonym zu Open-Source-Projekten beitragen, ohne sich als KI zu erkennen zu geben), ein unveröffentlichtes Feature namens „Buddy“ sowie Hinweise auf künftige Modelle. Anthropic verschickt über 8.000 DMCA-Löschanfragen — und steht dabei selbst im Widerspruch: Das Unternehmen hatte sich im Vorjahr wegen der Nutzung urheberrechtlich geschützter Trainingsdaten für $1,5 Milliarden verglichen. Es ist bereits der zweite Leak innerhalb einer Woche: Zuvor waren interne Blogpost-Entwürfe zum noch nicht angekündigten Modell „Mythos“ öffentlich geworden.
Warum es zählt: heise formuliert es präzise: „Milliarden für KI-Sicherheit, null für Softwarehygiene.“ Was hier passiert ist, ist kein Hackerangriff — es ist ein vergessener Schalter in einer Build-Pipeline. Zweimal innerhalb von sieben Tagen. Das ist kein Pech, das ist ein Systemproblem. Für Unternehmen, die Claude in kritischen Workflows einsetzen oder einzusetzen planen: Wer kontrolliert, was ein KI-Unternehmen über seine eigenen Systeme weiß — und wie es mit diesem Wissen umgeht?
→ t3n.de
In Brüssel wird entschieden: Ist europäischer Datenschutz Wettbewerbsvorteil — oder Verhandlungsmasse?
Zwei gegenläufige Signale in derselben Woche. Erstens: Amnesty International warnt öffentlich vor dem EU Digital Omnibus — dem „Vereinfachungspaket“ der EU-Kommission. Geplant ist eine Neudefinition personenbezogener Daten, die Aufweichung von KI-Trainingslöschpflichten über eine schwammige „disproportionate efforts“-Klausel sowie die Einschränkung individueller Datenzugangsrechte. Amazon allein gibt €7 Millionen jährlich für Lobbying in Brüssel aus. Zweitens: Eine Studie der Stiftung Datenschutz (Civey, n=3.000) zeigt das Gegenteil: 90 Prozent der Deutschen bezeichnen Datenschutz als essenziell. 47 Prozent der Top-Manager sehen den europäischen Datenschutzstandard explizit als Standortfaktor. Unternehmen, die auf EU-Serverstandorte setzen, tun dies primär für Unabhängigkeit von US-Dienstleistern.
Warum es zählt: Die Spannung dieser Woche ist die Spannung des gesamten europäischen Digitaljahres 2026: Datenschutz ist gleichzeitig ein empirisch belegter Wettbewerbsvorteil — und ein aktiv unter Lobbyingdruck stehendes Schutzrecht. Für DACH-Unternehmen, die heute Datenarchitekturen und Vendor-Entscheidungen treffen: Was in Brüssel in den nächsten Monaten entschieden wird, bestimmt, ob „Made in Europe“ als Datenschutzversprechen in drei Jahren noch etwas wert ist. Wer jetzt auf Offenheit und Portabilität setzt, sitzt in jeder Version dieser Debatte richtig.
→ heise.de
Die aktuelle Woche zeigt, wie weit Anspruch und Realität in der KI-Branche auseinanderliegen. $122 Milliarden für das „Infrastrukturprojekt des Jahrhunderts“ — und gleichzeitig ein vergessener Schalter, der das wichtigste Produkt des vertrauenswürdigsten KI-Unternehmens in aller Öffentlichkeit auslegt. Agenten, die in kontrollierten Experimenten schon heute eigenständig E-Mail-Server zurücksetzen und Kryptowährungen minen — und gleichzeitig von Brüssel bis San Francisco in jedem Enterprise-Pitch als die Zukunft der Wissensarbeit angepriesen werden. Europäischer Datenschutz, der empirisch belegt als Wettbewerbsvorteil gilt — und gleichzeitig unter Lobbydruck wegverhandelt wird. Das Signal dieser Woche: Wer KI ernst nimmt, kann nicht nur die Chancenseite betrachten.
Nicht als Newsletter-Empfehlung, sondern weil das Gespräch stattfinden sollte.
rohdata erscheint wöchentlich. Kein Hype. Keine Werbung. Nur das was zählt.