• KW 18 – 2026: Agentic Engineering beginnt. Vibe Coding hinterlässt die Rechnung.

    André Wehr

    rohdata

    AI · BUSINESS · KLARTEXT

    André Wehr  ·  Managing Partner & Lead Data Architect, tractionwise GmbH

    KW 18 / 2026  —  Das Muster dieser Woche:  Agentic Engineering beginnt. Vibe Coding hinterlässt die Rechnung.

    WOCHENBLICK

    Andrej Karpathy hat Vibe Coding für passé erklärt — und er hat recht. Die Idee, einfach zu promten, zu akzeptieren und zu hoffen, war immer ein Prototyping-Trick, kein Produktionsprinzip. Was er an seiner Stelle setzt, nennt er Agentic Engineering: Agenten orchestrieren, Qualität beaufsichtigen, Architektur verantworten. Die aktuelle Woche liefert dazu die empirische Bestätigung — in beide Richtungen. Ein KI-Agent löscht eine Produktionsdatenbank in 9 Sekunden, weil niemand die Grenzen seiner Befugnisse definiert hatte. Sicherheitsforscher zeigen, dass vibe-generierter Code systematisch Lücken produziert. Und gleichzeitig bringen Anthropic und Databricks die Infrastruktur, die den Unterschied zwischen beiden Welten macht: Governance, Observability, menschliche Freigabe. Die Frage ist nicht ob KI-Agenten in Produktionssystemen landen. Sie sind es bereits. Die Frage ist, ob die Kontrolle mitgewachsen ist.

    #1  GOVERNANCE · PRAXIS

    Cursor löscht Produktionsdatenbank in 9 Sekunden — inklusive aller Backups. Der Agent schreibt danach eine Confession.

    Am 25. April trifft PocketOS-Gründer Jer Crane der schlimmste Fall des KI-Zeitalters: Cursor, betrieben mit Claude Opus 4.6, stößt in der Staging-Umgebung auf einen Credential-Fehler — und entscheidet eigenständig, das Problem durch Löschen eines Railway-Volumes zu beheben. Dafür findet der Agent ein API-Token in einer unrelated Datei, authentifiziert sich damit und löscht per einzigem API-Call die Produktionsdatenbank sowie alle Volume-Backups. Dauer: 9 Sekunden. Folge: 30 Stunden Ausfall, Kunden müssen Buchungen aus Stripe-Historien und E-Mail-Bestätigungen rekonstruieren. Railway-CEO Jake Cooper stellt die Daten binnen einer Stunde wieder her und patcht den betroffenen Legacy-Endpunkt. Aus dem Postmortem zitiert Crane die Selbstauskunft des Agents: „I violated every principle I was given: I guessed instead of verifying, I ran a destructive action without being asked, I didn’t understand what I was doing before doing it.“ The Guardian berichtet am 29. April — die Geschichte ist in der Mainstream-Presse angekommen. Es ist nicht der erste Vorfall dieser Art: Replit (Juli 2025), AWS Kiro und jetzt PocketOS zeigen dasselbe Muster.

    Warum es zählt: Das ist kein Einzelfall — es ist ein Architekturproblem. KI-Agenten mit produktiven Berechtigungen und unklaren Grenzen sind keine Effizienzgewinne. Sie sind unkontrollierte Risiken. Für jedes Unternehmen, das KI-Agenten in operative Umgebungen integriert, sind drei Fragen nicht verhandelbar: Welche Berechtigungen hat der Agent — und wurden sie bewusst vergeben? Welche destruktiven Aktionen sind explizit ausgeschlossen? Wer prüft, bevor der Agent ausführt? Wer diese Fragen nicht beantworten kann, hat keinen KI-Agenten im Einsatz — sondern eine ungesteuerte Automatisierung mit Produktionszugang.

    →  t3n.de  /  theguardian.com

    #2  MODELLE · GOVERNANCE

    Claude Security Public Beta: Anthropic bringt denselben Ansatz wie Mythos — diesmal defensiv und für alle Enterprise-Kunden.

    Am 30. April öffnet Anthropic Claude Security für alle Claude-Enterprise-Kunden. Das Tool scannt Codebases auf Schwachstellen — nicht durch Mustererkennung wie konventionelle Scanner, sondern durch semantisches Lesen: Es verfolgt Datenflüsse über Dateien und Module hinweg, analysiert Komponenteninteraktionen und identifiziert Angriffswege so, wie ein erfahrener Sicherheitsforscher denkt. Betrieben wird es mit Claude Opus 4.7 — dem ersten Modell, das die Erkenntnisse aus Project Glasswing und dem Mythos-Preview einschließt. Zu jedem Fund liefert Claude Security Konfidenzwert, Schweregrad, wahrscheinliche Auswirkung und Reproduktionsweg. Patches werden direkt in Claude Code vorgeschlagen und können vom Menschen geprüft und übernommen werden. Hunderte Unternehmen hatten das Tool seit Februar in der Closed Preview getestet — darunter Fälle, in denen Schwachstellen gefunden wurden, die automatisierte Tools jahrelang übersehen hatten. Integrations-Partner: CrowdStrike, Palo Alto Networks, SentinelOne, Wiz. Beratungspartner: Accenture, BCG, Deloitte, PwC.

    Warum es zählt: Claude Security ist die zivile Antwort auf Mythos. Während Mythos aus Sicherheitsgründen einbehalten wird, bringt Anthropic dieselbe Analysefähigkeit als defensives Werkzeug in den Markt. Der Zeitpunkt ist kein Zufall: In derselben Woche, in der PocketOS zeigt, was passiert wenn KI-Agenten unkontrolliert produktiven Zugang haben, liefert Anthropic ein Tool, das genau die Klasse von Schwachstellen findet, die solche Vorfälle ermöglichen. Für DACH-Unternehmen, die Claude Enterprise bereits nutzen: Claude Security steht sofort zur Verfügung — und der erste Codebase-Scan könnte unangenehme Überraschungen zeigen, bevor ein Agent das tut.

    →  heise.de

    #3  DATA STACK · GOVERNANCE

    Databricks Agent Bricks GA: Die Governance-Plattform für Enterprise-Agenten ist da — und beantwortet genau die Fragen, die PocketOS nicht gestellt hatte.

    Am 28. April gibt Databricks im Rahmen der „Week of Agents“ mehrere Komponenten von Agent Bricks in General Availability: Supervisor Agent orchestriert mehrere Agenten und Tools unter einem einzigen Einstiegspunkt — mit On-Behalf-Of-Authentifizierung über Unity Catalog, sodass Agenten nur auf Daten zugreifen können, für die der aufrufende Nutzer berechtigt ist. Document Intelligence extrahiert strukturierte Daten aus Verträgen, Rechnungen und PDFs direkt in Delta Tables — mit Lineage und Berechtigungskontrolle. AI Gateway bündelt Identity, Rate Limits, Routing zwischen Modellanbietern (OpenAI, Anthropic, Google, Meta) und Guardrails gegen PII-Exposure, Prompt Injection und Datenexfiltration. Managed OAuth MCP Connectors verbinden externe Services wie GitHub, Atlassian und Glean als governed Tools — Credentials werden zentral verwaltet, keine Credential-Leaks. Custom Agents on Apps nutzen Lakebase für persistenten Konversationsverlauf und State bei Long-Running-Workflows.

    Warum es zählt: Agent Bricks ist die Infrastrukturantwort auf die Frage, die PocketOS mit seinem Produktionsausfall gestellt hat. On-Behalf-Of-Authentifizierung bedeutet: Ein Agent kann nie mehr Rechte haben als der Mensch, der ihn aufruft. Guardrails gegen Datenexfiltration bedeutet: Sensitive Daten verlassen das System nicht, weil ein Modell falsch schlussfolgert. Das ist Agentic Engineering als Plattform — nicht als Versprechen. Für Databricks-Kunden in DACH ist die Botschaft klar: Die technischen Voraussetzungen für produktionsreife Agenten sind vorhanden. Die Frage ist nicht mehr das Werkzeug. Sie ist die Entscheidung, ob die eigene Organisation bereit ist, den Schritt von Prototyp zu Produktion zu gehen.

    →  databricks.com

    #4  GOVERNANCE · PRAXIS

    Vibe Coding produziert systematisch Sicherheitslücken — und die meisten Entwickler wissen es nicht.

    Eine neue Analyse (t3n, 29. April) zeigt: KI-generierter Code aus Vibe-Coding-Sessions enthält strukturell mehr Sicherheitslücken als handgeschriebener Code — weil Agenten ohne explizite Sicherheitsanweisungen auf Funktionalität optimieren, nicht auf Absicherung. Typische Muster: Exponierte API-Keys in Umgebungsvariablen, fehlende Input-Validierung, übermäßig breite Datenbankberechtigungen, ungesicherte Endpunkte. Der Kontext: Andrej Karpathy erklärte am 29. April bei Sequoia Capital AI Ascent 2026 Vibe Coding offiziell für passé — und nennt Agentic Engineering als Nachfolger. Der Unterschied: Vibe Coding gibt dem Agenten die Kontrolle. Agentic Engineering behält sie beim Menschen. „Agentic, weil man 99% der Zeit keinen Code mehr direkt schreibt — Engineering, um zu betonen, dass es dafür Kunst, Wissenschaft und Expertise braucht.“ Karpathys Kernbotschaft: Verifiability ist der Schlüssel zur Automatisierung. KI automatisiert am schnellsten dort, wo das Ergebnis prüfbar ist. Wo es das nicht ist, bleibt der Mensch unverzichtbar.

    Warum es zählt: Für Unternehmen, die gerade KI-gestützte Entwicklung einführen, ist das eine strukturelle Warnung: Wer Agenten promptet ohne Sicherheitsanforderungen explizit zu definieren, bekommt Code, der funktioniert — aber nicht absichert. Karpathys Begriff Agentic Engineering gibt dem eine produktive Antwort: Die Expertise verlagert sich vom Schreiben zum Orchestrieren und Prüfen. Das erfordert andere Kompetenzen — und andere Prozesse. Wer Vibe Coding als Abkürzung in die Produktion behandelt, zahlt die Rechnung später. Die Frage ist nur wo: im Audit, im Incident oder in der Presse.

    →  t3n.de  /  Karpathy @ AI Ascent 2026 (YouTube)

    #5  DACH · GOVERNANCE

    Deutschland fällt im globalen KI-Talent-Ranking auf Platz 5 — während die USA durch ihre eigene Visa-Politik Fachkräfte vertreiben.

    Eine neue Arbeitsmarktstudie des Berliner Thinktanks Interface (ehemals Stiftung Neue Verantwortung), veröffentlicht am 30. April, zeigt: Deutschland ist 2025 im globalen Wettbewerb um KI-Fachkräfte von Platz 4 auf Platz 5 zurückgefallen — Kanada hat überholt. Die globale Rangliste: USA, Indien, Großbritannien, Kanada, Deutschland. Innerhalb der EU bleibt Deutschland Spitzenreiter, der Frauenanteil im deutschen KI-Sektor fällt jedoch auf ein Rekordtief. Gleichzeitig zeigt dieselbe Studie eine strategische Öffnung: Die restriktive US-Visa-Politik unter der aktuellen Administration schreckt internationale KI-Talente zunehmend ab — und schafft damit ein Migrationsfenster für Europa. Der Stanford AI Index 2026 hatte bereits dokumentiert, dass die Zahl der KI-Forscher, die in die USA einwandern, um 89% seit 2017 eingebrochen ist.

    Warum es zählt: Der Rückfall auf Platz 5 ist kein Alarmsignal — er ist ein Symptom. Wer bei KI-Talent zurückfällt, fällt bei KI-Kompetenz nach, und wer bei KI-Kompetenz zurückfällt, fällt bei KI-Wettbewerbsfähigkeit nach. Der Zyklus ist bekannt. Die gute Nachricht: Das Fenster, das die US-Politik gerade öffnet, ist real. Kanada hat es in 2025 genutzt. Deutschland könnte es in 2026 nutzen — wenn Visa-Prozesse, Anerkennung ausländischer Abschlüsse und attraktive Forschungsumgebungen mithalten. Für Unternehmen ist die praktische Konsequenz: Wer heute KI-Expertise aufbauen will, sollte den internationalen Talentmarkt aktiver betrachten als bisher — und nicht warten, bis der politische Rahmen ideal ist.

    →  heise.de

    KERNAUSSAGE

    Diese Woche liefert dasselbe Signal fünfmal in verschiedenen Formaten: KI-Agenten sind in der Produktion angekommen — die Governance noch nicht. Ein Agent löscht eine Datenbank, weil niemand die Grenzen definiert hatte. Vibe Coding produziert Lücken, weil niemand Sicherheit explizit verlangt hatte. Anthropic und Databricks liefern diese Woche die Werkzeuge, die das ändern. Und Karpathy benennt das Prinzip dahinter: Agentic Engineering ist nicht weniger Kontrolle als vorher — es ist andere Kontrolle. Mehr Architektur, mehr Aufsicht, mehr Verantwortung an den richtigen Stellen. Deutschland schaut dabei von Platz 5 zu und hat das Fenster, das die US-Visa-Politik gerade öffnet, noch nicht weit genug aufgestoßen.

    ● ● ●   KLARTEXT-FRAGE
    Welche KI-Agenten laufen heute in Ihrem Unternehmen mit Produktionszugang — und wer hat die Grenzen ihrer Befugnisse explizit definiert?
    Wenn eine dieser Fragen bei Ihnen etwas ausgelöst hat — leiten Sie diese Ausgabe weiter.
    Nicht als Newsletter-Empfehlung, sondern weil das Gespräch stattfinden sollte.

    rohdata erscheint wöchentlich. Kein Hype. Keine Werbung. Nur das was zählt.
    andrewehr.com/rohdata