Wie behalten wir die Kontrolle über KI-generierten Code? Die erste AI Engineer Europe in London lieferte keine einfache Antwort. Um die Positionen greifbar zu machen, definiere ich drei Ansätze: Slow Down, Tempo und Open Source. Die Realität ist natürlich fließender – aber wie Hayden White schrieb: "The beginning of all understanding is classification."
Drei der Top-Speaker hatten österreichische Wurzeln: Peter Steinberger (OpenAI / OpenClaw Foundation), Mario Zechner und Armin Ronacher (mittlerweile alle drei bei Earendil) – zusammen mit Cristina Poncela Cubeiro gehörten sie zu den prägenden Stimmen der Konferenz.
Die Einschätzungen und Schlussfolgerungen in diesem Artikel sind meine persönliche Meinung, basierend auf den Vorträgen und Gesprächen vor Ort. Ich behandle hier nur Talks, die ich selbst gesehen habe (und denke verstanden zu haben). Teilweise wurde mit Vereinfachungen gearbeitet – Fehler bitte melden!
Event-Stammdaten
Veranstaltung
AI Engineer Europe 2026 – Europas erste offizielle AI-Engineer-Konferenz, organisiert von Swyx (Shawn Wang) und dem AI Engineer-Team
Termin
8.–10. April 2026 — Tag 1: Workshops + Expo, Tag 2–3: Keynotes + Breakouts + Afterparties
Location
Queen Elizabeth II Centre, Broad Sanctuary, Westminster, London SW1P 3EE – direkt gegenüber der Westminster Abbey
Teilnehmer:innen & Format
1.000+ AI-Engineers aus aller Welt, 100+ Speaker, 11 technische Tracks, 23 Hands-on Workshops (Tag 1)
Inhaltsverzeichnis
Die Konferenz im Überblick
Klick lädt YouTube (Datenschutz)
Tag 1 (9. April) – Agenten, Sicherheit und Ökonomie. Malte Ubl über sinkende Code-Kosten, Raia Hadsell über DeepMind jenseits von Sprache, Peter Steinberger über OpenClaws Security-Explosion und Matt Pocock über Software-Fundamentals im KI-Zeitalter.
Klick lädt YouTube (Datenschutz)
Tag 2 (10. April) – Code-Qualität und Open Source. David Soria Parra über die Zukunft von MCP, Mario Zechner und Armin Ronacher & Cristina Poncela Cubeiro über Agent-lesbare Architekturen, Sarah Chieng über schnelle Modelle – und Tuomas Artman (Linear) über Taste als Wettbewerbsvorteil.
Ansatz 1: Slow Down
Diese Gruppe eint eine klare Überzeugung: KI-Geschwindigkeit ohne menschliche Kontrolle erzeugt nicht Innovation, sondern unkontrollierbaren Müll. Ihr Rezept: Sauberes Software-Design und klare Verantwortlichkeiten im Code.
Matt Pocock – Software-Fundamentals sind wichtiger denn je
Code ist nicht billig. Schlechter Code ist heute teurer denn je, weil er die KI daran hindert, effizient zu arbeiten.
Matt Pocock zerlegte den verbreiteten "Specs-to-Code"-Ansatz – also die Praxis, Spezifikationen (detaillierte Anforderungsbeschreibungen) einfach in eine KI zu werfen und den Output blind zu übernehmen. Das Ergebnis sei unkontrollierbare "Software-Entropie" (die schleichende Zunahme von Unordnung und Komplexität in einer Codebasis).
Sein Gegenvorschlag:
- Deep Modules (ein Konzept von John Ousterhout): Module, die intern viel Logik enthalten, nach außen aber eine simple Schnittstelle bieten. Wie ein Auto: komplexer Motor, aber man braucht nur Lenkrad und Pedale. Der Mensch entwirft die Architektur, die KI implementiert die Logik innerhalb des Moduls. Getestet wird nur an der Schnittstelle – ideal für TDD als Leitplanke.
- "Grill me"-Prompts: Er zwingt die KI, ihn so lange auszufragen, bis ein gemeinsames Systemverständnis (Design Concept) erreicht ist – statt blindem Code-Output
- TDD: Tests zuerst, Code danach. So steuert er die KI in kleinen, überprüfbaren Schritten
Mario Zechner – Eigenkontrolle und der Kampf gegen KI-Müll
- Menschlicher Schutzmechanismus: Entwickler:innen spüren einen natürlichen Widerstand, wenn Code unsauber wird – und stoppen irgendwann, um aufzuräumen.
- KI fehlt dieser Instinkt: Ihr einziges Ziel ist Code, der läuft und Tests besteht – egal wie.
- Schlechte Vorbilder: Lücken in der Aufgabenstellung füllen Agenten mit Mustern aus dem Internet, das zu einem großen Teil aus unseren eigenen technischen Schulden besteht.
- Das Ergebnis: Weil Agenten nie innehalten, akkumulieren sie in Tagen ein Chaos, für das Menschen Monate bräuchten – bis die Codebasis so zugemüllt ist, dass am Ende selbst die Agenten sie nicht mehr reparieren können.
Der österreichische Entwickler Mario Zechner (bekannt als Schöpfer von libGDX) baute den minimalistischen Coding-Agenten Pi, weil kommerzielle Tools wie Claude Code den Entwickler:innen die Kontrolle über den Kontext entziehen. Pi kommt bewusst mit nur vier Werkzeugen: read, write, edit, bash.
Drei zentrale Punkte des Vortrags:
-
Automatisierte Agenten zerstören Open Source: Agenten überschwemmen Open-Source-Projekte mit nutzlosen Pull Requests (Code-Änderungsvorschlägen). Zechner baute einen Müll-Filter, der PRs automatisch schließt und menschliche Bestätigung verlangt. Wenn es zu viel wird, nimmt er sich eine "OSS Vacation" und schließt den Issue-Tracker (das Ticketsystem für Fehlermeldungen).
-
Kein Schmerz, keine Qualität: Im Gegensatz zu Menschen lernen Agenten nicht organisch aus Fehlern. Die intellektuelle Reibung beim Programmieren ist essenziell, um das System wirklich zu verstehen.
-
"Slow the fuck down": Kritischer Code muss weiterhin zwingend von Menschen gelesen werden. Entschleunigung ist kein Rückschritt – sondern Qualitätssicherung.
Armin Ronacher & Cristina Poncela Cubeiro – "Die Reibung ist dein Urteilsvermögen"
Armin Ronacher – Schöpfer von Flask, nach einem Jahrzehnt bei Sentry jetzt Gründer von Earendil – lieferte gemeinsam mit Cristina Poncela Cubeiro eine der schärfsten Analysen der Konferenz. Mario Zechner ist seit April 2026 ebenfalls Teil von Earendil.
Die Effizienz-Falle: KI-Tools machen süchtig – man weiß nie, ob der nächste Prompt das Feature liefert oder das System mit Müll füllt. Die Geschwindigkeit schwindelt einem Produktivität vor. In Wirklichkeit fehlt die Zeit zum Nachdenken: Code-Reviews werden nur noch durchgewunken, weil Agenten mehr Code produzieren als Menschen prüfen können.
Funktionierender Code ≠ guter Code: Ein menschlicher Entwickler spürt ein Unbehagen, wenn er unsaubere Workarounds schreibt. Ein Agent nicht. Er schreibt Code, der "irgendwie läuft" – etwa stille Standardwerte im Fehlerfall statt eines sauberen Abbruchs. Das Ergebnis: unbemerkt korrupte Daten und rasant wachsende technische Schulden.
Bibliotheken ja, komplexe Produkte nein: KI-Agenten können gut abgegrenzte Software-Bibliotheken schreiben – klare Grenzen, einfache Schnittstellen. Bei komplexen Produkten, wo Oberfläche, Berechtigungen und Abrechnung ineinandergreifen, fehlt der KI das Gesamtbild. Sie agiert lokal logisch, macht aber das Gesamtsystem zunehmend chaotisch.
Die "Agent-Legible Codebase" – Code, den Agenten fehlerfrei lesen können:
- Jede Funktion hat genau eine Aufgabe – und ihr Name macht das klar
- Was im Code steht, passiert auch – keine versteckten Seiteneffekte (z. B. React Server Actions oder komplexe ORMs, die die Absicht des Codes vor dem Agenten verbergen)
- Automatische Prüfwerkzeuge (Linter) verhindern z. B. leere Fehlerbehandlungen, die Probleme verschlucken
- Fehlermeldungen beschreiben das konkrete Problem ("Datenbankverbindung fehlgeschlagen") statt nur "Ein Fehler ist aufgetreten"
Bewusste Reibung: Ein KI-Agent kann in Sekunden hunderte Dateien ändern. Das ist großartig bei Routine-Aufgaben – aber gefährlich, wenn er dabei eine Datenbank-Struktur umbaut oder Zugriffsrechte ändert. Ronacher vergleicht das mit Physik: Ohne Reibung gibt es keine Lenkung. Deshalb haben sie Werkzeuge gebaut (Erweiterungen für den Agenten Pi), die bei kritischen Operationen hart stoppen. Der Mensch bekommt eine klare Zusammenfassung: "Ich möchte die Tabelle X löschen und die Berechtigungen für Y ändern – soll ich?" Erst nach expliziter Freigabe geht es weiter. Diese Reibung ist der Moment, in dem menschliche Erfahrung und Urteilsvermögen greifen.
Ronacher und Poncela Cubeiros Fazit: KI ist ein brillantes Werkzeug für eng definierte Aufgaben – etwa das Reproduzieren von Bugs. Aber Architekturentscheidungen gehören in menschliche Hände.
Weiterlesen auf webconsulting.at
TYPO3 KI-fit machen: Wie klare Strukturen bessere Agenten-Ergebnisse liefern – Agent-Legible Codebase in der Praxis: Wie wir eine TYPO3-Codebasis für KI-Agenten lesbar gemacht haben.
Ansatz 2: Tempo
Auch diese Gruppe will Qualität – aber statt zu bremsen, will sie die Infrastruktur so bauen, dass Qualität bei Tempo systemisch entsteht.
Malte Ubl – Massenhafte Softwareproduktion
Die Softwareproduktion ist so günstig geworden, dass wir nun all die Software bauen können, deren Entwicklung früher unwirtschaftlich war. Das wird die Nachfrage nach Entwickler:innen massiv steigern – nicht senken.
Malte Ubl (CTO von Vercel, der Cloud-Plattform hinter Next.js für Hosting, Serverless und Edge Computing) lieferte die ökonomische Perspektive:
-
Sinkende Infrastrukturkosten: Die KI-Inferenzkosten fallen rapide – getrieben durch Wettbewerb zwischen Google, OpenAI und anderen Anbietern. Ubls Punkt: Wenn die Infrastruktur billig wird, verdient das Geld, wer gute Produkte baut – nicht wer die Server betreibt.
-
Agenten als primäre Nutzer: Bei Vercel sind Agenten bereits für über 60 % der Seitenaufrufe verantwortlich. Zukünftig müssen Infrastrukturen nativ für Agenten (APIs/CLIs) statt für menschliche UIs optimiert werden.
-
Agenten als neue Applikationsschicht: Individuelle Automatisierung ist erstmals wirtschaftlich tragbar. Nicht nur große Unternehmen, sondern auch kleine Teams können jetzt maßgeschneiderte Agents bauen.
Swyx – Tiny Teams und KI-Automatisierung
Swyx (Shawn Wang), Organisator der Konferenz und Gründer von AI Engineer, demonstrierte live, wie sein 9-köpfiges Team über 9 Millionen Dollar erwirtschaftet – mit Aufgaben, die früher ganze Abteilungen brauchten.
-
Das Ende des "Yak Shaving": Bevor man die eigentliche Aufgabe erledigen kann, muss man erst zehn andere Dinge fixen – das ist Yak Shaving. Agenten übernehmen diese mühsamen Vorarbeiten.
-
SaaS ersetzen: Er nutzt KI, um komplexe SaaS-Lösungen (wie ein CMS) komplett durch KI-verwalteten Code zu ersetzen.
-
Alltagstauglichkeit: Agenten für Alltagsaufgaben – inklusive Web-Recherche, um einen echten Hummer in London aufzutreiben. Kein Scherz.
Weiterlesen auf webconsulting.at
KI-Native Unternehmen: So arbeiten Entwickler:innen mit KI-Agenten – Wie Tiny Teams mit dem PDAA-Workflow KI-Agenten in ihren Alltag integrieren.
KI-Kosten im Griff: Der Praxis-Guide für strategische Budgetplanung – Was passiert, wenn Code fast kostenlos wird – und wo die versteckten Kosten liegen.
Ansatz 3: Open Source
Peter Steinberger – State of the Claw
Drei Fähigkeiten, die einzeln beherrschbar sind, aber zusammen eine komplette Angriffskette bilden: persönliche Daten lesen (Beute), nicht vertrauenswürdige Webseiten verarbeiten (Angriffsfläche), E-Mails senden (Fluchtweg). Steinberger griff das in seinem Talk auf.
Peter Steinberger – Gründer von PSPDFKit, seit Februar 2026 bei OpenAI und Gründer der OpenClaw Foundation – lieferte mit "State of the Claw" einen der meistdiskutierten Beiträge. OpenClaw basiert technisch auf Zechners Pi, ist explosionsartig gewachsen und hat über 1.142 Security Advisories ausgelöst.
Zum Vergleich (aus Steinbergers Präsentation):
| Projekt | Zeitraum | CVEs / Advisories | Rate |
|---|---|---|---|
| Django | 19 Jahre | 94 | ~8/Jahr |
| curl | 8 Jahre | ~600 Reports | ~100/Jahr |
| Linux Kernel | Seit 2023 (CNA-Änderung) | ~8–9/Tag | Sprunghaft gestiegen |
| OpenClaw | 68 Tage | 1.142 total | 16,8/Tag |
- Unabhängigkeit: Um zu verhindern, dass große Unternehmen die Kontrolle übernehmen, wird die OpenClaw Foundation als "neutrale Schweiz" aufgebaut – analog zur Linux Foundation.
Mario Zechner – Pi als Open-Source-Alternative
Zechner steht für beide Ansätze gleichzeitig: Slow Down und Open Source. Sein Agent Pi ist der lebende Beweis, dass es neben proprietären Produkten wie Claude Code, Cursor oder GitHub Copilot einen radikal anderen Weg gibt: ein schlankes, quelloffenes Werkzeug, das Entwickler:innen die volle Kontrolle über ihren Workflow lässt.
Proprietäre Coding-Agenten entscheiden hinter verschlossenen Türen, welchen Kontext sie senden, welche Hintergrundaktionen sie ausführen und wie sie Daten verarbeiten. Ein Open-Source-Agent wie Pi macht diese Entscheidungen transparent und überprüfbar – essenziell für sicherheitskritische oder datensensible Projekte.
Pi ist dabei kein Kompromiss, sondern ein bewusstes Designprinzip: Weniger Features, mehr Kontrolle. Keine Magie, keine versteckten API-Calls, keine Telemetrie. Genau vier Tools – und die volle Verantwortung bleibt beim Menschen. Dass Pi mittlerweile die technische Basis von OpenClaw bildet (Steinbergers Projekt), zeigt: Minimalismus und Skalierbarkeit schließen sich nicht aus.
Swyx im Gespräch mit Steinberger – Lokale Kontrolle und "Geschmack"
Im offenen AMA-Format diskutierten Swyx und Steinberger die philosophischen Grundlagen:
-
Macht über eigene Daten: Lokale Modelle (KI, die direkt auf dem eigenen Rechner läuft statt in der Cloud) erlauben es, Datensilos großer Tech-Firmen zu umgehen. Statt auf offizielle APIs zu warten, kann ein Agent einfach über Weboberflächen agieren.
-
"Taste" als Differenzierungsmerkmal: Da KI die reine Erstellung von Code automatisiert, verlagert sich der Wert auf den menschlichen "Geschmack" – also die Fähigkeit zu erkennen, ob Design oder Code "nach KI stinken" oder Seele haben.
Weiterlesen auf webconsulting.at
Model Context Protocol: 30 Fragen und Antworten – MCP ist der offene Standard, über den Agenten wie Pi und OpenClaw mit externen Tools kommunizieren.
Agent Skills: 30 Fragen und Antworten – Der offene Standard für wiederverwendbare KI-Agenten-Fähigkeiten in Claude Code, Cursor und VS Code.
Synthese: Drei Ansätze, ein Ziel
Alle Speaker wollen Qualität – darin herrschte Einigkeit. Die Unterschiede liegen nicht im Ziel, sondern in der Gewichtung. Die drei Ansätze schließen sich nicht aus – in der Praxis dürften die meisten Teams Elemente aus allen dreien kombinieren.
Slow Down
Qualität durch menschliche Kontrolle
Tempo drosseln, intellektuelle Kontrolle behalten, bewusste Hürden einbauen. KI-generierter Code braucht menschliche Überprüfung.
Tempo
Qualität durch bessere Systeme
Infrastruktur so bauen, dass Agenten von Anfang an sauber arbeiten. API-first, Validierung, automatisierte Feedback-Loops.
Open Source
Qualität durch Transparenz
Werkzeuge offen und lokal bauen. Wer den Code sieht, kann ihn prüfen. Proprietäre Blackboxes sind das Gegenmodell.
Bonus: Tuomas Artman (Linear) – Warum "Taste" das neue Engineering ist
Der Fireside Chat zwischen Tuomas Artman (CTO und Co-Founder von Linear) und Gergely Orosz (The Pragmatic Engineer) war mein persönliches Highlight von Tag 2 – selten erlebt man jemanden, der so klar aus der eigenen Praxis argumentiert. Artman brachte eine Perspektive ein, die keiner der drei Ansätze allein abdeckt – sondern alle verbindet.
In einer Welt, in der jeder mit KI Code generieren kann, wird "Taste" – also das Gespür für gutes Design, die richtigen Abstractions und konsequente Opinionierung – zum entscheidenden Wettbewerbsvorteil.
Die wichtigsten Aussagen:
-
Zero Bug Policy: Bei Linear haben Bugs höchste Priorität – bevor sie nicht behoben sind, beginnt niemand mit neuen Features. Artmans Logik: Jeder Bug wird irgendwann gefixt – warum also nicht sofort? Das Ergebnis: Kund:innen melden einen Bug und finden ihn am nächsten Tag behoben.
-
Opinionated Software (Software mit klarer Haltung): Linear ist bewusst nicht flexibel für jeden Workflow. Es gibt einen guten Weg, Dinge zu tun – und das System leitet dorthin. Das reduziert Entscheidungsmüdigkeit und steigert die Geschwindigkeit.
-
Linear Agent: Linear baut KI direkt ins Produkt ein – nicht als Chatbot, sondern als KI-PM, die Triage, Backlog-Grooming und Issue-Erstellung übernimmt. Dazu kommen tiefe Integrationen mit Coding-Agenten via MCP, um direkt aus einem Issue heraus eine lokale Agent-Session zu starten.
-
Handwerk statt Kennzahlen: Linear setzt auf gutes Design und Bauchgefühl – nicht auf endlose Metriken und Optimierungsschleifen.
-
5-Tage-Hiring: Wer sich bei Linear bewirbt, kommt fünf Tage vorbei und baut etwas Echtes. Kein Whiteboard-Interview, kein LeetCode – sondern reale Arbeit am realen Produkt. Das filtert für genau die Art von Mensch, die Linear will: Menschen mit Liebe zum Detail und zum Handwerk.
Persönliche Anmerkung: Neben Mario Zechner hat mich die Diskussion mit Artman am meisten beeindruckt. Alles bei Linear ist mit einer Liebe zum Design gebaut, die man sofort spürt – vom Produkt bis zum Einstellungsprozess. Ehrlich gesagt: Über einen 5-Tages-Test bei Linear würde ich mich nicht beschweren.
Happy to share that code reviews are coming to @linear, available in private beta on every plan. Modern code reviews with structural diffing that vastly reduce the number of changed lines in many cases. Review, comment, check previews, get notifications on failed CI check. And Show more
Announcing Linear Reviews. A modern code review experience for humans and agents. Join the waitlist for early access: linear.app/reviews
Statisch gerendert - keine Cookies, kein Tracking
Was die Speaker sonst noch bewegt
Was die Konferenz-Speaker in den Tagen rund um das Event gepostet haben:
Peter Steinberger – Anthropic sperrt Open Source aus
woke up and my mentions are full of these Both me and @davemorin tried to talk sense into Anthropic, best we managed was delaying this for a week. Funny how timings match up, first they copy some popular features into their closed harness, then they lock out open source.
Statisch gerendert - keine Cookies, kein Tracking
Mario Zechner – "I've sold out"
People of pi. BIG NEWS. I've sold out. Let me know how you feel about this in the comments below. mariozechner.at/posts/2026-04-…
Statisch gerendert - keine Cookies, kein Tracking
Armin Ronacher & Cristina Poncela Cubeiro – Earendil explodiert
Thank you to everyone who reached out or is currently reaching out. Mine (and increasingly Earendil's) mailboxes are overflowing, so our SLA on anything inbound is not up to snub now.
Statisch gerendert - keine Cookies, kein Tracking
Malte Ubl – just-bash liefert weiter
Vercel Sandboxes are now the fastest sandbox using real VMs as security boundary based on the @computesdk benchmark. The team has been absolutely cooking on this. And the best thing: Because we have a unified Fluid Compute stack across Sandbox, Builds, and Functions these wins Show more
Statisch gerendert - keine Cookies, kein Tracking
Mein Fazit
Mein Eindruck nach zwei Tagen London: Die Frage verschiebt sich zunehmend von ob KI-Agenten die Softwareentwicklung transformieren hin zu wie wir die Kontrolle behalten, während das passiert.
Die schärfsten Analysen kamen von jenen, die selbst Coding-Agenten bauen – Steinberger (OpenAI / OpenClaw Foundation), Zechner, Ronacher und Poncela Cubeiro (Earendil). Ihre Botschaft: Technologie braucht Leitplanken, Open Source braucht Schutz vor Spam, und Code braucht Menschen, die ihn verstehen.
Meine fünf persönlichen Takeaways:
-
Open-Source-Alternativen sind kein Luxus, sondern Notwendigkeit. Die großen Anbieter – Anthropic, OpenAI, Google – verfolgen vermutlich eine Winner-takes-all-Strategie. Wer seinen Workflow auf ein proprietäres Tool baut, macht sich abhängig von fremden Entscheidungen. Steinbergers Erfahrung mit der Anthropic-Sperre zeigt: Von heute auf morgen kann der Zugang gekappt werden. Projekte wie Pi und OpenClaw sind deshalb keine Nischenprodukte – sie sind eine strategische Absicherung gegen Plattform-Lock-in.
-
Wie viel schneller ist man wirklich? Die ehrliche Antwort dürfte bei Faktor 2–3 liegen – nicht bei 10x, wie manche behaupten. Zechner bringt es auf den Punkt: 10-mal schneller zu sein bedeutet in der Praxis oft nur, 10-mal so viel Schrott zu produzieren. Wirklich produktiver wird man erst, wenn die Qualitätskontrolle mithält – und das erfordert Disziplin, nicht Geschwindigkeit.
-
Googles Pricing-Strategie könnte spielentscheidend werden. Wenn Ubl recht hat und die KI-Inferenzkosten weiter fallen, dürfte sich die Wertschöpfung zunehmend auf die Applikationsschicht verschieben. Für Agenturen und Entwickler:innen wäre das eine Chance.
-
"Taste" könnte zur wertvollsten Währung werden. Je mehr Code von Maschinen generiert wird, desto wichtiger dürfte das menschliche Urteil darüber werden, was gut ist – und was nur "funktioniert".
-
Reibung ist kein Bug, sondern ein Feature. Ronacher und Poncela Cubeiro haben recht: Wenn ein Agent eine Datenbank-Migration oder Berechtigungsänderung durchführen will, muss er stoppen und auf menschliche Freigabe warten – nicht einfach weitermachen.
Meine Ergänzung: Software Creation ist nicht Software Operations
Die Konferenz drehte sich fast ausschließlich um die Erstellung von Code. In der Praxis stelle ich meinen Kund:innen aber vorab andere Fragen:
- Wer macht die Infrastructure Updates – und wie schnell reagiert das Team, wenn eine Abhängigkeit kompromittiert wird? (Stichwort: der Axios-Trojaner vom März 2026 – ein nordkoreanischer Angriff auf ein npm-Paket mit 70 Millionen wöchentlichen Downloads, der innerhalb von Stunden einen Remote Access Trojan auf tausende Systeme geschleust hat.)
- Wer verantwortet Backup & Disaster Recovery?
- Wie schnell ist ein kritischer Bug im Production Environment gefixt?
- Und vor allem: Wie sieht die Data Strategy aus – gibt es auf Knopfdruck korrekte, aktuelle Daten vom gesamten Unternehmen?
Ohne saubere, validierte Live Data ist der ganze KI-Aufwand Makulatur. Meine Empfehlung: Zuerst Daten organisieren, bereinigen und zugänglich machen – dann reden wir über Agenten. Und ja: Auch bei der Datenbereinigung selbst können Agenten unterstützen – Duplikate finden, Formate vereinheitlichen, fehlende Felder identifizieren. Aber jemand muss die Strategie vorgeben und die Ergebnisse prüfen.
KI-Agenten können nur so gut arbeiten wie die Daten, die sie bekommen. Wer seine Datenbasis nicht im Griff hat – inkonsistente Stammdaten, veraltete Exporte, manuelle Workarounds – wird auch mit dem besten Coding-Agent keine Wunder erleben. Data Quality kommt vor Agent Quality.
Die erste AI Engineer Europe hat die Latte hoch gelegt. Technische Tiefe, strategische Weitsicht und eine Community, die Enthusiasmus und kritische Distanz gleichzeitig mitbringt – das findet man selten an einem Ort. Wenn die zweite Ausgabe an dieses Niveau anknüpft, wird London zum festen Termin im Kalender.
Tag 1: Vollständiges Programm
Klick lädt YouTube (Datenschutz)
Klickbare Sprungmarken (Timestamps verlinken direkt ins Video):
- 00:13:10 – Opening Remarks von Phil Hawksworth
- 00:21:26 – Lia McBride (AI Engineer): 900 % Community-Wachstum und britische KI-Infrastruktur-Investitionen
- 00:24:25 – Malte Ubl (Vercel): Agenten als neue Applikationsschicht, APIs müssen "AI first" werden
- 00:42:39 – Raia Hadsell (Google DeepMind): Gemini Embeddings 2, KI-Zyklon-Vorhersage, Project Genie 3
- 01:07:08 – Ryan Lopopolo (OpenAI): "Code is free" – Systemdenken und Delegation für parallele KI-Agenten
- 01:25:48 – Peter Steinberger (OpenAI / OpenClaw Foundation) 🇦🇹: "State of the Claw" – OpenClaws explosives Wachstum und KI-generierte Security-Bounty-Flut
- 01:45:12 – Pause: Morning Coffee
- 02:28:13 – Swyx mit Peter Steinberger (OpenAI / OpenClaw Foundation) 🇦🇹: Open Source, "Token Maxing" und "Taste" als ultimativer Engineering-Moat
- 02:55:01 – Vincent Koc (Comet ML): "Dark Factories" – 60+ parallele KI-Agenten für nächtliches Codebase-Refactoring
- 03:14:07 – Radek Sienkiewicz (VelvetShark): Persönliches Leben an OpenClaw übergeben – via Obsidian, E-Mail und Hintergrund-Tasks
- 03:34:12 – Sally Ann O'Malley (Red Hat): Sichere Agent-Deployments mit Podman, Docker und K8s – Isolation und State Recovery
- 03:57:05 – Nick Taylor (Pomerium): OpenClaw mit Identity-Aware Proxy absichern und Live-Coding eines MCP-Servers aus Discord
- 04:14:35 – Pause: Lunch
- 05:41:51 – Onur Solmaz (OpenClaw): ACP für standardisierte Agent-Interaktionen und Wegwerf-Agents auf K8s
- 06:02:17 – Merve Noyan (Hugging Face): HF-Ökosystem für lokale Coding-Agenten und Model-Training via Hub Skills
- 06:22:36 – Fryderyk Wiatrowski (Viktor): "Viktor" – Slack-nativer KI-Mitarbeiter mit Kontext über tausende integrierte Tools
- 06:42:09 – Pause: Afternoon
- 07:42:39 – Gergely Orosz (The Pragmatic Engineer) mit Swyx: "Token Maxing" – Big-Tech-Engineers, die KI-Inferenz verschwenden, um Produktivitätsmetriken aufzublähen
- 08:09:26 – Kitze (Sizzy): Moderne Produktivitäts-Apps geröstet – und ein OS, in dem KI die UI on demand generiert
- 08:29:42 – Matt Pocock (AI Hero): Warum DDD und TDD wichtiger sind als je zuvor gegen KI-generierten "Slop"
- 08:48:31 – Sunil Pai (Cloudflare): "Code Mode" – LLMs, die JavaScript in V8-Isolates ausführen und langsame JSON Tool Calls umgehen
- 09:07:04 – Closing Remarks von Phil Hawksworth
Tag 2: Vollständiges Programm
Klick lädt YouTube (Datenschutz)
Klickbare Sprungmarken:
- 00:10:40 – Tejas Kumar eröffnet Tag 2
- 00:15:44 – Omar Sanseviero (Google DeepMind): Gemma 4 On-Device-Fähigkeiten und E2B-Architektur
- 00:31:00 – David Soria Parra (Anthropic): Die Zukunft von MCP und programmatische Tool-Aufrufe
- 00:49:44 – Ido Salomon (MCP Apps): AgentCraft und die visuelle Orchestrierung von Multi-Agent Coding Swarms
- 01:01:05 – Mario Zechner (Earendil / Pi) 🇦🇹: Der Pi-Agent und die Gefahren von KI-generierter technischer Schuld
- 01:19:33 – Armin Ronacher & Cristina Poncela Cubeiro (Earendil) 🇦🇹: Agent-lesbare Codebasen und bewusste Reibung
- 01:38:12 – Benjamin Dunphy: AI Engineer World's Fair Ankündigung
- 01:44:14 – Pause: Morning Coffee
- 02:26:10 – David Gomes (Cursor): 15.000 Zeilen Code durch Markdown Skills und Git Worktrees ersetzen
- 02:46:17 – Matthias Luebken (TAVON): OpenClaw und Pi in Multichannel-Produktionsumgebungen einbetten
- 03:08:39 – Sarah Chieng (Cerebras): Entwickler:innen-Gewohnheiten für ultra-schnelle Modelle wie Codex Spark (1.200 TPS) adaptieren
- 03:27:11 – Lawrence Jones (Incident.io): KI für Evaluierung, Debugging und Management komplexer KI-Systeme
- 03:45:47 – Luke Alvoeiro (Factory): Architektur für langlebige, mehrtägige Agent-Missionen
- 04:04:47 – Pause: Lunch
- 05:41:46 – Ben Burtenshaw (Hugging Face): Coding-Agenten für AI Systems Engineering und CUDA-Kernel-Entwicklung
- 06:00:33 – Michael Richman (Cmd+Ctrl): FOMAT heilen mit mobiler Command-and-Control
- 06:17:29 – Liam Hampton (Microsoft): Lokale, Hintergrund- und Cloud-Agenten gleichzeitig in VS Code orchestrieren
- 06:35:28 – Pause: Afternoon
- 07:41:28 – Tuomas Artman (Linear) mit Gergely Orosz: Fireside Chat zu Linears Design-Philosophie und Zero Bug Policy
- 08:10:48 – Jacob Lauritzen (Legora): Vertical AI – warum komplexe Agenten dauerhafte UI-Artefakte statt Chat brauchen
- 08:25:11 – Peter Gostev (Arena AI): Der "Bullshit Benchmark" und was Top-Modelle auf LMSYS Arena noch immer nicht können
- 08:45:32 – Swyx: Ein 9-Millionen-Dollar-Konferenzbusiness mit KI-Agenten für Non-Coding-Tasks automatisieren
- 08:59:02 – Closing Remarks von Tejas Kumar
Weiterlesen auf webconsulting.at
Code am Scheideweg: 7 Erkenntnisse vom AI Engineer Summit 2025 – Unser Bericht vom Vorgänger-Event in den USA: War on Slop, Skills-Architektur und Agent-Ready Codebasen.
Vom Coder zum Orchestrator: Was der Anthropic-Report für Teams bedeutet – Wie sich der Software Development Lifecycle durch Multi-Agent-Systeme verändert.
TYPO3 Extension Security: Was wir von Cloudflares EmDash lernen – Capability Manifests als Sicherheitsmodell für Agent-Berechtigungen.
Impressionen aus London
London empfing uns mit strahlendem Sonnenschein. Das Queen Elizabeth II Centre liegt im Herzen von Westminster – direkt neben der Abbey, einen Steinwurf von Big Ben entfernt, mit dem London Eye und den Houses of Parliament in Sichtweite. Besser kann eine Konferenz-Location kaum liegen.
Anreise & Stadt
Ankunft in Paddington Station – die viktorianische Dachkonstruktion von 1854 begrüßt die Reisenden
Architektur-Detail: Isambard Kingdom Brunels Meisterwerk aus Stahl und Glas
Lichtinstallation in Paddington – modernes Lichtdesign trifft viktorianische Architektur
Big Ben in der Frühlingssonne – nur wenige Gehminuten vom Konferenzzentrum
London Eye und Themse – Blick von der Westminster Bridge bei Sonnenschein
Kontraste: Londons moderne Skyline hinter der historischen Vauxhall Bridge
Houses of Parliament – direkter Nachbar des Queen Elizabeth II Centre
Winston Churchill wacht über den Parliament Square – wenige Schritte von der Konferenz entfernt
St James's Park – perfekte Mittagspause zwischen den Sessions
Platanen-Allee in St James's Park – Londons grüne Lunge neben Westminster
Parliament Square – pulsierendes Leben am politischen Zentrum Londons
Typisch London: Houses of Parliament unter wolkenverhangenem Himmel
London Eye aus der Nähe – Kaffeepause bei Gail's Bakery
Blick aus dem Hotel auf Westminster – Big Ben durch das Glasatrium
The Cenotaph in Whitehall – Großbritanniens zentrales Kriegsdenkmal, MCMXIX
Downing Street Nr. 10 – schwer bewacht und trotzdem fotogen
Konferenz, Keynotes & Talks
Das Programm auf einen Blick – Willkommens-Display im QEII Centre
Hinter den Kulissen – Breakout-Room mit professionellem AV-Setup
Packed House – voller Hauptsaal bei den Keynotes (nicht alle passen rein)
Konzentriertes Publikum – die Community zwischen den Sessions
Peter Steinberger (OpenAI / OpenClaw Foundation) auf der Hauptbühne – State of the Claw
Keynote auf der Hauptbühne – die Sponsor-Wall zeigt das Who's Who der KI-Branche
Vercel-Titelfolie auf der Hauptbühne – kurz vor Malte Ubls Keynote
Raia Hadsell (Google DeepMind): Von Atari bis Robotik – der Weg zur AGI über Spiele und Simulation
Neurowissenschaft trifft KI: Jennifer Aniston Cells – selektive Neuronen-Aktivierung
Peter Steinberger zeigt die Security-Advisory-Explosion: OpenClaw 16,8 Advisories pro Tag
David Soria Parra (Anthropic) – der Erfinder des Model Context Protocol (MCP) auf der Hauptbühne
Coding Agents Track – einer der meistbesuchten Tracks der Konferenz
Die Sponsor-Wall in voller Pracht – die größten Namen der KI-Branche unter einem Dach
Die Kernbotschaft: 2026 dreht sich um Konnektivität – die besten Agenten nutzen alles
Noch eine Perspektive auf die imposante Hauptbühne
Armin Ronacher und Cristina Poncela Cubeiro (Earendil) – Agent-lesbare Codebasen und bewusste Reibung
Slides & Insights
Sonar LLM Leaderboard – 50+ Modelle nach Code-Qualität und Sicherheit gerankt
Die Top 5: Gemini und Claude Opus dominieren bei Code-Qualität und Pass Rate
Sarah Chieng (Cerebras): Fast Models Need Slow Developers – Provokation als Programm
GitHub-Zahlen: Von 1 Milliarde auf 14 Milliarden Commits – KI-Agenten treiben das Wachstum
Stanford-120K-Studie: Sauberer Code verstärkt KI-Gewinne – die Slow Down fühlt sich bestätigt
BullshitBench: Claude dominiert beim Pushback gegen falsche Anweisungen
Der Dreikampf: Anthropic vs. OpenAI vs. Google – Claude führt bei der Bullshit-Erkennung
What's the gap? – wo selbst die besten Modelle noch systematisch versagen
Fireside Chat – Gergely Orosz (The Pragmatic Engineer) im Gespräch mit Tuomas Artman (Linear)
Jacob Lauritzen (Legora) – KI-Agenten brauchen echte Oberflächen, nicht nur Chat
Soundtrack zur Konferenz
Drei Songs, die für mich das Gefühl dieser Konferenz einfangen.
Peter Gabriel – Solsbury Hill
Klick lädt YouTube (Datenschutz)
Peter Gabriel beschreibt seine persönliche Erfahrung auf dem gleichnamigen Hügel in Somerset, England – ein Moment, der ihn ermutigte, Genesis zu verlassen und ungewisse Wege einzuschlagen. Passt gut zu einer Konferenz, auf der vieles in Frage gestellt wurde.
Lou Reed – There Is No Time
Klick lädt YouTube (Datenschutz)
Echte Musik – you can't beat two guitars, bass and drums. Lou Reed, roh und direkt. Eine Erinnerung daran, dass manche Dinge einfach menschlich bleiben – und genau deshalb gut sind.
Elton John – Tiny Dancer
Klick lädt YouTube (Datenschutz)
Von England über Kalifornien, 1970 – relaxed. Der perfekte Song für den Rückflug, wenn die Eindrücke sacken und London hinter den Wolken verschwindet.


