AI Engineer Europe 2026: Qualität, Tempo, Open Source – drei Ansätze für die Zukunft der Softwareentwicklung

Erfahrungsbericht von der ersten AI Engineer Europe in London. Wie behalten wir die Kontrolle über KI-generierten Code? Die Konferenz lieferte drei Antworten – und eine klare Botschaft: Alle wollen Qualität, aber der Weg dorthin ist offen.

Auf einen Blick

  • Drei Ansätze, um bei KI-generiertem Code die Kontrolle zu behalten – die sich nicht ausschließen: Slow Down (menschliche Kontrolle), Tempo (bessere Systeme) und Open Source (Transparenz) – alle wollen Qualität, nur die Gewichtung unterscheidet sich.
  • Die "Lethal Trifecta" (Palo Alto Networks): Webzugriff + persönliche Daten + E-Mail-Versand = komplette Angriffskette. Das ist kein theoretisches Risiko – es betrifft jeden, der heute einen Coding-Agent mit Internetzugang einsetzt. Steinberger griff das in seinem Talk auf.
  • Open-Source-Software wie Pi und OpenClaw bieten transparente Alternativen zu proprietären Tools.
  • Code könnte fast kostenlos werden – das würde die Wertschöpfung auf menschliches Urteilsvermögen und Architekturentscheidungen verschieben.

Wie behalten wir die Kontrolle über KI-generierten Code? Die erste AI Engineer Europe in London lieferte keine einfache Antwort. Um die Positionen greifbar zu machen, definiere ich drei Ansätze: Slow Down, Tempo und Open Source. Die Realität ist natürlich fließender – aber wie Hayden White schrieb: "The beginning of all understanding is classification."

Drei der Top-Speaker hatten österreichische Wurzeln: Peter Steinberger (OpenAI / OpenClaw Foundation), Mario Zechner und Armin Ronacher (mittlerweile alle drei bei Earendil) – zusammen mit Cristina Poncela Cubeiro gehörten sie zu den prägenden Stimmen der Konferenz.

Hinweis zur Einordnung

Die Einschätzungen und Schlussfolgerungen in diesem Artikel sind meine persönliche Meinung, basierend auf den Vorträgen und Gesprächen vor Ort. Ich behandle hier nur Talks, die ich selbst gesehen habe (und denke verstanden zu haben). Teilweise wurde mit Vereinfachungen gearbeitet – Fehler bitte melden!


Event-Stammdaten  

Veranstaltung

AI Engineer Europe 2026 – Europas erste offizielle AI-Engineer-Konferenz, organisiert von Swyx (Shawn Wang) und dem AI Engineer-Team

Termin

8.–10. April 2026 — Tag 1: Workshops + Expo, Tag 2–3: Keynotes + Breakouts + Afterparties

Location

Queen Elizabeth II Centre, Broad Sanctuary, Westminster, London SW1P 3EE – direkt gegenüber der Westminster Abbey

Teilnehmer:innen & Format

1.000+ AI-Engineers aus aller Welt, 100+ Speaker, 11 technische Tracks, 23 Hands-on Workshops (Tag 1)


Inhaltsverzeichnis  


Die Konferenz im Überblick  

Video abspielen
Lädt YouTube & setzt Cookies

Klick lädt YouTube (Datenschutz)

Tag 1 (9. April) – Agenten, Sicherheit und Ökonomie. Malte Ubl über sinkende Code-Kosten, Raia Hadsell über DeepMind jenseits von Sprache, Peter Steinberger über OpenClaws Security-Explosion und Matt Pocock über Software-Fundamentals im KI-Zeitalter.

Video abspielen
Lädt YouTube & setzt Cookies

Klick lädt YouTube (Datenschutz)

Tag 2 (10. April) – Code-Qualität und Open Source. David Soria Parra über die Zukunft von MCP, Mario Zechner und Armin Ronacher & Cristina Poncela Cubeiro über Agent-lesbare Architekturen, Sarah Chieng über schnelle Modelle – und Tuomas Artman (Linear) über Taste als Wettbewerbsvorteil.


Ansatz 1: Slow Down  

Diese Gruppe eint eine klare Überzeugung: KI-Geschwindigkeit ohne menschliche Kontrolle erzeugt nicht Innovation, sondern unkontrollierbaren Müll. Ihr Rezept: Sauberes Software-Design und klare Verantwortlichkeiten im Code.

Matt Pocock – Software-Fundamentals sind wichtiger denn je  

Pococks Kernthese

Code ist nicht billig. Schlechter Code ist heute teurer denn je, weil er die KI daran hindert, effizient zu arbeiten.

Matt Pocock zerlegte den verbreiteten "Specs-to-Code"-Ansatz – also die Praxis, Spezifikationen (detaillierte Anforderungsbeschreibungen) einfach in eine KI zu werfen und den Output blind zu übernehmen. Das Ergebnis sei unkontrollierbare "Software-Entropie" (die schleichende Zunahme von Unordnung und Komplexität in einer Codebasis).

Sein Gegenvorschlag:

  • Deep Modules (ein Konzept von John Ousterhout): Module, die intern viel Logik enthalten, nach außen aber eine simple Schnittstelle bieten. Wie ein Auto: komplexer Motor, aber man braucht nur Lenkrad und Pedale. Der Mensch entwirft die Architektur, die KI implementiert die Logik innerhalb des Moduls. Getestet wird nur an der Schnittstelle – ideal für TDD als Leitplanke.
  • "Grill me"-Prompts: Er zwingt die KI, ihn so lange auszufragen, bis ein gemeinsames Systemverständnis (Design Concept) erreicht ist – statt blindem Code-Output
  • TDD: Tests zuerst, Code danach. So steuert er die KI in kleinen, überprüfbaren Schritten

Mario Zechner – Eigenkontrolle und der Kampf gegen KI-Müll  

Zechners Warnung
  • Menschlicher Schutzmechanismus: Entwickler:innen spüren einen natürlichen Widerstand, wenn Code unsauber wird – und stoppen irgendwann, um aufzuräumen.
  • KI fehlt dieser Instinkt: Ihr einziges Ziel ist Code, der läuft und Tests besteht – egal wie.
  • Schlechte Vorbilder: Lücken in der Aufgabenstellung füllen Agenten mit Mustern aus dem Internet, das zu einem großen Teil aus unseren eigenen technischen Schulden besteht.
  • Das Ergebnis: Weil Agenten nie innehalten, akkumulieren sie in Tagen ein Chaos, für das Menschen Monate bräuchten – bis die Codebasis so zugemüllt ist, dass am Ende selbst die Agenten sie nicht mehr reparieren können.

Der österreichische Entwickler Mario Zechner (bekannt als Schöpfer von libGDX) baute den minimalistischen Coding-Agenten Pi, weil kommerzielle Tools wie Claude Code den Entwickler:innen die Kontrolle über den Kontext entziehen. Pi kommt bewusst mit nur vier Werkzeugen: read, write, edit, bash.

Drei zentrale Punkte des Vortrags:

  1. Automatisierte Agenten zerstören Open Source: Agenten überschwemmen Open-Source-Projekte mit nutzlosen Pull Requests (Code-Änderungsvorschlägen). Zechner baute einen Müll-Filter, der PRs automatisch schließt und menschliche Bestätigung verlangt. Wenn es zu viel wird, nimmt er sich eine "OSS Vacation" und schließt den Issue-Tracker (das Ticketsystem für Fehlermeldungen).

  2. Kein Schmerz, keine Qualität: Im Gegensatz zu Menschen lernen Agenten nicht organisch aus Fehlern. Die intellektuelle Reibung beim Programmieren ist essenziell, um das System wirklich zu verstehen.

  3. "Slow the fuck down": Kritischer Code muss weiterhin zwingend von Menschen gelesen werden. Entschleunigung ist kein Rückschritt – sondern Qualitätssicherung.

Armin Ronacher & Cristina Poncela Cubeiro – "Die Reibung ist dein Urteilsvermögen"  

Armin Ronacher – Schöpfer von Flask, nach einem Jahrzehnt bei Sentry jetzt Gründer von Earendil – lieferte gemeinsam mit Cristina Poncela Cubeiro eine der schärfsten Analysen der Konferenz. Mario Zechner ist seit April 2026 ebenfalls Teil von Earendil.

Die Effizienz-Falle: KI-Tools machen süchtig – man weiß nie, ob der nächste Prompt das Feature liefert oder das System mit Müll füllt. Die Geschwindigkeit schwindelt einem Produktivität vor. In Wirklichkeit fehlt die Zeit zum Nachdenken: Code-Reviews werden nur noch durchgewunken, weil Agenten mehr Code produzieren als Menschen prüfen können.

Funktionierender Code ≠ guter Code: Ein menschlicher Entwickler spürt ein Unbehagen, wenn er unsaubere Workarounds schreibt. Ein Agent nicht. Er schreibt Code, der "irgendwie läuft" – etwa stille Standardwerte im Fehlerfall statt eines sauberen Abbruchs. Das Ergebnis: unbemerkt korrupte Daten und rasant wachsende technische Schulden.

Bibliotheken ja, komplexe Produkte nein: KI-Agenten können gut abgegrenzte Software-Bibliotheken schreiben – klare Grenzen, einfache Schnittstellen. Bei komplexen Produkten, wo Oberfläche, Berechtigungen und Abrechnung ineinandergreifen, fehlt der KI das Gesamtbild. Sie agiert lokal logisch, macht aber das Gesamtsystem zunehmend chaotisch.

Die "Agent-Legible Codebase" – Code, den Agenten fehlerfrei lesen können:

  • Jede Funktion hat genau eine Aufgabe – und ihr Name macht das klar
  • Was im Code steht, passiert auch – keine versteckten Seiteneffekte (z. B. React Server Actions oder komplexe ORMs, die die Absicht des Codes vor dem Agenten verbergen)
  • Automatische Prüfwerkzeuge (Linter) verhindern z. B. leere Fehlerbehandlungen, die Probleme verschlucken
  • Fehlermeldungen beschreiben das konkrete Problem ("Datenbankverbindung fehlgeschlagen") statt nur "Ein Fehler ist aufgetreten"

Bewusste Reibung: Ein KI-Agent kann in Sekunden hunderte Dateien ändern. Das ist großartig bei Routine-Aufgaben – aber gefährlich, wenn er dabei eine Datenbank-Struktur umbaut oder Zugriffsrechte ändert. Ronacher vergleicht das mit Physik: Ohne Reibung gibt es keine Lenkung. Deshalb haben sie Werkzeuge gebaut (Erweiterungen für den Agenten Pi), die bei kritischen Operationen hart stoppen. Der Mensch bekommt eine klare Zusammenfassung: "Ich möchte die Tabelle X löschen und die Berechtigungen für Y ändern – soll ich?" Erst nach expliziter Freigabe geht es weiter. Diese Reibung ist der Moment, in dem menschliche Erfahrung und Urteilsvermögen greifen.

Ronacher und Poncela Cubeiros Fazit: KI ist ein brillantes Werkzeug für eng definierte Aufgaben – etwa das Reproduzieren von Bugs. Aber Architekturentscheidungen gehören in menschliche Hände.

Weiterlesen auf webconsulting.at

TYPO3 KI-fit machen: Wie klare Strukturen bessere Agenten-Ergebnisse liefern – Agent-Legible Codebase in der Praxis: Wie wir eine TYPO3-Codebasis für KI-Agenten lesbar gemacht haben.


Ansatz 2: Tempo  

Auch diese Gruppe will Qualität – aber statt zu bremsen, will sie die Infrastruktur so bauen, dass Qualität bei Tempo systemisch entsteht.

Malte Ubl – Massenhafte Softwareproduktion  

Ubls Ökonomie-These

Die Softwareproduktion ist so günstig geworden, dass wir nun all die Software bauen können, deren Entwicklung früher unwirtschaftlich war. Das wird die Nachfrage nach Entwickler:innen massiv steigern – nicht senken.

Malte Ubl (CTO von Vercel, der Cloud-Plattform hinter Next.js für Hosting, Serverless und Edge Computing) lieferte die ökonomische Perspektive:

  • Sinkende Infrastrukturkosten: Die KI-Inferenzkosten fallen rapide – getrieben durch Wettbewerb zwischen Google, OpenAI und anderen Anbietern. Ubls Punkt: Wenn die Infrastruktur billig wird, verdient das Geld, wer gute Produkte baut – nicht wer die Server betreibt.

  • Agenten als primäre Nutzer: Bei Vercel sind Agenten bereits für über 60 % der Seitenaufrufe verantwortlich. Zukünftig müssen Infrastrukturen nativ für Agenten (APIs/CLIs) statt für menschliche UIs optimiert werden.

  • Agenten als neue Applikationsschicht: Individuelle Automatisierung ist erstmals wirtschaftlich tragbar. Nicht nur große Unternehmen, sondern auch kleine Teams können jetzt maßgeschneiderte Agents bauen.

Swyx – Tiny Teams und KI-Automatisierung  

Swyx (Shawn Wang), Organisator der Konferenz und Gründer von AI Engineer, demonstrierte live, wie sein 9-köpfiges Team über 9 Millionen Dollar erwirtschaftet – mit Aufgaben, die früher ganze Abteilungen brauchten.

  • Das Ende des "Yak Shaving": Bevor man die eigentliche Aufgabe erledigen kann, muss man erst zehn andere Dinge fixen – das ist Yak Shaving. Agenten übernehmen diese mühsamen Vorarbeiten.

  • SaaS ersetzen: Er nutzt KI, um komplexe SaaS-Lösungen (wie ein CMS) komplett durch KI-verwalteten Code zu ersetzen.

  • Alltagstauglichkeit: Agenten für Alltagsaufgaben – inklusive Web-Recherche, um einen echten Hummer in London aufzutreiben. Kein Scherz.

Weiterlesen auf webconsulting.at

KI-Native Unternehmen: So arbeiten Entwickler:innen mit KI-Agenten – Wie Tiny Teams mit dem PDAA-Workflow KI-Agenten in ihren Alltag integrieren.

KI-Kosten im Griff: Der Praxis-Guide für strategische Budgetplanung – Was passiert, wenn Code fast kostenlos wird – und wo die versteckten Kosten liegen.


Ansatz 3: Open Source  

Peter Steinberger – State of the Claw  

Die 'Lethal Trifecta' (Palo Alto Networks)

Drei Fähigkeiten, die einzeln beherrschbar sind, aber zusammen eine komplette Angriffskette bilden: persönliche Daten lesen (Beute), nicht vertrauenswürdige Webseiten verarbeiten (Angriffsfläche), E-Mails senden (Fluchtweg). Steinberger griff das in seinem Talk auf.

Peter Steinberger – Gründer von PSPDFKit, seit Februar 2026 bei OpenAI und Gründer der OpenClaw Foundation – lieferte mit "State of the Claw" einen der meistdiskutierten Beiträge. OpenClaw basiert technisch auf Zechners Pi, ist explosionsartig gewachsen und hat über 1.142 Security Advisories ausgelöst.

Zum Vergleich (aus Steinbergers Präsentation):

ProjektZeitraumCVEs / AdvisoriesRate
Django19 Jahre94~8/Jahr
curl8 Jahre~600 Reports~100/Jahr
Linux KernelSeit 2023 (CNA-Änderung)~8–9/TagSprunghaft gestiegen
OpenClaw68 Tage1.142 total16,8/Tag
  • Unabhängigkeit: Um zu verhindern, dass große Unternehmen die Kontrolle übernehmen, wird die OpenClaw Foundation als "neutrale Schweiz" aufgebaut – analog zur Linux Foundation.

Mario Zechner – Pi als Open-Source-Alternative  

Zechner steht für beide Ansätze gleichzeitig: Slow Down und Open Source. Sein Agent Pi ist der lebende Beweis, dass es neben proprietären Produkten wie Claude Code, Cursor oder GitHub Copilot einen radikal anderen Weg gibt: ein schlankes, quelloffenes Werkzeug, das Entwickler:innen die volle Kontrolle über ihren Workflow lässt.

Warum Open-Source-Agenten wichtig sind

Proprietäre Coding-Agenten entscheiden hinter verschlossenen Türen, welchen Kontext sie senden, welche Hintergrundaktionen sie ausführen und wie sie Daten verarbeiten. Ein Open-Source-Agent wie Pi macht diese Entscheidungen transparent und überprüfbar – essenziell für sicherheitskritische oder datensensible Projekte.

Pi ist dabei kein Kompromiss, sondern ein bewusstes Designprinzip: Weniger Features, mehr Kontrolle. Keine Magie, keine versteckten API-Calls, keine Telemetrie. Genau vier Tools – und die volle Verantwortung bleibt beim Menschen. Dass Pi mittlerweile die technische Basis von OpenClaw bildet (Steinbergers Projekt), zeigt: Minimalismus und Skalierbarkeit schließen sich nicht aus.

Swyx im Gespräch mit Steinberger – Lokale Kontrolle und "Geschmack"  

Im offenen AMA-Format diskutierten Swyx und Steinberger die philosophischen Grundlagen:

  • Macht über eigene Daten: Lokale Modelle (KI, die direkt auf dem eigenen Rechner läuft statt in der Cloud) erlauben es, Datensilos großer Tech-Firmen zu umgehen. Statt auf offizielle APIs zu warten, kann ein Agent einfach über Weboberflächen agieren.

  • "Taste" als Differenzierungsmerkmal: Da KI die reine Erstellung von Code automatisiert, verlagert sich der Wert auf den menschlichen "Geschmack" – also die Fähigkeit zu erkennen, ob Design oder Code "nach KI stinken" oder Seele haben.

Weiterlesen auf webconsulting.at

Model Context Protocol: 30 Fragen und Antworten – MCP ist der offene Standard, über den Agenten wie Pi und OpenClaw mit externen Tools kommunizieren.

Agent Skills: 30 Fragen und Antworten – Der offene Standard für wiederverwendbare KI-Agenten-Fähigkeiten in Claude Code, Cursor und VS Code.


Synthese: Drei Ansätze, ein Ziel  

Alle Speaker wollen Qualität – darin herrschte Einigkeit. Die Unterschiede liegen nicht im Ziel, sondern in der Gewichtung. Die drei Ansätze schließen sich nicht aus – in der Praxis dürften die meisten Teams Elemente aus allen dreien kombinieren.

Slow Down

Qualität durch menschliche Kontrolle

Tempo drosseln, intellektuelle Kontrolle behalten, bewusste Hürden einbauen. KI-generierter Code braucht menschliche Überprüfung.

Matt PocockDeep Modules · TDD als Steuerung
Mario ZechnerPi Agent · Entschleunigung
Ronacher & Poncela CubeiroAgent-Legible Code · Bewusste Friction

Tempo

Qualität durch bessere Systeme

Infrastruktur so bauen, dass Agenten von Anfang an sauber arbeiten. API-first, Validierung, automatisierte Feedback-Loops.

Malte UblAPI-first · Agenten als primäre Nutzer
SwyxTiny Teams · SaaS ersetzen

Open Source

Qualität durch Transparenz

Werkzeuge offen und lokal bauen. Wer den Code sieht, kann ihn prüfen. Proprietäre Blackboxes sind das Gegenmodell.

Peter SteinbergerOpenClaw Foundation · Lethal Trifecta
Mario ZechnerPi als Open-Source-Alternative

Bonus: Tuomas Artman (Linear) – Warum "Taste" das neue Engineering ist  

Der Fireside Chat zwischen Tuomas Artman (CTO und Co-Founder von Linear) und Gergely Orosz (The Pragmatic Engineer) war mein persönliches Highlight von Tag 2 – selten erlebt man jemanden, der so klar aus der eigenen Praxis argumentiert. Artman brachte eine Perspektive ein, die keiner der drei Ansätze allein abdeckt – sondern alle verbindet.

Artmans Kernthese

In einer Welt, in der jeder mit KI Code generieren kann, wird "Taste" – also das Gespür für gutes Design, die richtigen Abstractions und konsequente Opinionierung – zum entscheidenden Wettbewerbsvorteil.

Die wichtigsten Aussagen:

  • Zero Bug Policy: Bei Linear haben Bugs höchste Priorität – bevor sie nicht behoben sind, beginnt niemand mit neuen Features. Artmans Logik: Jeder Bug wird irgendwann gefixt – warum also nicht sofort? Das Ergebnis: Kund:innen melden einen Bug und finden ihn am nächsten Tag behoben.

  • Opinionated Software (Software mit klarer Haltung): Linear ist bewusst nicht flexibel für jeden Workflow. Es gibt einen guten Weg, Dinge zu tun – und das System leitet dorthin. Das reduziert Entscheidungsmüdigkeit und steigert die Geschwindigkeit.

  • Linear Agent: Linear baut KI direkt ins Produkt ein – nicht als Chatbot, sondern als KI-PM, die Triage, Backlog-Grooming und Issue-Erstellung übernimmt. Dazu kommen tiefe Integrationen mit Coding-Agenten via MCP, um direkt aus einem Issue heraus eine lokale Agent-Session zu starten.

  • Handwerk statt Kennzahlen: Linear setzt auf gutes Design und Bauchgefühl – nicht auf endlose Metriken und Optimierungsschleifen.

  • 5-Tage-Hiring: Wer sich bei Linear bewirbt, kommt fünf Tage vorbei und baut etwas Echtes. Kein Whiteboard-Interview, kein LeetCode – sondern reale Arbeit am realen Produkt. Das filtert für genau die Art von Mensch, die Linear will: Menschen mit Liebe zum Detail und zum Handwerk.

Persönliche Anmerkung: Neben Mario Zechner hat mich die Diskussion mit Artman am meisten beeindruckt. Alles bei Linear ist mit einer Liebe zum Design gebaut, die man sofort spürt – vom Produkt bis zum Einstellungsprozess. Ehrlich gesagt: Über einen 5-Tages-Test bei Linear würde ich mich nicht beschweren.

Happy to share that code reviews are coming to @linear, available in private beta on every plan. Modern code reviews with structural diffing that vastly reduce the number of changed lines in many cases. Review, comment, check previews, get notifications on failed CI check. And Show more

Linear
Linear
@linear

Announcing Linear Reviews. A modern code review experience for humans and agents. Join the waitlist for early access: linear.app/reviews

Reply

Statisch gerendert - keine Cookies, kein Tracking


Was die Speaker sonst noch bewegt  

Was die Konferenz-Speaker in den Tagen rund um das Event gepostet haben:

Peter Steinberger – Anthropic sperrt Open Source aus  

Statisch gerendert - keine Cookies, kein Tracking

Mario Zechner – "I've sold out"  

Statisch gerendert - keine Cookies, kein Tracking

Armin Ronacher & Cristina Poncela Cubeiro – Earendil explodiert  

Statisch gerendert - keine Cookies, kein Tracking

Malte Ubl – just-bash liefert weiter  

Statisch gerendert - keine Cookies, kein Tracking


Mein Fazit  

Mein Eindruck nach zwei Tagen London: Die Frage verschiebt sich zunehmend von ob KI-Agenten die Softwareentwicklung transformieren hin zu wie wir die Kontrolle behalten, während das passiert.

Die schärfsten Analysen kamen von jenen, die selbst Coding-Agenten bauen – Steinberger (OpenAI / OpenClaw Foundation), Zechner, Ronacher und Poncela Cubeiro (Earendil). Ihre Botschaft: Technologie braucht Leitplanken, Open Source braucht Schutz vor Spam, und Code braucht Menschen, die ihn verstehen.

Meine fünf persönlichen Takeaways:

  1. Open-Source-Alternativen sind kein Luxus, sondern Notwendigkeit. Die großen Anbieter – Anthropic, OpenAI, Google – verfolgen vermutlich eine Winner-takes-all-Strategie. Wer seinen Workflow auf ein proprietäres Tool baut, macht sich abhängig von fremden Entscheidungen. Steinbergers Erfahrung mit der Anthropic-Sperre zeigt: Von heute auf morgen kann der Zugang gekappt werden. Projekte wie Pi und OpenClaw sind deshalb keine Nischenprodukte – sie sind eine strategische Absicherung gegen Plattform-Lock-in.

  2. Wie viel schneller ist man wirklich? Die ehrliche Antwort dürfte bei Faktor 2–3 liegen – nicht bei 10x, wie manche behaupten. Zechner bringt es auf den Punkt: 10-mal schneller zu sein bedeutet in der Praxis oft nur, 10-mal so viel Schrott zu produzieren. Wirklich produktiver wird man erst, wenn die Qualitätskontrolle mithält – und das erfordert Disziplin, nicht Geschwindigkeit.

  3. Googles Pricing-Strategie könnte spielentscheidend werden. Wenn Ubl recht hat und die KI-Inferenzkosten weiter fallen, dürfte sich die Wertschöpfung zunehmend auf die Applikationsschicht verschieben. Für Agenturen und Entwickler:innen wäre das eine Chance.

  4. "Taste" könnte zur wertvollsten Währung werden. Je mehr Code von Maschinen generiert wird, desto wichtiger dürfte das menschliche Urteil darüber werden, was gut ist – und was nur "funktioniert".

  5. Reibung ist kein Bug, sondern ein Feature. Ronacher und Poncela Cubeiro haben recht: Wenn ein Agent eine Datenbank-Migration oder Berechtigungsänderung durchführen will, muss er stoppen und auf menschliche Freigabe warten – nicht einfach weitermachen.


Meine Ergänzung: Software Creation ist nicht Software Operations  

Die Konferenz drehte sich fast ausschließlich um die Erstellung von Code. In der Praxis stelle ich meinen Kund:innen aber vorab andere Fragen:

  • Wer macht die Infrastructure Updates – und wie schnell reagiert das Team, wenn eine Abhängigkeit kompromittiert wird? (Stichwort: der Axios-Trojaner vom März 2026 – ein nordkoreanischer Angriff auf ein npm-Paket mit 70 Millionen wöchentlichen Downloads, der innerhalb von Stunden einen Remote Access Trojan auf tausende Systeme geschleust hat.)
  • Wer verantwortet Backup & Disaster Recovery?
  • Wie schnell ist ein kritischer Bug im Production Environment gefixt?
  • Und vor allem: Wie sieht die Data Strategy aus – gibt es auf Knopfdruck korrekte, aktuelle Daten vom gesamten Unternehmen?

Ohne saubere, validierte Live Data ist der ganze KI-Aufwand Makulatur. Meine Empfehlung: Zuerst Daten organisieren, bereinigen und zugänglich machen – dann reden wir über Agenten. Und ja: Auch bei der Datenbereinigung selbst können Agenten unterstützen – Duplikate finden, Formate vereinheitlichen, fehlende Felder identifizieren. Aber jemand muss die Strategie vorgeben und die Ergebnisse prüfen.

Unbequeme Wahrheit

KI-Agenten können nur so gut arbeiten wie die Daten, die sie bekommen. Wer seine Datenbasis nicht im Griff hat – inkonsistente Stammdaten, veraltete Exporte, manuelle Workarounds – wird auch mit dem besten Coding-Agent keine Wunder erleben. Data Quality kommt vor Agent Quality.

Wiederkommen?

Die erste AI Engineer Europe hat die Latte hoch gelegt. Technische Tiefe, strategische Weitsicht und eine Community, die Enthusiasmus und kritische Distanz gleichzeitig mitbringt – das findet man selten an einem Ort. Wenn die zweite Ausgabe an dieses Niveau anknüpft, wird London zum festen Termin im Kalender.


Tag 1: Vollständiges Programm  

Klick lädt YouTube (Datenschutz)

Klickbare Sprungmarken (Timestamps verlinken direkt ins Video):

  • 00:13:10Opening Remarks von Phil Hawksworth
  • 00:21:26Lia McBride (AI Engineer): 900 % Community-Wachstum und britische KI-Infrastruktur-Investitionen
  • 00:24:25Malte Ubl (Vercel): Agenten als neue Applikationsschicht, APIs müssen "AI first" werden
  • 00:42:39Raia Hadsell (Google DeepMind): Gemini Embeddings 2, KI-Zyklon-Vorhersage, Project Genie 3
  • 01:07:08Ryan Lopopolo (OpenAI): "Code is free" – Systemdenken und Delegation für parallele KI-Agenten
  • 01:25:48Peter Steinberger (OpenAI / OpenClaw Foundation) 🇦🇹: "State of the Claw" – OpenClaws explosives Wachstum und KI-generierte Security-Bounty-Flut
  • 01:45:12Pause: Morning Coffee
  • 02:28:13Swyx mit Peter Steinberger (OpenAI / OpenClaw Foundation) 🇦🇹: Open Source, "Token Maxing" und "Taste" als ultimativer Engineering-Moat
  • 02:55:01Vincent Koc (Comet ML): "Dark Factories" – 60+ parallele KI-Agenten für nächtliches Codebase-Refactoring
  • 03:14:07Radek Sienkiewicz (VelvetShark): Persönliches Leben an OpenClaw übergeben – via Obsidian, E-Mail und Hintergrund-Tasks
  • 03:34:12Sally Ann O'Malley (Red Hat): Sichere Agent-Deployments mit Podman, Docker und K8s – Isolation und State Recovery
  • 03:57:05Nick Taylor (Pomerium): OpenClaw mit Identity-Aware Proxy absichern und Live-Coding eines MCP-Servers aus Discord
  • 04:14:35Pause: Lunch
  • 05:41:51Onur Solmaz (OpenClaw): ACP für standardisierte Agent-Interaktionen und Wegwerf-Agents auf K8s
  • 06:02:17Merve Noyan (Hugging Face): HF-Ökosystem für lokale Coding-Agenten und Model-Training via Hub Skills
  • 06:22:36Fryderyk Wiatrowski (Viktor): "Viktor" – Slack-nativer KI-Mitarbeiter mit Kontext über tausende integrierte Tools
  • 06:42:09Pause: Afternoon
  • 07:42:39Gergely Orosz (The Pragmatic Engineer) mit Swyx: "Token Maxing" – Big-Tech-Engineers, die KI-Inferenz verschwenden, um Produktivitätsmetriken aufzublähen
  • 08:09:26Kitze (Sizzy): Moderne Produktivitäts-Apps geröstet – und ein OS, in dem KI die UI on demand generiert
  • 08:29:42Matt Pocock (AI Hero): Warum DDD und TDD wichtiger sind als je zuvor gegen KI-generierten "Slop"
  • 08:48:31Sunil Pai (Cloudflare): "Code Mode" – LLMs, die JavaScript in V8-Isolates ausführen und langsame JSON Tool Calls umgehen
  • 09:07:04Closing Remarks von Phil Hawksworth

Tag 2: Vollständiges Programm  

Klick lädt YouTube (Datenschutz)

Klickbare Sprungmarken:

  • 00:10:40Tejas Kumar eröffnet Tag 2
  • 00:15:44Omar Sanseviero (Google DeepMind): Gemma 4 On-Device-Fähigkeiten und E2B-Architektur
  • 00:31:00David Soria Parra (Anthropic): Die Zukunft von MCP und programmatische Tool-Aufrufe
  • 00:49:44Ido Salomon (MCP Apps): AgentCraft und die visuelle Orchestrierung von Multi-Agent Coding Swarms
  • 01:01:05Mario Zechner (Earendil / Pi) 🇦🇹: Der Pi-Agent und die Gefahren von KI-generierter technischer Schuld
  • 01:19:33Armin Ronacher & Cristina Poncela Cubeiro (Earendil) 🇦🇹: Agent-lesbare Codebasen und bewusste Reibung
  • 01:38:12Benjamin Dunphy: AI Engineer World's Fair Ankündigung
  • 01:44:14Pause: Morning Coffee
  • 02:26:10David Gomes (Cursor): 15.000 Zeilen Code durch Markdown Skills und Git Worktrees ersetzen
  • 02:46:17Matthias Luebken (TAVON): OpenClaw und Pi in Multichannel-Produktionsumgebungen einbetten
  • 03:08:39Sarah Chieng (Cerebras): Entwickler:innen-Gewohnheiten für ultra-schnelle Modelle wie Codex Spark (1.200 TPS) adaptieren
  • 03:27:11Lawrence Jones (Incident.io): KI für Evaluierung, Debugging und Management komplexer KI-Systeme
  • 03:45:47Luke Alvoeiro (Factory): Architektur für langlebige, mehrtägige Agent-Missionen
  • 04:04:47Pause: Lunch
  • 05:41:46Ben Burtenshaw (Hugging Face): Coding-Agenten für AI Systems Engineering und CUDA-Kernel-Entwicklung
  • 06:00:33Michael Richman (Cmd+Ctrl): FOMAT heilen mit mobiler Command-and-Control
  • 06:17:29Liam Hampton (Microsoft): Lokale, Hintergrund- und Cloud-Agenten gleichzeitig in VS Code orchestrieren
  • 06:35:28Pause: Afternoon
  • 07:41:28Tuomas Artman (Linear) mit Gergely Orosz: Fireside Chat zu Linears Design-Philosophie und Zero Bug Policy
  • 08:10:48Jacob Lauritzen (Legora): Vertical AI – warum komplexe Agenten dauerhafte UI-Artefakte statt Chat brauchen
  • 08:25:11Peter Gostev (Arena AI): Der "Bullshit Benchmark" und was Top-Modelle auf LMSYS Arena noch immer nicht können
  • 08:45:32Swyx: Ein 9-Millionen-Dollar-Konferenzbusiness mit KI-Agenten für Non-Coding-Tasks automatisieren
  • 08:59:02Closing Remarks von Tejas Kumar

Weiterlesen auf webconsulting.at

Code am Scheideweg: 7 Erkenntnisse vom AI Engineer Summit 2025 – Unser Bericht vom Vorgänger-Event in den USA: War on Slop, Skills-Architektur und Agent-Ready Codebasen.

Vom Coder zum Orchestrator: Was der Anthropic-Report für Teams bedeutet – Wie sich der Software Development Lifecycle durch Multi-Agent-Systeme verändert.

TYPO3 Extension Security: Was wir von Cloudflares EmDash lernen – Capability Manifests als Sicherheitsmodell für Agent-Berechtigungen.


Impressionen aus London  

London empfing uns mit strahlendem Sonnenschein. Das Queen Elizabeth II Centre liegt im Herzen von Westminster – direkt neben der Abbey, einen Steinwurf von Big Ben entfernt, mit dem London Eye und den Houses of Parliament in Sichtweite. Besser kann eine Konferenz-Location kaum liegen.

Anreise & Stadt  

Paddington Station Bahnsteig mit viktorianischer gewölbter Stahl-Glas-Dachkonstruktion, Pendler steigen aus einem Heathrow Express Zug

Ankunft in Paddington Station – die viktorianische Dachkonstruktion von 1854 begrüßt die Reisenden

Detailaufnahme der gewölbten Stahlträger und Glasdach-Konstruktion von Paddington Station bei Nacht mit warmem Kunstlicht

Architektur-Detail: Isambard Kingdom Brunels Meisterwerk aus Stahl und Glas

Farbige geometrische Lichtprojektion in Blau, Orange und Rosa auf die Stirnwand der Paddington Station Bahnhofshalle

Lichtinstallation in Paddington – modernes Lichtdesign trifft viktorianische Architektur

Elizabeth Tower (Big Ben) Nahaufnahme vor klarem blauen Himmel, goldene Details am Ziffernblatt und der Turmspitze sichtbar

Big Ben in der Frühlingssonne – nur wenige Gehminuten vom Konferenzzentrum

Panoramablick von der Westminster Bridge auf die Themse und das London Eye Riesenrad, ornamentales grünes Brückengeländer im Vordergrund, Boote auf dem Fluss

London Eye und Themse – Blick von der Westminster Bridge bei Sonnenschein

Skyline von Vauxhall und Nine Elms mit modernen Hochhäusern hinter der Vauxhall Bridge, Hausboote auf der Themse

Kontraste: Londons moderne Skyline hinter der historischen Vauxhall Bridge

Palace of Westminster und Big Ben von der Westminster Bridge aus, schwarzer Van und roter Doppeldeckerbus auf der Straße, klarer Himmel

Houses of Parliament – direkter Nachbar des Queen Elizabeth II Centre

Bronze-Statue von Winston Churchill in Mantel mit Gehstock, Froschperspektive vor blauem Himmel auf dem Parliament Square

Winston Churchill wacht über den Parliament Square – wenige Schritte von der Konferenz entfernt

St James's Park im Frühling, saftig grüne Rasenflächen unter alten Platanen mit frischem Laub, Parkbank im Schatten

St James's Park – perfekte Mittagspause zwischen den Sessions

Spazierweg unter hohen Platanen in St James's Park, Spaziergänger im dappled Sonnenlicht, frühlingshaftes Grün

Platanen-Allee in St James's Park – Londons grüne Lunge neben Westminster

Parliament Square mit Menschenmengen, Radfahrern und Touristen, Statue und viktorianische Regierungsgebäude im Hintergrund

Parliament Square – pulsierendes Leben am politischen Zentrum Londons

Houses of Parliament Westfassade mit Victoria Tower bei bewölktem Himmel, Fußgänger und Radfahrer auf der Straße

Typisch London: Houses of Parliament unter wolkenverhangenem Himmel

London Eye Riesenrad zwischen modernen Gebäuden, Gail's Bakery Schild im Vordergrund, Passanten an Café-Tischen im Gegenlicht

London Eye aus der Nähe – Kaffeepause bei Gail's Bakery

Blick aus dem Hotel durch ein mehrstöckiges Glasatrium auf Big Ben und Westminster, begrünte Terrassen und Glasfassaden mit Spiegelungen

Blick aus dem Hotel auf Westminster – Big Ben durch das Glasatrium

The Cenotaph Kriegsdenkmal in Whitehall mit Inschrift THE GLORIOUS DEAD, steinerner Lorbeerkranz, Union Jack Flagge, im Hintergrund die prachtvolle Fassade der Foreign Office

The Cenotaph in Whitehall – Großbritanniens zentrales Kriegsdenkmal, MCMXIX

Schwerer schwarzer Eisenzaun mit Spitzen vor Downing Street, bewaffneter Polizist im Hintergrund, bunter Regenschirm am Zaun

Downing Street Nr. 10 – schwer bewacht und trotzdem fotogen

Konferenz, Keynotes & Talks  

Große digitale Anzeigetafel im Foyer des QEII Centre: April 8 Workshops + Expo, April 9 Keynotes + Breakouts + Onsite Afterparty, April 10 Keynotes + Breakouts + Offsite Afterparty, URL ai.engineer/europe

Das Programm auf einen Blick – Willkommens-Display im QEII Centre

Breakout-Raum mit lila Bestuhlung, Mischpult und Kamera-Equipment im Vordergrund, Techniker am Laptop, Publikum wartet auf die nächste Session

Hinter den Kulissen – Breakout-Room mit professionellem AV-Setup

Voller Konferenzsaal im QEII Centre, hunderte Teilnehmer dicht an dicht, Bühnenbeleuchtung, Konferenz-Badges sichtbar

Packed House – voller Hauptsaal bei den Keynotes (nicht alle passen rein)

Nahaufnahme des Publikums im abgedunkelten Konferenzsaal, diverse Teilnehmer mit Badges und Laptops, konzentriert den Vorträgen folgend

Konzentriertes Publikum – die Community zwischen den Sessions

Peter Steinberger mit Cap und hellem T-Shirt auf der Hauptbühne, Sponsor-Wall mit OpenAI, Google DeepMind, Microsoft, Sentry und weiteren Logos

Peter Steinberger (OpenAI / OpenClaw Foundation) auf der Hauptbühne – State of the Claw

Speaker in dunklem Hemd auf der Hauptbühne vor AI Engineer Europe Sponsor-Wall, gestikulierend, Logos von ElevenLabs, Modal, Sentry, neo4j, WorkOS, Braintrust sichtbar

Keynote auf der Hauptbühne – die Sponsor-Wall zeigt das Who's Who der KI-Branche

Vercel-Logo auf kosmischem Nebula-Hintergrund in Blau und Rosa auf der leeren Hauptbühne, AIE-Buchstaben in Gold rechts

Vercel-Titelfolie auf der Hauptbühne – kurz vor Malte Ubls Keynote

Google DeepMind Raia Hadsell Slide: Games & Simulation for AGI Research, Timeline von Atari 2013 über Go/Chess bis StarCraft und MuJoCo Robotik

Raia Hadsell (Google DeepMind): Von Atari bis Robotik – der Weg zur AGI über Spiele und Simulation

Slide: What is a Jennifer Aniston cell? – Neuronen, die nur für eine Person oder ein Konzept aktivieren, robust über Modalitäten hinweg

Neurowissenschaft trifft KI: Jennifer Aniston Cells – selektive Neuronen-Aktivierung

Peter Steinberger (OpenAI) Slide: Vergleichstabelle Security Advisories – OpenClaw 1.142 total in 68 Tagen vs. Django 94 in 19 Jahren, curl ~600 in 8 Jahren, Linux Kernel ~8-9/Tag

Peter Steinberger zeigt die Security-Advisory-Explosion: OpenClaw 16,8 Advisories pro Tag

David Soria Parra (Anthropic) auf der AI Engineer Europe Hauptbühne, Nahaufnahme, erhobener Zeigefinger, OpenAI und Google DeepMind Logos im Hintergrund

David Soria Parra (Anthropic) – der Erfinder des Model Context Protocol (MCP) auf der Hauptbühne

Hauptbühne Coding Agents Track, Google DeepMind Branding, animierte Roboter-Grafik auf den Seitenschirmen, volles Publikum

Coding Agents Track – einer der meistbesuchten Tracks der Konferenz

Speaker vor der riesigen AI Engineer Europe Sponsor-Wall, alle Logos sichtbar: Cloudflare, OpenAI, Arize, Stripe, ElevenLabs, bright data, WorkOS, Braintrust, Google DeepMind, Microsoft

Die Sponsor-Wall in voller Pracht – die größten Namen der KI-Branche unter einem Dach

Slide auf Konferenzleinwand: 2026 is all about connectivity. The best agents use every available method. – goldgelber Gradient-Hintergrund, Publikum fotografiert mit Smartphones

Die Kernbotschaft: 2026 dreht sich um Konnektivität – die besten Agenten nutzen alles

Speaker in dunklem Shirt auf der AI Engineer Europe Hauptbühne vor vollständiger Sponsor-Wall, Qodo, Sentry, ElevenLabs und weitere Logos

Noch eine Perspektive auf die imposante Hauptbühne

Armin Ronacher und Cristina Poncela Cubeiro (Earendil) auf der AI Engineer Europe Hauptbühne, Ronacher gestikulierend am Podium, Sponsor-Logos im Hintergrund

Armin Ronacher und Cristina Poncela Cubeiro (Earendil) – Agent-lesbare Codebasen und bewusste Reibung

Slides & Insights  

Sonar LLM Leaderboard Slide: 50+ LLMs nach Code-Qualität und Sicherheit gerankt, Tabelle mit Pass Rate, Issue Density und Complexity, sonar.com/leaderboard

Sonar LLM Leaderboard – 50+ Modelle nach Code-Qualität und Sicherheit gerankt

Sonar Slide: Top 5 models by pass rate – Gemini 3.1 Pro High 84.17%, Opus 4.5 Thinking 83.62%, Opus 4.6 Thinking 82.38%, Gemini 3 Pro 81.72%, Gemini 3 Pro High 81.60%

Die Top 5: Gemini und Claude Opus dominieren bei Code-Qualität und Pass Rate

Cerebras Sarah Chieng Titelslide: Fast Models Need Slow Developers, rotes Terminal-Icon in der Mitte, dunkler Hintergrund

Sarah Chieng (Cerebras): Fast Models Need Slow Developers – Provokation als Programm

GitHub COO Kyle Daigle Slide: Growth Is Accelerating, ~1B Commits 2024 (+25% YoY), projizierte ~14B Commits 2025 (14x), wachsender Anteil KI-co-authored

GitHub-Zahlen: Von 1 Milliarde auf 14 Milliarden Commits – KI-Agenten treiben das Wachstum

Stanford-Studie Slide: Clean code amplifies AI gains, Chart zeigt Task Composition by AI Involvement vs. Environment Cleanliness Index, saubere Codebasen ermöglichen mehr autonome KI-Arbeit

Stanford-120K-Studie: Sauberer Code verstärkt KI-Gewinne – die Slow Down fühlt sich bestätigt

Arena AI Peter Gostev Slide: BullshitBench Results – Claude Dominates, horizontales Balkendiagramm mit Pushback-Raten verschiedener LLMs, Claude-Modelle führen mit 90%+

BullshitBench: Claude dominiert beim Pushback gegen falsche Anweisungen

Arena AI Slide: Anthropic vs OpenAI vs Google, Zeitverlauf-Chart Q1 2024 bis Q2 2026 mit Pushback-Raten, Anthropic (rot) konsistent vorne, OpenAI (grün) und Google (blau) dahinter

Der Dreikampf: Anthropic vs. OpenAI vs. Google – Claude führt bei der Bullshit-Erkennung

Arena AI Slide: What's the gap? METR Benchmark Timeline und BullshitBench Ergebnisse, Both Bad rates among Top 25 Modelle nach Kategorie

What's the gap? – wo selbst die besten Modelle noch systematisch versagen

Fireside Chat auf der AI Engineer Europe Bühne, zwei Speaker auf weißen Stühlen mit kleinem Tisch dazwischen, Sponsor-Wall mit Microsoft, OpenAI, neo4j, Tessi Logos

Fireside Chat – Gergely Orosz (The Pragmatic Engineer) im Gespräch mit Tuomas Artman (Linear)

Jacob Lauritzen (CTO, Legora) steht allein auf der großen Bühne, sein Name und Firmenlogo auf dem Screen hinter ihm, Sponsor-Wall sichtbar

Jacob Lauritzen (Legora) – KI-Agenten brauchen echte Oberflächen, nicht nur Chat


Soundtrack zur Konferenz  

Musik zum Lesen

Drei Songs, die für mich das Gefühl dieser Konferenz einfangen.

Peter Gabriel – Solsbury Hill  

Video abspielen
Lädt YouTube & setzt Cookies

Klick lädt YouTube (Datenschutz)

Peter Gabriel beschreibt seine persönliche Erfahrung auf dem gleichnamigen Hügel in Somerset, England – ein Moment, der ihn ermutigte, Genesis zu verlassen und ungewisse Wege einzuschlagen. Passt gut zu einer Konferenz, auf der vieles in Frage gestellt wurde.

Lou Reed – There Is No Time  

Video abspielen
Lädt YouTube & setzt Cookies

Klick lädt YouTube (Datenschutz)

Echte Musik – you can't beat two guitars, bass and drums. Lou Reed, roh und direkt. Eine Erinnerung daran, dass manche Dinge einfach menschlich bleiben – und genau deshalb gut sind.

Elton John – Tiny Dancer  

Video abspielen
Lädt YouTube & setzt Cookies

Klick lädt YouTube (Datenschutz)

Von England über Kalifornien, 1970 – relaxed. Der perfekte Song für den Rückflug, wenn die Eindrücke sacken und London hinter den Wolken verschwindet.

Lassen Sie uns über Ihr Projekt sprechen

Standorte

  • Mattersburg
    Johann Nepomuk Bergerstraße 7/2/14
    7210 Mattersburg, Austria
  • Wien
    Ungargasse 64-66/3/404
    1030 Wien, Austria

Dieser Inhalt wurde teilweise mithilfe von KI erstellt.