Wie behalten wir die Kontrolle über Code von einer Künstlichen Intelligenz? Die Abkürzung dafür ist KI. Die erste Konferenz AI Engineer Europe in London hatte keine einfache Antwort. Ich erkläre Ihnen drei Ansätze für ein besseres Verständnis: Langsam machen, Tempo und Open Source. Open Source bedeutet offener Quellcode. Jeder darf diesen Code sehen. In Wirklichkeit vermischen sich diese 3 Ansätze. Aber eine einfache Einteilung hilft immer beim Verstehen.
Drei der besten Sprecher kommen aus Österreich. Das sind Peter Steinberger, Mario Zechner und Armin Ronacher. Sie arbeiten jetzt alle drei bei der Firma Earendil. Cristina Poncela Cubeiro war auch eine sehr wichtige Sprecherin.
Dieser Text ist meine persönliche Meinung. Ich habe die Vorträge gehört. Ich habe auch mit den Menschen dort gesprochen. Ich schreibe nur über Vorträge. Ich habe diese Vorträge selbst gesehen. Ich habe Dinge einfach beschrieben. Bitte melden Sie sich bei Fehlern!
Daten zur Konferenz
Veranstaltung
AI Engineer Europe 2026 – Das war die erste offizielle Konferenz für KI-Programmierer in Europa. Swyx (Shawn Wang) und sein Team haben sie organisiert.
Termin
8. bis 10. April 2026 — Tag 1: Kurse und Messe. Tag 2 und 3: Große Vorträge, kleine Runden und Feiern.
Ort
Queen Elizabeth II Centre in London. Das ist direkt gegenüber von der großen Kirche Westminster Abbey.
Teilnehmer und Ablauf
Mehr als 1.000 Programmierer aus der ganzen Welt. Mehr als 100 Sprecher. Es gab 11 Themengebiete und 23 Kurse zum Mitmachen.
Inhaltsverzeichnis
Die Konferenz im Überblick
Klick lädt YouTube (Datenschutz)
Tag 1 (9. April) – KI-Helfer, Sicherheit und Geld. Malte Ubl sprach über billigen Code. Raia Hadsell sprach über DeepMind. Peter Steinberger zeigte Probleme bei der Sicherheit. Matt Pocock erklärte gute Software-Grundlagen.
Klick lädt YouTube (Datenschutz)
Tag 2 (10. April) – Code-Qualität und Open Source. David Soria Parra sprach über offene Verbindungen. Mario Zechner, Armin Ronacher und Cristina Poncela Cubeiro forderten klaren Code. Sarah Chieng zeigte schnelle KI-Modelle. Tuomas Artman sprach über guten Geschmack beim Code.
Ansatz 1: Langsam machen
Diese Gruppe hat eine klare Meinung. Schnelle KI ohne menschliche Kontrolle bringt keine guten Ideen. Sie macht nur sehr viel Müll. Die Lösung lautet: Software braucht einen sauberen Aufbau. Es muss klare Regeln für den Code geben.
Matt Pocock – Grundlagen der Software sind sehr wichtig
Code ist nicht billig. Schlechter Code kostet heute sehr viel Geld. Er stört die KI. Die KI kann dann nicht gut arbeiten.
Matt Pocock kritisierte einen bekannten Ansatz. Dieser Ansatz gibt der KI einen genauen Plan. Die KI macht daraus blind Code. Der Mensch nimmt diesen Code einfach an. Das Ergebnis ist oft ein riesiges Chaos. Das System wird immer unordentlicher.
Sein Vorschlag:
- Tiefe Module: Ein Modul hat innen sehr viel Logik. Nach außen ist es sehr einfach. Es ist wie bei einem Auto. Der Motor ist kompliziert. Sie brauchen aber nur ein Lenkrad und Pedale. Der Mensch macht den großen Plan. Die KI macht die Logik im Modul. Der Mensch testet nur die einfache Außenseite. Das hilft bei der Kontrolle.
- Fragen stellen: Er zwingt die KI zu Fragen. Die KI muss ihn so lange fragen, bis beide das System verstehen. Die KI macht nicht einfach blind ihren Code.
- TDD (Test-Driven Development): Das bedeutet: Erst testen, dann programmieren. So lenkt er die KI. Er macht kleine Schritte. Er kann alles gut prüfen.
Mario Zechner – Kontrolle und der Kampf gegen KI-Müll
- Schutz durch den Menschen: Programmierer spüren Probleme. Sie merken, wenn Code unsauber wird. Sie stoppen dann rechtzeitig. Sie räumen den Code auf.
- Der KI fehlt dieses Gefühl: Ihr Ziel ist nur ein funktionierender Code. Der Weg dorthin ist der KI völlig egal.
- Schlechte Vorbilder: Die KI füllt Lücken mit Mustern aus dem Internet. Im Internet gibt es sehr viel schlechten Code.
- Das Ergebnis: KI-Programme machen keine Pausen. Sie machen in wenigen Tagen ein riesiges Chaos. Menschen bräuchten dafür viele Monate. Irgendwann ist der Code voller Müll. Dann kann auch die KI nichts mehr reparieren.
Mario Zechner kommt aus Österreich. Er ist Programmierer. Er hat ein kleines KI-Programm gebaut. Es heißt Pi. Andere Programme nehmen den Programmierern die Kontrolle weg. Das wollte Mario Zechner nicht. Sein Programm Pi hat nur vier einfache Werkzeuge.
Drei wichtige Punkte aus seinem Vortrag:
-
Automatische Programme zerstören Open Source: Sie schicken sehr viele nutzlose Code-Vorschläge. Zechner hat einen Filter für diesen Müll gebaut. Der Filter schließt die Vorschläge automatisch. Ein Mensch muss sie erst freigeben. Manchmal macht Zechner eine Pause. Er schließt dann sein System für Fehlermeldungen.
-
Kein Schmerz, keine Qualität: Menschen lernen aus Fehlern. KI-Programme tun das nicht. Das Programmieren muss manchmal schwer sein. Nur so verstehen Sie das System wirklich.
-
Machen Sie langsam: Wichtiger Code muss von Menschen gelesen werden. Langsamkeit ist kein Rückschritt. Langsamkeit sichert die Qualität.
Armin Ronacher & Cristina Poncela Cubeiro – Reibung und Mitdenken
Armin Ronacher arbeitet bei der Firma Earendil. Er zeigte zusammen mit Cristina Poncela Cubeiro eine sehr gute Analyse. Mario Zechner arbeitet seit April 2026 auch bei dieser Firma.
Die Effizienz-Falle: KI-Werkzeuge machen süchtig. Man weiß nie das Ergebnis. Vielleicht kommt eine tolle neue Funktion. Vielleicht füllt die KI das System mit Müll. Die Schnelligkeit wirkt wie eine gute Leistung. In Wahrheit fehlt die Zeit zum Nachdenken. Menschen prüfen den Code nicht mehr richtig. Die KI macht einfach zu viel Code.
Funktionierender Code ist nicht immer guter Code: Ein Mensch mag keine schlechten Lösungen. Eine KI hat dieses Gefühl nicht. Sie schreibt Code. Hauptsache, er funktioniert irgendwie. Sie bricht das Programm bei Fehlern nicht ab. Das Ergebnis sind kaputte Daten. Das System bekommt unbemerkt immer mehr Fehler.
Kleine Teile ja, große Produkte nein: Eine KI kann kleine Programmteile gut schreiben. Sie haben klare Grenzen. Bei großen Produkten ist das anders. Dort arbeiten viele Dinge zusammen. Die KI sieht das große Ganze nicht. Sie macht kleine Dinge richtig. Aber das ganze System wird ein riesiges Chaos.
Code für die KI: Eine KI muss den Code ohne Fehler lesen können. Das braucht diese strengen Regeln:
- Jede Funktion macht genau eine Sache. Der Name zeigt diese Sache ganz klar.
- Der Code macht genau das, was er sagt. Es gibt absolut keine versteckten Aktionen.
- Automatische Prüfer verhindern Fehler. Sie verbieten zum Beispiel leere Fehlermeldungen.
- Fehlermeldungen beschreiben das genaue Problem. Zum Beispiel: "Datenbank fehlt". Die Meldung darf nicht nur "Ein Fehler" lauten.
Bewusste Reibung: Eine KI kann in Sekunden sehr viele Dateien ändern. Das ist toll bei langweiligen Aufgaben. Das ist aber extrem gefährlich bei wichtigen Dingen. Sie darf nicht einfach Zugriffsrechte ändern. Ronacher vergleicht das mit der Physik. Ohne Reibung können Sie nicht lenken. Sie haben deshalb Werkzeuge gebaut. Diese stoppen die KI bei wichtigen Dingen hart. Der Mensch bekommt eine klare Nachricht. "Ich möchte die Tabelle X löschen. Soll ich das tun?" Der Mensch muss das erlauben. Erst dann geht es weiter. Der Mensch muss hier zwingend mitdenken.
Das Fazit: KI ist ein tolles Werkzeug für kleine Aufgaben. Sie hilft sehr gut bei der Fehlersuche. Aber der Plan für die Software muss vom Menschen kommen.
Weiterlesen auf webconsulting.at
TYPO3 KI-fit machen: Wie klare Strukturen bessere Agenten-Ergebnisse liefern – So machen Sie Code für die KI lesbar. Ein Beispiel aus der Praxis.
Ansatz 2: Tempo
Diese Gruppe will auch gute Qualität. Sie will aber nicht bremsen. Sie will die Technik besser bauen. Dann entsteht die Qualität ganz automatisch bei hohem Tempo.
Malte Ubl – Sehr viele neue Programme
Das Bauen von Software ist sehr billig geworden. Wir können jetzt alle Programme bauen. Früher war das einfach zu teuer. Wir werden bald viel mehr Programmierer brauchen. Wir brauchen nicht weniger.
Malte Ubl ist der technische Geschäftsführer von Vercel. Er sprach über das Geld:
-
Server werden billiger: Die Kosten für KI fallen sehr schnell. Die großen Firmen kämpfen stark um die Kunden. Wer gute Produkte baut, verdient künftig das Geld. Wer nur die Server stellt, verdient deutlich weniger.
-
KI als wichtigster Nutzer: Bei der Firma Vercel besuchen vor allem KI-Programme die Internetseiten. Es sind über 60 Prozent. In Zukunft müssen wir Systeme für die KI bauen. Wir dürfen sie nicht mehr nur für Menschen bauen.
-
KI als neuer Helfer: Eigene KI-Programme lohnen sich jetzt finanziell. Auch kleine Teams können nun eigene KI-Helfer bauen.
Swyx – Kleine Teams und KI-Hilfe
Swyx hat diese Konferenz organisiert. Er zeigte sein eigenes kleines Team. Sie sind nur 9 Personen. Sie verdienen über 9 Millionen Dollar. Sie nutzen KI für viele Aufgaben. Früher brauchte man dafür ganze Abteilungen.
-
Keine langweiligen Arbeiten mehr: Oft muss man viele kleine Vorarbeiten erledigen. Erst dann kann man die echte Arbeit machen. Die KI erledigt nun diese Vorarbeiten.
-
Software ersetzen: Er nutzt KI. Er ersetzt damit große Software-Lösungen aus dem Internet. Die KI schreibt und pflegt seinen eigenen Code.
-
Hilfe im Alltag: KI hilft auch bei ganz normalen Aufgaben. Er hat die KI für eine Suche im Internet genutzt. Die KI sollte einen echten Hummer in London finden. Das ist wirklich kein Witz.
Weiterlesen auf webconsulting.at
KI-Native Unternehmen: So arbeiten Entwickler:innen mit KI-Agenten – Wie kleine Teams KI-Helfer im Alltag nutzen.
KI-Kosten im Griff: Der Praxis-Guide für strategische Budgetplanung – Was passiert, wenn Code fast kostenlos wird. Und wo die Gefahren liegen.
Ansatz 3: Open Source
Peter Steinberger – Wachstum von OpenClaw
Es gibt drei Fähigkeiten. Einzeln sind sie ganz einfach. Zusammen sind sie ein sehr großer Angriff. 1. Persönliche Daten lesen. 2. Fremde Internetseiten verarbeiten. 3. E-Mails senden. Das ist enorm gefährlich. Peter Steinberger hat das sehr genau erklärt.
Peter Steinberger arbeitet bei der Firma OpenAI. Er hat auch die OpenClaw Foundation gegründet. Sein Vortrag wurde sehr oft besprochen. Das Programm OpenClaw nutzt die Technik von Mario Zechner. Es ist extrem schnell gewachsen. Es hat über 1.142 Sicherheitswarnungen ausgelöst.
Zum Vergleich (aus seinem Vortrag):
| Projekt | Zeitraum | Warnungen | Rate |
|---|---|---|---|
| Django | 19 Jahre | 94 | circa 8 im Jahr |
| curl | 8 Jahre | circa 600 | circa 100 im Jahr |
| Linux Kernel | Seit 2023 | circa 8 bis 9 am Tag | Stark gestiegen |
| OpenClaw | 68 Tage | 1.142 gesamt | 16,8 am Tag |
- Unabhängigkeit: Große Firmen sollen nicht die Kontrolle bekommen. Deshalb baut man eine neutrale Stiftung. Sie heißt OpenClaw Foundation. Sie ist wie eine neutrale Schweiz für Entwickler.
Mario Zechner – Pi als offene Alternative
Mario Zechner nutzt gleich zwei Wege. Er macht langsam und er nutzt Open Source. Sein KI-Programm Pi zeigt etwas sehr Wichtiges. Es gibt einen anderen Weg neben den Firmen-Produkten. Pi ist klein und offen. Jeder kann den Code sehen. Die Programmierer behalten die absolute Kontrolle.
Firmen-Programme arbeiten meist im Geheimen. Sie senden heimlich Daten. Ein offenes Programm wie Pi zeigt alles. Sie können alles genau prüfen. Das ist enorm wichtig für den Datenschutz.
Pi ist eine bewusste Entscheidung: Weniger Funktionen bedeuten mehr Kontrolle. Es gibt absolut keine versteckten Aufrufe im Hintergrund. Es gibt nur vier Werkzeuge. Der Mensch hat die volle Verantwortung. Pi ist jetzt die Basis für OpenClaw. Das zeigt: Ein kleines Programm kann sehr groß und wichtig werden.
Swyx im Gespräch mit Steinberger
Sie haben sehr offen miteinander gesprochen. Jeder durfte Fragen stellen.
-
Eigene Daten: Man kann KI auf dem eigenen Computer nutzen. Die Daten bleiben komplett bei Ihnen. Große Firmen bekommen Ihre Daten nicht.
-
Der gute Geschmack: KI macht den Code nun völlig von allein. Der Mensch braucht jetzt einen guten Geschmack. Er muss gutes Design erkennen. Er muss sehen, ob ein Code einfach nur nach KI aussieht. Ein Code braucht weiterhin eine Seele.
Weiterlesen auf webconsulting.at
Model Context Protocol: 30 Fragen und Antworten – MCP ist ein offener Standard. Damit sprechen KI-Helfer mit anderen Werkzeugen.
Agent Skills: 30 Fragen und Antworten – Ein Standard für KI-Fähigkeiten.
Zusammenfassung: 3 Ansätze, ein Ziel
Alle Sprecher wollen gute Qualität. Da waren sich alle einig. Sie haben nur andere Schwerpunkte. Die drei Wege passen sehr gut zusammen. In der Praxis werden Teams sicher alle drei Wege gemeinsam nutzen.
Langsam machen
Qualität durch menschliche Kontrolle
Das Tempo drosseln. Bewusst mitdenken. Hürden einbauen. Der Mensch muss jeden KI-Code zwingend prüfen.
Tempo
Qualität durch bessere Systeme
Die Technik von Anfang an sauber bauen. KI macht dann weniger Fehler. Automatische Prüfungen nutzen.
Open Source
Qualität durch offene Technik
Werkzeuge offen bauen. Sie laufen auf dem eigenen Computer. Wer den Code sieht, kann ihn prüfen.
Bonus: Tuomas Artman von Linear – Geschmack beim Code
Tuomas Artman sprach mit Gergely Orosz auf der Bühne. Das war mein allerbester Moment an Tag 2. Artman sprach sehr klar aus der Praxis. Er brachte einen völlig neuen Blickwinkel. Dieser verbindet alle drei Wege miteinander.
Jeder Mensch kann mit KI einen Code machen. Deshalb wird ein guter Geschmack immer wichtiger. Man braucht ein Gefühl für gutes Design. Man muss klare Entscheidungen treffen. Das bringt einen großen Vorteil.
Die wichtigsten Aussagen:
-
Keine Fehler erlauben: Bei der Firma Linear sind Fehler sehr wichtig. Niemand baut neue Dinge. Zuerst müssen alle Fehler zwingend weg sein. Kunden melden einen Fehler. Am nächsten Tag ist er bereits behoben.
-
Klare Meinung: Die Software Linear ist nicht für jeden Weg offen. Es gibt nur einen einzigen guten Weg. Das System führt die Nutzer genau dorthin. Das spart viel Zeit.
-
KI im System: Linear hat die KI direkt im Produkt eingebaut. Es ist absolut kein Chatbot. Die KI hilft beim Planen der Aufgaben. Sie arbeitet gut mit anderen KI-Programmen zusammen.
-
Handwerk: Linear setzt voll auf gutes Design und Gefühl. Sie schauen nicht nur stur auf Zahlen.
-
Bewerbung in 5 Tagen: Bewerber kommen für fünf Tage zu Linear. Sie arbeiten an einem echten Produkt. Es gibt absolut keine normalen Tests. Linear sucht so die besten Mitarbeiter. Die Menschen müssen Details und das Handwerk lieben.
Persönliche Anmerkung: Ich war sehr beeindruckt von Tuomas Artman. Linear liebt das Design wirklich sehr. Man spürt das sofort. Ich würde gern diesen 5-Tages-Test machen. Ich würde mich sicher nicht beschweren.
Happy to share that code reviews are coming to @linear, available in private beta on every plan. Modern code reviews with structural diffing that vastly reduce the number of changed lines in many cases. Review, comment, check previews, get notifications on failed CI check. And Show more
Announcing Linear Reviews. A modern code review experience for humans and agents. Join the waitlist for early access: linear.app/reviews
Kein Tracking, keine Cookies
Was die Sprecher sonst noch sagen
Diese Nachrichten haben die Sprecher rund um die Konferenz geschrieben:
Peter Steinberger – Anthropic sperrt Open Source aus
woke up and my mentions are full of these Both me and @davemorin tried to talk sense into Anthropic, best we managed was delaying this for a week. Funny how timings match up, first they copy some popular features into their closed harness, then they lock out open source.
Kein Tracking, keine Cookies
Mario Zechner – "Ich habe mich verkauft"
People of pi. BIG NEWS. I've sold out. Let me know how you feel about this in the comments below. mariozechner.at/posts/2026-04-…
Kein Tracking, keine Cookies
Armin Ronacher & Cristina Poncela Cubeiro – Earendil wächst enorm
Thank you to everyone who reached out or is currently reaching out. Mine (and increasingly Earendil's) mailboxes are overflowing, so our SLA on anything inbound is not up to snub now.
Kein Tracking, keine Cookies
Malte Ubl – just-bash liefert weiter ab
Vercel Sandboxes are now the fastest sandbox using real VMs as security boundary based on the @computesdk benchmark. The team has been absolutely cooking on this. And the best thing: Because we have a unified Fluid Compute stack across Sandbox, Builds, and Functions these wins Show more
Kein Tracking, keine Cookies
Mein Fazit
Mein Eindruck nach zwei Tagen in London ist klar. KI verändert das Programmieren komplett. Das ist sicher. Die sehr wichtige Frage lautet jetzt: Wie behalten wir die Kontrolle dabei?
Die besten Erklärungen kamen von den Machern. Sie bauen selbst KI-Programme für Code. Steinberger, Zechner, Ronacher und Poncela Cubeiro gehören dazu. Ihre Botschaft war extrem deutlich. Die Technik braucht klare Grenzen. Open Source braucht Schutz vor Müll. Und Code braucht Menschen zum Verstehen.
Meine fünf Gedanken für Sie:
-
Offene Programme sind eine Pflicht. Große Firmen wollen oft alles beherrschen. Wer sich auf sie verlässt, wird schnell abhängig. Die Firma Anthropic hat das klar gezeigt. Sie kann den Zugang sofort sperren. Eigene offene Programme sind ein Schutz.
-
Wie viel schneller ist man wirklich? Man ist vielleicht doppelt so schnell. Man ist sicher nicht 10-mal so schnell. Wer 10-mal so schnell ist, macht oft 10-mal so viel Müll. Man muss die Qualität prüfen. Das braucht extrem viel Disziplin.
-
Die Preise von Google sind wichtig. Die KI wird immer billiger. Dann verdienen die Entwickler von Software das Geld. Das ist eine große Chance für kleine Firmen.
-
Guter Geschmack wird wertvoll. Maschinen schreiben bald den meisten Code. Der Mensch muss dann entscheiden. Was ist wirklich gut? Was funktioniert nur irgendwie?
-
Reibung ist eine gute Funktion. Wenn eine KI wichtige Daten ändern will, muss sie stoppen. Ein Mensch muss das erst erlauben. Die KI darf nicht einfach sofort weitermachen.
Meine Ergänzung: Code machen ist nicht Code pflegen
Die Konferenz sprach fast nur über das Schreiben von Code. Ich stelle meinen Kunden aber oft andere Fragen:
- Wer macht die wichtigen Updates? Wie schnell reagiert das Team bei Gefahr? Im März 2026 gab es einen großen Angriff aus Nordkorea. Ein kleines Programmteil war infiziert. Es hat tausende Systeme kaputt gemacht.
- Wer kümmert sich um Kopien der Daten? Was passiert bei einem großen Ausfall?
- Wie schnell wird ein Fehler repariert?
- Und am wichtigsten: Wie ist Ihr Plan für die Daten? Gibt es aktuelle Daten aus der ganzen Firma auf Knopfdruck?
Ohne saubere Daten hilft die allerbeste KI nicht. Meine Empfehlung für Sie: Räumen Sie zuerst Ihre Daten auf. Machen Sie die Daten leicht zugänglich. Erst dann helfen KI-Programme wirklich. KI kann auch beim Aufräumen helfen. Sie findet doppelte Dinge. Aber ein Mensch muss den Plan machen. Der Mensch muss das Ergebnis prüfen.
KI-Programme brauchen gute Daten. Wenn Ihre Daten ein Chaos sind, hilft auch die beste KI nicht. Gute Daten sind zwingend wichtiger als eine gute KI.
Die erste Konferenz war extrem gut. Es gab viel Technik und gute Pläne. Die Menschen dort waren begeistert und auch kritisch. Das gibt es nicht sehr oft. Wenn die nächste Konferenz auch so gut wird, komme ich sehr gern wieder nach London.
Tag 1: Vollständiges Programm
Klick lädt YouTube (Datenschutz)
Klicks direkt zum Video:
- 00:13:10 – Begrüßung von Phil Hawksworth
- 00:21:26 – Lia McBride: Großes Wachstum und britische Investitionen in KI
- 00:24:25 – Malte Ubl: KI als neuer Nutzer, Programme müssen für KI gebaut werden
- 00:42:39 – Raia Hadsell: Gemini Modelle, KI für Wirbelstürme und Spiele
- 01:07:08 – Ryan Lopopolo: Code ist kostenlos, Systemdenken für KI-Helfer
- 01:25:48 – Peter Steinberger: OpenClaw wächst sehr schnell und macht viele Sicherheitswarnungen
- 01:45:12 – Pause für Kaffee
- 02:28:13 – Swyx und Peter Steinberger: Open Source und der Geschmack beim Code
- 02:55:01 – Vincent Koc: Sehr viele KI-Helfer arbeiten in der Nacht
- 03:14:07 – Radek Sienkiewicz: Das eigene Leben an die KI übergeben
- 03:34:12 – Sally Ann O'Malley: Sichere Systeme für KI-Helfer
- 03:57:05 – Nick Taylor: OpenClaw absichern und Live-Programmieren
- 04:14:35 – Pause für das Mittagessen
- 05:41:51 – Onur Solmaz: Regeln für Gespräche mit der KI
- 06:02:17 – Merve Noyan: Eigene Systeme auf dem Computer nutzen
- 06:22:36 – Fryderyk Wiatrowski: Viktor ist ein KI-Mitarbeiter mit viel Wissen
- 06:42:09 – Pause am Nachmittag
- 07:42:39 – Gergely Orosz und Swyx: Wie Firmen KI-Zeit verschwenden
- 08:09:26 – Kitze: Kritik an modernen Apps und eine Oberfläche durch KI
- 08:29:42 – Matt Pocock: Warum Tests heute so extrem wichtig sind
- 08:48:31 – Sunil Pai: KI führt JavaScript direkt aus
- 09:07:04 – Schlusswort von Phil Hawksworth
Tag 2: Vollständiges Programm
Klick lädt YouTube (Datenschutz)
Klicks direkt zum Video:
- 00:10:40 – Tejas Kumar startet den Tag
- 00:15:44 – Omar Sanseviero: Gemma 4 Modelle auf dem Gerät
- 00:31:00 – David Soria Parra: Die Zukunft von Werkzeugen für KI
- 00:49:44 – Ido Salomon: Steuerung von vielen KI-Helfern
- 01:01:05 – Mario Zechner: Das Pi-Programm und Gefahren durch KI-Müll
- 01:19:33 – Armin Ronacher & Cristina Poncela Cubeiro: Lesbarer Code und wichtige Hürden
- 01:38:12 – Benjamin Dunphy: Neue große KI-Messe angekündigt
- 01:44:14 – Pause für Kaffee
- 02:26:10 – David Gomes: 15.000 Zeilen Code durch KI ersetzen
- 02:46:17 – Matthias Luebken: OpenClaw und Pi in echten Systemen nutzen
- 03:08:39 – Sarah Chieng: Gewohnheiten für extrem schnelle KI ändern
- 03:27:11 – Lawrence Jones: KI für die Prüfung von Systemen nutzen
- 03:45:47 – Luke Alvoeiro: Wie KI-Helfer über viele Tage arbeiten
- 04:04:47 – Pause für das Mittagessen
- 05:41:46 – Ben Burtenshaw: KI-Helfer für sehr tiefe System-Entwicklung
- 06:00:33 – Michael Richman: Die Angst vor verpasster KI-Zeit heilen
- 06:17:29 – Liam Hampton: KI-Helfer auf dem Computer steuern
- 06:35:28 – Pause am Nachmittag
- 07:41:28 – Tuomas Artman und Gergely Orosz: Warum Fehler bei Linear verboten sind
- 08:10:48 – Jacob Lauritzen: Warum komplexe KI echte Bildschirme braucht
- 08:25:11 – Peter Gostev: Was die besten KI-Modelle immer noch falsch machen
- 08:45:32 – Swyx: Eine Millionen-Firma mit KI aufbauen
- 08:59:02 – Schlusswort von Tejas Kumar
Weiterlesen auf webconsulting.at
Code am Scheideweg: 7 Erkenntnisse vom AI Engineer Summit 2025 – Unser Bericht von der Konferenz in den USA.
Vom Coder zum Orchestrator: Was der Anthropic-Report für Teams bedeutet – Wie sich die Arbeit durch KI verändert.
TYPO3 Extension Security: Was wir von Cloudflares EmDash lernen – Wie man Rechte für die KI sicher vergibt.
Impressionen aus London
London empfing uns mit sehr viel Sonne. Das Queen Elizabeth II Centre liegt direkt im Zentrum. Es ist direkt neben der berühmten Abbey. Big Ben ist nicht weit weg. Das London Eye ist auch ganz in der Nähe. Besser kann ein Ort für eine Konferenz wirklich nicht sein.
Anreise und Stadt
Ankunft im Bahnhof Paddington. Das alte Glasdach aus dem Jahr 1854 begrüßt die Reisenden.
Ein schönes Detail von der Bauweise aus Stahl und Glas.
Modernes Licht trifft auf alte Bauweise im Bahnhof.
Big Ben in der Sonne. Er ist ganz nah am Konferenzzentrum.
London Eye und der Fluss Themse im Sonnenschein.
Alte Brücke und ganz moderne hohe Häuser im Hintergrund.
Das Parlament von London. Es ist der direkte Nachbar der Konferenz.
Winston Churchill steht auf dem großen Platz vor dem Parlament.
Der Park St James im Frühling. Ein sehr guter Ort für eine Pause.
Ein schöner Weg unter grünen Bäumen in London.
Viele Menschen auf dem großen Platz am Parlament.
Typisches Wetter in London. Wolken über dem Parlament.
Eine Kaffeepause in der Nähe des London Eye.
Blick aus dem Hotel. Man sieht Big Ben durch das Glas.
Das zentrale Denkmal für den Krieg in London.
Hier wohnt der Premierminister. Alles ist sehr stark bewacht.
Konferenz und Vorträge
Das Programm auf einen Blick im Eingang.
Ein kleiner Raum für Vorträge mit viel Technik.
Der große Saal war extrem voll. Nicht alle Menschen hatten Platz.
Viele Menschen hören ganz genau zu.
Peter Steinberger spricht über sein neues Programm.
Vortrag auf der großen Bühne mit Logos von bekannten Firmen.
Das Logo von Vercel auf der leeren Bühne.
Raia Hadsell spricht über alte Spiele und neue Roboter.
Die Forschung über Gehirne trifft auf KI.
Peter Steinberger zeigt die vielen Warnungen seiner KI.
David Soria Parra hat eine wichtige Verbindung für KI erfunden.
Hier ging es nur um Programme, die selbst Code schreiben.
Eine große Wand mit den Logos der großen Firmen.
Die wichtigste Nachricht: KI muss mit allem verbunden sein.
Ein weiterer Blick auf die sehr große Bühne.
Sie fordern Code, den eine KI ganz leicht lesen kann.
Präsentationen
Eine Liste mit über 50 KI-Modellen für Code.
Gemini und Claude sind die allerbesten Modelle für Code.
Sarah Chieng sagt: Schnelle KI braucht langsame Entwickler.
Die KI treibt das Wachstum von Code enorm an.
Sauberer Code hilft der KI. Das bestätigt den langsamen Ansatz.
Claude erkennt falsche Befehle am besten.
Anthropic gewinnt gegen OpenAI und Google bei falschen Befehlen.
Selbst die besten Modelle machen noch Fehler.
Gergely Orosz spricht mit Tuomas Artman.
Er fordert echte Oberflächen für KI.
Musik zur Konferenz
Drei Lieder für Sie. Sie zeigen das Gefühl von dieser Konferenz sehr gut.
Peter Gabriel – Solsbury Hill
Klick lädt YouTube (Datenschutz)
Peter Gabriel singt über eine Erfahrung in England. Er ging damals völlig neue Wege. Das passt sehr gut zu dieser Konferenz. Auch hier haben die Menschen viele Dinge in Frage gestellt.
Lou Reed – There Is No Time
Klick lädt YouTube (Datenschutz)
Das ist sehr ehrliche Musik. Zwei Gitarren, ein Bass und ein Schlagzeug. Das bleibt einfach menschlich. Genau deshalb ist es extrem gut.
Elton John – Tiny Dancer
Klick lädt YouTube (Datenschutz)
Ein entspanntes Lied aus dem Jahr 1970. Das ist perfekt für den Flug nach Hause. London verschwindet langsam hinter den Wolken.


