Wenn Tests grün sind – und Nutzer trotzdem „kaputt“ rufen

Wenn Tests grün sind – und Nutzer trotzdem „kaputt“ rufen

In ihrem Talk „It Works on My Machine: Why LLM Apps Fail Users (Not Tests)” teilen sie Erfahrungen aus realen Kundenprojekten und zeigen, wie man LLM-Systeme so entwickelt und betreibt, dass sie nicht nur in der Evaluation gut aussehen, sondern im Alltag echten Mehrwert für Nutzerinnen und Nutzer liefern.

Im Mittelpunkt stehen drei Dimensionen, die darüber entscheiden, ob eine Anwendung als „funktionierend“ erlebt wird:

  • Erwartungen: Welche Ergebnisse erwarten Nutzer – und wie unterscheidet sich das von dem, was das System tatsächlich leisten soll?
  • Funktional: Warum das Zusammenspiel von Prompts, Modellen, Parametern, Daten und Evaluationslogik komplexer ist als die Summe der Einzeltests.
  • Operational: Wie Observability, Telemetrie und Validierungs-Endpunkte helfen, Verhalten im laufenden Betrieb zu verstehen und Probleme frühzeitig zu erkennen – insbesondere in sensiblen oder On-Premises-Setups.

Statt sich auf Tools oder Frameworks zu konzentrieren, beleuchtet der Talk die menschliche Seite von Evaluation: Wie finden wir heraus, ob ein System wirklich den Menschen dient, die täglich damit arbeiten?

Wer LLM-Anwendungen plant, entwickelt oder in Produktion verantwortet, bekommt praxisnahe Einblicke, typische Fallstricke aus realen Szenarien – und Anregungen für eigene Strategien und Muster, um nutzerzentrierte, robuste Systeme zu bauen.

Weitere Artikel

Inside neunzehn – heute mit Andreas
Inside neunzehn – heute mit Andreas

„Innovation heißt für mich nicht nur denken, sondern machen.“

Mehr lesen
Publikumspreis für JuFi: Generative KI im Mittelstand
Publikumspreis für JuFi: Generative KI im Mittelstand

Wir gratulieren Julian Nuss zum "Besten KI-Projekt 2024" des KI-Lab Heidelberg

Mehr lesen
Von der Idee zur skalierbaren GenAI-Lösung
Von der Idee zur skalierbaren GenAI-Lösung

neunzehn innovations auf der PyCon DE & PyData 2025

Mehr lesen