Im Rahmen unseres Vortrags haben wir unsere Erfahrungen mit der Nutzung von LLMs (Large Language Models) und RAG (Retrieval-Augmented Generation) im Unternehmenskontext vorgestellt. Ein zentrales Learning aus unseren Projekten war die Bedeutung des relevanten Kontexts zum Zeitpunkt der Fragestellung. Nur durch das tiefgehende Verständnis des Kontextes der verfügbaren Daten, des aktuellen Prozesses und der spezifischen Bedürfnisse der Fragesteller ist es möglich, zufriedenstellende Antworten zu generieren.
Während des Vortrags haben wir erläutert, dass es keine „richtigen“ Fragen und Antworten gibt, sondern dass es auf den relevanten Kontext ankommt. Durch präzise Beschreibung und Auswertung der relevanten Daten und unter Einbeziehung des Kontexts des aktuellen Nutzers, nutzen wir große Sprachmodelle (LLMs), um die richtigen Fragen zu formulieren und den RAG-Prozess, um alle notwendigen Daten effizient zu nutzen.
Ein weiterer Schwerpunkt unseres Vortrags war die User Experience. Wir betonten, dass selbst die qualitativ hochwertigsten Antworten nutzlos sind, wenn sie nicht zur Situation des Nutzers passen. Deshalb unterstützen wir den Lernprozess der Nutzer im Umgang mit KI-Systemen und RAG. Unsere Erkenntnisse haben wir anhand einer Demo verdeutlicht, die die Anwendung von RAG in einem unserer Projekte zeigt.
Durch diesen Vortrag haben wir unterstrichen, wie wichtig es ist, dass Unternehmen den Kontext ihrer Daten und Prozesse sowie die Bedürfnisse ihrer Nutzer genau verstehen, um KI-basierten Lösungen effektiv einsetzen zu können.
Mehr Informationen zu Science Sparks Startups 2024 gibt es hier. Mehr Details jederzeit gerne auch direkt bei uns.
neunzehn innovations unterstützt Rotary Club Schriesheim-Lobdengau
Mehr lesenneunzehn innovations auf der cantamen-Kundenkonferenz
Mehr lesenVier neunzehn-Kunden stellen beim Demo-Day des KI-Lab Heidelberg ihre Projekte vor
Mehr lesen