Zum Inhalt springen

Moderne Firmen und Organisationen sind heute grosse, dezentralisierte Wissensfabriken. Aber wo ist dieses Wissen eigentlich abgespeichert? Vieles ist (hoffentlich) in den Köpfen der Mitarbeitenden. Und noch mehr liegt auf verschiedenen Servern und Datenbanken. Diese dezentrale Aufbewahrung macht es schwierig, das passende Wissen auf Knopfdruck abzurufen. Denn erst müssen mühsam verschiedene Datenbanken durchsucht, die seitenlangen Treffer nach den benötigten Information gescannt und die gefundenen Informationen am Ende noch richtig interpretiert und daraus die richtigen Schlüsse gezogen werden. Mit dem exponentiellen Wachstum von Wissen und Daten wird es zunehmend schwierig, allen Mitarbeitenden das interne Know-how effizient zur Verfügung zu stellen. Technologiepartner wie ti&m liefern Lösungen, die nicht nur Informationssilos aufbrechen und das Wissen granular allen Mitarbeitenden und Kundinnen und Kunden jederzeit verfügbar machen. Lösungen wie der AI Assistant generieren auf Basis von firmeninternen Daten sprachlich ansprechende Antworten auf komplexe Fragen und stellen diese in einem nutzerfreundlichen Interface so zur Verfügung, dass Mitarbeitende und Kundinnen und Kunden einen produktiven Nutzen daraus ziehen.

Datenpool und Embeddings

Large Language Models wie GPT werden zum grössten Teil mit öffentlich zugänglichen Daten wie wissenschaftliche Publikationen, Einträge auf Wissensseiten wie Wikipedia usw. trainiert und haben Milliarden – bei GPT-4 sind es 1’800 Milliarden – von Parametern. Bei einem Prompt generiert ChatGPT die Antwort zum einen auf der Grundlage des trainierten Datensatzes, zum anderen kann einem Prompt auch ein Kontext mitgegeben werden. Bspw. kann in einem Prompt verlangt werden, diesen Text auf fünf Sätze zu kürzen, wobei der Text als Kontext mitgeschickt werden muss. Verbindet man die Firmendaten durch einen AI Assistant mit ChatGPT, wird jedem Prompt fi rmenspezifischer Kontext mitgegeben. Firmen besitzen viele Daten und laufend kommen durch die Kundenkommunikation wie Telefonate, Chat oder E-Mails oder durch Produkterweiterungen neue dazu. Diese Daten sind in Text- oder Videoformat auf der Webseite oder in zahllosen Dokumenten auf dem Intranet, auf Servern oder in anderen Datenbanken abgelegt. Wie wählt der AI Assistant also die relevanten Dokumente aus, die automatisch dem jeweiligen Prompt mitgegeben werden? Mit Embeddings. Embeddings sind Vektoren, die den Sinn eines Textabschnitts repräsentieren. Die eigenen, firmenspezifi schen Dokumente und Daten werden in Embeddings umgewandelt und in einer Vektorendatenbank gespeichert. Stellt die Nutzerin oder der Nutzer eine Frage, wird diese ebenfalls in ein Embedding umgewandelt und der Chatbot sucht in der Datenbank die relevanten Dokumente heraus. Diese Dokumente werden zusammen mit der Frage ChatGPT übergeben, der basierend darauf eine kohärente Antwort generiert. Das gesamte Wissen ihrer Firma wird so für alle Mitarbeitenden und Kunden zugänglich. Der AI Assistant kann dabei nicht nur eine Frage beantworten, sondern aus der Antwort eine auf eine bestimmte Zielgruppe zugeschnittene Powerpoint-Präsentation erstellen, die Antwort automatisch in einem Mail verschicken oder an andere Applikationen wie JIRA, Slack oder Github angebunden werden. Um die Transparenz zu erhöhen, können die Quellen angegeben werden, auf denen die Antwort basiert.

So funktioniert der ti&m AI Assistant

Schritt 1: Datenpool festlegen und Daten indexieren

Sie entscheiden, welche internen Firmendaten dem AI Assistant zur Verfügung gestellt werden. Ist der Datenpool festgelegt, werden die bereitgestellten Daten indexiert.

Schritt 2: Suchindexierung

Die indexierten Dokumente werden nun in einem Suchindex gespeichert. Dieser besteht aus Vektoren, die die Bedeutung eines indexierten Dokuments wiedergeben – die sogenannten «Embeddings».

Schritt 3: Relevante Informationen identifizieren

Stellt ein Benutzer oder eine Benutzerin eine Frage, werden die relevantesten Teile aller indexierten Dokumente identifiziert.

Schritt 4: GPT-4 generiert die Antwort

Zusammen mit der Frage werden die relevantesten Dokumententeile an Chat-GPT-4 geschickt, der auf Basis der der bereitgestellten Informationen eine Antwort generiert.

Tiefere Hürden für LLM-Projekte dank ChatGPT

Mit der Lancierung von Large-Language-Models-basierten Lösungen wie ChatGPT ist nicht nur KI im Alltag angekommen. Die Lancierung macht LLM-basierte KI-Projekte auf einen Schlag viel kostengünstiger. Denn waren Lösungen im Bereich Machine Learning und KI bisher oft anspruchsvoll und teilweise mit hohen Aufwänden verbunden, ermöglichen LLMs wie die verschiedenen Versionen von GPT ein völlig neues Vorgehen. Entwicklerinnen und Entwickler können auf bestehende LLMs zurückgreifen und so für Firmen aus allen Branchen kosteneffektiv KI-Lösungen bereitstellen. Denn anstatt selbst Daten zu sammeln und Modelle zu trainieren, reicht es, mit Retrieval Augmented Generation (RAG) Unternehmensdaten zu integrieren und mithilfe von Prompt Engineering in einem sogenannten Zero-Shot Learning die richtigen Fragen zu stellen. Der AI Assistant unterstützt Mitarbeitende, vorhandene Dateneffizienter und zielgerichteter zu nutzen, Prozesse zu automatisieren, Kundenbeziehungen zu intensivieren oder neue Produkte und Dienstleistungen zu entwickeln, während Kundinnen und Kunden einen intelligenten Bot für ihre Anliegen erhalten.

Erfahren Sie mehr über den ti&m AI Assistant

Der ti&m AI Assistant ist ein NLP Chatbot für ihre Unternehmensdaten. Ihr persönlicher ChatGPT

Das war ein Beitrag aus dem ti&m special «KI»

Wollen Sie mehr über KI und Datennutzung lesen? Jetzt die ganze Ausgabe kostenlos herunterladen!