Für das Hosting eines generischen ChatGPT für Ihre Marke zu bezahlen hat keinen Sinn. Warum? Weil es dasselbe wäre wie alle anderen ChatGPT-Demos im Internet und keinen Wettbewerbsvorteil bieten würde. Ein Wert kann nur darin liegen, dass das System die Geschäftsprozesse so unterstützt, dass es entweder Ihre Betriebskosten senkt oder den Umsatz steigert. Zum Beispiel, indem Sie Ihre teuren Support Funktionen wie den Kund:innenservice durch einen automatisierten Dienst ergänzen oder teilweise ersetzen, der mit minimalen Kosten skaliert werden kann. Das ist der Bereich, in dem Chatbots derzeit den neuesten Stand der Technik darstellen. Wir untersuchen, wie und ob wir ChatGPT zur Senkung der Betriebskosten oder zur Umsatzsteigerung einsetzen können.
Lassen Sie uns zuerst die einfachste Lösung in Angriff nehmen. Wenn man bedenkt, wie leistungsfähig ChatGPT ist, warum nicht einfach den Chatbot durch eine spezialisierte ChatGPT-Instanz ersetzen? Da die Antworten von ChatGTP unvorhersehbar oder einfach falsch sein können, ist das eine schlechte Idee. Zudem ist es in der Standardimplementierung von ChatGPT unmöglich, Antworten vollständig zu kontrollieren. In Anbetracht der Tatsache, dass dieser Chatbot Ihre Marke repräsentieren würde, könnte eine falsche oder beleidigende Antwort einen ernsthaften Imageschaden verursachen.
Wie wäre es mit der Verwendung von ChatGPT, um synthetische Benutzereingaben für weitere Trainingsdaten zu generieren? Die Erfassung tatsächlicher Benutzerdaten kann zeitaufwändig und teuer sein und deckt möglicherweise nicht viele Sonderfälle ab. Besonders wenn man einen Chatbot von Grund auf neu aufbaut, ist dies oft ein Hindernis. Theoretisch könnte ChatGPT einfach riesige Mengen von Trainingsdaten erzeugen, indem es Variationen eines Eingabesatzes mit plausiblem Probetext generiert.
Dies wirft jedoch andere Probleme auf: Die Erweiterung der NLU-Trainingsdaten auf diese Weise führt nicht zu signifikanten Verbesserungen des Modells. Es besteht ein Zielkonflikt zwischen Treue und Variabilität. Entweder erzeugen wir Daten mit geringer Variabilität, die nur eine kleine Abweichung vom Ausgangssatz darstellen und somit keine neuen Informationen für das Modell liefern oder wir generieren Daten mit hoher Variabilität, die zu stark vom Ausgangssatz abweichen und daher keinen Bezug haben und nicht zum Training des Bots verwendet werden können. Die Erzeugung natürlicher Daten ist vielleicht nicht der beste Anwendungsfall, aber es gibt andere NLP-Aufgaben, die für einen Chatbot erforderlich sind. Vereinfacht gesagt, versucht ein Chatbot die folgenden zwei Dinge zu tun, wenn er einen Datensatz in natürlicher Sprache erhält:
1. Die Absicht der Nutzer:innen verstehen (NLU - Natural Language Understanding)
2. Die Antwort generieren (NLG - Natural Language Generation)
Je besser ein Chatbot diese beiden Aufgaben beherrscht, desto mehr Dienste kann er ohne menschliches Zutun erbringen und so die Arbeitsbelastung Ihrer Callcenter verringern. Jede noch so kleine Verbesserung wird automatisch auf alle Gespräche übertragen, die der Chatbot abwickelt, so dass die Einsparungen eine Funktion der Anzahl der Interaktionen mit Kund:innen sind, während die Betriebskosten niedrig bleiben.
Das ChatGPT zugrundeliegende Modell (das GPT-3-Modell) ist mit 175 Milliarden Parametern eines der größten und leistungsfähigsten Sprachmodelle, die es derzeit gibt. Das Modell ist eines der besten, wenn es darum geht, eine gute Vermutung darüber anzustellen, was ein Mensch als Nächstes sagen würde, wenn er bereits etwas gesagt hat. Wenn zum Beispiel eine Geschichte mit "Es war einmal ein weißes Kaninchen" beginnt, wie könnte der folgende Satz lauten? Oder, genauer gesagt, für Chatbots: Bei dem Satz "Was macht Ihr Produkt?" würde das Modell einen Satz oder sogar einen Absatz generieren, von dem es annimmt, dass ein Mensch ihn sagen würde. Der Nachteil dieser Sichtweise ist, dass sie nicht in der Lage ist, speziellere, domänenspezifische Fragen zu verstehen. Das wiederum ist ein Merkmal von Unternehmens-Chatbots..
Angesichts der hohen Kosten für das Training eines hochmodernen großen Sprachmodells, für das 45 Terabyte Text benötigt werden, ist es wahrscheinlich, dass wir eine Zukunft erleben werden, in der Chatbots einfach auf einem vortrainierten Modell aufgebaut und für bestimmte Zwecke, Marken oder Produkte angepasst werden. Diese Anpassung bezieht sich auf die Verfeinerung von Modellen wie ChatGPT, um bestimmte Eingabe- und Ausgabemuster besser zu erkennen, z. B. Sätze und Wörter, die mit dem Bereich Ihres Unternehmens zusammenhängen. Bei einer solchen Anpassung nutzen wir die Vorteile eines großen Modells, aber mit den fein abgestimmten NLUs und NLGs. Mögliche Anwendungsfälle werden in einem späteren Abschnitt erörtert.
Dies würde es Unternehmen ermöglichen, einen hochmodernen Chatbot zu verwenden, der die Markenwerte und den Tonfall ihres Unternehmens widerspiegelt, ohne dass sie die Kosten für die Erstellung des Modells von Grund auf aufbringen müssen.
Zur Feinabstimmung des ChatGPT-Modells müsste OpenAI auf Ihre Daten zugreifen, um Ihre Dienste zu verbessern. Die Datenschutzgesetze der meisten Länder erfordern sehr restriktive Verträge mit Dritten, um die Weitergabe von Kunden-PII-Daten zu erlauben.
Mit den heutigen Tools zur Anonymisierung und bestimmten Regularieren, die die Haftung für die Bereitstellung dieser Art von Daten begrenzen, ist es oftmals dennoch möglich, diese Dienste legal zu nutzen.
Die Alternative ist die Feinabstimmung vor Ort - dann sind wir aber entweder auf Open-Source-Modelle (z. B. BLOOM) oder auf die wenigen kleineren Unternehmen beschränkt, die bereit sind, ihr Modell hosten zu lassen.
Große Sprachmodelle (LLM) werden die Lösungen revolutionieren, für die wir derzeit Chatbots verwenden. Hier erfahren Sie, wann Sie diese Technologie neu bewerten sollten. Wenn Lösungen, bei denen ChatGPT-ähnliche Systeme nur die Interpretation der Bedürfnisse der Kund:innen übernehmen und die eigentliche Antwort von einem Chatbot bearbeitet wird, wäre es an der Zeit, den Einsatz dieser Technologie in Ihrem Unternehmen zu überdenken.
Derzeit gibt es keine bewährte Methode, ChatGPT mit genügend Kontext zu versorgen, um dafür zu sorgen, dass die Ausgaben relevant sind und der Tonfall für Ihre Marke oder Ihr Unternehmen spezifisch ist. Es werden Lösungen entwickelt, die die LLMs mit dem unternehmensspezifischen Kontext versorgen und so die Generierung relevanter Trainingsdaten für Chatbots ermöglichen. An diesem Punkt ist es an der Zeit, diesen Ansatz neu zu bewerten. Diese Neuerung könnte die Form einer Arbeitsanweisung annehmen, wie man einer ChatGPT-ähnlichen Lösung unternehmensspezifische Informationen, wie z.B. die Art der Produkte und die Unterscheidung zur Konkurrenz, erklärt. Auf diese Weise könnte das Modell Trainingsdaten speziell für Ihr Unternehmen erzeugen.
Eine weitere Entwicklung, auf die man achten sollte, ist die vereinfachte Integration mit Unternehmen. Einige Anwendungsfälle sind zwar technologisch möglich, lassen sich aber aufgrund der mangelnden Integrationsmöglichkeiten von LLMs nicht leicht umsetzen. Microsoft hat in naher Zukunft ein Angebot vereinfachter Integrationsmöglichkeiten angekündigt.
Die derzeitige Technologie zum Verstehen natürlicher Sprache in Unternehmen hat Schwierigkeiten, lange Texte mit Kontext, menschlichen Emotionen und Nuancen zu verstehen. LLMs wie ChatGPT sind Vorreiter bei der Lösung dieser Probleme.
Die Entwicklung der NLG-Fähigkeiten von ChatGPT bieten großes Potenzial. Leider können LLMs wie ChatGPT Zeit und Kosten für die Implementierung von Conversational AI erst dann von Grund auf reduzieren, wenn sie ihre NLG-Fähigkeiten verbessern können, um nützliche Trainingsdaten zu generieren.
Betrachtet man die Kreuzung vereinfachter Integrationen und NLU-Entwicklungen, könnte dies einen Chatbot ermöglichen, bei dem die meisten Anfragen vom aktuellen Chatbot bearbeitet werden und die oft langen, schwer zu klassifizierenden Anfragen an ein LLM gesendet und mit der entsprechenden Klassifizierung zurückgeschickt werden.
Mit dem Fokus auf NLG könnte ChatGPT in Zukunft verwendet werden, um Zahlen zu interpretieren und Berichte in natürlicher Sprache zu erstellen.
ChatGPT und andere LLM bieten heute nützliche Anwendungen, auch wenn Aufgaben wie die Generierung geeigneter Trainingsdaten im Moment noch nicht möglich sind. Der derzeitige Stand der NLG-Fähigkeiten dieser Modelle erlaubt es uns jedoch, sie bereits zur Generierung von Übersetzungen eines Eingabesatzes zu nutzen. Dabei geht es nicht nur um die Übersetzung von gesprochener Sprache in eine andere, sondern auch um die Übersetzung einer Funktionsbeschreibung auf Englisch in einen funktionierenden Python-Code oder eines komplexen Rechtstexts in einfache Sprache.
Darüber hinaus können die vom Modell generierten Eingabeaufforderungen nicht als Interaktion mit echten Nutzer:innen angesehen werden, aber das Modell kann für bestimmte Aufgaben auf ähnliche Weise verwendet werden. Wir können ChatGPT verwenden, um als Benutzer:in zu agieren und Experimente zu bewerten. Es ist kostengünstig und leicht skalierbar, so dass man verschiedene Experimente durchführen kann, z. B. wie verschiedene Dialoge und Hyperparameter die Gesamtleistung unseres Bots beeinflussen. So können wir Klassifizierungen und Routen optimieren, um sicherzustellen, dass Kund:innen die richtigen Informationen finden oder richtige Aktionen ausführen, während gleichzeitig die Notwendigkeit einer Übergabe an Servicemitarbeiter:innen begrenzt wird.
Ein Unternehmens-Chatbot hat oft eine große FAQ-Komponente - wobei die Fragen mit statischen Informationen von der Webseite beantwortet werden. Indem diese Informationen als Informationsdokumente zur Verfügung gestellt werden, kann ChatGPT anhand dieser Daten genutzt und feinabgestimmt werden und so als unternehmensspezifischer FAQ-Bot dienen. Diese Modelle könnten auch die Erstellung des Textes für die Antwort auf neue FAQ-Einträge beschleunigen, indem sie einen ersten Entwurf liefern, der von Experten verfeinert und validiert wird.