ChatGPT ist der Chatbot von OpenAI und steht mit seiner GPT-Technologie aktuell in den Schlagzeilen der Chatbot-Welt. Doch was steckt hinter dem Trend und was genau kann die künstliche Intelligenz?
Was ist ChatGPT?
Das Forschungsunternehmen OpenAI – gefördert von Elon Musk und Microsoft – präsentiert eine neue Version ihres Sprachprogramms. Das Ziel der Entwickler ist es, den Chatbot mit der GPT-Software zukünftig als Suchmaschine (wie Google) verwenden zu können. Die künstliche Intelligenz, welche auf maschinellem Lernen basiert, können die Nutzer nun auf der Seite von OpenAI testen.
Was kann die Sprachsoftware GPT?
Wie andere Chatbots auch kann die Software auf Fragen der Nutzer antworten. Was die Nutzer besonders begeistert: GPT kann ganze Texte, Geschichten und Gedichte schreiben. Es reagiert auf die Wünsche des Nutzers und kann darauf basierend eine passende Antwort verfassen. Der Bot erinnert sich ebenfalls an frühere Äußerungen der Nutzer und hat damit eine Art von Gedächtnis.
Jedoch gibt es auch viele kritische Aspekte am Hype um den ChatGPT. So bezeichnet Forbes es als „Overhyped“. Um dies nachzuvollziehen, muss man allerdings verstehen, wie das Programm funktioniert.
GPT-3: Ein Durchbruch in Richtung allgemeiner KI?
Beispiel: ChatGPT antwortet auf eine Kundenanfrage
Wie funktioniert ChatGPT?
Grundlegend basiert ChatGPT auf dem Sprachmodell GPT-3 von OpenAI. Dieses Sprachmodell arbeitet mit einer Deep-Learning-Technologie und trainiert mit Algorithmen. Dabei wird auf Texttrainingsdaten aus dem Internet zurückgegriffen. Dies hat zur Folge, dass ChatGPT Wörter aneinanderreiht, die mit der größten Wahrscheinlichkeit zum Thema oder der Frage passen. Mit einer guten Software können daraus durchaus sinnvolle Texte entstehen.
Schaut man sich das Beispiel der Kundenanfrage an, sieht man: Die Software scheint die Aufgabe zu verstehen und gibt den Nutzer eine schnelle Antwort, die sich auf sein Problem bezieht. Aber versteht es auch wirklich, was es dem Nutzer antwortet?
Grenzen des ChatGPTs
Die wahrscheinlichste Antwort kann durchaus die richtige Antwort sein. Dies funktioniert oft nur, wenn die Frage ohne Rücksicht auf spezifische Informationen beantwortet werden kann. Denn wenn man sich länger mit dem ChatGPT beschäftigt, wird einem schnell bewusst, bei längeren Texten kommt die Software schnell vom Thema ab und scheint oberflächliche Antworten zu bevorzugen. Dies könnte je nach Einsatz-Branche des Bots fatale Folgen haben. So berichtet das t3n Magazin: „GPT-3 gibt fiktiven Patienten verheerende Ratschläge.“
Auch wenn die Antworten des ChatGPT auf den ersten Blick seriös zu formuliert sein scheinen, ist zu beachten, dass die Software Wahrscheinlichkeiten folgt. Es kann schön sprechen, ohne dem Nutzer qualitativen Inhalt garantieren zu können. Dies reizen vor allem Twitter-Nutzer aus und teilen die „GPT-Fails des Tages“.
Ein besserer Ansatz wäre, anstatt mit maschinellem Lernen, mit natürlichem Lernen zu arbeiten. Denn bei NLU-Systemen (Natural Learning Understanding) werden die Nutzereingaben analysiert und verarbeitet. Dies bietet den Vorteil, dass der Chatbot den Nutzer wirklich versteht und damit komplexe Fragen inhaltlich richtig beantworten kann.
Blogbeitrag: Was ist der Unterschied zwischen NLP und NLU?
Kauz hat die GPT-3 Software im Rahmen des OpenAI Beta-Programms getestet, um zu prüfen, inwiefern es für den Einbau in Chatbots geeignet ist. Dabei wurde ein Horoskop-Bot mit GPT-3 Technologie entwickelt, welcher auf unserer Website zum Ausprobieren bereitsteht.