Background Image

Die KI ist jetzt dein Boss

Sven Winnefeld

Unser Blick auf KI könnte verdreht sein: Wenn aktuell über die Konsequenzen von Large Language Models (LLMs) für das Marketing gesprochen wird, dann geht es zumeist darum, wie wir dank der KI lästige Arbeiten wegautomatisieren können oder wie sie in Zukunft kreative Prozesse unterstützen wird. LLMs werden als persönlicher Assistent imaginiert, der uns bei allen möglichen Alltagsaufgaben zur Seite steht. Doch was ist, wenn die Pläne von Microsoft und Google aufgehen, Chatbots in die Websuche zu integrieren? Dann könnte es sein, dass am Ende nicht die KI uns zuarbeiten muss, sondern wir der KI.

Microsofts Chatbot plant Kindergeburtstage, gibt Beziehungstipps und rechnet aus, ob das neue Ikea-Sofa sich in einem VW Polo halbwegs sicher nach Hause transportieren lässt. Er spricht auch bereitwillig Kaufempfehlungen aus: Als „besten Toaster“ preist er mir ein Gerät von Philips an. Wenn ich mich als Geschäftsführer eines Kleinunternehmens ausgebe und sage, dass ich eine ERP-Software anschaffen möchte, empfiehlt er mir SAP Business One und erklärt auch gleich die Vorteile im Vergleich zur Konkurrenz.

Sieht so die Zukunft der Websuche aus? Microsoft hat den Chatbot im Februar fest in Bing integriert. Google erprobt sein Konkurrenzprodukt „Bard“ gerade in einer geschlossenen Beta-Phase und soll unter dem Codenamen „Magi“ gar an einer völlig neuen chat-basierten Suchmaschine arbeiten. Falls die Technologie sich durchsetzt, müssen Marketer ihre Strategien anpassen. Klassisches SEO und teilweise auch das Content-Marketing könnten an Bedeutung verlieren, weil dann weniger Traffic auf Webseiten gelenkt wird. Stattdessen entsteht die Disziplin der Chatbot-Optimierung. Sie umfasst alle Maßnahmen, die dazu geeignet sind, Marken-Inhalte in den LLMs unterzubringen und Chatbot-Transaktionen im Sinne des eigenen Unternehmens zu beeinflussen.

Chatbots, diesmal wirklich

Sturmfeste Marketer werden diesen Text mit mindestens einer hochgezogenen Augenbraue lesen. Hatten wir das nicht alles schon? Der erste Hype um Chatbots erreichte irgendwann um 2016 seinen Höhepunkt. 80 Prozent aller Unternehmen würden 2020 einen eigenen Chatbot haben, lautete damals eine vielzitierte Prognose. Viele investierten tatsächlich in die Technologie, doch die große Revolution blieb aus. Auch der Vergleich zu Sprachassistentinnen wie Alexa, Siri und Google Home drängt sich auf. „2020 wird jede zweite Suche eine Sprachsuche sein“ hieß es jahrelang (übrigens auf Basis einer erfundenen Statistik). Dann war plötzlich 2020 und die Geräte verstaubten entweder längst im Schrank oder wurden von ihren Besitzern allenfalls noch zum Abspielen von Musik genutzt, nicht etwa für Websuchen oder gar zum Einkaufen.

Wird die KI-gestützten Chatbots des Jahres 2023 ein ähnliches Schicksal ereilen? Wer diese Frage bereits heute definitiv bejahen kann, sollte an dieser Stelle aufhören zu lesen und stattdessen über den richtigen Zeitpunkt nachdenken, die Aktien von Microsoft zu shorten.

Okocha war nie auf Schalke

Ein bedeutsames Hindernis bleibt die fehlende Zuverlässigkeit der Technologie. Wer ChatGPT nach der Biographie der Frankfurter Fußball-Legende Jay-Jay Okocha fragt, dem erzählt der Chatbot die glaubwürdige Geschichte eines hochtalentierten nigerianischen Nachwuchsspielers, der in den 1990er Jahren sein Karriereglück in Deutschland suchte. Legt man anschließend jedoch den Wikipedia-Artikel daneben, stellt man jedoch fest, dass die von ChatGPT gelieferte Zusammenfassung von Okochas Lebensdaten in vielen Details falsch ist – vom Geburtstag bis hin zur Behauptung, Okocha sei zwei Jahre lang für Schalke 04 aufgelaufen. Stellt man die Frage daraufhin erneut, erhält man eine völlig andere, aber auch wieder völlig falsche Geschichte.

Diese Ungenauigkeiten haben System: ChatGPT beantwortet die Fragen nicht auf Basis von Fakten, sondern anhand statistischer Wahrscheinlichkeiten. Es erzeugt daher plausible Antworten, die allerdings nicht faktisch korrekt sein müssen – und bei genauem Hinsehen selten sind. Alle LLMs „halluzinieren“ zu einem gewissen Grad, erklärte Google-Chef Sundar Pichai kürzlich in einem Interview. Und noch wisse niemand genau, wie man das abstellen könne.

Wie trainiert man ein LLM?

Dass die aktuellen Modelle sich noch wesentlich weiterentwickeln werden, davon sind alle Beobachter überzeugt. Zunächst mal muss dafür gesorgt werden, dass sie zuverlässig korrekte Informationen liefern. Nur dann können nämlich die meisten anvisierten Use Cases funktionieren. Und nur dann taugen sie auch als neuer Marketing-Kanal. Für Marketer wird sich spätestens dann die Frage stellen, wie sie ihre Inhalte in den LLMs unterbringen können. Die heute verfügbaren Modelle lassen bereits einige Rückschlüsse zu.

OpenAI bietet die Möglichkeit, GPT-3 (das Vorgängermodell von ChatGPT) an die eigenen Anforderungen anzupassen. Das funktioniert, indem man Prompts samt vorgefertigter Antworten als JSONL-Datei zuliefert. Mindestens einige hundert Beispiel-Antworten sind nötig, um dem Modell beizubringen, wie es auf bestimmte Prompts zu reagieren hat. So lässt sich etwa sicherstellen, dass der Chatbot Fragen zum eigenen Produkt korrekt beantwortet.

Dieses sogenannte Fine-Tuning funktioniert aktuell nur dann, wenn man auf Basis der OpenAI API eigene Anwendungen entwickeln möchte, zum Beispiel einen Chatbot für den Customer Service, oder ein Tool, das vollautomatisch Anzeigen textet. ChatGPT, Bard und Bing bieten noch keine offenen Schnittstellen, um die Modelle mit Informationen zu füttern. Wenn sich ein Weg finden lässt, sinnvollen Input von Spam zu filtern, könnte sich das jedoch ändern. Denn über eine solche Schnittstelle können Anbieter die Erzeugung strukturierter Trainingsdaten auslagern, die sie benötigen, um ihre Modelle fortlaufend zu verbessern. Spätestens wenn der erste Anbieter ein derartiges Feature ankündigt, wird es für Marketer Zeit, einen Python-Kurs zu belegen.

Auch ohne die beschriebenen Schnittstellen werden sich jedoch Einflussmöglichkeiten ergeben – ähnlich wie wir es von der klassischen Websuche kennen. Das wichtigste Relevanzkriterium sind dort Backlinks. Wer mehr hochwertige Links einsammeln kann, ist im Kampf um die ersten Plätze in den Suchergebnissen klar im Vorteil. Analog könnte es für Marken bald wichtig werden, mit ihren Botschaften an den entscheidenden Stellen der Trainingsdaten aufzutauchen.

Fragt man etwa die Chat-Funktion von Bing nach einer spezifischen Produktempfehlung, zitiert sie niemals Herstellerseiten, sondern immer aus vermeintlich neutralen Sekundärquellen wie Fachmedien, Blogs oder Vergleichsseiten. Plötzlich ist nicht mehr entscheidend, wo ich verlinkt, sondern wo ich erwähnt werde und was dort über mich erzählt wird. Brand Mentions scheinen hier Backlinks als zentrales Relevanzkriterium ersetzt zu haben – gute Nachrichten für PR-Berater.

Websuche oder Weltherrschaft

Ob Chatbot-Optimierung zu einer Marketing-Disziplin aufsteigen kann und ob Marketer wirklich bald unter der Knute der KI schuften müssen, hängt letztlich von zwei Faktoren ab. Erstens ist entgegen aller Begeisterung noch völlig unklar, ob Nutzer die Interaktion mit einem Chatbot tatsächlich der klassischen Websuche vorziehen würden. Zweitens bleibt abzuwarten, ob und wann die oben beschriebenen technischen Herausforderungen gelöst werden können. Doch eine Technologie, von der ängstliche Zeitgenossen befürchten, dass sie eines Tages die Weltherrschaft an sich reißen könnte, sollte man auch für die Websuche nicht von vornherein abschreiben.