Seit im November 2022 das amerikanische Unternehmen OpenAI die neueste Generation seines KI-Sprachmodells veröffentlicht hat, reißt die Diskussion über die Folgen nicht ab: Das Generative Pretrained Transfomer Model – kurz GPT – erlaubt als Chatbot den Dialog mit einer künstlichen Intelligenz. Trainiert mit 500 Milliarden Informationseinheiten aus Quellen wie u.a. dem Web-Archiv Common Crawl und Wikipedia, kann die KI auf Fragen mit „menschenähnlicher Sprache“ antworten – so beschreibt es ChatGPT selbst. Noch oszilliert die Qualität der Antworten zwischen brilliant und blödsinnig, aber die KI lernt mit jedem neuen Gespräch dazu. Zudem ist ChatGPT noch nicht mit den Informationssphären des Internets verbunden und daher nur auf dem Stand des Jahres 2021. Es ist aber nur eine Frage der Zeit, bis der Datenzugriff erweitert wird – zugleich stehen vermeintlich noch leistungsfähigere ChatGPT-Konkurrenzen wie Jasper Chat, Neuroflash und YouChat in den Startlöchern.
Es existieren also nun Maschinen, die zumindest perspektivisch auf den gesamten aktuellen Informationsbestand der Menschheit zugreifen können, um Fragen zwar ohne semantisches Verständnis aber mit antrainierter Sprachlogik im Dialog zu beantworten: Welche Folgen sind hier für die Kommunikationsarbeit zu erwarten? PR-Berater Matthias Biebl erwartet einen „Kipp-Punkt in der Kommunikation“. Zwar könne die KI menschliche Kreativität und strategisches Denken nicht ersetzen, aber redaktionelle Arbeiten abnehmen, damit mehr Zeit für wesentliche Aufgaben bleibe. Damit liegen zwei wichtige Aspekte der Thematik auf dem Tisch. Worauf lässt man sich ein, wenn man Informationsrecherche und Sprachproduktion der KI überlässt? Und: Wie erwirbt man zukünftig die Kompetenzen für anspruchsvollere Aufgaben im Kommunikationsmanagement?
Der amerikanische KI-Experte Gary Marcus, emeritierter Professor für Psychologie an der New York University, sieht die Veröffentlichung von ChatGPT als „AI´s Jurassic Park Moment“ und warnt – man hat die Bilder des Spielberg-Kinohits aus den 90er Jahren vor Augen – vor den fatalen Folgen einer unzuverlässigen und für Missbrauch zugänglichen Technologie. Ähnlich argumentiert der Medienrechtler Rolf Schwartmann, wenn er darauf verweist, dass ChatGPT zum Beispiel nicht in der Lage ist, zwischen einem wörtlichen Zitat aus einem EuGH-Urteil und einer Interpretation der entsprechenden Textstelle zu unterscheiden. Für ihn stellt sich hier die fundamentale Aufgabe, „das Verhältnis zwischen Mensch und Technik neu zu regeln“, wenn man bei der Nutzung des Programms nicht seine Verantwortung abgeben wolle. Eine Lösung könne das verpflichtende Angebot eines transparenten Referenzial-Algorithmus sein.
Noch tiefer reicht indes die Kritik der Informatikerin Timnit Gebru, deren Warnung vor den Gefahren des auch ChatGPT zugrunde liegenden Natural Language Processing im Netz für Furore sorgte. In einem 2021 mit anderen Wissenschaftlern veröffentlichten Paper warnte sie vor den „Gefahren stochastischer Papageien“ – also Sprachmodellen, die mit absolutem Informationszugriff ausgestattet und unter beträchtlichem Aufwand finanzieller bzw. natürlicher Ressourcen doch immer nur den Status Quo – inklusive gesellschaftlicher Vorurteile und Machtverhältnisse – dokumentieren. Oder kürzer: ChatGPT hat alle Informationen, weiß aber eigentlich nichts und kann (zumindest noch) keinen neuen Gedanken – jenseits maschineller Zufälligkeiten – hervorbringen.
Kein Problem, es genügt ja, wenn die Maschine für den Kommunikationsprofi zunächst nur Informationen sammelt, zeitaufwendige Formulierungsarbeit erledigt und erste Entwürfe für komplexere Problemlösungen anbietet, könnte man argumentieren. Dann stellt sich aber die Frage, wie künftige Generationen die Kompetenz für die Erledigung der genannten anspruchsvolleren Aufgaben etwa in der strategischen Kommunikationsplanung überhaupt erlernen sollen, wenn nicht u.a. durch sehr viel eigenständiges Lesen und Schreiben. ChatGPT und Co. werden auch die universitäre Ausbildung auf den Kopf stellen, wenn schriftliche Leistungen kaum mehr plagiatssicher einzufordern sind. Die PR-Wissenschaftler Alexander Buhmann und Candace White konstatieren in einer aktuellen Analyse der Rolle und Auswirkungen von AI auf die PR, dass „professionelle Kommunikatoren vermutlich aktuell an die Bedeutung von etwas glauben, das sie noch nicht vollständig verstehen“.
Es steht außer Zweifel, dass ChatGPT auch Fragen zur Zukunft des Kommunikationsmanagements aufwirft. Die Antworten müssen aber differenzierter ausfallen als die Unterteilung in einfache Tätigkeiten für die KI und komplexe Kreation bzw. Strategie für den Menschen. Erst die Auslotung der tatsächlichen Potenziale im Miteinander von Mensch und KI zur Steigerung der Leistungsfähigkeit bringt uns an die Schwelle eines fundamentalen Entwicklungsschritts für das strategische Kommunikationsmanagement.