Region – «Ein Schüler sagte kürzlich zu mir: ‹Ich werde später Journalist. Dann muss ich nur die Aufträge in den Chatbot tippen, und die KI schreibt dann die Artikel für mich.›» Das erzählt Reto Vogt, selbst Techjournalist und Experte für künstliche Intelligenz (KI), mit einem Schmunzeln. Andere Jugendliche oder Erwachsene dürften ebenfalls die Wunschvorstellung haben, dass ihnen Chat-GPT und Co. die Denkarbeit abnehmen. Eher gilt jedoch: Wer sich in einem Thema schon auskennt oder bereits über Arbeitsmaterial verfügt, kann von KI profitieren, indem er sie gezielt einsetzt. Zum aufwandfreien Hinzaubern von Endprodukten taugt sie jedoch nicht. «Auch zur Faktenrecherche ist sie nicht geeignet», weiss Reto Vogt, der als Studienleiter Digitale Medien und KI an der Journalistenschule MAZ tätig ist. «Dafür benützt man besser eine konventionelle Suchmaschine.»
Warum das so ist, lässt sich anhand der Funktionsweise erklären. Eine KI sammelt Daten, wertet sie aus und kombiniert sie nach Bedarf neu. Die sogenannten Sprachmodelle, auch Chatbots oder Sprach-KI genannt, werden mit Unmengen von Texten gefüttert und darauf trainiert, auf dieser Basis eine Konversation zu simulieren. Was wie natürliche Sätze daherkommt, ist nichts anderes als eine Wahrscheinlichkeitsrechnung. Wird eine KI gefragt, was man aus Spargeln und Erdbeeren kochen kann, oder beauftragt, in zehn Sätzen zu erklären, wie die Glühbirne erfunden wurde, dann analysiert der Chatbot die Wortkombination unserer Eingabe und ermittelt, welches Wort am ehesten als Erstes in der Antwort darauf vorkommt. Danach errechnet er, welches Wort oder welche Wortgruppe am wahrscheinlichsten auf dieses folgt. So fährt er weiter, bis die Antwort vollendet ist. «Jede KI ist somit ausschliesslich der Wahrscheinlichkeit, nicht der Wahrheit verpflichtet», sagt Reto Vogt.
Eine Frage des Inputs
Was der Chatbot von sich gibt, klingt vertraut, weil er gängige Sprachmuster reproduziert. Ob der generierte Inhalt aber auch stimmt, ist eine andere Frage. Denn jede KI ist nur so gut wie die Daten, mit denen sie trainiert wurde. Fake News, verbreitete Vorurteile, Hassreden oder nur unbrauchbare Rezepte saugt sie ebenso selbstverständlich auf wie seriöse Inhalte. Sie gewichtet nach Häufigkeit, nicht nach Qualität, Relevanz oder Sinnhaftigkeit.
Neutral ist eine KI dabei trotzdem nicht: Die Daten bestimmter Medienanbieter zum Beispiel werden bevorzugt behandelt, wenn diese entsprechende Abkommen mit den KI-Unternehmen haben. Und die Firmen hinter den Sprachmodellen steuern über Algorithmen, was gesagt wird – oder eben nicht: Der chinesische Chatbot Deepseek hat vorgeführt, dass eine KI manipuliert werden kann, wenn gewisse Themen unterdrückt werden sollen.
Ist man sich dieser Rahmenbedingungen bewusst und bereit, das ausgespuckte Ergebnis selbst zu überprüfen, kann KI gewinnbringend eingesetzt werden. Besonders gut ist sie darin, Arbeit an bestehenden Texten zu leisten: Geschriebenes kürzen, Texte höflicher, lustiger oder sachlicher formulieren, aus einem 30-seitigen Dossier alle Informationen zu einem Thema herausfiltern, einen Sachtext in eine Aufzählung verwandeln, einen komplizierten Artikel in einfachen Sätzen wiedergeben, eine Adressdatei sortieren.
Tücken beim Datenschutz
Der Knackpunkt ist bei alldem der Datenschutz: Das Material, das man zur Bearbeitung in die gängigen KI-Systeme einspeist, ist fortan öffentlich und kann in den Ergebnissen anderer KI-Nutzer auftauchen. «Es gab einen Fall, in dem der Inhalt eines noch geheimen Patents plötzlich in den Chats von anderen Leuten erschien, weil ein Sachbearbeiter diesen mit KI optimiert hatte», berichtet Reto Vogt. Start-up-Businesspläne, Buchentwürfe oder Personendaten von Menschen, die nicht zugestimmt haben, sollten also nicht dem Chatbot gefüttert werden. Dasselbe gilt bei Transkriptionsprogrammen und Übersetzungsdiensten wie Deepl: Sie nutzen und verwerten alles, was man ihnen zur Verfügung stellt, als wäre es ihr geistiges Eigentum. Einen Ausweg bieten hier KI mit Datenschutzgarantie wie Duck.ai.
Am besten nutzt man auch solche, um sich der anderen grossen Stärke von Sprach-KI zu bedienen: Formulierungshilfe. Sei es eine Geburtstagskarte, ein Merkblatt zum Verhalten in Notfällen oder ein Geschäftsbrief: Ein Chatbot kann alles verfassen, sofern man ihn mit den richtigen Informationen versorgt. «Je detaillierter der Auftrag, desto besser das Ergebnis», erklärt Experte Reto Vogt. «Teilen Sie der KI mit, welche Inhalte hineinmüssen, welche nicht, an welches Zielpublikum sich der Text richtet, in welcher Tonlage er sein soll, welche Form und Struktur er haben und wie lang er sein soll.» Stimmt das Erstergebnis noch nicht, kann man Nachbesserungen verlangen.
Am Ende benötigt es aber stets eine menschliche Nachkontrolle, weil die KI bisweilen hinzudichtet. Reto Vogt erwähnt das Beispiel einer Medienmitteilung der Polizei zu einer angefahrenen Katze, die von einem Medium mit KI verarbeitet wurde: «Das Tier überlebte den Unfall. Laut der Zeitung war die Katze auch im Tierspital, was jedoch nicht zutraf.» Die KI hatte diese Information selbstständig ergänzt, weil ihre Wahrscheinlichkeitsrechnung dafür sprach.
Zum Schluss noch ein Wort zum Ressourcenverbrauch: KI-Chats benötigen ein Vielfaches an Strom einer normalen Suchanfrage. Zudem müssen immer grössere Rechenzentren zur Datenverarbeitung gebaut werden, die oft Strom aus fossilen Quellen, grosse Mengen Kühlwasser und mehr Mineralien für die Hardware verbrauchen. Das eigene Gehirn arbeitet in vielen Fällen sparsamer.