Mensch sein
Die Bildserie zum Thema «Was die Welt zusammenhält» dieser Globe-Ausgabe hat eine künstliche Intelligenz (KI) erschaffen. Die Software Midjourney hat unsere Stichworte in Bilder verwandelt – mit verblüffendem Ergebnis. Die dargestellten Skulpturen gibt es in Wirklichkeit nicht. Das Programm hat die Pixel so gewählt, dass der Eindruck eines dreidimensionalen Objekts entsteht. Wie es sich für eine sogenannte generative KI gehört, hat sie damit etwas geschaffen, was es ohne sie nicht geben würde.
Andere Programme sind in der Lage, eigens Texte zu schreiben oder als Chatbots mit Menschen in Dialog zu treten. Der bekannteste Chatbot ist aktuell chatGPT. Das Programm des US-Unternehmens OpenAI nutzt eine KI, um mittels Textnachrichten zu kommunizieren. Der Aufstieg ist kometenhaft. Innerhalb zweier Monate hat das Programm die 100-Millionen-User-Schwelle geknackt. Facebook hat dafür mehr als vier Jahre gebraucht. Das analoge Telefon 75 Jahre. Google will mit ihrem neu entwickelten Chatbot Bard nachziehen.
Auch Kritiker von chatGPT liessen nicht lange auf sich warten. So gibt es Rechtsstreite wegen Urheberrechtsverletzungen im Zusammenhang mit den Daten, mit denen das zugrunde liegende Sprachmodell trainiert wurde. Ein anderer Kritikpunkt betrifft die Korrektheit der Aussagen, wenn es nicht nachvollziehbar ist, wie der Chatbot dazu kommt, und wenn keine Quellen angegeben werden.
Frage der Verantwortung
Mit dieser Thematik setzt sich auch die ETH-Professorin Gudela Grote auseinander. Für sie als Arbeitspsychologin stellt sich die Frage, wann sich eine neue Technologie verlässlich in einen Arbeitsprozess integrieren lässt. «Für die Qualitätssicherung ist es zentral, dass ein technisches System zertifiziert ist. Doch wenn nicht nachvollziehbar ist, wie es zu seinen Resultaten kommt, ist das fast unmöglich», sagt Grote. Letztlich geht es um die Verantwortung, wenn Mensch und Maschine zusammenarbeiten. «Als Arbeitnehmerin interessiert mich, wofür ich am Schluss geradestehen muss», sagt die Professorin. Das gilt nicht nur für die aufstrebende generative KI, sondern für jede Form der Automatisierung.
Für den Informatikprofessor Thomas Hofmann ist das Tempo, mit der sich das Feld der generativen KI entwickelt, beeindruckend hoch. «Aber die Wertschöpfung ist womöglich bei anderen Formen der Automatisierung noch grösser», vermutet Hofmann. Auch er sieht die Unzuverlässigkeit als Herausforderung. Alle Anwendungen, die textbasiert arbeiten, haben ein grundsätzliches Problem: Sie alle basieren auf Sprachmodellen, die dereinst mit allerhand Texten trainiert wurden, auch mit fiktiver Literatur.
Das mag sinnvoll sein, wenn es darum geht, Rechtschreibung und Grammatik zu erlernen. Aber der Faktentreue dienen erfundene Geschichten mit Sicherheit nicht. «Sprachmodelle haben aktuell gar kein Verständnis dafür, was faktisch wahr oder falsch ist», gibt Hofmann zu bedenken, zu dessen Forschungsgebiet Sprachmodelle gehören.
Freiwillig oder nicht
Für die Arbeitspsychologin Grote steht noch ein weiterer Aspekt im Zentrum: Nutzt jemand eine neue Technologie freiwillig als Privatperson oder ist jemand als arbeitnehmende Person dazu verpflichtet? Im Privaten, als Kunden der Technologiekonzerne, können wir Einfluss nehmen, indem wir die Technologie kaufen und nutzen – oder eben nicht. Darauf reagieren die Firmen und verbessern ihre Angebote. «Als Arbeitnehmerin bin ich in einen Prozess eingebunden, der nicht vollständig von mir definiert ist», sagt Grote. «Ich werde mit Technologien konfrontiert, für die sich mein Unternehmen entschieden hat, meist ohne Mitsprache der Mitarbeitenden.»
Ob die Arbeit mit der neuen Technologie gelingt, hängt von mehreren Faktoren ab. «Ganz wesentlich ist, wie kompetent und selbstwirksam sich jemand erlebt», weiss Grote. Wer zum Beispiel nicht besonders gut ausgebildet ist, hat eher Angst um den eigenen Job. Entscheidend ist auch die Kommunikation von Unternehmensseite her, in welche technologische Richtung die Reise geht. «Es muss mir als Arbeitnehmerin klar sein, wie ich mich anpassen kann und wie mich mein Arbeitgeber dabei unterstützt», sagt Grote.
Dabei wird im besten Fall auch die Frage berücksichtigt, welche Tätigkeiten wir als erfüllend ansehen. Hofmann macht ein Beispiel von Sprachmodellen, die optimiert sind für das Programmieren: «Wenn das fehlerfreie Schreiben eines bestimmten Codes für mich zehn Stunden dauert, schaffen die Modelle die gleiche Aufgabe in einem Sekundenbruchteil.» Dies ermöglicht wertvolle Zeit für andere Tätigkeiten. «Wenn sich aber jemand gerne einen Tag zurückzieht, um zu programmieren, dann macht ihn diese Entwicklung nicht glücklich», so Thomas Hofmann.
Ob Programmieren oder chatGPT, Sprachmodelle dringen in zahlreiche Bereiche unserer Gesellschaft ein. Für Gudela Grote ist die Sprache etwas ganz Besonderes. «Gesprochene Sprache ist wirklich das, was uns Menschen auszeichnet», sagt die Psychologin. «Sprache ist ein kreativer Prozess, der Gedanken in Worte fasst.» Eine menschliche Fähigkeit, die von Sprachmodellen gerade auf die Probe gestellt wird.
Ob ein Text von einer KI oder von einem Menschen geschrieben ist, macht für Thomas Hofmann einen grossen Unterschied: «Mit Sprache lassen sich auch immer Gefühle und Erlebnisse ausdrücken. Diese Erfahrung fehlt einer KI, selbst wenn ihr Text gut geschrieben ist.» Der Informatikprofessor wurde während seiner Ausbildung auch von Philosophen geprägt. Er stellt die Frage in den Raum, ob Intelligenz und Sein zwingend an ein biologisches Substrat gebunden sein müssen. Es ist eine Frage nach der Grenze zwischen künstlicher Intelligenz und dem Menschsein.