Überschreitet künstliche Intelligenz die dünne rote Linie?
Künstliche Intelligenz (KI) prägt unser modernes Leben. Sie wird eine der bestimmenden Technologien der Zukunft sein, und es wird erwartet, dass ihr Einfluss und ihre Anwendung im Laufe der 2020er Jahre zunehmen werden. Doch es steht viel auf dem Spiel. Neben den zahllosen Vorteilen, die KI mit sich bringt, wächst auch die akademische und öffentliche Besorgnis über mangelnde Transparenz und ihren Missbrauch in vielen Bereichen des Lebens.
In diesem Umfeld hat die Europäische Kommission als eine der ersten politischen Institutionen der Welt ein Weissbuch veröffentlicht, das einen entscheidenden Schritt in Richtung eines regulatorischen Rahmens für KI darstellen könnte. Darüber hinaus hat das Europäische Parlament in diesem Jahr Vorschläge angenommen, wie die EU künstliche Intelligenz am besten regulieren kann, um Innovationen, ethische Standards und das Vertrauen in die Technologie zu fördern.
Kürzlich fand eine virtuelle Konferenz zum Thema «Governance Of and By Digital Technology» statt, die vom International Risk Governance Center (IRGC) der EPFL und dem Horizon 2020 TRIGGER Projekt der Europäischen Union veranstaltet wurde. Sie untersuchte die Prinzipien, die für die Regulierung bestehender und neu entstehender digitaler Technologien erforderlich sind, sowie die potenziellen Gefahren von Algorithmen zur Entscheidungsfindung und wie verhindert werden kann, dass diese Schaden anrichten.
Stuart Russell, Professor für Informatik an der University of California, Berkeley und Autor des populären Lehrbuchs Artificial Intelligence: A Modern Approach, meinte, dass es ein riesiges Potenzial für KI gebe. Aber wir sähen bereits die Risiken, die sich aus schlechter Konzeption von KI-Systemen ergeben, einschliesslich der Auswirkungen von Online-Fehlinformationen, Nachahmung und Täuschung.
«Ich glaube, wenn wir uns nicht schnell bewegen, wird der Mensch einfach seine Rechte, seine Macht und seine Individualität verlieren und mehr und mehr zum Subjekt der digitalen Technologie werden, anstatt deren Eigentümer zu sein. Es gibt zum Beispiel schon jetzt eine KI von 50 verschiedenen Firmenvertretern, die in Ihrer Tasche sitzt und Ihre Informationen und Ihr Geld stiehlt, so schnell sie kann, und es gibt niemanden in Ihrem Telefon, der tatsächlich für Sie arbeitet. Könnten wir das so umgestalten, dass die Software in Ihrem Telefon tatsächlich für Sie arbeitet und mit diesen anderen Unternehmen verhandelt, damit alle Ihre Daten privat bleiben?», fragte er.
«Algorithmen des bestärkenden Lernens, die die Inhalte auswählen, die Menschen auf ihren Telefonen oder anderen Geräten sehen, seien ein grosses Problem, so Russel weiter, «sie haben derzeit mehr Macht als Hitler oder Stalin jemals in ihren kühnsten Träumen gehofft hatten, über das, was Milliarden von Menschen für die meiste Zeit ihres wachen Lebens sehen und lesen. Wir könnten argumentieren, dass es eine schlechte Idee ist, diese Art von Experimenten ohne informierte Zustimmung durchzuführen, und wir müssen, genau wie bei pharmazeutischen Produkten, Studien der Stufen 1, 2 und 3 an menschlichen Probanden durchführen und uns ansehen, welche Auswirkungen diese Algorithmen auf den Verstand und das Verhalten der Menschen haben.»
Neben der Regulierung von künstlicher Intelligenz, die auf die individuelle Nutzung abzielt, konzentrierte sich eine der Konferenzdebatten auf die Frage, wie Regierungen KI bei der Entwicklung und Umsetzung der öffentlichen Politik in Bereichen wie dem Gesundheitswesen, der Stadtentwicklung oder der Bildung einsetzen könnten. Bryan Ford, ausserordentlicher Professor an der EPFL und Leiter des Decentralized and Distributed Systems Laboratory (DEDIS) an der Fakultät für Informatik und Kommunikation (IC), argumentierte, dass der vorsichtige Einsatz leistungsfähiger KI-Technologien zwar viele nützliche Rollen in Low-Level-Mechanismen spielen kann, die in vielen Anwendungsbereichen zum Einsatz kommen, dass sie aber keine legitime Rolle bei der Definition, Implementierung oder Ausführung der öffentlichen Politik zu spielen hat.
«Politische Angelegenheiten, die den Menschen betreffen, müssen eine Domäne bleiben, die ausschliesslich dem Menschen vorbehalten ist. Zum Beispiel mag KI viele gerechtfertigte Anwendungen haben, wenn es darum geht, mit elektrischen Sensoren die Anwesenheit eines Autos zu erkennen – wie schnell es fährt oder ob es an einer Kreuzung angehalten hat, aber ich würde behaupten, dass KI nicht in die Nähe der politischen Entscheidung gehört, ob der Fahrer eines Autos verdächtig ist und von der Autobahnpolizei angehalten werden sollte.»
«Da maschinelle Lernalgorithmen aus Datensätzen lernen, die historische Erfahrungen repräsentieren, wird die KI-gesteuerte Politik grundsätzlich durch die Annahme eingeschränkt, dass unsere Vergangenheit die richtige, beste oder einzig brauchbare Grundlage darstellt, auf der wir Entscheidungen für die Zukunft treffen können. Wir wissen jedoch, dass alle vergangenen und gegenwärtigen Gesellschaften höchst unvollkommen sind. Wenn wir von der Hoffnung ausgehen, unsere Gesellschaft wirklich zu verbessern, muss die Politik visionär und zukunftsorientiert sein», so Ford weiter.
Künstliche Intelligenz ist heterogen und komplex. Wenn wir über die Steuerung von und durch KI sprechen, reden wir dann über maschinelles Lernen, neuronale Netze oder autonome Agenten, oder über die verschiedenen Anwendungen von jedem von ihnen in verschiedenen Bereichen? Wahrscheinlich alles oben Genannte in vielen verschiedenen Anwendungen. Wir stehen erst am Anfang der Reise, wenn es um die Regulierung von künstlicher Intelligenz geht, eine Reise, die, da waren sich die meisten Teilnehmenden einig, geopolitische Bedeutung hat.
«Diese Fragen können direkt zu einer Reihe von Handels- und geostrategischen Konflikten führen, die ihre Lösung umso schwieriger und entscheidender machen werden. Es geht nicht nur darum, sie zu vermeiden, sondern auch darum, die Abkoppelung der USA von Europa und Europas und der USA von China zu verhindern, und das wird wirtschaftlich und geostrategisch eine grosse Herausforderung sein», meinte John Zysman, Professor für Politikwissenschaft an der University of California in Berkeley und Co-Direktor des Berkeley Roundtable on the International Economy (BRIE).
«Letztendlich gibt es eine dünne rote Linie, die KI nicht überschreiten sollte, und eine gewisse Regulierung, die die Vorteile und Risiken von KI-Anwendungen abwägt, ist notwendig. Das IRGC befasst sich mit einigen der herausforderndsten Problemen, mit denen die Gesellschaft heute konfrontiert ist, und es ist grossartig, es als Teil der IC-Fakultät zu haben», sagte James Larus, Dekan der IC-Fakultät und akademischer Direktor des International Risk Governance Center (IRGC).
Zum Abschluss der Konferenz erinnerte Marie-Valentine Florin, Executive Director des IRGC, die Teilnehmenden daran, dass künstliche Intelligenz ein Mittel zum Zweck ist, nicht das Ziel: «Als Gesellschaften brauchen wir ein Ziel. Vielleicht könnte das so etwas wie der Green Deal rund um das Thema Nachhaltigkeit sein, um möglicherweise der heutigen digitalen Transformation einen Sinn zu geben. Die digitale Transformation ist das Werkzeug, und ich glaube, die Gesellschaft hat sich noch nicht kollektiv auf ein wirkliches Ziel dafür festgelegt. Das ist es, was wir herausfinden müssen.»