5 min read
Human + Machine: Ethik, Kontrolle und Friedensgespräche
Teilen
WhatsappWhatsapp
2020-11-24 2020-11-24 24 November 2020 - Gabriele Crepaz
5 min read
Bild

Wir gelangen langsam ans Ende unserer Reise in die Welt der künstlichen Intelligenz. Die letzten beiden Szenarien, die wir mit Professor Dominik Matt, Direktor von Fraunhofer Italia und Dozent an der Freien Universität Bozen, und Professor Diego Calvanese, Forscher im Bereich künstlicher Intelligenz der Freien Universität Bozen und Mitglied der Association of Computing Machinery, aufarbeiten, befassen sich mit Ethik und Kontrolle. Zwei fundamentale Begriffe, die eine weltweite Debatte zwischen zahlreichen Experten anfeuern.

Szenario 4 – Die Ethik: Wie bringt man Maschinen bei, was ein guter Algorithmus ist? 

Das Potenzial für Missbrauch ist enorm. Größer als bei anderen technologischen Entwicklungen, fürchtet Diego Calvanese. Immer wieder hören wir, was schief gehen kann: Recruiting-Verfahren, die die Voreingenommenheit der genutzten Daten spiegeln, Gesichtserkennung, die schon 2030 jede Anonymität in China ausrottet, Chatbots, die politische Entscheidungsmechanismen manipulieren. Der Supergau: „Autonome Systeme, die autonome Waffen werden“, sagt der Forscher. Wo ist die Grenze? Oder wie bringt man Maschinen Ethik bei?

Es gibt Ansätze. Aus der Informatik selbst. Im Teilgebiet der symbolischen KI arbeiten Forscher an ethischen Regelwerken, die man in Systeme, Roboter, autonome Fahrsoftware einbauen könnte. Das Problem: „Man müsste genau definieren, was Ethik bedeutet. Man muss das formalisieren“, erklärt Diego Calvanese. Unmöglich. Bislang. Wo sich nicht einmal Menschen einig sind, was richtig ist und was falsch. Im Februar 2020 hat die EU-Kommission ihre Datenstrategie für Europa vorgestellt. Inklusive Weißbuch für die sichere Anwendung von KI: Europa will Vorreiter werden für eine vertrauenswürdige künstliche Intelligenz. Zugleich hat der Vatikan eine Ethik-Charta für künstliche Intelligenz angekündigt, die den Menschen ins Zentrum stellt. „Tolle Prinzipien, aber zu soft und allgemein“, urteilt KI-Forscher Calvanese. Maschinen brauchen klare Anweisung: „Was macht man konkret, um diese Grundsätze umzusetzen? Das ist nicht klar.“

Fraunhofer-Italia-Chef Matt setzt deshalb auf die Kraft der Vernunft. „Ich bin ein radikaler Optimist. Der Mensch hat sich immer Grenzen gesetzt. Ich glaube an den gesunden Überlebenswillen der Menschen.“ Platon, Cicero & Co fallen ihm in letzter Zeit öfter ein. Die antiken Philosophen haben die Modelle entwickelt für die demokratische Gesellschaft, in der wir heute leben. So fordert er: „Diese Modelle müssen wir weiterentwickeln.“ Und er ereifert sich, als er sagt, Latein und Philosophie, zwei Schulfächer, die viele abschaffen wollen, müssten aufgewertet werden. Außerdem sei er dafür, im Technikstudium Ethikvorlesungen einzuführen: „Das dialektische Denken, die Lust am Denken, das müssen wir fördern.“ Wer aufhört zu diskutieren, gibt Menschenmögliches auf. Ohne zu denken.

Szenario 5 – Die Kontrolle: Wie wir KI wirksam einsetzen und dabei die Hosen anbehalten.

Wer sitzt am Ende am Drücker. Mensch oder Maschine? Oder beide? Diese Frage ist noch nicht entschieden. Diego Calvanese, der aus der Entwicklung heraus in die Zukunft späht, ist alarmiert. Die Macht der großen Konzerne, der Reichtum weniger, drohende Arbeitslosigkeit und das Damoklesschwert der Superintelligenz: „Das Schlimme ist, wir lassen es laufen und tun nichts. Weder die Politiker noch die Wissenschaftler. Vielleicht ist es auch zu früh, etwas zu tun, weil schwer vorherzusehen ist, in welche Richtung sich alles entwickelt. Aber wir müssen sehr aufpassen, irgendwann sind wir am Abgrund, dann könnte es zu spät sein.“ Es geht um das richtige Maß. Stuart Russel, KI-Forscher in Berkeley, hat im Januar 2020 im Interview mit James Manyika vom McKinsey Global Institute einen Vorschlag gemacht. „Wir müssen KI neu definieren“, sagt Russell. Seit es künstliche Intelligenz gibt, geben wir ein Ziel vor und die intelligente Maschine versucht dieses Ziel zu erreichen. „Das ist zu menschlich gedacht und funktioniert nicht wirklich“, behauptet Russell. Als Beleg führt er das Schicksal von Midas an, dem mythischen Sagenkönig, der wollte, dass alles, was er berührt, sich in Gold verwandelt, und der am Ende vor Hunger starb. Russell: „Die Maschine kann das Ausmaß eines Ziels nicht ermessen, weil wir es auch nicht können.“

Wenn wir KI weiterhin fixe Ziele vorgeben, werden wir die Kontrolle verlieren, warnt Russell. Die Lösung: „Künstliche Intelligenz, die nicht einfach intelligent ist, sondern uns Nutzen bringt.“ Russell denkt dabei an ein System, das aus zwei Partnern besteht, Human und Machine, und in dem es den Menschen mit der Maschine besser geht als ohne. Keine Hexerei für den Visionär, wir müssen nur andere Algorithmen schreiben: „Nicht mehr Algorithmen, die ein Problem lösen sollen, dafür Algorithmen, die optimale Lösungen für dieses Problem finden.“ Ein feiner, aber wesentlicher Unterschied. Die Maschine schlägt Lösungsvarianten vor, der Mensch entscheidet. Perfekte Arbeitsteilung mit klarem Benefit. Neudeutsch: kollaborative Intelligenz. Russells Ansatz würde viele Ängste zerstreuen. Er lässt den Maschinen die „Würde“ und wird der Rolle des Menschen gerecht. Denn wie Matt sagt: „Eine Maschine liefert Daten, wir haben das Wissen über die Welt.“ Wenn Maschinen dann aus den Erfahrungen und Präferenzen ihrer menschlichen Partner lernen und mehr Wissen anhäufen, umso besser. Wir haben zusammen große Aufgaben zu lösen. An erster Stelle: die Klimakrise. Momentan abgelöst vom Coronavirus. Wir brauchen einen Waffenstillstand. Besser: Friedensgespräche.

Teilen
WhatsappWhatsapp