24. April 2018

KI und ethische Regeln: Microsoft-Präsident Brad Smith fordert Reglementierung

Kategorie: Innovation

Die Entwicklung der künstlichen Intelligenz macht große Fortschritte und wird einhellig als einer der großen Megatrends der kommenden Jahre tituliert. Künstliche Intelligenz wird unsere Arbeit und unseren Alltag entscheidend beeinflussen, über das Inwieweit und mit welchen Folgen lässt sich allerdings nur spekulieren, aber wahrscheinlich wird es in Richtung personalisierter Dienstleistungen, die alltägliche Nutzung von Sprachassistenten und autonomes Fahren gehen – Ansätze in diese Richtungen sind bereits jetzt zu sehen. Doch wenn künstliche Intelligenz so eine große Rolle in unserem Leben spielen wird, wie sieht es dann mit Regeln dafür aus?

Künstliche Intelligenz auf ethischen Grundlagen

Aufgrund zahlreicher utopischer und auch dystopischer Entwürfe aus Film und Literatur ist KI ein fast schon popkulturelles Phänomen geworden und Teil des öffentlichen Diskurs. Kein geringerer als Microsoft-Präsident Brad Smith hat nun vor Kurzem klare Ethikregeln für den Umgang mit künstlicher Intelligenz eingefordert, ähnlich der drei Gesetze der Robotik, welche auch nach ihrem Begründer Asimovsche Gesetze genannt werden.

Bereits Stephen Hawking hatte zu seinen Lebzeiten davor gewarnt, dass die KI außer Kontrolle geraten könnte, aber diese Aussage muss man relativieren, denn es ging ihm mit dieser Aussage darum, grundsätzlich für diese Thematik zu sensibilisieren und nicht vor einer akuten Gefahr zu warnen. Und gleichermaßen muss auch Smiths Forderung gewertet werden, wenn er appelliert, dass Staat, Wirtschaft und Gesellschaft diesen Herausforderungen frühzeitig begegnen und sich baldmöglichst auf gemeinsame ethische Regeln im Umgang mit Künstlicher Intelligenz einigen sollen. Grundsätzlich sind sich Experten einig, dass wir von einem Szenario, wo es überhaupt im Ansatz denkbar wäre, dass Computer die Welt übernehmen könnten, noch Jahrzehnte entfernt sind, denn KI steht nach wie vor in den Kinderschuhen. Je früher man sich aber über diesen Sachverhalt Gedanken macht, desto besser und umfassender kann man diese gemeinsamen Regeln formulieren.

Das moralische Dilemma beim autonomen Fahren als Beispiel

Das Formulieren gemeinsamer ethischer Regeln ist aber keineswegs ein Selbstgänger und die entscheidende Frage lautet, mit welcher Entscheidungsethik stattet man die der KI zugrundeliegenden Entscheidungsfindungs-Algorithmen aus? Das Stichwort heißt vorhersagende Analyse. Um autonom Prozesse steuern zu können, muss KI vorausschauend Situation, Risiken und Potentiale einschätzen lernen und daraus Handlungen ableiten. Im Bereich des autonomen Fahrens gilt es beispielsweise als sicher, dass es weiterhin Unfallsituationen geben wird, bei denen Todesopfer nicht vermeidbar, sondern höchstens wählbar sind. Um zu verdeutlichen, wie wichtig es ist, einer künstlichen Intelligenz ein ethisches Verständnis einzuprogrammieren, wird immer wieder gerne der Death Algorithm ins Feld geführt. Dieser soll bei einem selbstfahrenden Auto die Entscheidungsfindung bestimmen, ob es in einer Notfallsituation besser wäre, ein Fahrzeug lieber in eine Gruppe von Fußgängern, auf eine Mutter mit Kind oder doch gegen eine Hauswand zu fahren.

Auf welchen ethischen Grundlagen, ein Algorithmus basieren soll, der eine KI dann zum Handeln, in diesem Fall zum Wählen der Opfer, befähigt, ist eine extrem spannende und wichtige Frage, die es im Bereich der künstlichen Intelligenz zu klären geben wird. Ginge es nach unserer Rechtssprechung und der dieser zugrundeliegenden Ethik, dürfte das Leben von Menschen nicht gegeneinander abgewogen werden und auch das Reduzieren eines Menschen zum Mittel zum Zweck wäre rechtswidrig. Dies bedeutet im Klartext das Leben eines Kindes ist nicht mehr wert als das eines alten Menschen und auch das Opfern eines Menschen, um dadurch zehn oder 100 Menschen zu retten, wäre nicht Rechtens. Man sieht, es handelt sich hierbei um eine moralphilosophische Frage über die sich auf vortrefflich in kleiner weingeschwängerter Runde diskutieren und streiten lässt.

Wie lauter Smiths Forderung

Und die oben erwähnte Entscheidungsethik ist nur ein Bereich, den es zu klären gäbe. Smith Forderung z.B. behandelt noch einen weiteren wichtigen Aspekt und lautet, dass KI niemanden ausgrenzen dürfe. Um dies zu gewährleisten, müsse bei der Entwicklung und beim Training von künstlicher Intelligenz Diversität eine größere Gewichtung einnehmen. Keine Forderung, die aus der Luft gegriffen wäre, denn bereits Bilderkennungssysteme aus der Vergangenheit, die allgemein als Vorreiter für KI gelten, zeigten sich außerstande, Menschen zu erkennen, die einer Ethnie mit nichtweißer Hautfarbe angehörten. Dies lag daran, dass die verantwortlichen Entwicklerteams, es scheinbar schlicht versäumt hatten, bei den Testdaten auch Gesichter von Menschen mit unterschiedlichen Hautfarben einzusetzen: Ein ärgerlicher Sachverhalt, wenn es um Gesichtserkennung zum Entsperren von Smartphones geht, ein ungleich folgenreicherer, wenn Entsprechendes bei komplexeren KI-Systemen auftreten würde.

Smith sieht nicht nur die Entwickler in der Pflicht, sondern stellt sich ein interdisziplinäres Zusammenspiel aus Informatik, Geschichtswissenschaften, Philosophie und Psychologie vor, um zukünftige KI-Systeme mit ethischen Skills auszustatten. Nur so könne ein Mit- und nebeneinander von Mensch und „intelligenter Maschine“ dauerhaft funktionieren.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert