Der Ausgangspunkt jeder Diskussion über künstliche Intelligenz (KI) wird sich mit ziemlicher Sicherheit darauf konzentrieren, wie wir diese nutzen sollten und welche Vor- und Nachteile sie mit sich bringen könnte. Sundar Pichai von Google schlug kürzlich vor, dass künstliche Intelligenz genutzt werden könnte, um menschliche Probleme zu lösen – ein nobles Ziel. Wie wir KI letztendlich nutzen, um unsere Probleme zu lösen, und wie erfolgreich KIs letztendlich sein werden, wird jedoch allein von unserer Ethik abhängen.

Ein Algorithmus des maschinellen Lernens kann nicht sagen, ob eine Entscheidung ethisch richtig ist oder nicht. Es wird an den menschlichen Entwicklern liegen, Maschinen mit unserem eigenen Sinn für Ethik zu versehen, aber es ist nicht so einfach, nur Code für den Unterschied zwischen richtig und falsch zu programmieren.

Das Zusammenspiel von KI und Ethik

Lehre ethischer Details

Die heutigen Algorithmen des maschinellen Lernens und der künstlichen Intelligenz sind sehr gut darin, riesige Datenblöcke zu durchforsten, aber Maschinen zu lehren, diese Daten zu interpretieren und zu nutzen, kann schnell zu einigen ethischen Problemen führen.

Betrachten wir einmal als Beispiel die überaus nützliche Anwendung der Verwendung von KI, um limitierte Katastrophenressourcen in einer Stadt zu verwalten. Neben der Berechnung der schnellstmöglichen Reaktionszeiten und der Abwägung der Prioritäten von Vorfällen muss das System auch die Prioritäten im laufenden Betrieb neu bewerten und potenziell Ressourcen umleiten, was die Notwendigkeit einer kontextbezogenen und ethischen Entscheidungsfindung schafft.

Die Maximierung der Anzahl der zu helfenden Personen scheint ein vernünftiges Ziel für die KI zu sein, aber eine Maschine könnte versuchen, durch Überversorgung relativ risikoarmer Notfälle zu täuschen, um ihre Punktzahl zu maximieren und Vorfälle mit einer geringeren Erfolgswahrscheinlichkeit zu vernachlässigen. Eine Verschärfung dieser Prioritäten könnte auch zu dem gegenteiligen Effekt der Lähmung führen, bei dem das System ständig Ressourcen auf neue Fälle mit hoher Priorität umleitet, aber nie dazu übergeht, solche mit niedrigerer Priorität zu lösen. Die KI müsste die Schwere oder die Feinheiten jedes Vorfalls berücksichtigen.

Mit welcher Metrik entscheidet man den Unterschied zwischen dem Senden von Ressourcen an ein kleines Feuer, das sich auszubreiten droht, oder einem Autounfall? Sollten die Mittel von der Hilfe für einen kleinen Fall in der Nähe abgezweigt werden, der eine Weile darauf gewartet hat, an einem neuen, schwerwiegenderen Zwischenfall in größerer Entfernung teilzunehmen? Das sind schwierige Fragen, die ein Mensch kaum entscheiden kann. Es könnte noch schwieriger sein, zu programmieren, wie hier eine KI reagieren soll.

Der Bereich der KI-Sicherheit versucht, unbeabsichtigte Folgen von Regeln zu erkennen – die Definition von funktionsfähigen Belohnungs- oder Zielsystemen – und die KI daran zu hindern, Abkürzungen vorzunehmen. Jeder hat leicht unterschiedliche ethische Ideale, und wie die KI mit diesen Situationen umgeht, wird mit ziemlicher Sicherheit ein Spiegelbild der ethischen Werte sein, die wir in ihnen vorprogrammieren – aber dazu später mehr.

Der Bereich der KI-Sicherheit beschäftigt sich mit der Vorbeugung unbeabsichtigter Folgen ethischer Regeln, der Definition praktikabler Belohnungs- und Zielsysteme und der Verhinderung von Abkürzungen, um diese Ziele zu erreichen.

Es ist nicht alles Schicksal und Trübsinn, aber einige glauben, dass wir in der Lage sein könnten, bessere Ergebnisse in einigen der weniger wünschenswerten Situationen der Welt zu erzielen, indem wir die künstliche Intelligenz nutzen, um ethische Regeln konsequenter anzuwenden als die Menschen es selbst tun. Beobachter fürchten oft das Potenzial autonomer Waffen, nicht nur, weil sie tödlich sind, sondern auch, weil sie die menschliche Bindung an die moralischen Implikationen des Krieges aufheben könnten.

Die meisten Menschen verabscheuen Gewalt und Krieg, aber autonome Waffen bieten den Entwicklern die einzigartige Möglichkeit, ethische Regeln für das Engagement und die Behandlung von Zivilisten zu installieren, ohne sich über die momentanen Versäumnisse in adrenalingeladenen Situationen Gedanken zu machen. Es wäre allerdings sehr schwierig, feste Regeln für jede mögliche Kampfsituation zu finden.

Eine praktikablere Lösung könnte darin bestehen, das maschinelle Lernen zu nutzen, um die KI ihre eigenen Schlussfolgerungen über Ethik ziehen zu lassen und sie somit an unvorhersehbare Situationen anzupassen, indem man Kernprinzipien programmiert und sich auf wiederholendes Lernen und Erfahrung stützt, um die Ergebnisse zu steuern. Die Ergebnisse sind auf diese Weise weniger vorhersehbar und hängen wirklich von der Art der Ausgangsregeln ab.

 

Das Zusammenspiel von KI und Ethik

Vorurteile und Diskriminierung

Angesichts der Tatsache, dass menschlicher Einfluss und Beurteilungen unweigerlich die Entscheidungsfindung, Datenmodellierung und Ethik der KI prägen werden, ist besondere Sorgfalt erforderlich, um sicherzustellen, dass unsere Vorurteile und unlauteren Vorgaben nicht in maschinelles Lernen und KI-Algorithmen einfließen.

Einige populäre Beispiele haben bereits mögliche Probleme mit verzerrten Informationen oder fragwürdigeren Anwendungen des maschinellen Lernens aufgezeigt. Algorithmen haben fälschlicherweise die Rückfallquoten für schwarze Sträflinge überbetont. Das Lernen von Bildern hat die stereotypen Ansichten von Frauen verstärkt.

In jedem Datensatz gibt es durchaus stichhaltige Gründe für die Existenz einiger Unregelmäßigkeiten. Geschlecht, Rasse, Sprache, Familienstand, Wohnort, Alter, Bildung und vieles mehr können in bestimmten Situationen gültige Indikatoren sein, wenn auch oft nur als Teil einer mehrstufigen Analyse. Mögliche Probleme ergeben sich, wenn Algorithmen versuchen, besonders subjektive Daten für Abkürzungen zu nutzen – wobei Stereotypen oder Durchschnittswerte auf Kosten breiterer Faktoren betont werden – oder wenn die Datenerhebung grundlegend fehlerhaft ist.

Ein Algorithmus, der darauf ausgelegt ist, die geeignetsten Kandidaten für einen Job einzustellen, kann Trends identifizieren, die auf dem Geschlecht in der Industrie beruhen, wie z.B. die höhere Vertretung von Frauen in der Lehre oder von Männern in der Technik. Für sich genommen ist diese Beobachtung nicht schädlich – sie kann nützlich sein, um die Bedürfnisse der Mitarbeiter zu berücksichtigen. Wenn der Algorithmus aber eine unangemessene Betonung auf dieses Attribut legte, um seine Einstellungsrate zu maximieren, könnte er sofort Bewerbungen aus dem Minderheitengeschlecht im jeweiligen betroffenen Industriebereich verwerfen. Das ist nicht hilfreich, wenn man die Besten und Klügsten einstellen will, und es verstärkt auch Stereotypen. Die Ziele und die Ethik eines KI-Systems müssen klar definiert werden, um solche Probleme zu vermeiden, und große Unternehmen wie IBM versuchen, diese Probleme zu lösen, indem sie ethische KI-Systeme definieren und analysieren.

Das maschinelle Lernen kann nicht sagen, ob eine Entscheidung ethisch ist oder nicht. Ein Algorithmus ist nur so ethisch wie die Daten und Ziele, die in ihn eingespeist werden.

Aber wenn ein System Ergebnisse liefert, die wir für unethisch halten, geben wir dann dem Algorithmus oder den Menschen, die es geschaffen haben, die Schuld? In Fällen, in denen eine Einzelperson oder eine Gruppe ein System mit absichtlich unethischen Zielen aufgebaut hat, oder sogar in Fällen, in denen den potenziellen Ergebnissen nicht genügend Aufmerksamkeit geschenkt wurde, ist es ziemlich einfach, die Verantwortung auf die Urheber zu übertragen. Schließlich ist ein Algorithmus nur so ethisch, wie die Daten und Ziele, mit denen er gefüttert wird.

Es ist nicht immer glasklar, ob die Schuld den Entwicklern zugeschrieben werden kann, nur weil uns das Ergebnis nicht gefällt. Unregelmäßigkeiten in Daten oder Anwendungen sind nicht immer offensichtlich und es ist nicht möglich, sie immer unmittelbar zu identifizieren, so dass ein Schluss auf die Verantwortung eher in einer Grauzone liegt. Es kann schwierig sein, zu verfolgen, wie eine KI zu einem Ergebnis kommt, selbst wenn ihr Ansatz des maschinellen Lernens auf einem einfachen Satz von ethischen Regeln basiert. Wenn die KI befugt ist, ihre eigene Ethik anzupassen, ist es viel schwieriger, den Urhebern die Schuld für unerwünschte Folgen zu geben.

Das Zusammenspiel von KI und Ethik

Maschinen, die denken können

Möglicherweise müssen wir uns auch mit der Kehrseite der Medaille auseinandersetzen: Wie sollen Menschen mit Maschinen umgehen, die denken können?

Es gibt noch immer eine große Debatte über die Eigenschaften, die die allgemeine künstliche Intelligenz besitzen müsste, um sich für einen echten ursprünglichen Gedanken oder eine menschenähnliche Intelligenz zu qualifizieren, anstatt für eine überzeugende Illusion gehalten zu werden. Es gibt bereits einen Konsens über die Hauptunterschiede zwischen enger (oder angewandter) und allgemeiner KI, aber die Experten sind immer noch nicht sicher, wie man „wahre“ künstliche Intelligenz definiert und testet.

Es ist wohl keine Untertreibung zu sagen, dass das Steuern der KI-Ethik, ihre Umsetzung und deren Auswirkungen, ein Minenfeld sein wird.

Die Folgen für eine solche Erforschung oder eine weiter gefasste Definition von Intelligenz könnten uns zwingen, zu beurteilen, wie wir die KI behandeln und betrachten. Wenn die KI wirklich denken kann, sollte sie dann die gleichen oder andere Rechte und Pflichten haben wie die Menschen? Kann die KI für ein Verbrechen zur Rechenschaft gezogen werden? Wäre es unmoralisch, selbstbewusste Maschinen umzuprogrammieren oder auszuschalten?

Wir kratzen kaum an der Oberfläche der potenziellen ethischen und moralischen Probleme, die die KI möglicherweise aufwirft.

Vorgeschlagene Kriterien für die Beurteilung von KI-Intelligenz umfassen komplexes Szenario-Verständnis, Entscheidungen auf der Grundlage von Teilinformationen oder die generelle Fähigkeit eines Bearbeiters, seine Ziele in einer Vielzahl von Umgebungen zu erreichen. Selbst diese befriedigen nicht unbedingt diejenigen, die nach einem eindeutigen Unterschied zwischen Intelligenz und einem Automaten suchen. Der andere Teil des Problems ist, dass Neurowissenschaftler immer noch die Attribute des Gehirns auseinandernehmen, die mit der menschlichen Fähigkeit verbunden sind, zu denken, zu lernen und ein selbstbewusstes Bewusstsein zu bilden. Intelligenz zu definieren – nicht nur für die KI, sondern auch für den Menschen – ist vielleicht eine der größten ungelösten Fragen unserer Zeit.

Das Zusammenspiel von KI und Ethik

Fazit

Die Ethik von KI umfasst eine große Bandbreite an Themen und Szenarien, die von der Art und Weise, wie wir sie nutzen sollten, über Vorurteile und Verantwortlichkeit der Entwickler bis hin zur Natur der Art und Weise, wie wir alle Arten von Intelligenz bewerten und behandeln sollten, reichen. Die immer schnellere Entwicklung und Anwendung der KI in unserem täglichen Leben macht die Auseinandersetzung mit diesen Themen zu einer dringenden Notwendigkeit.

Es ist keine Untertreibung zu sagen, dass das Erforschen einer KI-Ethik, ihre Umsetzung und deren Auswirkungen, extrem schwierig sein wird. Es ist machbar, aber es wird einige sehr gründliche Diskussionen und Konsensbildung in der gesamten Gesellschaft erfordern.

Twitter Facebook