Künstliche Intelligenz wird zum Politikum

In den vergangenen Monaten haben die Regierungen verschiedener Staaten sowie andere Organisationen verstärkt ihr Augenmerk auf die Technologie der Künstlichen Intelligenz (KI) gerichtet. Es sieht so aus, als ob KI bald in allen Lebensbereichen des Menschen eine wichtige Rolle spielen wird. Es ergeben sich daher durch den Einsatz von KI zunehmend soziale, wirtschaftliche und gesellschaftliche Auswirkungen. Ob diese Veränderungen einer staatlichen Kontrolle und Überprüfung bedürfen, wird momentan in verschiedenen Gremien diskutiert und es gibt erste Ansätze für KI-Regelwerke, aus denen sich später evtl. neue Gesetze ergeben. Ich möchte diese neue Entwicklung im Folgenden etwas näher untersuchen.

In welchen Fällen berührt der Einsatz von KI staatliche Interessen?

Mögliche Einschränkung der Grundrechte

KI wird zunehmend zur Entscheidungsfindung genutzt, um Menschen den Zugang oder die Teilhabe an bestimmten gesellschaftlichen Prozessen zu ermöglichen oder zu verwehren. Es ist aufwändig, wenn nicht gar unmöglich, die Algorithmen auf die Einhaltung ethischer Prinzipien zu trainieren. Aufgrund dieser Unzulänglichkeiten kann die Einhaltung von persönlichen Grundrechten beim Einsatz von KI unter Umständen gefährdet sein:

  • Meinungsfreiheit: Jeder hat das Recht, seine Meinung frei zu äußern. Davon abgesehen sind die Betreiber von Internetplattformen dazu verpflichtet, die Äußerungen der Nutzer auf Hetze, Urheberrechtsverletzungen und ähnliches zu überprüfen und ggf. zu filtern (Upload-Filter). Es besteht die Gefahr, dass die Filteralgorithmen auch legitime Meinungsäußerungen entfernen.Im engen Zusammenhang zur Meinungsfreiheit gehört die Möglichkeit der Meinungsbildung. Es wird befürchtet, dass die Betreiber großer Internetplattformen die Meinungsbildung der Nutzer beeinflussen. So werden z.B. die Ergebnisse von Suchanfragen, die Anordnung von Meldungen im Newsfeed oder die Anzeige von Werbung durch Algorithmen gesteuert, die auf das jeweilige Nutzerprofil abgestimmt sind. Es besteht die Gefahr, dass ein einseitiges Meinungsbild verstärkt wird und andere Meinungen weniger wahrgenommen werden.
  • Datenschutz: Es darf nicht sein, dass die Preisgabe von persönlichen Daten die Voraussetzung zur Teilhabe an bestimmten Prozessen oder Gütern ist. Der Begriff Datenkolonialismus wurde bereits geprägt, um zu zeigen, welchen Druck manche Unternehmen ausüben, um an auswertbare Daten heranzukommen. Beispiele sind Callcenter oder Speditionen, die ihre Mitarbeiter zum Teil permanent digital überwachen, oder Arbeitgeber und Versicherungen, die einen Nachweis sportlicher Aktivitäten mittels Gesundheitstracker fordern.
  • Gerechtigkeit, Diskriminierungsfreiheit: Algorithmen können darauf trainiert werden, Auswahlprozesse durchzuführen wie z.B. bei der Vergabe von Krediten, Studienplätzen oder Arbeitsplätzen. Dabei kann eine unbeabsichtigte Diskriminierung von Kandidaten auftreten. Die Ursache liegt häufig in den Daten, mit denen der Algorithmus trainiert wurde. Der Algorithmus kann daraus z.B. die Schlussfolgerung ziehen, dass Personen mit einem bestimmten Geschlecht, einer bestimmten Herkunft oder einem bestimmten Wohnort generell nicht auswahlwürdig sind. Es entsteht eine systematische Benachteiligung von Personengruppen, die jedem Gerechtigkeitsprinzip widerspricht. Es ist eine große Herausforderung, Trainingsdaten so vielfältig und differenziert zu gestalten, dass sie die Realität ausreichend genau abbilden und damit eine hochwertige Lerngrundlage für den Algorithmus bilden (Zitat: "Steckt man Müll rein, kommt Müll raus.").
  • Solidarität: Wenn die Teilhabe an Dienstleistungen und Gütern von einem individuellen, digitalen Persönlichkeitsprofil (z.B. von einem Gesundheitsprofil eines Gesundheitstrackers) abhängig gemacht wird, ist das Prinzip der Solidarität stark gefährdet. Im Papier der D64-Arbeitsgruppe zur Künstlichen Intelligenz wurde treffend argumentiert:

    Versicherungen, die erhobene Daten zur Anpassung individueller Beiträge einsetzen, veranschaulichen, wie tragende Säulen des Gemeinwesens durch Nutzung von KI unterlaufen werden können. Versicherungen basieren bisher auf der kollektiven Absicherung individueller Schäden – dem Solidarprinzip. Risikofaktoren werden in der Regel lediglich durch Bildung gleichartiger Risikogruppen berücksichtigt. Setzen sich risikobasierte Individualtarife am Markt durch, wird das Solidarprinzip langfristig unterlaufen. Die Folge wäre, dass die Schwachen und – damit nicht selten einhergehend – stärker risikobehafteten Schultern sich nicht mehr auf die Solidarität der Gemeinschaft werden verlassen können. Dies gilt nicht nur im Versicherungsbereich und stellt den bisherigen gesellschaftlichen Grundkonsens unserer sozialen und solidarischen Gesellschaft in Frage. Das wollen wir nicht hinnehmen.

Passende Artikel:

Artikel bei d-64.org: Der Einfluss Künstlicher Intelligenz auf Freiheit, Gerechtigkeit und Solidarität

Artikel bei agorithmenethik.de: Teilhabe, ausgerechnet: Wie Algorithmen Teilhabe ermöglichen können

Artikel bei industry-of-things.de: KI: Maschinen mit Sinn für Gerechtigkeit

KI als Wirtschaftsfaktor

Künstliche Intelligenz kann Unternehmen produktiver machen und neue Geschäftsfelder eröffnen. Gleichzeitig gibt es eine gewisse Hürde oder Hemmschwelle, um KI in bestehende Unternehmensabläufe zu integrieren oder neue, auf KI basierende Geschäftsideen umzusetzen. Damit Deutschland auf diesem Gebiet im internationalen Wettbewerb mithalten kann, ist eine staatliche Förderung für den wirtschaftlichen Einsatz von KI-Technologien hilfreich. Gleichzeitig muss die Informatik-Ausbildung an allen Bildungseinrichtungen entsprechend modernisiert werden, damit der Nachwuchs rechtzeitig mit dem notwendigen, für die Industrie relevanten Grundwissen ausgestattet wird.

Klare Rechtssprechung bei Unfällen oder Gesetzesübertretungen durch KI

Es muss geklärt werden, wer haftbar gemacht wird, wenn die KI Fehlentscheidungen macht. Dazu gehören durch KI verursachte Unfälle, Fehldiagnosen oder falsche Vorhersagen. Wird in Zukunft die KI als Rechtsperson eingestuft und selbst haftbar gemacht? Andernfalls müssen der Hersteller bzw. der Systembetreiber zur Verantwortung gezogen werden. Für eine KI als Rechtsperson spricht, dass die Lösungswege der Algorithmen im Einzelnen oft schwer nachvollziehbar oder erklärbar sind. Das Problem wird noch verschärft, weil KI oft aus den vorhandenen Daten lernt und neues Wissen ansammelt. Weder Hersteller noch Betreiber können im Voraus eine Garantie dafür geben, dass die KI keine Fehlentscheidungen treffen wird. Gegen eine KI als Rechtsperson spricht, dass eine Software nicht bestraft werden kann:

In einem maschinen-übergreifenden Haftungsrechtssystem müsste diese zunächst mit Startkapital ausgestattet werden, von dem aus die Maschine Haftungsschäden bezahlt. Damit gehen zahlreiche Probleme einher: Woher kommt das Kapital und wie hoch ist es? Zudem entsteht das Problem, dass diese Form der „Strafe“ durch Haftung keinen Einfluss auf die „Moral“ der Maschine hat. Sie könnte ihr Verhalten lediglich gemäß Trial and Error-Prinzip optimieren. Die Behandlung von KI als eigene Rechtspersönlichkeit wirkt insgesamt nicht salonfähig und wird von Experten abgelehnt.

KI darf nicht zu einem Einstiegspunkt in einen rechtsfreien Raum werden. Daher gilt nach wie vor: "... dass derjenige, der den Nutzen aus dem Einsatz einer gefährlichen Sache zieht, auch dafür haftet."

Quelle: Artikel bei Sage.com: Künstliche Intelligenz als Rechtspersönlichkeit? Wer haftet eigentlich für Fehler?

Passende Artikel:

Artikel bei telemedicus.info: Künstliche Intelligenz und Produkthaftung

Machtbegrenzung großer Konzerne

Wenige große Konzerne verfügen über einen immensen Bestand an Profildaten zahlreicher Bürger. Damit verbunden sind eine gewisse politische Macht und Möglichkeiten zur politischen Einflussnahme, z.B. durch gezielte Beeinflussung der Meinungsbildung. Möglicherweise müssen bestimmte persönliche Daten bzw. das Wissen, das daraus gewonnen wird (z.B. medizinisches Wissen) zu einem öffentlichen Gut erklärt werden, um es der Kontrolle durch private Unternehmen zu entziehen. Der öffentliche Zugang zu KI-Daten kann zudem Innovationen beschleunigen.

Passende Artikel:

Artikel bei faz.net: Datenkolonialismus begrenzen

Artikel bei derstandard.de: Datenexperte de Witte: KI wird die Medizin revolutionieren

Artikel bei heise.de: Morozov: Künstliche Intelligenz sollte ein öffentliches Gut sein

Welche Regelwerke wurden von verschiedenen politischen Organisationen bisher aufgestellt?

Ethik-Leitlinien für eine vertrauenswürdige KI

  • Erstellt von einer Expertengruppe der Europäischen Kommission
  • Enthält Anforderungen an eine vertrauenswürdige KI im Hinblick auf die Bewahrung der Grundrechte
  • Zum Dokument

OECD-Grundsätze für Künstliche Intelligenz

  • Die Empfehlung enthält fünf wertebasierte Grundsätze für eine verantwortungsvolle Steuerung
    vertrauenswürdiger KI
  • Zum Dokument

Strategie Künstliche Intelligenz der Bundesregierung

  • Die Bundesregierung legt 12 Handlungsfelder u.a. auf den Gebieten Forschung, Wirtschaft, Arbeitswelt und Ausbildung fest.
  • Ein Handlungsfeld befasst sich mit dem Thema "Daten verfügbar machen und Nutzung erleichtern". Zitat: "Wir werden den Bedarf für eine Daten- und Analyseinfrastruktur und die dafür notwendige öffentlich-private Kooperationsbereitschaft prüfen."
  • Zum Dokument

Datenethikkommission der Bundesregierung

KI-Strategien der einzelnen Bundesländer

Internationale KI-Strategien

Welche Kritik und Diskussionen gibt es zu den Regelwerken?

Die Ethikrichtlinien der EU-Kommission werden von Thomas Metzinger kritisiert, der ein Mitglied der Expertengruppe war. Er kritisiert, das im Dokument keine klaren "roten Linien", also nicht-verhandelbare ethische Prinzipien, definiert werden. Zu den roten Linien würden eigentlich folgende Einsatzmöglichkeiten von KI gehören: der Einsatz von tödlichen autonomen Waffensystemen, eine KI-gestützte Bewertung von Bürgern durch den Staat (Social Scoring) und der Einsatz von KI, die Menschen nicht mehr verstehen und kontrollieren können. Die Ethik-Anforderungen würden stattdessen "verwässert" und abgeschwächt dargestellt. Thomas Metzinger befürchtet eine "Fake-Ethik", also KI-Richtlinien, die mit ethischen Phrasen beeindrucken, aber letztendlich keinen Handlungsdruck aufbauen. Er befürchtet zudem eine Unterwanderung von Expertengruppen und Kommissionen durch Vertreter großer Industriekonzerne.

Passende Artikel:

Artikel bei tagesspiegel.de: Nehmt der Industrie die Ethik weg!

Artikel bei zeit.de: Eine Frage der Ethik

Written By

blaustern

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Mit dem Nutzen des Kommentarbereiches erklären Sie sich mit der Datenschutzerklärung einverstanden.