Herausforderungen verantwortungsvoller KI

Google will Künstliche Intelligenz transparent machen

| Autor / Redakteur: Thomas Joos / Stephan Augsten

Google befasst sich aktuell mit ethischen Fragen, die mit dem Voranschreiten von KI-Projekten zwangsläufig einhergehen.
Google befasst sich aktuell mit ethischen Fragen, die mit dem Voranschreiten von KI-Projekten zwangsläufig einhergehen. (Bild: Google)

Künstliche Intelligenz, kurz KI, kann die Welt etwas einfacher machen. Doch unter die aktuelle Euphorie mischen sich auch Unsicherheit und Unbehagen. Google stellt dazu Untersuchungen an.

Die Einsatzzwecke für KI-Algorithmen sind vielfältig. Sie sollen die Arbeitsbelastung von Ärzten reduzieren, Bilderkennung und Sprachübersetzungen optimieren oder auch die Wartezeit im Kundenservice reduzieren. Google selbst hat sich aus einem militärischen KI-Projekt zurückgezogen, nachdem es öffentliche Gegenreaktion erhalten hatte.

Die Kritik hat sich Google zum Anlass genommen, den verantwortungsvollen Umgang mit KI zu eruieren. Im Juni stellte Google seine KI-Prinzipien vor. Eine Diskussion über die Bedenken der Kunden wurde ebenfalls eröffnet. Die Bedenken werden in vier Bereiche unterteilt: Unlautere Vorurteile, Interpretierbarkeit, Veränderung der Arbeitskräfte und Gutes tun. Im Folgenden stellen wir die Denkanstöße vor, die Rajen Sheth, Director of Product Management für Cloud AI bei Google, in einem Blog-Eintrag geteilt hat.

Ungerechte Verzerrung

Modelle des maschinellen Lernens sind nur so zuverlässig wie die Daten, auf denen sie trainiert wurden. Da der Mensch diese Daten vorbereitet, kann die Verzerrung einen messbaren Unterschied in den Ergebnissen machen. Aufgrund der Geschwindigkeit, mit der Algorithmen arbeiten, wird die ungerechte Verzerrung verstärkt, erklärt Google.

Unfaire Verzerrung ist heute immer das Ergebnis bewusster Vorurteile – wir ziehen natürlich Menschen und Ideen an, die unsere Überzeugungen bestätigen, während wir diejenigen ablehnen, die sie herausfordern. Um Probleme der Verzerrung zu lösen, hat Google in seinem Machine-Learning-Crashkurs Bildungsressourcen wie empfohlene Praktiken zur Fairness und das Fairness-Modul geschaffen. Es konzentriert sich auch auf Dokumentation und Öffentlichkeitsarbeit, erklärte das Unternehmen.

„Ich glaube, dass das Wissen und die Werkzeuge, die wir entwickeln, einen großen Beitrag dazu leisten werden, die KI gerechter zu gestalten“, schreibt Rajen Sheth. Aber kein einziges Unternehmen könne ein derart komplexes Problem allein lösen. „Der Kampf gegen unfaire Verzerrungen wird eine kollektive Anstrengung sein, die durch die Beiträge einer Reihe von Interessengruppen geprägt ist, und wir haben uns verpflichtet zuzuhören.“

Interpretierbarkeit

Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen trifft, die sie treffen. Die Logik traditioneller Software kann durch die Untersuchung des Quellcodes ausgelegt werden. Das ist mit neuronalen Netzen nicht möglich, erklärt das Unternehmen. Laut Google werden Fortschritte durch die Etablierung von Best Practices, einen wachsenden Satz von Tools, und gemeinsame Anstrengungen zur Erreichung interpretierbarer Ergebnisse erzielt.

Veränderung der Arbeitskräfte

Unser Verhältnis zur Arbeit verändert sich, und viele Unternehmen versuchen das Potenzial der Automatisierung und den Wert ihrer Mitarbeiter in Einklang zu bringen, erklärt Google. Obwohl nicht alle Aufträge automatisiert werden können, muss etwas getan werden, um den Übergang für diejenigen zu erleichtern, die es können.

oogle hat einen 50 Millionen Dollar Fonds für gemeinnützige Organisationen eingerichtet, die sich auf diese Zeit vorbereiten, indem sie Aus- und Weiterbildung anbieten, potenzielle Mitarbeiter mit idealen Beschäftigungsmöglichkeiten auf der Grundlage von Fähigkeiten und Erfahrungen verbinden, und Arbeitnehmer in Niedriglohnarbeitsplätzen unterstützen.

Gutes tun

Die letzte Facette besteht darin, sicherzustellen, dass die KI einen positiven Effekt hat. Es gibt eine enorme Grauzone, insbesondere in Bezug auf Bereiche, wie die KI für Waffen. „Unsere Kunden befinden sich an verschiedenen Orten entlang des Spektrums der Möglichkeiten für kontroverse Anwendungsfälle und erwarten von uns, dass wir ihnen helfen zu verstehen, was KI für ihr Unternehmen bedeutet“, schrieb Sheth.

Google arbeitet mit Kunden und Produktteams zusammen, um diese Grauzonen zu überwinden. „Eine sorgfältige ethische Analyse kann uns helfen zu verstehen, welche potenziellen Einsatzmöglichkeiten unangemessen oder schädlich sind. Ethische Entscheidungspraktiken können uns helfen“, glaubt Sheth.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45600110 / Standards & Best Practices)