Warum UX Engineers die Menschheit vor ihrem Ende retten

Software muss dem Menschen dienen – nicht umgekehrt

| Autor / Redakteur: Michael Jendryschik * / Stephan Augsten

Intelligente Software darf den Menschen nicht übergehen, sondern muss seine Autonomie respektieren und ihm bestmöglich helfen.
Intelligente Software darf den Menschen nicht übergehen, sondern muss seine Autonomie respektieren und ihm bestmöglich helfen. (Bild: geralt - Pixabay.com / CC0)

User Experience, kurz UX, wird in der Software-Entwicklung zu selten wertgeschätzt. Dabei ist das Nutzererlebnis ein maßgeblicher Faktor für die Kundenzufriedenheit. UX Engineering könnte sogar eines der wichtigsten Berufsfelder der kommenden Jahrzehnte werden.

Einst waren die Menschen in drei Klassen eingeteilt: Wissenschaftler, geniale Führungspersönlichkeiten und bedeutende Künstler gehörten zur Klasse A, ihnen folgten Filmproduzenten, Telefondesinfizierer, Frisöre, Unternehmensberater und Versicherungsvertreter als Klasse B. Klasse C bestand aus all den Leuten, die die ganze Arbeit machten.

So beschreibt Douglas Adams in seinem Bestseller „Das Restaurant am Ende des Universums“ das Kastensystem des Planeten Golgafrincham. Um sich des überflüssigen Bevölkerungsteils B zu entledigen, sollte unter einem Vorwand der gesamte Planet per Raumschiff evakuiert werden. Das Raumschiff der Klasse B strandete auf der prähistorischen Erde, woraufhin dort die Höhlenmenschen ausstarben und die Neuankömmlinge ihren Platz einnahmen.

Nun können wir uns fragen, ob die User Experience Engineers nicht direkte Nachfahren dieser Klasse B sind. Keine herausragende Erfindung der Menschheit kam von einem UX Engineer, wir sitzen nicht in Talkshows und im Kindergarten nennt niemand diesen Berufswunsch. Sind UX Engineers also überflüssig und gehören mit der nächsten Rakete weggeschossen?

Das wäre ein großer Fehler: Schon einfachste Software kann uns zur Weißglut treiben, wenn sie nicht so funktioniert, wie wir erwarten. Das Handwerk des UX Engineers ist, Software zu gestalten, die Menschen hilft, die Ziele zu erreichen – diese Aufgabe wird immer wichtiger je komplexer und intelligenter Software wird. Und glaubt man Apokalyptikern und Transhumanisten wie Jeff Nesbit oder Nick Bostrom, werden zukünftige Software-Systeme annähernd unbegrenzt intelligent.

Jeff Nesbit, ehemals Leiter für Rechts- und Öffentlichkeitsangelegenheiten der National Science Foundation, ist überzeugt, dass die Forschungen und Entwicklungen im Bereich der Künstlichen Intelligenz (KI) in naher Zukunft zu einer Art „Supercomputer“ führen, der von Menschen unabhängig agieren könne und uns schließlich weit überlegen sei.

KI als existenzielles Risiko

Das sagt auch Nick Bostrom, Direktor des „Future of Humanity Institute“ an der Oxford University. Bostrom ist bekannt für seine Forschung über das „Existenzielle Risiko“, also der Wahrscheinlichkeit von Ereignissen, die das auf der Erde entstandene intelligente Leben auslöschen oder zumindest drastisch und permanent einschränken.

Ergänzendes zum Thema
 
Über MAXIMAGO

In seinem Bestseller „Superintelligenz“ betrachtet er KI als ein existenzielles Risiko, wenn wir die Kontrolle über die Technik verlieren und die KI den Menschen nicht mehr benötigt: Das wäre das Ende der Menschheit. Bostrom ist bei weitem nicht der Erste, der diese Behauptung aufstellt, das Blockbuster-Franchise „Terminator“ dreht sich um nichts Anderes und schon 1965 schrieb der Mathematiker Irving John Good: „Die erste superintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.“

Transformation statt Ausrottung

Auch der israelische Historiker Yuval Noah Harari sieht das Ende der Menschheit wie wir sie kennen kommen: In seinem Buch „Homo Deus“ beschreibt er aber nicht die Ausrottung durch aufmüpfige und grenzenlos aggressiv agierende Maschinen, sondern darum, dass die Menschheit sich selbst eliminiert, indem sie sich zu etwas „Höherem“ transformiert.

Er fragt: Wonach wird die Menschheit streben, wenn ihre „alteingesessenen Feinde“ Hunger, Krieg und Krankheit überwunden sind? Seiner Argumentation folgend nach Unsterblichkeit und Glück und somit nach Göttlichkeit – und auf dem Weg dorthin wird der Mensch all das verlieren, was ihn heute ausmacht.

Was bleibt denn übrig von der modernen Religion des Humanismus, wenn hochintelligente Algorithmen uns in den meisten Tätigkeiten weitaus überlegen sind und uns bald wohl möglich besser kennen als wir uns selbst? Welche Folgen könnte es für die Gesellschaft haben, wenn hochentwickelte Technologie einen Großteil der Menschen für das gegenwärtige System überflüssig macht?

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45383293 / Projektmanagement)