Warum UX Engineers die Menschheit vor ihrem Ende retten Software muss dem Menschen dienen – nicht umgekehrt

Autor / Redakteur: Michael Jendryschik * / Stephan Augsten |

User Experience, kurz UX, wird in der Software-Entwicklung zu selten wertgeschätzt. Dabei ist das Nutzererlebnis ein maßgeblicher Faktor für die Kundenzufriedenheit. UX Engineering könnte sogar eines der wichtigsten Berufsfelder der kommenden Jahrzehnte werden.

Anbieter zum Thema

Intelligente Software darf den Menschen nicht übergehen, sondern muss seine Autonomie respektieren und ihm bestmöglich helfen.
Intelligente Software darf den Menschen nicht übergehen, sondern muss seine Autonomie respektieren und ihm bestmöglich helfen.
(Bild gemeinfrei: geralt - Pixabay.com)

Einst waren die Menschen in drei Klassen eingeteilt: Wissenschaftler, geniale Führungspersönlichkeiten und bedeutende Künstler gehörten zur Klasse A, ihnen folgten Filmproduzenten, Telefondesinfizierer, Frisöre, Unternehmensberater und Versicherungsvertreter als Klasse B. Klasse C bestand aus all den Leuten, die die ganze Arbeit machten.

So beschreibt Douglas Adams in seinem Bestseller „Das Restaurant am Ende des Universums“ das Kastensystem des Planeten Golgafrincham. Um sich des überflüssigen Bevölkerungsteils B zu entledigen, sollte unter einem Vorwand der gesamte Planet per Raumschiff evakuiert werden. Das Raumschiff der Klasse B strandete auf der prähistorischen Erde, woraufhin dort die Höhlenmenschen ausstarben und die Neuankömmlinge ihren Platz einnahmen.

Nun können wir uns fragen, ob die User Experience Engineers nicht direkte Nachfahren dieser Klasse B sind. Keine herausragende Erfindung der Menschheit kam von einem UX Engineer, wir sitzen nicht in Talkshows und im Kindergarten nennt niemand diesen Berufswunsch. Sind UX Engineers also überflüssig und gehören mit der nächsten Rakete weggeschossen?

Das wäre ein großer Fehler: Schon einfachste Software kann uns zur Weißglut treiben, wenn sie nicht so funktioniert, wie wir erwarten. Das Handwerk des UX Engineers ist, Software zu gestalten, die Menschen hilft, die Ziele zu erreichen – diese Aufgabe wird immer wichtiger je komplexer und intelligenter Software wird. Und glaubt man Apokalyptikern und Transhumanisten wie Jeff Nesbit oder Nick Bostrom, werden zukünftige Software-Systeme annähernd unbegrenzt intelligent.

Jeff Nesbit, ehemals Leiter für Rechts- und Öffentlichkeitsangelegenheiten der National Science Foundation, ist überzeugt, dass die Forschungen und Entwicklungen im Bereich der Künstlichen Intelligenz (KI) in naher Zukunft zu einer Art „Supercomputer“ führen, der von Menschen unabhängig agieren könne und uns schließlich weit überlegen sei.

KI als existenzielles Risiko

Das sagt auch Nick Bostrom, Direktor des „Future of Humanity Institute“ an der Oxford University. Bostrom ist bekannt für seine Forschung über das „Existenzielle Risiko“, also der Wahrscheinlichkeit von Ereignissen, die das auf der Erde entstandene intelligente Leben auslöschen oder zumindest drastisch und permanent einschränken.

Ergänzendes zum Thema
Über MAXIMAGO

MAXIMAGO versteht sich als führende Spezialeinheit auf dem Gebiet der User-Interface-getriebenen Entwicklung.
MAXIMAGO versteht sich als führende Spezialeinheit auf dem Gebiet der User-Interface-getriebenen Entwicklung.
( Bild: MAXIMAGO )

Als Spezialist für User-Interface-getriebene Entwicklung erstellt das knapp 50 Mitarbeiter zählende Unternehmen MAXIMAGO hochqualitative Software mit .NET und HTML5: Modular, wartbar und einfach zu bedienen. Das Kompetenzspektrum reicht von der fachlichen Konzeption bis hin zur technischen Implementierung. Zu den Kunden zählen unter anderem die Ingenieursgemeinschaft für Messtechnik (IfM), Rohde & Schwarz und Ergo. Im Dezember 2017 hat MAXIMAGO die erste eigene Software-Plattform ORGENIC vorgestellt.

In seinem Bestseller „Superintelligenz“ betrachtet er KI als ein existenzielles Risiko, wenn wir die Kontrolle über die Technik verlieren und die KI den Menschen nicht mehr benötigt: Das wäre das Ende der Menschheit. Bostrom ist bei weitem nicht der Erste, der diese Behauptung aufstellt, das Blockbuster-Franchise „Terminator“ dreht sich um nichts Anderes und schon 1965 schrieb der Mathematiker Irving John Good: „Die erste superintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.“

Transformation statt Ausrottung

Auch der israelische Historiker Yuval Noah Harari sieht das Ende der Menschheit wie wir sie kennen kommen: In seinem Buch „Homo Deus“ beschreibt er aber nicht die Ausrottung durch aufmüpfige und grenzenlos aggressiv agierende Maschinen, sondern darum, dass die Menschheit sich selbst eliminiert, indem sie sich zu etwas „Höherem“ transformiert.

Er fragt: Wonach wird die Menschheit streben, wenn ihre „alteingesessenen Feinde“ Hunger, Krieg und Krankheit überwunden sind? Seiner Argumentation folgend nach Unsterblichkeit und Glück und somit nach Göttlichkeit – und auf dem Weg dorthin wird der Mensch all das verlieren, was ihn heute ausmacht.

Was bleibt denn übrig von der modernen Religion des Humanismus, wenn hochintelligente Algorithmen uns in den meisten Tätigkeiten weitaus überlegen sind und uns bald wohl möglich besser kennen als wir uns selbst? Welche Folgen könnte es für die Gesellschaft haben, wenn hochentwickelte Technologie einen Großteil der Menschen für das gegenwärtige System überflüssig macht?

(ID:45383293)