Lesetipp zum Verstehen von Komplexität: Tobias Moebert zur Wahrnehmung von Mensch-Technik-Interaktionen

Forderungen an Entwickler*innen, Technik transparent zu gestalten, sowie Forderungen an Nutzer*innen, sich aktiv um ein Verständnis von Technik zu bemühen, sind zwei Seiten einer Medaille: Es geht um Handlungsfähigkeit in einer technisierten Welt. Statt jede neue Technologie (bzw. deren konkrete Ausprägung als technisches Werkzeug) immer naiv zu begrüßen oder Technik gleich grundsätzlich abzulehnen, geht es um einen reflektierten Umgang, der Vor- und Nachteile bewusst erkennt, abwägt und entsprechende Handlungsoptionen identifiziert. Das ist gerade in unserer heutigen Gesellschaft wichtig, in der es immer mehr technische Systeme gibt, die unseren Alltag auf vielfältige Weise prägen, die aber uneinsehbar erscheinen, etwa Systeme maschinellen Lernens bzw. Künstlicher Intelligenz oder erste Ansätze zum Transhumanismus.

Der vom Soziologen Niklas Luhmann gern genutzte Begriff der Blackbox, des uneinsehbaren schwarzen Kastens, ist eine bequeme Metapher, um ein grundlegendes Wahrnehmungsproblem von Technik zu bezeichnen: Wir können als bloße Nutzer*innen nicht einfach in die internen Abläufe eines Computers reinschauen. Wir können auch die Wechselwirkung technischer Systeme mit ihrer Umwelt nicht immer einfach erkennen. Und selbst Expert*innen sind mitunter von den Ergebnissen maschinellen Lernens überrascht, weil zum Beispiel künstliche neuronale Netze so viele Schichten aufweisen, dass die Funktionsweise des Netzes zwar theoretisch erklärbar, aber das Zustandekommen eines konkreten Ergebnisses nicht mehr herleitbar ist. Es ist eben alles sehr komplex mit (post)moderner Technik.

Es ist kompliziert. Oder?

Aber was genau heißt das überhaupt — Komplexität in Mensch-Technik-Zusammenhängen? Was ist der Unterschied zu Kompliziertheit? Und wie nehmen Entwickler*innen und Nutzer*innen beides wahr? Das ist eine Fragestellung, die an der Schnittstelle von Kommunikationssoziologie und Informatik angesiedelt ist und noch viel zu wenig bearbeitet wird.

Sie deutet sich an in der bekannten Arbeit der amerikanischen Anthropologin Lucy Suchman, die in „Plans and Situated Actions“ in den 1980ern ethnomethodologisch untersucht hat, wie Menschen mit Kopiergeräten umgehen. Suchman hatte das konkrete Handeln der Nutzer*innen beobachtet und analysiert und so einige Grundkonzepte menschlicher Erwartungen an Technik aufgedeckt. Insbesondere die „What’s next?“-Erwartung ist da zentral — wir neigen dazu, eine Ausgabe einer Maschine sinnhaft zu interpretieren und daraus den nächsten möglichen Handlungsschritt abzuleiten.

Wir fragen uns also „Wie geht es weiter?“ um die Nutzung aufrechtzuerhalten, ganz ähnlich wie wir auch in menschlicher Kommunikation davon ausgehen, dass unsere Partner*innen etwa entsprechend des Grice’schen Kooperationsprinzips agieren und wir deren Äußerungen sinnhaft einordnen. Problematisch wird es, wenn wir da ‚auf dem Holzweg‘ sind (Suchman nennt das „garden path“), wir also entweder eine falsche Erwartung haben oder wir glauben, wir hätten etwas falsch gemacht, obwohl wir das gar nicht haben. Solche Missverständnisse entstehen, wenn die Maschine nicht transparent und verstehbar kommuniziert, wie ihre Situationsdefinition gerade aussieht.

Doch technische Systeme sind keine Menschen und die Grundannahmen ihrer Entwickler*innen liegen selten offen. Wieso reagiert der Computer nicht auf meinen Mausklick? Wieso druckt der Drucker nicht? Und „was macht er denn jetzt schon wieder?“ — der Legende nach eine häufige Frage von Airbus-Pilot*innen, wenn der Bordcomputer des Flugzeugs wieder mal was anderes tut, als man erwartet. Wir nehmen also an, dass das System auf unsere Eingabe hin etwas Bestimmtes tut, aber dann macht es doch etwas anderes oder gleich gar nichts.

Durch die enttäuschte Erwartung kann die Nutzungssituation kompliziert, komplex, sogar chaotisch erscheinen. Das führt zum Erleben von Ungewissheit, die die fortgesetzte Nutzung gefährdet und sich nebenbei auch phänomenologisch zeigen sowie psychische Auswirkungen haben kann. Diese Beobachtung sowie deren Einbettung in aktuelle soziologische Annahmen zur Unsicherheit der Gesellschaft — ob wir sie nun mit Dirk Baecker als Computergesellschaft, mit Ulrich Beck als Risikogesellschaft oder mit Andreas Reckwitz als Gesellschaft der Singularitäten bezeichnen — war vor einigen Jahren die Grundannahme meiner eigenen Disseration zur Softwarenutzung (gibt’s auf Nachfrage aus kostenlos von mir); Ungewissheit der Softwarenutzung liegt auch meinem 2020 erschienenen Fachbuch zugrunde. In beiden Büchern plädiere ich für die direkte Beobachtung von Nutzungssituationen, um die Merkmale der Situationen außerhalb des Labors herauszuarbeiten — und die Schwierigkeiten beim Umgang mit konkreter Technik.

Wie ‚es weitergeht‘ war für Lucy Suchman eine entscheidende Frage, die wir uns als Technik-Nutzer*innen bei jedem Nutzungsschritt beantworten müssen. Daran hat sich bis heute nichts geändert. Die dabei entstehende Komplexität wird nun durch eine Arbeit von Tobias Moebert (Universität Potsdam) untersucht. (Bild: Razmik Badalyan / Pixabay.com)

Doch was Kompliziertheit und Komplexität in diesem Zusammenhang eigentlich sind, war trotz bestehender Arbeiten bisher ein Desiderat. Natürlich gibt es unterschiedliche Definitionen dieser Begriffe, doch wie beides beim ganz konkreten Umgang mit Technik wahrgenommen wird und sich auf die Nutzungssituation aus Sicht der Betroffenen auswirkt, ließ sich bislang nur indirekt aus früheren Ergebnissen ableiten. Umso positiver, dass an der Universität Potsdam am Institut für Informatik und Computational Science nun eine Dissertation zum Thema erschienen ist, die genau in diese Lücke vordringt.

Tobias Moebert: Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion

Der Informatiker Tobias Moebert hat im März 2021 seine Arbeit „Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion. Dargestellt am Beispiel Bildungstechnologie“ vorgelegt (Download als PDF über den Publikationsserver der Uni Potsdam). Moebert entwickelt darin „ein Werkzeug“, um zu untersuchen, wie Menschen Komplexität der Techniknutzung wahrnehmen und so auch den Begriff für seinen Anwendungsbereich näher einzugrenzen. Wer aber bei einer Informatik-Dissertation unter „Werkzeug“ nur ein weiteres Computerprogramm oder ein weiteres, in einer Techniker*innenblase entstandenes Vorgehensmodell erwartet, oder auch eine bloße Studie zur Benutzbarkeit eines Produkts (Usability), wird positiv überrascht. Denn Moebert hat sich intensiv mit soziologischen und sozialwissenschaftlichen Perspektiven auf Komplexität und Techniknutzung auseinandergesetzt. Konkret fragt der Autor:

„Wie nehmen Menschen Komplexität wahr? Welche Ursachen hat die Wahrnehmung von Komplexität? Welche Folgen hat die Konfrontation mit Komplexität?“ (S. 164)

Zur Beantwortung der Fragen wurden Leitfadeninterviews mit Studierenden und Wissenschaftler*innen aus Informatik, Soziologie und Psychologie durchgeführt und die erhaltenen Aussagen anschließend inhaltsanalytisch (nach Mayring) interpretiert. Die befragten Personen waren allesamt mit zwei beispielhaft untersuchten Softwarewerkzeugen aus dem Bildungsbereich befasst — Software, deren Einsatz zu genau den erwähnten komplexen, mithin ungewissen, Nutzungssituationen führen kann, zumal sich diese Software auch wechselnden Nutzungskontexten anpassen sollte (Adaptivität).

Theoriegeleiteter Ausgangspunkt der Untersuchung war, dass komplexe Situationen dynamisch sind und dass die der Situation zugrundeliegenden Ursache-Wirkungs-Beziehungen und die Handlungsfolgen der Nutzer*innen unvorhersehbar sind. Dies lässt sich durch mehrere Indikatoren ausdrücken, etwa die Wahrnehmung einer Software als „kontraintuitiv“ (Ursache/Wirkung ist nicht allein durch Intuition erfassbar und steht oft im Widerspruch zu unseren Erwartungen, S. 27) oder als „interventionsbeständig“ (weil ein System komplexer ist als unsere Fähigkeit, es zu verstehen, scheitern Eingriffe in das System oder führen zu unerwarteten Folgen, ebd.). In der Inhaltsanalyse zeigte sich nun, dass insbesondere das Merkmal der Kontraintuitivität in allen untersuchten Beispielen auftrat.

Das Problem der Intransparenz

Interessant ist in diesem Zusammenhang der Verweis auf die Wahrnehmung von Intransparenz:

„Diese Kontraintuitivität war in der Regel darauf zurückzuführen, dass den Beteiligten entscheidendes Wissen über die zugrundeliegenden Zusammenhänge der Situation gefehlt haben. Entweder war dieses Wissen generell nicht verfügbar oder durch die Intransparenz des Systems versteckt. [Hervorh. M.D.] Als Folge konnten die Beteiligten […] oft nicht richtig intuitiv beziehungsweise zielführend handeln und es war zu erwarten, dass unerwartete Handlungsfolgen auftreten würden“ (S. 165).

Gerade der Versuch, die Software als kontextsensitiv (adaptiv) zu gestalten, führte zu Transparenzproblemen:

„Auch wenn in beiden Anwendungen grundsätzliche Bemühungen vorgenommen wurden, um die basale Funktionsweise des Adaptierungsmechanismus sichtbar zu machen, bleiben viele konkrete Details jedoch im Verborgenen (z. B. Auswahl von Lehrinhalten, getroffene Annahmen etc.)“ (S. 166)

Dies führte nach Moebert zu einem für Nutzer*innen „unerreichbare[n] Detailwissen […], das lediglich dem Konstruktionskonsortium“, sprich: den Entwickler*innen bekannt war (ebd.). Genau das ist das Problem, das bei der meist üblichen intransparenten Technik häufig der Fall ist: Wir verstehen sie nicht, wir können ihre Entscheidungen nicht nachvollzuziehen, gerade wenn die Technik Fehlverhalten zeigt:

„Als Folge haben es die Nutzenden zuweilen schwer, die Adaptierungen nachzuvollziehen. Dies trifft ganz besonders dann zu, wenn Kontexterfassung und/oder Adaptierung fehlerhaft funktionieren“ (ebd.).

Moeberts Untersuchung deckte noch einige weitere typische Problemfelder auf, die sich in anderen Untersuchungen andeuteten, aber bisher, soweit mir bekannt, zumindest nicht in dieser Stringenz empirisch untersucht wurden.

Der Autor bietet im Anschluss Orientierungspunkte für Entwickler*innen, unter anderem, um intransparentes Systemverhalten zu verbessern. Moebert empfiehlt, „zwar weiterhin die komplizierten internen Mechanismen [einer adaptiven Software] außen vor zu lassen, aber Nutzenden die Möglichkeit zu geben, adaptive Entscheidungen nachzuvollziehen“ (S. 173).

Das heißt konkret, man muss als Nutzer*in nicht im Detail die Algorithmen und Modelle offengelegt bekommen, nach denen eine Software sich an einen Kontext anpasst (und wir könnten verallgemeinern: nach denen eine Software Entscheidungen trifft und Ergebnisse ermittelt). Aber die Software kann all dies durchaus in Alltagssprache verdeutlichen, und zwar nicht versteckt in der Dokumentation, sondern an der Stelle während der Nutzung, an der ein entsprechender Hinweis auch relevant ist. In dem Zusammenhang dürfte auch Moeberts Empfehlung, „die Offenheit und Ungewissheit menschlicher Lebenserfahrungen“ (S. 169) stärker zu berücksichtigen, von Bedeutung sein.

Fazit: Nicht nur für Informatiker*innen

Die Stoßrichtung von Moeberts Untersuchung und seiner abgeleiteten Empfehlungen ist unbedingt zu unterstützen und sollte weiter ausgebaut werden. Dass ich Technik-Transparenz als gesellschaftliches Ideal ansehe, habe ich erst kürzlich wieder betont. Für das Feld der KI-Forschung kennen wir die Richtung der Explainable Artificial Intelligence. Doch auch nicht-KI-basierte Technik kann komplex sein und bedarf entsprechender transparenter Unterstützung für ihre Nutzer*innen. Dies ist etwas anderes als früher übliche Forschungen zu Usability (Benutzbarkeit) und User Experience (Benutzererfahrung). Es geht um Erklärbarkeit des Handelns mit Technik in einer Situation. Hier ist noch viel zu tun, und Moeberts Arbeit ist ein wichtiges Puzzlestück dazu.

Verwandte offene Fragen sind, welche Rolle „Trivialisierungsexperten“ wie Handbuch-Autor*innen, Technik-Journalist*innen, technikbezogene Influencer*innen, die Werbung oder der technische Kundendienst in dem Kontext spielen. All diese Instanzen können Transparenz entweder fördern oder aber Komplexität bloß verschleiern. Auch eine phänomenologische Perspektive auf die Wahrnehmung von Techniknutzung ist noch ein Desiderat.

Abschließend ein Hinweis. Wie erwähnt, handelt es sich um eine Dissertation und damit eine wissenschaftliche Qualifikationsarbeit im Fach Informatik; entsprechend formal ist der Stil. Doch davon sollte sich niemand, die*der am Thema interessiert ist, abschrecken lassen. Der Text ist durchgehend gut lesbar und technisch wird es vor allem bei der Beschreibung der Fallbeispiele. Für Nicht-Techniker*innen mögen diese Kapitel etwas ermüdend sein, aber sie sind nötig, weil sie der Hintergrund sind, vor dem sich die empirischen Ergebnisse der Inhaltsanalyse erst abheben, also verstehbar werden. Und einen letzten Vorteil hat das Format der Dissertation: Die Rohdaten der Interviews (Transkripte) sind vollständig im Anhang vorhanden und ermöglichen so einerseits den direkten Nachvollzug der Ergebnisse und andererseits laden sie geradezu zu weiteren Forschungen ein.


Titelbild: Gerd Altmann / Pixabay.com

Author: Dr. Mario Donick

#Digitalisierung #Kommunikationsanalyse #Technikvertrauen #Softwaretransparenz ... und #Spiele @DonickMario

Kommentar verfassen