Windows 11 und das Problem fehlender Technik-Transparenz

Microsofts kommendes Windows-Update „Windows 11“ war in technikaffinen Medien zuletzt häufig Thema. Unter anderem, weil Microsoft eher undeutlich kommuniziert, auf welchen Computern das Betriebssystem überhaupt funktioniert und so implizit nahelegt, sicherheitshalber Geld für neue Hardware auszugeben. Aber Windows 11 steht auch stellvertretend für einen jahrelangen Trend zu immer mehr Abgeschlossenheit von Computern. Bei GameStar Plus (leider Paywall) hat Georg Löschner einen sehr guten, etwas sarkastischen Kommentar geschrieben, der auf den Punkt bringt, was das Problem bei den Produkten großer Computerkonzerne heute ist: Konzerne wie Microsoft und Apple stellen nur noch hübsche, glattgebügelte Oberflächen bereit, die kaum noch echte Eingriffe seitens der Nutzer*innen zulassen.

Die zunehmende Abgeschlossenheit von Computern bei ihrer gleichzeitig immer größeren Verbreitung in verschiedenen Formen ist ein Problem, das auch bei Über/Strom immer wieder Thema ist, und mit dem ich mich seit Jahren befasse. In meinem Buch „Nutzerverhalten verstehen – Softwareenutzen optimieren“ schreibe ich:

„Transparent gegenüber Nutzer∗innen ist Software, wenn Nutzer∗innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsergebnisse zu informieren. Die undurchsichtige Blackbox Software soll also ein Stück weit transparent gemacht werden.“ (S. 18).

Diese Art von Transparenz halte ich für wichtig, wenn wir als Nutzer*innen nicht nur Konsument*innen sein wollen, sondern weiter selbstbestimmt handeln. Und ja, das ist mit Arbeit verbunden, sowohl für Entwickler*innen als auch für Nutzer*innen:

Nutzer∗innen haben gewissermaßen eine Holschuld, indem sie bereit sein müssen, grundlegende Funktionsprinzipien von Software verstehen zu lernen. Anstatt mal indifferent, mitunter staunend, oft fluchend vor den Ausgaben eines Programms zu sitzen, sollten sie eine Vorstellung davon entwickeln wollen, was das Programm gerade für sie tut. Auf der anderen Seite haben Entwickler∗innen eine Bringschuld, indem sie Software so gestalten, dass Nutzer∗innen sie verstehen können(Hervorh. M.D., S. 19).

Ist Techniktransparenz elitär?

Aber das sehen nicht alle so. Der Nutzer „Zwart“ kommentierte unter Löschners Artikel:Elitärer Bullshit. Dass der Betrieb von PC immer einfacher wird und immer mehr Menschen dazu befähigt, das Potential zu nutzen, ist eine gute Entwicklung.“ (Hervorh. M.D.; Tippfehler habe ich im Zitat korrigiert). Auf den ersten Blick könnte man Löschners Artikel tatsächlich so sehen. Schreibt da nicht nur jemand, den es nervt, dass sein eigenes Expertentum heute nicht mehr gebraucht wird, weil heute eben jede*r einen Computer benutzen kann?

Aber der Kommentar übersieht den Kerngedanken des Artikels: Die Leute sollen heute gar nicht mehr tun wollen, was abseits schicker Oberflächen eigentlich möglich wäre. Je abgeschlossener und „glatter“ Technik wird und je weniger echte Einblick- und Eingriffsmöglichkeiten sie bietet, desto weniger wissen Menschen, welches Potenzial da eigentlich vorhanden wäre. Genau dadurch entsteht dann erst das Elitäre. Sie kommen auch gar nicht auf die Idee.

Meine Frau, die Lehrerin an einer berufsbildenden Schule ist, hat mir neulich erzählt, dass ein u.a. Technik unterrichtender Kollege festgestellt hat, dass Schüler*innen heute gar nicht mehr auf die Idee kommen, technische Geräte einfach mal auseinander zu nehmen und nachzugucken, wie die innen drin aufgebaut sind. Klar – wieso sollten sie auch? Technik lädt ja nicht mehr dazu ein. Smartphones und Tablets sind meistens verklebt, keine Schrauben oder große Lüftungsschlitze trüben das Bild. Nichtmal Akkus lassen sich wechseln.

Techno-Schamanismus?

Also ist die Technik halt da, und sie ist, wie sie ist. Georg Löschner schreibt in seinem Artikel:

„Wir beten den Rechner an, weil er läuft, ohne dass wir darüber nachdenken müssen, warum. Und wie bei jeder göttlichen Anhimmelung inklusive Selbstaufgabe stehen wir dumm da, wenn dann mal irgendwas nicht funktioniert. Denn heutzutage wird das Suchen nach dem Fehler hinter schicken ‚Ich helfe Dir! (kurz nach Hause telemetrieren, brb)‘-Mitteillungen versteckt, aber mangels Wissen, was da wo rödelt … denkt euch euern Teil.“

Die religiöse Metapher ist nicht neu, aber immer noch treffend. Schon Anfang der 1990er gab es dahingehend in einem Usenet-Posting eine dystopische „Vision“: Irgendwann wäre Software so verbreitet und verschlossen, dass wir sie nur noch wie eine Naturgewalt wahrnehmen. Nur sogenannte Techno-Schaman*innen wären in der Lage, sie im Auftrag ihres Stammes zu beherrschen. Sie wissen zwar nicht mehr, warum bestimmte Handlungen funktionieren (das hat die Gesellschaft insgesamt längst vergessen), aber zumindest, dass sie funktionieren, was für den Alltag der neuen Stammesgesellschaft ausreicht.

Unterscheiden lernen

Auch der Soziologe Niklas Luhmann sprach von Technik als Umwelt und als „zweiter Natur“, aber ganz so düster wie in o.g. Vision hat Luhmann das meines Wissens nicht ausgemalt. Technik war für Luhmann Umwelt von Gesellschaft, aber für seine eigenen Analysen noch nicht im Zentrum. Luhmann-Schüler Dirk Baecker hat das Thema seit den 2000ern dankbar aufgegriffen und theoretisch erarbeitet, wie sich Kommunikation in der „Computergesellschaft“ verändert.

In meiner Dissertation (ein kostenloses Druckexemplar schicke ich auf Anfrage gerne zu … ehrlich, die müssen weg) habe ich vor ein paar Jahren Baeckers „Formen der Kommunikation“ (2004) angewendet, um Nutzer*innen bei der Computernutzung zu beobachten und ihr Handeln besser zu verstehen. Ich habe also aufgezeichnet, was sie tun und das dann interpretiert. Systemtheoretisch ausgedrückt: Ich habe das Treffen von Unterscheidungen von Nutzer*innen-Systemen beobachtet, d.h. wie sie mit Selektionen bestimmte Elemente der Nutzungssituation vor dem Hintergrund der Situation unterschieden und damit andere Möglichkeiten ausschließen.

(Das klingt komplizierter, als es ist, darum hab ich ja auch später das oben erwähnte andere Buch geschrieben 😉 ).

Im Fazit der Arbeit schrieb ich jedenfalls:

„es [ist] nicht ausreichend, den Umgang mit Strukturen der Software zu ‚erlernen‘ oder möglichst effiziente Modelle von Nutzerhandeln zu entwickeln. Erfolgreiche Nutzung benötigt die immer wieder neue Erschließung der Software im jeweiligen Einsatzkontext. Immer wieder muss während der Nutzung erkannt werden, vor welchen Hintergründen die Nutzung weitergehen kann – grundsätzlich, und im Falle von Problemen ganz besonders. Das verlangt, sich (a) zu orientieren über die Möglichkeiten; (b) die Möglichkeiten auf ihre Eignung zum je aktuellen Zeitpunkt zu prüfen; und (c) sich zu entscheiden für eine Möglichkeit, was neue zu prüfende Möglichkeiten mit sich bringt. […] [Dazu] ist [es] nötig, das hinter der Oberfläche verborgene Funktionsprinzip der Software zu durchschauen. […] Nur wenn hinterfragt wird, was geschieht, wenn eine bestimmte sichtbare Option ausgewählt wird, kann geprüft werden, ob die Option eine geeignete Selektion wäre. (Hervorh. M.D., S. 325f.)

Früher war alles besser?

Der Trend geht freilich in genau die entgegengesetzte Richtung. Technik wird immer glatter und ihre Funktionsweise wird immer mehr versteckt. In den großen Consumer-Systemen Windows und macOS wird man kaum mehr motiviert, hinter die Oberfläche zu blicken, und weil sich Nutzer*innen daran gewöhnen, wird das auch gar nicht mehr hinterfragt oder nachgefragt. Selbstironisch stellt sich Georg Löschner im Autorenkasten seines Artikels als aus der Zeit gefallen dar. Er

„ist ein grummeliger alter Sack. Influencer und das laute Geschrei von Social Media nerven ihn, und dass die jetzt (wahrscheinlich) auch noch das neue Windows zuspammen dürfen, beschert ihm mehr Puls als ein achtfacher Espresso auf nüchternen Magen. Er kommt nämlich noch aus einer Zeit, als Rechner sich so zurechtpfriemeln ließen, wie man das gerne hätte.“

War also früher alles besser? Nein, natürlich nicht. Früher war es eine Grundvoraussetzung, zu wissen, wie ein Computer im Innern funktioniert, um ihn zu benutzen. Das war gesellschaftlich nicht gut, weil es viele Leute ausschloss.

Aber heute haben wir das andere Extrem – durch die einfachen, funktional einschränkenden Oberflächen sind Computer zwar so verbreitet wie noch nie. Aber sie sind jetzt so „einfach“, dass man gar nicht mehr auf die Idee kommt, hinter die Oberfläche zu blicken und oft nicht hinterfragt, ob das, was einem da vorgesetzt wird, wirklich wünschenswert ist.

Auch heute sind Expert*innen die einzigen, die das können; das ist nicht anders als früher. Und nach wie vor sorgt das nicht nur für Stress und Frustration, sondern – und das ist eben das Neue – für große Unklarheit darüber, was ein Computer eigentlich gerade mit unseren Daten tut. Die Hürde, das zu kontrollieren, ist hoch, und die einzige echte Wahl besteht heute nur noch darin, abzuschalten, sich mit alternatien Systemen wie Linux anzufreunden (was aber, wenn es kontrolliert sein soll, Wissen voraussetzt, das man aus genannten Gründen heute nicht mehr voraussetzen kann, also wiederum in Abhängigkeit von Expert*innen drängt) oder einfach mitzumachen in der schönen glatten durchdesignten Welt.


(Titelbild: sdx15 / shutterstock.com)

Author: Dr. Mario Donick

#Digitalisierung #Kommunikationsanalyse #Technikvertrauen #Softwaretransparenz ... und #Spiele @DonickMario

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.