Corona-Tools und das Bedürfnis nach transparenter Technik

Wenn es an den eigenen Körper geht, werden Menschen schnell vorsichtig. Während wir vielen Technologien und Techniken im Alltag sonst schnell vertrauen (oder dank effektiver Werbung gar nicht erst die Vertrauensfrage stellen), verspüren wir bei Werkzeugen, die unser Leben im engen Sinne betreffen — unsere Gesundheit –, Unbehagen. Wenigstens, solange das jeweilige Werkzeug sich nicht als sicher herausgestellt hat, oder solange nicht klar ist, dass seine Urheber*innen es (und unsere Daten, die bei der Nutzung anfallen) nicht für hintergründige Zwecke missbrauchen. Gerade kann man das sehr gut an diversen Diskussionen um Corona-Tools nachvollziehen: letztes Jahr die erfreulich offene Debatte um die Ausgestaltung der ‚offiziellen‘ Corona-Warn-App, dieses Jahr die Frage, ob die Luca-App zu vorsichtigen Öffnungen von Geschäften, Restaurants oder Kulturveranstaltungen taugt, oder auch die Ängste vor den neuen Impfstoffen gegen COVID19.

Beispiel 1: Luca-Quellcode: Missglückter Transparenzversuch

Beim IT-Portal golem.de erschein kürzlich ein sehr negativer Kommentar zur Luca-App. Insbesondere wurde die Intransparenz bemängelt. Zwar wurde der Quellcode der Luca-Android-App öffentlich einsehbar gemacht, durfte aber zunächst nicht bearbeitet oder verbreitet werden. Selbst Zitate aus dem Code, etwa in Analysen, die Probleme aufdecken würden, waren verboten. Nach starker Kritik wurde die Lizenz des veröffentlichten Codes auf die bekannte GPL (GNU General Public License) geändert.

Problematisch bleibt, dass der Code nicht exakt derselbe ist, auf dem die aktuelle Android-App auf den Smartphones der Nutzer*innen beruht. Der Code der iOS-Version ist bisher gar nicht öffentlich, ebenso wenig der Code für die ‚Gegenstelle‘, also die Server des Betreibers. Das ist alles nur ein Open Source ‚Light‘ und wirkt eher wie ein Feigenblatt, das nur oberflächlich Vertrauen schaffen kann.

Zwar kann der Quellcode von Software ohnehin nur von Menschen verstanden werden, die selbst in der jeweiligen Sprache programmieren können und die Systemzusammenhänge durchschauen. Aber davon gibt es durchaus genug. Doch wenn der Quellcode nicht aktuell ist, stellt die Herstellerfirma nur scheinbare Transparenz her, und gerade das weckt Zweifel. Kommunikativ ist das nicht gerade geschickt. Statt Vertrauen erzeugt das Vorgehen der Luca-Entwickler*innen bisher eher Misstrauen, selbst wenn die Herstellerfirma und ihr PR-Gesicht, der Rapper Smudo, nur das Beste wollen.

Beispiel 2: RNA-Code des BioNTech-Impfstoffes

Bei der Weltgesundheitsorganisation war die RNA-Sequenz des COVID-Impfstoffes von BioNTech eine ganze Weile als Word-Datei verfügbar. Mittlerweile ist der Link veraltet, aber im Internetarchiv gibt es noch eine Kopie: https://web.archive.org/web/20210110172535/https://mednet-communities.net/inn/db/media/docs/11889.doc ). Wenn man mal von der Grundsatzdiskussion absieht, ob DNA und RNA mit Software-Quellcode vergleichbar sind, dann können solche Veröffentlichungen genauso nützlich sein wie veröffentlichter Quellcode — wiederum nicht direkt für Laien, aber für jene „Trivialisierungsexperten“ (Luhmann), die ihn stellvertretend für uns einschätzen und erklären. Für den BioNTech-Impfstoff hat das der niederländische Softwareentwickler Bert Hubert getan (oben auf der Seite sind auch Übersetzungen des Artikels in andere Sprachen verlinkt, u.a. Deutsch). Eine faszinierende Lektüre, die nebenbei zeigt, wie technisch mit biologischen Mechanismen umgegangen wird.

Trivialisierungsexpert*innen sind diejenigen Instanzen, denen wir stellvertretend vertrauen, wenn wir den durch sie trivialisierten Zusammenhängen selbst nicht vertrauen können, weil diese zu komplex sind, als dass wir sie als Laien ohne unverhältnismäßig hohen Lernaufwand nachvollziehen könnten. Aber wenn ein*e Trivialisierungsexpert*in in der Lage ist, die Zusammenhänge und die Folgen von Technik auf eine Weise zu kommunizieren, dass sie auch für Laien anschlussfähig wird, dann kann sich viel unnötiges Misstrauen (mit all seinen mitunter stressigen Auswirkungen) auflösen. Lehrer*innen und Wissenschaftsjournalist*innen sind typische Beispiele.

Natürlich funktioniert der Vertrauensaufbau über Trivialisierungsexpert*innen nur, wenn wir diesen Menschen trauen. Wer sowieso jedes Vertrauen in etablierte Instanzen verloren hat, wird im RNA-Beispiel auch nach der Erklärung Huberts weiter misstrauisch bleiben, etwa weiter glauben, dass der Impfstoff die menschliche DNA verändert, obwohl das rein technisch gar nicht geht. Allerdings ist so eine misstrauische Grundstimmung, wie wir sie heute oft in sozialen Medien erleben, auch eine Folge einer jahrzehntelang erlernten Blackbox-Sicht auf komplexe Technik. Glücklicherweise ändert sich das seit einiger Zeit.

Technik-Transparenz als gesellschaftliches Ideal

In meinem Buch „Nutzerverhalten verstehen — Softwarenutzen optimieren“ (2020) habe ich Technik-Transparenz als Forderung an eine Gesellschaft gestellt, „in der Menschen nicht nur als Konsumenten von Produkten funktionieren“ (S. 19). Ich bezog mich im Buch nur auf Software im engeren Sinne, aber man kann das auch auf Technik insgesamt ausweiten.

„Transparent gegenüber Nutzer*innen ist Software, wenn Nutzer*innen jederzeit die Möglichkeit haben, sich über Hintergründe und Aktivitäten der Software in der aktuellen Situation sowie über das Zustandekommen der Berechnungs- oder Verarbeitungsprozesse zu informieren“ (S. 18).

Das ist aber nicht nur eine Bringschuld der Entwickler*innen von Software bzw. Technik, sondern auch wir Nutzer*innen, wir Laien, sind gefordert, uns mit Technik beschäftigen zu wollen, zumindest wenn wir als selbstbestimmte Menschen handlungsfähig bleiben wollen. Es braucht also einerseits eine lernförderliche Umgebung — Technik, die uns einlädt, sich tiefer mit ihr zu befassen — und andererseits unseren Wunsch, zu lernen und zu verstehen.

Das „Ideal transparenter Software“ hatte ich im Buch in einer einfachen Grafik zusammengefasst:

Das Ideal transparenter Software (aus meinem Buch „Nutzerverhalten verstehen – Softwarenutzung optimieren“, 2020, S. 20)

Was da für Software dargestellt wird, gilt in Wahrheit für Technik insgesamt. Es gibt bei jeder Technik (ob nun konkret ‚anfassbare‘ Sachtechnik oder Technik im Sinne eines Verfahrens) immer die Oberflächenstruktur, mit der wir auf Technik zu-greifen oder sie verwenden, und dahinter liegende Annahmen und Modelle, die bestimmen, was wir im Zu-griff tun können und wie wir das, was wir da eigentlich tun, verstehen können.

Ich plädiere für einen stärkeren Fokus auf die Vermittlungsebene. Es reicht nicht, eine Technik nur nach ergonomischen Kriterien, Effizienzgedanken oder auch Nutzungsfreude (Joy of Use) zu gestalten. Schon bei Planung und Entwicklung sollten Wege mitgedacht werden, wie Nutzer*innen bei Bedarf auf die Tiefenstruktur zugreifen können.

(Titelbild: SplitShire / Pixabay.com)

Author: Dr. Mario Donick

#Digitalisierung #Kommunikationsanalyse #Technikvertrauen #Softwaretransparenz ... und #Spiele @DonickMario

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.