Tagtäglich haben wir es mit Algorithmen zu tun. Doch was ist ein Algorithmus eigentlich? Das erklärt Lorenz Matzat, Mitbegründer von AlgorithmWatch, im Interview mit der Landeszentrale und zeigt auf, welche Chance und Gefahren mit ihnen verbunden sind.
Was ist ein Algorithmus?
Ein Algorithmus ist im Prinzip eine Handlungsanweisung, die in mathematischen Formeln ausgedrückt wird und bei der in klaren Schritten definiert ist, wie ein Problem rechnerisch gelöst werden kann. Wir verwenden den Begriff aber vor allem in Bezug auf Software, die sich mal mehr oder mal weniger komplex, aus einer Reihe von Algorithmen zusammensetzt und Daten verarbeitet, um eine bestimmte Dienstleistung oder Funktion zu erfüllen.
Können Sie Beispiele nennen, in denen wir es im Alltag mit Algorithmen zu tun haben?
Quasi ununterbrochen: Die meisten von uns tragen Hochleistungsrechner im Hosentaschenformat mit sich – Smartphones, die durch Software gesteuert werden. Nahezu alle neueren Geräte enthalten Mikroprozessoren, deren Funktionsweise auf Algorithmen basiert. Konkret reicht das von der Zeitsteuerung der Waschmaschine über alle mögliche Anwendungssoftware im Privaten und professionellen Bereich bis hin zur Steuerung der Infrastruktur des Internets und der Stromversorgung.
Lorenz Matzat
ist Journalist und Software-Unternehmer mit den Schwerpunkten Datenjournalismus und interaktive Anwendungen. Im Jahr 2016 hat er die Nichtregierungsorganisation AlgorithmWatch mitgegründet. Deren Ziel ist es, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben.
Sie haben 2016 die Nichtregierungsorganisation AlgorithmWatch mitbegründet. Warum?
Da der Digitalisierungsgrad innerhalb unserer Gesellschaft permanent steigt, war es uns wichtig, einem Feld mehr Aufmerksamkeit zu widmen: Immer mehr Entscheidungen werden durch Software vorbereitet oder gar umgesetzt. Das halten wir nicht per se für schlecht, doch denken wir dort, wo gesellschaftliche Fragen berührt werden, müssen diese Systeme Automatischer Entscheidungsfindung (automated decision making, ADM) demokratischer Aufsicht und möglicherweise Kontrolle unterworfen werden. Sprich, wenn etwa Behörden beginnen würden, Entscheidungen über bestimmte Sozialleistungen automatisch zu gewähren oder zu versagen, sollte es von außen nachvollziehbar sein, wie das funktioniert.
Welche Chancen bieten Algorithmen für uns?
Eine stärkere Automatisierung in einigen Bereichen der Verwaltung könnte für alle Beteiligten hilfreich sein. Im Gesundheitsbereich gibt es zum Beispiel vielversprechende Entwicklungen, in denen Methoden des maschinellen Lernens die Diagnosemöglichkeiten für bestimmte Krankheitsbilder verbessern. In manchen Prozessen, etwa bei Bewerbungen für einen Job, könnte Software für mehr Fairness sorgen, weil Effekte menschlicher Stimmungen und Vorurteile minimiert werden.
Welche Gefahren sind mit Algorithmen für uns verbunden und wie können wir diesen begegnen?
Wenn Entscheidungen an Software delegiert werden, ist deren Qualität von wesentlicher Bedeutung. Wenn etwa Anwendungen anhand von Datensätzen trainiert werden, kann es hier schon zu Verzerrungen kommen und damit zu Diskriminierung. In den USA wird beispielsweise eine Software in Strafverfahren eingesetzt, die bei Strafgefangenen bewerten soll, ob sie nach einer Entlassung auf Bewährung wieder straffällig würden. Eine Untersuchung von Journalisten zeigte, dass die Software mit Statistik-Datensätzen gefüttert worden war, die rassistische Stereotype reproduzierte und Angehörigen bestimmter Bevölkerungsgruppen pauschal eine höhere Rückfallquote unterstellte. Um solchen Diskriminierungspotentialen durch automatisierte Entscheidungen begegnen zu können, muss es in teilhaberelevanten Sektoren möglich sein, Nachvollziehbarkeit über die Funktionsweise der Software herzustellen.
Brauchen wir Regeln für den Einsatz von Algorithmen und wie könnten diese aussehen?
Es gibt bereits Regulierung in manchen Industriesektoren, etwa im automatischen Handel mit Wertpapieren. Zudem sind auch in vielen Branchen und Gesellschaftsbereichen Aufsichtsbehörden vorhanden; möglicherweise müssen deren Aufgabengebiete nur angepasst oder erweitert werden und gar keine neuen Regeln her. Es ist schwer vorstellbar, dass ein Algorithmen-TÜV, wie ihn manche fordern, den vielfältigen Branchen und Feldern, in denen ADM-Systeme Einsatz finden (werden), gerecht werden kann.
Prinzipiell denken wir, dass automatisierte Entscheidungssysteme nicht als rein technologisches Thema, sondern unter sozio-technologischen Aspekten verstanden werden sollten. Entsprechend sollte im Bereich der Technologiegestaltung eine Risikofolgeabschätzung vorausgehen. Das würde beispielsweise bedeuten, dass bei den “Navis” im Auto und auf dem Smartphone andere Kriterien jenseits der schnellsten und effektivsten Verbindung berücksichtigt werden, z. B. ob Wohngebiete berührt werden oder die Strecken entlang von Naturschutzgebieten führt.
In welchen Bereichen möchten Sie Algorithmen gar nicht sehen und warum?
Im Bereich der Kriegsführung, aber auch in polizeilichen Aufgabengebieten, darf die Entscheidung über den Einsatz von Gewalt nicht Maschinen überlassen werden. Überwachungsmaßnahmen, bei denen etwa durch Gesichtserkennung vermeintliche Straftäter identifiziert werden sollen, sind aus bürgerrechtlicher Sicht zu Recht äußerst umstritten, da sie hohe Fehlerquoten aufweisen. Kurzum ließe sich sagen: Automatisierung, die unmittelbar in Freiheitsrechte und die körperliche Unversehrtheit eingreift, sollte mit großer Skepsis begegnet werden.
BLPB, März 2019
Teilen auf
Neuen Kommentar hinzufügen