Der Landesparteitag möge beschließen, dass die Mitglieder der Bundestagsfraktion der SPD aufgefordert werden, sich dafür einzusetzen, dass
- auf Bundesebene eine Kennzeichnungspflicht für Entscheidungssysteme eingeführt wird, die Algorithmen zum Zeitpunkt ihres Entscheidungsprozesses nutzen und
- dessen einschlägige Kriterien und ihre Gewichtung transparent und nachvollziehbar für Behörden oder festgelegte Verbraucher:innenverbände offenzulegen.
Algorithmen werden mittlerweile weitläufig eingesetzt. Sie begleiten unseren Alltag, treffen teilweise lebensverändernde Entscheidungen für uns und doch wissen Verbraucher:innen kaum etwas über ihre Wirkungsweisen. Denn, obwohl die betroffene Person vielleicht sogar weiß, welche Daten verwendet wurden, weil sie diese selbst angegeben hat, kann sie nicht wissen, wie diese gewichtet oder eingeordnet werden. Auch ist häufig nicht bekannt, welche der angegebenen Daten überhaupt ausgewertet werden. Der eigentliche Entscheidungsprozess bleibt somit verborgen, sodass Verbraucher:innen aufgrund der Intransparenz nur schwer oder gar nicht nachvollziehen können, welche Entscheidungen ihnen gegenüber anhand von Algorithmen, auf Grundlage ihrer Daten, getroffen werden.
Dies ist insbesondere problematisch, da es sich oftmals um Entscheidungen bezüglich der Verteilung von Lebenschancen handelt – sei es die Vergabe von Bewerbungsgesprächen, Praktikumsplätzen, Wohnungen, Krediten, Versicherungen oder Sozialleistungen.
Als ein wichtiger Bestandteil von Entscheidungsfindungssystemen führen Algorithmen, entsprechend einer eindeutigen Handlungsanweisung, zu Problemlösungen, in dem eine bestimmte Eingabe in einer bestimmten Ausgabe resultiert.
Verbraucher:innen wissen jedoch selten, dass sie mit einem Algorithmus interagieren oder auf welcher Grundlage dieser Algorithmus Entscheidungen trifft. Diese Informationsasymmetrie liegt bei ADM-Systemen noch verstärkter vor. ADM-Systeme sind algorithmische Entscheidungsfindungssysteme, welche durch die Analyse oftmals großer personenbezogener Datenmengen und einer bestimmten, vorgegebenen Verarbeitung von Informationen, ein Ergebnis finden.
Mathematische, algorithmische Entscheidungsprozesse sind indes nicht grundsätzlich objektiver als menschengemachte. Algorithmen werden von Menschen programmiert und können dementsprechend politischen oder ideologischen Agenden folgen, sodass schon in der Auswahl der relevanten Kriterien diskriminierende Vorannahmen enthalten sein können. Demnach sind auch vermeintlich objektive Entscheidungsprozesse letztlich fehleranfällig und können unvollständig sein, da sie das Ergebnis menschlicher Arbeit und Gedankenprozesse sind. Die Anwendung selbst ist zwar frei von menschlicher Willkür, die Parameter, welche diese Anwendung bestimmen, hingegen nicht.
Zum jetzigen Zeitpunkt ist eine umfassende Kontrolle dieser, zum Teil fehleranfälligen, Systeme nicht gewährleistet. Denn derzeit ist keine vollumfängliche Einsicht der angewandten Kriterien und ihrer Gewichtung so einfach möglich und dementsprechend die Entscheidung selbst mangels Transparenz nicht nachvollziehbar. Hierdurch werden Diskriminierungen oft nicht erkannt oder angezeigt, sodass eine Schutzlücke zulasten der Verbraucher:innen existiert.
Art. 22 I lit. h DSGVO formuliert durchaus ein Recht auf aussagekräftige Informationen über die involvierte Logik von ADM-Systemen und ist im Hinblick auf das Ziel des europäischen Gesetzgebers hin, nämlich den Verbraucher:innen die effektive Ausübung ihrer Rechte zu ermöglichen, theoretisch auch ein sinnvolles Mittel, um der informationellen Asymmetrie entgegenzuwirken – nur befähigt es de facto gerade nicht die Verbraucher:innen. Es bedarf einer nationalen Konkretisierung, inwiefern Transparenz sinnvoll hergestellt werden kann, damit die Verbraucher:innen selbstbestimmt mit ADM-Systemen interagieren können. Auch Behörden oder Verbraucher:innenverbänden fehlt es derzeit an Möglichkeiten, entsprechende Überprüfungen der algorithmischen Entscheidungssysteme vorzunehmen.
Auch für Unternehmen, Organisationen, staatliche und nichtstaatliche Akteure, die ADM-Systeme nutzen, wäre ein Regelungsrahmen hilfreich, der eine sichere und transparente Nutzung möglich macht. Nicht nur werden auf diese Weise generelle Standards etabliert, ein umfassendes Transparenzangebot kann durch die gewonnene Vergleichbarkeit auch einen klaren Wettbewerbsvorteil mit sich bringen. Um diesen zu nutzen, müssen die Akteure konkretisieren, mit welcher Funktion und mit welchem Ziel Transparenz hergestellt wird, denn auch Transparenz soll kein Selbstzweck sein. Es geht um die tatsächliche Aufklärung und Selbstermächtigung der Verbraucher:innen, weshalb Transparenz nicht zur bloßen Complianceaufgabe werden darf, wie es mit unübersichtlichen Datenschutz-Erklärungen leider häufig der Fall ist. Nur die Offenlegung und die verständliche Darstellung gegenüber den Verbraucher:innen hat das Potenzial, Vertrauen in Technologie zu stärken und auch eine Akzeptanz von Algorithmen zu fördern. Die Bevölkerung muss bei den begrüßenswerten, schnellen technischen Erneuerungen mitgenommen werden, um die Partizipationsmöglichkeiten der Verbraucher:innen zu gewährleisten.
Es geht für die Verbraucher:innen um den Schutz vor Informationsasymmetrien, die Etablierung von Handlungs- und Gestaltungsräumen, sowie die Möglichkeit einer bewussten Konsumentscheidung. Erst durch Transparenz können Behörden sowie Verbraucher:innenverbände Fehler aufdecken, Entscheidungen anfechten und korrigieren, sowie gegebenenfalls auch individuelle Verbraucher:innen in ihren Rechten aufklären und befähigen, diese auch einzuklagen.
Dabei müssen die Bedürfnisse der Adressat:innen berücksichtigt werden: bei der Offenlegung der Handlungsanweisungen der Algorithmen sollte auf verständliche und leichte Sprache geachtet und auf besondere Zielgruppen, wie unter anderem Kinder, Menschen mit Behinderungen und ältere Menschen Rücksicht genommen werden.
Dahingehend obliegt es der Politik, zum einen für die Kennzeichnung von ADM-Systemen zu sorgen und zum anderen ihre Kontrolle und Verbesserung durch ihre Offenlegung zu ermöglichen.
Dafür müssen wir zunächst die Verbraucher:innen mit Kennzeichnungspflichten darauf hinweisen, dass sie überhaupt Adressat:innen von ADM-Entscheidungen werden. Dies könnte beispielsweise in Form von Pop-Up-Fenstern oder ADM-Siegeln geschehen. Dabei sollen die Verbraucher:innen über die Funktionsweise, die Methoden und Kriterien der Datenverarbeitung informiert werden, noch bevor sie mit einem ADM-System interagieren. Eine solche Kennzeichnungspflicht wurde bereits in der Verbraucher:inennschutzminister:innenkonferenz 2019 beschlossen.
In einem zweiten Schritt muss den Behörden oder festgelegten Verbraucher:innenverbänden die algorithmische Entscheidung in einer Art und Weise offengelegt werden, dass die einzelnen Entscheidungsprozesse nachvollziehbar sind und das Zustandekommen der Entscheidung transparent ist. Dafür kommt es insbesondere auf die Offenlegung der einzelnen, einschlägigen Kriterien und ihrer individuellen Gewichtung an. Nur wenn die maßgeblichen Kriterien und ihre Gewichtung der individuellen ADM-Entscheidung transparent sind, können mögliche Fehler oder diskriminierende Faktoren sichtbar gemacht und infolgedessen behoben werden.