Klopfers Web » Texte » Lästereien » Ferdinand von Schirach: Jeder Mensch

Ferdinand von Schirach: Jeder Mensch

Na gut, wir sind auf Seite 18 angelangt, hau raus, was du zu sagen hast, Ferdinand.

Wir,

die Bürgerinnen und Bürger der Europäischen Union,

erachten die nachfolgenden Grundrechte,

in Ergänzung der Allgemeinen Erklärung der Menschenrechte, der Europäischen Menschenrechtskonventionen, der Charta der Grundrechte der Europäischen Union und der Verfassungen der Mitgliedsstaaten,

als selbstverständlich:

Und das Zitat ist schon wieder mehr als eine halbe Seite in dem Buch. Verdammte Zeilenschinderei.

Artikel 1 – Umwelt

Jeder Mensch hat das Recht, in einer gesunden und geschützten Umwelt zu leben.

Wenn jeder in einem Naturschutzgebiet leben darf, wird es bald keins mehr sein. :brille:

Wir kommen nicht umhin, unsere Umwelt zu beeinflussen. Jedes Haus, jede Abwasserleitung, jedes Windrad und jedes Medikament ist eine Belastung für die Umwelt. Wenn wir irgendwie leben wollen, können wir uns nur Gedanken darüber machen, in welchem Maß wir die Umwelt belasten können, ohne sie zu sehr zu schädigen, und wie viel Schutz überhaupt möglich ist. Nun sind viele Menschen geborene Aufmerksamkeitshuren, für die nie etwas genug ist, ganz einfach, weil sie sich damit profilieren und moralisch über andere erheben können. Und da wir immer die Umwelt beeinflussen, kann immer irgendein Nervenarsch kommen und rumnölen, dass sein Recht, in einer „gesunden und geschützten Umwelt“ zu leben, nicht genug gewürdigt wird.

Artikel 2 – Digitale Selbstbestimmung

Jeder Mensch hat das Recht auf digitale Selbstbestimmung. Die Ausforschung oder Manipulation von Menschen ist verboten.

Immer, wenn Leute so sehr auf „digitale Selbstbestimmung“ pochen, frage ich mich: Wenn Selbstbestimmung für sie so wichtig ist, warum beschränken sie sie aufs Digitale? Und das mit der Ausforschung und Manipulation ist so unscharf, dass es gar nicht zu gebrauchen ist. Darf die Polizei keine Verdächtigen ausforschen? Und wie ernst nimmt man das Verbot von Manipulation? Sich vor anderen nur von der besten Seite zu zeigen, ist manipulativ. Die Auswahl von Zeitungen, über welche Ereignisse sie wie berichten und welche Fotos oder Videos dabei verwendet werden, ist oft manipulativ.

Aber es gibt ja sogar eine Website zum Buch, und dort gibt es einen FAQ-Bereich zu den vorgeschlagenen Grundrechten. (Keine Ahnung, warum der den nicht ins Buch genommen hat.) Darin findet sich auch ein Absatz zu diesem Artikel.

(Art. 2) Was heißt denn Manipulation? Wäre dann nicht jede Werbeanzeige verboten?

Das Verbot der „Manipulation“ von Menschen ist im Kontext des gesamten Artikels 2 zu verstehen, also des Rechts auf digitale Selbstbestimmung. Verboten ist die Ausnutzung personenbezogener Daten, um Menschen zu einem bestimmten Verhalten zu bewegen, ohne dass das für sie durchschaubar ist. Stellen Sie sich zum Beispiel vor, dass Facebook an Ihrem Surfverhalten erkennt, dass Sie traurig sind und Ihnen deshalb Süßigkeiten zum Kauf anbietet, oder dass eine Firma mit Persönlichkeitsprofilen Personen identifiziert, die besonders empfänglich für rechtsradikale Parteien sind, um ihnen Wahlwerbung anzuzeigen – das wären nach Artikel 2 verbotene Manipulationen. Nicht verboten ist ganz gewöhnliche Werbung, die nicht auf personenbezogenen Daten basiert und die auch jeder Mensch als solche erkennen und einordnen kann.

Ach so, Manipulation ist nur dann verboten, wenn sie digital ist, logisch. Wie soll das überhaupt nachvollzogen werden? Wenn vor einem traurigen Liebeslied auf Youtube Schokoladenwerbung eingeblendet wird, passt das zum Inhalt, aber natürlich auch zum Surfverhalten, denn durch Zufall kommt ja keiner auf so ein Video. Außerdem: Wer „empfänglich für rechtsradikale Parteien“ ist, der braucht keine Wahlwerbung dafür und muss auch nicht davor geschützt werden. (Politische Werbung ist sowieso notorisch wirkungslos, ebenso wie TV-Duelle.) Was „ganz gewöhnliche Werbung“ ist, die „jeder Mensch als solche erkennen kann“, ist sowieso ein Streitthema, immerhin wird Kindern regelmäßig nicht zugetraut zu erkennen, was Werbung ist, und viele Erwachsene sind da auch nicht cleverer.

Ich wäre auch dafür, Werbung im Internet wieder eher kontextbasiert als persönlichkeitsbasiert auszuspielen, aber dieser Ansatz hier erscheint mir eher untauglich.

Artikel 3 – Künstliche Intelligenz

Jeder Mensch hat das Recht, dass ihn belastende Algorithmen transparent, überprüfbar und fair sind. Wesentliche Entscheidungen muss ein Mensch treffen.

Künstliche Intelligenz ist im Ergebnis angewandte Statistik. Aber nur weil der Algorithmus klar ist, mit dem eine KI angelernt wurde, heißt das noch nicht, dass die Entscheidung überprüfbar ist. Beim maschinellen Lernen werden der KI ein Haufen Daten und die erwarteten Ergebnisse gegeben, und die KI muss dann selbst schauen, wie sie die Eingaben so verarbeitet, dass am Ende das rauskommt, was man erwartet. Dann wird mit neuen Datensätzen (inklusive erwarteten Ausgaben) überprüft, ob die KI so arbeitet, wie man das erwartet, und wenn das zutrifft, lässt man neue Daten auf sie los. Die KI weiß aber nicht, was die Daten bedeuten, daher kann man auch nicht „überprüfen“, wieso sie auf eine bestimmte Ausgabe gekommen ist. KI ist keine Ansammlung von leicht verständlichen „Wenn Einkommen > 10000 Euro/Monat, dann ist das gut“-Abfragen, meist ist es einfach nur eine Black Box. (Bei Schriftenerkennung durch KI kann man auch nicht sagen, woher eine KI erkennt, dass ein Buchstabe ein B ist. Man kann nicht danach gehen, dass da ein langer Strich und zwei Bögen sind, denn die KI sieht den Buchstaben nicht so.) Dass die KI selbst lernt und man ihr nicht vorgibt, wie sie zu arbeiten hat, macht sie ja erst zu einer Art Intelligenz.

Fairness ist natürlich subjektiv. Ist es fair, wenn zum Beispiel jemand höhere Versicherungsbeiträge zahlen muss, wenn für Leute mit gleichen Merkmalen (Wohnort, Einkommen etc.) laut Erfahrungswerten ein Schadensfall überdurchschnittlich wahrscheinlich ist, obwohl derjenige beteuert, ganz anders zu sein? Für die anderen Versicherten, aus deren Beiträgen ein Schadensfall reguliert wird, vermutlich schon, der Betroffene empfindet sicherlich anders. In solchen Fällen ist die KI auch oft nur ein Sündenbock, dem man die Verantwortung für eine Entscheidung zuschieben kann, die ein Mensch genauso getroffen hätte.

Und auch wenn ich mir selbst wünsche, dass jede wichtige KI-Entscheidung von einem Menschen überprüft wird, bevor sie in Kraft tritt (wie man etwa bei Youtube-Sperren sieht), so bin ich mit dieser naiven und unscharfen Formulierung nicht glücklich. Das hat auch zwei weitere Gründe. Erstens: Menschen sind oft noch intransparenter, unfairer und in ihren Entscheidungen irrationaler. Und zweitens: Oft geht’s um Stereotype und daraus folgende Diskriminierung. Das Problem dabei ist, dass Stereotype oft wahr sind (das Problem ist oft eher das, was man aus diesen Stereotypen ableitet), und das spiegelt sich dann auch in den Daten wider, die in die KI gefüttert wird. Wenn eine KI aber ausspuckt, dass zum Beispiel gewisse Minderheiten überdurchschnittlich oft kriminell sind, dann ist das zwar wahr, aber unheimlich unangenehm (und natürlich gibt es Gerechtigkeitsprobleme, wenn man von einer Gruppe aufs Individuum schließen will). Um Diskriminierung zu vermeiden, wird dann oft verlangt, dass man die KI künstlich verschlechtert, sodass derartige Korrelationen nicht mehr in den Ergebnissen ablesbar sind. Damit ändert man nichts an den gesellschaftlichen Umständen, aber die vermeintliche Tyrannei durch die Künstliche Intelligenz ist abgewehrt. Und wenn sich das Stereotyp doch bestätigt, hat man halt Pech gehabt und alle überlegen wieder, wie sie KI einsetzen können, um so etwas vorhersehen zu können. Am besten noch irgendwas mit „Blockchain“.

8
Dir hat's gefallen? Dann erzähl deinen Freunden davon!

Nach oben