netz und politik
Kunstfreiheit: Ebay löscht „Kantholz“ vom Peng-Kollektiv aus dem Sortiment
Die Auktionsplattform Ebay hat den vom Peng-Kollektiv versteigerten Kunstgegenstand „Kantholz“ wegen angeblicher Gewaltverherrlichung aus dem Sortiment genommen. Die Versteigerung des falsches Kantholzes ist Teil der provokanten Kunstaktion „Antifa – Mythos und Wahrheit“ , welche die Gruppe derzeit in einem Chemnitzer Museum und im Internet veranstaltet.
Hintergrund des Kunstgegenstandes „Kantholz“ ist ein Vorfall aus dem Jahr 2018, bei dem der AfD-Politiker Frank Magnitz von Unbekannten verletzt wurde. In einer Pressemitteilung behauptete die AfD, dass ihr Parteiangehöriger mit einem Kantholz bewusstlos geschlagen worden sei. Das vermeintliche Kantholz führte zu einer bundesweiten Debatte über linke Gewalt. Einziges Problem nur: Das Kantholz war eine Erfindung der AfD, um sich als Opfer zu stilisieren.
Auf rechtsradikale Opfermythen wollen die Aktionskünstler mit eben jenem falschen Kantholz aufmerksam machen, das in der Kunstsammlung Chemnitz in der Ausstellung „Gegenwarten“ zu sehen ist. Das ausgestellte Kantholz sollte zusätzlich auf Ebay versteigert werden, wurde nach Auskunft von Peng aber beim Stand von 120 Euro gesperrt.
„Eingriff in die Kunstfreiheit“„Dass Ebay heute das Kantholz löscht, zeigt, wie stark rechte Opfer-Narrative wirken. Obwohl nachgewiesen ist, dass es nie ein Kantholz gab, lebt die Geschichte weiter“, sagt Nika Blum vom Peng-Kollektiv gegenüber netzpolitik.org. „Was Ebay hier macht, ist ein Eingriff in die Kunstfreiheit. Die Plattform geht hier Nazis auf den Leim, welche die Auktion als illegal melden“, so Blum weiter.
Das Kollektiv fordert, dass Ebay die Auktion wieder online stellt. Es sei außerdem zynisch, dass gleichzeitig auf der Plattform Nazi-Devotionalien gehandelt würden, eine antifaschistische Kunstaktion aber gestoppt werde.
Auf Nachfrage von netzpolitik.org, wollte sich Ebay „aus datenschutzrechtlichen Gründen“ nicht zu dem Vorfall äußern.
Kontroversen im VorfeldSchon im Vorfeld der Ausstellung hatte es eine Kontroverse gegeben. Laut Aussagen des Kunst-Kollektives wollte das Museum eine Textpassage in der Ausstellung ändern, weil diese AfD, FDP und CDU im Bezug mit der umstrittenen Hufeisen-Theorie nannte. Diese Theorie geht von einer Gleichsetzung von Rechts- und Linksextremismus aus.
Das Museum sah in der Nennung der Parteien seine parteipolitische Neutralität in Gefahr und bat die Künstler:innen, die Passage zu ändern. Als die sich weigerten, stand das Projekt kurz vor dem Rauswurf, so die Künstler:innen. Erst als die Stadt Chemnitz intervenierte, konnte die Ausstellung wie geplant stattfinden. Teil der Kunstaktion ist eine Versteigerung der Exponate auf Ebay zugunsten von antifaschistischen Initiativen.
Das Peng-Kollektiv ist seit mehreren Jahren eine von wenigen Kommunikationsguerilla-Gruppen in Deutschland. Bekannt wurden die Aktionskünstler, als sie einen vom Erdölkonzern Shell finanzierten Science-Slam kaperten und eine ölartige Masse live verspritzten. Weitere Aktionen und Kampagnen animierten zur Fluchthilfe oder zu Anrufen bei Geheimdienstmitarbeitern. Neben solchen Kommunikationsguerilla-Kampagnen trat das Kollektiv auch in Erscheinung, als ein Vertreter der AfD-Politikerin Beatrix von Storch eine Torte ins Gesicht drückte.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Was vom Tage übrig blieb: Suchmaschinen, Spam und Sammelklagen
Google sieht Youtube „in Gefahr“, Wettbewerbshüter sprechen von „Falschinformation“ (Süddeutsche Zeitung)
Wenn Google seine Nutzer:innen warnt, dass ihre Daten an große Konzerne fließen könnten, lässt uns das aufhorchen – klingt es in unseren Ohren doch ziemlich paradox. Genau das tat der Suchmaschinen-Konzern am Montag in Australien. Ein offener Brief von Google warnte vor einem geplanten Gesetz der nationalen Wettbewerbsbehörde. Es ist eine Variante des hiesigen Leistungsschutzrecht, das verhindern soll, dass Google und Facebook einen Großteil der Werbeeinnahmen kassieren. Vielleicht der Letzte-Hilfe-Kasten für traditionelle Medien. Google aber sieht seinen heiligen Suchalgorithmus und das Ranking von Nachrichteninhalten gefährdet.
Bundesministeriums-Website ermöglichte Spamming und Phishing (heise online)
Für alle, die sich am Anfang August über eine Mail vom Bundesfamilienministerium in ihrem Postfach wunderten, kommt jetzt die Aufklärung: Unbekannte schleusten sich über den bei einem externen Dienstleister gehosteten Webserver des Ministeriums problemlos in Mails. Sie platzierten Links zu dubiosen Potenzmittel-Websites – dort, wo eigentlich die Anrede stünde. Möglich war das, weil Eingabe-Daten ungeprüft in die Mails zur Verifizierung der Mailadresse übernommen wurden. Obwohl die Sicherheitslücke seit 2017 bestand, vergaßen die Web-Entwickler offensichtlich, die Namenseingabe zu prüfen.
Oracle And Salesforce Hit With $10 Billion GDPR Class-Action Lawsuit (Forbes)
Die Tech-Giganten Oracle und Salesforce müssen sich warm anziehen: Eine Sammelklage im Vereinigten Königreich und den Niederlanden, eingebracht von The Privacy Collective, könnte sie bis zu 10 Milliarden Euro kosten. Die Kläger:innen lasten den Konzernen an, persönliche Daten durch ihre Drittanbieter-Cookies „Bluekai“ und „Krux“ zu missbrauchen. Ohne das Wissen von Nutzer:innen würden deren Daten getrackt und weitergegeben – was gegen die DSGVO verstößt. Bekannte Websites wie Amazon, Booking.com, Dropbox, Reddit and Spotify hosten diese Cookies.
Jeden Tag bleiben im Chat der Redaktion zahlreiche Links und Themen liegen. Doch die sind viel zu spannend, um sie nicht zu teilen. Deswegen gibt es jetzt die Rubrik „Was vom Tage übrig blieb“, in der die Redakteurinnen und Redakteure gemeinschaftlich solche Links kuratieren und sie unter der Woche um 18 Uhr samt einem aktuellen Ausblick aus unserem Büro veröffentlichen. Wir freuen uns über weitere spannende Links und kurze Beschreibungen der verlinkten Inhalte, die ihr unter dieser Sammlung ergänzen könnt.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Hamburger Polizei auf Twitter: Keine Nachfragen zugelassen
Die Polizei Hamburg deaktiviert unter einem ihrer Tweets jegliche Kommentare und sorgt damit für Frustration bei Nutzer:innen. Da es um den gewaltsamen Einsatz von Schlagstock und Pfefferspray gegen einen Jugendlichen ging, hätte die Behörde in den Antworten wohl auch mit heftiger Kritik rechnen müssen.
Die Funktion zum Abschalten von Antworten ist noch ganz frisch auf Twitter. Seit Mitte August können Nutzer:innen entscheiden, wer antworten darf. Das Unternehmen erklärt, dass es darum gehe, Personen zu schützen, die besonders oft Beschimpfungen erleben.
Die Polizei spricht, der Rest hört zuDie Polizei Hamburg entschied am Montag, dass niemand auf ihren Tweet zu dem Vorfall mit dem Jugendlichen antworten können soll. Ihre Ankündigung, den Einsatz von Gewalt durch ihre Beamt:innen zu prüfen, blieb somit eine einseitige Kommunikation. Lediglich in den Retweets konnten andere Nutzer:innen ihre Ansichten dazu kundtun.
Darüber hinaus wirft der Nutzer, der das Video auf Twitter verbreitet hat, der Polizei Hamburg nun vor ihn zu blockieren. Für das Blockieren einzelner Accounts durch Behörden gibt es hohe rechtliche Anforderungen. In der Vergangenheit haben Polizeien Blockierungen deshalb immer aufgehoben, bevor es zu einem Verfahren kommen konnte, in dem ein Gericht den jeweiligen Vorgang geprüft hätte.
Der Pressesprecher der Polizei begründet die Entscheidung die Antworten unter dem Tweet zu blockieren auf Nachfrage von netzpolitik.org damit, dass das Thema bereits hoch emotional gewesen sei. Es sollte verhindert werden, dass es zu strafrechtlich relevante Äußerungen kommt, zumal außerhalb der Arbeitszeiten keine Diskussion möglich gewesen wäre.
Videos von PolizeigewaltDas Interesse an dem Vorfall blieb groß: Die am nächsten Tag veröffentlichte Pressemitteilung der Polizei, für die sie die Antwortfunktion nicht abgeschaltet hatte, erhielt fast 2000 Erwiderungen. Nutzer:innen stellten Fragen und kommentierten die Darstellung der Polizei. Manche waren interessiert, andere reagierten wütend und sarkastisch.
In den Tagen vor dem Fall in Hamburg wurden bereits zwei andere Videos veröffentlicht, die Gewalt durch Polizist:innen zeigen: In Frankfurt traten Polizisten einen am Boden liegenden Mann und in Düsseldorf drückte ein Beamter einen Jugendlichen mit dem Knie am Kopf nieder.
Professionelles Social-Media-TeamHamburg betreibt einen der reichweitenstärksten Polizei-Accounts in Deutschland, das zuständige Social-Media-Team ist geschult im Frage-Antwort-Austausch mit anderen Nutzer:innen. Zu Hochzeiten verschickt die Polizei Hamburg auf Twitter bis zu 65 Antworten pro Tag.
Weshalb sie genau bei einem Tweet, in dem es um Vorwürfe der Polizeigewalt geht, Nachfragen verhindert, ist aus strategischer Sicht unverständlich.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Elektronische Patientenakte: Datenschützer:innen halten Patientendaten-Schutz-Gesetz für rechtswidrig
Der Bundesdatenschutzbeauftragte Ulrich Kelber hält die kürzlich vom Bundestag beschlossenen Änderungen beim Patientendaten-Schutz-Gesetz (PDF) für nicht vereinbar mit der europäischen Datenschutz-Grundverordnung (DSGVO). Seine Behörde werde aufsichtsrechtliche Maßnahmen gegen die gesetzlichen Krankenkassen ergreifen, sollte das Gesetz in seiner jetzigen Form umgesetzt werden. Das gab Kelber am Mittwoch Vormittag in der Bundespressekonferenz gemeinsam mit den Landesdatenschutzbeauftragten aus Brandenburg, Niedersachsen und Baden-Württemberg bekannt.
Die Datenschützer:innen wenden sich vor allem gegen die Einführung der elektronischen Patientenakte (ePA) in der aktuell geplanten Form. In dieser Akte sollen zum Beispiel Befunde, Behandlungsberichte oder Notfalldatensätze eines Patienten gespeichert sein, sodass die Daten allen behandelnden Ärzt:innen schnell zur Verfügung stehen. Auf der Webseite des Bundesgesundheitsministerium heißt es, dass man damit doppelte Untersuchungen vermeiden wolle.
Das Ministerium möchte den Datenschutz gewährleisten, indem es den Patient:innen überlassen bleibt, ob sie die elektronische Akte nutzen möchten. Außerdem sollen sie selbst entscheiden, welche Gesundheitsdaten sie speichern und welcher ihrer Ärzt:innen auf die elektronische Akte zugreifen darf.
Datenschutz bei elektronischer Patientenakte nicht ausreichendDiese Maßnahmen reichen den Datenschützer:innen aber nicht aus. Patient:innen könnten nämlich erst ab Anfang 2022 entscheiden, welche Ärzt:innen welche Daten einsehen könnten. Informationen, die noch sensibler und persönlicher sind als Gesundheitsdaten ohnehin schon sind – beispielsweise Daten zur psychischen Gesundheit oder zu einem Schwangerschaftsabbruch – wären so von der Hautärztin bis zum Zahnarzt abrufbar. Dem Gesetzgeber zufolge sei eine Implementierung dieser dokumentengenauen Steuerung durch die Patient:innen in die sogenannte Telematikinfrastruktur erst ein Jahr nach Einführung des Gesetzes möglich.
„Dadurch sind Datenschutzverletzungen in der ersten Umsetzungsphase der elektronischen Patientenakte absehbar, weil gegen die elementaren Prinzipien der Erforderlichkeit und der Zweckbindung verstoßen wird“, warnt Barbara Thiel. Die niedersächsische Landesbeauftragte für den Datenschutz ist etwa für die AOK Niedersachsen mit mehr als 2,5 Millionen Versicherten verantwortlich und kündigte weitere Gespräche mit der Kasse an.
Ungleichbehandlung bei informationeller SelbstbestimmungDoch selbst wenn die Infrastruktur für die zielgenaue Freigabe von Daten für bestimmte Mediziner:innen in einem Jahr verfügbar wäre, könnten nur „Nutzende von geeigneten Endgeräten wie Mobiltelefonen oder Tablets einen datenschutzrechtlich ausreichenden Zugriff auf ihre eigene ePA“ erhalten, so Kelber.
Er sieht hier die Gefahr einer Ungleichbehandlung beim Grundrecht auf informationelle Selbstbestimmung und somit einen Verstoß gegen die DSGVO. Er kritisiert außerdem, dass das Authentifizierungsverfahren bei der Anmeldung über das Endgerät noch nicht ausreichend sicher sei und ebenfalls nicht den DSGVO-Vorgaben entspreche.
Ursprünglich waren stationäre Geräte bei den Krankenkassen vorgesehen, über die auch Patient:innen ohne Internetzugang Zugang zu ihrer Akte erhalten hätten. Nach Kritik durch die Krankenkassen, die die dafür nötige Infrastruktur als zu teuer empfanden, strich die Bundesregierung die entsprechenden Vorgaben aus dem Gesetz. Stattdessen sollen Patient:innen ohne passendes Endgerät nun Vertreter:innen benennen, die Steuerung und Einsicht übernehmen sollen. Diese vertretende Person hätte dann aber vollen Zugriff auf alle Daten.
In Sachsen planen Krankenkassen eine freiwillige Einrichtung eines Zugangs in den Geschäftsstellen, sagt Kelber. Die Kosten hierfür belaufen sich laut seinen Angaben nur auf 30 Cent pro Versichertem pro Jahr.
Kollision zwischen nationalem und europäischem RechtDer Bundesdatenschutzbeauftragte behält sich vor, gegen die Teile des Gesetzes vorzugehen, die nicht mit EU-Recht vereinbar seien: „Als zuständige Aufsichtsbehörde für einen Großteil der gesetzlichen Krankenkassen werde ich deshalb mit den mir zur Verfügung stehenden aufsichtsrechtlichen Mitteln dafür Sorge tragen, dass diese Krankenkassen mit der von ihnen angebotenen ePA nicht gegen europäisches Recht verstoßen.“ Die Krankenkassen seien einem Dilemma ausgesetzt, bei dem sie entweder gegen das Patientendaten-Schutzgesetz oder gegen die europäische Datenschutzgrundverordnung verstoßen müssten.
Seine Behörde kann zwar keine Gesetze stoppen, allerdings im Nachhinein Verwarnungen aussprechen und Bußgelder erheben, wenn Verantwortliche gegen Regeln verstoßen. Kelber kann außerdem die Löschung von Daten anordnen und Datenverarbeitung verbieten.
Gänzlich unter Dach und Fach ist das Patientendaten-Schutz-Gesetz noch nicht: Zwar hat der Bundestag das Gesetz bereits abgesegnet, allerdings fehlt noch die abschließende Bestätigung des Bundesrates, der derzeit darüber verhandelt. Zustimmungspflichtig ist das Gesetz nicht, der Bundesrat könnte bei Bedenken aber einen Vermittlungsausschuss einsetzen. Dagmar Hartge, Landesdatenschutzbeauftragte aus Brandenburg, kündigte an, sich beim brandenburgischen Gesundheitsministerium dafür einzusetzen, dass der Bundesrat von diesem Recht Gebrauch macht. An sich soll das Gesetz Anfang 2021 in Kraft treten.
Stefan Brink, Landesdatenschutzbeauftragter aus Baden-Württemberg, weist darauf hin, dass der Eingriff der Datenschützer:innen in ein laufendes Gesetzgebungsverfahren außergewöhnlich sei. Der Bund werde aber in seiner Gesetzgebungskompetenz durch europäisches Recht, also die DSGVO, beschränkt. Er appelliert an den Gesetzgeber, die Kollision zwischen nationalem und europäischem Recht aufzulösen, bevor das Gesetz in Kraft trete.
Im Vorfeld ist auch die kurzfristige Änderung bei den Regeln zur Datenverarbeitung durch die Krankenkassen in die Kritik geraten. Gesetzliche Versicherungen könnten Daten für Forschung und Werbung nutzen, sofern Patient:innen dem nicht explizit widersprechen. Hierzu konnte Ulrich Kelber noch keine Angaben machen. Man müsse zunächst mit allen Krankenkassen Gespräche führen, um zu sehen, wie diese die Vorgaben in der Praxis umsetzen wollen.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Polizei: Weg mit dem Heiligenschein
Die Polizei darf nicht kritisiert werden. Noch schlimmer ist: Witze oder Satire über die mächtige Institution zu machen. Ebenfalls unerwünscht sind Studien, die herausfinden könnten, wie die Polizei wirklich ist. Denn die Polizei ist unantastbar.
Leider ist das nicht so fern, denn rechtsradikale, konservative, selbst sozialdemokratische Kreise haben die Polizei quasi heilig gesprochen: Wer die Unfehlbarkeit polizeilichen Handelns anzweifelt oder gar über Rassismus redet, wird als sicherheitspolitischer Häretiker abgestempelt.
Wir sollen einfach nur dankbar sein, selig die Augen schließen und gehorsam zu den Göttern in Blau aufschauen – oder wir landen auf dem medialen Scheiterhaufen der Inquisition des Sicherheitsapparates und seiner treuen Fans in den sozialen Netzwerken. Der Umgang mit der Polizei und ihre huldvolle Verehrung in Deutschland hat einen quasi-religiösen Charakter angenommen.
Obrigkeitsstaatlicher KultDas bekommt der Demokratie nicht gut. In einer Demokratie sind alle Behörden rechenschaftspflichtig, müssen sich Kritik gefallen lassen und werden kontrolliert, damit sie weniger Fehler machen. Das muss natürlich in ganz besonderem Maße für diejenigen gelten, die das Gewaltmonopol innehaben.
Jüngst hat die Jugendorganisation der Grünen ein Positionspapier für eine Reform der Bundes- und Länderpolizeien veröffentlicht. Es ist das wohl umfassendste und weitestgehende Konzept, das derzeit aus dem parlamentarischen Spektrum kommt.
Es ist geprägt von einer Vision der freien Gesellschaft, die im Rahmen des Möglichen versucht, Sicherheit mit möglichst wenig Rückgriff auf die Polizei zu organisieren. So, wie man sich das in der freiheitlichen Demokratie eigentlich vorstellt.
Bloß nicht diskutierenDie Polizeijünger und andere Schreihälse versuchten natürlich umgehend, das Papier als polizeifeindliches Wolkenkucksheim abzustempeln oder zumindest ganz laut „Generalverdacht“ und „in den Rücken fallen“ zu rufen. Sie klaubten dabei ein paar Wortfetzen aus dem Text heraus und setzten sie in einen falschen Zusammenhang, um gar nicht erst inhaltlich diskutieren zu müssen. Dabei wäre genau das bei diesem Papier ein Erkenntnisgewinn.
Wer sich die Forderungen anschaut, merkt schnell: Weniger Budget für die Polizei, das traut sich heutzutage nicht einmal mehr die Grüne Jugend zu fordern. Das Papier benennt die gravierendsten Probleme des Polizeiapparates und seiner reformunfreudigen Kultur – von der Ausbildung über Militarisierung und Polizeigewalt bis hin zum Rassismus – und bietet dann echte und mutige Lösungsvorschläge.
In guter bürgerrechtlicher TraditionDie Ideen sind vernünftig und wohlüberlegt, stehen in guter bürgerrechtlicher Tradition und sind alles andere als ein weltfremdes Utopia. Wer vor hat, die Polizei demokratischer, vielfältiger, transparenter und kontrollierter zu machen, findet hier richtige Ansätze.
Dass dieses Positionspapier nicht einmal mehr in der grünen Mutterpartei Zuspruch findet, sollte jedem zu denken geben, dem Demokratie am Herzen liegt. Es wird Zeit, den autoritären Kult um die Polizei als solchen zu benennen, um wieder sachlich über die Zukunft dieser Institution streiten zu können – statt benommen im Weihrauchnebel.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Rassismus und Polizeigewalt: Grüne Jugend will Polizei umfassend reformieren
Die Jugendorganisation der Grünen hat unter dem Titel „Polizei neu aufstellen“ ein umfassendes Positionspapier zur Reform der Polizei vorgelegt, das sich mit vielen Bereichen polizeilichen Handelns auseinandersetzt. Das Papier bietet die bislang weitreichendsten und grundrechtsfreundlichsten Ansätze einer Polizeireform aus der gesamten Parteienlandschaft.
Lest hier auch den Kommentar zum Thema: Weg mit dem Heiligenschein!In einem ersten Punkt fordert das Papier eine Überprüfung, welche Aufgaben überhaupt von der Polizei wahrgenommen werden sollten. Die Polizei würde oft auch dann eingesetzt, wenn diesen Aufgaben „speziell geschulte Berufsgruppen besser und effektiver nachkommen könnten“. Als Beispiele werden hierbei der Umgang mit Opfern häuslicher oder sexualisierter Gewalt, mit Obdachlosen, Geflüchteten oder Suchtkranken genannt.
Die finanziellen und personellen Ressourcen von zivilen Trägern für Streetwork, psychologische Krisenhilfe oder ähnliches müssten massiv ausgebaut werden, damit nicht nur die Polizei 24 Stunden am Tag zu Einsätzen gerufen werden könne. Speziell ausgebildetes Personal könne die Prävention stärken, Eskalationen verhindern und auch die Polizei entlasten.
Menschenfeindliche Einstellungen verdrängenIm zweiten Punkt fordern die jungen Grünen, dass die angehenden Polizist:innen schon vor der Anstellung auf menschenfeindliche Einstellungen hin überprüft werden sollen. Außerdem manifestierten sich in geschlossenen Einheiten der Polizei gefährliche Tendenzen oft in besonderem Maße, sie führten zusammen mit einem übersteigerten Korpsgeist zu einem Weltbild von „wir gegen den Rest der Welt“. Dieses sei mit rechtsstaatlichen Prinzipien nicht zu vereinen. Ein Vorschlag, um dem entgegenzuwirken: die personellen Zusammensetzungen geschlossener Einheiten spätestens nach drei Jahren ändern.
Zu Racial Profiling heißt es im Papier, dass bestimmte Begriffe in Gesetzen wie „grenzpolizeiliche Erfahrung“ ein Racial Profiling rechtfertigten – und geändert werden müssten. Darüber hinaus brauche es Antidiskriminierungsgesetze nach dem Berliner Vorbild auf Länder- und Bundesebene.
Zu den Vorschlägen gehört auch die Einführung von Anti-Rassismus-Beauftragten und eines „Ticket-Systems“, bei dem Kontrollierte einen schriftlichen Nachweis über die Kontrolle erhalten, damit sie diese im Falle von überdurchschnittlichen Kontrollen auch nachweisen und rechtlich überprüfen lassen können.
Eine weniger martialische PolizeiDas Papier kritisiert die Militarisierung der Polizei als ungeeignet, „um Sicherheitsbedürfnisse in der Bevölkerung zu befriedigen“. Dabei wagt sich die grüne Jugend sogar an ein Sakrileg der deutschen Polizei heran und fordert, dass nicht jede Polizeistreife mit Schusswaffen bewaffnet sein müsse. In England gehört dies schon seit jeher zum Alltag, in Deutschland soll diese Reformmaßnahme mit schärferen Waffengesetzen flankiert werden, so das Papier.
Auch der Einsatz von Pfefferspray soll überprüft werden. Das Reizgas werde zu leichtfertig eingesetzt. Für Demonstrationen fordert die Grüne Jugend, auf den Einsatz von Pferden und Hunden zu verzichten, gleichzeitig solle das Vermummungsverbot abgeschafft und die polizeiliche Kooperation und Deeskalation zugunsten der Versammlungsfreiheit gestärkt werden.
Auch für die Ausbildung der Polizei schlägt die Grüne Jugend eine Öffnung vor. So kritisiert das Papier die Kasernierung angehender Polizist:innen und fordert Polizei-Studiengänge an regulären Hochschulen. Zur Öffnung der Polizei gehöre auch, dass diese vielfältiger aufgestellt werde, auch in Führungspositionen.
Mehr unabhängige Kontrolle gefordertIn einem dritten Punkt geht es um staatliche Kontrolle der Polizei. Täter in Uniform unter den Polizist:innen hätten in Deutschland kaum Konsequenzen zu befürchten. Um Straftaten im Amt und rechtswidrige Polizeigewalt bekämpfen zu können, braucht es laut dem Papier in allen Bundesländern und im Bund eine anonymisierte Kennzeichnungspflicht.
Außerdem sollen „unabhängige Ermittlungsstellen mit Schwerpunkt-Staatsanwaltschaften“ eingeführt werden, welche bei Fehlverhalten von Polizeibeamt:innen tätig werden. Diese Anlaufstellen sollen mit weitreichenden Kompetenzen und Ressourcen ausgestattet werden. Um zudem mehr Transparenz der juristischen Aufarbeitung von Polizeigewalt zu ermöglichen, sollen nach Meinung der Grünen Jugend alle Einsatzprotokolle und Polizeivideos bei einer unabhängigen Treuhandstelle aufbewahrt werden. So könne sichergestellt werden, dass Polizei, Justiz, unabhängige Ermittlungsstellen, aber auch von Polizeigewalt Betroffene gleichermaßen Zugriff auf diese möglichen Beweismittel erlangen könnten.
Datenbankabfragen besser kontrollierenZu den illegalen Datenabfragen der Polizei heißt es in dem Papier: „Sofern über polizeiliche Datensysteme Informationen abgerufen werden, muss durch eine persönliche Kennung zweifelsfrei nachvollziehbar sein, wer, wann, warum, welche Daten abgerufen hat.“ Unberechtigte Datenabfragen müssten konsequent straf-, disziplinar- und beamtenrechtlich verfolgt werden.
In Bund und Ländern sollen darüber hinaus von Ministerien unabhängige Polizeibeauftragte in den Parlamenten eingeführt werden, damit die parlamentarische Kontrolle über den Polizeiapparat gestärkt werde.
Generell kritisiert das Papier auch die mangelnde Fehlerkultur bei der Polizei. Hier sei ein tiefgreifender Kulturwandel nötig, für den die Einführung von Polizeibeauftragten erst der Anfang sei. Dieser Wandel, der zu mehr Vertrauen führen könne, müsse aber in der Polizei selbst stattfinden.
Darüber hinaus fordert das Papier Studien über die Polizei, besonders im Hinblick auf menschenfeindliche Ideologien, und nennt hierbei die von Bundesinnenminister Horst Seehofer verhinderte Studie über Racial Profiling.
Das Papier endet mit dem Satz, dass diese Maßnahmen „nur ein erster Schritt sein können auf dem langen Weg zu einer befreiten Gesellschaft, die Gewalt und Repression als Mittel der gesellschaftlichen Problemlösung Stück für Stück überwindet“.
Kritik von rechts, Lob aus WissenschaftDementsprechend groß ist der Aufschrei bei Konservativen und den Polizeigewerkschaften, die das Papier teilweise anhand einzelner, in den falschen Zusammenhang gestellter Ausdrücke zerlegen und sich nicht weiter inhaltlich damit befassen. Inhaltliche Kritik kommt unter anderem von den Grünen selbst, die sich in den letzten Jahren immer mehr an polizeiliche Forderungen angenähert haben.
Das Papier wird aber nicht nur kritisiert, sondern erhält auch Lob aus der Wissenschaft. Der Kriminologe und Polizeiwissenschaftler Thomas Feltes schreibt auf Twitter, dass er darin „keine einzige Forderung“ sehe, die er nicht zu 100 Prozent unterstützen würde: „Die haben alle Probleme in und mit der Polizei sauber aufgearbeitet und daraus Konsequenzen gezogen.“
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Verhaftungswelle in Ägypten: Aktivist:innen kämpfen um Freilassung von TikTok-Influencerinnen
Zwei junge Frauen, die das Wirtschaftsgericht in Kairo Ende Juli wegen ihrer TikTok-Videos zu zweijährigen Gefängnisstrafen verurteilt hatte, legten am Montag gegen das Urteil Berufung ein. Eine Entscheidung über die Berufung setzte das Gericht für den 14. September an. Im Land ist derweil eine heftige Debatte um Frauenrechte und Meinungsfreiheit im Netz entbrannt.
Die Richter hatten im Juli innerhalb einer Woche insgesamt sechs junge Frauen zu mehrjährigen Gefängnis- und hohen Geldstrafen verurteilt, weil sie mit ihren Videos auf TikTok nach Ansicht der Staatsanwaltschaft gegen die „ägyptischen Familienwerte“ verstoßen hätten. Drei weitere Frauen warten derzeit auf ihren Prozess.
Unter den Verurteilten waren auch Haneen Hossam (20) und Mawada El-Adham (22), die nun Berufung einlegten. Haneen Hossam hat 900.000 Follower:innen auf TikTok, Mawada El-Adham folgen mehr als drei Millionen Menschen auf der Videoplattform. Das Gericht warf ihnen vor, dass ihre Videos „unzüchtig“ seien und Menschenhandel förderten. Inzwischen hat die Staatsanwaltschaft auch ihr Vermögen eingefroren.
Die neun Frauen sind Opfer einer Verhaftungswelle der ägyptischen Behörden geworden. Sie haben es seit April verstärkt auf junge Frauen abgesehen, die sich frei in den sozialen Medien äußern. Dagegen formierte sich heftiger Protest im Netz. „Frauenrechts- und Menschenrechtsaktivistinnen sind empört“, berichtet Joey Shea. Sie recherchiert und schreibt am Tahrir Institute for Middle East Policy über Grundrechte, Desinformation und Meinungsfreiheit im Netz. „Einzelpersonen und Organisationen haben die Inhaftierung dieser Frauen als Verletzung des Rechts auf freie Meinungsäußerung und als extreme Form der Diskriminierung von Frauen bezeichnet.“
Digitale Kampagne erreicht weltweite AufmerksamkeitUnter dem Hashtag #Free_TikTok_Women und einem arabischen Hashtag, der übersetzt in etwa „wenn es die ägyptische Familie erlaubt“ bedeutet, machen zahlreiche Aktivist:innen auf Twitter, Instagram und Facebook auf die Inhaftierungen aufmerksam. Eine Online-Petition, die die Freilassung der Frauen fordert, unterzeichneten zwischenzeitlich rund 140.000 Menschen.
Haneen Hossam is one of nine women who have been arrested and accused of violating "Egyptian family values." The crackdown on women TikTokers started in April, and until now reports against women influencers on #TikTok are being filed.#???_???_??????_??????? #Free_TikTok_Women pic.twitter.com/E5VxMZ1WQa
— FreeTikTokWomen (@tik_women) August 11, 2020
Der digitale Protest hat inzwischen weltweit Aufmerksamkeit erregt. Auch in Berlin demonstrierten am vergangenen Freitag etwa 30 Personen vor dem Rathaus Neukölln für die Freilassung der jungen Frauen. „Ein solches Urteil stellt einen gefährlichen Präzedenzfall dar und eröffnet den Raum für die Verfolgung von Frauen aufgrund ihrer Online-Inhalte“, sagten die Organisatorinnen der Demonstration. „Diese Politik sendet eine Botschaft an die ägyptische Gesellschaft, dass Gewalt gegen Frauen gerechtfertigt ist. In einer Zeit, in der Überlebende geschlechtsspezifischer Gewalt Solidarität, Unterstützung und Rechenschaftspflicht fordern.“
Die Demonstrant:innen verurteilen die Kriminalisierung des Verhaltens von Frauen und befürworten die Bewegung gegen geschlechtsspezifische Gewalt in Ägypten. Sie forderten eine lückenlose Strafverfolgung für alle Formen von Gewalt gegen Frauen.
Internetzensur heizt Debatte um Frauenrechte anZwar geht die Regierung in Kairo schon lange hart gegen freie Meinungsäußerung im Internet vor. Die willkürliche Löschung von Inhalten und Verhaftungen legitimierte sie zuletzt mit einem Gesetz gegen Internetkriminalität im Jahr 2018. Die diesjährige Verhaftungswelle gegen Frauen stützt sich ebenfalls auf dieses Gesetz. Sie hänge aber wahrscheinlich auch mit der rasant gestiegenen Popularität und Sichtbarkeit von TikTok zusammen, vermutet Joey Shea. „TikTok ist im vergangenen Jahr zu einer wichtigen Ausdrucksplattform für ägyptische Jugendliche geworden.“
Die ägyptischen Behörden hätten die Videoplattform erst kürzlich zur Kenntnis genommen. „Diese Verhaftungskampagne ist der jüngste Versuch, den Körper von jungen Frauen zu kontrollieren, bei der konservativen Basis des Regimes Punkte zu sammeln und Inhalte auf einer neuartigen Plattform zu zensieren“, sagt Joey Shea.
Die Prozesse gegen Frauen reihen sich ein in eine größere gesellschaftliche Debatte um Frauenrechte in Ägypten. Seit der 21-jährige Student Ahmad Zaki im Juli angeklagt wurde, weil er mehr als hundert Frauen sexuell belästigt, sie zu Sex genötigt und vergewaltigt haben soll, flammt die Diskussion um sexuelle Gewalt gegen Frauen im Land erneut auf. Zum Flächenbrand wurde sie vor allem durch Social Media: Zahlreiche Frauen machten Zakis Vergehen auf Instagram öffentlich. Viele nutzten laut Medienberichten nun auch den Hashtag #Metoo.
Frauen wird Mitschuld an Vergewaltigungen gegebenIn einen weiteren Fall kommt ebenfalls Bewegung: Am 5. August leitete der ägyptische Generalstaatsanwalt offizielle Ermittlungen gegen mehrere Männer ein, die 2014 eine junge Frau im Fairmont Nile City Hotel in Kairo mit Drogen betäubt und vergewaltigt haben sollen. In der Berichterstattung und den sozialen Medien ist die Rede von sechs bis neun Männern, die an dem Vorfall beteiligt gewesen sein sollen. Unter dem Hashtag #fairmontincident wurden ihre Namen und Fotos von ihnen verbreitet.
Die beiden Fälle bringen Momentum in den Kampf gegen sexuelle Belästigung von ägyptischen Frauen, sie stehen aber auch exemplarisch für den problematischen Umgang der Behörden mit dem Thema. Erst nach Jahren trauen sich Frauen, ihre traumatischen Erfahrungen öffentlich zu machen. Denn oft genug gibt die ägyptische Justiz ihnen eine Mitschuld an Vergewaltigungen.
Das zeigt auch der Fall von Menna Abdel Aziz. Die 18-Jährige ging am 22. Mai auf ihrem Instagram-Account live, zeigte sich mit Verletzungen im Gesicht und sagte, dass sie geschlagen, vergewaltigt und ohne ihr Einverständnis dabei gefilmt worden sei. Zuvor hatte sie die Vergewaltigung bereits an der Talbiya Polizeistation in Kairo anzeigen wollen. Aber die Polizist:innen schickten sie zu einer anderen Station, weil der Vorfall in einem anderen Zuständigkeitsbereich stattgefunden hatte, berichtet Amnesty International.
Am 26. Mai wurde Menna Abdel Aziz festgenommen, zusammen mit sechs Männern, die sie angegriffen haben sollen. Nach Aussage ihres Anwalts soll die Staatsanwaltschaft sie acht Stunden lang verhört haben und sich auf die Vorwürfe der Angeklagten gestützt haben, um ihr vorzuwerfen, „gegen familiäre Grundsätze und Werte zu verstoßen“ und „Ausschweifungen anzuregen“. Dem Amnesty-Bericht zufolge missfiel es der Staatsanwaltschaft, dass Opfer sexueller Gewalt ihre Erfahrungen öffentlich machten, statt sie lediglich der Polizei zu melden.
Ägyptische Justiz ermittelt mit fragwürdigen MethodenMenna Abdel Aziz befindet sich derzeit in einem Heim der Regierung für Überlebende von Gewaltverbrechen und bleibt Teil der Ermittlungen. Das Heim wird vom ägyptischen Nationalrat für Frauen betrieben. Viele Ägypter:innen kritisieren, dass der Nationalrat von dem konservativen Regime vereinnahmt ist und sich zu wenig für Frauenrechte einsetzt. Auch Amnesty International äußerte bereits Bedenken gegenüber diesen Heimen und der Beschränkung der Bewegungsfreiheit der Bewohnerinnen.
Auch im Fall der TikTok-Influencerin Mawada El-Adham ermittelt die Staatsanwaltschaft laut Amnesty International mit fragwürdigen Methoden. Die Menschenrechtsorganisation hatte Einsicht in ihre Fallakte. Demnach präsentierte die Staatsanwaltschaft ihr 17 Fotos, die sie als „unanständig“ bezeichnete. Laut Mawada El-Adham waren die Fotos von ihrem Smartphone geleakt worden, nachdem dieses ihr im Mai 2019 gestohlen worden war. Sie hatte den Diebstahl und den Leak damals gemeldet. Statt zu ermitteln, fragten die Polizisten sie jedoch nur, warum sie solche Fotos von sich gemacht habe.
Einem Bericht von Human Rights Watch zufolge forderte die Staatsanwaltschaft Mawada El-Adham sogar dazu auf, einen Jungfräulichkeitstest zu machen, was sie ablehnte. Jungfräulichkeitstests sind international als Menschenrechtsverletzung anerkannt und werden als Form geschlechtsspezifischer Gewalt und Diskriminierung angesehen.
Frauen werden weiter unterdrücktDie aktuellen Fälle zeigen, wie stark die ägyptische Regierung die Rechte von Frauen online und offline immer noch einschränkt. Joey Shea geht davon aus, dass die Unterdrückung sich trotz der aktuellen Frauenrechtsbewegung weiter verstärken wird. „Ich denke, die Kampagne von Verhaftungen, die sich gegen alle Ausdrucksformen richtet, wird fortgesetzt.“ Abgeordnete hätten zudem bereits zwei Anträge auf ein Verbot von TikTok in Ägypten eingereicht.
Auch die Chancen auf eine Freilassung von Haneen Hossam und Mawada El-Adham stehen wohl schlecht. „Frauenrechtsaktivist:innen sind nicht optimistisch, dass die ägyptische Justiz diesen Frauen Gerechtigkeit verschaffen wird“, sagt Joey Shea. Die Justiz sei nicht in der Lage, unabhängig von dem politischen Regime zu handeln.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
EuGH-Urteil zu Privacy Shield: Max Schrems geht gegen 101 europäische Firmen vor
Der Datenschutzaktivist Max Schrems hat mit seiner NGO noyb Beschwerde gegen 101 europäische Unternehmen erhoben. Er wirft ihnen vor, ihre Websites immer noch unter Verwendung von Google Analytics und Facebook Connect zu betreiben. Das ist laut einer Entscheidung des Europäischen Gerichtshof (EuGH) jedoch nicht mehr rechtskonform.
Mit Google Analytics können Betreiber:innen Zugriffszahlen und Klickbewegungen auf ihren Websites einsehen. Facebook Connect ist eine Anwendung, durch die Nutzer:innen andere Websites mit ihrem Facebook-Account aufrufen und nutzen können. „Weder Google Analytics noch Facebook Connect sind für den Betrieb dieser Webseiten notwendig und hätten daher inzwischen ersetzt oder zumindest deaktiviert werden können“, kritisiert Max Schrems.
Durch die Verwendung von Google Analytics und Facebook Connect geraten die persönlichen Daten europäischer Nutzer:innen in die Hände der großen US-Konzerne. Diese können die Daten nicht nur für Werbezwecke nutzen. Liegen sie erst einmal in den USA, sind die Daten auch vor der Überwachung durch US-Geheimdienste nicht mehr geschützt. Die EU-Kommission hatte sich ursprünglich für diese Datentransfers ausgesprochen, der EuGH erklärte diese jedoch für nicht vereinbar mit dem europäischen Datenschutzniveau. Das Urteil ging ebenfalls auf eine Klage von Max Schrems zurück, der seit Jahren gegen die massenhafte Datenverarbeitung durch Facebook vor Gericht zieht.
Deutsche Medienunternehmen unter den Übeltäter:innen„Eine schnelle Analyse des Quellcodes von europäischen Webseiten zeigt, dass diese einen Monat nach dem Urteil des Europäischen Gerichtshofs (EuGH) immer noch Google Analytics oder Facebook Connect verwenden – obwohl beide Unternehmen eindeutig unter die US-amerikanischen Überwachungsgesetze fallen“, heißt es in einer Mitteilung von Noyb.
Zu den Unternehmen, gegen die Max Schrems Beschwerde einreicht, gehören unter anderen Airbnb Irland, die Universität Luxemburg, der TV Spielfilm Verlag, Chefkoch und Lieferando. Ausgewählt haben die Datenschutzaktivist:innen die Unternehmen anhand europäischer Top-Level-Domains (wie „.de“ für Deutschland), zwei spezifischen Tracking-Codes und den groben Besucher:innenzahlen der Seiten.
Die Beschwerden gegen sie hat Noyb zum Teil direkt bei der leitenden Datenaufsichtsbehörde eingereicht, andere bei der österreichischen Datenschutzbehörde am Wohnsitz der Betroffenen. Letztere werden dort an die zuständige Aufsichtsbehörde weitergeleitet. „Die Beschwerden richten sich gegen 101 europäische Unternehmen in allen 30 EU- und EWR-Mitgliedsstaaten“, schreibt Nyob in seiner Mitteilung. „Die Beschwerden richten sich aber auch gegen Google und Facebook in den USA, weil sie diese Daten unter Verletzung der DSGVO weiterhin akzeptieren.“
US-Konzerne umgehen das EuGH-UrteilGoogle kündigt an, vor dem Hintergrund der Ungültigkeit des Privacy Shields auf Standardvertragsklauseln (SCC) zur Datenübermittlung zu setzen. Auch Facebook verwendet die SCCs. Diese sind zwar laut EuGH weiterhin rechtmäßig, aber nur, wenn Exporteur:innen und Empfänger:innen der Daten ein ebenso hohes Datenschutzniveau wie in der EU garantieren können. Das Problem: Daten, die bei Google und Facebook in den USA landen, fallen unter die dortigen Überwachungsgesetze. „Beide Unternehmen geben zu, dass sie die Daten aus der EU zur Verarbeitung in die USA übermitteln, wo sie gesetzlich verpflichtet sind, diese Daten US-Behörden wie der NSA zur Verfügung zu stellen“, bemängelt Max Schrems.
Die Datenweitergabe an US-Unternehmen unter den Standardvertragsklauseln kann also faktisch nicht gemäß der EuGH-Entscheidung funktionieren, weil die US-Datenschutzgesetze viel lascher sind als die europäischen. Max Schrems kritisiert, dass US-Unternehmen ihre europäischen Kund:innen immer noch versuchten zu überzeugen, dass die Verwendung von SCCs durch sie rechtmäßig ist.
Datenschutzbehörden müssen aktiv werdenDie Konzerne in den USA müssten juristisch zur Verantwortung gezogen werden, wenn sie europäische Unternehmen nicht über die geltenden Überwachungsgesetze in ihrem Land informierten, fordert Schrems. Jetzt müssten aber auch die europäischen Datenschutzbehörden Maßnahmen ergreifen, um die illegalen Datentransfers zu unterbinden.
noyb plant nach eigenen Angaben, den Druck auf Unternehmen in der EU und den USA weiter zu erhöhen. „Wir verstehen zwar, dass manche Dinge einige Zeit brauchen, aber es ist nicht hinnehmbar, dass einige Akteure das EU-Höchstgericht einfach ignorieren“, sagt Max Schrems. Im Übrigen sei es auch nur fairer Wettbewerb, wenn sich alle Betroffenen an die Entscheidung des EuGH hielten.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Transparenzgesetz: Berliner Senat bleibt auf halber Strecke stehen
Wenn der Berliner Senat noch in dieser Legislaturperiode ein Transparenzgesetz beschließen will, muss er sich sputen: In einem Jahr wählen die Berliner:innen ein neues Abgeordnetenhaus. Bis dahin stehen noch einige Gesetzesvorhaben an. In Bezug auf Transparenz lieferte die rot-rot-grüne Regierung bisher vor allem Ankündigungen. Zwar versprachen die Parteien im Koalitionsvertrag ein Transparenzgesetz, passiert war in der SPD-geführten Innenverwaltung jahrelang aber wenig.
Seit dem Sommer 2019 macht ein breites zivilgesellschaftliches Bündnis mit dem Volksentscheid Transparenz Druck. Die Initiative fordert, dass Berlin zur Transparenzhauptstadt wird. Behörden und städtische Unternehmen sollen Verträge, Gutachten, Treffen mit Lobbyisten und andere Daten künftig proaktiv veröffentlichen. Mehr als 30.000 Unterschriften sammelte das Bündnis und nahm damit die erste Hürde. Der Volksentscheid wartet seit inzwischen acht Monaten darauf, dass die Verwaltung seinen Entwurf für ein Transparenzgesetz prüft, damit das Verfahren weitergehen kann.
Nachdem wir im Herbst 2019 erste Eckpunkte aus der Behörde von Innensenator Andreas Geisel (SPD) veröffentlichten, einigte sich nun der gesamte Senat auf die gemeinsame Marschrichtung. Den heute veröffentlichten Eckpunkten zufolge soll das Berliner Informationsfreiheitsgesetz von 1999 durch ein Transparenzgesetz ersetzt werden. Künftig sollen unter anderem Gutachten, Baubescheide und Informationen über Subventionsvergaben vom Land aktiv veröffentlicht werden.
Offenbar gab es in der Regierungskoalition aber Streit um die zahlreichen privatrechtlichen Beteiligungsunternehmen des Landes. Die Ankündigung lässt offen, ob auch sie künftig auskunftspflichtig werden oder ob das Land seine Aufgaben weiter in landeseigene Gesellschaften outsourcen kann, die gegenüber Öffentlichkeit und Parlament bisher keine Auskünfte erteilen müssen.
Zahlreiche Ausnahmen geplantNeben Fortschritten plant der Senat auch einige Rückschritte. Nicht nur der skandalträchtige Verfassungsschutz des Landes soll komplett von Transparenzpflichten befreit sein, sondern künftig unter anderem auch der Rechnungshof von Berlin, Universitätskliniken, Hochschulen, Schulen, Schulbehörden und Teile der Steuerverwaltung. Für sie gibt es im bisherigen Informationsfreiheitsgesetz keinerlei Auskunftsbeschränkungen – das Transparenzgesetz würde also hinter den Status Quo zurückfallen.
In einer ersten Einschätzung auf Twitter zeigten sich die Aktivist:innen des Volksentscheides enttäuscht. Auf den ersten Blick blieben die Eckpunkte hinter dem Hamburger Transparenzgesetz zurück, das als Vorbild für die Berliner Regelung dienen sollte.
„Anscheinend hätten alle Senatsverwaltungen für ihre Bereiche gerne Ausnahmen“, konkretisiert Arne Semsrott die Kritik. Er ist eine der Vertrauenspersonen des Volksentscheids und Autor bei netzpolitik.org. „Wenn sich der Senat damit durchsetzen sollte, schafft er mehr Intransparenz als Transparenz.“
Zahlreiche Anregungen aus dem Gesetzentwurf des Volksentscheids Transparenz hat die rot-rot-grüne Landesregierung nicht in ihr Eckpunktepapier aufgenommen. Dazu zählen beispielsweise Veröffentlichungspflichten für Umweltinformationen und Informationen aus dem Wohnungsmarkt wie Liegenschaftspläne sowie stärkere Kontrollbefugnisse für die Landesbeauftragte für Informationsfreiheit und eine generelle Gebührenbefreiung für Anfragen.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Was vom Tage übrig blieb: Corona-Camping, Corona-Wissenschaft und Corona-Gästelisten
Campingplatz in Ostfriesland erlaubt Zutritt nur noch mit Corona-App (Redaktionsnetzwerk Deutschland)
Die Deutsche Presseagentur berichtet von einem ersten größeren Fall, in dem die Nutzung der Corona-Warn-App zur Voraussetzung für die Nutzung eines Angebots gemacht wird: Ein Campingplatz in Ostfriesland hat demzufolge seine Kund:innen informiert, dass nur noch Gäste erwünscht sind, die die Anwendung zur Kontaktverfolgung auf ihrem Smartphone installiert haben. Ihnen zufolge ist die Maßnahme gegen Corona-Leugner:innen gedacht. Grüne und Linke hatten davor gewarnt, dass ein quasi-Zwang zur Nutzung der Technologie entstehen könnte, wenn mehr und mehr Private sie zur Voraussetzung machen.
JSTOR: Expanded access during COVID-19 (Twitter/jstor.org)
Das wissenschaftliche Online-Archiv JSTOR hebt bis Jahresende seine Bezahlschranke, wenn auch nur leicht. Account vorausgesetzt, lassen sich nun monatlich bis zu 100 Artikel kostenlos abrufen. Wirklich frei ist das natürlich nicht, aber wer weiß, welche Spuren und Erwartungen die nun verlängerte Aktion hinterlässt.
Baden-Württemberg: Polizei fotografiert Corona-Gästelisten zur Dokumentation (Golem)
Der Ärger rund um die Corona-Listen will nicht abreißen. Nun berichtet Moritz Tremmel, dass die Polizei Reutlingen die Gästelisten einer Open-Air-Veranstaltung abfotografierte. Angeblich, um „Stichproben“ zu machen, heißt es. Zwar sollen die Fotos dermaßen unscharf und schlecht ausgeleuchtet sein, dass darauf ohnehin kaum etwas zu erkennen ist. Da dies aber nicht notwendigerweise immer so sein muss, hat die Landesdatenschutzbehörde die Praxis nun abgestellt – und das nicht zum ersten Mal.
A VISION JUST CAME TO ME… JESUS TOK (Kanye West via Twitter)
Während wir über Kinderschutz-Fails bei TikTok berichten, entwickelt Popstar Kanye West eine ganze eigene „Vision“ für den Videodienst:
A VISION JUST CAME TO ME… JESUS TOK I WAS WATCHING TIK TOK WITH MY DAUGHTER AND AS A CHRISTIAN FATHER I WAS DISTURBED BY A LOT OF THE CONTENT BUT I COMPLETELY LOVED THE TECHNOLOGY
— ye (@kanyewest) August 17, 2020
WE PRAY WE CAN COLLABORATE WITH TIK TOK TO MAKE A CHRISTIAN MONITORED VERSION THAT FEELS SAFE FOR YOUNG CHILDREN AND THE WORLD IN JESUS NAME AMEN
— ye (@kanyewest) August 17, 2020
Jeden Tag bleiben im Chat der Redaktion zahlreiche Links und Themen liegen. Doch die sind viel zu spannend, um sie nicht zu teilen. Deswegen gibt es jetzt die Rubrik „Was vom Tage übrig blieb“, in der die Redakteurinnen und Redakteure gemeinschaftlich solche Links kuratieren und sie unter der Woche um 18 Uhr samt einem aktuellen Ausblick aus unserem Büro veröffentlichen. Wir freuen uns über weitere spannende Links und kurze Beschreibungen der verlinkten Inhalte, die ihr unter dieser Sammlung ergänzen könnt.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Datenschutz: TikTok im Visier der EU-Behörden
Die umstrittene chinesische App TikTok gerät in immer mehr europäischen Ländern ins Visier der Datenschutzbehörden. In zumindest drei Staaten laufen derzeit Untersuchungen wegen möglicher Datenschutzverletzungen.
TikTok ergreift angesichts des wachsenden Behördeninteresses allerdings Gegenmaßnahmen. Inmitten der Corona-Pandemie trug sich der chinesische Konzern Ende April erstmals ins Lobbyregister der EU ein, TikTok verpflichtete sich außerdem zu freiwilligen Maßnahmen gegen Desinformation. Mit diesen Schritten möchte der Konzern zeigen, dass er sich an die europäischen Spielregeln hält.
Gegen TikTok gibt es bereits seit einiger Zeit eine Reihe von Vorwürfen. Dabei geht es um Sicherheitslücken der App, fragwürdige Moderationspraktiken und Desinformation zu Covid-19 ebenso wie um möglichen Zugriff der chinesischen Sicherheitsbehörden. Tatsächlich von Behörden untersucht werden in Europa bislang aber nur mögliche Datenschutzverstöße.
In den USA erhielt TikTok bereits im Vorjahr eine Millionenstrafe wegen Datenschutzverletzungen bei Kindern. US-Präsident Donald Trump droht seit Wochen mit Verbot der App, eine mögliche Übernahme durch Microsoft steht im Raum. Angesichts des Drucks heuerte der Konzern in Washington eine Armee von Lobbyisten an. Vergleichsweise sind die Lobbyanstrengungen des Konzerns in Europa noch eher gering.
Kinderrechte im FokusDatenschützer:innen in Dänemark, den Niederlanden und Frankreich prüfen TikTok. Seit Mai untersucht die niederländische Behörde, ob die App die Privatsphäre von Kindern unter seinen Nutzer:innen ausreichen schützt (mehr zu diesem Thema in unserer exklusiven Recherche: „TikTok setzte seine eigenen Altersbeschränkungen nicht durch“).
Auch in Dänemark und Frankreich gibt es Untersuchungen. Die französische Behörde arbeitet seit Mai an dem Thema, sie prüft den Schutz von Minderjährigen, beleuchtet aber auch die Einhaltung anderer Nutzer:innenrechte sowie Datenabflüsse aus Europa in Drittstaaten, schrieb ein Sprecher an netzpolitik.org.
Wie weit fortgeschritten die Untersuchungen sind, wollte keine der drei Behörden auf Anfrage verraten. Die Datenschutzpraktiken von TikTok sind aber längst ein europäisches Thema. Im Juni richtete der Ausschuss aller EU-Datenschutzbehörden eine eigene TikTok-Taskforce ein. Sie soll ein mögliches Vorgehen gegenüber TikTok europaweit koordinieren.
Irland als FlaschenhalsEine Schlüsselrolle hat Irland. TikTok will dort ein neues Datenzentrum für alle europäischen Nutzer:innendaten errichten. Für die Prüfung von möglichen Datenschutzverstößen wäre dann die irische Behörde federführend zuständig, wie es schon bei Facebook, Google und anderen großen Konzernen der Fall ist. Dem Schritt wird aber in Dublin offenkundig mit Skepsis begegnet. Die irische Behörde will prüfen, ob das überhaupt zulässig ist.
Irland ist bereits heute ein Flaschenhals für große Datenschutzfälle. Auch zwei Jahre nach Gültigkeit der Datenschutzgrundverordnung macht die irische Datenschutzbehörde kaum Fortschritte bei großen Fällen gegen Facebook und Google. Auch wenn der deutsche Bundesdatenschutzbeauftragte seine Hilfe anbot: Zu gering sind die Ressourcen der Behörde, zu mächtig die Rechtsabteilungen der Konzerne.
Sollte TikTok nun künftig in Irland sitzen, könnte das eine Untersuchung von Datenschutzproblemen bei der App deutlich erschweren. Der chinesische Konzern könnte dann in einem sicheren Hafen hinter Nebelschwaden verschwinden, warnt der Vorsitzende der italienischen Datenschutzbehörde.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
ByteDance: TikTok failed to bar users it suspected to be under 13
According to TikTok’s own rules, users must be at least 13 years old to create an account in the video sharing app. But many children and teenagers don’t care. The app asks for the date of birth, but TikTok does not check whether users are telling the truth.
Internally, TikTok has been aware of the problem for a long time. Not long ago, TikTok and its predecessor musical.ly were mainly populated tby kids; hardly anyone over 14 used the app.
To counter the problem, TikTok has developed an internal system called „user rate“. Content moderators were instructed to classify users into different age groups based to their appearance. This was confirmed to netzpolitik.org by two independent sources with insight into TikTok’s internal moderation practices in Europe. The policy was in place at least until the end of 2019. The categories were:
- Whitelist+ for users who looked 15 or older.
- Whitelist for users who looked 13 or older.
- Blacklist for users who looked younger than 13.
- No rate
Remarkable: The accounts of users assumed to be younger than 13 years old were not automatically blocked or suspended. Rather, their videos were restricted in range.
This contradicts TikTok’s rules and the company’s parental guidance. The latter states: „If your teen is under 13 years old and has registered for a TikTok account from 13 years old, you can notify us at privacy@tiktok.com. We will then take appropriate action.“
It is also a violation of European Union data protection laws. According to the General Data Protection Regulation, children and teens under the age of 16 need their parents‘ consent if they want to use apps such as TikTok, Facebook or Instagram. This consent must be given in writing in advance.
Conspicuous videos were escalated to BeijingIn countries such as Austria and Denmark the age for consent has been lowered to 13 years. But even there, TikTok appears to have deliberately risked breaking the law.
The „user rating“ was done in the same team as the rest of the content moderation, and there were specially trained staff members for this purpose. Moderators also had the option to escalate conspicuous videos to another team in Beijing, which could decide to block the account.
TikTok did not provide any statement on how many users were internally blacklisted and why their accounts were not blocked or suspended. TikTok also did not answer our question about how many users were subsequently blocked due to the age limit.
The company responded to our detailed questions with the following written statement: „As our Terms of Service make clear, TikTok is for people aged 13 and above. We have an age-gate system in place that asks people to provide their age to determine if they are eligible to use our platform. In addition, our policy has always been that, if we become aware that someone under 13 is using TikTok, we will promptly suspend their account.“
User rate was visible in the source codeUntil March of this year, the category „user_rate“ was also visible in the app’s source code: where users left comments under the videos of others. This was discovered by security researchers of the Australian Strategic Policy Institute (ASPI) when they examined the app. TikTok used a numerical system and for most users, the user rate was set to 1. However, some users had different numerical values. ASPI and netzpolitik.org were unable to find out more about what the values stand for and TikTok did not provide any information on request.
With an update in March the „user_rate“ disappeared from the source code of the comments section. Instead, there is now a new field: „user_buried“. The value can be set to „true“ or „false“. TikTok did not give any comment on what this value stands for.
TikTok has repeatedly been criticized for suppressing certain users or videos, especially through so-called shadowbanning. When a user is shadowbanned, their videos or comments are not deleted, but become invisible to all but the banned. The corresponding category in the internal moderation guidelines of TikTok was called „visible to self“.
Shadowbanning can be one way to keep bullies and trolls at bay. The intervention is difficult to prove, both for those affected and for outsiders. Shadowbanned users might only notice that their videos don’t get any views or that no one responds to their comments.
A quarter of all 10-year-olds use the appRecent date shows how many children are actually on TikTok: In Denmark, 4 out of 10 children between the ages of 9 and 14 are supposed to use the app every day, according to a recent survey by Danish Broadcasting Corporation DR. In Germany, according to a study by Bitkom, a quarter of all 10- to 11-year-olds used the app, among the 12- to 13-year-olds it was almost a third. The figures are from 2019, and are likely to be even higher today.
Now the Danish data protection authority has intervened. They are investigating whether TikTok possibly violates data protection laws in the country. In Denmark, users under the age of 13 are only allowed to register with an app like TikTok with their parents‘ consent. TikTok is not doing enough to ensure that this is the case, a lawyer for the authority told DR.
The data protection authorities in the Netherlands and France have also initiated proceedings. They are also concerned about the way TikTok handles children’s data.
In Denmark, TikTok this week blocked the account of 12-year-old user Lianna Riedel Frank, who had more than 10,000 followers – but only after DR reported on her. She used TiKTok with her mother’s consent.
TikTok has already been fined in the USTikTok has already paid millions for the careless handling of children’s data. In 2019, the US authorities imposed a record fine of 5.7 million dollars on TikTok for collecting data from children under the age of 13 without parental consent.
As part of the settlement, TikTok agreed to set up a special service for children under the age of 13 that would only be available in the United States and promised to remove all uploaded videos of these users.
However, according to a new complaint filed with the U.S. Consumer Protection and Competition Commission (FTC), TikTok has not fulfilled its obligations.
Currently, TikTok is on the verge of being shut down in the United States after Donald Trump issued two decrees against the company.
More control for parentsIn April, TikTok introduced new control mechanisms for parents. Using the „family pairing“ mode parents can limit the screen-time for their children, filter videos from the stream or determine who can send them messages. In addition, since the end of April, only users aged 16 and over can send and receive direct messages in the app.
The data protection authorities are well aware of the dilemma of young people and their parents. „For many users this is an important way of staying in touch with friends and spending time together during the Corona crisis,“ the Dutch data protection authorities wrote in a statement. At the same time, it writes that children and young people are particularly vulnerable and therefore need to be particularly well protected. Preliminary results of the investigation there are expected later this year.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Kinderdatenschutz: TikTok setzte seine eigenen Altersbeschränkungen nicht durch
Eigentlich müssen Nutzer:innen laut TikToks eigenen Regeln mindestens 13 Jahre alt sein, um einen Account in der Video-Sharing-App anlegen zu dürfen. Doch viele Kinder und Jugendliche schert das wenig. Die App fragt bei der Einrichtung lediglich nach dem Geburtsdatum. Ob die Angaben stimmen, überprüft TikTok nicht.
Intern ist TikTok das Problem lange bekannt. Noch vor gar nicht langer Zeit galten TikTok und die Vorgänger-App musical.ly als ausgesprochene Kinderplattformen, kaum jemand über 14 nutzte die App.
Um dem Problem zu begegnen, hat TikTok ein internes System entwickelt, die so genannte „user rate“. Moderator:innen sollten Nutzer:innen dem Augenschein nach in verschiedene Altersgruppen einordnen. Das berichten zwei unabhängige Quellen gegenüber netzpolitik.org, die Einblick in die internen Moderationspraktiken von TikTok in Europa hatten. Die Praxis wurde mindestens bis Ende 2019 angewandt. Die Kategorien lauteten:
- Whitelist+ für Nutzer:innen, die aussehen wie 15 oder älter.
- Whitelist für Nutzer:innen, die aussehen wie 13 oder älter.
- Blacklist für Nutzer:innen, die aussehen wie jünger als 13.
- No rate
Bemerkenswert: Nutzer:innen, die mutmaßlich jünger als 13 Jahre waren und deswegen in der Gruppe „Blacklist“ landeten, sollen demnach nicht automatisch gesperrt worden sein. Vielmehr wurden ihre Videos in der Reichweite eingeschränkt.
Das steht nicht nur im Widerspruch zu TikToks offiziellen Nutzungsregeln und der Botschaft des Unternehmens an Eltern. Sie lautet: „Wenn Ihr Teenager jünger als 13 Jahre alt ist und sich für ein TikTok-Konto ab 13 Jahren registriert hat, können Sie uns unter privacy@tiktok.com benachrichtigen. Wir leiten dann entsprechende Maßnahme ein.“
Es ist auch ein Verstoß gegen die Datenschutzgesetze der Europäischen Union. Denn laut Datenschutzgrundverordnung brauchen Kinder und Jugendliche unter 16 Jahren die Zustimmung ihrer Eltern, wenn sie Apps wie TikTok, Facebook oder Instagram nutzen wollen, die ihre Daten verarbeiten. Diese Einwilligung muss vorher schriftlich vorliegen.
Auffällige Videos nach Peking eskaliertIn einigen Ländern wie Österreich und Dänemark wurde das Alter für die Einwilligung auf 13 Jahre herabgesetzt, doch auch dort hätte TikTok mit der Praxis zumindest bewusst riskiert, gegen Gesetze zu verstoßen. Denn selbst im Fall der Nutzer:innen, bei denen intern davon ausgegangen wurde, dass sie unter der Altersgrenze liegen, wurde die Einwilligung der Eltern nicht eingeholt.
Das so genannte „user rating“ erfolgte oft im selben Team wie auch die sonstige Moderation, es gab dafür eigens ausgebildete Mitarbeiter:innen. Moderator:innen hatten zusätzlich die Möglichkeit, auffällige Videos an ein anderes Team in Peking zu eskalieren, das auch über die Sperrung von Accounts entscheiden konnte.
TikTok gibt auf Nachfrage von netzpolitik.org keine Auskunft dazu, wie viele Nutzer:innen intern auf der Blacklist landeten und warum ihre Accounts nicht gesperrt oder überprüft wurden. Auch auf unsere Frage, wie viele Nutzer:innen aufgrund der Altersbeschränkung nachträglich gesperrt worden sind, antwortete TikTok nicht.
Auf unsere detaillierten Fragen antwortete das Unternehmen mit folgendem schriftlichen Statement: „Wie unsere Nutzungsbedingungen deutlich machen, ist TikTok für Nutzer*innen ab 13 Jahren gedacht. Wir haben ein Altersfreigabesystem eingerichtet, bei dem Personen aufgefordert werden, ihr tatsächliches Alter anzugeben, um festzustellen, ob sie zur Nutzung unserer Plattform berechtigt sind. Sollten wir außerdem feststellen, dass eine Personen unter 13 Jahren möglicherweise TikTok nutzt, werden wir dies umgehend untersuchen und entsprechende Maßnahmen ergreifen.“
Kategorien auch im Quellcode sichtbarBis März dieses Jahres war die Kategorie „user_rate“ auch im Quellcode der App zu sehen: dort, wo Nutzer:innen Kommentare unter den Videos anderer hinterließen. Das entdeckten Sicherheitsforscher:innen des Australian Strategic Policy Institute (ASPI) als sie die App unter die Lupe nahmen. TikTok verwendete dabei ein numerisches System und für die meisten Nutzer:innen war die „user rate“ auf den Wert 1 gesetzt. Einige Nutzer:innen hatten jedoch andere Zahlenwerte. ASPI und netzpolitik.org konnten nicht genauer feststellen, wofür die Werte stehen und TikTok machte auf Anfrage keine Angaben dazu.
Mit einem Update im März verschwand die „user rate“ aus dem Quellcode der Kommentare. Stattdessen steht dort jetzt ein neues Feld: „user_buried“, übersetzt heißt das so viel wie „Nutzer:in begraben“. Der Wert kann auf „true“ oder „false“ gesetzt sein. TikTok machte keine Angaben dazu, wofür dieser Wert steht.
TikTok steht immer wieder in der Kritik, bestimmte Nutzer:innen oder Videos in der Reichweite zu unterdrücken, vor allem durch so genanntes Shadowbanning. In diesen Fällen werden die Videos oder Kommentare nicht gelöscht, sie werden aber unsichtbar für alle außer den Verbannten. Die entsprechende Kategorie in den internen Moderationsrichtlinien von TikTok lautete „visible to self“, sichtbar nur für einen selbst.
Shadowbanning kann eine Möglichkeit sein, um Mobber:innen und Trolle in Schach zu halten. Für die Betroffenen wie für Außenstehende ist der Eingriff schwer nachzuvollziehen. Verbannte bemerken höchstens, dass ihre Videos kaum noch angeschaut werden oder dass niemand auf Kommentare antwortet.
Ein Viertel aller 10-Jährigen nutzen die AppWie viele Kinder tatsächlich auf TikTok sind, zeigt eine aktuelle Erhebung: In Dänemark sollen 4 von 10 Kindern zwischen 9 und 14 Jahren die App täglich nutzen, das ergab eine aktuelle Umfrage des Dänischen Rundfunks DR. In Deutschland nutzten laut einer Studie von Bitkom ein Viertel aller 10- bis 11-Jährigen die App, unter den 12- bis 13-Jährigen waren es fast ein Drittel. Die Zahlen stammen von 2019. Inzwischen dürften sie noch höher liegen.
Jetzt hat sich die dänische Datenschutzbehörde eingeschaltet. Sie untersucht, ob TikTok womöglich gegen dortige Datenschutzgesetze verstößt. In Dänemark dürfen sich Nutzer:innen unter 13 Jahren nur mit Zustimmung der Eltern bei einer App wie TikTok anmelden. TikTok unternehme nicht genug, um das sicherzustellen, sagte ein Anwalt der Behörde gegenüber DR.
Auch in den Niederlanden und Frankreich haben die Datenschutzbehörden Verfahren eingeleitet. Auslöser ist auch dort der Umgang von TikTok mit Kinder-Daten.
In Dänemark hat TikTok diese Woche das Konto der 12-Jährigen Nutzerin Lianna Riedel Frank gesperrt, die mehr als 10.000 Follower hatte, allerdings erst, nachdem DR über sie berichtet hatte. Sie nutzte TiKTok mit der Zustimmung ihrer Mutter.
In den USA musste TikTok schon Strafe zahlenIn den USA hat TikTok für den sorglosen Umgang mit den Daten von Kindern schon Millionen gezahlt. Im Jahr 2019 verhängten die US-Behörden eine Rekordstrafe von 5,7 Millionen Dollar gegen TikTok, weil das Vorgänger-Unternehmen musical.ly Daten von Kindern unter 13 Jahren ohne Zustimmung der Eltern gesammelt hatte.
Im Rahmen des Vergleichs erklärte sich TikTok damit einverstanden, einen speziellen Dienst für Kinder unter 13 Jahren einzurichten, der nur in den USA verfügbar sein sollte, und versprach, alle hochgeladenen Videos dieser Nutzer:innen zu entfernen.
Laut einer neuen Beschwerde bei der US-amerikanischen Verbraucher- und Wettbewerbsbehörde FTC hat TikTok seine Verpflichtungen jedoch nicht erfüllt.
Derzeit steht TikTok kurz vor dem Aus in den USA, nachdem Donald Trump zwei Dekrete gegen das Unternehmen erlassen hat.
Mehr Kontrolle für ErziehungsberechtigteIm April hat TikTok neue Kontrollmöglichkeiten für Eltern vorgestellt. Im so genannten „begleiteten Modus“ können Eltern für ihre Kinder die Screentime begrenzen, Videos aus dem Stream filtern oder festlegen, wer ihnen Nachrichten schicken darf. Seit Ende April dürfen außerdem nur noch Nutzer:innen ab 16 Jahren Direktnachrichten in der App senden und empfangen.
Die Datenschutzbehörden sehen das Dilemma der Jugendlichen und ihrer Eltern durchaus. „Für viele Nutzer:innen ist das ein wichtiger Weg um mit Freunden in Kontakt zu sein und in der Corona-Krise gemeinsam Zeit zu verbringen“, schrieb die niederländische Datenschutzbehörde in einem Statement. Gleichzeitig schreibt sie, gerade Kinder und Jugendliche seien besonders verwundbar und müssten daher besonders gut geschützt werden. Vorläufige Ergebnisse der dortigen Überprüfung werden im Laufe des Jahre erwartet.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Bundesrepublik vs. Bundesrepublik: Innenministerium verklagt Bundesdatenschutzbeauftragten
Wer Informationen vom Bundesinnenministerium haben will, muss erst einmal selbst Informationen liefern. Das beim Informationsfreiheitsgesetz (IFG) federführende Ministerium weigert sich seit neun Jahren, IFG-Anfragen per E-Mail zu beantworten, die über die Plattform FragDenStaat.de bei ihm eintreffen. Nur wer Horst Seehofers Ministerium eine Postadresse mitteilt, erhält eine inhaltliche Antwort.
Dieses Verfahren wird nun erstmalig gerichtlich überprüft. Ulrich Kelber, der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, hat das Innenministerium und seine nachgeordneten Behörden angewiesen, bei einfachen Anfragen nicht mehr Daten als nötig einzufordern und damit auf die Sammlung von Postadressen zu verzichten. Das heißt, dass auch Anfragen möglich sein sollen, die unter einem Pseudonym gestellt werden. Dabei stützt sich Kelber nicht auf seine Funktion als Beauftragter für Informationsfreiheit, in der er kaum rechtliche Handhabe hat, sondern auf seine in der Datenschutzgrundverordnung festgeschriebene Kontrollfunktion.
Als erstes profitieren AnwälteDas Innenministerium will dieser Weisung allerdings nicht Folge leisten und weiterhin Adressen von Antragsteller:innen sammeln. Es hat vor dem Verwaltungsgericht Köln Klage gegen Kelbers Behörde, die bis vor kurzem selbst noch dem Innenministerium untergeordnet war, eingereicht. Dabei lässt sich das Ministerium von der Hauskanzlei der Bundesregierung, Redeker Sellner Dahs, vertreten. Auf der Klage steht dementsprechend „Bundesrepublik Deutschland ./. Bundesrepublik Deutschland“ – und bezahlt wird eine externe Rechtsanwaltskanzlei.
Aus dem Schriftwechsel zwischen den Behörden im Vorfeld der Klage, die auf Basis des Informationsfreiheitsgesetzes herausgegeben wurden, geht hervor, dass das Innenministerium vor allem grundsätzliche Probleme mit dem Informationsfreiheitsgesetz und FragDenStaat hat. Hans-Georg Engelke, Staatssekretär im Innenministerium und vormaliger Abteilungsleiter im Bundesamt für Verfassungsschutz, schreibt an Kelber, seine Behörde akzeptiere es nicht, dass Personen Anträge über FragDenStaat stellten und die Plattform „in die Kommunikation zwischen sich und dem BMI einbeziehen“.
Ministerium beschwert sich über „schikanöse Anträge“In weiteren Briefen an Kelber beschwert sich das Innenministerium darüber, die Nutzung von FragDenStaat führe „zu einer Belastung der Verwaltung mit Anträgen, bei denen zweifelhaft ist, ob sie nicht nur gestellt werden, um die Verwaltung schikanös zu beschäftigen oder zur einzelantragsunabhängigen Veröffentlichung bestimmter Informationen zu zwingen.“
Daraus wird deutlich, dass es dem Innenministerium vor allem darum geht, Bürger:innen davon abzuhalten, ihr Recht auf Informationsfreiheit vollständig nutzen zu können. Ob es diesen Kurs auch künftig fortsetzen kann, muss jetzt das Verwaltungsgericht Köln entscheiden.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Fuck the Algorithm: Jugendproteste in Großbritannien gegen maschinelle Notenvergabe erfolgreich
In Großbritannien protestieren seit dem Wochenende in London und anderen Städten Jugendliche gegen eine Vergabe ihrer Noten per Algorithmus – und wurden gehört.
Wegen der Corona-Pandemie und den Schulausfällen konnten Prüfungen zum Abitur und zur mittleren Reife nicht abgelegt werden. Zuerst plante das Bildungsministerium, dass die Lehrer:innen die Noten auf Grundlage früherer Bewertungen vergaben. Das führte dazu, dass die Noten im Durchschnitt besser waren als in den Vorjahren. Deswegen ließ das Bildungsministerium die Noten noch einmal mit einem Algorithmus korrigieren, der die Durchschnittsnoten der jeweiligen Schulen der Vorjahre mit einbezog. Die Folge: In 280.000 Fällen wurden Schüler:innen schlechter bewertet, das sind fast 40 Prozent aller Schulabschlüsse des Jahres.
Bei den Protesten machten die Schüler:innen auf Schildern darauf aufmerksam, dass sie den Algorithmus als diskriminierend wahrnehmen. So war auf Plakaten zu lesen, dass Lehrer:innen und nicht die Postleitzahlen über Noten entscheiden sollten. Die Maßnahme wurde mit Schildern wie „Classroom not Class War“ als sozial ungerecht bezeichnet. Hintergrund ist, dass Schüler:innen aus privaten, privilegierten und guten Schulen nicht von der Abwertung betroffen sein könnten, während „Problemschulen“ zur Abwertung führen können – ungeachtet der individuellen Schulleistungen der Einzelnen. Bei einer Demo in London skandierten die Protestierenden „Fuck the Algorithm“ und forderten den Rücktritt des Bildungsministers.
„Fuck the Algorithm“Auch sind unterschiedliche Bewertungen von Zwillingen bekannt geworden, die nach der Benotung durch die Lehrer exakt die gleichen Noten hatten, aber nach der algorithmischen Bewertung unterschiedlich dastanden. Auf den sozialen Bias von Algorithmen im Bezug auf Schulen und Schulnoten hatte schon 2017 Cathy O’Neil in ihrem Buch „Angriff der Algorithmen“ hingewiesen.
Die britische Regierung hatte zuerst angekündigt, dass man sich über die Notenvergabe beschweren könne, zog dieses Angebot dann aber wieder zurück. Nun hat die Regierung die umstrittene maschinelle Benotung zurückgenommen, die Noten der Lehrer:innen zählen jetzt doch.
Schottland hatte sich schon zuvor wegen der Probleme der algorithmischen Einstufung für die Noten der Lehrer:innen entschieden.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Was vom Tage übrig blieb: Eingekauft, eingetragen und vereinigt
Erfahrungen mit Preisbildungen beim Onlineshopping (Universität Duisburg-Essen)
Viele Online-Händler werten personenbezogene Daten ihrer Kunden aus, um ihnen anschließend unterschiedliche Preise für die gleichen Produkte abzuverlangen. Eine wissenschaftliche Untersuchung der Mercator School of Management der Universität Duisburg-Essen will nun Licht in dieses weiterhin intransparente Dickicht bringen und bittet um Mithilfe. Die Untersuchung selbst läuft anonym ab und nimmt etwa zehn Minuten Zeit in Anspruch.
Österreichische App ersetzt unsichere Coronalisten in Restaurants (Futurezone)
Die aus Österreich stammende „Lipp Gast App“ erlaubt es ihren Nutzer:innen über eine Abfrage künftig auch, ihre Kontaktdaten in Lokalen zu hinterlegen. Damit soll die App die in einigen Lokalen in Österreich aufliegenden Listen ersetzen, in denen sich Besuchende zur Kontaktverfolgung eintragen können. Gegen die Listen hatte es einige Kritik gegeben, da die eingetragenen Kontaktdaten wie die Telefonnummer immer wieder missbräuchlich verwendet worden waren.
Facebook begins merging Instagram and Messenger chats in new update (The Verge)
Die lange angekündigte Verschmelzung von Facebook Messenger, der Chat-Funktion von Instagram und WhatsApp hat offenbar begonnen. Instagram-Nutzer:innen in den USA erhielten nun Benachrichtigungen, nach denen sie künftig mit Facebook-User:innen Nachrichten austauschen können. Den Nachrichtenaustausch zwischen den Plattformen hatte der Konzern bereits vor eineinhalb Jahren verlautbart, dabei versprach Facebook-Chef Mark Zuckerberg die bislang nur bei WhatsApp existierende Ende-zu-Ende-Verschlüsselung für die Kommunikation zwischen den Plattformen. Ob von dem Versprechen noch etwas übrig bleibt, war zunächst allerdings noch unklar.
Hessische Polizei kontrolliert Beamte mit Venenscannern (Golem)
Dass die Polizei ein Problem mit der Nutzung dienstlicher Datenbanken durch Beamte für private Zwecke (z.B. Minderjährige groomen oder rassistische Drohbriefe schreiben) hat, ist inzwischen hinlänglich bekannt. In Hessen wird deshalb nun mit einer besseren Zugangskontrolle durch ein Zwei-Faktor-System experimentiert, bei dem die Polizist:innen ihre Identität nicht nur durch ein Passwort, sondern auch durch einen Venenscann bestätigen müssen. Fünf der kleinen Geräte werden bis Jahresende auf der Polizeistation in Rüsselsheim getestet. Entwickelt wird das System vom „INNOVATION HUB 110“, das laut Pressemitteilung des Innenministeriums eine „neue Software-Schmiede“ der hessischen Polizei ist, in der „die Mitarbeiterinnen und Mitarbeiter in Start-Up-Atmosphäre an der Entwicklung innovativer IT-Lösungen“ arbeiten. Effektiver gegen den Missbrauch der Datenbanken könnten allerdings ganz andere Maßnahmen sein, die nicht technischer, sondern organisatorischer Natur sind: Alle individuellen Zugangsberechtigungen werden künftig in einem dreiwöchigen Rhythmus zurückgesetzt. Außerdem dürfen Polizist:innen den Raum nicht mehr verlassen, solange sie am Computer angemeldet sind.
Jeden Tag bleiben im Chat der Redaktion zahlreiche Links und Themen liegen. Doch die sind viel zu spannend, um sie nicht zu teilen. Deswegen gibt es jetzt die Rubrik „Was vom Tage übrig blieb“, in der die Redakteurinnen und Redakteure gemeinschaftlich solche Links kuratieren und sie unter der Woche um 18 Uhr samt einem aktuellen Ausblick aus unserem Büro veröffentlichen. Wir freuen uns über weitere spannende Links und kurze Beschreibungen der verlinkten Inhalte, die ihr unter dieser Sammlung ergänzen könnt.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Corona-Warn-App: Corona-Infektionen in Bus und Bahn bleiben womöglich unbemerkt
Die Übertragung des Coronavirus im öffentlichen Nahverkehr wurde als eines der wichtigsten Szenarien für die digitale Kontaktverfolgung beworben. Forscher aus Irland zeigen jedoch, dass die Corona-Warn-App in Bussen und Bahnen nicht wie geplant funktioniert.
Bereits im Juni haben Douglas Leith und Stephen Farrell die Ergebnisse ihrer Messung veröffentlicht. Die Informatiker am Trinity College in Dublin stellten fest, dass Metall die Bluetooth-Signale reflektiert und es in der Folge zu falschen oder fehlenden Registrierungen der anderen Fahrgäste in Bussen und Straßenbahnen kommt.
Keine Kontakte registriertDas Ergebnis der Studie ist vernichtend: Unter optimalen Bedingungen, in denen alle Passagiere die Corona-Warn-App aktiviert haben, würde kein einziger Kontakt registriert. Gemessen wurde mit fünf Android-Smartphones, die sich über 15 Minuten in einem Radius von weniger als zwei Metern befanden. Das entspricht den Vorgaben der deutschen Tracing-App.
Bisher habe es noch keine Reaktion vonseiten der irischen Regierung oder der Betreiber des Nahverkehrs gegeben, sagt Leith gegenüber netzpolitik.org. Auch das Robert-Koch-Institut antwortete heute nicht auf eine Presseanfrage.
Digitale Kontaktverfolgung im ÖPNVDie Warn-App wird auf der Internetseite des RKI ausdrücklich für die Kontaktverfolgung im öffentlichen Nahverkehr beworben. „Die Corona-Warn-App kann Begegnungen mit Unbekannten im öffentlichen Raum, zum Beispiel im öffentlichen Nahverkehr oder beim Einkaufen im Supermarkt, erfassen“, schreibt die Forschungseinrichtung noch im Juli.
Circa 17 Millionen Menschen in Deutschland haben die Corona-Warn-App runtergeladen. Wie viele sie aktiv nutzen, lässt sich nicht feststellen. Angesichts der aktuell steigenden Neuinfektionen aufgrund von Reiserückkehrer:innen aus Risikogebieten dürfte die Kontaktverfolgung im öffentlichen Nahverkehr erneut wichtig werden.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Personalisierte Tickets: Fußballverband will Fan-Daten auch nach Corona erheben
Viele Menschen geben für den Pandemie-Schutz persönliche Daten her, die sie sonst nie freiwillig angeben würden, bei Stellen, denen sie sonst nie ihre Daten anvertrauen würden. Sei es über die Corona-Warnapp oder bei einem Besuch in einem Restaurant oder einer Bar.
Bei der Sorge, dass diese Daten bei Sicherheitsbehörden Begehrlichkeiten auch abseits der Pandemie-Bekämpfung wecken, muss nun wieder ein neues Kapitel aufgeschlagen werden. Hermann Winkler, Präsident des sächsischen Fußballverbandes, bringt im ARD-Mittagsmagazin (ab Minute 1:28) personalisierte Tickets zu Fußballspielen auch nach dem Ende der Pandemie ins Gespräch:
Ich finde das Thema personalisierte Tickets ganz interessant. Das ist ein Thema, was schon immer im Raum geistert, und vielleicht können wir das für die Zukunft für ganz andere Dinge nutzen. Ich denke an Pyro, ich denke an Gewaltexzesse, und das ist eine Sache, wo wir jetzt drüber nachdenken mit den Vereinen.
Geäußert hat Winkler diese Gedanken beim Halbfinalspiel des Sächsischen Landespokals zwischen dem FC Eilenburg und dem 1. FC Lokomotive Leipzig am 8. August 2020. Die Partie war laut dem sächsischen Innenministerium eine der ersten Begegnungen, bei der seit Beginn der Corona-Pandemie Zuschauer:innen zugelassen waren. Die Veranstalter:innen erfassten beim Einlass ins Stadion die persönlichen Daten der Fans.
Sächsischer Fußballverband lässt beinahe alle Fragen offenAuf Anfrage von netzpolitik.org sagte Präsident Winkler, der Hintergrund für personalisierte Tickets sei – abgesehen von der Kontaktverfolgung in Corona-Zeiten – ein höheres Maß an Sicherheit. Bei der UEFA und der FIFA sei das schon gängige Praxis. „Gewaltbereite Fans, die auf Stadionverbotslisten oder in anderer Weise im Fokus der Sicherheitsbehörden stehen, bekommen so keinen Zugang zu Spielen“, so Winkler.
Alle weitergehenden Fragen, wie genau eine Personalisierungspflicht aussehen könnte, welche Daten von wem wie lange gespeichert werden würden und ob diese Pflicht vom Fußballverband oder der Politik eingeführt werden müsste, wollte Winkler nicht beantworten. „Sollte der Vorschlag irgendwann konkreter werden, gibt es genügend Experten bei DFB, DFL und Faninitiativen, die sich aus verschiedenen Perspektiven damit beschäftigen werden“, so der Präsident.
Helen Breit von der Faninitiative „Unsere Kurve“ kritisiert gegenüber netzpolitik.org Winklers Vorstoß: „Eine Debatte um personalisierte Tickets aktualisiert wiederkehrend ein Bild von Fußballfans als Sicherheitsproblem. Wir stellen uns ausdrücklich gegen eine solche Kategorisierung. Wir haben sichere Stadien und werden das auch in Zukunft haben, hierfür bedarf es keiner weiteren Instrumente.“
Fußballfans: Erst diskreditiert und dann überwacht?Ein Blick in die Polizeistatistik scheint Breits Einschätzung zu bestätigen [PDF]. In der Fußball-Saison 2018/19 besuchten insgesamt 22 Millionen Zuschauer ein Spiel der obersten drei deutschen Ligen. In den Anhängerschaften der Vereine in diesen Ligen registrierte die Polizei im selben Zeitraum 13.374 Personen, die als gewaltbereit oder sogar gewaltsuchend eingestuft werden.
Obwohl Fanvertreter:innen schon die Einstufung von Fanseite als willkürlich und intransparent kritisieren, machen die gewaltaffinen Fans deutschlandweit nur 0,07 Prozent aller Stadionbesucher:innen aus. Es erscheint fragwürdig, ob ein so geringer Anteil eine flächendeckende Datenerhebung aller Fans rechtfertigt.
Es sei leider nichts Neues, dass einzelne Akteure aus der Politik Fußballfans pauschal diskreditieren und „dies dann für den Ausbau von Überwachungsmaßnahmen nutzen wollen“, so Breit. In Zeiten von Corona habe man Verständnis dafür, dass eine Kontaktverfolgung gewährleistet sein müsse, wenn Fans wieder in die Stadien zurückkehren sollen. Diese Maßnahmen dürften aber nur vorübergehend sein. Breit fordert, die allgemeine Debatte über Personalisierung nicht mit dem Gesundheitsschutz zu vermischen: „Wir haben deutlich gemacht, dass für uns bei dem sehr sensiblen Thema persönlicher Daten eine frühzeitige und kontinuierliche Einbindung von Datenschutzbeauftragten unabdingbar ist. Denn nur so kann aus unserer Sicht garantiert werden, dass bei einer Erfassung persönlicher Daten der Datenschutz konsequent eingehalten wird.“
Datenschutzbeauftragter sieht keine Probleme beim DatenschutzOb die Fanvertreter:innen von den Datenschutzbeauftragten die erhoffte Unterstützung bekommen, ist aber fraglich. Andreas Schneider, Sprecher des sächsischen Datenschutzbeauftragten, sieht in personalisierten Tickets kein Problem. Er könne zwar nicht einschätzen, inwieweit eine Personalisierung bei der Aufklärung von Straftaten zweckmäßig sei. Bei Konzerttickets sei diese Praxis aber schon länger üblich, Schneider sieht keinen Grund, warum sie nicht auch im Fußball Anwendung finden sollte.
Auch Mario Stenzel, Referent im sächsischen Innenministerium, will auf Anfrage von netzpolitik.org nicht beantworten, ob es von Seiten der Landespolitik Pläne für personalisierte Tickets auch nach der Pandemie gibt. Er erklärt lediglich, dass der Minister personalisierte Tickets während der Pandemie als sinnvoll erachtet. Im Innenministerium fahre man „auf Sicht“. Zu Winklers Gedankenspielen um personalisierte Tickets abseits des Infektionsschutzes wollte sich Stenzel nicht äußern.
Fankultur in GefahrFanvertreterin Helen Breit von „Unsere Kurve“ sieht durch die Personalisierung vor allem die Fankultur in Gefahr:
Ein weiterer Ausbau des Sicherheitsapparats im deutschen Fußball und weitergehende Begrenzungen des freien Auslebens des Fandaseins gefährden unsere einzigartige Fankultur in besonderem Maße. Spontane Spielbesuche oder die Weitergabe einer Karte bei persönlicher Verhinderung sind damit kaum mehr möglich.
Auch rechtlich hält sie die Regelungen für fragwürdig: „Eine Karten- und Platzzuweisung […] verletzt unseres Erachtens rechtsstaatliche Prinzipien der Verhältnismäßigkeit und Persönlichkeitsrechte. Persönliche Daten sind ein sehr hohes Gut in unserer demokratischen Gesellschaft und müssen konsequent geschützt werden. Der Besuch eines Fußballspiels darf kein Anlass für Sammlung von Daten auf Vorrat sein.“
Breit befürchtet auch, dass die Daten zu Vermarktungszwecken genutzt werden könnten und Fußballfans „zum Kunden reduziert“ werden. Die Daten, die rund um einen Stadionbesuch entstünden und potenziell zusammengeführt werden könnten, stellen laut Breit ein „höchst komplexes Datenvolumen dar, das starker Kontrolle und engen Beschränkungen unterliegen muss“. Daten zur Person könnten beispielsweise über eine Dauerkartennummer mit Standortdaten oder Bezahlfunktionen verknüpft werden.
Nutzung der Daten durch die Polizei?Der Sprecher des sächsischen Datenschutzbeauftragten Schneider hält sogar die Nutzung der Daten durch die Polizei für möglich. Die Strafprozessordnung gebe Ermittlungsbehörden die Möglichkeit, verfügbare Daten für Ermittlungen zu verwenden, die zu anderen Zwecken erhoben wurden. Er sieht in Sachsen einen gewaltaffinen Fußballbereich, in dem schwere Straftaten erwartbar seien. Daten von Zuschauer:innen für Ermittlungen zu nutzen, liege im Ermessen der Polizei und der Staatsanwaltschaft.
Mario Stenzel aus dem Innenministerium gibt an, dass die Veranstalter:innen der beiden Halbfinalspiele des Landespokals die Daten der Fans nicht an die Polizeidirektion Leipzig übermittelt haben. Er betont aber genau wie Schneider, dass das theoretisch im Rahmen der Strafprozessordnung denkbar wäre.
Die Daten würden nach dem Ticketkauf bei den Vereinen gespeichert werden, erklärt Andreas Schneider. Daten im Zusammenhang mit dem Zahlungsverkehr müssten die Vereine nach Handels- bzw. Steuerrecht bis zu zehn Jahre aufbewahren. Alle weiteren Daten sollten die Verantwortlichen nach Zweckerfüllung löschen. Bei einer polizeilichen Ermittlung könnte die Löschung aber aufgeschoben werden. Einen genauen Zeitraum bis zur Löschung konnte der Sprecher nicht nennen.
Das ist insofern fragwürdig, als dass Schneider auch nicht ausschließt, dass die Ermittlungsbehörden die Daten für die Aufklärung von Straftaten verwenden könnten, die nicht in Zusammenhang mit der Veranstaltung verübt wurden. Ob im Rahmen eines Fußballspiels eine Straftat verübt wurde, steht relativ schnell nach Ende der Veranstaltung fest. Will die Polizei die Daten aber – vergleichbar mit den Corona-Listen aus der Gastronomie – auch für Ermittlungen außerhalb verwenden, ist unklar, wie lange Vereine die Daten hierfür vorhalten müssten.
Der sächsische Datenschutzbeauftragte Andreas Schurig ist seinem Sprecher zufolge vom sächsischen Fußballverband und Präsident Winkler noch nicht zur Personalisierung von Tickets nach der Pandemie konsultiert worden. Es habe bislang nur im Zuge der allgemeinen Corona-Bestimmungen für Sportveranstaltungen Abstimmungen gegeben. Dass Schurigs Mitwirken an einem Konzept für personalisierte Tickets dem Datenschutz der Fans erheblichen Vorschub leisten würde, erscheint nach den Aussagen seines Sprechers unwahrscheinlich.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Künstliche Intelligenz: Gemeinwohl und Nachhaltigkeit statt nur Profit
Annika Kettenburg studierte Umwelt- und Nachhaltigkeitswissenschaften in Lüneburg, Thailand und Lund (Schweden). In ihrer Masterarbeit, auf der dieser Artikel basiert, untersuchte sie die Potentiale und Grenzen von Künstlicher Intelligenz für Nachhaltigkeit sowie die vorherrschenden Motive im politischen Diskurs um KI.
Künstliche Intelligenz und Nachhaltigkeit: Eine kritische AnalyseWohin wir blicken: Die hohen gesellschaftlichen Erwartungen an Künstliche Intelligenz (KI) bleiben omnipräsent. Man schreibt KI Chancen und Risiken riesigen Ausmaßes zu oder stilisiert KI gar als „game changer for climate change and the environment“.
Jedoch ist Maschinelles Lernen (ML) – der Kerninhalt des Oberbegriffs KI – nur für wenige Bereiche sehr gut geeignet und, wie jede Technologie, keine Lösung für soziale und ökologische Probleme.
Um dies zu erläutern, unterscheide ich zwei Ebenen, die im öffentlichen Diskurs zu KI und Nachhaltigkeit häufig nicht stark genug getrennt werden: Da ist die Sphäre der technischen Möglichkeiten, in der KI-Anwendungen für gesellschaftliche Probleme erdacht oder ihre Kosten und Nutzen für Nachhaltigkeit abgewogen werden. Auf dieser Ebene, im Elfenbeinturm der abstrakten Ideen, spielt sich nahezu die gesamte Debatte ab.
Ausgeblendet wird dabei die zweite Ebene: ihr realweltlicher Schauplatz. Hier verlieren logische Argumente über den gemeinwohlfördernden Einsatz von KI an Bedeutung gegenüber ganz anderen Logiken – zum Beispiel dem Streben, mit KI den eigenen Einfluss zu vergrößern.
KI im Elfenbeinturm: Theoretische Limitationen und Chancen für NachhaltigkeitMaschinelle Lernverfahren generalisieren Daten in Modellen und extrapolieren Werte auf Basis der abgeleiteten Funktionen, meist im Rahmen von Regressions- oder Clusteranalysen. Besonders durch den Einsatz neuronaler Netze erfuhren diese bewährten statistischen Verfahren in den letzten Jahren eine große Steigerung ihrer Performanz.
Immer noch aktuell bleibt zugleich die Mahnung zur Vorsicht im Umgang mit solchen Analysen: Daten sind immer von Menschen erzeugt, somit Konstrukte und nie ein objektives Abbild der Realität. Die Repräsentativität von Daten wird stets vorausgesetzt, jedoch faktisch nie erreicht. Fehler sind und bleiben inhärente Bestandteile von ML-Modellen. Die Intransparenz neuronaler Netze verbirgt Fehler und bietet Einfallstore für die gezielte Manipulation.
Wie wünschenswert ist Maschinelles Lernen, und wie mächtig?Umso komplexer die zu modellierenden Zusammenhänge und umso folgenreicher die Anwendung dieser Modelle, desto wichtiger wird die ethische Abwägung des Einsatzes von ML. So ist es zwar möglich, ML zur Vorhersage von sozialem Verhalten für automatisierte Entscheidungsverfahren zu verwenden, etwa für das Kredit-Scoring, Berechnungen der Rückfallwahrscheinlichkeit oder für die Verteilung von Sozialhilfe. Doch während man einen technischen Prozess durch Daten annäherungsweise abbilden kann, ist dagegen die soziale Wirklichkeit nur subjektiv selektiv modellierbar. Zugleich wären Fehlentscheidungen des Modells hier weitaus folgenreicher für die Betroffenen. Darum fokussiert sich dieser Artikel auf die ökologische Komponente der Nachhaltigkeit.
Wie mächtig ist ML? Begriffe wie Künstliche Intelligenz oder Maschinelles Lernen suggerieren, dass die Technologie selbst zum Akteur wird. Doch Daten und ML-Modelle sind Produkte menschlichen Handelns: Daten werden gesammelt und gelabelt, ML-Methoden ausgewählt, Hyperparameter bestimmt, damit herumexperimentiert, erreichte Treffgenauigkeiten als ausreichend akzeptiert und dann das Modell in konkrete Anwendungen eingebettet. Diese menschliche Kontrolle entzaubert KI.
Wie kann ML zu Nachhaltigkeit beitragen? Die Nachhaltigkeitspotentiale von ML kann man grob in zwei Klassen einteilen: zum einen die Generierung empirischen Wissens über Umweltprozesse, gegebenfalls angewandt in Frühwarnsystemen; zum anderen die Steigerung von technischer Effizienz durch genauere Abstimmung von Angebot und Nachfrage.
Generierung empirischen WissensMit Hilfe von ML kann beispielsweise besser vorhergesagt werden, an welchen Standorten und zu welchen Zeitpunkten Dürre droht, Starkregen zunimmt, Gewässer eutrophieren oder die Biodiversität besonders stark abnimmt.
Doch was bewirkt es, das Insektensterben genauer zu kartieren, wenn dort dann kein Lebensraum geschaffen wird? Die Hauptgründe für den Artenrückgang, also intensive Landwirtschaft und Zersiedlung, sind gesellschaftliche Prioritäten. Diese ändern sich nicht automatisch durch mehr Wissen um den damit einhergehenden Biodiversitätsverlust. Umweltwissenschaftler*innen rennen mit ihrer Forschung gegen Wände, und das schon seit Jahrzehnten.
Selbst Frühwarnsysteme vor Naturkatastrophen sind nur so effektiv wie das Krisenmanagement, in das sie eingebettet sind. So sind beispielsweise Warnungen vor Hurrikans in allen Karibikstaaten verfügbar, dennoch unterscheiden sich ihre Opferzahlen erheblich – wie Telepolis bei Hurrikane Matthew titelte: „542 Tote in Haiti, 21 Tote in den USA, 0 Tote in Kuba“. Was zählt, sind die Taten vor und nach einer Katastrophenwarnung, die sofortige Evakuierung und langfristige Prävention, sprich das soziale und politische Krisenmanagementsystem.
Grundlagenforschung ist und bleibt elementar, um unseren Planeten besser zu verstehen und gefährliche Entwicklungen zu antizipieren. Ohne hochkomplexe Klimamodelle – die durch Maschinelle Lernverfahren weiter verbessert werden können – gäbe es Klimawandelbekämpfung und -anpassung in ihrem heutigen Ausmaß wohl nicht. Wie beim Artensterben oder bei Naturkatastrophen ist es hier jedoch eine gesellschaftliche und politische Aufgabe, diesen Umweltveränderungen die entsprechende Relevanz beizumessen sowie Erkenntnisse in politische Strategien und praktische Routinen zu übersetzen.
Das Steigerung technischer EffizienzML-Verfahren können die Genauigkeit von Vorhersagen verbessern. Diese Stärke wird für technische Innovationen genutzt, die mit höherer Treffsicherheit Angebot und Nachfrage zusammenführen.
Einige Beispiele: Durch die Vorhersage der Stromverfügbarkeit in Abhängigkeit von Wetterdaten kann in einem Smart Grid Energie zu den richtigen Zeiten gespeichert beziehungsweise besonders stark verbraucht werden. In der Landwirtschaft können lokale Analysen der Boden- und Pflanzenparameter Entscheidungen über den Dünge- oder Pflanzenschutzbedarf unterstützen. Fahrpläne und Routen im öffentlichen Nahverkehr können auf Basis von Auslastungsdaten besser geplant werden. Durch eine gleichmäßigere Fahrweise können Fahrzeugassistenten etwas Sprit sparen und Staus vermeiden.
Doch Fahrzeugassistenten reduzieren nicht per se das Verkehrsaufkommen, noch motivieren sie uns dazu, Fahrzeuge zu teilen oder gar auf das Fahrrad umzusteigen. Womöglich führen sie dazu, dass Mobilität noch günstiger und bequemer wird, so dass wir häufiger fahren – der bekannte Rebound-Effekt, der Effizienzsteigerungen durch Konsumzunahme energetisch zunichtemacht.
Die häufig geforderten Agrar-, Energie- und Verkehrswenden benötigen primär ganz andere Erfolgszutaten als die marginalen Wissens- und Effizienzzuwächse, die KI ermöglicht. Es bedarf neuer gesellschaftlicher Institutionen, die uns Güter wie Lebensmittel, Energie und Mobilität auf andere Weise bereitstellen. Zum Beispiel ein Verkehrssystem, das viel stärker auf öffentliche, geteilte Fahrten setzt, auf der letzten Meile vielleicht auch selbstfahrend; ein Energiesystem, das auf erneuerbare Quellen umstellt, dabei Nutzer einbindet und Akzeptanz schafft; ein Ernährungssystem, das regionalen und saisonalen Waren den Vorrang einräumt, kleine, nachhaltig wirtschaftende Landwirtschaftsbetriebe unterstützt und Lebensmittelverschwendung eindämmt.
ML kann hier durchaus Beiträge leisten, indem man durch die Vorhersage und Synchronisierung von Angebot und Nachfrage Öko-Effizienz steigert – vorausgesetzt der Effizienzzuwachs ist größer als der materielle Fußabdruck von ML, also der Ressourcenbedarf für Training und Nutzung von ML-Verfahren. Diese Beiträge von KI sind jedoch nichts als Gedankenspielereien, wenn die nötigen Umstrukturierungen nicht gesellschaftlich gewünscht und politisch in Gesamtstrategien eingebettet werden.
KI in der echten Welt: Spielball im fossilen Status quo gesellschaftlicher MachtstrukturenEine effektive Bekämpfung der Klimakrise, des Biodiversitätsverlusts und globaler sozialer Ungleichheit – kurz: die „Große Transformation“ – verlangt nach solchen tiefgreifenden Umstrukturierungen. Technologien können als Werkzeuge nur dazu beitragen, wenn ihr gemeinwohlorientierter Einsatz politisch durchgesetzt wird. Doch die politische Kehrtwende erscheint utopisch – unsere gesellschaftlichen Strukturen und Prozesse spiegeln das Primat des globalen Wettbewerbs um Wirtschaftsmacht wider, während unsere Infrastruktur uns in Abhängigkeit von fossilen Ressourcen hält.
Zugleich ist Technik kein neutraler Faktor, der für Gutes und Schlechtes jederzeit gleichermaßen dient – abstrakt gesehen schon, aber realweltlich nicht. Technologien sind Produkte menschlicher Vorstellungen und Interessen, und solange wir in den beschriebenen Strukturen leben, werden sie zum Großteil erdacht und eingesetzt, um diese dominanten Strukturen zu reproduzieren.
Wofür die ausgereiftesten KI-Systeme heutzutage vornehmlich entwickelt werdenIn diesem großen Bild des fossilen Status quo ist darum viel mehr zu fragen, wie mächtige Akteure KI für ihre Zwecke instrumentalisieren, um die sie begünstigenden Machtverhältnisse aufrechtzuerhalten. Warum werden Smart-Grid-Systeme, Precision Farming oder Fahrzeugassistenten entwickelt? Weil diese Technologien Kosten sparen oder neue Absatzmärkte erschließen, weil sie die Bilanz des nächsten Quartalsberichts aufpolieren und nicht, weil sie dem Gemeinwohl nützen. Das betriebswirtschaftliche Kalkül treibt die heutige KI-Entwicklung fern der nachhaltigen Nische an.
Momentan entscheidet eine Handvoll Unternehmen darüber, welche der vielen KI-Entwicklungen weiter verfolgt wird und wer die Ressourcen erlangt, neue Anwendungen zu erdenken. Auch Regierungen streben durch eine gezielte Forschungs- und Wirtschaftsförderung primär an, ihre nationale Produktivkraft zu steigern oder sich geopolitisch zu behaupten.
So verwundert es nicht, dass die ausgereiftesten KI-Systeme heutzutage vornehmlich für Konsumsteigerung und Kundenbindung entwickelt werden, etwa in Form von Empfehlungssystemen und Sprachassistenten, zur Erschließung neuer Absatzmärkte in der Autoindustrie, zur Automatisierung in Fabriken, für den Hochfrequenzhandel im Aktienmarkt, für die Gesichtserkennung zur staatlichen Überwachung oder gar für eine effektivere Kriegsführung durch autonome Waffensysteme.
Häufig heißt es in solchen Zusammenhängen, die Technologie rase dem Gesetzgeber davon – aber sind es nicht auch Unternehmen, die Technologien vorschnell implementieren, Gesetzeslücken gezielt ausnutzen und Gesetzgebungsprozesse beeinflussen? Sind es nicht auch Gesetzgeber selbst, die Lücken bewusst offenlassen oder die vorhandene Rechtsprechung nicht konsequent durchsetzen?
Es gilt jedoch, nicht nur die Praktiken von Unternehmenszentralen und Regierungen zu kritisieren, sondern zu fragen, welche Umstände ein solches Agieren fördern. Es sind geschichtlich eingebettete Logiken und Diskurse, Institutionen und Infrastrukturen, Regeln und Normen, Gesetze und Wirtschaftsordnungen, die unser Leben bedingen und formen. Sie gestalten unseren Möglichkeitsraum.
Überspitzt formuliert: Ohne sichere Radwege und ausgebauten ÖPNV – keine nachhaltige Mobilität; ohne Preise, die externe Kosten abbilden, – kein nachhaltiger Konsum; ohne finanzielle Grundsicherheit – wenig Gedanken an die sozial-ökologische Utopie oder Zeit für demokratische Einflussnahme; ohne Repräsentanz im Parlament – keine ausgeglichene Vertretung gesellschaftlicher Interessen; im globalen Wettbewerb um knappe Ressourcen, stets die verinnerlichte Selbstoptimierung und institutionalisierte Kostenminimierung; im Finanzmarkt des Überschusskapitals, nur die Jagd auf die höchsten Rendite bei der Wahl von KI als Investitionsobjekt. Strukturen sind größer als Individuen – und so kann man selbst Trump als Symptom seiner Gesellschaft sehen.
Fazit: Erwartungen an KI begrenzen und strukturelle Probleme angehenIn diesem großen Bild der ausbleibenden Nachhaltigkeitstransformation spielt Technik eine untergeordnete Rolle – und für KI bleibt nur eine wesentlich kleinere. Frühwarnsysteme und Energieeffizienzgewinne sind Bausteine einer Großen Transformation, aber nicht ihr Fundament.
Es gibt viele umweltrelevante Einsatzbereiche für ML – all jene, in denen sich ein Problem als quantitativ-statistische Frage beschreiben und durch Daten abbilden lässt. Solche Fragen sind thematisch weit gestreut und betreffen beispielsweise Klimaschutz, Energie, Transport, Landwirtschaft bis zu Naturschutz. Es ist nur nicht absehbar, dass ML-Analysen in diesen Bereichen als „game changer“ zum Wandel zur Nachhaltigkeit beitragen werden – denkbar sind schrittweise Verbesserungen, maximal Etappensiege.
Ich möchte die Beiträge von KI nicht per se schmälern, nur die Erwartungen in Bezug auf sozio-ökologische Probleme zurechtrücken. Es bleibt richtig und gut, die Nische zu stärken, nachhaltige KI-Anwendungen zu fördern und der öffentlichen Imagination Alternativen entgegenzusetzen. Fast allen Akteuren der Nische ist ihre Position schmerzlich bewusst. Denn ohne politisch durchgesetzte Änderungen unserer gesellschaftlichen Strukturen werden diese KI-Anwendungen ihr Potential nicht systematisch entfalten können. Ohne strukturelle Änderungen wird eine Elite weiter Technologien aus primär wirtschaftlichem Kalkül entwickeln und wir uns im Nachhinein fragen, ob und wie diese jetzt eigentlich zum Gemeinwohl beitragen.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
Diskriminierung: Airbnbs schwieriger Umgang mit Sexarbeiter:innen
Auf der Suche nach einer Unterkunft für den nächsten Urlaub? Fast 7,9 Millionen Deutsche nutzten dafür 2018 die Online-Plattform Airbnb. Aber es gibt Menschen, denen es Airbnb offenbar erschwert, eine Unterkunft zu buchen. Das betrifft laut Medienberichten etwa Sexarbeiter:innen in den USA und Großbritannien. Auch Sexarbeiter:innen, die Airbnb für den privaten Urlaub nutzen wollten, wurden laut Berichten ihre Accounts gesperrt. Recherchen von netzpolitik.org zeigen, dass es auch Fälle im deutschsprachigen Raum gibt, obwohl Sexarbeit in Deutschland und der Schweiz legal ist.
Der Begriff Sexarbeiter:in bezeichnet Angehörige der Prostitutionsbranche, die einvernehmliche sexuelle Dienstleistungen anbieten. Er grenzt ihre Tätigkeit von der Zwangsprostitution ab.
Seit 2018 kooperiert Airbnb mit Polaris Project. Der Kooperation waren Berichte und Beschwerden über sogenannte Pop-up-Bordelle in Airbnb-Unterkünften vorausgegangen. Polaris Project engagiert sich gegen Menschenhandel. Laut einem Bericht von Airbnb nutzt es die Daten von Polaris Project, um bei Nutzer:innen Hinweise auf Menschenhandel zu finden. Polaris Project wird allerdings dafür kritisiert, Sexarbeit generell zu bekämpfen und nicht zwischen einvernehmlicher Sexarbeit und Zwangsprostitution zu unterscheiden.
Airbnb schmeißt Sexarbeiter:innen von der PlattformGerade dort, wo Prostitution nur in Bordellen oder als Hausbesuch bei Freier:innen erlaubt ist, weichen Sexarbeiter:innen aus finanzieller Not häufig auf Privatunterkünfte aus. So ist es zum Beispiel in vier Bundesländern in Österreich. Die Bundesländer regeln Prostitution dort eigenständig, Wohnungsprostitution ist aber überall verboten. Sexarbeiter:innen müssen den Bordellbetreiber:innen Miete für ihr Zimmer zahlen. Viele zwinge das in die illegale Prostitution in selbst angemieteten Airbnb-Wohnungen, berichtet Christian Knappik gegenüber netzpolitik.org. Er ist Sprecher des österreichischen Online-Forums sexworker.at und betreut auch dessen Notfall-Hotline. „Hier rufen täglich verzweifelte Frauen an, die die Polizei in Airbnb-Wohnungen gelockt hat“, sagt er.
Die Methode der Polizei: Fake-Freier buchen eine:n Prostituierte:n und fordern diese:n dazu auf, eine Unterkunft anzumieten. Dort greifen die Beamten zu. Ein entsprechendes Dokument der Prostitutionskontrolle durch die Polizei und dazugehörige Chat-Verläufe liegen netzpolitik.org vor. Nicht nur die Prostituierten, sondern auch die Vermietenden erwarten in diesem Fall hohe Geldstrafen, Christian Knappik spricht von mehreren Tausend Euro.
Er kennt aber auch konkrete Fälle, in denen die Airbnb-Accounts von Sexarbeiter:innen gesperrt wurden. In zwei Fällen aus Österreich konnten Prostituierte keine Unterkunft buchen, mit der Begründung, „die Anmietung sei zweifelhaft“, berichtet Christian Knappik. Die Betroffenen hatten Airbnb für ihre Arbeit genutzt. Daraufhin seien ihre Konten gesperrt worden. Er vermutet, dass Airbnb bei diesen Maßnahmen auf Informationen des Zahlungsdienstleisters Paypal zurückgegriffen hat. „Paypal sperrt alles, was mit Erotik zu tun hat“, sagt Knappik. In seiner Nutzungsrichtlinie verbietet der Bezahldienst die Nutzung für „Aktivitäten“, die „mit Transaktionen bezüglich […] bestimmten sexuell orientierten Materialien oder Diensten […] zu tun haben.“
Fälle auch in Deutschland und der SchweizIm Fall einer deutschen Sexarbeiterin warf Airbnb ihr außerdem „gewerbliche Nutzung“ vor, sagt Knappik. Die Betroffene erzählte ihm, dass sie sich per Mail an Airbnb gewandt, aber keine Antwort erhalten habe. Ähnliches habe eine Sexarbeiterin aus der Schweiz erlebt und im Forum sexworker.at geschildert, berichtet Christian Knappik weiter. Wie die Einschränkungen zustande kamen, ist für die Betroffenen nicht transparent.
Airbnb verfügt über ein Patent für einen Algorithmus, der die vermeintliche Vertrauenswürdigkeit von Mieter:innen berechnen soll. Er bezieht auch Berührungspunkte zu Sexarbeit in das Ranking mit ein. Das Unternehmen bestreitet gegenüber netzpolitik.org, in Deutschland dieses Verfahren zur Risikoeinschätzung zu nutzen: „Wir greifen derzeit nicht auf dieses Patent zurück, um Prozesse über Benutzer:innen in Deutschland auszuführen.“ (eigene Übersetzung)
Elissa M. Redmiles berichtet auf Twitter von Sexarbeiter:innen, die Probleme mit Airbnb-Accounts hatten, auch wenn sie die Plattform privat nutzen wollten. Sie forscht im Bereich digitale Sicherheit und Ungleichheit für Microsoft Research und das Max-Planck-Institut für Software-Systeme. In ihrer Interview-Studie unter Sexarbeiter:innen in Deutschland und der Schweiz hätten mehrere Teilnehmer:innen ausführlich darüber berichtet, dass ihre Airbnb-Konten gesperrt wurden. Elissa Redmiles‘ Studie ist noch nicht erschienen, aber wir konnten ein Überblickskapitel ihrer Arbeit einsehen.
Abgleich mit BehördendatenDass Airbnb Menschen, die der Sexarbeit nachgehen, von seiner Plattform wirft, gehört offenbar zu seiner Sicherheitsstrategie. Auf seiner deutschen Website schreibt das Unternehmen:
Wir nutzen Vorhersagemethoden und maschinelles Lernen, um auf der Stelle Hunderte von Signalen auszuwerten, die uns dabei helfen, verdächtige Aktivitäten zu erkennen und zu unterbinden, noch bevor sie eintreten.
Das Unternehmen gibt an, „weltweit bei allen Gastgebern und Gästen einen Abgleich mit Behörden-, Terroristen- und Sanktionslisten“ durchzuführen – „auch wenn natürlich kein Überwachungssystem perfekt ist.“ In den USA werde außerdem der Hintergrund von Nutzer:innen überprüft. Damit ist gemeint, dass Personen auf frühere Verurteilungen wegen Straftaten, Registrierung von Sexualstraftäter:innen und anderen „erheblichen Vergehen“ geprüft werden, wie das Unternehmen an anderer Stelle ausführt. Außerdem lässt es Profilfotos und jegliche Bilder, die über die Nachrichtenthreads versendet werden, durch die sogenannte PhotoDNA-Datenbank laufen, die sie auf kinderpornografische Inhalte prüft.
Sexarbeit mit Straftaten auf einer StufeDas alles sind Maßnahmen, die Gastgeber:innen und Gäst:innen eine sichere und positive Erfahrung ermöglichen sollen. Der Grat zwischen Vorsicht und Ausgrenzung ist schmal. Der patentierte Algorithmus stuft neben Sexarbeit auch „negative Persönlichkeitsmerkmale“ und drogenkonsumierende Menschen als wenig vertrauenswürdig ein.
In dem dazugehörigen Patent heißt es, der Algorithmus orientiert sich unter anderen an Persönlichkeitsmerkmalen wie „Güte“, „Gewissenhaftigkeit“, „Offenheit“, „Verträglichkeit“, „Neurotizismus“, „Narzissmus“ und „Psychopathie“. Verhaltensmerkmale, die der Algorithmus berücksichtigt, sind unter anderen: Erstellung von Fake-Profilen, Drogen- und Alkoholkonsum, Verbindungen zu Hass verbreitenden Websites und Organisationen, sowie Sexarbeit, Verbrechen, Betrug und Pornografie. Weiter steht dort:
Die Einstufung der Vertrauenswürdigkeit kann auf Persönlichkeits- und Verhaltensmerkmalen basieren, die die Wahrscheinlichkeit dafür vorhersagen, dass die Person positives Verhalten in einer Online- oder Offline-Interaktion zeigt. (eigene Übersetzung)
Sexarbeit und Pornografie werden in dem Patent in einem Satz mit kriminellen Handlungen angeführt. Sie gelten für das Unternehmen als Anhaltspunkte für eine geringe Vertrauenswürdigkeit von Mieter:innen. Andere Verhaltens- und Persönlichkeitsmerkmale treten in der Bewertung zurück, heißt es im Patent. Der Algorithmus gewichtet Merkmale wie Sexarbeit oder die Beteiligung an einem Verbrechen (als Täter:in) entsprechend stärker.
Das Unternehmen gibt uns gegenüber an, das Patent nicht selbst entwickelt zu haben. Man habe es 2014 beim Kauf des Startups Trooly übernommen, das wohl für die Background-Checks bei Airbnb mitverantwortlich ist. „Wie bei jedem anderen Unternehmen gibt es eine Reihe von Patenten“, heißt es weiter vom Unternehmen. „Das bedeutet nicht, dass wir notwendigerweise alle Aspekte dessen implementieren, was in ihnen enthalten ist.“ (eigene Übersetzung)
Wir haben Airbnb auch gefragt, wo es diesen Algorithmus wie einsetzt, von welchen Unternehmen und Behörden es dafür Daten bezieht und wie lange diese gespeichert werden. Auf diese Fragen haben wir keine Antworten erhalten. Das Unternehmen betont aber, dass es keine sexuellen Dienstleistungen in Inseraten zulasse und diese Regel mit entsprechenden Richtlinien durchsetze.
Gesetze erfassen nicht alle algorithmischen Entscheidungen„Grundsätzlich können Unternehmen im Rahmen der Privatautonomie selbst entscheiden, wer auf ihren Plattformen aktiv ist“, sagt Louisa Specht, Professorin und Inhaberin des Lehrstuhls für Bürgerliches Recht, Informations- und Datenrecht an der Universität Bonn. Sie verweist jedoch auf eine Rechtsprechung des Bundesverfassungsgerichts, nach der Personen von einer Veranstaltung, die für einen unbeschränkten Personenkreis geöffnet ist, nicht ohne sachlichen Grund ausgeschlossen werden dürfen. „Das lässt sich meines Erachtens auf den digitalen Bereich erstrecken“, so Specht.
Die Auswirkung von algorithmischen Entscheidungen kann zudem unter die europäischen Antidiskriminierungsrichtlinien und das Allgemeine Gleichbehandlungsgesetz (AGG) fallen. Nach derzeitiger Rechtslage verstoße Airbnb aber weder gegen das eine noch das andere, sagt Daniel Zimmer, Rechtswissenschaftler am Lehrstuhl für Handels- und Wirtschaftsrecht der Universität Bonn. „Die Vermietung von Räumen an Gewerbetreibende zählt grundsätzlich nicht zu den vom Antidiskriminierungsrecht erfassten Sachverhalten.“ Auch deckt das AGG die Benachteiligung von Berufsgruppen nicht ab. Allerdings wird der Regulierungsbedarf von Algorithmen immer wieder diskutiert. Einer von mehreren Lösungsansätzen könnte die „Erstreckung des herkömmlichen Antidiskriminierungsrechts auf weitere Lebensbereiche“ sein, schlägt Zimmer zur Diskussion vor.
Specht denkt über eine Offenlegungspflicht für Algorithmen nach, durch die Diskriminierung leichter nachgewiesen werden könnte. Eine solche Pflicht gibt es laut Medienstaatsvertrag bereits für Suchmaschinen. Generell bezweifelt die Juristin, dass der Airbnb-Algorithmus datenschutzrechtlich unbedenklich wäre. Sie spricht dabei die Zulässigkeit der Datenverarbeitung an, insbesondere von Daten zur Gesundheit und dem Sexualleben der Nutzer:innen. Nutzer:innen haben außerdem gemäß der Datenschutzgrundverordnung (DSGVO) das Recht, „nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden“, sagt Louisa Specht.
Betroffene können sich selten wehrenAn einem konkreten Fall können wir die Entscheidungswege von Airbnb nicht prüfen. Christian Knappik ist zur Verschwiegenheit verpflichtet, die Betroffenen wenden sich über die Hotline und das Forum vertrauensvoll an ihn. Aber er weiß um die Verzweiflung der Betroffenen. „Das löst Machtlosigkeit für die Frauen und Männer aus“, sagt er. „Das Hauptproblem ist, dass sensible Daten weitergegeben werden.“
Für Nutzer:innen sei undurchsichtig, auf welche Daten Airbnb genau zugreifen kann – was für Sexarbeiter:innen zum existenziellen Problem werden kann. In Österreich handeln sie gegen das Gesetz, wenn sie Apartments zum Arbeiten mieten, aber viele sehen keinen anderen Ausweg.
Auch ist schwer zu sagen, wie viele Sexarbeiter:innen in Deutschland Probleme mit Airbnb haben. Beim Bundesverband für erotische und sexuelle Dienstleistungen e. V. (BesD) sei das kein Thema, sagt eine Sprecherin gegenüber netzpolitik.org. Prostituierte nutzten die Plattform für ihre Arbeit, auch wenn sie es nicht offen angeben. Von Kontosperrungen konnte jedoch niemand im Verband berichten, weder im beruflichen noch im privaten Kontext.
Kriminalisierung von Sexarbeit ist ein ProblemOb und wann Methoden wie die der von Airbnb patentierte Algorithmus in Antidiskriminierungs- und Datenschutzgesetzen angemessen berücksichtigt werden, bleibt offen. Warum Sexarbeiter:innen Unterkünfte manchmal offenbar nicht zu privaten Zwecken anmieten können, dafür fehlt eine sachliche Begründung.
Zudem ist das Patent für den Algorithmus gleichermaßen in den USA und in Europa zugelassen, obwohl die Länder Prostitution ganz unterschiedlich regulieren. Sexarbeiter:innen handeln also manchmal mehr, manchmal weniger gesetzeskonform, wenn sie Apartments für geschäftliche Zwecke anmieten.
Für Christian Knappik versteckt sich hinter der Problematik eine grundsätzliche Debatte über Menschenrechte in der Prostitution. „Wenn Sexarbeiter:innen keine Zimmer mehr auf Airbnb buchen dürfen, widerspricht das der europäischen Menschenrechtskonvention: der Freiheit der Berufswahl und der sexuellen Selbstbestimmung“, sagt er. Dass Sexarbeit grundsätzlich kriminalisiert werde, lehnt er ab. Das Sexualleben und die Privatsphäre von Sexarbeiter:innen und deren Kund:innen müssten durch die Gesetzgebung und die Behörden respektiert werden.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.