sexualisierte Gewalt

Bin ich in einem Porno?

von | 21. Januar 2022

Schonmal Nacktbilder verschickt oder beim Sex gefilmt? Woher weiß man, dass es nicht veröffentlicht wurde? Gar nicht. Dafür bietet “Am I in Porn” eine Lösung, aber wie gut ist die?

medienMITTWEIDA hat mit Yannick Schuchmann gesprochen. Er ist Mitbegründer der Plattform “Am I in Porn” und zuständig für die technische Umsetzung. Auf der Website kann man ein Selfie machen und für zwei Euro Aufwandsentschädigung nach dem eigenen Gesicht in Pornografie suchen. Angezeigt bekommt man dann die Videos mit einer dazugehörigen Wahrscheinlichkeit mit der die künstliche Intelligenz eine potenzielle Übereinstimmung gefunden hat.   

Angefangen habt ihr mit dem Projekt, als von einer Freundin Rachepornos ins Netz geladen wurden. Wie viele Personen haben sich seitdem gesucht?

Ja, also roughly 8000 Leute. Wir sind letztes Jahr im März online gegangen und haben seitdem ungefähr 100.000 Besucher, von denen sich dann ungefähr zehn Prozent selbst suchen. 

Wir stehen auch mit vielen Betroffenen in Kontakt, wovon einige eben auch aktiv was dagegen machen wollen. Bei einem Paar, mit dem wir viel zusammenarbeiten, führt er eine Excelliste und durchsucht händisch nach Videos. Das ist ein Albtraum. Vor allem wenn du dann eine große Excelliste hast von über 1000 Videos, weil das gleiche Video überall hochgeladen wird. Man fühlt sich ohnmächtig. 

Das Problem besteht darin, die Inhalte zu finden. Betroffene wissen häufig nicht, dass Material erstellt und oder veröffentlicht wurde. Wie funktioniert die Suche auf eurer Website? 

 

Es gibt Rückwärtssuchen, die gab es auch schon vor uns. Zum Beispiel die Google Bildersuche: dort lädst du ein Bild hoch und Google zeigt ähnliche Bilder an allerdings betrachtet Google das ganze Bild. Das bedeutet, wenn du ein Bild mit deinem Gesicht hochlädst, dann bekommst du nicht nur Bilder mit einem ähnlichen Gesicht angezeigt, sondern auch Bilder mit einem ähnlichen Hintergrund. Das war, bis wir das Projekt angefangen haben, die einzige Möglichkeit eine Rückwärtssuche zu machen. 

 

Deshalb dachten wir uns: Wie kannst du wirklich alle Bilder, die zu deinem Gesicht und deiner Person passen, finden? So sind wir auf Gesichtserkennung gestoßen. Das bedeutet, du kommst auf die Webseite, machst ein Selfie von dir und lädst es hoch. Wir fragen nach einer kleinen Aufwandsentschädigung, damit wir den Service weiter betreiben können. Im Hintergrund wird dein Gesicht biometrisch analysiert und dann durch unsere Datenbank gejagt. Wir scannen jeden einzelnen Frame der Pornos bei Pornhub und schauen dort nach Gesichtern und speichern diese ab. Diese erhalten Verlinkungen zu den Videos und wenn dein Gesicht hochgeladen wird, wird es nach Ähnlichkeiten abgeglichen. Am Ende bekommst du eine Liste mit den ähnlichsten Videos und einer Wahrscheinlichkeitsangabe. Die Videos mit einer hohen Wahrscheinlichkeit sollte man händisch prüfen. Zudem hast du danach die Möglichkeit zu sagen, in welchem Video du dich wiedergefunden hast und dann wirst du zu einem Step-by-Step Guide weitergeleitet. 

 

Wir haben leider keinen Draht zu Pornhub. Wir haben zwar versucht mit ihnen Kontakt aufzunehmen, aber da besteht nicht wirklich Interesse etwas gegen dieses Problem zu tun.

Ich habe mich auch bei ,,Am I in Porn“ gesucht und mir wurde ein Video mit einer Wahrscheinlichkeit von 83 Prozent angezeigt. In dem Video war ich nicht zu sehen. Wie sicher sind die Wahrscheinlichkeiten eurer Bilder?

Das funktioniert mathematisch. Eine Gesichtrepräsentation ist ein Vektor. Wir berechnen die Distanz zwischen den Vektoren und das erzeugt am Ende Ähnlichkeit. Das ist dann ein random Wert zwischen Null und Zwei. Dann mussten wir stichprobenartig herausfinden, wo eine echte Wahrscheinlichkeit vorliegt. Dabei kann es eben zu Fällen wie bei dir kommen von 83 Prozent oder noch höher, die zwar die mathematischen Ähnlichkeiten haben, aber dann doch die Person glücklicherweise nicht darstellen. Es ist schwierig zu sagen, wie zuverlässig die Zahlen da sind. Es ist eine Annäherung.

Wie viele und welche Art von Pornos sind in eurer Datenbank?

Ich meine es sind zwölf Millionen Videos. Man muss dazu sagen, dass Pornhub Mitte 2021 auch dreiviertel ihrer Videos gelöscht haben. Als Reaktion auf eine Reportage von Vice haben sich die Zahlungsdienste Visa und Mastercard zusammengetan. Diese drohten mit einem Rückzug ihrer Zahlungsdienste, sollte Pornhub nichts gegen unverifizierte Amateurvideos unternehmen. Daraufhin hat Pornhub da es um Geld ging die Videos aus der Datenbank gelöscht. Nun sind nur noch etwas über drei Millionen Videos online, von anfangs Zwölf Millionen. Was auch zeigt, wie crazy das damals war. Wir haben allerdings noch die ursprünglichen rund zwölf Millionen Videos in unserer Datenbank. Es kann also vorkommen, dass man ein Video mit hoher Wahrscheinlichkeit findet, es allerdings nicht checken kann, da das Video bereits gelöscht wurde und die Verlinkung somit nicht funktioniert. Wir sind gerade dabei eine Funktion einzubinden, damit es dem Nutzer direkt angezeigt wird. 

Warum habt ihr ausgerechnet Pornhub als Pornoplattform ausgewählt und plant ihr eine Ausweitung eures Dienstes?

Um es vorwegzunehmen: ja, das ist das größte Ziel, das wir haben. Vor allem, nachdem Pornhub zwei Drittel der Inhalte gelöscht hat. Wir haben uns damals entschieden mit Pornhub anzufangen, da es der größte Pornplattformbetreiber war und wir zudem noch ziemlich wenig über non consenual Pornographie (Anm. d. Red.:  unfreiwillige Pornografie) wussten. Jetzt, wo wir mittlerweile tief in der Thematik drin stecken, hätten wir wohl besser mit xhamster angefangen. Aber das sind die Nächsten, die bei uns auf der Liste stehen. Allerdings ist die Liste in der Tat unendlich lang. Es gibt Netzwerke, die Videos automatisiert reuploaden. Wenn etwas auf einer Website hochgeladen wird, dann wird es automatisch auf viele kleine Webseiten gespreadet, welche die Videos weiter spreaden. Das macht es unglaublich schwierig, irgendetwas nachhaltig zu löschen. Es ist nahezu unmöglich, dass das Video wirklich, wirklich, wirklich nicht mehr im Internet kursiert. Wie gesagt die Liste ist lang. 

Mittlerweile müssen wir Pornhub nicht mehr wirklich targeten, da man einen Account haben muss, um Pornos hochzuladen und sich verifizieren muss.  

Du hast eben schon gesagt, dass eine komplette Löschung schwierig ist. Was mache ich, wenn ich mich in einem Porno oder Nacktbild wiederfinde, das gegen meinen Willen im Internet ist? An wen kann ich mich wenden?

Du solltest als erstes am besten mit uns oder unserer Partnerorganisation ANNA.NACKT reden. 

ANNA.NACKT ist eine Organisation gegründet von Betroffenen. Wir haben die technischen Lösungen und Expertise, aber arbeiten mit ihnen zusammen, da sie wissen, wie man Menschen emotional auffängt und welche rechtlichen Schritte man einleiten muss. In den ersten Stunden gehen so viele Gedanken durch den Kopf, daher ist es wichtig erstmal mit jemanden zu reden, der sich auskennt. 

Danach geht es darum Beweise zu sammeln, also Screenshots der Videos auf den Websiten. Ganz wichtig: mit einem Atom Zeitstempel, damit es auch rechtlich als Screenshot verwendet werden kann. ANNA.NACKT hat auch ein Netzwerk an Kanzleien und Anwälten, die sich mit der Thematik auskennen. 

Gegründet habt ihr euch mit dem Gedanken Rachepornographie zu bekämpfen. Welche neuen Herausforderungen haben sich seitdem ergeben?

Der Ansatz war Rachepornograhie zu bekämpfen. Aber wir sind dann auch recht schnell zu Deep Fakes gekommen und haben uns viel damit auseinandergesetzt. Ich glaube es ist nicht nur im sozialen Bereich ein Thema, sondern auch im politischen.

Das wird zu dem großen Thema dieses Jahrzehnts werden, dass du nichts mehr glauben kannst. Deep Fakes sind nicht nur das Visuelle und Apps, wie zum Beispiel Reface. Wenn du das professionell machst, kannst du in zwei bis drei Stunden etwas erstellen, das du gar nicht von der Realität unterscheiden kannst. Zudem kannst du auch die Stimme faken und wenn das vereint wird, kannst du nicht nachvollziehen, ob das jemand tatsächlich gesagt hat oder nicht. Da geht es in alle Richtungen. Da wird jedes Video fragwürdig.

Begriffserklärung Deep Fake

Deep Fakes sind Bilder oder Videos, welche mit künstlicher Intelligenz erstellt werden und authentisch wirken, jedoch nicht die Realität abbilden. Zum Beispiel werden die Gesichter von Personen in andere Szenarien eingefügt und dadurch der Eindruck vermittelt, die Person seien bei einer bestimmten Situation dabei gewesen. Sie dienen dazu, Menschen zu diskreditieren, manipulieren und Propaganda zu verbreiten.

Wie könnt ihr sicherstellen, dass eure Website nicht missbraucht wird, um Darstellende, die sich bisher in die Anonymität des Internets geflüchtet haben, bloßzustellen?

Das ist wirklich ein wichtiges Thema. Wir schließen in den AGBs aus, dass man Bilder von Dritten hochladen darf. Dass das nicht viel bringt, ist uns auch bewusst. Wir haben daher rausgenommen, dass du Fotos hochladen kannst. In den ersten Tagen konntest du auch Bilder aus deiner Galerie verwenden, was natürlich die Tür öffnet, dass du Bilder von anderen Leuten hochlädst. Daher ist es jetzt nur möglich direkt ein Selfie zu machen. Hier gibt es natürlich auch Wege, wie du das System austricksen kannst. Wir dachten auch schon recht früh daran sowas wie Videoident zu integrieren. Das bedeutet, dass du einen Video Call mit einer echten Person machst, die deinen Personalausweis kontrolliert. Aber so ein Service kostet pro Ident ungefähr 15 Euro. Das müssten wir auf die zwei Euro Aufwandsentschädigung draufpacken. Dann wärst du ganz schnell in einem Bereich, indem es nicht mehr für viele Menschen erschwinglich ist. In Deutschland geht es uns gut, aber in anderen Ländern sind zwei Euro schon viel Geld.  Daher haben wir uns dagegen entschieden, um es lieber der breiten Masse zugänglich zu machen, da wir glauben, dass wir mehr Menschen helfen, als dass es missbraucht wird.

Was ich dazu sagen muss, ich erzähle ja immer, dass wir ganz viel vorhaben und das ist auch so. Das Problem ist allerdings, dass wir “Am I in Porn” sozusagen ehrenamtlich und aus der privaten Tasche finanzieren. Wir suchen schon seit längerem Fördergelder, aber es ist sehr schwer Leute davon zu überzeugen, dass es ein wichtiges Thema ist. Uns würde es sehr gut tun eine Finanzspritze zu bekommen, um wirklich auch Leute einzustellen. Ideen und Aufgaben sind genug da, denn wir möchten uns weiterentwickeln. 

Das bedeutet das ganze Projekt ist ehrenamtlich organisiert?

Ja genau, wir drei Gründer Lukas Henseleit, Jonas Schnabel und ich. Dazu kommen gerade noch drei Praktikantinnen und ein Team aus 10 bis 15 Ehrenamtlichen Volunteers, je nachdem wie viel Zeit jeder hat. Aber niemand kann für seine Arbeit entschädigt werden. 

Nun haben wir viel über das zentrale Problem geredet. Aber wer trägt für diesen Missstand die Verantwortung und welche Regularien bräuchte es, um unfreiwillige veröffentlichte Pornographie zu bekämpfen?

Auf jeden Fall diejenigen, die Videos hochladen. Denn in dem Moment, indem sie etwas hochladen, treten sie die Rechte derjenigen, die in den Videos zu sehen sind mit Füßen. Die spannende Frage ist, wie die Verantwortung des Plattformbetreibers ist. Der sagt: ,,Ich bin nur der Marktplatz, wo ihr eure Sachen hochladen könnt.” und distanziert sich, aber ich sehe auch den Plattformbetreiber in der Verantwortung. Die Diskussion über Upload Filter ist schwierig, jedoch sollten die Plattformen auf Datenbanken der gemeldeten Videos zurückgreifen. Dadurch können sie verhindern, dass bereits gemeldetet Videos erneut hochgeladen werden. 

Wir arbeiten auch aktiv und zusammen mit unserer NGO Digital Dignity an technischen Lösungen und wollen Fördergelder sammeln. Sowas gibt es aber schon, allerdings im Kommerzbereich. Wenn du auf Youtube ein Musikvideo hochladen möchtest, dann kommen die Copyrights und du darfst das nicht hochladen. Das ist genau dieselbe Technologie, die man haben müsste, nur eben für gemeldete Pornovideos. Dieses Prinzip funktioniert im Übrigen auch mit Kinderpornografie. Da gibt es ein System, mit welchem Videos gefingerprinted werden. Diese einzigartige Zeichenkette, also einen Fingerabdruck im Video und wenn du das Video hochlädst, auch auf Pornoplattformen, greifen sie auf die staatlichen Datenbanken zu und prüfen, ob dieser Fingerabdruck schon existiert. So wissen sie, dass es sich um ein gemeldetes kinderpornografisches Video handelt und dieses geblockt werden muss. Aber für unfreiwillige Pornografie gibt es das noch nicht.

Text, Titelbild: Klara Behner

<h3>Klara Behner</h3>

Klara Behner

ist 21 Jahre alt und studiert im dritten Semester Medienmanagement an der Hochschule Mittweida. Bei medienMITTWEIDA engagierte sie sich als Assistentin der Bereichsleitung Campus und leitete das Ressort Gesellschaft. Seit Sommersemester 2022 ist sie als Chefredakteurin tätig.