Klopfers Link- und Lichtbild-Deponie



Hier gibt's kurze Kommentare, Links und Bilder - nicht nur von Klopfer selbst.

Hier steht, wie du selbst etwas posten kannst. Bitte beachte dabei die Regeln.

Zurück zur Hauptseite der Deponie


#808 von tu[ks].

Klingt eigentlich nach einem guten Beruf. Was verdient man da so?

Link: [https://twitter.com/SebMeineck/status/1339836497147641856]
0 Punkt(e) bei 0 Reaktion(en)
Dir hat's gefallen? Dann erzähl deinen Freunden davon!

Klopfer
Kommentar melden Link zum Kommentar

Der ganze Vice-Artikel beruht auf "Die sehen so jung aus, deswegen finde ich, die sollten das löschen, obwohl ich genauso wenig wie die weiß, ob das echt Minderjährige auf den Bildern sind!!!1111elf"

Und das Gelaber von "sexualisierter Gewalt" ist in den meisten Fällen Quatsch. Wenn ein Mädel vor ner Webcam den Schlüpper runterzieht, ist das keine Gewalt, selbst wenn es minderjährig sein sollte. Und die meisten der zweifelhaften Bilder dürften in diese Kategorie gehören.

1
Geschrieben am
(Geändert am 18. Dezember 2020 um 19:13 Uhr)
tu[ks].
Kommentar melden Link zum Kommentar

Ich dachte mir schon, dass das Jugendschutzportal Klopfers Web eine gute Linkabladestelle sein könnte...

1
Geschrieben am
Gast
Kommentar melden Link zum Kommentar

Um die Frage zu beantworten, man verdient nichts dabei. Die Löschleute machen das freiwillig, teils weil sie so Zeug sehen, dass man sonst eben nicht zu sehen bekommt. Bock und Gärtner und so.

Letztlich geht es in dem Artikel aber nicht nur darum, dass die so minderjährig aussheen, sondern dass xHamster eine Null-Toleranz-Politik ankündigt und hinter den Kulissen sichtbar wird, so genau nehmen die ihre Ankündigung nicht. Es geht schon auch darum, dass x Hamster sich an seinen eigenen Ansprüchen messen lassen sollte. Dass man Minderjährige nicht immer einwandfrei erkennen kann, räumt der Artikel ja auch ein. also ich würd emir auch nicht zutrauen anhand eines Bilder zu sagen, ob jemand 17, 18 oder 19 ist. Es sei denn Tättowiert usw. weil man bestimmte Dinge eben erst mit 18 darf. Und es geht auch darum, ob der Upload über mit dem Einverständnis der gezeigten Person geschehen ist. Auch das kann gar nicht anhand des Bildes ordnetlich überprüft werden, jede Szene kann gestellt sein, sie kann aber auch echt sein. Der Artikel bleibt bei diesem Dilemma auch offen. Die konsequente Lösung wäre, dass man im Zweifel alles löscht, aber dann gibt es kein xHamster mehr, das wollen die Autoren halt auch nicht anrühren. Insofern finde ich es am Ende nicht ganz ehrlich, weil sie das implizit fordern, aber nicht sagen, was dann mit der Plattform passieren soll. Also man kann ja von mir auch dafür sein, solche Plattformen zu löschen, aber dann soll man's sagen, dann wissen die Leser woran sie sind. Dass da kritische Dinge passieren, ist usn wohl allen klar. Die Frage ist, welches Ausmaß nimmt das an, wie kann man dem vernünftig entgegenwirken. Aber das ist etwas, das muss nicht ich entscheiden, das müssne die Plattformbetreiber tun. Die ahben eine Löschtruppe gegründet, deren Erfolg VICE anzweifelt.

Letztlich stehen wir hier vor einem einfachen Problem des Web 2.0, Menschen können Zeug hochladen und weil es so viele sind, kann das eigentlich keiner mehr überprüfen. Die Serverkapazitäten sind derart gewaltig, dass wir im Prinzip schon verloren haben, wenn Menschen das machen sollen. Youtube kann auch nicht jedes Video vor Veröffentlichung von einem Mitarbeiter prüfen lassen. Die Lösung wären hier selbstlernende Algorithmen. Bilderkennung ist kein Hexenwerk, man kann einer KI ja auch sehr zuverlässig beibringen, Bilder mit eienr Katze darauf zu erkennen. Dann könnte man sie auch für andere Zwecke trainieren. Das ist in meinen Augen der einzige Weg, um der Flut an Uploads Herr zu werden, wenn man den Anspruch hat, bestimmtes Material herauszufiltern.

0
Geschrieben am
Klopfer
Kommentar melden Link zum Kommentar

Man darf aber auch nicht zu große Erwartungen an KI haben. (Die versagt ja jetzt auch bei Youtube oft.) Wenn ein Mensch schon nicht eindeutig erkennen kann, ob jemand volljährig ist (auch weil das ja meist eher von der biologischen Veranlagung abhängt), wieso sollte eine KI da besser sein? Belle Delphine (weil wir ja kürzlich das Beispiel hatten) könnte problemlos jedes Alter zwischen 14 und 24 angeben und man könnte es ihr glauben. :schulterzuck:

Eine weitere Sache sind Darstellungen von sexueller Gewalt. Da war kürzlich ein Fall, wo bei Pornhub ein russisches Ehepaar Videos von einer Sexsklavin hochgeladen hatte, die bei ihnen gegen ihren Willen festgehalten wurde. Ist natürlich scheiße und wurde auch sofort gelöscht, nachdem klar wurde, dass da ein Verbrechen geschieht. Aber wie will man generell solche Videos von Videos unterscheiden, in denen die Gewalt gespielt ist? (Diese Videos sind ja bei Frauen auch beliebter als bei Männern.)

Ich hab das Gefühl, dass diese Diskussion jetzt gezielt wieder befeuert wird, weil es Bestrebungen gibt, das Strafrecht mal wieder zu verschärfen, wobei z.B. selbst der bloße Besitz von Kipo als Verbrechen zählen soll. Dazu passen dann auch irgendwelche Kampagnen, in denen wissenschaftlich eher fragwürdige, aber emotional effektive Parolen wiederholt werden, um die Öffentlichkeit dafür zu gewinnen.

2
Geschrieben am
Veria
Kommentar melden Link zum Kommentar

Wenn ich das richtig verstanden hab, dann ist die sicherste Methode, nicht bei xHamster veröffentlicht zu werden, sich die Adresse einer anderen Pornoseite auf den Hintern zu tätowieren ...
Hm ...
Nein, mach ich nicht.

0
Geschrieben am
Gast
Kommentar melden Link zum Kommentar

Naja, KI könnte schon vorsortieren, entsprechend sensibel eingestellt, werden alle unkritischen Fälle veröffentlicht und nur Fälle von "Anfangsverdacht" blieben übrig. Also KI und Mensch ergänzen sich hierbei.

Das Problem bleibt, es gibt so eine Alterspanne, da kann eigentlich niemand seriös sagen, ob da wer volljähriges abgebildet ist oder knapp drunter. Im Extremfall lässt sich wer einen Tag vor dem 18ten Geburtstag filmen, das wäre ein illegaler Upload, einen Tag später ist es erlaubt. Diesen Tag kann man keinem ansehen.
Was soll man also tun? Kann das dem Löschknecht nicht vorwerfen, dass er das durchwinkt. Oder man löscht alles, aber dann haben wir nur noch MILFs. Insofern liegt die Verantwortung beim Uploader. Das ist eine heikle Kiste, weil man den im Zweifelsfall kaum haftbar machen kann. Hier könnte von Staats wegen dran gearbeitet werden, dass die Verfolgung der Uploader vereinfacht wird. Ist aber bei international agierenden Seiten auch nicht ganz einfach. Aber das heißt nicht, dass man es nicht versuchen kann. Man könnte ja fordern, dass die Menschen sich auf solchen seiten mit dem Ausweis identifizieren müssen, allein schon um den ab 18 Nachweis zu erbringen. Dann sind die mit ihren Daten drin, das sollte die Hemmschwelle deutlich erhöhen, irgendeinen Mist hochzuladen.

1
Geschrieben am
Klopfer
Kommentar melden Link zum Kommentar

Man könnte ja fordern, dass die Menschen sich auf solchen seiten mit dem Ausweis identifizieren müssen, allein schon um den ab 18 Nachweis zu erbringen. Dann sind die mit ihren Daten drin, das sollte die Hemmschwelle deutlich erhöhen, irgendeinen Mist hochzuladen.

Da sehe ich dann auch wieder extremes Missbrauchspotenzial, wenn so sensible Identitätsdaten bei den Plattformen selbst abgeliefert werden müssen. Es kursieren ja im Netz eh schon "Schlampen"-Sammlungen von Fotos und Videos inklusive Ausweisscans der abgebildeten Frauen. Da sind dann Klarnamen und Adressen bekannt. Aus einer Maßnahme, die vor Bloßstellung schützen soll, könnte somit gerade eine zusätzliche Gefährdung erwachsen. :kratz:

0
Geschrieben am
Gast
Kommentar melden Link zum Kommentar

Stimmt schon. Schwierig. Was mir noch einfällt geht in die richtig wie man das uploasden von Musikdateien verfolgt hat, über die IP Adressen. Dann braucht man aber Voratsdatenspeicherung von IP Adressen, die kann man auch für alles mögliche benutzen.

Ganz ketzerisch darf man natürlich auch fragen, welcher Schaden hier eigentlich entsteht und wie ist die Verhältnismäßigkeit der Gegenmaßnahmen. Dass xHamster eien Löschtruppe hat, ist an sich doch schonmal gar nicht verkehrt. Ich würde dem Bericht entnehmen, sie müssten besser von den Hauptamtlichen betreut werden. Und wie schon gesagt, vielleicht eine KI Unterstützung, um die Menge des zu sichtenden Materials zu begrenzen? Und dann bleibt die Frage, die letztlich xHamster Geschäftsführung beantworten muss: im Zweifelsfall löschen oder stehen lassen?

0
Geschrieben am
Klopfer
Kommentar melden Link zum Kommentar

Ganz ketzerisch darf man natürlich auch fragen, welcher Schaden hier eigentlich entsteht und wie ist die Verhältnismäßigkeit der Gegenmaßnahmen.

Das ist tatsächlich eine Frage, die viel zu selten gestellt wird. Bei allerlei Säuen, die durchs Dorf getrieben werden, könnte man bei näherer Überlegung vll. sogar feststellen, dass die Therapie schlimmer ist als die Krankheit, die man bekämpfen will.

(Ich hatte letztens ein Buch gelesen über Opfer von sexuellem Kindesmissbrauch und wie die öffentliche Wahrnehmung dieser Vergehen total kontraproduktiv für die psychische Verfassung der Opfer ist, weil sie mit dem tatsächlichen Erleben der meisten Betroffenen so gar nicht übereinstimmt. Auch da dachte ich mir: "Ich verstehe zwar, wieso man sich dagegen sträubt, ein realistischeres Bild zu zeichnen, aber man tut den Betroffenen damit wirklich überhaupt keinen Gefallen.")

1
Geschrieben am
(Geändert am 20. Dezember 2020 um 5:48 Uhr)
Ylva
Kommentar melden Link zum Kommentar

Ich denke, es gibt hier verschiedene Probleme.

Ich denke, es ist klar, dass es scheiße ist, wenn jemand Videos ohne Einverständnis herstellt oder jemanden zwingt/manipuliert, sich filmen zu lassen und dass das Opfer das Recht haben sollte, die Videos zu entfernen. Das ist zu Recht strafbewährt und da sollten sich die Pornoseiten mehr Mühe geben, auch das Wiederhochladen zu verhindern.

Genauso Videos, die nicht zur Veröffentlichung gedacht waren, sondern nur für den Partner/zahlende Onlyfans oder so gedacht waren.

Es muss also Wege und Möglichkeiten für Opfer geben, diese Videos zu melden und dass sie dann auch entfernt werden.

Ein weiteres Problem ist, dass oft jemand anderes die Videos einfach wieder hochlädt. Da wäre es auch gut, das durch Softwarelösungen zu verhindern.

Genauso finde ich, dass die Beteiligten an einem Video ihr Einverständnis widerrufen können sollen (irgendwie vertraglich geregelt mit der Produktionsfirma, wenn es eine gibt und so) und ihre Videos auch anstandslos gelöscht werden können dann. Oder wenn ich eben das Copyright an dem Video habe, wenn ich es nicht mehr online sehen will, dass ich es widerrufen kann und es gelöscht werden muss.

Dann ist der Aspekt, wie man solche Uploads direkt verhindern kann. Das ist ein anderes Problem, denn wie man soll man erkennen, ob die Person, die das Video hochlädt, die Zustimmung zur Verbreitung besitzt und ob die Personen im Video der Verbreitung und dem Gefilmt werden zugestimmt haben? Und natürlich gibt es auch eine gewisse Zone, wo man einfach nicht erkennen kann, ob jemand nun 16, 17 oder 18 ist. Hier könnte man höchstens einen Ausweis der Darstellerin oder des Darstellers verlangen.

0
Geschrieben am
Ylva
Kommentar melden Link zum Kommentar

Und das nächste Problem, was ich sehe, ist, dass eben derzeit das Opfer selbst wissen muss, dass es auf den Seiten zu sehen ist. Ich weiß nicht, wie ihr das handhabt, aber ich checke mich jetzt nicht regelmäßig, ob ich auf Pornoseiten zu sehen bin, und woher soll ich wissen, wo in der Masse der Videos und Bilder und auf welcher Seite meins eventuell hochgeladen worden sein könnte?

Es ist aber nicht erst ein Verbrechen, wenn es dem Opfer auffällt oder es drauf aufmerksam gemacht wird. Nur leider ist es derzeit schwer technisch zu bewerkstelligen, das vorher zu verfolgen/den Upload zu verhindern.

Ich finde es gut, dass der öffentliche Druck auf Pornoseiten erhöht wird, aber letztendlich denke ich, wird es wenig bringen, da nicht viel möglich ist. Die beste Möglichkeit ist meiner Meinung nach, keine Pornos zu konsumieren oder nur solche von offiziellen Studios und Darstellern (wobei auch da nicht alles so gut abläuft, siehe dieses Video https://www.youtube.com/watch?v=-nRsaNxjt5g)

0
Geschrieben am
Gast
Kommentar melden Link zum Kommentar

Ich finde Ylvas Anregung schon richtig, ein Video wird gelöscht und dnan von wem anders wieder hochgeladen. Im Prinzip wäre es doch möglich, dass Pornoseiten verpflichtet werden, ein gemeinsames Archiv, die schwarze Liste, zu betreiben. Löscht eine Seite ein Video, werden dort Metadaten gespeichert. Wird auch einer Pornoseite ein Video hochgeladen, fiundet ein Abgleich mit der schwarzen Liste statt. Steht es dort, wird der upload verweigert. Technisch müsste das schon gehen. Ich meine, mein Handy kann einen Ausschnitt aus einem Lied vorgespielt bekommen und sucht sich dann aus einer Datenbank auch raus, was ist das für ein Lied, welcher Interpret, Album usw. Wäre auch eine automatisierte Variante, die schon viel Helfen könnte.

1
Geschrieben am
Klopfer
Kommentar melden Link zum Kommentar

Die großen Seiten haben jeweils durchaus Blocklisten für gesperrte Videos (und da alle Pornoseiten ja zu wenigen großen Anbietern gehören, schätze ich mal, dass z.B. Redtube und Pornhub sich die gleiche Blocklist teilen), damit die nicht neu reingestellt werden können, zudem stellt Microsoft in Zusammenarbeit mit staatlichen Stellen eine Datenbank mit Hashes von kinderpornografischem Material zur Verfügung, die auch zum Abgleich verwendet werden. Ich glaube aber nicht, dass es eine firmenübergreifende Datenbank gibt für normale gesperrte Videos. :kratz: Kann ja auch unterschiedliche Gründe haben, wieso etwas gesperrt wird, etwa wenn eine Pornofirma auf einer Pornoseite eins ihrer Videos löschen lässt, weil der Uploader nicht autorisiert war, aber selbst diese Videos auf eigenen Kanälen verbreitet.

Problem ist natürlich, dass man a) Videomaterial erst mal kennen muss, bevor man weiß, dass es nicht publiziert werden sollte und b) es gerade auch bei Videos nicht trivial ist, automatisiert zu erkennen, ob es das schon mal gab. Neu codiert, geschnitten, gespiegelt, Farben leicht verändert (gibt z.B. auch offizielle Gina-Wild-Videos, die je nach DVD-Ausgabe ziemlich verschieden aussehen), fettes Logo in der Ecke, Bildausschnitt verändert, womöglich einfach mit dem Handy vom Fernseher abgefilmt...
Das ist auch das Problem, was Youtube mit ContentID zu beheben versucht, was ja das große Vorbild für die angestrebten Upload-Filter ist. Aber so super funktioniert das halt auch nicht.

Ich hab übrigens für KW eine Funktion programmiert, die bei Bildern (trotz Vergrößerung, Verkleinerung, Wasserzeichen, Drehung usw.) erkennen soll, ob ein ähnliches (gesperrtes) Bild schon mal hochgeladen wurde. (Bisher habe ich noch nie ein Bild sperren müssen.) Aber die Funktionen von anderen Seiten, die eine ähnliche Funktion haben, speichern vermutlich wiederum andere Informationen über die gesperrten Bilder ab als ich, da ist es sicher kaum möglich, deren Infos auf mein System zu übertragen.

1
Geschrieben am
(Geändert am 20. Dezember 2020 um 21:04 Uhr)

Nur registrierte Mitglieder können hier Einträge kommentieren.

Zurück zur Hauptseite der Deponie