Wenn ich mich nicht täusche, wird aus der Studie nicht klar, zu welchem Grad es sich um tatsächliches CSAM oder CG-CSAM handelt bei den konkreten Zahlen?:
Out of approximately 325,000 posts analyzed over a two day period, we detected 112 instances of known CSAM, as well as 554 instances of content identified as sexually explicit with highest confidence by Google SafeSearch in posts that also matched hashtags or keywords commonly used by child exploitation communities. We also found 713 uses of the top 20 CSAM-related hashtags on the Fediverse on posts containing media, as well as 1,217 posts containing no media (the text content of which primarily related to off-site CSAM trading or grooming of minors). From post metadata, we observed the presence of emerging content categories including Computer-Generated CSAM (CG-CSAM) as well as Self-Generated CSAM (SG-CSAM).
Ich will CG-CSAM nicht verharmlosen, es besteht allerdings zweifellos ein krasser kategorialer Unterschied zu
tatsächlichem CSAM. In der Studie läuft
tatsächliches CSAM und CG-CSAM grundsätzlich unter der Oberkategorie "CSAM"? Das ist ähnlich zum dt. Strafrecht, denke ich, wo dies auch beides unter derselben Kategorie läuft an sich (§§ 184b/c StGB); fand ich schon immer sehr fragwürdig, wird in Zukunft nur noch fragwürdiger imho.
Nicht ganz relevant, aber hier hat man sich legislatorisch auch so ein richtig nettes Ei gelegt:
https://www.lto.de/recht/hintergruende/ ... rteidiger/ Muss man nun zuvor reformierte Gesetze gegen Kinderpornografie wieder entschärfen, weil sie zu weitreichend wurden (was so gut wie jeder Experte wohl kommen sah). Tolle "PR" bzw. "Diffamierungspotenzial".