Ein aktueller Fall aus den USA zeigt, dass KI auch gerne für Deep-Fakes verwendet wird.

https://arstechnica.com/tech-policy/2024/11/school-failed-to-report-ai-nudes-of-kids-for-months-now-parents-are-suing

https://www.derstandard.at/story/3000000245632/skandal-um-ki-nacktbilder-legt-us-schule-lahm

Dieser Vorfall unterstreicht die Notwendigkeit, vorsichtig mit persönlichen Fotos, Videos und Audioaufnahmen umzugehen. Trotz der Risiken teilen viele Menschen weiterhin unbedacht Inhalte auf sozialen Medien. Die Konsequenz kann verheerend sein: Plötzlich sieht man sich mit einem täuschend echten Deepfake-Nacktbild konfrontiert, das das eigene Gesicht zeigt.

Die deutsche Telekom hat dies bereits vor einem Jahr mit einem Kurzfilm „Nachricht von Ella | Without Consent“ auf den Punkt gebracht. Durch die Darstellung verschiedener Missbrauchsszenarien von Ellas privaten Fotos und Videos verdeutlicht der Film die potenziellen Konsequenzen. Ziel ist es, Eltern für den Schutz der Privatsphäre ihrer Kinder zu sensibilisieren und sie zu ermutigen, ihren Nachwuchs im sicheren Umgang mit dem Internet anzuleiten.