Undress AI: Wenn KI intime Bilder fälscht
Stell dir vor: Jemand schnappt sich ein Foto von deinem Instagram- oder TikTok-Profil und bearbeitet es mit Künstlicher Intelligenz so, dass du darauf plötzlich nackt zu sehen bist. Klingt total absurd? Leider passiert genau das immer öfter. Diese Technologie nennt sich Undress AI oder auch DeepNude-Software. Sie verletzt die Privatsphäre von Menschen – und ist eine Form von digitaler Gewalt.
Wir erklären dir hier, wie das funktioniert, warum es so gefährlich ist und wie du dich schützen kannst.
Was ist Undress AI eigentlich?
Undress AI bedeutet übersetzt: „ausziehen mit Künstlicher Intelligenz“. Es handelt sich um Programme, die mit nur einem Foto eine täuschend echte Nacktdarstellung erstellen. Solche Tools gibt es als Apps, Bots oder Websites. Meist funktioniert das so:
🔹Man lädt ein Foto hoch – zum Beispiel ein Porträt, auf dem du ganz normal angezogen bist.
🔹Die KI berechnet, wie dein Körper unter der Kleidung aussehen könnte – das passiert mit riesigen Bilddatenbanken.
🔹Das Tool fügt erfundene Körperteile ein, sodass es wirkt, als wäre das Foto echt. Und schon bist du „nackt“.
Die Ergebnisse sind oft so realistisch, dass Außenstehende kaum merken, dass das Bild gefälscht ist.
Wer macht sowas?
Solche Deepfake-Bilder werden aus unterschiedlichen Gründen erstellt:
- Cybermobbing – um jemanden bloßzustellen oder fertigzumachen.
- Erpressung – Täter drohen, das Bild zu verbreiten, wenn du kein Geld zahlst oder andere Forderungen erfüllst → Sextortion.
- Belästigung – viele Täter wollen einfach Macht ausüben und andere einschüchtern.
- Missbrauch in Foren – in manchen Telegram-Gruppen oder Foren wird regelrecht damit geprahlt, wie leicht man solche Bilder erstellen kann.
Vor allem Mädchen und junge Frauen sind betroffen. Doch grundsätzlich kann es jede und jeden treffen.

Warum ist das so gefährlich?
Auch wenn es ein Fake ist, fühlen sich Betroffene oft so, als seien sie wirklich nackt fotografiert worden. Das kann extrem belastend sein. Häufige Folgen:
😔Scham und Angst – viele schämen sich, obwohl sie gar nichts falsch gemacht haben.
😡Ohnmacht – weil man das Bild nur schwer wieder aus dem Internet löschen kann.
💬Cybermobbing – die Fakes werden in Chats oder Gruppen geteilt.
💰Erpressung – Täter verlangen Geld oder intime Informationen.
Es handelt sich um eine Form digitaler sexualisierter Gewalt – das ist nicht nur unfair, sondern auch strafbar.
Ist das verboten?
Ja! In Deutschland ist das Herstellen, Besitzen oder Verbreiten solcher Bilder strafbar, auch wenn sie gefälscht sind. Relevant sind z.B.:
- §201a StGB – Verletzung des höchstpersönlichen Lebensbereichs
- §33 KunstUrhG – Verbreitung von Bildnissen gegen den Willen der abgebildeten Person
- §185 StGB – Beleidigung (in Verbindung mit sexueller Belästigung)
Falls du betroffen bist: du musst das nicht hinnehmen!

Was kannst du tun, wenn dir das passiert?
Falls von dir ein DeepNude-Bild erstellt oder verbreitet wurde:
✅ Sichere Beweise
Mach Screenshots und notiere dir, wo du das Bild gefunden hast.
✅ Melde den Inhalt
Fast alle Plattformen haben Meldefunktionen. Auf Pornoseiten kann man in der Regel ebenfalls Missbrauch melden.
✅ Erstatte Anzeige
Du kannst dich bei der Polizei beraten lassen oder Anzeige erstatten – am besten zusammen mit einer erwachsenen Vertrauensperson.
✅ Hol dir Unterstützung
Du bist nicht allein! Es gibt Stellen, die dir helfen:
- JUUUPORT – Wir helfen dir anonym per Online-Beratung
- Nummer gegen Kummer – anonym und kostenlos
- Polizei-Beratung – Infos und Kontakte
- HateAid – Beratung und rechtliche Unterstützung bei digitaler Gewalt
Mehr Infos dazu findest du in unserem Social Media Erste-Hilfe-Kit.
Kannst du dich davor schützen?
Einen 100%igen Schutz gibt es leider nicht – aber diese Tipps helfen, es Täter:innen schwerer zu machen:
🔒 Profile schützen – stelle deine Accounts auf privat, wenn möglich.
📷 Weniger hochauflösende Fotos posten, denn je besser die Qualität, desto leichter kann KI Details generieren.
🙅 Keine Angst vor klarer Ansage – wenn dir jemand droht, ist das Erpressung. Hol dir sofort Hilfe.
Wichtig!
Wenn du betroffen bist: du bist nicht schuld. Schuld sind die Menschen, die solche Bilder erstellen oder verbreiten. Du hast ein Recht auf Deine Privatsphäre und kannst dich wehren.
Falls du Hilfe brauchst oder Fragen hast, melde dich bei uns auf JUUUPORT – anonym, kostenlos, vertraulich.
Für mehr Infos rund um das Thema Künstliche Intelligenz, schau gerne mal in unser Projekt JUUU-KI rein.