NEWSAR
Multi-perspective news intelligence
SRCFAZ
LANGDE
LEANCenter-Right
WORDS473
ENT3
WED · 2026-03-25 · 15:50 GMTBRIEF NSR-2026-0325-35282
News/Kindesmissbrauch: KI-generierte Kinderpornografie nimmt dram…
NSR-2026-0325-35282News Report·DE·Human Rights

Kindesmissbrauch: KI-generierte Kinderpornografie nimmt dramatisch zu

Die Internet Watch Foundation (IWF) berichtet über einen dramatischen Anstieg KI-generierter Kinderpornografie. Im Jahr 2025 identifizierte die IWF über 8000 Bilder und Videos, darunter 3443 KI-generierte Videos, ein deutlicher Anstieg gegenüber 13 im Jahr 2024.

FAZFiled 2026-03-25 · 15:50 GMTLean · Center-RightRead · 2 min
Kindesmissbrauch: KI-generierte Kinderpornografie nimmt dramatisch zu
FAZFIG 01
Reading time
2min
Word count
473words
Sources cited
1cited
Entities identified
3entities
Quality score
100%
§ 01

Briefing Summary

AI-generated
NEWSAR · AI

Die Internet Watch Foundation (IWF) berichtet über einen dramatischen Anstieg KI-generierter Kinderpornografie. Im Jahr 2025 identifizierte die IWF über 8000 Bilder und Videos, darunter 3443 KI-generierte Videos, ein deutlicher Anstieg gegenüber 13 im Jahr 2024. Die Inhalte sind fotorealistisch und oft von extremer Brutalität. Täter nutzen leicht zugängliche KI-Tools und Open-Source-Modelle, um reale Kinderbilder in Missbrauchsvideos zu verwandeln, oft durch "Low-Rank Adaptation". Auch "Nudify-Apps" und KI-Chatbots werden missbraucht, um Kinder zu demütigen oder Missbrauchsfantasien auszuleben. Die IWF warnt vor der Normalisierung von Gewalt durch den Konsum dieser Inhalte.

Confidence 0.90Sources 1Claims 5Entities 3
§ 02

Article analysis

Model · rule-based
Framing
Human Rights
Technology
Tone
Mixed Tone
AI-assessed
CalmNeutralAlarmist
Factuality
0.70 / 1.00
Factual
LowHigh
Sources cited
1
Limited
FewMany
§ 03

Key claims

5 extracted
01

97 Prozent der illegalen KI-Bilder zeigen Mädchen.

statisticInternet Watch Foundation (IWF)
Confidence
1.00
02

Die Studie stuft etwa 65 Prozent der identifizierten Videos in die „Kategorie A“ ein.

statisticInternet Watch Foundation (IWF)
Confidence
1.00
03

Im Jahr 2025 fanden die Analysten der Organisation mehr als 8000 Bilder und Videos, die als realistisch dargestellter Kindesmissbrauch eingestuft wurden.

statisticInternet Watch Foundation (IWF)
Confidence
1.00
04

Mit der „Low-Rank Adaptation“ können KI-Modelle mit 20 bis 30 Bildern einer Person innerhalb von 15 Minuten trainiert werden.

factualnull
Confidence
0.90
05

KI-generierte Kindesmissbrauchsvideos im Internet sind so hoch wie nie.

statisticInternet Watch Foundation (IWF)
Confidence
0.90
§ 04

Full report

2 min read · 473 words
Die Internet Watch Foundation meldet besorgniserregende Zahlen zu KI-generierter Kinderpornografie. Bei dieser verwenden Täter auch Bilder realer Opfer.Die Zahl mit Künstlicher Intelligenz erstellter Kindesmissbrauchsvideos im Internet ist so hoch wie nie. Das stellt eine Erhebung der gemeinnützigen britischen Organisation Internet Watch Foundation (IWF) fest. Im Jahr 2025 fanden die Analysten der Organisation mehr als 8000 Bilder und Videos, die als realistisch dargestellter Kindesmissbrauch eingestuft wurden. Massiv zugenommen haben vor allem Videos. Waren es 2024 noch dreizehn KI-generierte Videos, stieg die Zahl im Jahr 2025 auf 3443.Deren Inhalte haben inzwischen einen derart hohen Grad an Fotorealismus erlangt, dass selbst Experten diese Videos kaum von echtem Bildmaterial unterscheiden können. Zwar sei der Anteil von KI-generiertem Material unter der riesigen Menge kinderpornografischer Inhalte noch vergleichsweise gering, doch habe die Brutalität der Inhalte zugenommen: Etwa 65 Prozent der identifizierten Videos stuft die Studie in die „Kategorie A“ ein, unter welcher die schlimmsten Fälle aufgeführt werden (Kindesmissbrauch, Sadismus, Sodomie).Neue KI-Tools sind leichter verfügbar und leichter zu bedienenDie illegalen Inhalte sind durch neue Techniken wie die sogenannte „Low-Rank Adaptation“ leicht zu erstellen. Sie ermögliche es, bestehende KI-Modelle mit nur 20 bis 30 Bildern einer Person innerhalb von 15 Minuten auf herkömmlichen Laptops zu „trainieren“, was bedeutet: die Bilder eines realen Menschen der KI-Produktion einzuverleiben. Die Studie beschreibt Täter, die sich in Dark-Web-Foren darüber austauschen, wie sie mit versteckter Kamera Aufnahmen von Kinder machen, um diese mithilfe von KI-Tools in realistische Missbrauchsvideos umzuwandeln.Die Täter nutzten dabei oft Open-Source-Modelle, da diese lokal betrieben werden können und im Gegensatz zu kommerziellen Cloud-Diensten keine Sicherheitsfilter oder Rückverfolgbarkeitsmechanismen besitzen. Gefahrenquellen sind zudem „Nudify-Apps“. Mit diesen „entkleiden“ Täter Kinder, stellen sie digitalisiert nackt dar, um sie zu demütigen oder zu erpressen (Sextortion). KI-Chatbots, die Sexgespräche führen, fanden die Analysten der Internet Watch Foundation ebenfalls. Mit sogenannten „KI-Kindern“ können Täter ihre Missbrauchsfantasien ausleben.Mittels KI werden bereits vorhandene Inhalte verändertDer Konsum dieser Inhalte trage zur Normalisierung von Gewalt bei und erhöhe das Risiko für reale Übergriffe, schreibt die Internet Watch Foundation. So gaben in einer Studie 37 Prozent der Nutzer an, nach dem Betrachten illegaler Inhalte realen Kontakt zu Kindern gesucht zu haben. Opfer realen Kindesmissbrauchs würden ein weiteres Mal dadurch missbraucht, dass die Täter ihre Bilder ins Netz stellen und für neue, brutalere Missbrauchsszenarien verwenden. Die Gewalt ist stark geschlechtsspezifisch: 97 Prozent der illegalen KI-Bilder zeigen Mädchen.Die schiere Menge der mit Künstlicher Intelligenz erstellten Kinderpornografie drohe die Strafverfolger zu überfordern, so die Studie, da die Unterscheidung zwischen echtem und KI-Material zeitaufwendig ist und die Rettung echter Opfer verzögern könne. Nicht weniger aufwendig ist es, der sogenannte „Deepfake-Verteidigung“ entgegenzutreten, die darin besteht, dass Angeklagte vor Gericht behaupten, echtes Beweismaterial sei KI-generiert. Angesichts dieser Krise fordert die britische Organisation weltweit vereinheitlichte Gesetze, die die Plattformen in die Pflicht nehmen, wie Kerry Smith, der Vorstandschef der IWF, sagt: „Die Sicherheit von Kindern darf nicht erst im Nachhinein berücksichtigt werden.“
§ 05

Entities

3 identified
§ 06

Keywords & salience

9 terms
ki-generierte kinderpornografie
1.00
kindesmissbrauch
0.90
künstliche intelligenz
0.80
internet watch foundation
0.70
ki-tools
0.60
dark-web-foren
0.50
low-rank adaptation
0.50
nudify-apps
0.40
sextortion
0.40
§ 07

Topic connections

Interactive graph
Network visualization showing 4 related topics
View Full Graph
Person Organization Location Event|Click node to navigate|Edge numbers = shared articles