NEWSAR
Multi-perspective news intelligence
SRCTagesschau (ARD)
LANGDE
LEANCenter
WORDS878
ENT8
THU · 2026-04-02 · 09:37 GMTBRIEF NSR-2026-0402-49135
News/Wie Desinformation zu erkennen ist
NSR-2026-0402-49135News Report·DE·Technology

Wie Desinformation zu erkennen ist

Der Artikel vom 2. April 2026 befasst sich mit der Zunahme von Desinformation, insbesondere in Krisenzeiten.

Carla Reveland, Pascal SiggelkowTagesschau (ARD)Filed 2026-04-02 · 09:37 GMTLean · CenterRead · 4 min
Wie Desinformation zu erkennen ist
Tagesschau (ARD)FIG 01
Reading time
4min
Word count
878words
Sources cited
3cited
Entities identified
8entities
Quality score
100%
§ 01

Briefing Summary

AI-generated
NEWSAR · AI

Der Artikel vom 2. April 2026 befasst sich mit der Zunahme von Desinformation, insbesondere in Krisenzeiten. Er erklärt, dass die veränderte Medienlandschaft, die vermehrte Online-Zeit der Menschen und die leichte Verfügbarkeit von KI-Tools die Verbreitung von Falschbehauptungen begünstigen. Experten wie Lena Frischlich und Andreas Dengel betonen, dass KI-generierte Inhalte genutzt werden, um "gefühlte Wahrheiten" zu bebildern und gezielt zu verbreiten, was zu einem Schneeballeffekt führen kann. Martin Steinebach weist auf die rasante Entwicklung und Zugänglichkeit von Technologien zur Erstellung gefälschter Video- und Audioinhalte hin. Der Artikel beleuchtet die Herausforderungen bei der Erkennung von Desinformation und die Faktoren, die ihre Verbreitung aktuell verstärken.

Confidence 0.90Sources 3Claims 5Entities 8
§ 02

Article analysis

Model · rule-based
Framing
Technology
Political Strategy
Tone
Mixed Tone
AI-assessed
CalmNeutralAlarmist
Factuality
0.70 / 1.00
Factual
LowHigh
Sources cited
3
Well sourced
FewMany
§ 03

Key claims

5 extracted
01

Techniques for creating AI content have developed rapidly.

factual
Confidence
0.90
02

It is much easier to reach a large audience via digital and social media.

quoteLena Frischlich, Professor at the Digital Democracy Center (DDC)
Confidence
0.90
03

KI-generated content is used for disinformation or propaganda purposes.

factual
Confidence
0.80
04

AI-generated videos are now commonplace.

factual
Confidence
0.80
05

Desinformation is now used as part of hybrid or digital warfare.

factual
Confidence
0.70
§ 04

Full report

4 min read · 878 words
faktenfinder Tag des Faktenchecks Wie Desinformation zu erkennen ist Stand: 02.04.2026 • 11:37 Uhr Besonders in Krisenzeiten sind Menschen anfällig dafür, Falschbehauptungen zu glauben - und davon gab es zuletzt viele. Auch wenn es oft schwer ist, gibt es einige Tipps, um Desinformation zu entlarven. Krieg in Nahost, Krieg in der Ukraine, dazu ungelöste Probleme wie der Klimawandel: Seit der Corona-Pandemie folgt eine Krise auf die nächste. Bei den sich überschlagenden Ereignissen den Überblick zu behalten, fällt schwer - und ebnet Falschbehauptungen den Weg, für bare Münze genommen zu werden. Auch wenn das absichtliche Verbreiten von falschen Inhalten - die Desinformation - kein neues Phänomen ist, gibt es dennoch Faktoren, die die Verbreitung aktuell sehr begünstigen. "Die Medienumgebung hat sich stark verändert", sagt Lena Frischlich, Professorin am Digital Democracy Center (DDC) der University of Southern Denmark. "Es ist viel leichter geworden, vor allem über digitale und soziale Medien eine große Öffentlichkeit zu erreichen. Und das führt dazu, dass auch unbestätigte Informationen viel leichter verbreitet werden können." Hinzu komme, dass die Menschen immer mehr Zeit online verbringen. Dadurch kämen sie öfter mit Falschbehauptungen in Kontakt. So sind mit künstlicher Intelligenz (KI) erstellte Videos mittlerweile Alltag. Zu nahezu jedem nachrichtlich relevanten Ereignis kursieren binnen kürzester Zeit Bilder oder Videos, die suggerieren, sie würden authentische Inhalte der Situation liefern, jedoch in Wirklichkeit KI-generiert sind. Mithilfe von KI können so "gefühlte Wahrheiten" bebildert werden, die im Netz gezielt ein bestimmtes Publikum erreichen sollen. "Dadurch können die eigene Haltung, die eigenen Werte verstärkt angesprochen werden, so dass der Impuls entsteht, solche Inhalte weiterzugeben - in gleicher oder in modifizierter Form", sagt Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Das könne einen Schneeballeffekt bewirken. Die Technik zur Erstellung dieser Inhalte hat sich rasant weiterentwickelt. Dazu kommt, dass zahlreiche Tools mittlerweile kostengünstig oder kostenfrei für die breite Masse zugänglich sind. Besonders im Bereich der Erstellung von Video- und Audioinhalten habe sich die Technik deutlich weiterentwickelt, sagt Martin Steinebach, Leiter der Abteilung Media Security und IT Forensics am Fraunhofer-Institut für Sichere Informationstechnologie SIT/ATHENE. "Natürlich klingende Stimmen und authentisch wirkende Bilder bekommt man mittlerweile schon gut hin. Auch von zu Hause aus auf dem Heimrechner." Gezielt eingesetzte KI-Inhalte zu Desinformations- oder Propagandazwecken, wie es beispielsweise staatliche Akteure tun, sind oft so professionell erstellt, dass kaum noch Auffälligkeiten zu finden sind. Desinformation wird mittlerweile als Teil einer hybriden oder digitalen Kriegsführung eingesetzt. Im russischen Krieg gegen die Ukraine spielen etwa verschiedene groß angelegte Desinformationskampagnen eine Rolle. "Wenn staatliche Akteure dahinter stehen, ist davon auszugehen, dass sie über ganz andere Ressourcen verfügen und ein ganz anderes Wissen vorhanden ist. Da muss ich einfach davon ausgehen, dass Bilder und Videos erzeugt werden können, die der Endnutzer nicht mehr als Fälschung erkennen kann", so Steinebach. Doch eine Vielzahl der KI-generierten Inhalte, die im Netz kursieren, sind nicht von Profis erstellt worden und weisen noch immer Fehler auf. Oft sind es kleine Details, anhand derer man erkennt, ob ein Video die Realität abbildet oder nicht. Schatten und Reflexion werden oft fehlerhaft von der KI dargestellt. Ebenso wie Spiegelungen häufig noch fehleranfällig sind. Ein Klassiker laut Steinebach: "Im Spiegelbild verschwindet auf einmal die Sonnenbrille." Auch lohne es sich, auf untypische Fingerhaltungen zu achten. Bei gefalteten Händen fließen die Finger manchmal noch ineinander über oder es sind Verzerrungen zu sehen. Auch Dengel sieht vor allem in Details Anhaltspunkte, um KI-generierte Inhalte zu enttarnen. "Am Übergang von Vordergrund zum Hintergrund sind oft kleine Artefakte festzustellen. Auch die Beleuchtung, der Schattenwurf, der kann sehr unterschiedlich sein von dargestellten Objekten. Da stimmt die Richtung plötzlich nicht mehr oder das Gesicht ist anders belichtet als die Kleidung des Menschen." KI-Systeme haben nach wie vor oft Schwierigkeiten mit Schriften. So kann man auf beleuchtete Reklame, Verkehrsschilder oder Logos achten. Doch bei weitem nicht alle Desinformationen sind KI-generiert. So sind sehr viele falsche Inhalte, die im Netz verbreitet werden, aus dem Kontext gerissene Bilder und Videos, die in Wahrheit völlig andere Situationen zeigen. Mit der Bilderrückwärtssuche lassen sich viele gefälschte oder im falschen Zusammenhang geteilte Inhalte aufdecken. Um zu überprüfen, ob Bilder aktuell sind, kann eine Rückwärtssuche über Google oder Yandex in vielen Fällen bereits zielführend sein. Die Suchmaschinen können das Netz nach gleichen oder ähnlichen Bildern durchsuchen, so dass bereits verwendete Bilder entdeckt werden können. Da auch ähnliche Bilder angezeigt werden, können manipulierte Inhalte entlarvt werden. Besonders in Krisenzeiten haben Menschen das Bedürfnis nach Informationen, sagt Frischlich vom DDC. Die sozialen Netzwerke seien dabei eine beliebte Anlaufstelle, da hier schnell Bilder und Videos verbreitet werden. "Es ist jedoch viel leichter, Gerüchte oder unüberprüfte Informationen zu verbreiten, als richtig handwerklichen Journalismus - also sich hinzusetzen, zu recherchieren und mit verschiedenen Quellen zu sprechen. Das dauert einfach viel länger." Der stetige Kontakt mit Desinformation kann weitreichende Folgen haben. "Wir wissen aus sehr vielen Studien, dass der Konsum von Desinformationen dazu führen kann, dass wir faktische Inhalte schlechter abrufen können", so Frischlich. Der Speicher im Gehirn werde sozusagen "zugemüllt" und es werde schwieriger, die richtige Information zu finden. Wichtig ist es laut Frischlich, den Menschen bewusst zu machen, dass sie der Verbreitung von Desinformationen entgegenwirken können. "Es hilft im Großen und Ganzen bereits, gründlich darüber nachzudenken, bevor man einen Inhalt teilt. Das können wir alle machen." Denn je weniger Reichweite Desinformationen bekämen, desto weniger Schaden könnten sie anrichten.
§ 05

Entities

8 identified
§ 06

Keywords & salience

8 terms
desinformation
1.00
falschbehauptungen
0.80
künstliche intelligenz
0.70
soziale medien
0.60
ki-generiert
0.50
digitale medien
0.50
faktencheck
0.40
medienumgebung
0.40
§ 07

Topic connections

Interactive graph
Network visualization showing 51 related topics
View Full Graph
Person Organization Location Event|Click node to navigate|Edge numbers = shared articles