Interview mit Julia Krickl vom ÖIAT Research Team
Hier geht´s zum PDF: Faktenskills sind jetzt Creatorskills
Was einmal nach Sci-Fi klang, ist heute ein echtes Problem für alle, die mit Content arbeiten, egal ob Journalist:in, TikTok-Creator oder Social-Media-Redakteur:in. Das Österreichische Institut für angewandte Telekommunikation (ÖIAT) war Teil eines Kooperationsprojekts der KIRAS Sicherheitsforschung „defame Fakes“. Wir haben bei Julia Krickl vom ÖIAT Research Team nachgefragt und sie erklärt wie Deepfakes die tägliche Arbeit verändern und warum klassische Faktencheck-Skills plötzlich wichtiger sind, denn je.
Die gute Nachricht zuerst: Die herkömmlichen Tools und Prüfschritte haben sich nicht komplett verändert. Die schlechte: Die Menge an Müll (aka „Slop“) ist explodiert.
Die Erhebung zeigt klar, dass sich vor allem die Skalierung und Qualität von Deepfakes geändert hat. Hochwertige KI-generierte Videos lassen sich nicht mehr durch Bauchgefühl oder einfache Recherchen erkennen. Während früher Kontextwissen oft ausreichte, um manipulierte Inhalte zu entlarven, wird das bei hochqualitativen KI-Videos zunehmend schwieriger.
„Die Skills, die in Faktencheck-Redaktionen seit Jahren perfektioniert werden, haben besonders jetzt immensen Wert und sollten an jede:n Redakteur:in weitergegeben werden.“
Die große Frage also lautet: Wie prüft man unter Zeitdruck, ohne KI-Expert:in zu sein, ob ein Video echt ist? Julias Antwort ist klar: Detektionstools werden unverzichtbar.
Tools, die Medienmanipulation oder den Einsatz generativer KI erkennen können, werden in Zukunft ein fixer Bestandteil redaktioneller Workflows sein, so selbstverständlich wie heute Reverse Image Search. Gerade für junge Medienschaffende heißt das: Faktencheck ist kein Nischenskill mehr, sondern ein zentrales Creator-Skill.
Wenn wir Bildern und Videos nicht mehr blind trauen können, bleibt eine Frage: Wem trauen wir dann? Die Erhebung zeigt, dass Seriöse Quellen an Wichtigkeit gewinnen werden. Vor allem wenn Unsicherheit zunimmt, wenden sich Menschen an Kanäle, denen sie vertrauen. Das könnte eine echte Chance für Qualitätsmedien sein, auch (oder gerade) bei jüngeren Zielgruppen.
Darüber hinaus gibt es eine klare Aufforderung: Plattformen müssen stärker in die Pflicht genommen werden, KI-generierte oder manipulierte Inhalte klar zu kennzeichnen. Inhalte können bei den Plattformen selbst aber auch bei Trusted Flagger gemeldet werden, auch wenn das nicht immer perfekt funktioniert. Ein zusätzlicher, aber ressourcenintensiver Schritt wäre, Richtigstellungen direkt unter Fakes zu posten. Genau dort, wo Nutzer:innen ohnehin nach Orientierung suchen.
Das Fazit der Erhebung ist deutlich: Medienschaffende sind die erste Verteidigungslinie gegen die Verbreitung von Deepfakes. Deepfakes sind gekommen, um zu bleiben. Die Frage ist nicht, ob wir mit ihnen dealen müssen, sondern wie gut.
Infos & Quellen
Quellen:
Interview mit Julia Krickl vom ÖIAT, 02.02.2026
KIRAS Sicherheitsforschung (Hrsg.). (2026). Defame Fakes – Deepfake Bedrohungsszenarien.