Praxiskurs zu KI im Journalismus: Recherche, automatisierte Texte, Faktencheck, Deepfake-Erkennung, multimediale Produktion und Medienethik.
Klicken zum Vergrößern
Lernziel: Sie verstehen die zentralen Einsatzfelder von KI im Journalismus und können die Chancen und Risiken für die redaktionelle Arbeit einordnen.
Die Medienbranche befindet sich in einer doppelten Transformation. Auf der einen Seite kämpfen Verlage und Redaktionen mit sinkenden Auflagen, Werbeeinnahmen, die zu Plattformen abwandern, und einem Fachkräftemangel in den Redaktionen. Auf der anderen Seite eröffnet KI völlig neue Möglichkeiten für Recherche, Produktion und Distribution von journalistischen Inhalten. Die entscheidende Frage lautet nicht mehr, ob KI im Journalismus eingesetzt wird, sondern wie sie eingesetzt wird, ohne die journalistische Integrität zu gefährden.
Bereits heute nutzen große Medienhäuser KI in ihrem Redaktionsalltag. Die dpa (Deutsche Presse-Agentur) setzt automatisierte Textgenerierung für Routinemeldungen ein: Wahlergebnisse, Börsenberichte, Sportergebnisse und Wetterdaten werden automatisch in verständliche Texte umgewandelt. Die Nachrichtenagentur Reuters hat ein System entwickelt, das Breaking News aus Tausenden von Quellen in Echtzeit erkennt und vorstrukturiert. Die New York Times nutzt KI für die Analyse großer Dokumentensammlungen bei investigativen Recherchen.
Der Wandel betrifft dabei nicht nur große Medienhäuser. Auch kleine Lokalredaktionen können von KI profitieren. Wenn eine Lokalzeitung mit fünf Redakteuren die Gemeinderatssitzungen in 20 Ortsteilen abdecken muss, kann KI-gestützte Protokollanalyse eine enorme Entlastung sein. Die KI fasst das Protokoll zusammen, identifiziert die nachrichtenwürdigen Beschlüsse und erstellt einen Rohentwurf, den der Redakteur dann journalistisch aufbereitet.
| Einsatzfeld | Beispiel | Verbreitung 2026 |
|---|---|---|
| Automatisierte Texte | Sport, Börse, Wetter | Weit verbreitet |
| Recherche-Unterstützung | Dokumentenanalyse | Zunehmend |
| Personalisierung | Individülle Newsfeeds | Standard bei Digital |
| Faktencheck | Automatisierte Verifikation | Wachsend |
| Audio/Video | Transkription, Untertitel | Weit verbreitet |
Kernpunkte:
> Reflexionsfrage: Welche Routineaufgaben in Ihrer Redaktion binden die meiste Zeit, die Sie lieber für Recherche und Analyse verwenden würden?
Lernziel: Sie können KI-Tools effektiv für journalistische Recherche einsetzen und wissen, wie investigative Teams KI für die Analyse großer Datenmengen nutzen.
Die Recherche ist das Herzstück des Journalismus, und genau hier entfaltet KI ihre größte Stärke. Investigativjournalisten stehen regelmäßig vor dem Problem, riesige Mengen an Dokumenten, Daten oder Kommunikation auswerten zu müssen. Die Panama Papers umfassten 11,5 Millionen Dokumente. Die Pandora Papers sogar 11,9 Millionen. Kein Rechercheteam der Welt kann solche Mengen manüll sichten. KI macht es möglich.
Bei der Analyse der FinCEN Files nutzte das International Consortium of Investigative Journalists (ICIJ) maschinelles Lernen, um verdächtige Transaktionsmuster in Tausenden von Verdachtsmeldungen zu identifizieren. Die KI erkannte Netzwerke aus Briefkastenfirmen, die menschlichen Analysten verborgen geblieben wären. Ähnlich arbeiten deutsche Rechercheteams von NDR, WDR und Süddeutscher Zeitung mit KI-Werkzeugen, um Firmenverflechtungen, Geldflüsse und Personennetzwerke zu visualisieren.
Für die alltägliche Recherche sind KI-Tools ebenfalls transformativ. Ein Lokaljournalist, der über ein Bauvorhaben berichtet, kann KI nutzen, um Bebauungspläne zu analysieren, Baugenehmigungen mit Umweltauflagen abzugleichen und die Stellungnahmen aus der Bürgerbeteiligung zusammenzufassen. Was früher Tage dauerte, gelingt in Stunden. Die eingesparte Zeit fließt in das, was KI nicht kann: Vor-Ort-Recherche, Gespräche mit Betroffenen, kritisches Nachfragen.
Wichtig ist dabei die Quellenkritik: KI-generierte Zusammenfassungen können Fehler enthalten. Ein Sprachmodell kann eine Zahl falsch extrahieren, einen Kontext missverstehen oder eine Nuance übersehen. Deshalb gilt die Regel: KI fasst zusammen, der Journalist verifiziert. Jede KI-generierte Information muss an der Originalquelle gegengeprüft werden, bevor sie in einem Artikel erscheint.
Kernpunkte:
> Praxistipp: Beginnen Sie damit, KI für die Transkription von Interviews und Pressekonferenzen einzusetzen. Das spart sofort messbar Zeit und Sie gewöhnen sich an den Workflow: KI erstellt den Rohentwurf, Sie prüfen und korrigieren.
Lernziel: Sie kennen die Einsatzmöglichkeiten und ethischen Grenzen automatisierter Texterstellung im Journalismus.
Die automatisierte Texterstellung ist der Bereich, der in Redaktionen die intensivsten Debatten auslöst. Wo ist die Grenze zwischen sinnvoller Automatisierung und dem Ausverkauf journalistischer Qualität? Die Antwort liegt in der Unterscheidung zwischen datengetriebenen und interpretationsgetriebenen Texten.
Datengetriebene Texte eignen sich hervorragend für Automatisierung. Sportergebnisse, Quartalsberichte von Unternehmen, Wahlergebnisse auf Gemeindeebene, Wetterberichte oder Verkehrslageinformationen folgen klaren Strukturen und können aus strukturierten Daten zuverlässig generiert werden. Die dpa produziert so bereits Tausende von Texten pro Monat, die kein Journalist schreiben muss und die vorher schlicht nicht existiert hätten. Eine Zeitung, die Ergebnisse aller Kreisligaspiele veröffentlicht, erreicht Leser, die sie vorher nicht hatte.
Interpretationsgetriebene Texte sind eine andere Sache. Ein Kommentar, eine Reportage, ein Interview, ein analytischer Hintergrundbericht: Diese Formate erfordern Urteilsvermögen, Perspektive und eine journalistische Haltung, die KI nicht liefern kann. Wenn ein Leitartikel zur Wirtschaftspolitik von einer KI geschrieben wird, fehlt die persönliche Einordnung, die Erfahrung, die Verantwortung. Leser erwarten von einem Kommentator, dass er mit seinem Namen für seine Einschätzung einsteht.
In der Praxis entwickelt sich ein hybrides Modell. Die KI erstellt einen Rohentwurf auf Basis von Daten und Quellen. Der Journalist prüft, ergänzt, kommentiert und gibt dem Text seine Stimme. Das funktioniert besonders gut bei Nachrichtenüberblicken, Zusammenfassungen und Servicetexten. Der Spiegel experimentiert beispielsweise mit KI-generierten Zusammenfassungen längerer Artikel, die als "KI-Zusammenfassung" gekennzeichnet sind.
| Textart | Automatisierbarkeit | Beispiele |
|---|---|---|
| Datengetrieben | Hoch | Sport, Börse, Wetter, Wahlen |
| Service/Info | Mittel | Veranstaltungstipps, FAQ |
| Nachrichten | Mittel (Rohentwurf) | Agenturmeldungen, Updates |
| Analyse/Hintergrund | Niedrig | Reportagen, Recherchestücke |
| Meinung/Kommentar | Nicht sinnvoll | Leitartikel, Kolumnen |
Kernpunkte:
> Reflexionsfrage: Wenn KI die Routinetexte übernimmt, wie würden Sie die gewonnene Zeit nutzen? Welche Geschichten würden Sie erzählen, für die heute keine Kapazität da ist?
Lernziel: Sie verstehen, wie KI beim automatisierten Faktencheck eingesetzt wird und welche Rolle sie im Kampf gegen Desinformation spielt.
Die Verbreitung von Falschinformationen ist eine der größten Herausforderungen für den modernen Journalismus. Gleichzeitig ist KI sowohl Teil des Problems als auch Teil der Lösung. Generative KI kann Desinformation in bisher ungekanntem Ausmaß produzieren: Deepfake-Videos, gefälschte Audiodateien, täuschend echte Textbeiträge. Aber KI kann auch dabei helfen, genau diese Fälschungen zu erkennen.
Automatisierte Faktencheck-Systeme arbeiten auf mehreren Ebenen. Auf der ersten Ebene vergleichen sie Behauptungen mit einer Datenbank verifizierter Fakten. Auf der zweiten Ebene analysieren sie die Quelle: Ist die Website seriös? Gibt es die zitierte Studie wirklich? Stammt das Bild tatsächlich vom angegebenen Ort und Zeitpunkt? Auf der dritten Ebene prüfen sie sprachliche Muster, die typisch für Desinformation sind: übertriebene Emotionalität, fehlende Quellen, Schwarz-Weiß-Argumentation.
Organisationen wie Correctiv in Deutschland, Full Fact in Großbritannien oder ClaimBuster in den USA nutzen KI-gestützte Systeme. Correctiv setzt beispielsweise ein System ein, das Social-Media-Posts in Echtzeit auf potenziell falsche Behauptungen scannt und priorisiert. Die KI ersetzt nicht den menschlichen Faktenchecker, aber sie hilft ihm, die Nadel im Heuhaufen zu finden. Statt Tausende von Posts manüll zu sichten, bekommt das Team eine priorisierte Liste der verdächtigsten Beiträge.
Die Deepfake-Erkennung ist ein Wettlauf zwischen Erstellern und Erkennern. Aktülle Systeme können manipulierte Videos und Bilder mit einer Genauigkeit von über 90 Prozent erkennen, indem sie Artefakte analysieren: unnatürliche Lichtreflexe in den Augen, inkonsistente Schattenwürfe oder minimale Verzerrungen an den Gesichtsrändern. Allerdings werden auch die Fälschungen immer besser. Deshalb ist es wichtig, dass Redaktionen nicht nur auf KI vertrauen, sondern auch klassische Verifikationsmethoden (Rückwärts-Bildersuche, Metadatenanalyse, Augenzeugenbestätigung) beibehalten.
Kernpunkte:
> Praxistipp: Etablieren Sie in Ihrer Redaktion einen festen Verifikations-Workflow für alle eingehenden Bilder und Videos. Nutzen Sie Tools wie InVID/WeVerify für die Bildforensik und prüfen Sie Metadaten systematisch.
Lernziel: Sie kennen die KI-Tools für die multimediale Content-Produktion und können sie sinnvoll in Ihren Redaktionsworkflow integrieren.
Die multimediale Content-Produktion ist ein Bereich, in dem KI die Produktionskosten dramatisch senkt und damit neue Formate ermöglicht. Ein lokaler Radiosender, der bisher kein Budget für Videoproduktion hatte, kann mit KI-Unterstützung plötzlich auch Videoformate anbieten. Eine Printredaktion kann Podcasts produzieren, ohne ein Tonstudio zu unterhalten.
Die Transkription ist der offensichtlichste Anwendungsfall. Tools wie Whisper (OpenAI), Trint oder Amberscript transkribieren Interviews, Pressekonferenzen und Gerichtsverhandlungen in Echtzeit mit hoher Genauigkeit. Für deutschsprachige Inhalte liegt die Fehlerrate bei professionellen Tools unter 5 Prozent. Das spart nicht nur die Zeit fürs Abtippen, sondern macht gesprochene Inhalte durchsuchbar. Ein Redakteur, der ein einstündiges Interview geführt hat, kann per Volltextsuche die relevanten Passagen sofort finden.
Bei der Videoproduktion unterstützt KI auf mehreren Ebenen. Automatische Untertitelung macht Videos barrierefrei und erhöht die Reichweite (80 Prozent der Social-Media-Videos werden ohne Ton geschaut). KI-gestützter Schnitt erkennt die besten Momente eines langen Interviews und schlägt Highlights vor. Text-to-Video-Tools wie Synthesia oder D-ID erzeugen Nachrichtenformate mit virtüllen Moderatoren, was für Routinemeldungen (Verkehr, Wetter) sinnvoll sein kann.
Im Podcastbereich hilft KI bei der Postproduktion: Rauschentfernung, Lautstärkenormalisierung, Entfernung von Füllwörtern ("ähm", "also"). Shownotes werden automatisch generiert, Kapitelmarken gesetzt und Zusammenfassungen erstellt. Für einen Redakteur, der seinen Podcast bisher zwei Stunden nachbearbeiten musste, reduziert sich der Aufwand auf 20 Minuten.
Kernpunkte:
> Praxistipp: Starten Sie mit Whisper (kostenlos, Open Source) für die Transkription. Die Qualität ist für die meisten Redaktionszwecke ausreichend und Sie sammeln Erfahrung, bevor Sie in kostenpflichtige Lösungen investieren.
Lernziel: Sie können ethische Leitlinien für den KI-Einsatz in Ihrer Redaktion formulieren und kennen die aktüllen Branchenstandards.
Die ethische Dimension des KI-Einsatzes im Journalismus ist komplex, weil sie an den Kern des Berufsverständnisses rührt. Journalismus lebt von Glaubwürdigkeit, und Glaubwürdigkeit basiert auf Transparenz. Wenn Leser nicht mehr wissen, ob ein Text von einem Menschen oder einer Maschine geschrieben wurde, untergräbt das das Vertrauensverhältnis.
Die meisten großen Medienhäuser haben deshalb KI-Richtlinien entwickelt. Die Grundprinzipien sind weitgehend einheitlich. Erstens: Kennzeichnungspflicht. Inhalte, die wesentlich von KI erstellt wurden, werden als solche markiert. Zweitens: Verantwortlichkeit. Auch KI-gestützte Inhalte durchlaufen die redaktionelle Kontrolle. Ein Mensch verantwortet den Inhalt. Drittens: Datenschutz. Vertrauliche Quellen und unveröffentlichte Recherchen werden nicht in externe KI-Systeme eingespeist.
Die Urheberrechtsfrage ist noch ungeklärt und wird die Branche Jahre beschäftigen. Wenn KI auf Basis von Millionen Zeitungsartikeln trainiert wurde, haben die Urheber dieser Artikel einen Anspruch auf Vergütung? Die New York Times hat OpenAI verklagt, andere Verlage haben Lizenzvereinbarungen geschlossen. In Europa wird der EU AI Act und die überarbeitete Urheberrechtsrichtlinie den Rahmen setzen. Für Redaktionen bedeutet das: Bleiben Sie informiert über die rechtliche Entwicklung und nutzen Sie Tools, deren Training auf legal lizenzierten Daten basiert.
Ein zukunftsorientiertes Redaktionskonzept verbindet KI-Effizienz mit journalistischer Qualität. Die KI übernimmt die Routineproduktion, die Datenanalyse und die Distribution. Die Journalisten konzentrieren sich auf das, was Maschinen nicht können: Fragen stellen, Zusammenhänge herstellen, Machtverhältnisse hinterfragen, Geschichten erzählen, die Menschen berühren. Die besten Redaktionen der Zukunft werden nicht die sein, die am meisten KI einsetzen, sondern die, die KI am klügsten einsetzen.
| Ethischer Grundsatz | Umsetzung | Branchenstandard |
|---|---|---|
| Transparenz | KI-Kennzeichnung bei Inhalten | Weitgehend etabliert |
| Verantwortung | Redaktionelle Endkontrolle | Standard |
| Quellenprotection | Keine vertraulichen Daten in KI-Tools | In Entwicklung |
| Urheberrecht | Lizenzkonforme KI-Tools nutzen | Rechtlich unklar |
| Vielfalt | KI-Bias bei Themenauswahl prüfen | Beginnt |
Kernpunkte:
> Praxistipp: Erstellen Sie eine schriftliche KI-Richtlinie für Ihre Redaktion. Definieren Sie klar: Welche Tools sind zugelassen? Wann muss gekennzeichnet werden? Was darf nicht in KI-Systeme eingespeist werden? Kommunizieren Sie diese Richtlinie auch an Ihre Leserschaft.