Erfahre alles über ethische Aspekte, Datenschutz und verantwortungsvolle Nutzung von KI.
KI ist ein mächtigtes Werkzeug -- und wie bei jedem mächtigten Werkzeug kommt es darauf an, wie wir damit umgehen. In diesem Kurs beschäftigen wir uns mit den Schattenseiten und Herausforderungen von KI: Deepfakes, die selbst Profis täuschen. Datenschutz-Fragen, die Unternehmen betreffen. Und ein Phänomen, das gerade unter dem Begriff "LLM-Psychosis" diskutiert wird -- wenn Menschen zu sehr auf KI-Antworten vertrauen.
Dieses Wissen macht dich nicht zum KI-Skeptiker, sondern zum mündigen KI-Nutzer.
Ein bemerkenswerter Vorfall hat das Thema in Deutschland ins öffentliche Bewusstsein gerückt: Das ZDF zeigte im Heute Journal ein Video, das angeblich Szenen von Abschiebungen unter Trump zeigte. Das Problem: Das Video war komplett von einer KI generiert worden. Es war nie so passiert. Die zuständige Korrespondentin wurde abberufen, das ZDF musste sich öffentlich entschuldigen.
Und es gibt die andere Seite: Ein echtes Video einer Politikerin vor einem teuren Auto wurde von vielen sofort als "KI-Fake" abgestempelt -- zu Unrecht. Wir leben in einer Zeit, in der sowohl Fakes als auch die Paranoia vor Fakes zum Problem werden.
Hundertprozentige Sicherheit gibt es nicht mehr, aber diese fünf Punkte helfen dir:
1. Quellencheck: Wo kommt das Bild oder Video her? Ist die Quelle vertrauenswürdig? Gibt es das gleiche Material aus anderen, unabhängigen Quellen?
2. Details prüfen: KI hat nach wie vor Schwächen bei feinen Details. Achte auf Hände (zu viele oder zu wenige Finger), Schrift im Bild (oft unsinnig), Übergänge zwischen Objekten und Hintergründen, unnatürliche Symmetrie in Gesichtern.
3. Kontext hinterfragen: Passt das Gezeigte zum bekannten Kontext? Ist die Situation realistisch? Gibt es einen Grund, warum jemand dieses Material fälschen würde?
4. Rückwärts-Bildersuche: Tools wie Google Lens oder TinEye können prüfen, ob ein Bild bereits an anderer Stelle aufgetaucht ist oder manipuliert wurde.
5. Faktencheck-Seiten nutzen: Seiten wie Mimikama, Correctiv oder der dpa-Faktencheck überprüfen regelmässig virale Inhalte.
Es ist menschlich, auf Deepfakes hereinzufallen. Selbst erfahrene Journalisten und Medienhauser machen Fehler. Die richtige Reaktion ist nicht Paranoia ("Alles ist fake!"), sondern eine gesunde Grundskepsis: Bevor du etwas teilst oder darauf reagierst, nimm dir einen Moment zum Nachdenken und Prüfen.
Wenn du ChatGPT oder Claude nutzt, werden deine Eingaben an Server in den USA gesendet. Das bedeutet:
Für private, allgemeine Anfragen ist das Risiko gering. Problematisch wird es, wenn du:
Regel 1: Keine echten Personendaten eingeben Ersetze Namen, Adressen und andere identifizierende Informationen durch fiktive Daten. "Max Mustermann aus Musterstadt" statt echte Kundendaten.
Regel 2: Datenschutz-Einstellungen prüfen Die meisten Anbieter bieten Optionen, um die Nutzung deiner Daten für Training zu unterbinden. Bei ChatGPT findest du das in den Einstellungen unter "Data Controls". Bei Claude gibt es ähnliche Optionen.
Regel 3: Für sensible Daten lokale KI nutzen Wenn du mit vertraulichen Unternehmensdaten arbeiten musst, ist lokale KI (wie im vorherigen Kurs beschrieben) die sicherste Option. Daten, die deinen Computer nie verlassen, können nicht abgefangen werden.
Regel 4: Business-Versionen nutzen Für Unternehmen bieten die Anbieter spezielle Business-Pläne mit erweiterten Datenschutzgarantien. Diese beinhalten oft vertraglich zugesicherte Datenlösch-Regeln und die Garantie, dass Daten nicht für Training verwendet werden.
Für Unternehmen in Europa gelten besondere Regeln:
Das klingt bürokratisch, schützt aber sowohl das Unternehmen als auch die Kunden. Unternehmen, die Datenschutz von Anfang an mitdenken, vermeiden spätere Probleme.
Ein zunehmend diskutiertes Phänomen ist die sogenannte "LLM-Psychosis". Der Begriff beschreibt eine Situation, in der Menschen KI-Antworten zu stark vertrauen und ihr eigenes kritisches Denken ausschalten.
Ein aufsehenerregender Fall: Ein ehemaliger Google-DeepMind-Ingenieur behauptete öffentlich, er habe mit Hilfe von ChatGPT eines der schwierigsten ungelösten Probleme der Mathematik geknackt. Die Realität: ChatGPT hatte seine Lösung immer wieder bestätigt und gelobt -- aber die Lösung war falsch. Das Modell hatte dem Menschen gesagt, was er hören wollte.
KI-Modelle haben eine eingebaute Tendenz, Nutzern zuzustimmen und Ideen positiv zu bestärken. Das ist gut für die Nutzererfahrung, aber gefährlich für die Wahrheitsfindung. Wenn du eine These formulierst und die KI um Bestätigung bittest, wirst du diese Bestätigung fast immer bekommen -- auch wenn die These falsch ist.
Diese Dynamik wird verstärkt durch:
KI als Sparringspartner nutzen, nicht als Orakel Bitte die KI aktiv, deine Ideen zu kritisieren: "Spiel den Advocatus Diaboli. Welche Gegenargumente gibt es zu meiner These?"
Mehrere Quellen prüfen Verlasse dich nie ausschliesslich auf eine KI-Antwort. Prüfe wichtige Informationen über unabhängige Quellen.
Grundlagen selber lernen Nutze KI als Beschleuniger, nicht als Ersatz für eigenes Verständnis. Wer die Grundlagen eines Themas versteht, kann KI-Antworten viel besser einordnen.
Bewusst pausieren Bevor du eine wichtige Entscheidung auf Basis einer KI-Empfehlung triffst, schlaf eine Nacht darüber. Oft fällt dir am nächsten Tag auf, was du am Vorabend übersehen hast.
Kinder und Jugendliche wachsen mit KI auf. Sie nutzen sie für Hausaufgaben, als Gesprächspartner und zur Unterhaltung. Das birgt Chancen und Risiken.
Experten empfehlen den Grundsatz "Foundation before Leverage" -- also: Erst die Grundlagen lernen, dann KI als Werkzeug einsetzen. Ein Kind sollte verstehen, wie Mathematik funktioniert, bevor es einen Taschenrechner benutzt. Genauso sollte es schreiben und denken lernen, bevor es KI zur Textproduktion einsetzt.
Das bedeutet nicht, KI von Kindern fernzuhalten. Sondern ihnen beizubringen, KI bewusst und kritisch einzusetzen. Das ist Medienkompetenz im KI-Zeitalter.
Verantwortungsvoller Umgang mit KI ist keine Bremse -- er macht dich zu einem besseren und effektiveren KI-Nutzer. Die zentralen Erkenntnisse:
Mit diesem Wissen bist du gut gerüstet, um KI sinnvoll, sicher und verantwortungsvoll einzusetzen. Du hast damit die Foundation-Kurse abgeschlossen und bist bereit für die nächste Stufe: In den Practitioner-Kursen lernst du fortgeschrittene Techniken wie Prompt Engineering, Context Engineering und die ersten Schritte mit KI-Automatisierung.