Fake News und KI: Wie schützen wir uns vor Manipulation?
- 2025-02-04
- Ralf Isermann
- Kommentieren
Künstliche Intelligenz (KI) verändert unser Leben. Ob beim Lernen, Arbeiten oder Forschen – die Fortschritte der KI betreffen uns überall. Vieles bringt Vorteile. Aber es gibt auch Gefahren, vor allem im Medienbereich. Fake News sind ein Phänomen, das durch KI erleichtert wird. Expertinnen und Experten sehen darin eine echte Gefahr, zum Beispiel für Wahlkämpfe. Professor Stefan Feuerriegel, Leiter des Instituts für Artificial Intelligence (AI) in Management an der Ludwig-Maximilians-Universität (LMU) München und Fellow der DAAD Zuse Schools, gibt Auskunft.
Herr Professor Feuerriegel, welchen Einfluss hatten Fake News und KI im US-Präsidentschaftswahlkampf? Hat Donald Trump bei seinem Sieg davon profitiert?
Es gibt zahlreiche Beispiele, die zeigen, dass und KI im US-Wahlkampf eine Rolle gespielt haben. Insbesondere durch den Einsatz von generativer wurden realistisch wirkende Inhalte erstellt und gezielt verbreitet. Inwieweit diese Technologien tatsächlich Einfluss auf einzelne Wählergruppen hatten, muss die Forschung noch zeigen. Unsere Forschung hat ergeben, dass Deepfakes und ähnliche Manipulationen das Meinungsbild einzelner Personen beeinflussen können. Dazu haben wir eine Studie veröffentlicht, die man hier einsehen kann:
Auch in Deutschland steht 2025 eine wichtige Wahl an. Früher als geplant wird der Bundestag neu gewählt. Sehen Sie die Gefahr, dass KI eingesetzt wird, um Wählerinnen und Wähler in Deutschland gezielt zu beeinflussen?
Ja, diese Gefahr sehe ich durchaus. Ich möchte aber nicht darüber spekulieren, welche Akteure aus welchen Gründen Einfluss nehmen könnten. Besonders riskant sind strategische Kampagnen von Akteuren wie Russland, die darauf abzielen, Unsicherheit zu schüren oder Wähler gezielt zu manipulieren.
Russland wird immer wieder mit Manipulationsversuchen in Verbindung gebracht, auch über soziale Medien oder mit Hilfe von KI. Können Sie ein Beispiel nennen, wie Russland in Deutschland Einfluss genommen hat?
Wir wissen, dass Russland bereits solche Technologien nutzt, um gezielt Desinformation zu verbreiten. Ein aktuelles Beispiel zeigt, wie KI-basierte Tools eingesetzt werden, um täuschend echte Inhalte zu produzieren, die dann in sozialen Netzwerken verbreitet werden. Der -Entwickler OpenAI hat nach eigenen Angaben mehrere Desinformationskampagnen staatlich unterstützter Akteure gestoppt. Diese wollten die KI für ihre Aktivitäten nutzen. Diese Inhalte dienen dazu, das Vertrauen in demokratische Institutionen zu untergraben. Hier braucht es mehr Initiativen, die solche Versuche beobachten, da wir bisher kaum systematische Erkenntnisse dazu haben.
Gibt es überzeugende Ansätze, solche Desinformation zu verhindern? Wie könnte ein praktikables Modell aussehen?
Es gibt regulatorische und technische Ansätze wie Wasserzeichen und automatisierte „Fact-Checking-Bots“, um Fake News zu erkennen. Aber die Sicherheit solcher Maßnahmen ist nicht perfekt, und wir können uns nicht allein auf sie verlassen. Insbesondere staatliche Akteure könnten diese Maßnahmen umgehen oder unterminieren. Wichtiger ist es daher, auch die Medienkompetenz der Bevölkerung zu stärken, damit die Nutzenden selbst besser in der Lage sind, Desinformation zu erkennen.
Haben Sie Tipps für Verbraucherinnen und Verbraucher, wie sie sich erfolgreich gegen solche Kampagnen wappnen können?
Verbraucherinnen und Verbraucher sollten bei plakativen oder stark emotionalisierenden Inhalten skeptisch sein und immer die Quelle prüfen. Auch das Vertrauen in etablierte Medien und das Prinzip des „Querlesens“, also das Überprüfen von Informationen aus verschiedenen Quellen, sind gute Strategien.
Lässt sich der Spieß vielleicht auch umdrehen? Könnte eine „gute“ KI eingesetzt werden, um eine „böse“ KI – also Desinformationsversuche – zu entlarven?
Ja, eine „gute“ KI könnte theoretisch eingesetzt werden, um Desinformation zu entlarven. Es gibt bereits Forschungsprojekte, die KI-Modelle zur automatisierten Erkennung von Fake News entwickeln. Allerdings sollte man sich nicht allein auf diese Technologien verlassen, da sich generative KI-Modelle ständig weiterentwickeln und die Erkennungsalgorithmen schnell überholen könnten.
Disclaimer:
Die geäußerten Meinungen im Interview sind individuell und stehen für die persönliche Sichtweise der interviewten Person.
Wir bemühen uns um eine gendersensible Sprache. Externe Texte sowie Interviews entsprechen möglicherweise nicht unseren Konventionen für Formulierungen.