Navigationsbereich

Fake News und KI: Wie schützen wir uns vor Manipulation?

hand with mobile phone and text disinformation fake news
© Getty Images/Arkadiusz Warguła

Künstliche Intelligenz (KI) verändert unser Leben. Ob beim Lernen, Arbeiten oder Forschen – die Fortschritte der KI betreffen uns überall. Vieles bringt Vorteile. Aber es gibt auch Gefahren, vor allem im Medienbereich. Fake News sind ein Phänomen, das durch KI erleichtert wird. Expertinnen und Experten sehen darin eine echte Gefahr, zum Beispiel für Wahlkämpfe. Professor Stefan Feuerriegel, Leiter des Instituts für Artificial Intelligence (AI) in Management an der Ludwig-Maximilians-Universität (LMU) München und Fellow der DAAD Zuse Schools, gibt Auskunft.

Herr Professor Feuerriegel, welchen Einfluss hatten Fake News und KI im US-Präsidentschaftswahlkampf? Hat Donald Trump bei seinem Sieg davon profitiert?

Es gibt zahlreiche Beispiele, die zeigen, dass und KI im US-Wahlkampf eine Rolle gespielt haben. Insbesondere durch den Einsatz von generativer wurden realistisch wirkende Inhalte erstellt und gezielt verbreitet. Inwieweit diese Technologien tatsächlich Einfluss auf einzelne Wählergruppen hatten, muss die Forschung noch zeigen. Unsere Forschung hat ergeben, dass Deepfakes und ähnliche Manipulationen das Meinungsbild einzelner Personen beeinflussen können. Dazu haben wir eine Studie veröffentlicht, die man hier einsehen kann:

Auch in Deutschland steht 2025 eine wichtige Wahl an. Früher als geplant wird der Bundestag neu gewählt. Sehen Sie die Gefahr, dass KI eingesetzt wird, um Wählerinnen und Wähler in Deutschland gezielt zu beeinflussen?

Ja, diese Gefahr sehe ich durchaus. Ich möchte aber nicht darüber spekulieren, welche Akteure aus welchen Gründen Einfluss nehmen könnten. Besonders riskant sind strategische Kampagnen von Akteuren wie Russland, die darauf abzielen, Unsicherheit zu schüren oder Wähler gezielt zu manipulieren.

Russland wird immer wieder mit Manipulationsversuchen in Verbindung gebracht, auch über soziale Medien oder mit Hilfe von KI. Können Sie ein Beispiel nennen, wie Russland in Deutschland Einfluss genommen hat?

Wir wissen, dass Russland bereits solche Technologien nutzt, um gezielt Desinformation zu verbreiten. Ein aktuelles Beispiel zeigt, wie KI-basierte Tools eingesetzt werden, um täuschend echte Inhalte zu produzieren, die dann in sozialen Netzwerken verbreitet werden. Der -Entwickler OpenAI hat nach eigenen Angaben mehrere Desinformationskampagnen staatlich unterstützter Akteure gestoppt. Diese wollten die KI für ihre Aktivitäten nutzen. Diese Inhalte dienen dazu, das Vertrauen in demokratische Institutionen zu untergraben. Hier braucht es mehr Initiativen, die solche Versuche beobachten, da wir bisher kaum systematische Erkenntnisse dazu haben.

Gibt es überzeugende Ansätze, solche Desinformation zu verhindern? Wie könnte ein praktikables Modell aussehen?

Es gibt regulatorische und technische Ansätze wie Wasserzeichen und automatisierte „Fact-Checking-Bots“, um Fake News zu erkennen. Aber die Sicherheit solcher Maßnahmen ist nicht perfekt, und wir können uns nicht allein auf sie verlassen. Insbesondere staatliche Akteure könnten diese Maßnahmen umgehen oder unterminieren. Wichtiger ist es daher, auch die Medienkompetenz der Bevölkerung zu stärken, damit die Nutzenden selbst besser in der Lage sind, Desinformation zu erkennen.

Haben Sie Tipps für Verbraucherinnen und Verbraucher, wie sie sich erfolgreich gegen solche Kampagnen wappnen können?

Verbraucherinnen und Verbraucher sollten bei plakativen oder stark emotionalisierenden Inhalten skeptisch sein und immer die Quelle prüfen. Auch das Vertrauen in etablierte Medien und das Prinzip des „Querlesens“, also das Überprüfen von Informationen aus verschiedenen Quellen, sind gute Strategien.

Lässt sich der Spieß vielleicht auch umdrehen? Könnte eine „gute“ KI eingesetzt werden, um eine „böse“ KI – also Desinformationsversuche – zu entlarven?

Ja, eine „gute“ KI könnte theoretisch eingesetzt werden, um Desinformation zu entlarven. Es gibt bereits Forschungsprojekte, die KI-Modelle zur automatisierten Erkennung von Fake News entwickeln. Allerdings sollte man sich nicht allein auf diese Technologien verlassen, da sich generative KI-Modelle ständig weiterentwickeln und die Erkennungsalgorithmen schnell überholen könnten.

Disclaimer:

Die geäußerten Meinungen im Interview sind individuell und stehen für die persönliche Sichtweise der interviewten Person.

Wir bemühen uns um eine gendersensible Sprache. Externe Texte sowie Interviews entsprechen möglicherweise nicht unseren Konventionen für Formulierungen.

* Pflichtfeld
Artikel teilen:

Auch interessant

Es wurden 3 Treffer gefunden.

  • SDG Ziel 4: Hochwertige Bildung
    Junge Erwachsene sitzen nebeneinander und schauen auf ihre Smartphones.
    © Getty Images/FilippoBacci © Getty Images/FilippoBacci

    Die App für eine bessere Ideenwelt

    Chris Brown nimmt an der Alumniportal Community Challenge 2024 teil. Seine Idee: eine App, die Menschen mit positiven Ideen inspirieren und kritisches Denken fördern soll.

  • Eine Lupe und Buchstaben: Begriffe zu Wissenschaft und Forschung finden
    © Getty Images/patpitchaya © Getty Images/patpitchaya

    Glossar: Wissenschaft und Forschung

    Dieses Glossar bietet Ihnen Begriffsdefinitionen zu zentralen Begriffe aus den Bereichen Hochschule, Wissenschaft und Forschung und Innovation und wird regelmäßig aktualisiert. Die Glossarbegriffe sind alphabetisch geordnet.

  • SDG Ziel 15: Leben an Land
    Biene sitzt auf einer Lavendelblüte und trinkt Nektar
    © GettyImages/Daniela Korn © GettyImages/Daniela Korn

    Warum Bienen für unser Überleben so wichtig sind

    Der Klimawandel und Pestizide setzen Bienen zu. Dr. Kirsten Traynor informierte bei einer Virtual Coffee Break über die Bedeutung dieser Tiere für unser Ökosystem und wie wir sie schützen können.