Ob Video oder Foto, das Internet ist voll von Fakes, die täuschend echt wirken. Für die Demokratie kann das verheerend sein. Kurz vor der Landtagswahl in Baden-Württemberg warnt der Verfassungsschutz vor Desinformation im Netz.
Schon eine gefälschte Audio-Datei, die täuschend echt die Stimme eines Politikers nachahmt, kann wirkungsvoll sein, warnt der Verfassungsschutz in Baden-Württemberg. Das habe zum Beispiel die Parlamentswahl in der Slowakei vor zwei Jahren gezeigt.
Das Opfer: Oppositionskandidat Michal Šimečka. Ihm wurde durch die Fälschung eine unpopuläre Idee unterstellt, die nicht Teil seines Programms war. “Eine drastische Erhöhung der Bierpreise ist unsere Priorität und wird eines der ersten Vorhaben sein, die eine von uns geführte Regierung umsetzen wird”, hört man ihn in dem Audio sagen.
Dass Ähnliches auch vor der Landtagswahl in Baden-Württemberg am 8. März passiert, sei nicht auszuschließen, warnt Frank Dittrich, der stellvertretende Leiter des Landesamts für Verfassungsschutz. Weil Landtagswahlen auch Auswirkungen auf die bundespolitische Ebene haben. “Diese Verflechtungen machen auch eine eher regional zu betrachtende Wahl interessant für einen potentiellen Angreifer”, erklärt er.
Taskforce gegen Desinformation
Dass der Verfassungsschutz ein Beispiel aus dem Ausland heranzieht, zeigt: in Baden-Württemberg sind Deepfakes mit gefälschten Audio- oder Videoaufnahmen real existierender Personen in diesem Wahlkampf noch nicht aufgetaucht. Und doch hat das Landesamt eine “Taskforce Desinformation” gegründet. Sie soll die Öffentlichkeit für das Thema sensibilisieren und nötigenfalls ermitteln.
Denn die Gefahr sei dem Landesamt zufolge real – vor allem natürlich für die Spitzenkandidaten, aber auch für andere Bewerber wie Michael Joukov. Er kandidiert in Ulm für die Grünen. Die Entwicklung im Netz mache ihm Sorgen, sagt er.
Politische Diskussion braucht verlässliche Fakten
Auf Bundesebene hat seine Partei Deepfakes schon erlebt, etwa ein Video mit dem früheren Wirtschaftsminister Robert Habeck. Im Netz kursierte ein gefälschtes Video, das Habeck im Gespräch mit Sandra Maischberger zeigt – und einen Wutausbruch, den es nie gegeben hat. “Halten Sie doch endlich mal Ihre dumme Fresse, Frau Maischberger”, sagt der Fake-Minister da zum Beispiel. Und dass es unerheblich sei, ob der Bäcker um die Ecke pleite gehe.
“Das ist eine große Gefahr”, sagt Joukov. “Nicht so sehr, dass man da persönlich angegriffen wird. Da braucht man ein dickes Fell. Sondern, dass zu viele Leute schlicht nicht mehr wissen, was ist wahr und was nicht.” Für eine gute politische Diskussion brauche es aber verlässliche Fakten.
Joukov und sein Wahlkampfteam durchkämmen regelmäßig das Netz nach Falschinformationen, um sie gegebenenfalls richtigstellen zu können. Da geht es meist schlicht um aus ihrer Sicht fehlerhafte Texte oder um Videos von Influencern. Vor allem um Beiträge zu Energie-Themen – es ist eines der Felder, auf die sich der Kandidat spezialisiert hat. Mit Deepfakes, die auf ihn persönlich abzielten, hatten der Grünen-Kandidat und sein Team bisher nicht zu tun.
KI-Schwärme, die gesellschaftliche Strömungen vortäuschen
Eine andere Gefahr: Oft sind Kommentare oder Posts im Netz automatisiert und stammen von Fake-Nutzer-Konten, hinter welchen keine Menschen stehen, sondern sogenannte Bots. Wissenschaftler der Universität Konstanz warnen vor einer neuen Generation solcher Bots. Sie könnten künftig als ganze Schwärme auftauchen, die von künstlicher Intelligenz so gesteuert werden, dass sie wie echte gesellschaftliche Strömungen wirken.
Bisher wiederholen Bots oft wortgleiche Formulierungen. Die Bots in den sogenannten KI-Schwärmen dagegen äußern den gleichen Inhalt in unterschiedlichen Varianten und einigen sich erst allmählich auf eine gemeinsame Meinung.
“Das ist gefährlich, weil es auf unsere Gesellschaft wie eine echte, weit geteilte Überzeugung wirken kann. Oder wie ein Streitthema, das gar nicht existiert”, erklärt Social-Data-Forscher David Garcia. Das könne das Vertrauen in Menschen oder Institutionen zerstören.
Neue Technologie, eventuell bald sehr präsent
Die Schwärme hätten das Potenzial, tief in kulturelle und politische Normen einzugreifen und seien eine Gefahr für die Demokratie. Weil Nutzer dann irgendwann glaubten, dass “das ja jeder sage”. Am Ende könnten die Schwärme auch die sozialen Medien selbst zerstören – falls die Nutzer davon ausgehen, dass sie fast nur noch mit Bots kommunizieren.
Die Technologie für KI-Schwärme ist neu, aber schon vorhanden. Das Forschungsteam rund um David Garcia ist davon überzeugt, dass KI-Schwärme bereits vorbereitet sind. Es rechnet damit, dass man ihren Einsatz spätestens Ende des Jahres erleben wird.
Fakes richtigstellen – aber durchdacht
Schon die Reaktion auf herkömmliche Angriffe müsse gut durchdacht sein, heißt es beim Verfassungsschutz. “In der Richtigstellung auf keinen Fall zuerst die Falsch-Information wiederholen, sondern mit der tatsächlichen Position zum Thema beginnen”, empfiehlt Frank Dittrich. Anderenfalls trage man selbst zur Weiterverbreitung des Fakes bei.
Auch ein sogenannter “Truth-Check”-Bereich auf der eigenen Website könne helfen. Gemeint ist ein Bereich, in dem interessierte Bürgerinnen und Bürger Informationen über aufgetauchte Fälschungen nachlesen können. Eine ganz Liste mit solchen Tipps hat die “Task Force Desinformation” an die Landtags-Kandidatinnen und -Kandidaten verschickt.
Persönliche Ansprache gegen Falschinformationen
Michael Joukov reagiert lieber direkt in den sozialen Medien. Mit selbst produzierten Videos, die Falschmeldungen im Netz aufgreifen und die aus seiner Sicht korrekten Fakten liefern. Das tut er allerdings nur dann, wenn die Fakes sich weit verbreiten. “Ich reagiere nur, wenn sie viel geklickt werden”, erklärt Joukov. “Sonst wertet man die ja nur auf.”
Sollte einmal ein Deepfake auftauchen, das seine Stimme fälscht oder seine Person in Bild und Ton, will er eine andere Strategie anwenden. “Dann ist es nicht so gut in eigener Sache zu sprechen”, ist er überzeugt. Sein Plan: Er will sich in diesem Fall Menschen aus der Ulmer Gesellschaft suchen, die für ihn und seine tatsächlichen politischen Positionen bürgen. Und er würde Strafanzeige stellen.
Bei allem, was möglicherweise noch so kurz vor der Wahl geschehe, gebe es aber ein Problem: Die Aufarbeitung würde vermutlich erst nach der Wahl gelingen.

