Die zunehmende Verbreitung von Deepfakes im politischen Diskurs stellt eine ernsthafte Bedrohung für demokratische Prozesse dar. Besonders im Kontext von Wahlkämpfen haben KI-generierte oder manipulierte Inhalte das Potenzial, die öffentliche Meinungsbildung gezielt zu beeinflussen. Während der letzte US-Wahlkampf durch eine Flut an manipulierten Ton- und Videoaufnahmen geprägt war, wird auch in Europa verstärkt über den Umgang mit dieser Problematik diskutiert. Der AI-Act der Europäischen Union sieht ab August 2026 eine Kennzeichnungspflicht für Deepfake-Inhalte vor. Doch bis zu diesem Zeitpunkt bleibt die Frage: Wie kann bereits heute gegen ungekennzeichnete Deepfakes vorgegangen werden?
Regulatorische Ansätze im europäischen Rechtssystem
Der AI-Act, insbesondere Art. 50, verpflichtet Anbieter von KI-generierten Inhalten zur transparenten Kennzeichnung manipulierter Bild-, Audio- und Videodateien. Diese Regelung soll verhindern, dass Deepfakes unbemerkt in den Informationsfluss der Bevölkerung eindringen. Allerdings stellt sich die Frage, welche Handhabe aktuell besteht, wenn derartige Inhalte ohne Kennzeichnung verbreitet werden.
Erwägungsgrund 136 des AI-Acts legt die Verantwortung für die Offenlegung manipulierter Inhalte insbesondere auf große Plattformen. Zugleich betont er jedoch, dass Transparenzpflichten keine unmittelbare Grundlage für die Beurteilung der Rechtmäßigkeit von Inhalten schaffen. Die Einstufung als „rechtswidrig“ müsse sich weiterhin nach bestehenden Gesetzen richten. Das bedeutet, dass ein ungekennzeichneter Deepfake nicht automatisch entfernt werden kann, sofern er nicht gegen andere rechtliche Vorschriften verstößt.
Zusammenspiel mit dem Digital Services Act (DSA)
Ein zentraler Streitpunkt in der aktuellen Diskussion ist die Wechselwirkung zwischen dem AI-Act und dem Digital Services Act (DSA). Art. 16 DSA verpflichtet Plattformbetreiber zur Einrichtung von Melde- und Abhilfeverfahren für rechtswidrige Inhalte. Doch da der AI-Act selbst die Kennzeichnungspflicht nicht als hinreichendes Kriterium für die Rechtswidrigkeit eines Inhalts ansieht, könnte dies die Durchsetzbarkeit über den DSA erschweren. Kritiker bemängeln, dass durch diese Regelungslücke ein effektiver Schutz vor ungekennzeichneten Deepfakes in der Übergangszeit bis 2026 kaum gewährleistet werden kann.
Dringlichkeit einer Vorabregulierung
Die verzögerte Umsetzung der Offenlegungspflichten birgt erhebliche Risiken für kommende Wahlkämpfe in Europa. Bereits jetzt ist absehbar, dass Deepfakes eine Schlüsselrolle bei der Manipulation von Wählermeinungen spielen könnten. Ohne klare Regelungen zur schnellen Identifizierung und Entfernung solcher Inhalte bleiben Plattformbetreiber und Aufsichtsbehörden vor große Herausforderungen gestellt.
Ein Ansatz zur Überbrückung dieser Regelungslücke könnte eine verstärkte Selbstverpflichtung der Plattformen sein. Viele große Anbieter sozialer Medien arbeiten bereits mit KI-basierten Erkennungssystemen für manipulierte Inhalte. Eine verbindliche Kennzeichnungspflicht auf freiwilliger Basis bis zum Inkrafttreten des AI-Acts könnte dazu beitragen, die Verbreitung ungekennzeichneter Deepfakes einzudämmen.
Fazit und Ausblick
Die Regulierung von Deepfakes im Wahlkampf erfordert eine fein abgestimmte Balance zwischen Meinungsfreiheit und dem Schutz demokratischer Prozesse vor gezielter Manipulation. Der AI-Act stellt mit seiner Offenlegungspflicht ab 2026 einen wichtigen Schritt dar, doch bis dahin bleibt eine gefährliche Regelungslücke bestehen. Die Verknüpfung mit dem Digital Services Act könnte ein effektives Instrument zur Bekämpfung ungekennzeichneter Deepfakes sein, erfordert jedoch eine Klarstellung der Anwendbarkeit. Angesichts der bevorstehenden Wahlen in mehreren europäischen Ländern ist es unerlässlich, bereits jetzt Maßnahmen zur Eindämmung der Risiken durch manipulierte Inhalte zu ergreifen.