
Gegen das Unterwandern und Täuschen
Deep Fakes unterwandern und täuschen Gesellschaft, Wirtschaft und Medien. Deutscher Vorzeige-Inkubator SPRIND hat dazu letztes Jahr eine eigene Förderschiene initiiert und jetzt Siegerprojekt wie beste Einreichungen verlautbart.
Imitierte Stimmen und generell verzerrte Identitäten unterwandern unser Vertrauen in digitale Bilder. Deepfakes sind eine systemische Herausforderung für Medien, Wirtschaft, Politik und die Gesellschaft an sich. Für Prävention und Abwehr hat der deutsche Inkubator Sprind ein Förderprogramm gestartet und nun die ersten Projekte nominiert.
Sprind nennt seine Förderprogramme „Funke“ und der zum Thema Deepfake heißt „Deepfake Detection & Prevention“. Die Herausforderung bei dieser Förderschiene war die Entwicklung eines umfassenden Prototyps, der reaktive Maßnahmen zur Erkennung und/oder präventive Maßnahmen zum Schutz vor Bild-Deepfakes beinhaltet und in bestehende digitale Infrastrukturen integriert werden kann.
Individuelle Finanzierung von bis zu 725.000 Euro über zwei Stufen
Über 13 Monate hinweg arbeiteten bis zu zwölf Teams an entsprechenden Prototypen, die digitale Echtheit neu definieren. Die Teams erhielten eine individuelle Finanzierung von bis zu 725.000 Euro über zwei Stufen, weiters Zugang zu Expertise aus Forschung, Regulierung und Industrie sowie kontinuierliche Betreuung durch die Experten bei Sprind selbst. Ziel war die Entwicklung eines funktionalen Prototyps, der Deepfakes nicht nur erkennt, sondern auch authentifizierbare, vertrauenswürdige Bildinhalte ermöglicht.
Eine weitere Aufgabe war, dass diese Prototypen skalierbar, robust und flexibel einsetzbar sind. Ende letzten Jahres kam sodann die Experten-Jury von Sprind zum dritten Mal zusammen und wählte aus den sieben verbliebenen Projekt-Teams den finalen Sieger dieses Sprind-Funkens. Economy stellt nachfolgend sowohl das Siegerprojekt wie auch alle anderen nominierten Arbeiten vor.
Das Siegerprojekt Cinematic Context Aware AI Image
Das Projekt mit dem Titel „Detectio itsreal.media“ des Teams rund um den Regisseur Christoph Behl überzeugte durch die Kombination aus präziser technischer Analyse und einer ganzheitlichen Betrachtung des Bildes, einschließlich hunderter visueller und struktureller Muster.
Ergänzt wurde dies durch den Einsatz leistungsfähiger Deep-Learning-Modelle sowie eines flexiblen, hochgradig adaptiven Meta-Modells, das sich schnell an neue Modelle und sogenannte Feature-Sets anpassen lässt. Höchste Erkennungsraten sowohl bei vollständig generierten KI-Bildern als auch bei der korrekten Identifizierung authentischer (Anm. real-as-real) Bilder waren weitere Assets, so Auszüge aus der Jury-Begründung.
Secunet Security Networks AG als weiterer Finalist
Das Team der secunet Security Networks AG in Zusammenarbeit mit der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) konzentrierte sich in seinem Ansatz auf die robuste Erkennung von Deepfakes mit Multi-Detektoren. Die Anwendung VeriTrue setzt dabei verschiedene aufgabenspezifische Detektoren ein und fusioniert sie intelligent zu einem System, das Unsicherheiten berücksichtigt.
Dieser Ansatz ermöglicht eine zuverlässige Klassifizierung von echten und gefälschten Bildern beliebiger Deepfake-Generatoren, auch wenn diese im Training nicht gesehen wurden. Darüber hinaus erlaubt das integrierte System eine Einschätzung, wie sicher der Detektor bei seiner Klassifizierung ist. Die Ergebnisse sind dadurch einfacher interpretierbar, so die hier verlautbarte Jury-Begründung.
Software-basierte Lösung vom Team Neuraforge
Das Team Neuraforge wiederum entwickelte eine Software-basierte Lösung zur Erkennung von Deepfakes und KI-generierten Bildern und Videos. Dabei schaut das Team auf statistische Artefakte im Bildrauschen als eine Art Fingerabdruck der KI — und kann so auch etwa in einem rein schwarzen Bild den Unterschied zwischen echt erzeugten und KI-generierten Bildern erkennen.
Ein besonderer Fokus beim Projekt liegt auf der Erklärbarkeit und Zuverlässigkeit der Aussagen der Software. Für Co-Gründerin Anika Gruner, die einen journalisitschen Hintergrund hat, ist die Glaubwürdigkeit des Journalismus in der heutigen Zeit eine besondere Motivation für das Projekt.
Projekt „Valid“ zum Thema einfache Prüfung von Authentizität und Integrität eines Bildes
Beim nächsten Projekt „Valid“ geht es um den Schutz vor Deepfakes, indem Originalbilder so sicher markiert werden, dass sowohl Menschen als auch Maschinen die Authentizität und Integrität eines Bildes überprüfen können. Der Ansatz ermöglicht eine universelle Verifizierung von Bildern unabhängig von ihrem digitalen Speicherort und Format.
Durch die dezentrale Architektur kann eine souveräne Verifizierung unabhängig von Drittanbietern durchgeführt werden. Die komplementären User-Apps von Valid lassen sich nahtlos in bestehende Lösungen integrieren und ermöglichen so einen transparenten Informationsaustausch, so die Jury-Begründung für „Valid“.
Mehrschichtiger End-to-End-Ansatz bei Projekt „DeepShield“ von Secublox
DeepShield von Secublox, in Kooperation mit der Universtität der Bundeswehr und der IABG geht über herkömmliche KI-basierte Deepfake-Erkennung hinaus und integriert einen mehrschichtigen End-to-End-Ansatz, der vertrauenswürdige Hardware, kryptografische Wasserzeichen und Blockchain-Technologie kombiniert.
Diese Lösung sichere die Authentizität digitaler Inhalte vom Zeitpunkt der Erfassung an, indem sie fälschungssichere Wasserzeichen mit Hilfe von Trusted Execution Environments einbettet und eine Blockchain-basierte Verifizierung für einen sicheren, unveränderlichen Herkunftsnachweis ermöglicht, lautete hier die Einordnung der Jury.
Projekt DeepFOCAS mit visueller Faktenprüfung auf Basis von Bildmetadaten und Kontext
Die Lösung von DeepFOCAS integriert visuelles Verständnis in die Deepfake-Erkennung, indem sie eine visuelle Faktenprüfungs-Pipeline anwendet, die auf Bildmetadaten und Kontext reagiert. Das Team entwickelt eine neuartige, vertrauenswürdige Wissensbasis für Personen in echten und gefälschten Kontexten.
Ergänzend dazu folgte ein neuartiger und integrierter Realitätserkennungsdienst, der die Erkennung synthetischer Bilder sowie Bildmanipulationen wie auch die Dekontextualisierung von Bildern umfasst, die für menschliche Nutzer verständlich und erklärbar sind, so die Sprind-Jury.
Digitale Manipulationen im Kern beim Projekt ClyraVision
ClyraVision von Merantix Momentum in Zusammenarbeit mit Possible Digital nutzt eine speziell weiteentwickelte KI, um digitale Manipulationen im Kern aufzudecken. Unter der Leitung von Thomas Wollmann möchte ClyraVision Vertrauen in den Schutz digitaler Räume schaffen.
Das Projekt sei für eine nahtlose Weiterentwicklung mit der schnelllebigen Welt der Deepfake-Technologie konzipiert. Unterstützt vom Merantix-Ökosystem möchte das Team die Aufrechterhaltung von Vertrauen in einer zunehmend durch digitale Manipulation bedrohten Welt neu definieren, so die Beschreibung dieses Projekts. (red/czaak)