Zum Inhalt
© Pixabay_SarahRicherArt_Sprind_140126

Gegen das Unter­wan­dern und Täuschen

Deep Fakes unter­wan­dern und täu­schen Gesell­schaft, Wirt­schaft und Medien. Deut­scher Vor­zeige-Inku­ba­tor SPRIND hat dazu letz­tes Jahr eine eigene För­der­schiene initi­iert und jetzt Sie­ger­pro­jekt wie beste Ein­rei­chun­gen verlautbart.

Imi­tierte Stim­men und gene­rell ver­zerrte Iden­ti­tä­ten unter­wan­dern unser Ver­trauen in digi­tale Bil­der. Deepf­akes sind eine sys­te­mi­sche Her­aus­for­de­rung für Medien, Wirt­schaft, Poli­tik und die Gesell­schaft an sich. Für Prä­ven­tion und Abwehr hat der deut­sche Inku­ba­tor Sprind ein För­der­pro­gramm gestar­tet und nun die ers­ten Pro­jekte nominiert.

Sprind nennt seine För­der­pro­gramme „Funke“ und der zum Thema Deepf­ake heißt „Deepf­ake Detec­tion & Pre­ven­tion“. Die Her­aus­for­de­rung bei die­ser För­der­schiene war die Ent­wick­lung eines umfas­sen­den Pro­to­typs, der reak­tive Maß­nah­men zur Erken­nung und/​oder prä­ven­tive Maß­nah­men zum Schutz vor Bild-Deepf­akes beinhal­tet und in bestehende digi­tale Infra­struk­tu­ren inte­griert wer­den kann.

Indi­vi­du­elle Finan­zie­rung von bis zu 725.000 Euro über zwei Stufen

Über 13 Monate hin­weg arbei­te­ten bis zu zwölf Teams an ent­spre­chen­den Pro­to­ty­pen, die digi­tale Echt­heit neu defi­nie­ren. Die Teams erhiel­ten eine indi­vi­du­elle Finan­zie­rung von bis zu 725.000 Euro über zwei Stu­fen, wei­ters Zugang zu Exper­tise aus For­schung, Regu­lie­rung und Indus­trie sowie kon­ti­nu­ier­li­che Betreu­ung durch die Exper­ten bei Sprind selbst. Ziel war die Ent­wick­lung eines funk­tio­na­len Pro­to­typs, der Deepf­akes nicht nur erkennt, son­dern auch authen­ti­fi­zier­bare, ver­trau­ens­wür­dige Bild­in­halte ermöglicht.

Eine wei­tere Auf­gabe war, dass diese Pro­to­ty­pen ska­lier­bar, robust und fle­xi­bel ein­setz­bar sind. Ende letz­ten Jah­res kam sodann die Exper­ten-Jury von Sprind zum drit­ten Mal zusam­men und wählte aus den sie­ben ver­blie­be­nen Pro­jekt-Teams den fina­len Sie­ger die­ses Sprind-Fun­kens. Eco­nomy stellt nach­fol­gend sowohl das Sie­ger­pro­jekt wie auch alle ande­ren nomi­nier­ten Arbei­ten vor.

Das Sie­ger­pro­jekt Cine­ma­tic Con­text Aware AI Image

Das Pro­jekt mit dem Titel „Detec­tio itsreal.media“ des Teams rund um den Regis­seur Chris­toph Behl über­zeugte durch die Kom­bi­na­tion aus prä­zi­ser tech­ni­scher Ana­lyse und einer ganz­heit­li­chen Betrach­tung des Bil­des, ein­schließ­lich hun­der­ter visu­el­ler und struk­tu­rel­ler Muster. 

Ergänzt wurde dies durch den Ein­satz leis­tungs­fä­hi­ger Deep-Lear­ning-Modelle sowie eines fle­xi­blen, hoch­gra­dig adap­ti­ven Meta-Modells, das sich schnell an neue Modelle und soge­nannte Fea­ture-Sets anpas­sen lässt. Höchste Erken­nungs­ra­ten sowohl bei voll­stän­dig gene­rier­ten KI-Bil­dern als auch bei der kor­rek­ten Iden­ti­fi­zie­rung authen­ti­scher (Anm. real-as-real) Bil­der waren wei­tere Assets, so Aus­züge aus der Jury-Begründung.

Secu­net Secu­rity Net­works AG als wei­te­rer Finalist

Das Team der secu­net Secu­rity Net­works AG in Zusam­men­ar­beit mit der Fried­rich-Alex­an­der-Uni­ver­si­tät Erlan­gen-Nürn­berg (FAU) kon­zen­trierte sich in sei­nem Ansatz auf die robuste Erken­nung von Deepf­akes mit Multi-Detek­to­ren. Die Anwen­dung Veri­True setzt dabei ver­schie­dene auf­ga­ben­spe­zi­fi­sche Detek­to­ren ein und fusio­niert sie intel­li­gent zu einem Sys­tem, das Unsi­cher­hei­ten berücksichtigt. 

Die­ser Ansatz ermög­licht eine zuver­läs­sige Klas­si­fi­zie­rung von ech­ten und gefälsch­ten Bil­dern belie­bi­ger Deepf­ake-Gene­ra­to­ren, auch wenn diese im Trai­ning nicht gese­hen wur­den. Dar­über hin­aus erlaubt das inte­grierte Sys­tem eine Ein­schät­zung, wie sicher der Detek­tor bei sei­ner Klas­si­fi­zie­rung ist. Die Ergeb­nisse sind dadurch ein­fa­cher inter­pre­tier­bar, so die hier ver­laut­barte Jury-Begründung.

Soft­ware-basierte Lösung vom Team Neuraforge

Das Team Neu­r­af­orge wie­derum ent­wi­ckelte eine Soft­ware-basierte Lösung zur Erken­nung von Deepf­akes und KI-gene­rier­ten Bil­dern und Videos. Dabei schaut das Team auf sta­tis­ti­sche Arte­fakte im Bild­rau­schen als eine Art Fin­ger­ab­druck der KI — und kann so auch etwa in einem rein schwar­zen Bild den Unter­schied zwi­schen echt erzeug­ten und KI-gene­rier­ten Bil­dern erkennen. 

Ein beson­de­rer Fokus beim Pro­jekt liegt auf der Erklär­bar­keit und Zuver­läs­sig­keit der Aus­sa­gen der Soft­ware. Für Co-Grün­de­rin Anika Gru­ner, die einen jour­na­li­sit­schen Hin­ter­grund hat, ist die Glaub­wür­dig­keit des Jour­na­lis­mus in der heu­ti­gen Zeit eine beson­dere Moti­va­tion für das Projekt.

Pro­jekt „Valid“ zum Thema ein­fa­che Prü­fung von Authen­ti­zi­tät und Inte­gri­tät eines Bildes

Beim nächs­ten Pro­jekt „Valid“ geht es um den Schutz vor Deepf­akes, indem Ori­gi­nal­bil­der so sicher mar­kiert wer­den, dass sowohl Men­schen als auch Maschi­nen die Authen­ti­zi­tät und Inte­gri­tät eines Bil­des über­prü­fen kön­nen. Der Ansatz ermög­licht eine uni­ver­selle Veri­fi­zie­rung von Bil­dern unab­hän­gig von ihrem digi­ta­len Spei­cher­ort und Format. 

Durch die dezen­trale Archi­tek­tur kann eine sou­ve­räne Veri­fi­zie­rung unab­hän­gig von Dritt­an­bie­tern durch­ge­führt wer­den. Die kom­ple­men­tä­ren User-Apps von Valid las­sen sich naht­los in bestehende Lösun­gen inte­grie­ren und ermög­li­chen so einen trans­pa­ren­ten Infor­ma­ti­ons­aus­tausch, so die Jury-Begrün­dung für „Valid“.

Mehr­schich­ti­ger End-to-End-Ansatz bei Pro­jekt „Deep­Shield“ von Secublox

Deep­Shield von Secu­blox, in Koope­ra­tion mit der Uni­vers­ti­tät der Bun­des­wehr und der IABG geht über her­kömm­li­che KI-basierte Deepf­ake-Erken­nung hin­aus und inte­griert einen mehr­schich­ti­gen End-to-End-Ansatz, der ver­trau­ens­wür­dige Hard­ware, kryp­to­gra­fi­sche Was­ser­zei­chen und Block­chain-Tech­no­lo­gie kombiniert. 

Diese Lösung sichere die Authen­ti­zi­tät digi­ta­ler Inhalte vom Zeit­punkt der Erfas­sung an, indem sie fäl­schungs­si­chere Was­ser­zei­chen mit Hilfe von Trus­ted Exe­cu­tion Envi­ron­ments ein­bet­tet und eine Block­chain-basierte Veri­fi­zie­rung für einen siche­ren, unver­än­der­li­chen Her­kunfts­nach­weis ermög­licht, lau­tete hier die Ein­ord­nung der Jury.

Pro­jekt Deep­FO­CAS mit visu­el­ler Fak­ten­prü­fung auf Basis von Bild­me­ta­da­ten und Kontext

Die Lösung von Deep­FO­CAS inte­griert visu­el­les Ver­ständ­nis in die Deepf­ake-Erken­nung, indem sie eine visu­elle Fak­ten­prü­fungs-Pipe­line anwen­det, die auf Bild­me­ta­da­ten und Kon­text reagiert. Das Team ent­wi­ckelt eine neu­ar­tige, ver­trau­ens­wür­dige Wis­sens­ba­sis für Per­so­nen in ech­ten und gefälsch­ten Kontexten.

Ergän­zend dazu folgte ein neu­ar­ti­ger und inte­grier­ter Rea­li­täts­er­ken­nungs­dienst, der die Erken­nung syn­the­ti­scher Bil­der sowie Bild­ma­ni­pu­la­tio­nen wie auch die Dekon­tex­tua­li­sie­rung von Bil­dern umfasst, die für mensch­li­che Nut­zer ver­ständ­lich und erklär­bar sind, so die Sprind-Jury.

Digi­tale Mani­pu­la­tio­nen im Kern beim Pro­jekt ClyraVision

Cly­ra­Vi­sion von Meran­tix Momen­tum in Zusam­men­ar­beit mit Pos­si­ble Digi­tal nutzt eine spe­zi­ell wei­te­ent­wi­ckelte KI, um digi­tale Mani­pu­la­tio­nen im Kern auf­zu­de­cken. Unter der Lei­tung von Tho­mas Woll­mann möchte Cly­ra­Vi­sion Ver­trauen in den Schutz digi­ta­ler Räume schaffen.

Das Pro­jekt sei für eine naht­lose Wei­ter­ent­wick­lung mit der schnell­le­bi­gen Welt der Deepf­ake-Tech­no­lo­gie kon­zi­piert. Unter­stützt vom Meran­tix-Öko­sys­tem möchte das Team die Auf­recht­erhal­tung von Ver­trauen in einer zuneh­mend durch digi­tale Mani­pu­la­tion bedroh­ten Welt neu defi­nie­ren, so die Beschrei­bung die­ses Pro­jekts. (red/​czaak)

Autor: red/czaak
14.01.2026

Weitere aktuelle Artikel

Inno­va­tion. Defi­zite in der ganz­heit­li­chen Ver­bin­dung von Pro­zes­sen, Daten und Steue­rungs­lo­gik. Bei der Digi­ta­li­sie­rung ent­schei­det der Mut, auch den Unter­neh­mens­kern zu trans­for­mie­ren, über Erfolg oder Miss­erfolg. Ein Exper­ten­kom­men­tar von Chris­tian Wen­ner, Head of Stra­te­gic Port­fo­lio­ma­nage­ment CAN­COM Austria. Noch vor weni­gen Jah­ren war die Welt für die öster­rei­chi­sche Export­wirt­schaft in Ord­nung. Güns­tige Ener­gie, gut aus­ge­bil­dete Fach­kräfte, […]
Digi­ta­li­sie­rung im moder­nen Spit­zen­sport und der rich­tige KI-Ein­satz in Unter­neh­men neben wei­te­ren Key Notes, Use Cases und Mas­ter­clas­ses. Pro­mi­nente Unter­neh­men, Mana­ger und Exper­ten erör­tern bei zwei­ter Auf­lage der DIGI­TAL X Erfah­run­gen mit Trans­for­ma­tion und tech­no­lo­gi­scher Inno­va­tion. Unter dem Motto „Digi­tal Heart­beat“ laden T‑Systems, Magenta, Tele­kom Secu­rity und Deut­sche Tele­kom Glo­bal Busi­ness am 11. März in die […]
AI:AT als leis­tungs­starke AI/KI-Fac­tory Aus­tria bie­tet Zugang zu Hoch­leis­tungs­rech­nern mit High-Per­for­mance-Com­pu­ting. „Ano­ther Earth” als öster­rei­chi­sches Welt­raum-Start-Up mit Fokus auf Erd­be­ob­ach­tungs­mo­del­len nützt ab sofort die umfang­rei­che Infra­struk­tur der KI-Fac­tory Austria. Die AI/KI Fac­tory Aus­tria AI:AT ist Teil der euro­päi­schen KI/AI-Fac­to­ries-Initia­tive unter dem soge­nann­ten EuroHPC Joint Under­ta­king und dem Hori­zon-Europe-Pro­gramm. Ziel ist es, KI- und High-Per­for­mance-Com­pu­ting (HPC)- Kapa­zi­tä­ten euro­pa­weit […]
Deut­sche Tele­kom, T‑Systems, SAP und Sie­mens star­ten in Mün­chen erste KI-Fabrik für Wirt­schaft und Ver­wal­tung. Spit­zen­po­li­tik unter­stützt Stra­te­gie zur Digi­ta­len Sou­ve­rä­ni­tät von Deutsch­land und Europa. T‑Systems Aus­tria Boss Peter Lenz ver­weist auf Nut­zung auch für öster­rei­chi­sche Kunden. Der Vize­kanz­ler und Bun­des­fi­nanz­mi­nis­ter von Deutsch­land, Lars Kling­beil war zuge­gen, ebenso wie der Bay­ri­sche Minis­ter­prä­si­dent Mar­kus Söder, der […]
Künst­li­che Intel­li­genz als epo­chal his­to­ri­sche Dimen­sion. His­to­ri­ker Yuval Noah Harari spricht am Davo­ser WEF zu KI als neuen Akteur in der Geschichte des auf­ge­klär­ten Huma­nis­mus. In und rund um Davos äußern sich wei­tere pro­mi­nente Mana­ger. Eine klein­ta­schen­buch­lange Ein­ord­nung auch mit den The­sen von Max Teg­mark und Nick­las Bostrom von Chris­tian Czaak und Lau­rin Czaak. Beim jähr­li­chen World Eco­no­mic Forum (WEF) […]
magnifier
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram