Zum Inhalt
© Pixabay_WebTechExperts_Sprind_190226

Dezen­tral und hete­ro­gen als Herausforderung

Com­po­site Lear­ning über ein robus­tes ska­lier­ba­res Frame­work für ein KI-Trai­ning über ver­schie­dene und dezen­trale Sys­teme hin­weg als Thema einer neuen Pro­gramm­li­nie des deut­schen Inku­ba­tors Sprind. Fünf Teams haben aktu­ell die zweite Pro­jekt­stufe erreicht.

Künst­li­che Intel­li­genz revo­lu­tio­niert die Gesund­heits­bran­che, das Finanz­we­sen, die Auto­mo­bil­in­dus­trie und viele wei­tere wirt­schaft­li­che und gesell­schaft­li­che Berei­che. Aktu­ell besit­zen aber nur die größ­ten KI-Unter­neh­men wie die soge­nann­ten Hypers­ca­ler die not­wen­di­gen Res­sour­cen bei Tech­no­lo­gie, Infra­struk­tur (und Ener­gie), um wirk­lich leis­tungs­fä­hige Modelle zu entwickeln. 

Das Trai­ning von leis­tungs­star­ken KI-Anwen­dun­gen ist dabei auf teure, zen­tra­li­sierte Rechen­zen­tren ange­wie­sen und das schränkt den Zugang für kleine und mitt­lere Unter­neh­men sowie für Start-Ups ent­spre­chend ein. Das gilt ins­be­son­dere für Län­der wie Öster­reich oder Deutsch­land bzw. de facto für ganz Europa, wo inhalt­lich anspruchs­volle Pro­jekte oder auch schon fort­schritt­li­che Rechen­res­sour­cen den Anschluss verlieren.

Eine Abhilfe kann Com­po­site Lear­ning bie­ten, was ein kom­bi­niert ver­teil­tes, dezen­tra­les sowie föde­rier­tes Ler­nen ver­bin­det und damit einen neuen Ansatz für KI bie­tet : das Trai­ning von Model­len über ver­schie­dene Sys­teme hin­weg, ohne dass zen­tra­li­sierte Rechen­zen­tren erfor­der­lich sind. Mit die­ser Methode kön­nen mehr Unter­neh­men zusam­men­ar­bei­ten und neue Modelle sicher trainieren. 

Man­gelnde Kom­pa­ti­bi­li­tät zwi­schen Chips, Kom­mu­ni­ka­ti­ons­eng­pässe und die Abhän­gig­keit von zen­tra­len Update-Servern

Modernste KI-Anwen­dun­gen könn­ten so für mehr Orga­ni­sa­tio­nen und für eine Viel­zahl von Anwen­dungs­be­rei­chen zugäng­lich gemacht wer­den. Um nun die Ein­schrän­kun­gen der aktu­el­len Sys­teme zu über­win­den, wie bei­spiels­weise man­gelnde Kom­pa­ti­bi­li­tät zwi­schen ver­schie­de­nen Chips, Kom­mu­ni­ka­ti­ons­eng­pässe und die Abhän­gig­keit von zen­tra­len Update-Ser­vern, braucht es neue Lösungen.

Sprind, der deut­sche Inku­ba­tor für Sprung­in­no­va­tion, hat nun zu die­sem Thema eine Sprind Chall­enge (Anm. Pro­gramm­li­nie) geschaf­fen die letz­tes Jahr gestar­tet ist (eco­nomy berich­tete) und sich über drei Stu­fen in einem Zeit­raum von 30 Mona­ten erstreckt. Es geht um Lösun­gen, die ein effi­zi­en­tes Modell­trai­ning auf hete­ro­ge­ner Hard­ware ermög­li­chen, von Hoch­leis­tungs-GPUs bis hin zu CPUs unter­schied­li­cher Typen und Hersteller. 

Belas­tungs­fä­hig und dyna­mi­sche Anpas­sung an Schwan­kun­gen von Rechen­res­sour­cen und Geräteausfälle

Die Lösun­gen müs­sen belas­tungs­fä­hig sein und sich dyna­misch an Schwan­kun­gen von Rechen­res­sour­cen und Gerä­te­aus­fäl­len anpas­sen kön­nen. Die Teams sol­len einen funk­tio­na­len Kern für die­ses Frame­work im For­mat Open Source lie­fern, der dann als Grund­lage für die wei­tere Ent­wick­lung dient, ein­schließ­lich kom­mer­zi­el­ler Dienste und eige­ner Produktmerkmale. 

In der ers­ten Stufe erhiel­ten die nomi­nier­ten Teams jeweils bis zu 530.000 Euro und Ende Jän­ner hat eine inter­na­tio­nale Exper­ten­jury fünf Teams für die zweite Runde aus­ge­wählt. Nach Aus­wer­tung der Zwi­schen­er­geb­nisse gibt es hier nun jeweils bis zu 520.00 Euro an Pro­jekt­un­ter­stüt­zung. Die zweite Stufe läuft bis zur nächs­ten Jury­sit­zung Ende Okto­ber 2026. In Stufe drei war­ten dann bis zu 600.000 Euro je Projekt.

Sym­pho­ny­Learn als Platt­form für effi­zi­en­tes dezen­tra­les KI-Training

Eco­nomy hat sich die aktu­ell nomi­nier­ten Teams ange­se­hen und stellt ihre Pro­jekte vor. Sym­pho­ny­Learn, das erste Team, arbei­tet an einer inno­va­ti­ven Platt­form für effi­zi­en­tes dezen­tra­les KI-Trai­ning in unter­schied­li­chen Hard­ware-Umge­bun­gen. Sie nutzt dabei eine daten­ori­en­tierte Opti­mie­rung, kom­mu­ni­ka­ti­ons­arme ver­teilte Trai­nings­me­tho­den und eine spe­zi­elle Modelloptimierung. 

„Durch die naht­lose Inte­gra­tion die­ser Kern­funk­tio­nen mit effi­zi­en­ter dif­fe­ren­ti­el­ler Pri­vat­sphäre, ska­liert und beschleu­nigt Sym­pho­ny­Learn das KI-Trai­ning, wäh­rend es gleich­zei­tig den Daten­schutz gewähr­leis­tet“, so eine Beschrei­bung im Rah­men der Eva­lu­ie­rung. Das Sym­pho­ny­Learn-Team arbei­tet auch mit For­schern von TU Darm­stadt, ETH Zürich und der Iowa State Uni­ver­sity zusammen.

Pla­ne­tary Com­pute Pro­to­col-Team für eine ver­teilte KI-Trainingsinfrastruktur

Zwei­tes Pro­jekt ist das Pla­ne­tary Com­pute Pro­to­col-Team von Del­ta­wave. Hier geht es um die Schaf­fung einer ver­teil­ten KI-Trai­nings­in­fra­struk­tur. Das Team ent­wi­ckelt dazu ein ver­teil­tes Lern­pro­to­koll unter Ver­wen­dung der spei­cher­si­che­ren Archi­tek­tur von Zig und imple­men­tiert das Akteurs­mo­dell zur Koor­di­nie­rung des Trai­nings über hete­ro­gene GPU-Clus­ter hinweg. 

„Die­ses Frame­work ermög­licht die Cross-Kom­pi­lie­rung von Machine-Lear­ning-Model­len für ver­schie­dene Hard­ware-Beschleu­ni­ger und über­win­det so effek­tiv Kom­pa­ti­bi­li­täts­bar­rie­ren in föde­rier­ten Sys­te­men“, so ein Aus­zug der Eva­lu­ie­rung. Der Ansatz von Pla­ne­tary geht direkt auf kri­ti­sche Ein­schrän­kun­gen aktu­el­ler ver­teil­ter Lern­me­tho­den ein, ins­be­son­dere auf Kom­mu­ni­ka­ti­ons­eng­pässe zwi­schen Gerä­ten und Skalierbarkeit.

Ver­ein­fach­ter Zugang zu Rechen­res­sour­cen beim Pro­jekt „Exal­sius“

Das Team Exal­sius ent­wi­ckelt eine Lösung, die den Zugang zu Rechen­res­sour­cen spe­zi­ell für die KI-Ent­wick­lung ver­ein­facht. Die stark schwan­kende und frag­men­tierte Ver­füg­bar­keit von Rechen­ka­pa­zi­tä­ten erschwert ein opti­ma­les Setup für Trai­ning und Betrieb gro­ßer KI-Modelle, so die Aus­gangs­ba­sis. Zudem erfor­dert Vor­be­rei­tung und effi­zi­ente Nut­zung die­ser Res­sour­cen tief­ge­hende Kennt­nisse in der Ent­wick­lung ver­teil­ter Sys­teme. „Ope­ra­tiv schafft Exal­sius eine Abs­trak­ti­ons­schicht, die sowohl die tech­ni­sche als auch die wirt­schaft­li­che Kom­ple­xi­tät ver­birgt“, so ein Aus­zug aus der Evaluierung.

Die KI-Teams sol­len sich so rein auf die Ent­wick­lung ihrer Modelle kon­zen­trie­ren kön­nen. Die Nut­zung glo­bal ver­füg­ba­rer Rechen­ka­pa­zi­tä­ten, unab­hän­gig von spe­zi­fi­schen Cloud-Anbie­tern und Stand­or­ten, soll eine opti­male Res­sour­cen­kon­stel­la­tion für KI-Trai­ning oder Infe­renz bereit­stel­len. Aspekte wie Lauf­zeit, Kos­ten­ef­fi­zi­enz und der Ein­satz nach­hal­ti­ger Ener­gie sol­len so opti­miert wer­den. Das Team will damit die Grund­lage für offene KI-Inno­va­tio­nen legen, von leis­tungs­star­ken Sprach­mo­del­len bis hin zu wis­sen­schaft­li­chen Durchbrüchen.

Vor­han­dene Pio­nier­ar­beit bei LLMs als Basis bei Pro­jekt CambridgeFlower

Cam­brid­ge­Flower von einem Team der Uni­ver­sity of Cam­bridge baut als vier­tes Pro­jekt auf dem soge­nann­ten Flower-Frame­work auf und soll ska­lier­ba­res, dezen­tra­les maschi­nel­les Ler­nen auf hete­ro­ge­ner Hard­ware ermög­li­chen. „Das Team hat Pio­nier­ar­beit im Bereich dezen­tra­les Trai­ning geleis­tet, indem es als ers­tes Large-Lan­guage-Models (LLMs 1B, 3B, 7B) auf glo­bal ver­teil­ten GPUs vor­trai­niert hat“, so eine Beschreibung. 

Die Kom­bi­na­tion von Durch­brü­chen in der föde­rier­ten Opti­mie­rung, feh­ler­to­le­rante gehär­tete Aggre­ga­tion und adap­tive Topo­lo­gien für Model­l­ak­tua­li­sie­run­gen und Kom­mu­ni­ka­tion soll Effi­zi­enz, Aus­fall­si­cher­heit und Daten­schutz beim Com­po­site Lear­ning gewähr­leis­ten. Final sol­len die Gren­zen einer ver­trau­ens­wür­di­gen und dezen­tra­len KI erwei­tert werden.

Das Pro­jekt „Aether“ von Sem­ron adres­siert Daten­schutz, Dezen­tra­li­sie­rung und Effizienz

Das fünfte Pro­jekt kommt von Sem­ron, einem Hard­ware-Unter­neh­men, das sich auf KI-Beschleu­ni­ger für Edge-Geräte spe­zia­li­siert hat. Diese Beschleu­ni­ger sol­len die kon­ti­nu­ier­li­che Ver­ar­bei­tung von Audio‑, Text- und Video­da­ten auf einer Viel­zahl von Gerä­ten ermög­li­chen, dar­un­ter Smart­phones, und damit sol­len leis­tungs­fä­hige KI-Com­pu­ting-Funk­tio­nen zu Mil­lio­nen von Nut­zern kommen. 

Mit der stei­gen­den Nach­frage nach per­so­na­li­sier­ten KI-Model­len reicht her­kömm­li­che Modell­in­fe­renz allein nicht mehr aus. Um diese Her­aus­for­de­rung zu bewäl­ti­gen, ent­wi­ckelt Sem­ron mit „Aether“, ein Com­po­site-Lear­ning-Frame­work mit den Schwer­punk­ten Daten­schutz, Dezen­tra­li­sie­rung und Effi­zi­enz. Wäh­rend nun bestehende Lösun­gen wie „Sub­s­tra“ von Owkins und „Flare“ von NVI­DIA das Feld bereits vor­an­ge­bracht haben, will sich Aether durch die Mini­mie­rung des Rechen­auf­wands bei gleich­zei­ti­ger Wah­rung der Pri­vat­sphäre abheben. 

Meh­rere Inno­va­tio­nen sol­len das gewähr­leis­ten : ein­mal die intel­li­gente Wei­ter­gabe von Netz­werk­pa­ra­me­tern, wei­ters die Nut­zung von Hyper­netz­wer­ken als Stell­ver­tre­ter für den Para­me­ter-Aus­tausch anstelle des direk­ten Modell­tei­lens und schließ­lich eine dezen­trale, von soge­nann­ten Gos­sip-Pro­to­kol­len inspi­rierte Aggre­ga­tion zur Ver­mei­dung zen­tra­ler Ser­ver-Eng­pässe. „All das soll Aether zu einer ska­lier­ba­ren und effi­zi­en­ten Lösung für die nächste Gene­ra­tion von Com­po­site-Lear­ning-Frame­works machen“, so ein Aus­zug aus der Eva­lu­ie­rung. (red/​czaak)

Autor: red/czaak
19.02.2026

Weitere aktuelle Artikel

Kleine Droh­nen haben sich in kur­zer Zeit zu einer sicher­heits­re­le­van­ten Her­aus­for­de­rung ent­wi­ckelt. Inku­ba­tor SPRIND star­tet neue Pro­gramm­li­nie für Abwehr­me­cha­nis­men gegen stö­rende oder gar feind­lich moti­vierte auto­nome Flugobjekte. Kleinst- und Mikro-Droh­nen haben sich in kur­zer Zeit zu einer sicher­heits­re­le­van­ten Her­aus­for­de­rung ent­wi­ckelt. Das gilt im urba­nen Raum ebenso wie an Flug­hä­fen, bei Groß­ver­an­stal­tun­gen oder rund um kri­ti­sche […]
Aviloo ist ein auf die Dia­gnos­tik von Bat­te­rien spe­zia­li­sier­tes Unter­neh­men aus dem nie­der­ös­ter­rei­chi­schen Wie­ner Neu­dorf. Inno­va­tion und Inter­na­tio­na­li­sie­rung ist die Basis für nach­hal­ti­ges Wachs­tum. Nun erhält die Firma für die nächste Aus­bau­stufe eine Finan­zie­rung über 30 Mil­lio­nen Euro.  Glo­ba­ler Markt­füh­rer beim Aus­le­sen von Bat­te­rien mit einem Schnell-Ver­fah­ren, das bei 96 Pro­zent aller Elek­tro­fahr­zeu­gen passt. Ein­hun­dert Pro­zent […]
Digi­ta­li­sie­rung im moder­nen Spit­zen­sport und der rich­tige KI-Ein­satz in Unter­neh­men neben wei­te­ren Key Notes, Use Cases und Mas­ter­clas­ses. Pro­mi­nente Unter­neh­men, Mana­ger und Exper­ten erör­tern bei zwei­ter Auf­lage der DIGI­TAL X Erfah­run­gen mit Trans­for­ma­tion und tech­no­lo­gi­scher Inno­va­tion. Unter dem Motto „Digi­tal Heart­beat“ laden T‑Systems, Magenta, Tele­kom Secu­rity und Deut­sche Tele­kom Glo­bal Busi­ness am 11. März in die […]
AI:AT als leis­tungs­starke AI/KI-Fac­tory Aus­tria bie­tet Zugang zu Hoch­leis­tungs­rech­nern mit High-Per­for­mance-Com­pu­ting. „Ano­ther Earth” als öster­rei­chi­sches Welt­raum-Start-Up mit Fokus auf Erd­be­ob­ach­tungs­mo­del­len nützt ab sofort die umfang­rei­che Infra­struk­tur der KI-Fac­tory Austria. Die AI/KI Fac­tory Aus­tria AI:AT ist Teil der euro­päi­schen KI/AI-Fac­to­ries-Initia­tive unter dem soge­nann­ten EuroHPC Joint Under­ta­king und dem Hori­zon-Europe-Pro­gramm. Ziel ist es, KI- und High-Per­for­mance-Com­pu­ting (HPC)- Kapa­zi­tä­ten euro­pa­weit […]
Metalle und Stahl­pro­dukte wer­den in gro­ßen Volu­mina für ver­schie­denste Erzeu­gun­gen benö­tigt. Roh­stoffe auf wenige Her­kunfts­ge­biete beschränkt. Her­stel­lung ener­gie­in­ten­siv und Recy­cling­quote nied­rig. Neues För­der­pro­gramm von SPRIND adres­siert neue Kreislaufmodelle. Kri­ti­sche Metalle sind zen­tra­ler Bestand­teil der ver­schie­dens­ten Her­stel­lungs­ver­fah­ren und betriebs­über­grei­fen­den Pro­duk­ti­ons­ket­ten. Die Anwen­dun­gen erstre­cken sich von High­tech-End­pro­duk­ten und erneu­er­ba­ren Ener­gie­tech­no­lo­gien über die Luft- und Raum­fahrt bis hin […]
magnifier
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram