Zum Inhalt
© Pexels.com/tara winstead

Künst­li­che Intel­li­genz ver­sus Sicher­heit und Fairness 

Neu­ro­nale Netz­werke kön­nen heut­zu­tage bereits selb­stän­dige Ent­schei­dun­gen tref­fen. Ob diese immer ratio­nal und fair sind, ist oft­mals frag­lich. Die TU Wien und das AIT forscht nun an Metho­den, um das zu gewährleisten. 

Viele Ent­schei­dun­gen, die bis­her von Men­schen getrof­fen wur­den, wer­den bereits jetzt von Maschi­nen getrof­fen und künf­tig wird das noch zuneh­men. Daten, die via Künst­li­che Intel­li­genz aus­ge­wer­tet und inter­pre­tiert wer­den, sind die Grund­lage dafür. Beson­ders in sen­si­blen Berei­chen wäre eine zuver­läs­sige Garan­tie vor­teil­haft, dass die KI-gestütz­ten Ant­wor­ten tat­säch­lich sinn­voll sind, oder zumin­dest, dass bestimmte schwere Feh­ler aus­ge­schlos­sen sind. 

Ein Team der TU Wien und des AIT Aus­trian Insti­tute of Tech­no­logy ent­wi­ckelte nun Metho­den, mit denen zer­ti­fi­ziert wer­den kann, dass bestimmte neu­ro­nale Netz­werke fair und sicher sind. Das Pro­jekt ist Teil des Dok­to­rats­pro­gramms Sec­int an der TU Wien, in dem inter­dis­zi­pli­näre For­schung zwi­schen Machine Lear­ning, Com­pu­ter­si­cher­heit und Daten­schutz sowie for­ma­len Metho­den in der Com­pu­ter­wis­sen­schaft durch­ge­führt wird. Die Ergeb­nisse wur­den diese Woche auf der renom­mier­ten Ver­an­stal­tung „Inter­na­tio­nal Con­fe­rence on Com­pu­ter Aided Veri­fi­ca­tion“ in Mon­tréal präsentiert. 

Rele­vante Berei­che und Ent­schei­dun­gen zum Thema Sicherheit 
Dass künst­li­che Intel­li­genz manch­mal zu Feh­lern neigt, ist bekannt. Wenn das dann bloß dazu führt, dass ein Mensch in einem com­pu­ter­ge­nerier­ten Bild sechs Fin­ger an einer Hand auf­weist, ist das kein gro­ßes Pro­blem. Aber künst­li­che Intel­li­genz wird sich auch in Berei­chen durch­set­zen, in denen Sicher­heits­fra­gen eine zen­trale Rolle spie­len. „Den­ken wir zum Bei­spiel an Ent­schei­dun­gen, die von einem selbst­fah­ren­den Auto getrof­fen wer­den – oder auch von einem Com­pu­ter­sys­tem, das für medi­zi­ni­sche Dia­gnos­tik ein­ge­setzt wird“, sagt Anagha Atha­vale vom Insti­tut für Logic und Com­pu­ta­tion der TU Wien. 

Atha­vala ana­ly­siert neu­ro­nale Netz­werke, die dar­auf trai­niert sind, bestimmte Ein­ga­be­da­ten bestimm­ten Kate­go­rien zuzu­ord­nen. Der Input könnte zum Bei­spiel eine Ver­kehrs­si­tua­tion sein, und das neu­ro­nale Netz­werk ist dar­auf trai­niert, zu ent­schei­den, in wel­chen Situa­tio­nen man len­ken, brem­sen oder beschleu­ni­gen soll. Oder der Input besteht aus Daten­sät­zen über ver­schie­dene Bank­kun­den, und das neu­ro­nale Netz wurde trai­niert zu ent­schei­den, ob eine Per­son einen Kre­dit bekom­men soll oder nicht. 

Fair­ness und Robustheit 
„Im Nor­mal­fall ver­lan­gen wir von einem sol­chen neu­ro­na­len Netz Robust­heit und Fair­ness“, erklärt Anagha Atha­vale. Robust­heit ist dann gege­ben, wenn zwei Situa­tio­nen, die sich nur in klei­nen Details unter­schei­den, auch zum sel­ben Ergeb­nis füh­ren. Und Fair­ness ist gege­ben, wenn sich zwei Situa­tio­nen nur in einem Para­me­ter unter­schei­den, der für die Ent­schei­dung eigent­lich keine Rolle spie­len sollte, dann sollte das neu­ro­nale Netz das­selbe Ergeb­nis liefern. 

„Zwei Per­so­nen haben finan­zi­ell sehr ähn­li­che Daten, unter­schei­den sich aber im Geschlecht oder in der Eth­ni­zi­tät. Das sind Para­me­ter, die etwa auf eine Kre­dit­ver­gabe kei­nen Ein­fluss haben soll­ten. Das Sys­tem sollte somit also in bei­den Fäl­len das­selbe Ergeb­nis lie­fern“, erläu­tert Athavale. 

Das ist aller­dings alles andere als selbst­ver­ständ­lich : Immer wie­der zeigt sich, dass Machine Lear­ning zu Dis­kri­mi­nie­rung füh­ren kann – etwa ein­fach dadurch, dass man neu­ro­nale Netze mit Daten trai­niert wer­den, die von vor­ur­teils­be­haf­te­ten Men­schen gene­riert wur­den. Ganz auto­ma­tisch bekommt die künst­li­che Intel­li­genz somit die Vor­ur­teile der Men­schen antrainiert. 

Lokale und glo­bale Variablen 
Des­halb haben wir ein Sys­tem ent­wi­ckelt, das auf Ver­trauen basiert”, erklärt Anagha Atha­vale. “Unsere Anwen­dung prüft das neu­ro­nale Netz nicht nur auf bestimmte Eigen­schaf­ten, son­dern gibt auch Aus­kunft über den Grad des Ver­trau­ens“, skiz­ziert TU Exper­tin Anagha Atha­vale. Diese auf Ver­trauen basie­rende Sicher­heits­ei­gen­schaft ist eine wich­tige Ände­rung in der Art und Weise, wie glo­bale Eigen­schaf­ten von neu­ro­na­len Net­zen defi­niert wer­den. Um die­ses Pro­blem zu lösen, waren mathe­ma­ti­sche Tricks nötig. Atha­vale musste Wege fin­den, um das Ver­hal­ten des neu­ro­na­len Net­zes zuver­läs­sig abzu­schät­zen, ohne bestimmte mathe­ma­ti­sche Funk­tio­nen zu ver­wen­den, die nor­ma­ler­weise in neu­ro­nale Netze ein­ge­baut sind. 

Sie ent­wi­ckelte Ver­ein­fa­chun­gen, die es den­noch erlau­ben, zuver­läs­sige, strenge Aus­sa­gen über das neu­ro­nale Netz als Gan­zes zu machen. Der Erfolg die­ser Methode zeigt : Es ist nicht nötig, einer künst­li­chen Intel­li­genz blind zu ver­trauen, schon gar nicht, wenn sie wich­tige Ent­schei­dun­gen trifft. „Es ist tech­nisch mög­lich, ein neu­ro­na­les Netz rigo­ros zu tes­ten und gewisse Eigen­schaf­ten mit mathe­ma­ti­scher Zuver­läs­sig­keit zu garan­tie­ren und das ist ein wich­ti­ges Resul­tat für die Zusam­men­ar­beit von Mensch und Maschine“, betont Anagha Atha­vale vom Insti­tut für Logic und Com­pu­ta­tion der TU Wien. 

Autor: red/czaak
01.11.2024

Weitere aktuelle Artikel

Die The­men Gehirn und Gesund­heit und künst­li­che Intel­li­genz. Med Uni Inns­bruck ver­an­stal­tet vom 16. bis 20. März die dies­jäh­rige „Die Woche des Gehirns“. Ein Fokus gilt Gemein­sam­kei­ten und Unter­schie­den von mensch­li­cher und künst­li­cher Intelligenz. Men­schen ver­trauen ihre Gefühle einer Maschine an. Künst­li­che Intel­li­genz (KI) nähert sich immer mehr der mensch­li­chen Intel­li­genz – oder hat diese […]
Die Erwerbs­ver­läufe von Müt­tern und Vätern nach der Geburt. Die Rolle der Qua­li­fi­ka­tion und die Bedeu­tung des Geschlechts. Eine neue Stu­die der Öster­rei­chi­schen Aka­de­mie der Wis­sen­schaf­ten beleuch­tet das Thema Eltern­ka­renz auf meh­re­ren Ebenen. Beruf­li­che Karie­ren nach der Geburt des ers­ten Kin­des. Unter­schied­li­che Erwerbs­ver­läufe bei Vätern und Müt­tern nach der Geburt von Kin­dern und das Aus­bil­dungs­ni­veau […]
Ein QR-Code auf einer Flä­che von knapp zwei Qua­drat­mi­kro­me­ter. Mit dem kleins­ten jemals pro­du­zier­ten QR-Code schaf­fen es TU Wien und Part­ner Cera­byte in Guin­ness-Buch der Rekorde. Die Ent­wick­lung soll lang­fris­tige und ener­gie­arme Spei­che­run­gen von Daten ermöglichen. Klein kann groß bedeu­ten. Ein For­schungs­team der TU Wien hat gemein­sam mit dem Spei­cher­tech­no­lo­gie-Unter­neh­men Cera­byte einen etwa von Ver­pa­ckun­gen […]
Digi­tal Phe­no­ty­p­ing oder das unge­nutzte Poten­zial digi­ta­ler Tech­no­lo­gien bei Schi­zo­phre­nie und ande­ren Krank­hei­ten. For­scher der Med Uni Inns­bruck zei­gen Ein­satz­mög­lich­kei­ten von Smart­phones und Weara­bles mit ver­gleichs­weise weit­aus stim­mi­ge­ren Ergeb­nis­sen bei Vor­her­sage und Diagnostik. In der moder­nen Psych­ia­trie ist die Dia­gnose und Behand­lung von Schi­zo­phre­nie-Spek­trum-Stö­run­gen (SSD) mit gro­ßen Her­aus­for­de­run­gen ver­bun­den. Dia­gno­sen basie­ren oft auf sub­jek­ti­ven und […]
Men­schen hadern seit jeher mit der Ver­gäng­lich­keit des oder zumin­dest eines Lebens. Frü­her wurde der Jung­brun­nen gesucht, heute inves­tie­ren Mil­li­ar­däre in die Kon­trolle des Alterns und Auto­kra­ten las­sen medi­zi­ni­sche Wun­der­mit­tel erpro­ben. Eine His­to­ri­ke­rin der ÖAW ord­net nun die Sehn­sucht nach der Ver­län­ge­rung des irdi­schen Daseins ein.  Das soge­nannte Lon­ge­vity ist schon län­ger eine Art Trend. […]
magnifier
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram