Zum Inhalt
© Pexels.com/tara winstead

Künst­li­che Intel­li­genz ver­sus Sicher­heit und Fairness 

Neu­ro­nale Netz­werke kön­nen heut­zu­tage bereits selb­stän­dige Ent­schei­dun­gen tref­fen. Ob diese immer ratio­nal und fair sind, ist oft­mals frag­lich. Die TU Wien und das AIT forscht nun an Metho­den, um das zu gewährleisten. 

Viele Ent­schei­dun­gen, die bis­her von Men­schen getrof­fen wur­den, wer­den bereits jetzt von Maschi­nen getrof­fen und künf­tig wird das noch zuneh­men. Daten, die via Künst­li­che Intel­li­genz aus­ge­wer­tet und inter­pre­tiert wer­den, sind die Grund­lage dafür. Beson­ders in sen­si­blen Berei­chen wäre eine zuver­läs­sige Garan­tie vor­teil­haft, dass die KI-gestütz­ten Ant­wor­ten tat­säch­lich sinn­voll sind, oder zumin­dest, dass bestimmte schwere Feh­ler aus­ge­schlos­sen sind. 

Ein Team der TU Wien und des AIT Aus­trian Insti­tute of Tech­no­logy ent­wi­ckelte nun Metho­den, mit denen zer­ti­fi­ziert wer­den kann, dass bestimmte neu­ro­nale Netz­werke fair und sicher sind. Das Pro­jekt ist Teil des Dok­to­rats­pro­gramms Sec­int an der TU Wien, in dem inter­dis­zi­pli­näre For­schung zwi­schen Machine Lear­ning, Com­pu­ter­si­cher­heit und Daten­schutz sowie for­ma­len Metho­den in der Com­pu­ter­wis­sen­schaft durch­ge­führt wird. Die Ergeb­nisse wur­den diese Woche auf der renom­mier­ten Ver­an­stal­tung „Inter­na­tio­nal Con­fe­rence on Com­pu­ter Aided Veri­fi­ca­tion“ in Mon­tréal präsentiert. 

Rele­vante Berei­che und Ent­schei­dun­gen zum Thema Sicherheit 
Dass künst­li­che Intel­li­genz manch­mal zu Feh­lern neigt, ist bekannt. Wenn das dann bloß dazu führt, dass ein Mensch in einem com­pu­ter­ge­nerier­ten Bild sechs Fin­ger an einer Hand auf­weist, ist das kein gro­ßes Pro­blem. Aber künst­li­che Intel­li­genz wird sich auch in Berei­chen durch­set­zen, in denen Sicher­heits­fra­gen eine zen­trale Rolle spie­len. „Den­ken wir zum Bei­spiel an Ent­schei­dun­gen, die von einem selbst­fah­ren­den Auto getrof­fen wer­den – oder auch von einem Com­pu­ter­sys­tem, das für medi­zi­ni­sche Dia­gnos­tik ein­ge­setzt wird“, sagt Anagha Atha­vale vom Insti­tut für Logic und Com­pu­ta­tion der TU Wien. 

Atha­vala ana­ly­siert neu­ro­nale Netz­werke, die dar­auf trai­niert sind, bestimmte Ein­ga­be­da­ten bestimm­ten Kate­go­rien zuzu­ord­nen. Der Input könnte zum Bei­spiel eine Ver­kehrs­si­tua­tion sein, und das neu­ro­nale Netz­werk ist dar­auf trai­niert, zu ent­schei­den, in wel­chen Situa­tio­nen man len­ken, brem­sen oder beschleu­ni­gen soll. Oder der Input besteht aus Daten­sät­zen über ver­schie­dene Bank­kun­den, und das neu­ro­nale Netz wurde trai­niert zu ent­schei­den, ob eine Per­son einen Kre­dit bekom­men soll oder nicht. 

Fair­ness und Robustheit 
„Im Nor­mal­fall ver­lan­gen wir von einem sol­chen neu­ro­na­len Netz Robust­heit und Fair­ness“, erklärt Anagha Atha­vale. Robust­heit ist dann gege­ben, wenn zwei Situa­tio­nen, die sich nur in klei­nen Details unter­schei­den, auch zum sel­ben Ergeb­nis füh­ren. Und Fair­ness ist gege­ben, wenn sich zwei Situa­tio­nen nur in einem Para­me­ter unter­schei­den, der für die Ent­schei­dung eigent­lich keine Rolle spie­len sollte, dann sollte das neu­ro­nale Netz das­selbe Ergeb­nis liefern. 

„Zwei Per­so­nen haben finan­zi­ell sehr ähn­li­che Daten, unter­schei­den sich aber im Geschlecht oder in der Eth­ni­zi­tät. Das sind Para­me­ter, die etwa auf eine Kre­dit­ver­gabe kei­nen Ein­fluss haben soll­ten. Das Sys­tem sollte somit also in bei­den Fäl­len das­selbe Ergeb­nis lie­fern“, erläu­tert Athavale. 

Das ist aller­dings alles andere als selbst­ver­ständ­lich : Immer wie­der zeigt sich, dass Machine Lear­ning zu Dis­kri­mi­nie­rung füh­ren kann – etwa ein­fach dadurch, dass man neu­ro­nale Netze mit Daten trai­niert wer­den, die von vor­ur­teils­be­haf­te­ten Men­schen gene­riert wur­den. Ganz auto­ma­tisch bekommt die künst­li­che Intel­li­genz somit die Vor­ur­teile der Men­schen antrainiert. 

Lokale und glo­bale Variablen 
Des­halb haben wir ein Sys­tem ent­wi­ckelt, das auf Ver­trauen basiert”, erklärt Anagha Atha­vale. “Unsere Anwen­dung prüft das neu­ro­nale Netz nicht nur auf bestimmte Eigen­schaf­ten, son­dern gibt auch Aus­kunft über den Grad des Ver­trau­ens“, skiz­ziert TU Exper­tin Anagha Atha­vale. Diese auf Ver­trauen basie­rende Sicher­heits­ei­gen­schaft ist eine wich­tige Ände­rung in der Art und Weise, wie glo­bale Eigen­schaf­ten von neu­ro­na­len Net­zen defi­niert wer­den. Um die­ses Pro­blem zu lösen, waren mathe­ma­ti­sche Tricks nötig. Atha­vale musste Wege fin­den, um das Ver­hal­ten des neu­ro­na­len Net­zes zuver­läs­sig abzu­schät­zen, ohne bestimmte mathe­ma­ti­sche Funk­tio­nen zu ver­wen­den, die nor­ma­ler­weise in neu­ro­nale Netze ein­ge­baut sind. 

Sie ent­wi­ckelte Ver­ein­fa­chun­gen, die es den­noch erlau­ben, zuver­läs­sige, strenge Aus­sa­gen über das neu­ro­nale Netz als Gan­zes zu machen. Der Erfolg die­ser Methode zeigt : Es ist nicht nötig, einer künst­li­chen Intel­li­genz blind zu ver­trauen, schon gar nicht, wenn sie wich­tige Ent­schei­dun­gen trifft. „Es ist tech­nisch mög­lich, ein neu­ro­na­les Netz rigo­ros zu tes­ten und gewisse Eigen­schaf­ten mit mathe­ma­ti­scher Zuver­läs­sig­keit zu garan­tie­ren und das ist ein wich­ti­ges Resul­tat für die Zusam­men­ar­beit von Mensch und Maschine“, betont Anagha Atha­vale vom Insti­tut für Logic und Com­pu­ta­tion der TU Wien. 

Autor: red/czaak
01.11.2024

Weitere aktuelle Artikel

Der Kli­ma­wan­del führt zu stär­ke­ren Hoch­was­ser­ka­ta­stro­phen. TU Wien und Joan­neum Rese­arch ent­wi­ckeln nun erst­mals Modell zur Abbil­dung kom­bi­nier­ter Schutz­maß­nah­men im pri­va­ten und öffent­li­chen Bereich. Jetzt und in Zukunft müs­sen sich viele Gegen­den der Welt auf stär­kere Hoch­was­ser­ka­ta­stro­phen ein­stel­len. Mit indi­vi­du­el­len Schutz­maß­nah­men wie bau­li­che Maß­nah­men oder Ver­si­che­run­gen sowie gemein­same Anstren­gun­gen zur Ver­rin­ge­rung der Hoch­was­ser­ge­fahr wie Damm­bau­ten […]
Ein win­zi­ger Kris­tall, der Wol­ken zum Reg­nen bringt. Sil­beriodid lässt Eis ent­ste­hen. For­schende der TU Wien zei­gen auf ato­ma­rer Ebene die eigent­li­che Aus­lö­sung von Eisbildung. Eigent­lich kann das Wet­ter nicht kon­trol­liert wer­den, doch bestimmte Wol­ken las­sen sich gezielt dazu brin­gen, Regen oder Schnee abzu­ge­ben. Die­ses als „Wol­ken­imp­fen“ bekannte Ver­fah­ren wird ein­ge­setzt, um Hagel­schä­den zu ver­hin­dern […]
FH St. Pöl­ten wird zur Uni­ver­sity of Applied Sci­en­ces St. Pöl­ten (USTP). Umbe­nen­nung unter­streicht wach­sende Inter­na­tio­na­li­tät und Rolle als Kno­ten­punkt für ter­tiäre Bil­dung, For­schung und gesell­schaft­li­che Transformation. Die Fach­hoch­schule St. Pöl­ten blickt auf eine knapp 30-jäh­rige Erfolgs­ge­schichte zurück. Nun wird mit dem neuen Namen die wach­sende Inter­na­tio­na­li­tät und Rolle als Kno­ten­punkt für ter­tiäre Bil­dung, For­schung und […]
Beim Wis­sen­schafts­preis von Land Nie­der­ös­ter­reich gehen gleich zwei Prä­mie­run­gen an FH St. Pöl­ten. Djordje Slijepče­vić erhält Preis für Dis­ser­ta­tion im Bereich Gang­ana­lyse und Maschi­nel­les Ler­nen und Tho­mas Delis­sen für beson­ders inno­va­tive Lehrmethoden. Das Land Nie­der­ös­ter­reich för­dert mit dem all­jähr­lich ver­ge­be­nen Wis­sen­schafts­preis her­aus­ra­gende Forscher*innen, die durch ihre Arbeit einen wesent­li­chen Bei­trag zur wis­sen­schaft­li­chen Eigen­stän­dig­keit des Lan­des […]
Aktu­elle Ent­wick­lung der TU Wien erwei­tert Ein­satz­mög­lich­kei­ten von 3D-Dru­ckern. Thema sind Mate­ria­lien, die ganz spe­zi­fisch auf Tem­pe­ra­tur reagie­ren und zusätz­li­che Anwen­dun­gen ermöglichen. 3D-Druck ist höchst prak­tisch, wenn man maß­ge­schnei­derte Bau­teile in klei­ner Stück­zahl pro­du­zie­ren möchte. Die Tech­nik hatte bis­her aber immer ein gro­ßes Pro­blem : Der 3D-Dru­cker kann immer nur ein ein­zi­ges Mate­rial ver­ar­bei­ten. Objekte, die […]
magnifier
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram