Zum Inhalt
© Pixabay_BrownMantis_CZ_030226

„Pull the plug!“ oder die his­to­ri­sche Wende

Künst­li­che Intel­li­genz als epo­chal his­to­ri­sche Dimen­sion. His­to­ri­ker Yuval Noah Harari spricht am Davo­ser WEF zu KI als neuen Akteur in der Geschichte des auf­ge­klär­ten Huma­nis­mus. In und rund um Davos äußern sich wei­tere pro­mi­nente Mana­ger. Eine klein­ta­schen­buch­lange Ein­ord­nung auch mit den The­sen von Max Teg­mark und Nick­las Bostrom von Chris­tian Czaak und Lau­rin Czaak.

Beim jähr­li­chen World Eco­no­mic Forum (WEF) im Schwei­zer Davos tref­fen ein­an­der Staats­chefs, Wirt­schafts­bosse sowie füh­rende Wis­sen­schaft­ler, Exper­ten und Den­ker unter­schied­li­cher Dis­zi­pli­nen. Aktu­ell war neben den geo­po­li­ti­schen Ver­än­de­run­gen Künst­li­che Intel­li­genz (KI) das zweite bestim­mende Thema.

Zahl­rei­che pro­mi­nente CEOs wie etwa Kris­tal­line Geor­gia (IMF), Demis Hass­a­bis (Google Deep Mind), Jen­sen Huang (Nvi­dia), Satya Nadella (Micro­soft), Arthus Mensch (Mis­tral AI, F), Sam Alt­man (Ope­nAI) oder Dario Amo­dei (Anthro­pic) dis­ku­tier­ten im Rah­men des WEF aktu­elle und vor allem künf­tige gesell­schafts­po­li­ti­sche oder gar exis­ten­zi­elle Auswirkungen.

Ers­ter vom Men­schen geschaf­fe­ner Akteur ohne voll­stän­dige Kon­trolle des Menschen

Breite Auf­merk­sam­keit erregte das Panel „An Honest Con­ver­sa­tion on AI and Huma­nity“, wo der israe­li­sche His­to­ri­ker und Publi­zist Yuval Noah Harari (49) gemein­sam mit der bri­ti­schen Neu­ro­wis­sen­schaft­le­rin Irene Tracey (59, Vize­rek­to­rin Oxford Uni­ver­sity) die his­to­ri­schen, sozia­len und ethi­schen Aspekte der KI-Ent­wick­lung beleuch­tete. Ein geson­der­ter Fokus behan­delte, wie tech­no­lo­gi­sche Inno­va­tio­nen das mensch­li­che Gemein­wohl unter­stüt­zen kön­nen – und dabei ganz grund­le­gende Werte beach­tet bzw. nicht unter­mi­niert werden.

Har­a­ris zen­trale und war­nende Bot­schaft lau­tete, KI nicht nur als tech­no­lo­gi­sches Hilfs­mit­tel zu ver­ste­hen, son­dern als grund­le­gen­den neuen Akteur in der Geschichte. Die­ser kann selb­stän­dig ler­nen, ent­schei­den und neue Lösun­gen ent­wi­ckeln. Wäh­rend ein Ham­mer, eine Dru­cker­presse oder eine Dampf­ma­schine vom Men­schen kon­trol­liert wer­den könne, han­delt KI nun eigen­stän­dig – und damit sei KI der erste von Men­schen geschaf­fene Akteur, der nicht mehr voll­stän­dig unter mensch­li­cher Kon­trolle steht.

Die ent­schei­dende Kon­trolle oder Beein­flus­sung von Sprache

Ein zen­tra­les Argu­ment von Harari ist, dass KI nicht nur effi­zi­ent ist, son­dern auch krea­tiv – und das erstreckt sich von neuen Bil­dern, Musik­stü­cken bis hin zu wis­sen­schaft­li­chen Ein­ord­nun­gen oder neuen Finanz­in­stru­men­ten. Harari zieht einen Ver­gleich mit bio­lo­gi­schen Orga­nis­men – und warnt davor, dass KI auch ler­nen kann. Ler­nen zu täu­schen, zu mani­pu­lie­ren und ins­be­son­dere auch stra­te­gi­sches Han­deln ler­nen, wenn sie etwa auf die Errei­chung eines bestimm­ten Zie­les ein­ge­stellt wird. 

Beson­ders ein­dring­lich warnt Yuval Noah Harari vor der Kon­trolle von Spra­che. Spra­che sei das Fun­da­ment von Bil­dung, Recht, Poli­tik, Geld und Reli­gion. KI könnte also künf­tig nicht nur Ver­träge und Gesetze for­mu­lie­ren, son­dern auch Pro­pa­ganda oder reli­giöse Nar­ra­tive beein­flus­sen – und damit könne KI oder wer sie steu­ert, dann auch Gesell­schaf­ten steuern. 

Tra­di­tio­nel­les Selbst­ver­ständ­nis des Men­schen wird mas­siv in Frage gestellt

Harari argu­men­tiert, dass das mensch­li­che Den­ken größ­ten­teils aus sprach­li­chen Pro­zes­sen besteht bzw. aus der Ver­schrän­kung von Begrif­fen, Argu­men­ten und Sym­bo­len. Das könne KI bereits heute oft­mals bes­ser und damit ist das tra­di­tio­nell his­to­ri­sche Selbst­ver­ständ­nis des Men­schen als eine Art intel­li­gente Letzt-Instanz mas­siv infrage gestellt.

Im direk­ten Kon­text mit die­sen gesell­schafts­po­li­ti­schen Dimen­sio­nen spricht His­to­ri­ker Harari dann auch sys­te­mi­sche Risi­ken an. Er nennt hier die Kon­zen­tra­tion von Macht bei weni­gen Tech-Com­pa­nies oder Staa­ten, wei­ters Desta­bi­li­sie­rung von Demo­kra­tien durch Des­in­for­ma­tion (Anm. die dann mehr­heit­lich wie­der über die Pro­dukte die­ser Tech-Com­pa­nies ver­brei­tet wird) oder den Ver­lust von mensch­li­cher Auto­no­mie bei Ent­schei­dun­gen. „Wer kon­trol­liert die Geschich­ten, die unsere Gesell­schaft zusammenhalten?!“

Eine neue Klasse an „nutz­lo­ser“ Menschen

Abschlie­ßend erwähnt Harari dann auch die mög­li­che Ent­ste­hung einer neuen Klasse an „nutz­lo­ser“ Men­schen für den Arbeits­markt und warnt final, dass diese Ent­wick­lun­gen schnel­ler pas­sie­ren kön­nen, als poli­ti­sche Sys­teme reagie­ren kön­nen. Harari for­dert eine glo­bale Koope­ra­tion mit glo­ba­len Regu­la­rien. Ein­zelne Staa­ten allein kön­nen KI nicht wirk­sam kon­trol­lie­ren. Er zieht einen Ver­gleich mit Abkom­men zu Atom­waf­fen oder Bio­tech­no­lo­gie und schließt seine Aus­füh­run­gen mit dem Appell : „Die zen­trale Frage ist nicht, was KI kann – son­dern was wir ihr erlau­ben wol­len zu tun“. 

Har­a­ris For­mu­lie­ren zu KI ste­hen im gesell­schaft­lich-zivi­li­sa­to­ri­schen Kon­text, sie sind ana­ly­tisch zuge­spitzt als eine Art intel­lek­tu­el­les Früh­warn­sys­tem gegen poli­ti­sche Träg­heit. Kri­ti­ker wer­fen ihm vor, dass KI ja keine eige­nen Ziele habe, son­dern immer von mensch­li­chen Vor­ga­ben abhänge. Eine mög­li­che Gefahr liegt also pri­mär in mensch­li­chem Fehl­ver­hal­ten und nicht in (auch auto­no­mer) KI. Harari blickt aber in die Zukunft einer krea­ti­ven, selbst-ler­nen­den, auch stra­te­gisch den­ken­den KI. Und damit ist es, zumin­dest, legi­tim, all diese Fra­gen brei­ter und auch zuge­spitz­ter zu erör­tern — um sich ent­spre­chen­des Gehör zu ver­schaf­fen. Harari stellt, mit Sicher­heit, die rich­ti­gen Fra­gen zur rich­ti­gen Zeit.

Bis zu 60 Pro­zent der Jobs ver­än­dern sich oder wer­den ersetzt

Wäh­rend also His­to­ri­ker Harari gesell­schaft­li­che und in Ver­bin­dung mit dem Arbeits­markt auch volks­wirt­schaft­li­che Dimen­sio­nen anspricht, erör­ter­ten andere WEF-Sprecher:innen rein wirt­schaft­li­che oder tech­no­lo­gi­sche Per­spek­ti­ven. Zu die­sen gehörte auch Kris­talina Geor­gieva, Direk­to­rin des Inter­na­tio­na­len Wäh­rungs­fonds (Inter­na­tio­nal Mone­tary Fund, Washing­ton, US), die ebenso in Davos auf­trat. In der Zuspit­zung von For­mu­lie­run­gen stand sie Harari um nichts nach. Sie sprach pri­mär zum Thema KI und Arbeits­markt und warnte vor einem durch KI aus­ge­lös­ten „Tsu­nami“. 

Glo­bal könn­ten bis zu 40 Pro­zent der Jobs ver­än­dert, neu defi­niert oder ersetzt wer­den und in fort­schritt­li­che­ren Indus­trie­staa­ten sogar bis zu 60 Pro­zent. Beson­ders betrof­fen sind dabei Jobs für Neu­ein­stei­ger und für Jugend­li­che. Final wird der Ein­stieg ins Arbeits­le­ben mas­siv erschwert und das treffe ins­be­son­dere mit­tel­stän­di­sche Exis­ten­zen. Kris­talina Geor­gieva for­dert ebenso Schutz­maß­nah­men und Regu­lie­rung, um soziale Ungleich­hei­ten abzu­fe­dern und sie for­dert dazu auch gezielte Bil­dungs- und Weiterbildungsprogramme.

Öko­no­mi­sche Effi­zi­enz und neues Wissen

Rascher zusam­men­ge­fasst sind die State­ments der Tech-Bros.. Demis Hass­a­bis (CEO Google Deep Mind), Jen­sen Huang (CEO Nvi­dia) und Satya Nadella (Micro­soft) beton­ten über­ein­stim­mend den gro­ßen Nut­zen von KI für Fort­schritt und Pro­duk­ti­vi­tät. Hass­a­bis erläu­terte neue Ent­wick­lun­gen und das große Poten­tial von „Arti­fi­cal Gene­ral Intel­li­gence (AGI)“ für neue wis­sen­schaft­li­che und medi­zi­ni­sche Erkennt­nisse, aber auch für ein bes­se­res Ver­ständ­nis glo­ba­ler Zusammenhänge. 

KI diene also nicht nur der öko­no­mi­schen Effi­zi­enz, son­dern sie schafft neues Wis­sen. Hass­abi warnte dann noch vor einer Invest­ment-Blase bzw. vor einer Über­be­wer­tung von KI und betonte die Bedeu­tung einer for­schungs­ba­sier­ten Ent­wick­lung als Gegen­pol zu kurz­fris­ti­gen Mone­ta­ri­sie­run­gen. Er zielt damit auch auf ein Ungleich­ge­wicht zwi­schen den enor­men Kapi­tal­zu­flüs­sen und einer kon­kre­ten, nach­hal­tig nut­zen­ori­en­tier­ten KI-Ent­wick­lung ab. 

KI als Job­mo­tor für soge­nannte „blue col­lar jobs“

Jen­sen Huang (CEO Nvi­dia) erläu­terte ergän­zend, dass KI auch als Job­mo­tor diene, etwa beim Bau der nöti­gen Infra­struk­tur. Es kön­nen viele neue Arbeits­plätze geschaf­fen wer­den, zum Bei­spiel für Elek­tri­ker, Bau­ar­bei­ter, Tech­ni­ker oder Hand­wer­ker. Huang argu­men­tierte auch, dass der Wert von „prak­ti­schen Beru­fen“ (Anm. sog. „blue col­lar Jobs“) in einem KI-Zeit­al­ter gene­rell steige, da eben Fach­kräfte in unter­schied­li­chen (prak­ti­schen) Dis­zi­pli­nen gefragt sind.

Mit einer regel­recht epo­cha­len, in der Wie­ner Vor­stadt dann gege­be­nen­falls auch als „no-na-ned“ Aus­sage bezeich­net, ist dann noch Satya Nadella (CEO Micro­soft) auf­ge­fal­len, typi­scher­weise. „Wir müs­sen KI so ein­set­zen, dass sie etwas Nütz­li­ches bewirkt, ech­ten gesell­schaft­li­chen Wert schafft und nicht nur tech­no­lo­gi­sche Ver­spre­chen erfüllt“. Wirk­lich epo­chal — und eben treff­lich für einen Micro­soft-Mana­ger. Äuße­run­gen zu KI in und um Davos gab es natür­lich auch von den Chefs der gro­ßen KI-Companies.

Der prag­ma­ti­sche Sam Alt­man und der sorg­same Dario Amodai

Erwäh­nens­wert etwa Arthur Mensch (CEO Mis­tral AI). Der Boss des fran­zö­si­schen KI-Start-Ups betonte bei einer Dis­kus­si­ons­runde zur betrieb­li­chen KI-Nut­zung die aktu­ell noch große Dis­kre­panz zwi­schen Erwar­tung und tat­säch­li­chem Nut­zen. Viele Fir­men wür­den „mit Inte­gra­tion und Anwen­dung kämp­fen“, wäh­rend sie „offi­zi­ell eine erfolg­rei­che KI-Adap­tie­rung ver­laut­ba­ren“. Dazu passt ein State­ment von Moha­med Kande (Glo­bal Chair­man von PwC). Er zitierte aus Stu­dien, wo „56 Pro­zent der Unter­neh­men noch keine mess­ba­ren Vor­teile aus KI-Pro­jek­ten erzie­len“, oft­mals „wegen feh­len­der Vorbereitung“.

Beson­ders inter­es­sant sind die Posi­tio­nen von Sam Alt­man (CEO Open AI mit der Anwen­dung ChatGPT) und Dario Amo­dei (CEO von Anhro­pic mit der Anwen­dung „Claude“) als Ver­tre­ter der aktu­ell meist genutz­ten KI-Anwen­dun­gen. Glo­bal und grob ein­ge­teilt steht Ope­nAIs ChatGPT eher für die pri­vate KI-Nut­zung und Anthro­pics Claude für die betrieb­li­chen KI-Nut­zun­gen. Beob­ach­ter orten zwi­schen den bei­den KI-Len­kern gar eine Art Span­nungs­ver­hält­nis. Alt­man stehe da stra­te­gisch für „machen bzw. ent­wi­ckeln und erst dann regu­lie­ren und opti­mie­ren“ und Amo­dei will „zuerst regu­lie­ren und dann machen/​entwickeln“.

„Als ob man Atom­bom­ben nach Nord­ko­rea verkaufe“

Wenn sich der eher medi­en­scheue Amo­dei öffent­lich äußert, dann ver­wen­det er gerne dras­ti­sche, kon­tro­ver­si­elle For­mu­lie­run­gen und Ver­glei­che, oft auch in einem geo­po­li­ti­schen Kon­text. In Davos kri­ti­sierte er etwa die US-Export­frei­gabe von KI-Chips von Nvi­dia an China. Dies könne dort „in gro­ßem Maß­stab KI-Fähig­kei­ten und stra­te­gi­sche Risi­ken beschleu­ni­gen“ und das sei so, „als wenn man Atom­bom­ben nach Nord­ko­rea ver­kaufe und damit dann noch angibt“. 

Alt­man gilt als Prag­ma­ti­ker, er hat aber ebenso auch die gesell­schaft­li­chen Aus­wir­kun­gen im Blick. Grund­sätz­lich sieht er KI als hoch­ent­wi­ckel­tes Werk­zeug, als einen Motor für Pro­duk­ti­vi­tät und Wohl­stand — und nicht als Akteur. Wich­tig im gesell­schaft­li­chen bzw. volks­wirt­schaft­li­chen Kon­text ist für Alt­man die Ener­gie­frage und für die benö­tig­ten gro­ßen Ener­gie­men­gen brau­che es nach­hal­tige Lösun­gen, etwaig auch mit Kernenergie.

KI erstellt detail­lier­ten Plan für Biowaffe

Im Ver­gleich zum prag­ma­ti­schen Macher Sam Alt­man (CEO OpenAI/​ChatGPT) spielt Dario Amo­dei (CEO Anthropic/​Claude) eine eher für­sorg­li­che Rolle. Er warnt ein­dring­lich vor den Gefah­ren einer fort­ge­schrit­te­nen KI – auch wenn sein Unter­neh­men Anthro­pic unmit­tel­bar und füh­rend an der Ent­wick­lung betei­ligt ist. „Ver­ant­wor­tung und Sicher­heit müs­sen an ers­ter Stelle ste­hen, gerade wenn man an der Spitze einer Tech­no­lo­gie-Ent­wick­lung steht“, so eine sei­ner Positionen. 

Final schätzt Amo­dei die Wahr­schein­lich­keit, dass hoch­ent­wi­ckelte KI in den kom­men­den Jah­ren außer Kon­trolle gera­ten und miss­braucht wird, weit­aus höher ein als viele andere Stim­men in der Bran­che, und ins­be­son­dere auch als Sam Alt­man von Ope­nAI. Als ein Bei­spiel nennt Dario Amo­dei einen Sicher­heits­test, wo ein Mit­ar­bei­ter von Anthro­pic die eigene KI Claude dazu brachte, einen detail­lier­ten Plan für eine Bio­waffe zu erstel­len – was dann die haus­ei­ge­nen Sicher­heits­for­scher ent­spre­chend beunruhigte. 

Aus­ge­feil­tere Algo­rith­men ver­sus aus­ge­wei­tete neu­ro­nale Netze

Amo­dei arbei­tet anfäng­lich bei Ope­nAI und ver­folgte dort einen eige­nen Ansatz : statt immer aus­ge­feil­tere Algo­rith­men zu ent­wi­ckeln, soll­ten eher die mensch­li­chen Gehir­nen nach­emp­fun­de­nen neu­ro­na­len Netze erwei­tert wer­den, in einer Art hori­zon­ta­lem und ver­ti­ka­lem Schicht­mo­dell und ent­spre­chend unter­legt mit ver­schie­de­nen Daten­pa­ke­ten, Spei­cher­ein­hei­ten und Ener­gie­quel­len (Anm. das heute für indus­trie-maschi­nelle Pro­duk­tio­nen ver­wen­dete Edge-Com­pu­ting basiert auch auf so einer Archi­tek­tur, die von „ganz klein“ bis „mäch­tig groß“ sein kann). Die­ses Mehr an Daten und Infra­struk­tur würde dann auch die KI weit­aus mehr intel­li­gen­ter machen. In den letz­ten Jah­ren hat sich nun diese Neu­ro­nale Netz­werk-Archi­tek­tur durchgesetzt.

Es gibt aber auch Kri­ti­ker, die die­sen sor­gen­vol­len, gesell­schaft­lich ver­ant­wor­tungs­be­wuss­ten Auf­tritt von Amo­dei als beab­sich­tigte Stra­te­gie anse­hen, wo er bzw. Anthro­pic als Unter­neh­men davon poli­tisch und wirt­schaft­lich pro­fi­tiert. Auf alle Fälle ist die­ses Sicher­heits­thema ein rea­ler Fokus in der Pro­dukt­ent­wick­lung bei Anthro­pic. Das KI-Unter­neh­men forscht und arbei­tet an Mecha­nis­men, um die Ziele einer KI mit mensch­li­chen Inter­es­sen zu ver­bin­den. Ein Bestand­teil davon ist die For­schung zu bewuss­ten oder bewusst­seins­ähn­li­chen Eigen­schaf­ten von KI-Model­len beim Anthro­pic-Chat­bot „Claude“.

Ver­glei­chende Posi­tio­nen von Max Teg­mark und Nick­las Bostrom

Um neben den ange­führ­ten (volks)wirtschaftlichen und gesell­schafts­po­li­ti­schen Zugän­gen auch eine Art phi­lo­so­phi­sche Meta­ebene bei KI zu behan­deln und KI als Thema die­ses Tex­tes sozu­sa­gen auch ope­ra­tiv ein­zu­we­ben, hat eco­nomy ChatGPT gefragt, wer hier Ergän­zun­gen oder Gegen­po­si­tio­nen ein­brin­gen könnte. Als Ant­wort wur­den Max Teg­mark (58, Phy­si­ker, Kos­mo­loge und Öko­nom) und Nick­las „Nick“ Bostrom (52, Phi­lo­soph, Phy­si­ker und Zukunfts­for­scher) genannt. Nach einer kur­zen Recher­che über Wiki­pe­dia sind die bei­den über ihre Aus­bil­dung, ihre For­schungs­ge­biete und über ihre Posi­tio­nen tat­säch­lich span­nend wie gut passend.

Teg­mark bezeich­net die Ent­wick­lung den­ken­der Maschi­nen als das „wich­tigste Ereig­nis in der Geschichte der Mensch­heit“. Er hat 2014 ein eige­nes Insti­tut („Future of Life“) mit­be­grün­det, wo es um die Ver­hin­de­rung von exis­ten­ti­el­len Risi­ken geht, mit Fokus auf Nukle­ar­waf­fen, Bio­tech­no­lo­gie und KI. Bostrom gilt als bedeu­ten­der Ver­tre­ter des Trans­hu­ma­nis­mus (ebenso wie Google-Den­ker Ray Kurz­weil), er forscht zu exis­ten­ti­el­len Risi­ken mit einem geson­der­ten Fokus auf Bio­ethik (Anm. auch im Kon­text mit tech­ni­schen Ver­bes­se­run­gen des mensch­li­chen Kör­pers) und Technologiefolgen.

Exis­ten­zi­elle Aus­lö­schung oder dau­er­hafte Unterordnung

Eco­nomy hat sodann ein paar The­men­span­gen rund um „KI und Gesell­schaft bzw. Mensch­heit“ defi­niert und da drun­ter die Sicht­wei­sen der KI-Bros. mit den Phi­lo­so­phen und auch Harari gegen­über­ge­stellt. Die The­men­span­gen sind „Ist KI ein Werk­zeug oder ein selb­stän­di­ger Akteur?“, „Gefah­ren“, „Wie rea­lis­tisch ist die Kon­trolle?“ sowie „Wie sichern wir lang­fris­tig ein posi­ti­ves Zukunfts­sze­na­rio mit einer Super­in­tel­li­genz?“ Und als letz­ten Punkt dann noch eine Zeit­achse, wann und wie was passiert.

Beim Thema „Werk­zeug oder Akteur“ sehen Harari, Teg­mark und Bostrom ein­deu­tig einen „Akteur mit Macht über Spra­che und Ent­schei­dun­gen“, bereits „mit eige­nen Ziel­set­zun­gen“. Alt­man dage­gen sieht „ein hoch­ent­wi­ckel­tes aber noch unter Kon­trolle befind­li­ches Werk­zeug“. Beim Punkt „Gefah­ren“ ortet Harari „Mani­pu­la­tion, Macht­kon­zen­tra­tion und den Ver­lust mensch­li­cher Auto­no­mie“, Teg­mark feh­len „Anpas­sun­gen wie lang­fris­tige Ziele“ und für Bostrom droht „exis­ten­ti­elle Aus­lö­schung oder dau­er­hafte Unter­ord­nung“. Auch Alt­man sieht die Gefahr eines „mög­li­chen Miss­brauchs durch zu schnelle Ein­füh­run­gen“ und, jetzt doch auch, „durch feh­lende Regulierung“.

Posi­tio­nen auf einer Art ergän­zen­des Zeitachsen-System

Beim Thema „Kon­trolle“ beur­teilt Yuval Noah Harari die Situa­tion als äußerst fra­gil, „Macht kippe schnell“. Max Teg­mark hält Kon­trolle für mög­lich, so diese „früh und glo­bal koor­di­niert wird“. Nick Bostrom wie­derum schätzt das als „extrem schwie­rig“, und „vor­aus­sicht­lich unmög­lich“ ein. Prag­ma­ti­ker Sam Alt­man sieht sehr wohl eine „prak­ti­sche Mach­bar­keit“, es brau­che „klare behörd­li­che Regu­la­rien“ und dazu Ite­ra­tion, also ein mehr­fa­ches Wie­der­ho­len der dafür nöti­gen Hand­lun­gen zur Ziel­er­rei­chung. Beim zeit­li­chen Rah­men bewegt sich Harari im „Jetzt“ oder im „sehr bald“, auch weil er soziale Effekte frü­her ansetzt. 

Teg­mark mit­tel- bis län­ger­fris­tig, drei bis fünf Jahre, Bostrom lang­fris­tig, aber mit dis­rup­ti­ven Kipp­punk­ten und Alt­mann kurz- bis mit­tel­fris­tig. Gemein­sam betrach­tet erge­ben ihre Posi­tio­nen eigent­lich kei­nen Wider­spruch, son­dern eine Art ergän­zen­des Zeit­ach­sen-Sys­tem. Alt­man, eben im „Hier und Jetzt“ mit Fokus auf wirt­schaft­li­che Ska­lie­rung (Wert­schöp­fung) und Nut­zen, unter Ver­wen­dung einer gewis­sen Sicher­heits­rhe­to­rik auch als Pro­duk­ti­vi­täts- und Wohl­stands­mo­tor. Dann folgt Harari mit sei­nen sozia­len Fol­gen, dann Teg­mark mit sei­nem Zukunfts­de­sign und schließ­lich Bostrom mit sei­nen exis­ten­ti­el­len Gefahren.

„Wie ver­mei­den wir das end­gül­tige Schei­tern der Mensch­heit durch KI?“

Zusam­men­fas­send hat Harari recht bei kurz­fris­ti­gen gesell­schaft­li­chen Effek­ten. KI über­nimmt hier bestimmte Nar­ra­tive und das bedeu­tet ein­mal eine Art Macht­ver­lust. Er traut Gesell­schaf­ten weni­ger Anpas­sungs­fä­hig­keit zu als Alt­man. Max Teg­mark sieht KI als poten­zi­ell über­mensch­li­che Intel­li­genz, er glaubt an eine steuer- und kon­trol­lier­bare Ent­wick­lung, wenn recht­zei­tig gehan­delt wird. Nick Bostrom schließ­lich sieht KI als exis­ten­ti­elle Bedro­hung : „Wie ver­mei­den wir das end­gül­tige Schei­tern der Mensch­heit durch KI?“ 

Bostrom agiert dabei sehr theo­re­tisch, ent­wi­ckelt dafür eigene Sze­na­rien wie eine „Instru­men­telle Kon­ver­genz“. Sam Alt­man, der Prag­ma­ti­ker, geht es um die zen­trale Frage : „Wie bauen wir KI schnell, sicher und gesell­schaft­lich nütz­lich – und wie brin­gen wir diese KI in die Welt, ohne Chaos zu erzeu­gen?“ Final run­ter­ge­bro­chen ist Yuval Noah Harari eine Art Macht-Rea­list (und kein Tech­nik-Pes­si­mist), Sam Alt­man ist der Sys­tem-Opti­mie­rer, Dario Amo­dei ist der insze­niert kon­trol­lie­rende Ent­wick­ler, Max Teg­mark ist der Visio­när, und Niko­las Bostrom ist der Notfall-Denker.

Dann ist der intel­li­gente Maschi­nen-Mensch real

Ein Text zu den aktu­el­len KI-Ent­wick­lun­gen mit den Stim­men rele­van­ter KI-Akteure kann nicht ohne Ray Kurz­weil aus­kom­men, den KI-Chef-Den­ker bei Google und Ver­fech­ter des soge­nann­ten Trans­hu­ma­nis­mus. Kurz­weil meint, dass künst­li­che Intel­li­genz bis 2029 mensch­li­ches Niveau errei­chen wird, eine Art „Human-Level-AI“, die die kogni­ti­ven Fähig­kei­ten des Men­schen in vie­len Berei­chen errei­chen oder über­tref­fen kann. Ein zen­tra­ler Punkt in sei­nem Den­ken ist die soge­nannte tech­no­lo­gi­sche Sin­gu­la­ri­tät. Das ist der Zeit­punkt, wo die Intel­li­genz nicht mehr nur auf bio­lo­gi­sche Gehirne beschränkt ist und ein expo­nen­ti­el­les Wachs­tum zur Norm wird.

Kurz­weil glaubt, dass diese tech­no­lo­gi­sche Sin­gu­la­ri­tät im Jahre 2045 ein­tre­ten wird. Das bedeu­tet, Men­schen und Maschi­nen ver­schmel­zen in einem bis dahin unbe­kann­ten Maße – und das stei­gert die Intel­li­genz der gesam­ten Zivi­li­sa­tion expo­nen­ti­ell bzw. regel­recht explo­si­ons­ar­tig um ein Viel­fa­ches. Tech­no­lo­gisch pas­sie­ren soll das nicht nur über eine dann höchst­ent­wi­ckelte auto­nome KI, son­dern über soge­nannte Brain-Com­pu­ter-Inter­faces, Nano­tech­no­lo­gie und Cloud-Inte­gra­tion, die so Men­schen direkt mit KI ver­schmel­zen (Trans­hu­ma­nis­mus). Die Mensch-Maschine oder der (intel­li­gente) Maschi­nen-Mensch ist hier dann real.

USA und China und Europa mit drei unter­schied­li­chen Modellen

In Ergän­zung zu den wei­ter oben ange­führ­ten ver­glei­chen­den Posi­tio­nen auch von For­schern und Phi­lo­so­phen, sieht Kurz­weil KI opti­mis­tisch. Sie kann enorme Vor­teile brin­gen, etwa Krank­hei­ten hei­len, Lebens­dauer ver­län­gern und Wohl­stand erhö­hen, sie kann kom­plexe Pro­bleme lösen, etwa im Bereich Ener­gie und Umwelt. Und sie wird auch umfang­rei­che gesell­schaft­li­che Ver­än­de­run­gen brin­gen, etwa im Bil­dungs­sys­tem und Arbeits­markt. Final ver­tritt Ray Kurz­weil eine posi­tiv-kri­ti­sche Per­spek­tive, die die Vor­teile benennt und die Risi­ken aner­kennt, ohne in alar­mis­ti­sche „Schwarz-Weiß-Sze­na­rien“ zu verfallen.

Wenn wir nun schon bei Google (und KI) sind, dann soll­ten hier nun auch die Sicht­wei­sen von Eric Schmidt als ehe­ma­li­gen CEO von Google nicht feh­len. Auch er war in Davos und auch er bewegt sich zwi­schen Eupho­rie und War­nun­gen. Geo- und wirt­schafts­po­li­tisch warnt er vor dro­hen­den Abhän­gig­kei­ten Euro­pas ins­be­son­dere von China und rät hier zu raschen und umfang­rei­chen eige­nen Inves­ti­tio­nen in KI. Schmidt ord­net hier auch drei große glo­bale KI-Stoß­rich­tun­gen ein. Ein­mal die USA mit stark geschlos­se­nen KI-Model­len („clo­sed source“ mit Lizen­zen als Geschäfts­mo­dell). Dann China mit ver­gleichs­weise gro­ßer Offen­heit bei Open-Source-Sys­te­men („open weight“ mit einer schnel­le­ren Verbreitung). 

„You know, what we should do ? Pull the plug!”

Und Europa. Ein Europa, das Schmidt im Hin­ter­tref­fen sieht, ohne auch nur annä­hernd glei­che tech­no­lo­gi­sche Exper­tise, dafür mit gro­ßen Her­aus­for­de­run­gen bei den Mit­teln für die nöti­gen tech­no­lo­gi­schen Invest­ments sowie bei Infra­struk­tur und (wei­te­ren) Kos­ten für die nötige Ener­gie­ver­sor­gung. Schmidt sieht KI nicht nur im Kon­text mit tech­no­lo­gi­scher Inno­va­tion, son­dern als kla­res geo­po­li­ti­sches Macht­in­stru­ment. „Wenn Europa nicht bereit ist, viel Geld in eigene KI-Modelle zu inves­tie­ren, dann wird es am Ende chi­ne­si­sche Modelle ver­wen­den müs­sen – und das ist wohl kein gutes Ergeb­nis für Europa“, so Eric Schmidt. Schmidt ver­nach­läs­sigt hier aber (bewusst?), dass Europa mehr­heit­lich KI-Anwen­dun­gen aus den USA nutzt, eben ChatGPT oder Claude.

Schmidts Emp­feh­lung : Europa brau­che eigene KI-Cham­pi­ons und zudem Sou­ve­rä­ni­tät bzw. Unab­hän­gig­keit, auch gegen­über den USA. Und das nicht nur tech­no­lo­gisch, son­dern auch wirt­schaft­lich und poli­tisch. Tech­no­lo­gisch bzw. als eine Art finale War­nung zu gefähr­li­chen KI-Ent­wick­lun­gen erläu­terte Schmidt in einem über die Platt­form X kom­mu­ni­zier­tem Hin­ter­grund­ge­spräch das Bei­spiel meh­rere, an sich schon ein­zeln mäch­tige KI-Agen­ten zu ver­schrän­ken – und dann könnte die­ser „Super-Agent“, auch mit und für die ein­zel­nen Agen­ten, eine eigene Spra­che ent­wi­ckeln. „Und dann wis­sen wir nicht mehr, was wir tun sol­len“, so Eric Schmidt. Er schließt das Gespräch mit : „You know, what we should do ? Pull the plug!” Zieh’ den Ste­cker ! (Chris­tian Czaak, Lau­rin Czaak (Recher­che))

Autor: Christian Czaak und Laurin Czaak (Recherche)
03.02.2026

Weitere aktuelle Artikel

Inno­va­tion. Defi­zite in der ganz­heit­li­chen Ver­bin­dung von Pro­zes­sen, Daten und Steue­rungs­lo­gik. Bei der Digi­ta­li­sie­rung ent­schei­det der Mut, auch den Unter­neh­mens­kern zu trans­for­mie­ren, über Erfolg oder Miss­erfolg. Ein Exper­ten­kom­men­tar von Chris­tian Wen­ner, Head of Stra­te­gic Port­fo­lio­ma­nage­ment CAN­COM Austria. Noch vor weni­gen Jah­ren war die Welt für die öster­rei­chi­sche Export­wirt­schaft in Ord­nung. Güns­tige Ener­gie, gut aus­ge­bil­dete Fach­kräfte, […]
Deut­sche Tele­kom, T‑Systems, SAP und Sie­mens star­ten in Mün­chen erste KI-Fabrik für Wirt­schaft und Ver­wal­tung. Spit­zen­po­li­tik unter­stützt Stra­te­gie zur Digi­ta­len Sou­ve­rä­ni­tät von Deutsch­land und Europa. T‑Systems Aus­tria Boss Peter Lenz ver­weist auf Nut­zung auch für öster­rei­chi­sche Kunden. Der Vize­kanz­ler und Bun­des­fi­nanz­mi­nis­ter von Deutsch­land, Lars Kling­beil war zuge­gen, ebenso wie der Bay­ri­sche Minis­ter­prä­si­dent Mar­kus Söder, der […]
Künst­li­che Intel­li­genz (KI) wird in der Auto­mo­bil­bran­che mit auto­no­mem Fah­ren ver­bun­den. KI unter­stützt aber auch Ent­wick­lung, War­tung, Flot­ten­ma­nage­ment und wei­tere betrieb­li­che Abläufe. Petro­nas hat im Kon­text einer Stu­die aktu­elle KI-Anwen­dun­gen in der Auto­mo­bil­bran­che analysiert.  Künst­li­che Intel­li­genz (KI) in der Auto­mo­bil­bran­che stand bis dato eigent­lich pri­mär im Kon­text mit dem Thema auto­no­mes Fah­ren. KI spielt aber […]
Digi­tale Platt­for­men ver­schrän­ken naht­los Soft­ware-Appli­ka­tio­nen, KI, Cloud-Dienste oder auch Hard­ware. Ing­ram Micro ent­wi­ckelt pri­mär für IT-Resel­ler kon­zi­pierte Platt­form Xvan­tage wei­ter. Rasche Inte­gra­tion von gan­zen CRM- und ERP-Sys­te­men über vor­kon­fi­gu­rierte Schnittstellen.  Ing­ram Micro, glo­bal füh­ren­der IT-Dienst­leis­ter für die inte­gra­tive Nut­zung aller gän­gi­gen Digi­ta­li­sie­rungs-Lösun­gen hat schon 2023 mit Xvan­tage™ eine Digi­tal-Platt­form ent­wi­ckelt, wel­che pri­mär andere IT-Dienst­leis­ter bzw. […]
T‑Cloud als neue Multi-Cloud-Platt­form von T‑Systems zur pass­ge­nauen Kom­bi­na­tion meh­re­rer Cloud-Dienste. Inno­va­tion auch bei Mar­ke­ting mit Aktion am Flug­ha­fen Wien und inter­ak­ti­ver Ver­lo­sung von exklu­si­ven Cloud-Workshops. Egal ob Groß­un­ter­neh­men, Mit­tel­stand oder öffent­li­cher Sek­tor – Cloud Com­pu­ting ist mitt­ler­weile fixer Bestand­teil der digi­ta­len Trans­for­ma­tion. Die Öko­no­mie bei Nut­zungs­viel­falt und Kos­ten der bedarfs­ge­nau ska­lier­ba­ren Cloud-Dienste ist dabei […]
magnifier
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram