
„Pull the plug!“ oder die historische Wende
Künstliche Intelligenz als epochal historische Dimension. Historiker Yuval Noah Harari spricht am Davoser WEF zu KI als neuen Akteur in der Geschichte des aufgeklärten Humanismus. In und rund um Davos äußern sich weitere prominente Manager. Eine kleintaschenbuchlange Einordnung auch mit den Thesen von Max Tegmark und Nicklas Bostrom von Christian Czaak und Laurin Czaak.
Beim jährlichen World Economic Forum (WEF) im Schweizer Davos treffen einander Staatschefs, Wirtschaftsbosse sowie führende Wissenschaftler, Experten und Denker unterschiedlicher Disziplinen. Aktuell war neben den geopolitischen Veränderungen Künstliche Intelligenz (KI) das zweite bestimmende Thema.
Zahlreiche prominente CEOs wie etwa Kristalline Georgia (IMF), Demis Hassabis (Google Deep Mind), Jensen Huang (Nvidia), Satya Nadella (Microsoft), Arthus Mensch (Mistral AI, F), Sam Altman (OpenAI) oder Dario Amodei (Anthropic) diskutierten im Rahmen des WEF aktuelle und vor allem künftige gesellschaftspolitische oder gar existenzielle Auswirkungen.
Erster vom Menschen geschaffener Akteur ohne vollständige Kontrolle des Menschen
Breite Aufmerksamkeit erregte das Panel „An Honest Conversation on AI and Humanity“, wo der israelische Historiker und Publizist Yuval Noah Harari (49) gemeinsam mit der britischen Neurowissenschaftlerin Irene Tracey (59, Vizerektorin Oxford University) die historischen, sozialen und ethischen Aspekte der KI-Entwicklung beleuchtete. Ein gesonderter Fokus behandelte, wie technologische Innovationen das menschliche Gemeinwohl unterstützen können – und dabei ganz grundlegende Werte beachtet bzw. nicht unterminiert werden.
Hararis zentrale und warnende Botschaft lautete, KI nicht nur als technologisches Hilfsmittel zu verstehen, sondern als grundlegenden neuen Akteur in der Geschichte. Dieser kann selbständig lernen, entscheiden und neue Lösungen entwickeln. Während ein Hammer, eine Druckerpresse oder eine Dampfmaschine vom Menschen kontrolliert werden könne, handelt KI nun eigenständig – und damit sei KI der erste von Menschen geschaffene Akteur, der nicht mehr vollständig unter menschlicher Kontrolle steht.
Die entscheidende Kontrolle oder Beeinflussung von Sprache
Ein zentrales Argument von Harari ist, dass KI nicht nur effizient ist, sondern auch kreativ – und das erstreckt sich von neuen Bildern, Musikstücken bis hin zu wissenschaftlichen Einordnungen oder neuen Finanzinstrumenten. Harari zieht einen Vergleich mit biologischen Organismen – und warnt davor, dass KI auch lernen kann. Lernen zu täuschen, zu manipulieren und insbesondere auch strategisches Handeln lernen, wenn sie etwa auf die Erreichung eines bestimmten Zieles eingestellt wird.
Besonders eindringlich warnt Yuval Noah Harari vor der Kontrolle von Sprache. Sprache sei das Fundament von Bildung, Recht, Politik, Geld und Religion. KI könnte also künftig nicht nur Verträge und Gesetze formulieren, sondern auch Propaganda oder religiöse Narrative beeinflussen – und damit könne KI oder wer sie steuert, dann auch Gesellschaften steuern.
Traditionelles Selbstverständnis des Menschen wird massiv in Frage gestellt
Harari argumentiert, dass das menschliche Denken größtenteils aus sprachlichen Prozessen besteht bzw. aus der Verschränkung von Begriffen, Argumenten und Symbolen. Das könne KI bereits heute oftmals besser und damit ist das traditionell historische Selbstverständnis des Menschen als eine Art intelligente Letzt-Instanz massiv infrage gestellt.
Im direkten Kontext mit diesen gesellschaftspolitischen Dimensionen spricht Historiker Harari dann auch systemische Risiken an. Er nennt hier die Konzentration von Macht bei wenigen Tech-Companies oder Staaten, weiters Destabilisierung von Demokratien durch Desinformation (Anm. die dann mehrheitlich wieder über die Produkte dieser Tech-Companies verbreitet wird) oder den Verlust von menschlicher Autonomie bei Entscheidungen. „Wer kontrolliert die Geschichten, die unsere Gesellschaft zusammenhalten?!“
Eine neue Klasse an „nutzloser“ Menschen
Abschließend erwähnt Harari dann auch die mögliche Entstehung einer neuen Klasse an „nutzloser“ Menschen für den Arbeitsmarkt und warnt final, dass diese Entwicklungen schneller passieren können, als politische Systeme reagieren können. Harari fordert eine globale Kooperation mit globalen Regularien. Einzelne Staaten allein können KI nicht wirksam kontrollieren. Er zieht einen Vergleich mit Abkommen zu Atomwaffen oder Biotechnologie und schließt seine Ausführungen mit dem Appell : „Die zentrale Frage ist nicht, was KI kann – sondern was wir ihr erlauben wollen zu tun“.
Hararis Formulieren zu KI stehen im gesellschaftlich-zivilisatorischen Kontext, sie sind analytisch zugespitzt als eine Art intellektuelles Frühwarnsystem gegen politische Trägheit. Kritiker werfen ihm vor, dass KI ja keine eigenen Ziele habe, sondern immer von menschlichen Vorgaben abhänge. Eine mögliche Gefahr liegt also primär in menschlichem Fehlverhalten und nicht in (auch autonomer) KI. Harari blickt aber in die Zukunft einer kreativen, selbst-lernenden, auch strategisch denkenden KI. Und damit ist es, zumindest, legitim, all diese Fragen breiter und auch zugespitzter zu erörtern — um sich entsprechendes Gehör zu verschaffen. Harari stellt, mit Sicherheit, die richtigen Fragen zur richtigen Zeit.
Bis zu 60 Prozent der Jobs verändern sich oder werden ersetzt
Während also Historiker Harari gesellschaftliche und in Verbindung mit dem Arbeitsmarkt auch volkswirtschaftliche Dimensionen anspricht, erörterten andere WEF-Sprecher:innen rein wirtschaftliche oder technologische Perspektiven. Zu diesen gehörte auch Kristalina Georgieva, Direktorin des Internationalen Währungsfonds (International Monetary Fund, Washington, US), die ebenso in Davos auftrat. In der Zuspitzung von Formulierungen stand sie Harari um nichts nach. Sie sprach primär zum Thema KI und Arbeitsmarkt und warnte vor einem durch KI ausgelösten „Tsunami“.
Global könnten bis zu 40 Prozent der Jobs verändert, neu definiert oder ersetzt werden und in fortschrittlicheren Industriestaaten sogar bis zu 60 Prozent. Besonders betroffen sind dabei Jobs für Neueinsteiger und für Jugendliche. Final wird der Einstieg ins Arbeitsleben massiv erschwert und das treffe insbesondere mittelständische Existenzen. Kristalina Georgieva fordert ebenso Schutzmaßnahmen und Regulierung, um soziale Ungleichheiten abzufedern und sie fordert dazu auch gezielte Bildungs- und Weiterbildungsprogramme.
Ökonomische Effizienz und neues Wissen
Rascher zusammengefasst sind die Statements der Tech-Bros.. Demis Hassabis (CEO Google Deep Mind), Jensen Huang (CEO Nvidia) und Satya Nadella (Microsoft) betonten übereinstimmend den großen Nutzen von KI für Fortschritt und Produktivität. Hassabis erläuterte neue Entwicklungen und das große Potential von „Artifical General Intelligence (AGI)“ für neue wissenschaftliche und medizinische Erkenntnisse, aber auch für ein besseres Verständnis globaler Zusammenhänge.
KI diene also nicht nur der ökonomischen Effizienz, sondern sie schafft neues Wissen. Hassabi warnte dann noch vor einer Investment-Blase bzw. vor einer Überbewertung von KI und betonte die Bedeutung einer forschungsbasierten Entwicklung als Gegenpol zu kurzfristigen Monetarisierungen. Er zielt damit auch auf ein Ungleichgewicht zwischen den enormen Kapitalzuflüssen und einer konkreten, nachhaltig nutzenorientierten KI-Entwicklung ab.
KI als Jobmotor für sogenannte „blue collar jobs“
Jensen Huang (CEO Nvidia) erläuterte ergänzend, dass KI auch als Jobmotor diene, etwa beim Bau der nötigen Infrastruktur. Es können viele neue Arbeitsplätze geschaffen werden, zum Beispiel für Elektriker, Bauarbeiter, Techniker oder Handwerker. Huang argumentierte auch, dass der Wert von „praktischen Berufen“ (Anm. sog. „blue collar Jobs“) in einem KI-Zeitalter generell steige, da eben Fachkräfte in unterschiedlichen (praktischen) Disziplinen gefragt sind.
Mit einer regelrecht epochalen, in der Wiener Vorstadt dann gegebenenfalls auch als „no-na-ned“ Aussage bezeichnet, ist dann noch Satya Nadella (CEO Microsoft) aufgefallen, typischerweise. „Wir müssen KI so einsetzen, dass sie etwas Nützliches bewirkt, echten gesellschaftlichen Wert schafft und nicht nur technologische Versprechen erfüllt“. Wirklich epochal — und eben trefflich für einen Microsoft-Manager. Äußerungen zu KI in und um Davos gab es natürlich auch von den Chefs der großen KI-Companies.
Der pragmatische Sam Altman und der sorgsame Dario Amodai
Erwähnenswert etwa Arthur Mensch (CEO Mistral AI). Der Boss des französischen KI-Start-Ups betonte bei einer Diskussionsrunde zur betrieblichen KI-Nutzung die aktuell noch große Diskrepanz zwischen Erwartung und tatsächlichem Nutzen. Viele Firmen würden „mit Integration und Anwendung kämpfen“, während sie „offiziell eine erfolgreiche KI-Adaptierung verlautbaren“. Dazu passt ein Statement von Mohamed Kande (Global Chairman von PwC). Er zitierte aus Studien, wo „56 Prozent der Unternehmen noch keine messbaren Vorteile aus KI-Projekten erzielen“, oftmals „wegen fehlender Vorbereitung“.
Besonders interessant sind die Positionen von Sam Altman (CEO Open AI mit der Anwendung ChatGPT) und Dario Amodei (CEO von Anhropic mit der Anwendung „Claude“) als Vertreter der aktuell meist genutzten KI-Anwendungen. Global und grob eingeteilt steht OpenAIs ChatGPT eher für die private KI-Nutzung und Anthropics Claude für die betrieblichen KI-Nutzungen. Beobachter orten zwischen den beiden KI-Lenkern gar eine Art Spannungsverhältnis. Altman stehe da strategisch für „machen bzw. entwickeln und erst dann regulieren und optimieren“ und Amodei will „zuerst regulieren und dann machen/entwickeln“.
„Als ob man Atombomben nach Nordkorea verkaufe“
Wenn sich der eher medienscheue Amodei öffentlich äußert, dann verwendet er gerne drastische, kontroversielle Formulierungen und Vergleiche, oft auch in einem geopolitischen Kontext. In Davos kritisierte er etwa die US-Exportfreigabe von KI-Chips von Nvidia an China. Dies könne dort „in großem Maßstab KI-Fähigkeiten und strategische Risiken beschleunigen“ und das sei so, „als wenn man Atombomben nach Nordkorea verkaufe und damit dann noch angibt“.
Altman gilt als Pragmatiker, er hat aber ebenso auch die gesellschaftlichen Auswirkungen im Blick. Grundsätzlich sieht er KI als hochentwickeltes Werkzeug, als einen Motor für Produktivität und Wohlstand — und nicht als Akteur. Wichtig im gesellschaftlichen bzw. volkswirtschaftlichen Kontext ist für Altman die Energiefrage und für die benötigten großen Energiemengen brauche es nachhaltige Lösungen, etwaig auch mit Kernenergie.
KI erstellt detaillierten Plan für Biowaffe
Im Vergleich zum pragmatischen Macher Sam Altman (CEO OpenAI/ChatGPT) spielt Dario Amodei (CEO Anthropic/Claude) eine eher fürsorgliche Rolle. Er warnt eindringlich vor den Gefahren einer fortgeschrittenen KI – auch wenn sein Unternehmen Anthropic unmittelbar und führend an der Entwicklung beteiligt ist. „Verantwortung und Sicherheit müssen an erster Stelle stehen, gerade wenn man an der Spitze einer Technologie-Entwicklung steht“, so eine seiner Positionen.
Final schätzt Amodei die Wahrscheinlichkeit, dass hochentwickelte KI in den kommenden Jahren außer Kontrolle geraten und missbraucht wird, weitaus höher ein als viele andere Stimmen in der Branche, und insbesondere auch als Sam Altman von OpenAI. Als ein Beispiel nennt Dario Amodei einen Sicherheitstest, wo ein Mitarbeiter von Anthropic die eigene KI Claude dazu brachte, einen detaillierten Plan für eine Biowaffe zu erstellen – was dann die hauseigenen Sicherheitsforscher entsprechend beunruhigte.
Ausgefeiltere Algorithmen versus ausgeweitete neuronale Netze
Amodei arbeitet anfänglich bei OpenAI und verfolgte dort einen eigenen Ansatz : statt immer ausgefeiltere Algorithmen zu entwickeln, sollten eher die menschlichen Gehirnen nachempfundenen neuronalen Netze erweitert werden, in einer Art horizontalem und vertikalem Schichtmodell und entsprechend unterlegt mit verschiedenen Datenpaketen, Speichereinheiten und Energiequellen (Anm. das heute für industrie-maschinelle Produktionen verwendete Edge-Computing basiert auch auf so einer Architektur, die von „ganz klein“ bis „mächtig groß“ sein kann). Dieses Mehr an Daten und Infrastruktur würde dann auch die KI weitaus mehr intelligenter machen. In den letzten Jahren hat sich nun diese Neuronale Netzwerk-Architektur durchgesetzt.
Es gibt aber auch Kritiker, die diesen sorgenvollen, gesellschaftlich verantwortungsbewussten Auftritt von Amodei als beabsichtigte Strategie ansehen, wo er bzw. Anthropic als Unternehmen davon politisch und wirtschaftlich profitiert. Auf alle Fälle ist dieses Sicherheitsthema ein realer Fokus in der Produktentwicklung bei Anthropic. Das KI-Unternehmen forscht und arbeitet an Mechanismen, um die Ziele einer KI mit menschlichen Interessen zu verbinden. Ein Bestandteil davon ist die Forschung zu bewussten oder bewusstseinsähnlichen Eigenschaften von KI-Modellen beim Anthropic-Chatbot „Claude“.
Vergleichende Positionen von Max Tegmark und Nicklas Bostrom
Um neben den angeführten (volks)wirtschaftlichen und gesellschaftspolitischen Zugängen auch eine Art philosophische Metaebene bei KI zu behandeln und KI als Thema dieses Textes sozusagen auch operativ einzuweben, hat economy ChatGPT gefragt, wer hier Ergänzungen oder Gegenpositionen einbringen könnte. Als Antwort wurden Max Tegmark (58, Physiker, Kosmologe und Ökonom) und Nicklas „Nick“ Bostrom (52, Philosoph, Physiker und Zukunftsforscher) genannt. Nach einer kurzen Recherche über Wikipedia sind die beiden über ihre Ausbildung, ihre Forschungsgebiete und über ihre Positionen tatsächlich spannend wie gut passend.
Tegmark bezeichnet die Entwicklung denkender Maschinen als das „wichtigste Ereignis in der Geschichte der Menschheit“. Er hat 2014 ein eigenes Institut („Future of Life“) mitbegründet, wo es um die Verhinderung von existentiellen Risiken geht, mit Fokus auf Nuklearwaffen, Biotechnologie und KI. Bostrom gilt als bedeutender Vertreter des Transhumanismus (ebenso wie Google-Denker Ray Kurzweil), er forscht zu existentiellen Risiken mit einem gesonderten Fokus auf Bioethik (Anm. auch im Kontext mit technischen Verbesserungen des menschlichen Körpers) und Technologiefolgen.
Existenzielle Auslöschung oder dauerhafte Unterordnung
Economy hat sodann ein paar Themenspangen rund um „KI und Gesellschaft bzw. Menschheit“ definiert und da drunter die Sichtweisen der KI-Bros. mit den Philosophen und auch Harari gegenübergestellt. Die Themenspangen sind „Ist KI ein Werkzeug oder ein selbständiger Akteur?“, „Gefahren“, „Wie realistisch ist die Kontrolle?“ sowie „Wie sichern wir langfristig ein positives Zukunftsszenario mit einer Superintelligenz?“ Und als letzten Punkt dann noch eine Zeitachse, wann und wie was passiert.
Beim Thema „Werkzeug oder Akteur“ sehen Harari, Tegmark und Bostrom eindeutig einen „Akteur mit Macht über Sprache und Entscheidungen“, bereits „mit eigenen Zielsetzungen“. Altman dagegen sieht „ein hochentwickeltes aber noch unter Kontrolle befindliches Werkzeug“. Beim Punkt „Gefahren“ ortet Harari „Manipulation, Machtkonzentration und den Verlust menschlicher Autonomie“, Tegmark fehlen „Anpassungen wie langfristige Ziele“ und für Bostrom droht „existentielle Auslöschung oder dauerhafte Unterordnung“. Auch Altman sieht die Gefahr eines „möglichen Missbrauchs durch zu schnelle Einführungen“ und, jetzt doch auch, „durch fehlende Regulierung“.
Positionen auf einer Art ergänzendes Zeitachsen-System
Beim Thema „Kontrolle“ beurteilt Yuval Noah Harari die Situation als äußerst fragil, „Macht kippe schnell“. Max Tegmark hält Kontrolle für möglich, so diese „früh und global koordiniert wird“. Nick Bostrom wiederum schätzt das als „extrem schwierig“, und „voraussichtlich unmöglich“ ein. Pragmatiker Sam Altman sieht sehr wohl eine „praktische Machbarkeit“, es brauche „klare behördliche Regularien“ und dazu Iteration, also ein mehrfaches Wiederholen der dafür nötigen Handlungen zur Zielerreichung. Beim zeitlichen Rahmen bewegt sich Harari im „Jetzt“ oder im „sehr bald“, auch weil er soziale Effekte früher ansetzt.
Tegmark mittel- bis längerfristig, drei bis fünf Jahre, Bostrom langfristig, aber mit disruptiven Kipppunkten und Altmann kurz- bis mittelfristig. Gemeinsam betrachtet ergeben ihre Positionen eigentlich keinen Widerspruch, sondern eine Art ergänzendes Zeitachsen-System. Altman, eben im „Hier und Jetzt“ mit Fokus auf wirtschaftliche Skalierung (Wertschöpfung) und Nutzen, unter Verwendung einer gewissen Sicherheitsrhetorik auch als Produktivitäts- und Wohlstandsmotor. Dann folgt Harari mit seinen sozialen Folgen, dann Tegmark mit seinem Zukunftsdesign und schließlich Bostrom mit seinen existentiellen Gefahren.
„Wie vermeiden wir das endgültige Scheitern der Menschheit durch KI?“
Zusammenfassend hat Harari recht bei kurzfristigen gesellschaftlichen Effekten. KI übernimmt hier bestimmte Narrative und das bedeutet einmal eine Art Machtverlust. Er traut Gesellschaften weniger Anpassungsfähigkeit zu als Altman. Max Tegmark sieht KI als potenziell übermenschliche Intelligenz, er glaubt an eine steuer- und kontrollierbare Entwicklung, wenn rechtzeitig gehandelt wird. Nick Bostrom schließlich sieht KI als existentielle Bedrohung : „Wie vermeiden wir das endgültige Scheitern der Menschheit durch KI?“
Bostrom agiert dabei sehr theoretisch, entwickelt dafür eigene Szenarien wie eine „Instrumentelle Konvergenz“. Sam Altman, der Pragmatiker, geht es um die zentrale Frage : „Wie bauen wir KI schnell, sicher und gesellschaftlich nützlich – und wie bringen wir diese KI in die Welt, ohne Chaos zu erzeugen?“ Final runtergebrochen ist Yuval Noah Harari eine Art Macht-Realist (und kein Technik-Pessimist), Sam Altman ist der System-Optimierer, Dario Amodei ist der inszeniert kontrollierende Entwickler, Max Tegmark ist der Visionär, und Nikolas Bostrom ist der Notfall-Denker.
Dann ist der intelligente Maschinen-Mensch real
Ein Text zu den aktuellen KI-Entwicklungen mit den Stimmen relevanter KI-Akteure kann nicht ohne Ray Kurzweil auskommen, den KI-Chef-Denker bei Google und Verfechter des sogenannten Transhumanismus. Kurzweil meint, dass künstliche Intelligenz bis 2029 menschliches Niveau erreichen wird, eine Art „Human-Level-AI“, die die kognitiven Fähigkeiten des Menschen in vielen Bereichen erreichen oder übertreffen kann. Ein zentraler Punkt in seinem Denken ist die sogenannte technologische Singularität. Das ist der Zeitpunkt, wo die Intelligenz nicht mehr nur auf biologische Gehirne beschränkt ist und ein exponentielles Wachstum zur Norm wird.
Kurzweil glaubt, dass diese technologische Singularität im Jahre 2045 eintreten wird. Das bedeutet, Menschen und Maschinen verschmelzen in einem bis dahin unbekannten Maße – und das steigert die Intelligenz der gesamten Zivilisation exponentiell bzw. regelrecht explosionsartig um ein Vielfaches. Technologisch passieren soll das nicht nur über eine dann höchstentwickelte autonome KI, sondern über sogenannte Brain-Computer-Interfaces, Nanotechnologie und Cloud-Integration, die so Menschen direkt mit KI verschmelzen (Transhumanismus). Die Mensch-Maschine oder der (intelligente) Maschinen-Mensch ist hier dann real.
USA und China und Europa mit drei unterschiedlichen Modellen
In Ergänzung zu den weiter oben angeführten vergleichenden Positionen auch von Forschern und Philosophen, sieht Kurzweil KI optimistisch. Sie kann enorme Vorteile bringen, etwa Krankheiten heilen, Lebensdauer verlängern und Wohlstand erhöhen, sie kann komplexe Probleme lösen, etwa im Bereich Energie und Umwelt. Und sie wird auch umfangreiche gesellschaftliche Veränderungen bringen, etwa im Bildungssystem und Arbeitsmarkt. Final vertritt Ray Kurzweil eine positiv-kritische Perspektive, die die Vorteile benennt und die Risiken anerkennt, ohne in alarmistische „Schwarz-Weiß-Szenarien“ zu verfallen.
Wenn wir nun schon bei Google (und KI) sind, dann sollten hier nun auch die Sichtweisen von Eric Schmidt als ehemaligen CEO von Google nicht fehlen. Auch er war in Davos und auch er bewegt sich zwischen Euphorie und Warnungen. Geo- und wirtschaftspolitisch warnt er vor drohenden Abhängigkeiten Europas insbesondere von China und rät hier zu raschen und umfangreichen eigenen Investitionen in KI. Schmidt ordnet hier auch drei große globale KI-Stoßrichtungen ein. Einmal die USA mit stark geschlossenen KI-Modellen („closed source“ mit Lizenzen als Geschäftsmodell). Dann China mit vergleichsweise großer Offenheit bei Open-Source-Systemen („open weight“ mit einer schnelleren Verbreitung).
„You know, what we should do ? Pull the plug!”
Und Europa. Ein Europa, das Schmidt im Hintertreffen sieht, ohne auch nur annähernd gleiche technologische Expertise, dafür mit großen Herausforderungen bei den Mitteln für die nötigen technologischen Investments sowie bei Infrastruktur und (weiteren) Kosten für die nötige Energieversorgung. Schmidt sieht KI nicht nur im Kontext mit technologischer Innovation, sondern als klares geopolitisches Machtinstrument. „Wenn Europa nicht bereit ist, viel Geld in eigene KI-Modelle zu investieren, dann wird es am Ende chinesische Modelle verwenden müssen – und das ist wohl kein gutes Ergebnis für Europa“, so Eric Schmidt. Schmidt vernachlässigt hier aber (bewusst?), dass Europa mehrheitlich KI-Anwendungen aus den USA nutzt, eben ChatGPT oder Claude.
Schmidts Empfehlung : Europa brauche eigene KI-Champions und zudem Souveränität bzw. Unabhängigkeit, auch gegenüber den USA. Und das nicht nur technologisch, sondern auch wirtschaftlich und politisch. Technologisch bzw. als eine Art finale Warnung zu gefährlichen KI-Entwicklungen erläuterte Schmidt in einem über die Plattform X kommuniziertem Hintergrundgespräch das Beispiel mehrere, an sich schon einzeln mächtige KI-Agenten zu verschränken – und dann könnte dieser „Super-Agent“, auch mit und für die einzelnen Agenten, eine eigene Sprache entwickeln. „Und dann wissen wir nicht mehr, was wir tun sollen“, so Eric Schmidt. Er schließt das Gespräch mit : „You know, what we should do ? Pull the plug!” Zieh’ den Stecker ! (Christian Czaak, Laurin Czaak (Recherche))