Teilen

Künstliche Intelligenz, der lange Marsch und ihre wahre Herausforderung

Heute reicht es nicht mehr aus, dass Künstliche Intelligenz die Versprechen gegenüber Investoren und Regierungen einhält, sondern sie muss das Vertrauen der Nutzer gewinnen

Künstliche Intelligenz, der lange Marsch und ihre wahre Herausforderung

Die Gewinner des Turing Award 2018

Im Juni verlieh die ACM (Association for Computing Machinery) den renommierten Turing Award 2018, eine Art Nobelpreis für Informatik, drei ausgezeichnete Wissenschaftler. Yoshua Bengio, Professor an der Universität von Montreal und wissenschaftlicher Direktor von Mila, dem Institut für künstliche Intelligenz in Quebec. Yann LeCun, Professor an der New York University und auch VP und Chief AI Scientist von Facebook. Geoffrey Hinton, emeritierter Professor an der University of Toronto, VP und Engineering Fellow von Google sowie Chief Scientific Advisor des Vector Institute.

Die Anerkennung wird wie folgt begründet:

Für konzeptionelle und technische Durchbrüche, die tiefe neuronale Netze zu einer kritischen Komponente der Informatik gemacht haben.

Wie Cherri M. Pancake, Präsidentin der ACM, bemerkte:

„Das Wachstum und das Interesse an KI ist nicht zuletzt auf die jüngsten Fortschritte im Deep Learning zurückzuführen, für die Bengio, Hinton und LeCun die Grundlagen gelegt haben.“

Und Jeff Dean, Google Senior Fellow und SVP Google AI, fügte hinzu:

„Deep Neural Networks sind für einige der größten Sprünge im modernen Computing verantwortlich. Sie haben dazu beigetragen, wesentliche Fortschritte bei langjährigen Problemen zu erzielen: Computer Vision, Spracherkennung und natürliches Sprachverständnis. … Im Mittelpunkt dieser Fortschritte stehen grundlegende Techniken, die seit mehr als 30 Jahren von den diesjährigen Gewinnern des Turing-Preises entwickelt wurden. Dies sind Yoshua Bengio, Geoffrey Hinton und Yann LeCun. Durch die enorme Verbesserung der Fähigkeit von Computern, die Welt zu verstehen, verändern tiefe neuronale Netze nicht nur den Bereich der Computer, sondern fast alle Bereiche der Wissenschaft und menschlichen Bemühungen."

Die Rolle Kanadas

Die Gewinner des Turing Award 2018 arbeiten weiterhin im Rahmen des Programms „Learning in Machines and Brains“ des CIFAR (Canadian Institute for Advanced Research) zusammen. Die Rolle, die die kanadische Regierung in der Erforschung neuronaler Netze spielt, ist keineswegs marginal.

Insbesondere zielt dieses Projekt darauf ab, dieses riesige und faszinierende Gebiet zu untersuchen, das an der Schnittstelle zwischen maschinellem Lernen, Neurowissenschaft und Kognitionswissenschaft liegt. Ein unumgänglicher Schritt, wenn man eine künstliche Intelligenz mit „gesundem Menschenverstand“ anstrebt.

Heute stehen die drei preisgekrönten Wissenschaftler im Rampenlicht, aber das war nicht immer so… Es gab tatsächlich eine Zeit, in der künstliche Intelligenz im Staub war. Betrachten wir kurz seine Geschichte.

Am Anfang war das Perzeptron…

Die Geschichte des Perzeptrons ist ein guter Vergleichsbegriff, um den schwankenden Trend zu veranschaulichen, der die Welt der künstlichen Intelligenz auszeichnet. Die Idee hinter dem Perceptron war einfach und beruhte auf theoretischen Grundlagen, die bereits in den 40er Jahren gelegt wurden: die Struktur und Funktionsweise des menschlichen Gehirns zu modellieren. Imitieren Sie in diesem Fall das Verhalten seiner Neuronen und die Verbindungen, die sie zwischen ihnen herstellen: die Synapsen. Schließlich haben wir versucht, die Lernweise unseres Intellekts, insbesondere seine Plastizität, nachzubilden.

Das Perceptron versuchte, seine Fähigkeit zu verfeinern, die erwartete Ausgabe abzugleichen, indem es den verschiedenen Verbindungen mehr oder weniger Gewicht zuwies. Dabei veränderte er die Synapsen und modulierte die Beziehungen zwischen den künstlichen Neuronen neu. Vielleicht zu trivialerweise kann man sagen, dass die Maschine durch diese Modalität in gewissem Sinne gelernt hat. Das Perceptron war tatsächlich ein erster Prototyp eines neuronalen Netzes, wenn auch extrem vereinfacht, und konnte beispielsweise elementare geometrische Formen wie Dreiecke und Quadrate unterscheiden.

Das Perzeptron-Debakel...

Das Projekt erwies sich jedoch als unzureichend, um die enormen Erwartungen zu erfüllen, die es geweckt hatte, was auch durch unvorsichtige Äußerungen geschürt wurde. Rosenblatt ging sogar so weit, zu erklären, dass sein „Geschöpf“ auf lange Sicht „… lernen, Entscheidungen treffen und Sprachen übersetzen kann“.

Das Perceptron basierte tatsächlich auf einer einzigen Schicht künstlicher Neuronen (höchstens zwei), was seine Fähigkeit, komplexe Muster zu erkennen, stark einschränkte. Im Gegensatz dazu sind die heutigen Deep Neural Networks auf mehreren Schichten künstlicher Neuronen aufgebaut.

Diese Architektur ermöglicht es ihnen, mit viel größerer Komplexität umzugehen. Am Ende erwies sich Rosenblatts Projekt als Fiasko. Das Interesse an der Maschine und dem Ansatz, der ihr zugrunde lag, nahm zunehmend ab, ebenso wie die für das Programm bereitgestellten Mittel.

… und seine Folgen

Eine Reihe von Rückschlägen, einschließlich des Perceptron-Debakels, erzeugten zwischen Mitte der 60er und 70er Jahre Enttäuschung und konsequente Desillusionierung und verurteilten die aufkeimende Kybernetik zu einem lang anhaltenden Vergessen.

Das Thema wurde auf fatale Weise verboten und erfuhr eine Art Ächtung innerhalb der Gemeinschaft von Wissenschaftlern in diesem Sektor. Der Winter war für die neugeborenen künstlichen neuronalen Netze gekommen, ein langer Winter …

Wenn die Forschung auf teilweise überzogene Erwartungen nicht reagiert, entsteht ein Klima des Misstrauens, das zu einer fortschreitenden Abkühlung des Interesses führt. Dies wiederum führt zunächst zu einer Kürzung und dann zu einer Aussetzung der Mittel. Dies bewirkt das Ende oder höchstens die Stagnation der Forschung selbst. Ein Phänomen, das als „KI-Winter“ bekannt ist.

Das Aufkommen des KI-Winters

Wiederkehrende Zyklen von maßlosem Enthusiasmus und enormen Investitionen (oft aufgeladen durch Propaganda und Marketing), denen tiefe Frustration, Unterbrechung der Förderung, manchmal sogar Schuldzuweisungen für eine bestimmte Ermittlungslinie folgen.

Der Fortschritt der Forschung zur Künstlichen Intelligenz verläuft in allen Bereichen nach dem gleichen Schema: Anfängliche Erfolge, denen plötzlich unerwartete Schwierigkeiten folgen. (Aus Hubert L. Dreyfus, Was Computer nicht können. Die Grenzen künstlicher Intelligenz, Armando 1998).

Von Wintern, verlängerten Wintern, hat der Sektor der künstlichen Intelligenz mindestens zwei erlebt. Die, die unter anderem auf den Ausfall des Perzeptrons folgt, und die, die durch die Dotcom-Blase verursacht wurde.

Unter Spur

Doch trotz des Griffs der Ernüchterung hat die Erforschung neuronaler Netze nie vollständig aufgehört. Im Gegenteil, es ging weiter, versteckt, verfinstert, fast heimlich, während Finanzierung und Mainstream-Forschung andere Wege einschlugen.

Obwohl Hinton betont, dass die Geschichte der Fackel, die von einigen wenigen Auserwählten weiter gebrannt wird, nur Mythologie ist, sind die Hindernisse und Schwierigkeiten keineswegs eine Erfindung.

Hinton musste sogar mit seinem Professor aneinander geraten, als er in den 70er Jahren künstliche Intelligenz als Thema für seine Promotion wählte: „Wir trafen uns einmal pro Woche“, erinnert er sich, „manchmal stritten wir uns, manchmal nicht. "

Gerade für neuronale Netze hält sich seit langem die Gleichgültigkeit oder schlimmer noch die Abneigung eines großen Teils der Wissenschaftsgemeinschaft der Branche. LeCun erinnert sich:

Mitte der 90er und Anfang bis Mitte der 2000er Jahre gab es eine dunkle Phase, in der es unmöglich war, Forschungsergebnisse zu neuronalen Netzen zu veröffentlichen, weil die Community das Interesse an ihnen verloren hatte … Tatsächlich hatten sie einen schlechten Ruf. Sie waren irgendwie tabu.

Wir suchen weiter

Die drei mit dem Turing Award ausgezeichneten Wissenschaftler arbeiteten auch in den dunkelsten Zeiten an ihren Ideen weiter, sowohl unabhängig voneinander als auch in Zusammenarbeit und Austausch von Ideen. Auch dank der Weitsicht der kanadischen Regierung fanden die drei zusammen und vielleicht begann von dort aus die Rache.

Im Jahr 2004 schuf Dr. Hinton mit einem Zuschuss von weniger als 400.000 US-Dollar vom Canadian Institute for Advanced Research ein Forschungsprogramm, das sich dem widmete, was er „neuronale Berechnung und adaptive Wahrnehmung“ nannte.

Hinton lud auch Yoshua Bengio und Yann LeCun ein, Teil des Projekts zu sein.

Als wichtig erweisen sich auch Synergien, die eine Art Kreislauf in Gang setzen, der Früchte sät, Ideen verbreitet, Unterstützer gewinnt. Le Cu sagt:

Wir hatten regelmäßige Treffen, regelmäßige Workshops und Summer Schools für unsere Studenten… Dadurch entstand eine kleine Gemeinschaft, die […] um 2012, 2013 wirklich explodierte.

Genau in dieser Zeit, kurz nach der Hälfte des ersten Jahrzehnts des neuen Jahrtausends, war alles bereit. Die theoretischen Grundlagen bildeten ebenso wie die verfügbare Hardware und das wesentliche Rohmaterial, die Daten. Die Revolution der neuronalen Netze könnte also beginnen.

Parallele Konvergenzen

Die Bemühungen von Wissenschaftlern auf dem Gebiet der künstlichen neuronalen Netze stoßen seit langem auf einen Mangel an Treibstoff, der benötigt wird, um sie optimal arbeiten zu lassen: Daten. Yann LeCun bemerkt:

Sie funktionierten nur gut, wenn es viele Daten für das Training gab und es einige Bereiche mit vielen Daten für das Training gab.

Ebenso war auf der Hardwareseite nicht genug Leistung vorhanden. Wie Gary Marcus und Ernest Davis betonen:

Noch in den frühen 2000er Jahren war die Hardware dieser Aufgabe nicht gewachsen. Es hätte Wochen oder sogar Monate Computerzeit gekostet, um ein typisches tiefes Netzwerk zu trainieren. Man könnte nicht (wie es jetzt möglich ist) Hunderte von verschiedenen Alternativen ausprobieren und die besten davon sichten. (Gary F. Marcus, Ernest Davis, Rebooting AI. Building Artificial Intelligence We Can Trust, 2019).

Hier kommt das Internet

Wie es bei anderen Gelegenheiten im Zusammenhang mit Wendepunkten in der Geschichte der Informationstechnologie geschehen ist, laufen zu einem bestimmten Zeitpunkt scheinbar beiläufig eine ganze Reihe von Erwerbungen (sowohl technische als auch theoretische) zusammen. Damit wird realisierbar, was bisher nur ein vager Wunsch oder Anliegen misshandelter Visionäre war.

So standen etwa im ersten Jahrzehnt des neuen Jahrtausends durch die Verbreitung des Internets und der sozialen Medien enorme Datenmengen zur Verfügung. Wie eine Vielzahl von Datensätzen mit strukturierten Daten verfügbar waren, einige von sehr hoher Qualität. ImageNet war ein Datensatz, der damals 3,2 Millionen beschriftete Bilder umfasste, die in 5247 Kategorien organisiert waren. sagte Li

Der Paradigmenwechsel des ImageNet-Konzepts besteht darin, dass viele Menschen den Modellen Aufmerksamkeit schenken, [wir] den Daten. … Daten werden neu definieren, wie wir über Modelle denken.

IMAGEnet

Im Jahr 2009 veröffentlicht (ImageNet-Papier), organisierte Imagenet unter allgemeiner Gleichgültigkeit auch einen jährlichen Wettbewerb, von 2010 bis zur letzten Ausgabe im Jahr 2017. Einige der heute führenden Persönlichkeiten im Bereich des maschinellen Lernens und der Hi-Tech-Branche nahmen daran teil.

Ziel des Wettbewerbs war es, die Algorithmen anhand der riesigen verfügbaren Bilddatenbank zu testen, um das Potenzial von KI gründlich zu untersuchen.

Eine angenehme Überraschung war, dass Personen, die ihre Modelle auf ImageNet trainiert hatten, diese verwenden konnten, um Modelle für andere Erkennungsaufgaben auszuführen. Sie haben mit dem ImageNet-Modell begonnen und es dann für ein anderes Unternehmen verfeinert. … Es war ein Durchbruch sowohl für neuronale Netze als auch für die Erkennung im Allgemeinen.

Die Hardwareseite

Sogar auf der Hardwareseite gab es jetzt ungefähr zur gleichen Zeit die nötige Leistung, um die Anforderungen neuronaler Netze vollständig (und zu einem erschwinglichen Preis) zu unterstützen. Ironischerweise stammte die fragliche Hardware aus einer völlig anderen Branche und ursprünglichen Bestimmung.

GPUs wurden ab den 70er Jahren für Spiele angebunden, und neuronale Netze entdeckten sie in den frühen 2000er Jahren. Bis 2012 waren sie extrem leistungsfähig und für einige Zwecke effizienter als CPUs. Die CPU ist die traditionelle Hauptstütze [Kern] der meisten Computer.

Die Revolution kam im Jahr 2012, als eine Reihe von Leuten, darunter ein Forscherteam, das mit Hinton zusammenarbeitete, einen Weg fand, die Leistung von GPUs zu nutzen, um die Leistung neuronaler Netze massiv zu steigern.

Beobachten Sie Marcus und Davis:

In gewisser Hinsicht ist der wichtigste Fortschritt nicht auf einen grundlegenden technischen Durchbruch in der Mathematik neuronaler Netze zurückzuführen, von denen viele aus den 80er Jahren stammen. Es kam von Computerspielen. Oder genauer gesagt durch eine bestimmte Hardware, die als GPU (kurz für Graphics Processing Unit) bekannt ist und die die Gemeinschaft der neuronalen Netze für künstliche Intelligenz umgebaut hat.

Imagenet-Wettbewerb 2012

Im Jahr 2012, zwei Jahre nach der ersten Imagenet Challenge, ereignete sich das Ereignis, das möglicherweise den aktuellen Aufstieg der KI ausgelöst hat. Hinton nahm zusammen mit zwei seiner Studenten von der University of Toronto, Ilya Sutskever und Alex Krizhevsky, mit einem von Krizhevsky entworfenen Convolutional Neural Network am Wettbewerb teil: AlexNet.

AlexNet, das immer noch in der Suche tätig ist, schlug das Feld mit einem enormen Vorsprung von 10,8 Prozentpunkten oder 41 % besser als der nächstbeste Anbieter. Ein ebenso unerwartetes wie eindeutiges Ergebnis. LeCun sagt:

Der Unterschied war so groß, dass viele Leute sehen konnten, wie ein riesiger Schalter auf ihren Köpfen verrückt wurde ... Jetzt waren sie überzeugt.

Der Aufstieg der KI beginnt

Ein Triumph, der so durchschlagend war, dass er Google bald veranlasste, die drei Gewinner einzustellen. Erinnern Sie sich an Krizhevsky:

Es wurde [in eine Situation] ziemlich surreal. … Bald erhielten wir Übernahmeangebote. Viele E-Mails.

Um den Kreis der glücklichen „Zufälle“ zu schließen, kam auch der von Imagenet ausgeschriebene Wettbewerb für Hinton und seine Schüler genau zum richtigen Zeitpunkt.

Heutzutage sind solche Convolutional Neural Networks überall… Sie können erkennen, was sich in einem Bild befindet, indem sie Muster zwischen Pixeln durch zunehmende Abstraktionsebenen erkennen. Sie verwenden Tausende bis Millionen kleiner Berechnungen für jedes Level. … Hinton hatte seine Kollegen jahrzehntelang aufgefordert, sie ernst zu nehmen. Allerdings hatte er jetzt den Beweis, dass sie andere hochmoderne Techniken schlagen konnten.

Dieses Event von Imagenet 2012 war definitiv der Auslöser für die große KI-Explosion heute.

Sicherlich hatte es kurz zuvor einige vielversprechende Ergebnisse in der Spracherkennung gegeben (viele davon wiederum in Toronto). Aber sie haben öffentlich nicht so viel abgehoben wie dieser ImageNet-Sieg im Jahr 2012 und die Jahre danach.

Die illusorische Fortschrittslücke

Obwohl neuronale Netze und maschinelles Lernen in der Welt der künstlichen Intelligenz und allgemeiner im Technologiesektor insgesamt allgegenwärtig sind, bleibt noch viel zu tun. Obwohl überraschende Fortschritte erzielt wurden, scheint die treibende Kraft, die durch die Branche gefegt ist, versiegt oder zumindest nachgelassen zu haben.

Wieder einmal hat sich die KI nicht in der Lage gezeigt, zumindest bisher sowohl die damit verbundenen Versprechen als auch die enormen Erwartungen, die sie geweckt hatte, vollständig zu erfüllen, ganz zu schweigen von den enormen Investitionen.

Der derzeit dominierende Ansatz zur künstlichen Intelligenz, der genau auf maschinellem Lernen (in seinen verschiedenen Formen) basiert, hat einige Risse gezeigt. Die Erfolge bei Schach, Go, Poker, Videospielen usw. haben diese Methodik verherrlicht.

Versuche, es aus geschlossenen Universen, gut definierten und umschriebenen Umgebungen zu „exportieren“, haben sich jedoch nicht immer als fruchtbar erwiesen und seine Grenzen und Zerbrechlichkeit offenbart. Und so kamen die Schwierigkeiten und Misserfolge.

Marcus und Davis sprechen über die "illusorische Fortschrittslücke", oder das "... den Fortschritt der künstlichen Intelligenz bei einfachen Problemen mit dem Fortschritt bei komplexen Problemen zu verwechseln" (Gary F. Marcus, Ernest Davis, Rebooting AI. Building Artificial Intelligence We Can Vertrauen, 2019)

Die Fehler der KI

Einige der sensationellsten Misserfolge sind im Gesundheitswesen aufgetreten. Bis heute können einige der ehrgeizigsten Programme, die die konkrete Anwendung von KI im Bereich der Forschung und medizinischen Behandlung vorsahen, nicht als erfolgreich bezeichnet werden. In der Tat verbanden sich sowohl die Marke IBM mit Watson als auch Watson Health und noch spezieller mit Watson für die Onkologie, die sich zum Ziel gesetzt hatte, den Krebs in wenigen Jahren zu besiegen; sowohl das von Deep Mind, das auf die Früherkennung von akutem Nierenversagen (AKI) abzielt. Beide haben Rückschläge erlitten, Rückschläge, heftige Kritik, Überläufer.

Die Abkühlung der Investoren

Einige befürchten, dass die Zinsen der Kreditgeber ausbleiben könnten, wenn sich die getätigten Investitionen in den Sektor langfristig nicht rentieren.

Deep Mind beispielsweise hat in den letzten drei Jahren schwere Verluste hinnehmen müssen. IBM seinerseits meldete erst kürzlich einen Umsatzanstieg, nachdem es 22 aufeinanderfolgende Quartale mit Rückgängen gegeben hatte.

Daher wird von vielen Seiten befürchtet, dass ein neuer Winter für künstliche Intelligenz naht. Die Erwartungen, die durch die auch von den Medien geschürte Propaganda geweckt werden, sind offenkundig überzogen. Dies scheint einen neuen Kreislauf von Ernüchterung, Desinteresse und einem drastischen Rückgang der Finanzierung anzukündigen.

Dennoch gibt es einige wesentliche Unterschiede im Vergleich zu früher.

Kommt ein neuer Winter?

Dreyfus schreibt: „Trotz Erklärungen und Prophezeiungen, trotz dessen, was die Massenmedien verkünden oder was uns das Kino zeigt, ist künstliche Intelligenz ein Versprechen und keine vollendete Tatsache“ (Hubert L. Dreyfus, Was Computer nicht können. Die Grenzen der künstliche Intelligenz, Armando 1998).

Heute behält die von Dreyfus vorgebrachte Beobachtung ihre ganze Relevanz, vorausgesetzt, wir beziehen uns auf das ultimative Ziel der KI: dem menschlichen Gehirn so nahe wie möglich zu kommen und es möglicherweise zu übertreffen.

Künstliche Intelligenz hat jedoch viele Anwendungen auf praktischer Ebene gefunden, die jetzt unser tägliches Leben beeinflussen. Wie Tiernan Ray betont:

Der Einsatz von maschinellem Lernen ist keine rein akademische Tätigkeit mehr, sondern gehört nun der Industrie. Und die Industrie findet Wege, Dinge mit maschinellem Lernen zu tun, die nichts mit der Erschaffung eines Geistes zu tun haben.

Dies ist eine erste Konnotation des Andersseins in Bezug auf die Vergangenheit, aber es gibt noch andere. Ray fährt fort:

Es ist aus einem einfachen Grund anders: Künstliche Intelligenz, in ihrer neuesten Inkarnation namens Deep Learning, ist „industrialisiert“ geworden. Zum ersten Mal ist KI Teil der Arbeitsweise von Unternehmen. Dies verleiht ihm einen neuen Wert, jenseits der von den Kritikern hervorgehobenen Mängel.

Die Industrialisierung der KI Aus diesem Grund, wie Gary Marcus bemerkt:

Die Unternehmenswelt mag der künstlichen Intelligenz weniger vertrauen, aber sie kann es sich nicht leisten, ganz darauf zu verzichten.

Auch weil, und das ist ein weiterer Bruch mit der Vergangenheit, die Forschungsförderung nicht mehr zu einem großen Teil vom Staat stammt, sondern privatem Kapital gehört. Und diese zielen bekanntlich in erster Linie auf eine wirtschaftliche Rendite ab.

Trotz einiger ermutigender Anzeichen muss die Rentabilität von Investitionen in künstliche Intelligenz jedoch noch nachgewiesen werden. Die öffentliche Komponente könnte jedoch ihren Vorteil haben, indem sie einen hohen Finanzierungsfluss aufrechterhält. Aktuell verspricht die Prominenz im Bereich der künstlichen Intelligenz einen Vorrang, den keine der Hegemonialmächte aufgeben will.

Ins Hintertreffen zu geraten, kann für jeden fatal sein, egal ob es sich um ein Unternehmen oder einen Staatsbetrieb handelt.

Die Frage nach Big Data

Die Tatsache, aus Daten, allen voran denen ihrer Nutzer, „Werte“ in unterschiedlicher Form extrahieren zu können, garantiert Unternehmen, vom Webgiganten bis zum Start-up, eine Art Zusatznutzen. Hier ist eine weitere Neuheit.

Der Hauptunterschied zwischen diesen Startups und früheren Ären der KI besteht darin, dass sie sich so positioniert haben, dass sie ihre Kundendaten verwenden. Auch wenn diese neuen Start-ups ihre ausdrücklichen Versprechen, alles zu optimieren, nicht einlösen, werden sie durch die Beteiligung an Daten mit am Tisch sitzen. Wie der französische Soziologe Dominique Cardon feststellt:

Data Mining existiert, weil es möglich ist, durch die Analyse der Vielzahl von Daten, die das Leben unserer computerisierten Gesellschaft beschreiben, Wettbewerbsvorteile zu erzielen.

All dies macht die künstliche Intelligenz im Vergleich zu früher in der Unternehmenswelt und in der Gesellschaft als Ganzes viel integrierter und „verankerter“ in der Realität.

Es wird keinen neuen Winter geben

Daher scheint die Summe dieser Elemente einen möglichen neuen, eisigen Winter abzuwehren. Es gibt jedoch einen letzten Faktor, den es zu berücksichtigen gilt: Vertrauen.

Der KI-Winter besteht hauptsächlich aus einem Zusammenbruch der Wahrnehmung gegenüber KI durch Regierungsbürokraten und Risikokapitalgeber. Künstliche Intelligenz braucht heute mehr denn je das Vertrauen verschiedenster Subjekte. Dieses Vertrauen geht weit über die oben genannten hinaus, um eine undeutliche öffentliche Meinung hinzuzufügen.

Es reicht nicht mehr aus, dass die KI (zumindest teilweise) die Versprechen hält, die sie Investoren, Regierungen und den Medien im Allgemeinen gegeben hat. Es braucht das Vertrauen der Nutzer. Das heißt, einfache Benutzer oder Fachleute, die es verwenden oder sogar damit "zusammenarbeiten" müssen.

KI muss „vertrauenswürdig“ sein, über das gesamte Spektrum der semantischen Bedeutung des Begriffs hinweg. So vertrauenswürdig, so zuverlässig und endlich sicher.

Das Risiko besteht darin, dass seine praktische Umsetzung in der Gesellschaft, in der alltäglichen Realität, ganz oder teilweise scheitert. Sollte dies geschehen, müssten die Auswirkungen zwangsläufig Investitionen und Forschung betreffen. An diesem Punkt könnten sich die Türen zu einem neuen, kalten Winter öffnen.

Bewertung