Partagez

Intelligence artificielle entre voyage dans l'espace et voitures électriques : le futur à venir

Les progrès réalisés à ce jour en matière d'intelligence artificielle sont fulgurants. Ils sont autant dans les résultats obtenus que dans la rapidité avec laquelle ils sont atteints - Mais nous pourrions avoir une IA qui est beaucoup, beaucoup plus brillante que l'homme le plus intelligent du monde. Mais ce serait peut-être une situation dangereuse.

Vues sur l'avenir

S'exprimant lors du récent Sommet mondial du gouvernement qui s'est tenu à Dubaï, pour promouvoir les voitures électriques de son entreprise, Elon Musk n'a pas manqué d'aborder des questions disparates, illustrant ce qu'il pense être les problèmes et les défis que l'humanité devra affronter et surmonter d'ici peu. Le millionnaire d'origine sud-africaine, comme à son habitude, a parcouru tout le tableau : des inconnues dérivant du développement de l'intelligence artificielle et des éventuelles répercussions sociales, à la mobilité, aux voyages interplanétaires et, pourquoi pas, même interstellaires, jusqu'à esquisser des scénarios possibles pour l'avenir proche, sans toutefois manquer quelques idées également projetées vers un horizon à moyen et long terme.

Considéré par beaucoup comme un visionnaire, un anticipateur de ce que sera la réalité de demain, un pionnier du voyage spatial (SpaceX), un promoteur de la mobilité électrique (Tesla), un récent promoteur de l'énergie éco-durable (Solar City), si ambitieux, aussi riche qu'il soit, Musk dit qu'il cherche des solutions qui peuvent profiter à l'humanité. Bien que les détracteurs ne manquent pas et que la prudence s'impose, on ne peut lui dénier une brillante intelligence, un regard constamment tourné vers l'avenir et, qu'on le veuille ou non, un certain rôle dans l'imagination et le modelage du destin du monde qu'il venir.

Il vaut donc la peine d'écouter ce qu'il a à nous dire puis, éventuellement, de réfléchir et de s'interroger sur les sujets évoqués, qui sont tout sauf anodins. Ici, j'approfondirai certains des sujets liés à l'intelligence artificielle et je le ferai à partir de quelques phrases extrapolées du discours de Musk.

L'un des problèmes les plus troublants est l'intelligence artificielle… l'intelligence artificielle profonde, ou ce que l'on appelle parfois l'intelligence artificielle générale, où nous pourrions avoir une IA qui est beaucoup, beaucoup plus intelligente que l'homme le plus intelligent sur terre. Je pense que ce serait une situation dangereuse.

Les progrès réalisés à ce jour en matière d'intelligence artificielle sont fulgurants. Ils le sont autant pour les résultats obtenus que pour la rapidité avec laquelle ils sont atteints. Une démarche apparemment imparable et extrêmement rapide, qui accélère de plus en plus au lieu de ralentir. En fait, il tend à suivre une tendance exponentielle, conformément à ce que prescrit la loi de Moore par rapport à l'augmentation des transistors dans les microprocesseurs. Un rythme qui cache en fait des pièges pour notre esprit.

La singularité nous attend en 2047, parole de Masayoshi Son

Le fait est, expliquent Erik Brynjolfsson et Andrew McAfee (The Second Machine Age, 2014), que les progrès dans le domaine de l'intelligence artificielle, bien que constants d'un point de vue mathématique, n'apparaissent pas ordonnés à nos yeux. Les deux auteurs l'illustrent en empruntant une phrase d'Hemingway évoquant la spirale qui mène un homme à la ruine : « graduelle et finalement soudaine ».

Cela signifie que la progression exponentielle enregistre une croissance progressive, initialement presque négligeable, jusqu'à un point où, apparemment, une accélération soudaine se produit et les quantités deviennent incommensurables, voire inimaginables et donc pas du tout gérables.

Autrement dit, en continuant à ce rythme il y aurait un décalage aigu entre la puissance de calcul effective des machines (d'après certains capables d'évoluer au point de leur permettre de s'améliorer de manière autonome et éventuellement de développer leur propre conscience de soi) et la capacité de l'homme à le concevoir, le contenir, le prévoir puis le contrôler. Ce moment de profonde césure prend le nom de Singularité. Bien que la singularité représente encore une conjecture et ne fasse pas l'unanimité, elle décrit une éventualité qui apparaît de plus en plus concrète et malheureusement proche.

Masayoshi Son, PDG de Softbank Robotics, s'exprimant lors du récent Mobile World Congress tenu à Barcelone, a déclaré que d'ici trente ans, le QI enfermé dans un seul microprocesseur sera bien supérieur à celui des plus intelligents d'entre nous. "Toute puce dans nos chaussures dans trente ans sera plus intelligente que notre cerveau. Nous vaudrons moins que nos chaussures."

Son base sa prédiction sur une comparaison entre le nombre de neurones dans notre cerveau et le nombre de transistors sur une puce. Selon ses calculs, en 2018 les transistors feront le fatidique dépassement et les chiffres commenceront à diverger. Dans un temps relativement court, les microprocesseurs individuels vont acquérir un QI estimé à environ 10.000 200, en revanche les esprits les plus brillants de l'histoire de l'humanité atteignent difficilement les 2047. Il va donc falloir se mesurer à ce que Son définit comme la « Superintelligence ». « C'est-à-dire une intelligence qui dépasse l'imagination des gens [peu importe] à quel point on est intelligent. Néanmoins, je suis convaincu que d'ici trente ans tout cela deviendra une réalité». Nous avons donc aussi une date pour l'avènement de la singularité : XNUMX.

Sommes-nous donc proches et destinés à succomber ? Son se dit optimiste et confiant dans un avenir où l'homme et les machines pourront coexister et collaborer. « Je crois que cette super intelligence deviendra notre partenaire. Si nous en abusons, cela posera un risque. Si nous l'utilisons avec des intentions honnêtes [bon esprit], ce sera notre compagnon dans une vie meilleure».

Je pense que nous devons porter une attention particulière à la manière dont l'intelligence artificielle est adoptée… Par conséquent, je pense qu'il est important pour la sécurité publique que nous ayons besoin d'un gouvernement qui surveille de près l'intelligence artificielle et s'assure qu'elle ne présente pas de danger pour la population.

La singularité est une menace très sérieuse pour l'homme

Google a récemment annoncé les résultats d'une recherche menée sur l'IA développée par son DeepMind, qui s'est avérée capable de vaincre avec AlphaGo, en apprenant jeu après jeu (deep learning), d'abord le champion d'Europe de Go et enfin celui du monde. Bien qu'il s'agisse de résultats préliminaires et qu'aucune étude définitive n'ait encore été publiée, les preuves montrent que l'IA avancée serait capable de s'adapter et d'apprendre de l'environnement dans lequel elle opère. De plus, lorsqu'il est acculé et risque de succomber, il choisit d'utiliser des stratégies définies comme "extrêmement agressives" pour pouvoir le gagner. "Les chercheurs suggèrent que plus l'agent est intelligent, plus il est capable d'apprendre de son environnement, pouvant ainsi utiliser des tactiques extrêmement agressives pour s'imposer."

Plusieurs voix faisant autorité ont exprimé leurs craintes qu'une IA particulièrement avancée puisse constituer une menace très concrète. Parmi celles-ci figure celle de Stephen Hawking, qui estime que même la continuité de l'espèce peut être menacée : "Le développement d'une intelligence artificielle complète pourrait signifier la fin de la race humaine".

Hawking, Musk et d'autres personnalités importantes, telles que par exemple. Steve Wozniak et Noam Chomsky, ont signé une lettre ouverte, mettant en garde contre les risques inhérents au développement de systèmes d'armes autonomes et demandant leur interdiction par l'ONU. «La technologie de l'intelligence artificielle a atteint un niveau où le développement d'armes autonomes est – de facto sinon légal – une question d'années, pas de décennies. Et l'enjeu est de taille : les armes autonomes ont été décrites comme la troisième révolution dans l'armement, après la poudre à canon et les armes nucléaires.

L'IA sophistiquée développée par DeepMind a montré non seulement qu'elle sait être agressive pour s'imposer, mais aussi reconnaître et mettre en œuvre, si cela s'avère utile et nécessaire, des stratégies de coopération avec d'autres intelligences artificielles. "… le message est clair, nous opposons différents systèmes d'IA à des intérêts concurrents dans des situations réelles, et une guerre totale pourrait s'ensuivre si leurs objectifs ne sont pas équilibrés par rapport à l'objectif ultime de bénéficier par-dessus tout à nous, les êtres humains". L'énorme complexité déterminée par une intelligence artificielle composée d'innombrables réseaux interconnectés constitue, en soi, un défi qui pourrait s'avérer bien au-delà de la capacité de l'homme à la gouverner.

Les effets secondaires de l'IA

Cependant, avant même qu'une Superintelligence ne se révèle mortelle sur le champ de bataille ou ne décide même de se retourner contre l'humanité, comme le supercalculateur Skynet dans The Terminator, d'autres dangers existent. Il y a quelque temps Musk avait déjà mis en garde contre d'éventuels effets secondaires, mortels ou en tout cas désagréables qui pourraient survenir dans des situations et pour des raisons, si l'on veut, bien plus anodines. Nous devons donc être extrêmement prudents et prudents lors de la programmation de nos appareils intelligents. Une IA mal programmée, dit Musk avec hyperbole, « pourrait conclure que tous les humains malheureux devraient être éliminés. … Ou que nous devrions tous être attrapés et traités avec de la dopamine et de la sérotonine injectées directement dans le cerveau pour maximiser le bonheur, car elle est arrivée à la conclusion que c'est la dopamine et la sérotonine qui induisent le bonheur, donc cela le renforce au maximum. Encore une fois, plus la complexité des systèmes intelligents augmente et la capacité de ces derniers à se connecter et à se mettre en réseau augmente, plus la difficulté de gérer et de prévoir les effets de leur travail devient grande.

Récemment, un grand groupe de scientifiques, de chercheurs et d'entrepreneurs (actuellement 3441), ont signé une lettre ouverte rédigée à l'occasion de la conférence Asilomar 2017, de l'Institut Future of Life, dans le but d'indiquer un ensemble de lignes directrices, y compris éthiques, qui devraient éclairer la recherche dans le domaine de l'intelligence artificielle. Les Asilomar AI Principles, en vingt-trois points, « vont des stratégies de recherche à la protection des données, en passant par les enjeux futurs, y compris une éventuelle super-intelligence ». Le but, encore une fois, est d'essayer d'orienter les progrès de l'IA vers l'intérêt commun et d'assurer un avenir bénéfique à toute l'humanité. "Je ne suis pas un fan de la guerre, et je pense que cela pourrait être extrêmement dangereux... Je pense évidemment que la technologie a un potentiel énorme, et même avec les seules capacités que nous possédons aujourd'hui, il n'est pas difficile d'imaginer comment elle pourrait être utilisée de manière particulièrement préjudiciable", a déclaré Stefano Ermon, du Département d'informatique de l'Université de Stanford, l'un des signataires du document.

Stephen Hawking, également signataire des Asilomar AI Principles, est l'auteur d'un article lucide et sincère paru en décembre dernier dans « The Guardian », au titre significatif : C'est l'ère la plus dangereuse pour notre planète. Le célèbre astrophysicien souligne à quel point l'humanité devra faire face à d'énormes changements sociaux et économiques. Aux effets induits par la mondialisation, l'accroissement des inégalités et la concentration des richesses et des ressources entre les mains de quelques-uns, s'ajouteront « … l'accélération de la transformation technologique ». Comme si cela ne suffisait pas, "Nous sommes confrontés à des défis environnementaux impressionnants : changement climatique, production alimentaire, surpopulation, décimation d'autres espèces, épidémies, acidification des océans".

Toutes ces preuves constituent à la fois un avertissement et une menace imminente. Les conséquences sont claires pour tous : « Ensemble, ils nous rappellent que nous sommes au moment le plus dangereux pour le développement de l'humanité. Nous avons actuellement la technologie pour détruire la planète sur laquelle nous vivons, mais nous n'avons pas encore mûri la possibilité de l'abandonner."

Par conséquent, conclut Hawking, "Pour moi, l'aspect vraiment pertinent de tout cela est qu'aujourd'hui, plus qu'à tout autre moment de notre histoire, notre espèce a besoin de travailler ensemble". Coopérer donc, collaborer, prendre soin de ceux qui sont restés et, plus encore, qui resteront en arrière, réduire les inégalités, unir plutôt que diviser, partager et travailler pour le bien commun, pas dans l'intérêt de quelques-uns. Les progrès de l'intelligence artificielle joueront un rôle majeur dans ce scénario. Elle pourra exacerber les déséquilibres et les inégalités, faire imploser la société telle que nous la connaissons aujourd'hui ou contribuer à aplanir les conflits et les différences.

Apprendre de l'histoire

Les mots de Masayoshi Son reviennent quant à l'avenir de l'IA : « Si nous en abusons, cela constituera un risque. Si nous l'utilisons avec des intentions honnêtes [bon esprit], ce sera notre compagnon dans une vie meilleure». Hawking, malgré tout, est confiant : « Nous pouvons le faire, je suis énormément optimiste pour mon espèce ; mais tout cela demandera aux élites, de Londres à Harvard, de Cambridge à Hollywood, de tirer les leçons de l'année écoulée. Qu'ils apprennent d'abord une pincée d'humilité». Si l'on regarde le passé, les élites n'ont presque jamais brillé par la clairvoyance et encore moins par l'humilité. Cependant, les transformations en cours et le risque potentiel ultime d'une éventuelle extinction nécessitent un changement de direction qui est également dans l'intérêt de quelques-uns qui bénéficient du statu quo. Il ne fait aucun doute que les élites en sont conscientes, mais la vraie question est : en sont-elles aussi intimement conscientes et convaincues ? Après tout, la leçon qui nous vient de l'histoire nous incite à ne pas rester indolents et attardés car, comme Hawking lui-même le reconnaît avec regret, « … avouons-le, c'est surtout l'histoire de la bêtise ».

Passez en revue