Partagez

Homme + machine. Le vrai paradigme de l'intelligence artificielle

L'intelligence artificielle peut-elle déclencher la troisième guerre mondiale comme le prétend Elon Musk ? C'est pourquoi nous pouvons aussi être sereins sur l'avenir

Homme + machine. Le vrai paradigme de l'intelligence artificielle

Est-ce déjà Apocalypse maintenant ?

Elon Musk a déclaré que l'intelligence artificielle pouvait déclencher la troisième guerre mondiale. Si le constructeur de la voiture dotée de l'intelligence artificielle la plus avancée et la plus mercurielle de la planète le dit, cela signifie qu'il existe une fondation. Jusqu'à récemment, rares étaient ceux qui se souciaient des conséquences de l'innovation technologique qui faisait un pas furieux. Et nous n'étions qu'au début, nous n'avions encore rien vu.

C'est alors que le discours sur les conséquences de la technologie a commencé à s'infiltrer dans toutes les couches de la société, sauf parmi les technologues convaincus qu'ils sont « en mission pour Dieu ». L'intelligence artificielle est la principale accusée de ce renversement de la perception du public.

En ce qui concerne l'IA, une grande partie de la conversation publique a tendance à se concentrer sur plus que les pertes d'emplois ou que la Chine prend le dessus. Mais aussi et surtout sur la crainte que des machines intelligentes ne conquièrent un jour le monde faisant de l'homme un simple maillon de la chaîne alimentaire. Ce n'est pas ce qui se passe dans le La guerre des mondes par Huxley ?

L'hypothèse implicite est que les humains et les machines sont en concurrence. Un concours qui sera remporté par la machine. A terme, les systèmes intelligents, avec leur vitesse supérieure, leur puissance de traitement et leur résistance à l'usure, finiront par nous remplacer d'abord dans les métiers, puis dans les organisations et enfin dans les décisions.

Il existe une étude économétrique de 2015 du National Bureau of Economic Research, un centre de recherche qui prédit les tendances économiques avec une précision suffisante. Cette étude a tiré cette conclusion des recherches sur le développement de l'intelligence artificielle :

"En l'absence d'une politique budgétaire adéquate qui redistribue des gagnants aux perdants, les voitures intelligentes signifieront plus de pauvreté pour tous à long terme."

Deux conditions qui pour le moment semblent loin d'être venues, voire même imaginées. Mais une chose se passe : une partie importante de la population des pays développés est, en fait, appauvrie. Et nous savons que l'appauvrissement peut avoir des conséquences encore plus brutales que l'intelligence artificielle.

Intelligence additive

Essayons de voir la chose sous un autre angle. Demandons-nous. Et si le fonctionnement homme-machine du pouvoir n'était pas soustractif, mais additif ? C'est la perspective proposée par Paul Daugherty et James Wilson dans leur livre enfin traduit en italien humain + machine. Repenser le travail à l'ère de l'intelligence artificielle, Guérini, 2019, p. 215 (également disponible en ebook en co-édition avec goWare).

Le travail de Daugherty et Wilson n'est pas théorique ou narratif, mais puise ses considérations dans l'expérience de terrain acquise par les deux auteurs. En fait, les deux détiennent des responsabilités principales chez Accenture. Daugherty est directeur de la technologie et de l'innovation, supervisant les projets d'intelligence artificielle et de R&D à l'échelle mondiale. Wilson dirige le département informatique et recherche commerciale.

Accenture est le plus grand cabinet de conseil en management au monde. Il respire le même air que les entreprises, surtout les grandes, pour lesquelles il travaille au coude à coude. Il est difficile d'avoir un observatoire avec une meilleure vision de l'espace où s'opèrent l'innovation et les changements.

Daugherty et Wilson ont mené une analyse observationnelle et des études de cas de 450 organisations sur un échantillon de 1500 et ont identifié un certain nombre de phénomènes pertinents que la recherche quantitative a omis. L'un est le concept de "compétence de fusion": les hommes et les machines forment ensemble de nouveaux types de travail et d'expériences professionnelles.

C'est précisément cette fusion de connaissances et de compétences qui constitue «l'espace fantôme». Fantôme au sens où il est absent du débat polarisant sur le travail qui oppose les hommes aux machines. Et c'est dans cet espace fantôme central que les entreprises de pointe ont réinventé leurs processus de travail, obtenant des améliorations extraordinaires de leurs performances.

l reconversion

Dans sa préface au livre, Paolo Traverso, directeur du FBK ICT Fondazione Bruno Kessler Center, résume très bien la thèse des deux auteurs. Écrit :

Le sens du travail est annoncé dans le titre : l'avenir n'est pas dans les machines en elles-mêmes, aussi intelligentes soient-elles, il n'est pas dans l'automatisation industrielle pure, même poussée au maximum pour remplacer un fort pourcentage des plus routinières. et les composantes à faible créativité de chaque profession. L'avenir de la société, mais aussi du marché et de l'entreprise, c'est en effet là où les machines et les hommes travaillent ensemble, là où les métiers mais aussi les business models seront profondément renouvelés. L'intelligence artificielle ne doit pas remplacer les personnes, leurs compétences, leur créativité, mais elle doit les valoriser, elle doit les augmenter.

Le levier fondamental pour y parvenir réside dans ce que les auteurs appellent la requalification, c'est-à-dire la préparation de millions de personnes de tous âges à travailler avec les nouvelles technologies. Une entreprise titanesque mais incontournable.

Même une technologue repentie comme Arianna Huffington, qui prône désormais la déconnexion, a beaucoup apprécié le travail des deux auteurs qui va in fine dans le sens d'une absorption de la technologie au sein de la condition humaine jusqu'à en faire partie intégrante. Voici comment Huffington le dit à propos du livre :

«Dans Human + Machine, Daugherty et Wilson proposent un modèle du futur dans lequel l'intelligence artificielle améliore notre côté humain. Rempli d'exemples, d'instructions et d'inspiration, le livre est un guide pratique pour comprendre l'intelligence artificielle, ce qu'elle signifie pour nos vies et comment nous pouvons en tirer le meilleur parti."

Ci-dessous, nous fournissons deux brefs extraits du livre de Daugherty et Wilson. Le premier porte sur une brève histoire de l'intelligence artificielle. L'histoire sert toujours à comprendre. Le second, cependant, entre dans le vif du sujet en abordant l'ensemble des constellations technologiques qui composent l'intelligence artificielle aujourd'hui. Essentiellement, l'intelligence artificielle à ce stade de développement est essentiellement un apprentissage en profondeur. Nous pouvons encore le contrôler.

Bonne lecture

. . .

Une brève histoire de l'intelligence artificielle

1956

La technologie motrice derrière l'ère actuelle des processus adaptatifs est l'intelligence artificielle, qui a évolué au cours des deux dernières décennies. Son histoire en bref nous fournira un contexte dans lequel cadrer ses caractéristiques et son potentiel les plus avancés.

Le domaine de l'intelligence artificielle est officiellement né en 1956, lorsqu'un petit groupe d'informaticiens et de chercheurs dirigé par John McCarthy, et qui comprenait Claude Shannon, Marvin Minsky et d'autres, se sont réunis au Dartmouth College pour la première conférence consacrée à la possibilité que la machine l'intelligence peut imiter l'intelligence humaine.

La conférence, essentiellement une séance de remue-méninges prolongée, reposait sur l'hypothèse que chaque aspect de l'apprentissage et de la créativité pouvait être décrit de manière si précise qu'il pouvait devenir un modèle mathématique, donc reproduit par des machines. Les objectifs étaient ambitieux, à commencer par la proposition de conception : "Toute tentative sera faite pour savoir comment rendre une machine capable d'utiliser le langage, la forme, les abstractions et les concepts, de résoudre des types de problèmes actuellement limités aux êtres humains et de s'améliorer" . Bien sûr, ce n'était que le début.

La conférence a immédiatement réussi à réduire le champ et à unifier de nombreuses idées mathématiques tourbillonnant autour du concept d'intelligence artificielle.

Les pionniers

Et dans les décennies qui ont suivi, il a inspiré des domaines de recherche entièrement nouveaux. Par exemple, Minsky, avec Seymour Papert, a écrit ce qui est considéré comme le livre fondamental sur les limites et les possibilités des réseaux de neurones, un type d'intelligence artificielle qui utilise les neurones biologiques comme modèle. D'autres idées telles que les systèmes experts - dans lesquels un ordinateur est doté de profondes réserves de "connaissances" liées à des domaines spécifiques tels que l'architecture ou le diagnostic médical - ou le traitement du langage naturel, la vision par ordinateur et la robotique portable, peuvent également être tracées lors de cet événement.

Parmi les participants à la conférence se trouvait Arthur Samuel, un ingénieur d'IBM qui construisait un programme informatique pour jouer aux dames. Son programme évaluait l'état d'un plateau et calculait les chances qu'une position donnée puisse mener à la victoire.

En 1959, Samuel invente l'expression machine-learning, « apprentissage automatique » : c'est-à-dire ce secteur de recherche qui attribue aux ordinateurs la capacité d'apprendre sans être explicitement programmés. En 1961, son programme d'apprentissage automatique a été utilisé pour vaincre le quatrième plus grand joueur de dames aux États-Unis.

Mais comme Samuel était une personne privée et ne pratiquait pas la politique d'autopromotion, ce n'est qu'à sa retraite d'IBM en 1966 que l'importance de son travail sur l'apprentissage automatique est devenue publique.

Apprentissage automatique

Dans les décennies qui ont suivi la conférence, l'apprentissage automatique est resté obscur alors que l'attention se tournait vers d'autres modèles d'IA. En particulier, les recherches menées dans les années XNUMX et XNUMX se sont concentrées sur une conception de l'intelligence basée sur des symboles physiques et manipulée par des règles logiques. Ces systèmes symboliques, cependant, n'ont pas trouvé de succès dans la pratique, et leur échec a conduit à une période connue sous le nom de "l'hiver de l'intelligence artificielle".

Dans les années 1990, cependant, l'apprentissage automatique a recommencé à prospérer et ses partisans ont adopté les statistiques intégrées et la théorie des probabilités dans leur approche. Dans le même temps, la révolution de l'ordinateur personnel a commencé. Au cours de la prochaine décennie, les systèmes numériques, les capteurs, Internet et les téléphones portables deviendraient monnaie courante, fournissant toutes sortes de données aux experts en apprentissage automatique au fur et à mesure qu'ils développaient leurs systèmes adaptatifs.

Aujourd'hui, nous considérons un programme d'apprentissage automatique comme un constructeur de modèles basé sur un ensemble de données que les ingénieurs et les spécialistes utilisent pour former le système. C'est un contraste frappant avec la programmation informatique traditionnelle. Les algorithmes standards suivaient des chemins prédéterminés mis en mouvement par des instructions statiques ou par du code de programmeur. Un système d'apprentissage automatique, en revanche, peut apprendre pendant qu'il fonctionne. Avec chaque nouvel ensemble de données, il met à jour ses modèles et sa façon de "voir" le monde. À une époque où les machines peuvent apprendre et changer grâce à l'expérience et à l'information, les programmeurs sont devenus de moins en moins des législateurs et des dictateurs, et beaucoup plus comme des enseignants et des entraîneurs.

Aujourd'hui comme aujourd'hui

Aujourd'hui, les systèmes d'intelligence artificielle qui utilisent l'apprentissage automatique sont partout. Les banques les utilisent pour se protéger de la fraude ; les sites de rencontre les utilisent pour suggérer des correspondances potentielles ; les spécialistes du marketing les utilisent pour prédire qui répondra favorablement à une publicité ; et les sites de partage de photos les utilisent pour la reconnaissance automatique des visages. Un long chemin a été parcouru depuis le premier jeu de dames. En 2016, Google AlphaGo a marqué une avancée significative dans le domaine. Pour la première fois, un ordinateur a battu un champion de Go, un jeu beaucoup plus complexe que les dames ou les échecs. Signe des temps, AlphaGo a produit des mouvements si inattendus que certains observateurs les ont qualifiés de créatifs, voire de « beaux ».

La croissance de l'intelligence artificielle et de l'apprentissage automatique a été intermittente au fil des ans, mais la façon dont les deux se sont récemment introduits dans les produits et les opérations commerciales montre qu'ils sont plus que prêts pour un rôle de premier plan. Selon Danny Lange, ancien responsable de l'apprentissage automatique chez Uber, la technologie a enfin quitté les murs des laboratoires de recherche et devient rapidement "la pierre angulaire de cette nouvelle transformation industrielle tumultueuse".

Technologies et applications intelligentes : comment peuvent-elles coexister ?

Voici un glossaire de la constellation de technologies IA dont vous devez être conscient aujourd'hui. Ces technologies correspondent à l'apprentissage automatique, aux capacités d'intelligence artificielle et aux couches d'application, comme indiqué dans la figure ci-dessous.

Composants de l'apprentissage automatique

— Apprentissage automatique (ML). Le domaine de l'informatique qui traite des algorithmes qui apprennent à partir des données et des données font des prédictions sans avoir besoin d'être explicitement programmés. C'est un domaine qui trouve ses racines dans les recherches d'Arthur Samuel d'IBM, qui a inventé le terme en 1959 et a utilisé les principes de l'apprentissage automatique dans ses travaux sur les jeux informatiques. Grâce à l'explosion des données disponibles pour former des algorithmes, l'apprentissage automatique est actuellement utilisé dans des domaines aussi divers que tentaculaires comme la recherche en vision par ordinateur, les enquêtes sur les fraudes, la prévision des prix, le traitement du langage naturel, et bien plus encore.

- Enseignement supervisé. Un type d'apprentissage automatique dans lequel des données pré-classifiées et sélectionnées composées d'exemples d'entrées et de sorties souhaitées sont présentées à un algorithme. Le but de l'algorithme est d'apprendre les règles générales qui relient les entrées aux sorties et d'utiliser ces règles pour prédire les événements futurs à partir des seules données d'entrée.

- Apprentissage non supervisé. L'algorithme n'est pas fourni avec des étiquettes, le laissant seul pour trouver des structures et des modèles d'entrée. L'apprentissage non supervisé peut être une fin en soi (en termes de découverte de modèles cachés dans les données) ou viser quelque chose de spécifique (par exemple, extraire des traits pertinents des données). L'apprentissage non supervisé est moins axé sur la sortie que l'apprentissage supervisé, et plus axé sur l'exploration des données d'entrée et la déduction de structures cachées et de données non marquées.

- Apprentissage semi-supervisé. Utilisez des données étiquetées et non étiquetées - généralement plus des secondes. De nombreux chercheurs ont constaté que la combinaison des deux ensembles de données augmente considérablement la précision du processus d'apprentissage.

- Apprentissage par renforcement. Il s'agit d'un type d'entraînement dans lequel un algorithme se voit attribuer un objectif spécifique, comme faire fonctionner un bras mécanique ou jouer au Go. Chaque mouvement effectué par l'algorithme est récompensé ou puni. La rétroaction permet à l'algorithme de construire le chemin le plus efficace vers l'objectif.

- Réseau de neurones. Type d'apprentissage automatique dans lequel un algorithme, apprenant à partir de données d'observation, traite les informations d'une manière similaire au système nerveux humain. En 1957, Frank Rosenblatt de l'Université Cornell a inventé le premier réseau de neurones, une architecture simple à un seul niveau (appelée réseau de surface).

- Deep learning et sous-ensembles: réseaux de neurones profonds (DNN), réseaux de neurones récurrents (rnn) et réseaux de neurones à anticipation (FNN). Ensemble de techniques d'entraînement d'un réseau de neurones multiniveaux. Dans le dnn, les données "perçues" sont traitées à différents niveaux ; chaque niveau utilise les sorties du précédent comme entrée. Le rnn permet aux données d'aller et venir entre les niveaux, contrairement au fnn, où les données sont à sens unique.

Composants de compétence intelligents

— Système prédictif. Système qui trouve des relations entre des variables dans des ensembles de données historiques avec des résultats associés. Les relations sont utilisées pour développer des modèles, qui à leur tour sont utilisés pour prédire des scénarios futurs.

— Recherche locale (optimisation). Une approche mathématique de la résolution de problèmes qui utilise un large éventail de solutions possibles. L'algorithme recherche la solution optimale à partir d'un point de la série et se déplace itérativement et systématiquement vers les solutions voisines jusqu'à ce qu'il trouve la solution optimale.

— Représentation des connaissances. Domaine de l'intelligence artificielle dédié à la représentation d'informations sur le monde sous une forme que l'ordinateur peut utiliser pour effectuer des tâches, telles que l'établissement d'un diagnostic médical ou la tenue d'une conversation avec une personne.

— Systèmes experts (inférence). Un système qui utilise des connaissances sectorielles (médecine, chimie, droit) combinées à un moteur basé sur des règles qui décide de la manière dont ces connaissances sont appliquées. Le système s'améliore à mesure que de nouvelles informations sont ajoutées ou que les règles sont mises à jour ou augmentées.

- Vision par ordinateur. Un domaine dédié à l'enseignement des ordinateurs pour identifier, catégoriser et comprendre le contenu des images et des vidéos, imitant et mettant en œuvre la vision humaine.

— Traitement des signaux audio. Apprentissage automatique pouvant être utilisé pour analyser les signaux audio et autres signaux numériques, en particulier dans les environnements à forte saturation sonore. Les applications incluent la parole computationnelle et le traitement audio et audiovisuel.

Discours au texte. Réseaux de neurones qui convertissent les signaux audio en signaux textuels dans une variété de langues naturelles. Les applications incluent la traduction, la commande et le contrôle vocaux, la transcription audio et plus encore.

— Traitement du langage naturel (TAL, traitement du langage naturel). Un domaine dans lequel les ordinateurs traitent les langages humains (naturels). Les applications incluent la reconnaissance vocale, la traduction automatique, l'analyse des sentiments.

Composants d'application d'IA

— Agents intelligents. Agents qui interagissent avec les gens par le biais du langage naturel. Ils peuvent être utilisés pour mettre en œuvre le travail humain dans le service client, les ressources humaines, les stages et d'autres domaines de l'entreprise où les demandes de modèles de FAQ sont traitées.

— Robotique collaborative (cobots). Des robots qui fonctionnent à des vitesses plus lentes et sont équipés de capteurs qui permettent une interaction sûre avec des collègues humains.

— Reconnaissance biométrique, faciale et gestuelle. Identifiez des personnes, des gestes ou des tendances dans les mesures biométriques (stress, activité, etc.) à des fins d'interaction homme-machine ou à des fins d'identification et de vérification.

— Automatisation intelligente. Il transfère certaines tâches de l'homme à la machine pour changer radicalement le fonctionnement traditionnel. Par le potentiel et les capacités des machines (vitesse, amplitude, capacité à contourner la complexité), ces outils complètent le travail humain et l'étoffent là où c'est possible.

— Systèmes de recommandation. Ils fournissent des recommandations basées sur des modèles subtils identifiés au fil du temps par des algorithmes. Ils peuvent être ciblés sur les clients pour suggérer de nouveaux produits ou utilisés en interne pour des suggestions stratégiques.

— Produits intelligents. L'intelligence est intégrée dans la conception afin qu'ils puissent constamment évoluer pour répondre et anticiper les besoins et les préférences des clients.

— Personnalisation. Analysez les tendances et les modèles pour les clients et les employés afin d'optimiser les outils et les produits pour les utilisateurs ou les clients individuels.

— Reconnaissance de texte, parole, image et vidéo. Il interprète les données du texte, de la parole, des images et de la vidéo et crée des associations qui peuvent être utilisées pour élargir les activités analytiques et permettre des applications avancées pour l'interaction et la vision.

- Réalité augmentée. Combinez la puissance de l'IA avec les technologies de réalité virtuelle, augmentée et mixte pour ajouter de l'intelligence à la formation, à la maintenance et à d'autres tâches.



Passez en revue