Partagez

L'Intelligence Artificielle teste les émotions : sauvez qui peut

A Hong Kong, un logiciel d'intelligence artificielle a été installé dans 84 écoles primaires qui, grâce à la reconnaissance faciale, tente d'analyser les états émotionnels, mais il n'y a pas de quoi s'en réjouir comme l'explique Shira Ovide dans le New York Times.

L'Intelligence Artificielle teste les émotions : sauvez qui peut

Eh bien la Chine

La Chine ne me pose pas de problème particulier. J'adore la cuisine chinoise : ce sont les meilleurs pour cuisiner les légumes. Leur industrie technologique est fabuleuse. Les Chinois achètent beaucoup d'iPhone et l'action Apple monte.

Je crois que l'aspiration de la Chine à voir sa place légitime dans le monde est reconnue. Il a une histoire plus longue que la nôtre. Et je suis aussi convaincu qu'il y a des raisons historiques bien fondées qui poussent les Chinois à ne pas faire confiance aux Occidentaux.

Comme l'écrivait le jeune Marx à propos de Journal rhénan, les Chinois ne pardonneront jamais aux Occidentaux ce qu'ils ont fait pendant les guerres de l'opium à l'ère de l'impérialisme. C'était vraiment odieux. Je dis mais peut-on, sous prétexte de progrès, exporter une drogue avec une diplomatie canon et imposer son usage à des fins commerciales ? C'est ce que les Britanniques et leurs alliés ont fait en Chine entre 1840 et 1860.

Difficile d'oublier surtout pour un peuple fier comme la Chine. Et en fait ça se voit, c'est la Chine qui veut désormais le leadership mondial.

Mauvaise Chine

Maintenant, cependant, la Chine commence à me faire réfléchir. Peut-être qu'il va trop loin. Elle est singulière car le centre de gravité de sa culture est la mesure. Est-ce franchir un Rubicon ?

Cette étape est représentée par la technologie de reconnaissance faciale dont je ne cite qu'un épisode qui me semble emblématique.

A Hong Kong (qui est déjà la Chine) 84 écoles primaires ont installé un logiciel d'intelligence artificielle (disons, pour simplifier) ​​appelé 4 petits arbres (Quatre jeunes arbres). Même le nom est gênant, on dirait un petit chaperon rouge en « salsa algo ».

Quatre jeunes arbres plantés

Ces Quattro Alberelli, à travers la caméra de n'importe quel ordinateur, analysent les états émotionnels exprimés par les visages d'adolescents et de préadolescents qui suivent les cours depuis chez eux.

Dans quel but? L'objectif affiché est de donner aux enseignants des informations complémentaires sur les performances, la concentration et la motivation des élèves.

Je ne pouvais pas savoir si les enfants savaient qu'ils étaient surveillés et analysés ou s'ils avaient été informés de ce qui se passait. Je pense que 90% d'entre eux ne le savent pas. Mais je pense que 100% des parents le savent.

On dira, qu'est-ce qu'il y a d'étrange là-dedans ? En fin de compte, la même chose se passe dans la salle de classe. Un bon enseignant qui travaille sérieusement avec les états émotionnels des enfants devant lui améliore son travail.

D'accord. Mais voulons-nous mettre un idiot d'algorithme avec la personne qui fait le travail le plus important au monde ?

A quoi bon ?

Je dis, mais comment pouvez-vous être si ignorant - juste pour être indulgent avec cette initiative - étant donné l'ambition de l'objectif et la modicité des moyens pour l'atteindre.

Comment un logiciel, fût-il sophistiqué, qui utilise une caméra hors de tout contexte peut-il interpréter correctement la situation émotionnelle et les expressions faciales d'un Hongkongais de douze ans ? Premier point. Il le fait très grossièrement, même si les chefs de projet disent qu'il réussit 80% du temps. Mais supposons que ce soit le cas.

Les élaborations que produit le logiciel, stockées dans le cloud sous forme de rapport, j'imagine, ne sont que la propriété de l'enseignant ou quelqu'un d'autre peut-il également y mettre sa facture ? Qui peut être sûr que le système n'est pas accédé par un appareil indiscret ? Ce n'est pas une hypothèse si improbable, car à Hong Kong, comme on le sait, tout se passe et de fait les citoyens de la grande ville se retrouvent dans un état policier.

En fin de compte, nous parlons d'adolescents, d'âges critiques, d'émotions et de générations futures. Les enjeux sont élevés.

Le Financial Times

La fable des quatre petits arbres a accès à l'imaginaire de la rédaction de Financial Times qui a consacré une page entière du journal intitulée "Les outils d'IA qui tentent de lire dans vos pensées" à la question de la reconnaissance faciale et de ses effets.

Et il est ensuite revenu sur la même question de l'IA émotionnelle avec un éditorial de son directeur. Désormais à la tête de l'organe le plus éclairé (j'ajouterais) du capitalisme avancé (dira Pajetta) se trouve la journaliste anglo-libanaise Roula Khalaf, la première femme à occuper ce poste en 150 ans d'histoire. Est bon Financial Times!

Le rédacteur en chef du journal londonien appelle vigoureusement à la plus grande prudence : "Les ordinateurs ne sont pas ce qu'il y a de mieux pour juger des émotions". Mais oui, il ne faut pas un diplôme de l'Université de Columbia pour dire cela.

Également Shira Ovide, qui édite et rédige le bulletin d'information de sur la technologie, une question encore plus détaillée a été posée "Alexa devrait-elle lire nos humeurs ? ». Voici sa réponse.

Faut-il s'inquiéter?

En fait, la technologie de reconnaissance faciale commence à effrayer non seulement le personnel du Financial Times. Tant qu'il s'agit de déverrouiller l'iPhone, maintenant même avec un masque (mais vous avez besoin d'une AppleWatch, avez-vous pensé !) ou de payer un cappuccino, d'accord.

Mais d'autres applications de la Système de reconnaissance faciale, en particulier ceux qui peuvent être utilisés par les appareils étatiques profonds et les organes de contrôle social, commencent à générer des cauchemars.

Exagéré? Le courage, peut-être, n'est pas si sérieux.

La complexité du métalangage

Laissons un instant de côté la technologie et l'éventuelle utilisation non édifiante de la reconnaissance algorithmique des expressions faciales à des fins de suivi émotionnel.

Je me demande : est-il vraiment possible d'interpréter de manière univoque, et de manière à construire une psychologie, le sens d'une mimique ou la charge émotionnelle d'un ensemble d'expressions faciales dans un contexte faible tel que celui détecté par un caméra dans le cadre d'une relation à distance, comme c'est le cas à Hong Kong ?

Avec l'état actuel de la technologie, c'est discutable. Ne serait-ce qu'en raison de la rareté de la technologie actuelle et de l'ampleur de la tâche.

Comme le souligne à juste titre le Financial Times chaque culture a ses propres expressions faciales, chaque communauté se réfère à un système spécifique de signes émotionnels, chaque tribu a son propre langage corporel. C'est le contexte et le raisonnement qui permettent de les interpréter de manière significative. Deux propriétés que les logiciels actuels ne peuvent pas reproduire.

Le métalangage est une matière si complexe qu'il échappe même aux classifications des humains, et encore moins à un ordinateur.

Wittgenstein et Sraffa

Toute la construction logico-philosophique du premier Wittgenstein a été brisée face à l'incapacité du grand penseur à intégrer dans son schéma un geste malveillant que lui avait suggéré Sraffa lors d'une promenade à Cambridge. Wittgenstein était aussi impitoyablement strict avec lui-même et sa pensée que Sraffa était sophistiqué et détaché (voir la relation avec l'héritage de Gramsci bien étudiée par Salvatore Sechi).

C'est probablement une légende urbaine, mais le fait est qu'à un certain moment, le point de vue de Wittgenstein sur le monde a soudainement changé comme il l'avoue honnêtement dans l'Introduction à Recherches philosophiques.

Une chose qui peut nous réconforter est que les algorithmes aussi, comme le penseur viennois, sont rigoureux et cohérents, à la limite de la folie. Donc, ils ne blufferont pas s'ils n'arrivent pas à avoir ce méfait.

L'indifférent

Comment un système d'algorithmes évaluerait-il la charge émotionnelle d'une figure comme celle du petit employé Meursault à partir des expressions faciales pendant le procès, la peine et l'attente de l'exécution (L'étranger par Luchino Visconti, 1967, sur YouTube gratuit). Il ne savait même pas la raison de ce qu'il avait fait. Il était étranger même à lui-même.

Il en va de même pour Michel dans Voleur à la tire de Robert Bresson (1959, sur Mubi, gratuit 1 semaine). Un personnage qui est là et qui n'est pas.

Comment décoder le visage (glacial) de Paul Newman en Encoche de la main froide (1967, dim. YouTube, location) ou dans le (coquin) Intimidateur )1961, jusqu'à Chili à louer) ou celle de M. Ripley (escroc) dans le Le talent de M. Ripley de Patricia Highsmith, porté au grand écran par Anthony Minghella (1999, sur YouTube, location) ?

Musc et Pise

Ici, nous avons besoin de capteurs cérébraux comme ceux que développe Neuralank, l'un des Moonshot di Elon Musk. C'est quelque chose de très différent de la base de données de silhouettes faciales de Four Saplings !

Et il n'est pas le seul à essayer, l'irrépressible Musk.

Des chercheurs du Centre de recherche Piaggio de l'Université de Pise ont mis au point un robot émotif appelé Abel, semblable en apparence à un adolescent de 12 ans. Il en a aussi parlé TG1 il y a quelques jours en prime time dans un généreux reportage.

Le visage de ce mannequin animé assume différents états mimiques en relation avec l'état émotionnel du spectateur humain, dont il tente d'interpréter les expressions corporelles. Cela ressemble à un gros jouet, mais la technologie matérielle et logicielle sous-jacente est très avancée.

Que les gars de Pise font mieux que les gars de Musk ? Sûrement!

L'IA du futur

Peut-être que les systèmes d'intelligence artificielle de la singularité technologique post seront à la hauteur de la tâche de profiler émotionnellement les gens, comme la série nous le montre bien neXt sur Disney +, malheureusement annulé faute de spectateurs, mais malheureusement un précurseur partant déjà de son hypothèse "On peut tous se faire pirater".

De nos jours c'est bien que la reconnaissance faciale ne reste qu'un "cool" pour déverrouiller l'iPhone ou se payer une brioche, car un usage différent ne ferait qu'engendrer des malentendus, erreurs, abus et autres inconduites douteuses imputables au capitalisme le plus grossier de la surveillance, à la fois privé et étatique.

Que le Quattro Alberelli ne reste que la promesse d'un beau conte de fées ! Pour l'instant, nous n'avons besoin que de cela. Et laissez travailler les gars de Pise qui font moins peur que les arbres chinois et les capteurs de peau d'Elon Musk (pour l'instant uniquement des cochons).

Passez en revue