Condividi

L’Intelligenza artificiale testa le emozioni: si salvi chi può

A Hong Kong hanno installato in 84 scuole elementari un software di intelligenza artificiale che, attraverso il riconoscimento facciale, tenta di analizzare gli stati emozionali, ma non c’è da rallegrarsi come spiega Shira Ovide sul New York Times

L’Intelligenza artificiale testa le emozioni: si salvi chi può

Bene la Cina

La Cina non mi dà particolari problemi. Adoro la cucina dei cinesi: sono i migliori a cucinare le verdure. La loro industria tecnologica è favolosa. I cinesi comprano un sacco di iPhone e il titolo Apple cresce.

Credo che sia giusta l’aspirazione della Cina a vedere riconosciuto il posto che le spetta nel mondo. Ha una storia più lunga della nostra. E sono anche convinto che esistano fondati motivi storici che inducano i cinesi a non fidarsi degli occidentali.

Come scriveva il giovane Marx sulla Rheinische Zeitung, i cinesi non perdoneranno mai agli occidentali quello che hanno fatto durante le guerre dell’oppio nell’era dell’imperialismo. È stato veramente efferato. Dico, ma si può, con la scusa del progresso, esportare uno stupefacente con la diplomazia dei cannoni e imporne l’uso a fini di commercio? Questo è ciò che hanno fatto in Cina gli inglesi e i loro alleati tra il 1840 e il 1860.

Difficile da dimenticare soprattutto per un popolo orgoglioso come quello cinese. E infatti si vede, è la Cina che adesso vuole la leadership mondiale.

Male la Cina

Adesso però la Cina inizia a mettermi qualche pensiero. Forse si sta spingendo troppo avanti. È singolare perché il baricentro della sua cultura è la misura. Che stia attraversando un Rubicone?

Questo passaggio è rappresentato dalla tecnologia del riconoscimento facciale del quale menziono solo un episodio che mi pare emblematico.

A Hong Kong (che è già Cina) 84 scuole elementari hanno installato un software di intelligenza artificiale (diciamo così, per semplificare) denominato 4 Little Trees (Quattro Alberelli). Già il nome è imbarazzante, sembra un Cappuccetto Rosso in “salsa algo”.

Impiantati Quattro Alberelli

Questi Quattro Alberelli, tramite la telecamera di un qualsiasi computer, analizzano gli stati emozionali espressi dai volti degli adolescenti e dei preadolescenti che seguono le lezioni da casa.

A quale scopo? Quello dichiarato è di dare agli insegnanti delle informazioni supplementari sul rendimento, la concentrazione e la motivazione degli alunni.

Non sono riuscito a capire se i ragazzi sanno di essere osservati e analizzati o se sono stati informati su quello che sta accadendo. Credo che il 90% di essi non lo sappia. Ma credo che lo sappia il 100% dei genitori.

Si dirà, che c’è di strano? In fin dei conti lo stesso avviene in classe. Un bravo insegnante che lavori seriamente con gli stati emotivi dei ragazzi che ha di fronte, migliora il suo lavoro.

D’accordo. Ma vogliamo mettere un pirla di algoritmo con la persona che fa il lavoro più importante del mondo?

A che pro?

Dico, ma come si fa ad essere così sprovveduti — giusto per essere clemente con questa iniziativa — visto l’ambizione dell’obiettivo e la pochezza del mezzo per raggiungerlo.

Come può un software, seppur sofisticato, che usa una telecamera fuori da ogni contesto interpretare correttamente la situazione emotiva e la mimica facciale di un dodicenne di Hong Kong? Primo punto. Lo fa con molta approssimazione, anche se i responsabili del progetto dicono che ci azzecca nell’80% dei casi. Ma ipotizziamo che sia così.

Le elaborazioni che il software produce, memorizzate nel cloud nella forma di un report, immagino, sono patrimonio solo dell’insegnante o ci può mettere il becco anche qualcun’altro? Chi può avere la certezza che al sistema non acceda qualche apparato ficcanaso? Non è un’ipotesi così inverosimile, perché ad Hong Kong, come sappiamo, sta succedendo di tutto e di fatto i cittadini della grande città si trovano a vivere in uno stato di polizia.

In fin di conti si parla di adolescenti, di età critiche, di emozioni e di future generazioni. La posta è alta.

Il Financial Times

La favola dei Quattro Alberelli ha accesso la fantasia della redazione del Financial Times che alla questione del riconoscimento facciale e dei suoi effetti ha dedicato un’intera pagina del giornale dal titolo “The AI tools that try to read your mind”.

E sulla stessa questione dell’AI emozionale è poi tornato con un editoriale della sua direttrice. Adesso a capo dell’organo del capitalismo avanzato (direbbe Pajetta) più illuminato (aggiungerei io) c’è la giornalista anglo libanese Roula Khalaf, la prima donna a ricoprire questo incarico in 150 anni di storia. E bravo Financial Times!

La direttrice del quotidiano di Londra invita vigorosamente alla massima cautela: “I computer non sono la cosa migliore per giudicare le emozioni”. Ma sì, non ci vuole una laurea alla Columbia University per dirlo.

Anche Shira Ovide, che cura e scrive la newsletter del New York Times sulla tecnologia, si è fatta una domanda ancora più circostanziata “Should Alexa read our moods?”. Ecco la sua risposta.

Dobbiamo preoccuparci?

In effetti la tecnologia del riconoscimento facciale inizia a fare paura non solo allo staff del Financial Times. Finché si tratta di sbloccare l’iPhone, adesso anche con la mascherina (ma ci vuole l’AppleWatch, ti pareva!) o di pagare il cappuccino, okay.

Ma altre applicazioni del FacialRecognitionSystem, specialmente quelle di cui si possono servire apparati dello stato profondo e organi di controllo sociale, cominciano a generare incubi.

Esagerato? Coraggio, forse, non è così grave.

La complessità del metalinguaggio

Lasciamo da parte un attimo la tecnologia e l’eventuale non edificante uso del riconoscimento algoritmico della mimica facciale a fini di tracciamento emozionale.

Mi chiedo: è proprio possibile interpretare in modo univoco, e tale da costruirci una psicologia, il significato di una mimica o la carica emotiva di un insieme di espressioni facciali in un contesto debole come quello rilevato da una telecamera nell’ambito di una relazione a distanza, come avviene a Hong Kong?

Con lo stato della tecnologia attuale è lecito dubitare. Non foss’altro per la pochezza della tecnologia attuale e l’elevatezza del compito.

Come sottolinea giustamente anche il Financial Times ogni cultura ha la sua mimica, ogni comunità si riferisce a uno specifico sistema di segni emotivi, ogni tribù ha il proprio linguaggio del corpo. È il contesto e il ragionamento che li lascia interpretare in modo significativo. Due proprietà che il software attuale non può riprodurre.

Il metalinguaggio è una faccenda così complessa che sfugge anche alle classificazioni degli umani, figuriamoci a un computer.

Wittgenstein e Sraffa

L’intero costrutto logico-filosofico del primo Wittgenstein andò in frantumi di fronte all’incapacità del grande pensatore di ricondurre all’interno del suo schema un gesto maliziosamente accenatogli da Sraffa durante una passeggiata a Cambridge. Wittgenstein era tanto impietosamente rigoroso con se stesso e il suo pensiero quanto Sraffa era sofisticato e distaccato (vedi il rapporto con l’eredità di Gramsci ben indagato da Salvatore Sechi).

Probabilmente è una leggenda metropolitana, ma sta di fatto che a un certo punto il punto di vista di Wittgenstein sul mondo improvvisamente cambiò come onestamente ammette lui stesso nella Introduzione alle Ricerche filosofiche.

Una cosa che ci può confortare è che anche gli algoritmi, come il pensatore viennese, sono rigorosi e coerenti, al limite dell’insania. Quindi non blefferanno se non arrivano ad avere quella malizia.

Gli indifferenti

Come farebbe un sistema di algoritmi a valutare la carica emotiva di una figura come quella del piccolo impiegato Meursault dalle espressioni facciali durante il processo, la condanna e l’attesa del supplizio (Lo straniero di Luchino Visconti, 1967, su YouTube gratis). Neppure sapeva la ragione di quello che aveva fatto. Era straniero persino a se stesso.

Lo stesso dicasi per Michel in Pickpocket di Robert Bresson (1959, su Mubi, gratis 1 settimana). Un personaggio che c’è e che non c’è.

Come decodificare la faccia (glaciale) di Paul Newman in Nick mano fredda (1967, su YouTube, noleggio) o nello (sfottente) Spaccone )1961, su Chili a noleggio) oppure quella di Mr. Ripley (lestofante) nel Talento di Mr. Ripley di Patricia Highsmith, portato sul grande schermo da Anthony Minghella (1999, su YouTube, noleggio)?

Musk e Pisa

Qui ci vorrebbero dei sensori cerebrali come quelli che sta mettendo a punto la Neuralank, uno dei moonshot di Elon Musk. Si tratta di qualcosa di ben differente dal database delle sagome facciali dei Quattro Alberelli!

E non è il solo a provarci, l’incontenibile Musk.

Alcuni ricercatori del Centro di ricerca Piaggio dell’Università di Pisa hanno messo a punto un robot emotico denominato Abel, simile nell’aspetto a una/un adolescente di 12 anni. Ne ha parlato anche il TG1 qualche giorno fa in prima serata in un generoso servizio.

Il volto di questo manichino animato assume differenti stati mimici in relazione allo stato emotivo dell’astante umano, del quale cerca di interpretare le espressioni corporee. Sembra un giocattolone, ma la tecnologia hardware e software sottostante è molto evoluta.

Che i ragazzi di Pisa facciamo meglio dei ragazzi di Musk? Sicuramente!

L’AI dell’avvenire

Forse i sistemi di intelligenza artificiale della post singolarità tecnologica saranno all’altezza del compito di profilare emotivamente le persone, come ci mostra bene la serie neXt su Disney+, purtroppo cancellata per insufficienza di spettatori, ma malauguratamente precorritrice già a partire dal suo assunto “Tutti possiamo essere hackerati”.

Al giorno d’oggi è bene che il riconoscimento facciale resti solo una “figata” per sbloccare l’iPhone o pagare una brioche, perché un impiego differente darebbe luogo solo a fraintendimenti, errori, abusi e altri discutibili malestri riconducibili al più rozzo capitalismo della sorveglianza, sia privato che di Stato.

Che i Quattro Alberelli restino solo la promessa di una bella fiaba! Per ora abbiamo bisogno solo di quella. E lasciamo lavorare i ragazzi di Pisa che mettono meno paura degli Alberelli dei cinesi e dei sensori sotto pelle (per ora solo dei maiali) di Elon Musk.

Commenta