comparatilhe

Inteligência Artificial testa emoções: salve quem puder

Em Hong Kong, foi instalado em 84 escolas primárias um software de inteligência artificial que, através do reconhecimento facial, tenta analisar estados emocionais, mas não há motivos para regozijo, como explica Shira Ovide no New York Times

Inteligência Artificial testa emoções: salve quem puder

bem china

A China não me causa nenhum problema particular. Eu amo a culinária chinesa: eles são os melhores em cozinhar legumes. Sua indústria de tecnologia é fabulosa. Os chineses compram muitos iPhones e as ações da Apple sobem.

Acredito que a aspiração da China de ver seu lugar de direito no mundo reconhecido é correta. Tem uma história mais longa que a nossa. E também estou convencido de que existem razões históricas bem fundamentadas que levam os chineses a não confiar nos ocidentais.

Como o jovem Marx escreveu sobre Rheinische Zeitung, os chineses nunca perdoarão os ocidentais pelo que fizeram durante as guerras do ópio na era do imperialismo. Foi realmente hediondo. Eu digo, mas podemos, com a desculpa do progresso, exportar uma droga com diplomacia de canhão e impor seu uso para fins comerciais? Foi isso que os britânicos e seus aliados fizeram na China entre 1840 e 1860.

Difícil de esquecer, especialmente para um povo orgulhoso como a China. E de fato mostra, é a China que agora quer a liderança mundial.

China Ruim

Agora, porém, a China está começando a me fazer pensar. Talvez ele esteja indo longe demais. É singular porque o centro de gravidade de sua cultura é a medida. É atravessar um Rubicão?

Esta etapa é representada pela tecnologia de reconhecimento facial da qual menciono apenas um episódio que me parece emblemático.

Em Hong Kong (que já é a China) 84 escolas primárias instalaram um software de inteligência artificial (digamos, para simplificar) chamado 4 arvorezinhas (quatro mudas). Até o nome é embaraçoso, parece um Chapeuzinho Vermelho em “salsa algo”.

Quatro mudas plantadas

Esses Quattro Alberelli, através da câmera de qualquer computador, analisam os estados emocionais expressos nos rostos de adolescentes e pré-adolescentes que acompanham as aulas de casa.

Para qual propósito? O objetivo declarado é fornecer aos professores informações adicionais sobre o desempenho, a concentração e a motivação dos alunos.

Não consegui descobrir se as crianças sabem que estão sendo observadas e analisadas ou se foram informadas sobre o que está acontecendo. Acho que 90% deles não sabem. Mas acho que 100% dos pais sabem disso.

Será dito, o que há de estranho nisso? Em última análise, o mesmo acontece na sala de aula. Um bom professor que trabalha seriamente com os estados emocionais das crianças à sua frente melhora seu trabalho.

Concordar. Mas queremos colocar um idiota de algoritmo com a pessoa que faz o trabalho mais importante do mundo?

O que é bom?

Eu digo, mas como pode ser tão ignorante - apenas para ser indulgente com esta iniciativa - dada a ambição do objetivo e a escassez de meios para alcançá-lo.

Como um software, ainda que sofisticado, que usa uma câmera fora de qualquer contexto, pode interpretar corretamente a situação emocional e as expressões faciais de um adolescente de 80 anos de Hong Kong? Primeiro ponto. Ele faz isso de forma grosseira, embora os gerentes de projeto digam que ele acerta XNUMX% das vezes. Mas vamos supor que seja esse o caso.

As elaborações que o software produz, armazenadas na nuvem em forma de relatório, imagino, são de propriedade apenas do professor ou outra pessoa também pode colocar sua conta nela? Quem pode ter certeza de que o sistema não é acessado por algum aparelho intrometido? Não é uma hipótese tão improvável, porque em Hong Kong, como sabemos, tudo está acontecendo e de fato os cidadãos da cidade grande se encontram vivendo em um estado policial.

Em última análise, estamos falando de adolescentes, idades críticas, emoções e gerações futuras. As apostas são altas.

The Financial Times

A fábula das Quatro Arvorezinhas tem acesso ao imaginário da redação da Financial Times que dedicou uma página inteira do jornal intitulada "As ferramentas de IA que tentam ler sua mente" à questão do reconhecimento facial e seus efeitos.

E então ele voltou à mesma questão da IA ​​emocional com um editorial de seu diretor. Agora à frente do órgão mais esclarecido (eu acrescentaria) do capitalismo avançado (diria Pajetta) está a jornalista anglo-libanesa Roula Khalaf, a primeira mulher a ocupar esse cargo em 150 anos de história. É bom Financial Times!

O editor do jornal londrino apela energicamente à máxima prudência: "Os computadores não são a melhor coisa para julgar as emoções". Mas sim, não é preciso um diploma da Universidade de Columbia para dizer isso.

Também Shira Ovide, que edita e escreve a newsletter da New York Times sobre tecnologia, uma pergunta ainda mais detalhada foi feita "Alexa deve ler nossos humores?”. Aqui está a resposta dele.

Devemos nos preocupar?

De fato, a tecnologia de reconhecimento facial está começando a assustar não só o pessoal do Financial Times. Desde que se trate de desbloquear o iPhone, agora até com máscara (mas precisa de um AppleWatch, achou!) ou pagar um cappuccino, ok.

Mas outras aplicações do Sistema de Reconhecimento Facial, especialmente aquelas que podem ser utilizadas por aparatos de estado profundo e órgãos de controle social, começam a gerar pesadelos.

Exagerado? A coragem, talvez, não seja tão séria.

A complexidade da metalinguagem

Vamos deixar a tecnologia de lado por um momento e o possível uso não edificante do reconhecimento algorítmico de expressões faciais para fins de rastreamento emocional.

Pergunto-me: será mesmo possível interpretar de forma inequívoca, e de forma a construir uma psicologia, o sentido de uma mímica ou a carga emocional de um conjunto de expressões faciais num contexto débil como o detectado por um câmera no contexto de um relacionamento a distância, como é o caso em Hong Kong?

Com o estado atual da tecnologia, é questionável. Até pela escassez da tecnologia atual e pela grandeza da tarefa.

Como bem apontado pelo Financial Times cada cultura tem suas próprias expressões faciais, cada comunidade se refere a um sistema específico de signos emocionais, cada tribo tem sua própria linguagem corporal. É o contexto e o raciocínio que permitem que sejam interpretados de forma significativa. Duas propriedades que o software atual não pode reproduzir.

A metalinguagem é um assunto tão complexo que escapa até mesmo das classificações dos humanos, quanto mais de um computador.

Wittgenstein e Sraffa

Toda a construção lógico-filosófica do primeiro Wittgenstein foi estilhaçada diante da incapacidade do grande pensador de trazer para dentro de seu esquema um gesto malicioso que Sraffa lhe insinuou durante um passeio em Cambridge. Wittgenstein era tão impiedosamente rígido consigo mesmo e com seu pensamento quanto Sraffa era sofisticado e imparcial (ver a relação com o legado de Gramsci bem investigada por salvatore sechi).

Provavelmente é uma lenda urbana, mas o fato é que a certa altura o ponto de vista de Wittgenstein sobre o mundo mudou repentinamente, como ele honestamente admite na Introdução ao pesquisas filosóficas.

Uma coisa que pode nos confortar é que os algoritmos também, como o pensador vienense, são rigorosos e coerentes, beirando a insanidade. Então eles não vão blefar se não vierem para esse mal.

O indiferente

Como um sistema de algoritmos avaliaria a carga emocional de uma figura como a do pequeno funcionário Meursault a partir das expressões faciais durante o julgamento, a sentença e a espera pela execução (O estranho por Luchino Visconti, 1967, em YouTube livre). Ele nem sabia o motivo do que havia feito. Ele era um estranho até para si mesmo.

O mesmo vale para Michel em Batedor de carteiras por Robert Bresson (1959, su Mubi, grátis 1 semana). Um personagem que está lá e que não está.

Como decodificar o rosto (glacial) de Paul Newman em Corte de mão fria (1967, em YouTube, aluguel) ou no (provocador) Valentão )1961, até Pimenta de aluguel) ou do Sr. Ripley (vigarista) no Talento do Sr. Ripley de Patricia Highsmith, levado às telonas por Anthony Minghella (1999, su YouTube, aluguel)?

Almíscar e Pisa

Aqui precisamos de sensores cerebrais como os que a Neuralank está desenvolvendo, um dos Moonshot di Elon Musk. Isso é algo bem diferente do banco de dados de silhuetas faciais do Four Saplings!

E ele não é o único a tentar, o irreprimível Musk.

Alguns pesquisadores do Centro de Pesquisa Piaggio da Universidade de Pisa desenvolveram um robô emotivo chamado Abel, com aparência semelhante a um adolescente de 12 anos. Ele também falou sobre isso TG1 alguns dias atrás em horário nobre em uma reportagem generosa.

O rosto deste manequim animado assume diferentes estados mímicos em relação ao estado emocional do espectador humano, cujas expressões corporais tenta interpretar. Parece um grande brinquedo, mas a tecnologia subjacente de hardware e software é muito avançada.

Que os caras de Pisa se saem melhor que os caras de Musk? Certamente!

A IA do futuro

Talvez os sistemas de inteligência artificial da pós-singularidade tecnológica estejam à altura de traçar o perfil emocional das pessoas, como a série bem nos mostra neXt na Disney +, infelizmente cancelada por falta de espectadores, mas infelizmente uma precursora já partindo do seu pressuposto "Todos podemos ser hackeados".

Hoje em dia é bom que o reconhecimento facial continue sendo apenas um "legal" para desbloquear o iPhone ou pagar um brioche, porque um uso diferente só daria origem a mal-entendidos, erros, abusos e outras faltas questionáveis ​​atribuíveis ao capitalismo mais grosseiro da vigilância, tanto privados como estatais.

Que o Quattro Alberelli permaneça apenas a promessa de um belo conto de fadas! Por enquanto só precisamos disso. E deixem trabalhar os caras de Pisa que são menos assustadores que as árvores chinesas e os sensores de pele de Elon Musk (por enquanto só porcos).

Comente