comparatilhe

Inteligência artificial entre viagens espaciais e carros elétricos: o futuro que está por vir

O progresso feito até hoje em inteligência artificial é impressionante. Eles estão tanto nos resultados alcançados quanto na velocidade com que são alcançados – mas poderíamos ter uma IA muito, muito mais brilhante do que o homem mais inteligente da Terra. Mas talvez esta seja uma situação perigosa.

Visões sobre o futuro

Falando na recente Cimeira do Governo Mundial, realizada no Dubai, para promover os carros elétricos da sua empresa, Elon Musk não deixou de abordar questões díspares, ilustrando o que acredita serem as questões e desafios que a humanidade terá de enfrentar e ultrapassar a partir daqui em breve. O milionário de origem sul-africana, como sempre, foi de todos os lados: das incógnitas decorrentes do desenvolvimento da inteligência artificial e das possíveis repercussões sociais, à mobilidade, às viagens interplanetárias e, porque não, mesmo interestelares, até ao delineamento de possíveis cenários para um futuro próximo, sem faltar, porém, algumas ideias também projetadas para um horizonte de médio e longo prazo.

Considerado por muitos um visionário, um antecipador do que será a realidade de amanhã, um pioneiro das viagens espaciais (SpaceX), um promotor da mobilidade elétrica (Tesla), um recente defensor da energia ecossustentável (Solar City), tão ambicioso, tão rico como ele é, Musk diz que busca soluções que possam beneficiar a humanidade. Embora não faltem detratores e a prudência seja necessária, não se pode negar a ele uma inteligência brilhante com um olhar constantemente voltado para o futuro e, gostemos ou não, algum papel em imaginar e moldar o destino do mundo que ele irá vir.

Vale, portanto, ouvir o que ele tem a nos dizer e depois, possivelmente, refletir e questionar os temas levantados, que são tudo menos triviais. Aqui vou aprofundar alguns dos tópicos relacionados com a inteligência artificial e fá-lo-ei a partir de algumas frases extrapoladas do discurso de Musk.

Uma das questões mais preocupantes é a inteligência artificial... inteligência artificial profunda, ou o que às vezes é chamado de inteligência artificial geral, onde podemos ter uma IA muito, muito mais inteligente do que o homem mais inteligente do mundo. Acho que seria uma situação perigosa.

O progresso feito até hoje em inteligência artificial é impressionante. São tanto pelos resultados alcançados como pela rapidez com que são alcançados. Um andar aparentemente imparável e extremamente rápido, que acelera cada vez mais ao invés de desacelerar. Na verdade ela tende a seguir uma tendência exponencial, de acordo com o que prescreve a lei de Moore em relação ao aumento de transistores em microprocessadores. Um ritmo que na verdade esconde armadilhas para nossa mente.

A singularidade nos espera em 2047, palavra de Masayoshi Son

O fato é, explicam Erik Brynjolfsson e Andrew McAfee (The Second Machine Age, 2014), que o progresso no campo da inteligência artificial, embora constante do ponto de vista matemático, não aparece ordenado aos nossos olhos. Os dois autores ilustram-no tomando emprestada uma frase de Hemingway referente à espiral que leva o homem à ruína: «gradual e finalmente súbito».

Isso significa que a progressão exponencial registra um crescimento gradual, inicialmente quase desprezível, até um ponto em que, aparentemente, ocorre uma aceleração repentina e as quantidades tornam-se imensuráveis, até mesmo inimagináveis ​​e, portanto, incontroláveis.

Ou seja, continuando nesse ritmo haveria uma discrepância aguda entre o efetivo poder computacional das máquinas (segundo alguns capazes de evoluir a ponto de permitir que elas se aperfeiçoem autonomamente e possivelmente desenvolvam sua própria autoconsciência) e a capacidade do homem de concebê-la, contê-la, predizê-la e então controlá-la. Este momento de profunda cesura leva o nome de Singularidade. Embora a singularidade ainda represente uma conjectura e não reúna consenso unânime, ela descreve uma eventualidade que se mostra cada vez mais concreta e infelizmente próxima.

Masayoshi Son, CEO da Softbank Robotics, falando no recente Mobile World Congress realizado em Barcelona, ​​​​afirmou que dentro de trinta anos o QI encerrado em um único microprocessador será muito superior ao dos mais inteligentes entre nós. “Qualquer chip em nossos sapatos daqui a trinta anos será mais inteligente do que nossos cérebros. Valeremos menos que nossos sapatos."

Son baseia sua previsão em uma comparação entre o número de neurônios em nosso cérebro e o número de transistores em um chip. Segundo seus cálculos, em 2018 os transistores farão a fatídica ultrapassagem e os números começarão a divergir. Em um tempo relativamente curto, microprocessadores individuais irão adquirir um QI estimado em cerca de 10.000, por outro lado, as mentes mais brilhantes da história da humanidade dificilmente chegarão a 200. Teremos, portanto, que nos medir com o que Son define como "Superinteligência". “Isto é, uma inteligência que está além da imaginação das pessoas [não importa] quão inteligente seja. No entanto, estou convencido de que dentro de trinta anos tudo isso se tornará uma realidade». Portanto, também temos uma data para o advento da singularidade: 2047.

Estamos, portanto, próximos e destinados a sucumbir? Son diz estar otimista e confiante em um futuro onde o homem e as máquinas possam coexistir e colaborar. “Acredito que essa superinteligência se tornará nossa parceira. Se abusarmos, isso representará um risco. Se o usarmos com intenções honestas [bons espíritos] será nosso companheiro numa vida melhor».

Acho que precisamos prestar muita atenção em como a inteligência artificial está sendo adotada … Portanto, acho importante para a segurança pública que precisamos de um governo que monitore de perto a inteligência artificial e garanta que ela não represente um perigo para as pessoas.

A singularidade é uma ameaça muito séria para o homem

O Google anunciou recentemente os resultados de uma pesquisa realizada sobre a IA desenvolvida por seu DeepMind, que provou ser capaz de superar com o AlphaGo, aprendendo jogo após jogo (deep learning), primeiro o campeão europeu de Go e finalmente o mundial. Embora esses sejam resultados preliminares e nenhum estudo definitivo tenha sido publicado, as evidências mostram que a IA avançada seria capaz de se adaptar e aprender com o ambiente em que opera. Além disso, quando está encurralado e corre o risco de sucumbir, opta por utilizar estratégias definidas como "extremamente agressivas" para poder vencê-lo. "Os pesquisadores sugerem que quanto mais inteligente o agente, mais capaz ele é de aprender com seu ambiente, podendo assim usar algumas táticas extremamente agressivas para sair por cima."

Várias vozes autorizadas expressaram seus temores de que uma IA particularmente avançada possa representar uma ameaça muito concreta. Entre eles está o de Stephen Hawking, que acredita que até mesmo a continuidade da espécie pode estar em risco: "O desenvolvimento da inteligência artificial completa pode significar o fim da raça humana".

Hawking, Musk e outras personalidades importantes, como por exemplo. Steve Wozniak e Noam Chomsky, assinaram uma carta aberta, alertando sobre os riscos inerentes ao desenvolvimento de sistemas de armas autônomos e pedindo sua proibição pela ONU. «A tecnologia de inteligência artificial atingiu um nível em que o desenvolvimento de armas autônomas é – de fato, se não legal – uma questão de anos, não décadas. E as apostas são altas: as armas autônomas foram descritas como a terceira revolução em armamentos, depois da pólvora e das armas nucleares.

A sofisticada IA ​​desenvolvida pela DeepMind tem demonstrado não só saber ser agressiva para prevalecer, como também reconhecer e implementar, caso se revele útil e necessário, estratégias cooperativas com outras inteligências artificiais. «… a mensagem é clara, colocamos diferentes sistemas de IA contra interesses concorrentes em situações da vida real, e uma guerra total pode ocorrer se seus objetivos não forem equilibrados com o objetivo final de beneficiar acima de tudo os seres humanos”. A enorme complexidade determinada por uma inteligência artificial constituída por inúmeras redes interligadas constitui, por si só, um desafio que poderá revelar-se muito superior à capacidade do homem para a governar.

Os efeitos colaterais da IA

No entanto, mesmo antes de uma Superinteligência se provar letal no campo de batalha ou mesmo decidir se voltar contra a humanidade, como o supercomputador Skynet em O Exterminador do Futuro, outros perigos existem. Algum tempo atrás, Musk já havia alertado sobre possíveis efeitos colaterais, fatais ou, em qualquer caso, desagradáveis ​​​​que poderiam surgir em situações e por motivos, se preferir, muito mais triviais. Portanto, devemos ser extremamente cuidadosos e cautelosos ao programar nossos dispositivos inteligentes. A IA mal programada, diz Musk com hipérbole, “poderia concluir que todos os humanos infelizes deveriam ser eliminados. …Ou que todos nós deveríamos ser pegos e tratados com dopamina e serotonina injetadas diretamente no cérebro para maximizar a felicidade, porque ela chegou à conclusão de que são a dopamina e a serotonina que induzem a felicidade, então a aumentam ao máximo.” Mais uma vez, quanto mais cresce a complexidade dos sistemas inteligentes e aumenta a capacidade destes de se conectar e de se conectar em rede, maior se torna a dificuldade de gerenciar e prever os efeitos de seu trabalho.

Recentemente um alargado grupo de cientistas, investigadores e empresários (actualmente 3441), subscreveu uma carta aberta elaborada por ocasião da conferência Asilomar 2017, do Future of Life Institute, com o objectivo de indicar um conjunto de orientações, incluindo os éticos, que devem informar a pesquisa no campo da inteligência artificial. Os Princípios Asilomar AI, em vinte e três pontos, “vão desde estratégias de pesquisa até proteção de dados, até questões futuras, incluindo uma possível superinteligência”. O objetivo, mais uma vez, é tentar direcionar o progresso da IA ​​para o interesse comum e garantir um futuro benéfico para toda a humanidade. “Não sou um defensor da guerra e acho que pode ser extremamente perigoso… Obviamente, acredito que a tecnologia tem um enorme potencial e, mesmo com apenas as capacidades que possuímos hoje, não é difícil imaginar como ela poderia ser usada em situações particularmente prejudiciais. maneiras”, disse Stefano Ermon, do Departamento de Ciência da Computação da Universidade de Stanford, um dos signatários do documento.

Stephen Hawking, também signatário dos Princípios de Asilomar AI, foi o autor de um artigo lúcido e sincero que apareceu em dezembro passado no “The Guardian”, com o significativo título: Esta é a era mais perigosa para o nosso planeta. O conhecido astrofísico destaca como a humanidade terá que lidar com enormes mudanças sociais e econômicas. Aos efeitos induzidos pela globalização, o aumento das desigualdades e a concentração da riqueza e dos recursos nas mãos de poucos, serão acrescentados «…a aceleração da transformação tecnológica». Como se isso não bastasse, "enfrentamos desafios ambientais impressionantes: mudança climática, produção de alimentos, superpopulação, dizimação de outras espécies, epidemias, acidificação dos oceanos".

Todas essas evidências constituem tanto um aviso quanto uma ameaça iminente. As consequências são claras para todos: «Juntos, eles nos lembram que estamos no momento mais perigoso para o desenvolvimento da humanidade. Atualmente temos tecnologia para destruir o planeta em que vivemos, mas ainda não amadurecemos a possibilidade de abandoná-lo.”

Portanto, conclui Hawking, "Para mim, o aspecto realmente relevante de tudo isso é que hoje, mais do que em qualquer outro momento de nossa história, nossa espécie precisa trabalhar em conjunto". Cooperar, portanto, colaborar, cuidar dos que ficaram e, mais ainda, dos que ficarão para trás, reduzir as desigualdades, unir em vez de dividir, compartilhar e trabalhar pelo bem comum, não pelo interesse de poucos. O avanço da inteligência artificial terá um papel importante nesse cenário. Poderá exacerbar desequilíbrios e desigualdades, implodir a sociedade como a conhecemos hoje ou ajudar a amenizar conflitos e diferenças.

Aprenda com a história

As palavras de Masayoshi Son voltam sobre o futuro da IA: «Se abusarmos dela, será um risco. Se o usarmos com intenções honestas [bons espíritos] será nosso companheiro numa vida melhor». Hawking, apesar de tudo, está confiante: «Podemos fazê-lo, estou enormemente optimista para a minha espécie; mas tudo isso exigirá que as elites, de Londres a Harvard, de Cambridge a Hollywood, aprendam as lições do ano passado. Em primeiro lugar, que aprendam uma pitada de humildade». Se olharmos para o passado, as elites quase nunca brilharam pela clarividência e menos ainda pela humildade. No entanto, as transformações em curso e o derradeiro risco potencial de eventual extinção exigem uma mudança de rumo que também interessa aos poucos que beneficiam do status quo. Não há dúvida de que as elites estão cientes disso, mas a verdadeira questão é: elas também estão intimamente cientes e convencidas disso? Afinal, a lição que nos vem da história exorta-nos a não ficarmos indolentes e demorados porque, como o próprio Hawking reconhece com pesar, «… convenhamos, é sobretudo a história da estupidez».

Comente