Condividi

Intelligenza artificiale: nuovo padrone del mondo?

Medicina, trasporti, industria manifatturiera: l’intelligenza artificiale rivoluzionerà la nostra vita tra rischi e opportunità – Ecco un’anticipazione dall’ultimo libro di Stefano da Empoli “Intelligenza
artificiale: ultima chiamata” (Bocconi).

Intelligenza artificiale: nuovo padrone del mondo?

Non sappiamo se abbia ragione Vladimir Putin ad affermare che “chi svilupperà la migliore intelligenza artificiale diventerà il padrone del mondo”. Anzi speriamo di no, visto che nella società libera in cui vorremmo continuare a vivere più che padroni dovrebbero tutt’al più esserci imprese di successo e cittadini-consumatori soddisfatti. È difficile tuttavia trovare un solo settore che l’intelligenza artificiale non trasformerà radicalmente negli anni e nei decenni a venire.

Si pensi ai preziosi contributi che l’AI può dare alla medicina, aiutando i medici a migliorare le diagnosi, a prevedere con molta maggiore precisione e tempestività la diffusione di malattie e a personalizzare le terapie. Stessa enorme potenzialità nel settore dei trasporti, dove l’AI rende possibile la guida senza conducente. O nell’industria manifatturiera, dove sta radicalmente trasformando il lavoro in fabbrica, con l’avvento di robot di nuova generazione, sempre più sofisticati e in grado di svolgere attività ricorrenti, progettare modelli di produzione, fornire livelli superiori di qualità. Nei servizi, l’AI consente alle imprese di rispondere più veloce-mente alle esigenze dei consumatori finali, potenzialmente prima ancora che questi ultimi si rechino in un negozio o clicchino su una app per effettuare un ordine.

La discontinuità di una tecnologia trasversale come l’AI è secondo molti esperti del tutto paragonabile a quella prodotta dall’avvento del motore a vapore che consentì la prima rivoluzione industriale nell’Inghilterra di fine Settecento; dell’elettricità e del motore a scoppio (senza dimenticare il petrolio e la chimica) che determinarono tra la fine dell’Ottocento e l’inizio del Novecento la seconda rivoluzione industriale; e dei computer che gettarono le basi per l’ultimo ciclo di rapido progresso. Insieme e grazie ad altre tecnologie digitali (IoT, 5G, cloud, blockchain ecc.), l’AI sta innestando una quarta rivoluzione (industriale ma non solo, abbracciando tutti i settori produttivi).

Anzi, secondo gli economisti Erik Brynjolfsson e Andrew McAfee, si può addirittura parlare di seconda età delle macchine (saltando dunque le due rivoluzioni intermedie): se la rivoluzione industriale di fine Settecento ha prodotto la prima età delle macchine, permettendo di superare grazie alla macchina a vapore inventata da Watt i limiti della forza basata sui muscoli, umani o animali, questo secondo cambio radicale di paradigma tecnologico ed economico sta consentendo di oltrepassare le colonne d’Ercole rappresentate dalle possibilità del cervello umano affidateci da Madre Natura.

Disciplina tutt’altro che nuova, l’AI è nata negli anni Cinquanta, anticipata però ancor prima negli studi di molti scienziati tra i quali i più celebri al tempo erano soprattutto europei, come John von Neumann e Alan Turing. Il primo a usare l’espressione fu John McCarthy, un giovane matematico statunitense che nel 1956 decise di organizzare un seminario sul tema presso la sua università, il Dartmouth College, nel New Hampshire. Nella richiesta di fondi rivolta alla Rockefeller Foundation il gruppo di lavoro messo in campo da McCarthy affermava profeticamente che “verrà fatto un tentativo per scoprire come si possa fare in modo che le macchine usino il linguaggio, formulino astrazioni e concetti, risolvano tipi di problemi ora riservati agli esseri umani e migliorino sé stesse”.

Meno azzeccata, e più probabilmente un utile espediente per massimizzare le probabilità di successo della domanda di finanziamento, la previsione secondo la quale “pensiamo che un significativo progresso potrà avvenire in uno o più di questi problemi se un gruppo di scienziati vi lavorasse assieme per un’estate”. Da allora di estati ne sono passate più di cinquanta prima che l’AI divenisse realtà, in sempre più numerose applicazioni. E di certo non è bastato un semplice gruppo di scienziati. Oggi gli investimenti annuali in AI nel mondo sono pari ad alcune decine di miliardi di dollari e tutto lascia pensare che saliranno ancora, e di molto, nei prossimi anni.

Ma a determinare l’accelerazione verso la realizzazione del sogno di mezza estate del 1956 sono stati soprattutto due fattori propedeutici al boom di investimenti conosciuto negli ultimi anni. Innanzitutto sono aumentate esponenzialmente le performance dei computer. La Legge di Moore, inizialmente formulata nel 1965 da Gordon Moore, co-fondatore di Intel, indica che la capacità computazionale raddoppia ogni diciotto mesi. Se oggi l’esistenza di questa relazione è messa in discussione da più parti, non si possono negare gli evidenti risvolti ai quali abbiamo assistito nel giro di intervalli temporali relativamente brevi. Per esempio, la stessa potenza computazionale che fino a poco tempo fa veniva affidata a enormi calcolatori, oggi può essere racchiusa in un oggetto della grandezza di un semplice telefonino. O una PlayStation.

Nel 1996, l’ASCI Red, frutto di un cospicuo investimento del governo americano, costato ben 55 milioni di dollari, era il super-computer più potente del mondo, il primo a superare la soglia di 1 teraflop, raggiungendo nel corso dell’anno successivo il record di 1,8 teraflop, stessa potenza di calcolo eguagliata a distanza di soli nove anni dalla PlayStation 3 della Sony. Che però, anziché occupare quasi 200 metri quadrati come l’ASCI Red, si poteva poggiare su un piccolo scaffale ed è stata venduta in molte decine di milioni di esemplari. Dunque la crescita esponenziale della potenza di calcolo ha moltiplicato a dismisura i dispositivi in grado di effettuare operazioni estremamente complesse.

Parallelamente, il processo di digitalizzazione ha permesso di rilevare, trasmettere ed elaborare una quantità enorme di dati, grazie in particolare all’aumento della connettività e alla diminuzione del prezzo dei sensori attraverso i quali può avvenire la raccolta delle informazioni provenienti dal mondo esterno. Lo stock di dati archiviati a livello globale segue una sua Legge di Moore, tanto che le unità di misura disponibili per misurarne la quantità complessiva stanno iniziando a scarseggiare.

Questi due fattori, elevatissima capacità computazionale ed enormi quantità di dati a disposizione, hanno consentito al cosiddetto machine learning, una delle componenti fondamentali dell’AI che permette alle macchine di imparare sulla base dei dati processati, di poter diventare a tutti gli effetti intelligente. Realizzando finalmente le aspettative dei giovani scienziati riuniti nel New Hampshire oltre sessant’anni fa. E incominciando perfino a mettere a dura prova il cosiddetto “paradosso di Moravec”, scienziato canadese esperto di intelligenza artificiale che in un suo libro del 1988 affermava che “è relativamente facile fare in modo che i computer forniscano performance a livello di un adulto in un test di intelligenza o al gioco degli scacchi, ma parlando di percezione o di mobilità è difficile o impossibile dar loro la capacità di un bambino di un anno”.

Dunque, l’assunto di Moravec – e qui sta l’aspetto paradossale – è che un ragionamento anche molto sofisticato richiede una potenza di calcolo decisamente inferiore rispetto a un’attività sensomotoria. Ma, a fronte dell’enorme aumento della capacità computazionale, unito al perfezionamento delle tecniche del machine learning, il paradosso notato da Moravec, pur continuando in parte a sussistere, è messo sempre più in discussione. Come testimoniano i robot via via più sofisticati che le aziende usano nei propri stabilimenti per spostare oggetti (è quello che fa Amazon con i robot KIVA, startup di Boston acquisita dall’azienda di e-commerce nel 2012 per 775 milioni di dollari) o le auto senza guidatore che a livello speri-mentale sono già una realtà consolidata da anni.

Commenta