Acțiune

Inteligența artificială între călătoriile în spațiu și mașinile electrice: viitorul care urmează

Progresul înregistrat până în prezent în domeniul inteligenței artificiale este uluitor. Sunt la fel de mult în rezultatele obținute, cât și în viteza cu care sunt obținute – Dar am putea avea o IA care este mult, mult mai strălucitoare decât cel mai deștept om de pe pământ. Dar poate că aceasta ar fi o situație periculoasă.

Vederi asupra viitorului

Vorbind la recentul Summit al Guvernului Mondial desfășurat la Dubai, pentru a promova mașinile electrice ale companiei sale, Elon Musk nu a omis să abordeze probleme disparate, ilustrând ceea ce crede el sunt problemele și provocările pe care omenirea va trebui să le facă față și să le depășească de aici în curând. Milionarul de origine sud-africană a variat, ca de obicei, pe toate planurile: de la necunoscutele care decurg din dezvoltarea inteligenței artificiale și posibilele repercusiuni sociale, la mobilitate, la călătorii interplanetare și, de ce nu, chiar interstelare, până la conturarea unor posibile scenarii. pentru viitorul apropiat, fără a rata însă, unele idei proiectate și spre un orizont pe termen mediu și lung.

Considerat de mulți un vizionar, un anticipator a ceea ce va fi realitatea de mâine, un pionier al călătoriilor în spațiu (SpaceX), un promotor al mobilității electrice (Tesla), un susținător recent al energiei eco-durabile (Solar City), atât de ambițios, pe cât de bogat este, Musk spune că caută soluții care pot aduce beneficii omenirii. Deși nu lipsesc detractorii și prudența este o necesitate, nu se poate nega lui o inteligență strălucită, cu o privire permanent orientată spre viitor și, indiferent dacă-i place sau nu, vreun rol în imaginarea și modelarea destinului lumii pe care o va avea. vino.

Merită așadar să ascultăm ceea ce are de spus și apoi, eventual, să reflectăm și să punem la îndoială subiectele abordate, care sunt orice altceva decât banale. Aici voi aprofunda câteva dintre subiectele legate de inteligența artificială și o voi face plecând de la câteva propoziții extrapolate din discursul lui Musk.

Una dintre cele mai îngrijorătoare probleme este inteligența artificială... inteligența artificială profundă, sau ceea ce se numește uneori inteligență artificială generală, unde am putea avea AI care este mult, mult mai inteligentă decât cel mai inteligent om de pe pământ. Cred că aceasta ar fi o situație periculoasă.

Progresul înregistrat până în prezent în domeniul inteligenței artificiale este uluitor. Sunt atât pentru rezultatele obținute cât și pentru viteza cu care sunt obținute. Un mers aparent de neoprit și extrem de rapid, care accelerează din ce în ce mai mult decât să încetinească. De fapt tinde să urmeze o tendință exponențială, în conformitate cu ceea ce prescrie legea lui Moore în raport cu creșterea tranzistorilor în microprocesoare. Un ritm care ascunde de fapt capcanele minții noastre.

Singularitatea ne așteaptă în 2047, cuvânt al Fiului Masayoshi

Cert este, explică Erik Brynjolfsson și Andrew McAfee (The Second Machine Age, 2014), că progresul în domeniul inteligenței artificiale, deși constant din punct de vedere matematic, nu pare ordonat ochilor noștri. Cei doi autori o ilustrează împrumutând o frază de la Hemingway care se referă la spirala care duce un om la ruină: «treptat și în final brusc».

Aceasta înseamnă că progresia exponențială înregistrează o creștere treptată, inițial aproape neglijabilă, până la un punct în care, aparent, se produce o accelerare bruscă și cantitățile devin incomensurabile, chiar inimaginabile și deci deloc gestionabile.

Cu alte cuvinte, continuând în acest ritm ar exista o discrepanță acută între puterea efectivă de calcul a mașinilor (după unele capabile să evolueze până la punctul de a le permite să se perfecționeze în mod autonom și, eventual, să-și dezvolte propria conștiință de sine) și capacitatea omului de a o concepe, de a o cuprinde, de a o prezice și apoi de a o controla. Acest moment de cezură profundă ia numele de Singularitate. Deși singularitatea reprezintă totuși o presupunere și nu adună un consens unanim, ea descrie o eventualitate care apare din ce în ce mai concretă și din păcate apropiată.

Masayoshi Son, CEO al Softbank Robotics, vorbind la recentul Mobile World Congress desfășurat la Barcelona, ​​a declarat că în treizeci de ani IQ-ul inclus într-un singur microprocesor va fi mult mai mare decât cel al celor mai deștepți dintre noi. „Orice cip din pantofii noștri peste treizeci de ani va fi mai inteligent decât creierul nostru. Vom valora mai puțin decât pantofii noștri.”

Fiul își bazează predicția pe o comparație între numărul de neuroni din creierul nostru și numărul de tranzistori de pe un cip. Conform calculelor sale, în 2018 tranzistorii vor face depășirea fatidică și cifrele vor începe să diverge. Într-un timp relativ scurt, microprocesoarele individuale vor dobândi un IQ estimat la aproximativ 10.000, pe de altă parte cele mai strălucite minți din istoria umanității ajung cu greu la 200. Va trebui, așadar, să ne măsurăm față de ceea ce Son definește drept „Superinteligență”. „Adică, o inteligență care este dincolo de imaginația oamenilor [indiferent] cât de inteligent este unul. Cu toate acestea, sunt convins că în treizeci de ani toate acestea vor deveni realitate”. Prin urmare, avem și o dată pentru apariția singularității: 2047.

Suntem așadar apropiați și destinați să cedem? Son spune că este optimist și încrezător într-un viitor în care omul și mașinile pot coexista și colabora. „Cred că această superinteligență va deveni partenerul nostru. Dacă abuzăm de el, va reprezenta un risc. Dacă îl folosim urmând intenții cinstite [bun spirit], va fi tovarășul nostru într-o viață mai bună”.

Cred că trebuie să acordăm o atenție deosebită modului în care este adoptată inteligența artificială… Prin urmare, cred că este important pentru siguranța publică să avem nevoie de un guvern care monitorizează îndeaproape inteligența artificială și să se asigure că nu reprezintă un pericol pentru oameni.

Singularitatea este o amenințare foarte serioasă pentru om

Google a anunțat recent rezultatele unei cercetări efectuate asupra IA dezvoltată de DeepMind al său, care s-a dovedit a fi capabilă să depășească cu AlphaGo, învățând joc după joc (învățare profundă), mai întâi campionul european Go și în sfârșit pe cel mondial. Deși acestea sunt rezultate preliminare și nu a fost încă publicat niciun studiu definitiv, dovezile arată că IA avansată ar putea să se adapteze și să învețe din mediul în care operează. Mai mult, atunci când este încolțit și riscă să cedeze, alege să folosească strategii definite ca „extrem de agresive” pentru a-l putea câștiga. „Cercetătorii sugerează că, cu cât agentul este mai inteligent, cu atât este mai capabil să învețe din mediul său, putând astfel să folosească niște tactici extrem de agresive pentru a ieși în frunte”.

Mai multe voci cu autoritate și-au exprimat temerile că o IA deosebit de avansată ar putea reprezenta o amenințare foarte concretă. Printre acestea se numără și cea a lui Stephen Hawking, care consideră că chiar și continuitatea speciei poate fi în pericol: „Dezvoltarea inteligenței artificiale depline ar putea însemna sfârșitul rasei umane”.

Hawking, Musk și alte personalități importante, cum ar fi de ex. Steve Wozniak și Noam Chomsky, au semnat o scrisoare deschisă, avertizând despre riscurile inerente dezvoltării sistemelor de arme autonome și cerând interzicerea acestora de către ONU. „Tehnologia inteligenței artificiale a atins un nivel în care dezvoltarea armelor autonome este – de facto dacă nu legală – o chestiune de ani, nu de decenii. Și miza este mare: armele autonome au fost descrise drept a treia revoluție în armament, după praful de pușcă și armele nucleare.

Inteligența artificială sofisticată dezvoltată de DeepMind a arătat nu doar că știe să fie agresivă pentru a se impune, ci și să recunoască și să implementeze, dacă se dovedește util și necesar, strategii de cooperare cu alte inteligențe artificiale. „… mesajul este clar, opunem diferite sisteme AI cu interese concurente în situații din viața reală și ar putea apărea un război total dacă obiectivele lor nu sunt echilibrate cu obiectivul final de a beneficia mai presus de orice altceva, ființele umane”. Complexitatea enormă determinată de o inteligență artificială formată din nenumărate rețele interconectate constituie, în sine, o provocare care s-ar putea dovedi a depăși cu mult capacitatea omului de a o guverna.

Efectele secundare ale AI

Cu toate acestea, chiar înainte ca un Superintelligence să se dovedească letal pe câmpul de luptă sau chiar să decidă să se întoarcă împotriva umanității, precum supercomputerul Skynet din The Terminator, există și alte pericole. Cu ceva timp în urmă Musk avertizase deja despre posibile efecte secundare, fatale sau oricum neplăcute care ar putea apărea în situații și din motive, dacă doriți, mult mai banale. Prin urmare, trebuie să fim extrem de atenți și precauți atunci când ne programăm dispozitivele inteligente. AI prost programat, spune Musk cu hiperbolă, „ar putea concluziona că toți oamenii nefericiți ar trebui eliminați. … Sau că ar trebui să fim cu toții prinși și tratați cu dopamină și serotonină injectate direct în creier pentru a maximiza fericirea, pentru că ea a ajuns la concluzia că dopamina și serotonina sunt cele care induc fericirea, așa că o stimulează în cel mai mare grad.” Din nou, cu cât complexitatea sistemelor inteligente crește și capacitatea acestora de a se conecta și de a rețea crește, cu atât devine mai mare dificultatea de a gestiona și prezice efectele muncii lor.

Recent, un grup mare de oameni de știință, cercetători și antreprenori (în momentul de față 3441), a semnat o scrisoare deschisă întocmită cu ocazia conferinței Asilomar din 2017, a Institutului Future of Life, cu scopul de a indica un set de linii directoare, inclusiv cele etice, pe care ar trebui să le informeze cercetările în domeniul inteligenței artificiale. Principiile Asilomar AI, în douăzeci și trei de puncte, „variază de la strategii de cercetare la protecția datelor, la probleme viitoare, inclusiv o posibilă super-inteligență”. Scopul, încă o dată, este să încercăm să direcționăm progresul AI către interesul comun și să asigurăm un viitor benefic pentru întreaga umanitate. „Nu sunt un susținător al războiului și cred că ar putea fi extrem de periculos... Evident, cred că tehnologia are un potențial enorm și, chiar și doar cu capacitățile pe care le deținem astăzi, nu este greu de imaginat cum ar putea fi folosită în condiții deosebit de dăunătoare. modalități.” a declarat Stefano Ermon, de la Departamentul de Informatică de la Universitatea Stanford, unul dintre semnatarii documentului.

Stephen Hawking, de asemenea semnatar al Asilomar AI Principles, a fost autorul unui articol lucid și sincer, care a apărut în decembrie anul trecut în „The Guardian”, cu titlul semnificativ: Aceasta este cea mai periculoasă eră pentru planeta noastră. Cunoscutul astrofizician subliniază modul în care omenirea va trebui să se confrunte cu schimbări sociale și economice enorme. Efectele induse de globalizare, de creșterea inegalităților și de concentrarea bogăției și a resurselor în mâinile câtorva, li se vor adăuga „... accelerarea transformării tehnologice”. De parcă nu ar fi de ajuns, „Ne confruntăm cu provocări uluitoare de mediu: schimbările climatice, producția de alimente, suprapopularea, decimarea altor specii, epidemii, acidificarea oceanelor”.

Toate aceste dovezi constituie atât un avertisment, cât și o amenințare iminentă. Consecințele sunt clare pentru toți: «Împreună, ne amintesc că ne aflăm în cel mai periculos moment pentru dezvoltarea umanității. În prezent avem tehnologia pentru a distruge planeta pe care trăim, dar încă nu ne-am maturizat posibilitatea de a o abandona.”

Prin urmare, concluzionează Hawking, „Pentru mine, aspectul cu adevărat relevant al tuturor acestor lucruri este că astăzi, mai mult decât în ​​orice alt moment al istoriei noastre, specia noastră are nevoie să lucreze împreună”. Cooperați, așadar, colaborați, aveți grijă de cei care au rămas și, cu atât mai mult, de cei care vor rămâne în urmă, reduceți inegalitățile, mai degrabă uniți decât împărțiți, împărtășiți și lucrați pentru binele comun, nu în interesul câtorva. Progresul în inteligența artificială va juca un rol major în acest scenariu. Va fi capabil să exacerbeze dezechilibrele și inegalitățile, să implode societatea așa cum o cunoaștem astăzi sau să ajute la atenuarea conflictelor și diferențelor.

Învață din istorie

Cuvintele lui Masayoshi Son revin cu privire la viitorul AI: „Dacă abuzăm de ea, va constitui un risc. Dacă îl folosim urmând intenții cinstite [bun spirit], va fi tovarășul nostru într-o viață mai bună”. Hawking, în ciuda tuturor, este încrezător: «Putem face, sunt enorm de optimist pentru specia mea; dar toate acestea vor cere elitelor, de la Londra la Harvard, Cambridge la Hollywood, să învețe lecțiile din ultimul an. În primul rând, să învețe un vârf de smerenie». Dacă ne uităm înapoi la trecut, elitele nu au strălucit aproape niciodată pentru hipermetropie și cu atât mai puțin pentru umilință. Cu toate acestea, transformările în curs și riscul potențial ultim al unei eventuale dispariții necesită o schimbare de direcție care este și în interesul celor puțini care beneficiază de status quo. Nu există nicio îndoială că elitele sunt conștiente de asta, dar adevărata întrebare este: sunt și ele intim conștiente și convinse de asta? La urma urmei, lecția care ne vine din istorie ne îndeamnă să nu rămânem indolenți și să zăbovim pentru că, așa cum recunoaște cu tristețe Hawking însuși, „… să recunoaștem, este în mare parte povestea prostiei”.

cometariu