Condividi

Intelligenza artificiale: tornano le startup, ma con due livelli di governance. E’ un modello praticabile?

Alcune delle principali start-up di AI hanno sostanzialmente un tratto comune che si esplica nell’intreccio tra no-profit e per-profit, tra socialità e redditività e nel bilanciare i due aspetti. OpenAI, Antrophic e Inflection AI hanno tutte una struttura ibrida, duale

Intelligenza artificiale: tornano le startup, ma con due livelli di governance. E’ un modello praticabile?

Come tutte le grandi innovazioni tecnologiche dell’ultimo mezzo secolo, anche la rivoluzione dell’intelligenza artificiale generale è partita dalle start-up. Un tempo erano la Apple, Microsoft, Google, Facebook. Oggi sono OpenAi, Antrophic, Inflection e Mistral, in Europa, solo per citarne alcune delle migliaia che si sono indirizzate verso questa nuova e stupefacente tecnologia.

L’affermazione di Heidegger che le conseguenze della tecnologia sono tutt’altro che tecnologiche appare quanto mai vera di fronte al fenomeno dell’AI. Quest’ultima ha veramente la capacità di aprire un nuovo e anche inquietante capitolo nella storia del nostro pianeta. Gli impatti dell’AI sull’intera società appaiono in prospettiva così enormi che neppure la letteratura di fantascienza ci sa dire dove saremo soltanto tra mezzo secolo.

Quello che sappiamo è che arriverà un momento in cui potremo parlare di singolarità tecnologica cioè di un punto di svolta in cui l’insieme delle capacità, non solo applicative, delle intelligenze artificiali supererà la capacità dell’intelligenza biologica collettiva. Questo stato di cose dà all’AI una connotazione speciale, della quale hanno preso coscienza anche quei gruppi che ne sono l’avanguardia. E tra questi gruppi emerge un evidente dualismo di filosofie generali e operative.

Ottimisti e pessimisti

Da un lato ci sono gli ultra ottimisti (detti boomers e anche zoomers), cioè coloro che hanno una fiducia messianica nella capacità dell’AI di migliorare le condizioni di vita sul pianeta e quindi sono paranoici nel volere accelerare i processi che ne determinano lo sviluppo qualitativo e quantitativo. I boomers abbracciano la visione dell’“effective accelerationism” che sostiene che lo sviluppo dell’AI deve essere accelerato.

Dall’altra ci sono gli ultra pessimisti (detti doomers) che vedono prima di tutto il pericolo che questa tecnologia sfugga al controllo e produca, se lasciata sviluppare in modo selvaggio, conseguenze nefaste tali da annichilire l’umanità. Per questo occorre sottrarre l’AI ai meccanismi spontanei del capitalismo monitorando, limitando e indirizzando il suo sviluppo. Molti nel campo dei “doomer” sono influenzati dall’“effective altruism”, un movimento che ha come principio la massima utilità per la comunità delle iniziative dell’individuo. E questo principio non lo vedono nello scatenamento dell’intelligenza artificiale.

Nel mezzo ai due poli ci stanno i miglioristi che cercano di mediare tra le due ali e vedono nel controllo pubblico consapevole il punto di equilibrio. In questo bailamme, ciò che può confortare uno spaesato osservatore è che, rispetto alla nascita e allo sviluppo di Internet, esiste una maggiore e diffusa consapevolezza, che include anche le avanguardie tecnologiche, nel valutare e tenere di conto delle conseguenze che questi sviluppi possono avere per le società umane e anche per il mondo naturale.

Socialità e redditività

Il dualismo tra zoomers e doomers si riflette anche nella composizione delle strutture societarie delle start-up dell’AI e nel modello di governance dove entrambe le visioni sembrano trovare il loro spazio.
Pur nelle differenti declinazioni, alcune delle principali start-up di AI hanno sostanzialmente un tratto comune che si esplica nell’intreccio tra no-profit e per-profit, tra socialità e redditività e nel bilanciare i due aspetti. Lo scopo sociale è sviluppare un’intelligenza artificiale generale che abbia i tratti della sostenibilità e non sfugga al controllo della collettività.

Chi più chi meno, start-up come OpenAI, Antrophic e Inflection AI hanno tutte una struttura ibrida, duale appunto. Nella prima ha investito in modo consistente Microsoft, la seconda, fondata da fuoriusciti da OpenAI, riceve capitali da Google e Amazon, e la terza, avviata da due tecnologi di vaglia come Reid Hoffman (Linkedin), Mustafa Suleyman (DeepMind), riceve il sostegno di Nvidia. Nessuna di queste grandi società è però azionista delle start-up e neppure siede nel consiglio di amministrazione con un proprio membro con diritto di voto. Il loro statuto societario non lo permette. Vediamo come.

La governance duale

L’entità (cioè la proprietà) che controlla l’attività della start-up non opera con scopi di lucro e il consiglio di amministrazione che la governa non è espressione degli azionisti, ma è composto dai direttori, da un organismo cioè che non risponde sulla base dei risultati economici, bensì risponde sul fatto che le applicazioni di intelligenza artificiale sviluppate siano sostenibili e non danneggino gli interessi della comunità. Paradossalmente questo organismo di governance, come scrive “The Economist”, risponde all’azionista “umanità”.

Si dà però il caso che sviluppare applicazioni di AI generativa richiede un’alta intensità di capitale. Quindi queste start-up, una volta esauriti gli apporti dei fondatori, devono cercare capitali di ventura per reperire le risorse delle quali hanno bisogno. E devono anche ricorrere al mercato dei servizi e del lavoro per proseguire l’attività. Quindi hanno bisogno di una struttura commerciale come qualsiasi altra impresa.

A questo scopo hanno dunque avviato un braccio commerciale di tipo for-profit collegato e controllato dalla struttura non-profit di governance generale. È l’attività di questa sorta di controllata che con i profitti andrà a ripagare gli investitori in modo limitato. La misura di redistribuzione della redditività non dovrà essere superiore a cento volte l’apporto del contributore. Eventuali quote eccedenti tale limite passeranno alla struttura madre, quella non-profit, per essere reimpiegati nello sviluppo dell’AI.

La preminenza del ramo non-profit

In pratica il ramo non-profit si riserva il diritto di reinvestire tutti i profitti eccedenti fino a quando non avrà raggiunto l’obiettivo di creare l’Intelligenza artificiale generale (AGI). E sarà il consiglio di amministrazione a dire quando questo obiettivo è stato raggiunto. E una volta raggiunto, le attività risultanti non sono destinate a generare un ritorno finanziario per i contributori della fase di costruzione dell’AGI.

Il consiglio stesso ha anche la facoltà di aggiungere o rimuovere membri al suo interno, una volta che si ha l’accordo della maggioranza dei direttori. In pratica questo organismo risponde solo a se stesso. Questa struttura di governance è stata progettata per garantire che la start-up possa resistere alle pressioni esterne degli investitori, che potrebbero preferire un profitto a breve e medio termine allo sviluppo di una AGI sicura per il futuro dell’umanità.

È praticabile questo modello?

Durante un evento a Parigi svoltosi il 10 di novembre del 2023 Brad Smith, presidente di Microsoft, ha chiesto agli astanti: “Che cosa vi dà più fiducia? Ottenere la tecnologia da un’organizzazione non profit o da un’azienda a scopo di lucro interamente controllata da un singolo individuo?”.

Allusione evidente a OpenAI, nella quale Microsoft ha investito nelle condizioni di cui sopra, e a Meta di Mark Zuckerberg che ha una propria valida soluzione di AI. Questo accadeva prima del 17 novembre quando il consiglio di amministrazione di OpenAi, con motivazione oscure, ha sfiduciato Salt Altman, sollevandolo dal suo incarico di CEO. Una vera e propria bomba nello stagno che ha fatto sollevare molti dubbi sulla praticabilità dello schema di governance del doppio livello che, comunque, è stato mantenuto anche dopo il reinsediamento di Altman, tre giorni dopo, e l’arrivo di un consiglio di amministrazione nuovo con un solo sopravvissuto dei precedenti sei direttori che vi sedevano. A commento della vicenda l’“Economist” ha scritto: “Per le start-up di AI ovunque potrebbe verificarsi uno spostamento dall’idealismo accademico verso un maggiore pragmatismo commerciale. E per gli utenti della tecnologia, potrebbe, fortunatamente, esserci più concorrenza e più scelte”.

Chi deve fare il lavoro?

L’interrogativo di fondo è il seguente: se la posta in gioco con l’intelligenza artificiale è così alta ed esistenziale, chi deve fare il lavoro per evitare che deragli come il treno di Cassandra Crossing? Scrive ancora l’“Economist”: “Non è del tutto chiaro cosa qualifica un pugno di privati cittadini [i membri del board di OpenAI che hanno licenziato Altman] a rappresentare gli interessi dei restanti 7,9 miliardi di abitanti della Terra…”.

Devono essere i governi a fare questo lavoro, conclude il magazine di Londra. Giusto! Sono in molti a pensare, però, che proprio per la natura dell’Intelligenza artificiale qualcosa d’innovativo dovrà esserci anche nella struttura di governance e di controllo di queste imprese così importanti per la collettività oltreché per gli azionisti. Ci saranno molte altre puntate di questa saga degna del Trono di spade.

Fonti:
AI’s big rift is like a religious schism, says Henry Farrell, “The Economist”, 12 dicembre 2023
Tripp Mickle, Cade Metz, Mike Isaac e Karen Weise, Inside OpenAI’s Crisis Over the Future of Artificial Intelligence, “The New York Times”, 9 dicembre 2023
Cade Metz, Karen Weise, Nico Grant e Mike Isaac, Ego, Fear and Money: How the A.I. Fuse Was Lit, “The New York Times”, 3 dicembre 2023
With Sam Altman’s return, a shift in AI from idealism to pragmatism, “The Economist”, 23 novembre 2023
Inside OpenAI’s weird governance structure, “The Economist”, 21 novembre 2023
The many contradictions of Sam Altman, “The Economist”, 22 novembre 2023
The fallout from the weirdness at OpenAI, “The Economist”, 22 novembre 2023

Commenta