Condividi

Un libro di Franco Bernabè: “Libertà vigilata. Privacy, sicurezza e mercato della rete”

UN LIBRO DI FRANCO BERNABE’ – Per gentile concessione dell’autore pubblichiamo il primo capitolo del saggio di Franco Bernabè, presidente esecutivo di Telecom Italia, “Libertà vigilata. Privacy, sicurezza e mercato della rete” (Editori Laterza, pag.155, 12 euro) che significativamente descrive e analizza i vecchi e nuovi monopoli che utilizzano Internet

Un libro di Franco Bernabè: “Libertà vigilata. Privacy, sicurezza e mercato della rete”

Vecchi e nuovi monopoli: Internet, la bolla e gli “Over-the-top”

La nascita di Internet

Un po’ di storia può tornare utile. Come noto, Internet è stata concepita tra la fine degli anni Cinquanta e gli anni Sessanta, nel pieno della Guerra Fredda. In risposta al lancio dello Sputnik avvenuto nel 1957 e alla opinione sempre più diffusa che le crescenti conoscenze e competenze tecnico-scientifiche dell’Unione Sovietica potessero mettere a rischio le capacità di difesa statunitensi, il Dipartimento della Difesa americana diede vita al progetto Arpa (Advanced Research Projects Agency), con l’obiettivo di restituire agli Stati Uniti la leadership mondiale in campo scientifico e nelle tecnologie applicabili in ambito militare.

Venne così realizzata ARPAnet (dove NET stava per network), una rete concepita per garantire la continuità delle strutture di comando e controllo militari anche in caso di guerra nucleare. Nel 1969 entrarono in funzione i primi quattro “nodi” della neonata rete (University of California Los Angeles, Stanford Research Institute, University of California Santa Barbara, University of Utah): due anni più tardi i nodi erano diventati 15.

Tra la fine degli anni Sessanta e l’inizio degli anni Settanta le tecnologie utilizzate per la realizzazione della rete ARPAnet furono trasferite progressivamente nell’ambito universitario per consentire forme di collaborazione più efficaci. In seguito, tramite il meccanismo delle RFC (Request for Comment), furono introdotti una serie di nuovi protocolli e applicazioni fondamentali: nel 1971 fu proposto il primo FTP (File Transfer Protocol), nel 1973 venne realizzato il primo servizio di email, codificato nella forma attuale nel 1982. I passaggi successivi, all’inizio degli anni Novanta, furono lo sviluppo della tecnologia di condivisione di informazioni in ipertesto e la realizzazione del protocollo HTTP (Hypertext Transfer Protocol) da parte di Sir Timothy John Berners-Lee.

Le tecnologie fino ad allora usate all’interno di ristrette comunità professionali si diffusero presso il pubblico degli utilizzatori di computer soprattutto grazie alla creazione – da parte di Marc Andreessen – del browser Mosaic, poi chiamato Netscape Navigator, che sfruttava le potenzialità del linguaggio HTML per realizzare un’interfaccia semplice e intuitiva nella navigazione.

Il browser della Netscape Communications Corporation è stato considerato per anni l’unico strumento di accesso a Internet fino a rappresentare l’80% del mercato nel 1996. Più o meno nello stesso periodo nasceva il linguaggio di programmazione noto come Java (creato dall’azienda californiana Sun Microsystem) che con le sue applet (letteralmente “applicazioncina”: un programma che prevede una funzione basilare da implementare in contesto più articolato) si rivelava particolarmente adatto per la realizzazione di applicazioni web. Il successo di Java per programmare ed erogare servizi su Internet e di Netscape per accedere alla rete configuravano un nuovo scenario che minacciava il leader incontrastato dei sistemi operativi: Microsoft. L’azienda di Seattle intuì, sia pure in ritardo, l’impatto del browser e del web sulle applicazioni native e decise di lanciare il proprio browser Internet Explorer, che successivamente, insieme alla suite Java, venne integrato nel sistema operativo Windows. In questo modo tutti i computer divennero automaticamente sistemi di accesso a Internet.

La bolla di Internet

Per oltre trent’anni Internet si era indirizzata verso finalità di natura militare e scientifica con limitati obiettivi di carattere commerciale, e aveva assunto una connotazione utopica di servizio al progresso e alla divulgazione della conoscenza. Ma nel corso degli anni Novanta cambiò natura. La diffusione sempre più ampia dell’on-line e le prospettive di crescita dell’economia basata sulla rete crearono le condizioni per una maggiore attenzione da parte della comunità finanziaria, che mise a disposizione di chiunque avesse progetti per lo sviluppo e l’utilizzo di queste nuove tecnologie ingenti risorse finanziarie da investire. Gli ultimi anni del ventesimo secolo diventarono così gli anni della bolla Internet e della cosiddetta new economy, il cui inizio viene fatto risalire alla quotazione sul mercato borsistico NASDAQ di New York di imprese come Netscape e Yahoo, che nei primi giorni di contrattazione raggiunsero valorizzazioni molto elevate.

In un arco di tempo di poco più di sei anni (dal 1996 al 2001) vennero posati milioni di chilometri di dorsali di fibra e centinaia di nuove aziende (o startup) furono quotate in borsa strappando valorizzazioni vertiginose. Nel 1998 due studenti della Stanford University, Larry Page e Sergey Brin, partendo dal lavoro che Page aveva iniziato per sviluppare il dottorato – che non finirà – e a cui Brin darà le fondamenta matematiche, fondarono Google, che in pochi anni sarebbe diventato il primo motore di ricerca al mondo.

Il 1998 è anche l’anno in cui in Europa si apre formalmente il processo di liberalizzazione dei mercati dei servizi di telecomunicazioni di rete fissa, ossia l’anno in cui si insediano le autorità indipendenti di regolamentazione. Ad un contesto di crescita del mondo Internet caratterizzato da un quadro ispirato ai valori del liberismo e del laissez-faire, si contrappone un contesto antitetico per le tradizionali società di telecomunicazioni, in cui le neoistituite autorità di regolamentazione nazionali intervengono in maniera decisa sull’assetto del settore, indirizzandone l’evoluzione verso una riduzione dei prezzi e un trasferimento delle quote di mercato detenute dagli operatori storici a favore dei nuovi entranti.

Fra gli strumenti su cui le autorità di regolamentazione fanno leva con lo scopo di favorire la competizione, l’entrata e il consolidamento di nuovi soggetti, vi sono soprattutto le asimmetrie nei prezzi di terminazione nel traffico sia sulle reti fisse che sulle reti mobili. Il prezzo che il nuovo entrante paga all’operatore storico per terminare una telefonata è significativamente inferiore al prezzo che l’operatore storico paga per la terminazione sulla rete del nuovo entrante. Questa misura, pensata per compensare lo sforzo del nuovo entrante nell’acquisizione dei clienti, diventa la base per l’offerta di accesso a Internet in modalità dial-up: collegandosi al server di accesso a Internet tramite un numero di un operatore alternativo, viene offerto l’accesso ad Internet attraverso una normale telefonata in modalità analogica.

Il compenso minutario che l’operatore storico riconosce all’operatore alternativo garantisce un livello di introiti tale per cui quest’ultimo dispone di una grande flessibilità nella definizione dell’offerta ai clienti finali, giungendo – come nel caso dell’italiana Tiscali – a offrire servizi di accesso ad Internet gratuiti (senza alcun costo aggiuntivo rispetto a quello della telefonata). Il successo dei servizi Internet risulta, in molti casi, inscindibilmente legato alla gratuità dell’offerta. L’immediata transizione da servizi a pagamento a servizi gratuiti rappresenta infatti un processo che accomuna tutte le componenti del sistema Internet nelle sue molteplici sfaccettature:

– il servizio di email sostituisce velocemente il costoso EDI (Electronic Data Interchange) e dopo i primi servizi a pagamento diventa gratuito; 
– il software per l’accesso e la gestione dei servizi diventa gratuito in un breve arco di tempo; 
– l’accesso, grazie alla tariffa di interconnessione asimmetrica, diventa gratuito.

I servizi Internet, insomma, sono sinonimo di gratuità. Per definirne lo spirito si conia il termine FreelosophyLa gratuità si rivela un elemento di continuità anche per una seconda generazione di servizi, quali i servizi di intrattenimento (testi, musica, film e contenuti audiovisivi in generale), di comunicazione personale, di archiviazione dati e di social networking. Lo strumento tecnico è rappresentato dai sistemi di condivisione dei contenuti in modalità Peer-to-peer (anche abbreviato in P2P) che indica la connessione diretta fra i nodi di una rete informatica aggirando la struttura gerarchica di server client, ottenendo così una connessione fra “pari” (peer in inglese).

In realtà anche prima della comparsa dei sistemi Peer-to-peer era possibile registrare un disco, fotocopiare un libro o “masterizzare” un CD di un amico: certo, si infrangevano le regole del copyright, ma la dimensione del fenomeno non intaccava l’industria basata sul diritto d’autore. Con Internet saltano gli schemi: ogni utilizzatore può connettersi con migliaia di altri utilizzatori/amici e scambiare copie digitali di libri, brani musicali, video, senza alcuna differenza qualitativa fra la copia stessa e l’originale. Nel 1999 viene lanciato Napster, un software di file sharing che consente lo scambio di brani musicali in modalità simile al Peer-to-peer.

Utilizzatori e utilizzo crescono esponenzialmente, scatenando la reazione delle case discografiche che denunciano il portale e lo costringono alla chiusura nel 2001. Già in quegli anni i fautori di Napster sostenevano che la chiusura non avrebbe interrotto il fenomeno, in quanto il file sharing libero rappresenta uno dei fondamenti di Internet. La nascita di altri software di connettività Peer-to-peer come KaZaA Media DesktopWinMX ed eMule lo avrebbe dimostrato ben presto.

Dopo il 2000 la bolla inizia a sgonfiarsi. Molte idee e modelli di business entrano in crisi e molte società giovani con business sani si trovano private delle risorse finanziarie necessarie per dare seguito ai loro progetti. Si innesca una fortissima selezione naturale che porta a un consolidamento del settore e al prevalere di web companiesin numero ridotto, ma di dimensioni mondiali.

Gli “Over-the-Top players”

È in questo contesto che esplode il modello di business degli operatori Over-the-Top che utilizzano Internet come un’unica piattaforma indifferenziata e costruiscono i propri servizi “al di sopra” della rete (questo il significato dell’espressione inglese comunemente usata dagli addetti ai lavori). La nascita e l’affermarsi degli Over-the-Top rappresenta uno dei fenomeni sociali, economici e finanziari più importanti del dopoguerra. La possibilità di veicolare i propri servizi sostenendo esclusivamente i costi della connessione e dell’accesso alla big Internet e utilizzando – di fatto – un sistema di distribuzione senza dover riconoscere alcun tipo di compenso al gestore della rete attraverso cui gli utenti finali ricevono il servizio, introduce un elemento di profonda innovazione, un vero mutamento di paradigma che risulterebbe impensabile per qualsiasi altro servizio di rete (ad esempio acqua, energia e gas).

La dimensione globale di un mercato di utenti di Internet in continua crescita e un livello di costi di produzione e distribuzione drasticamente ridimensionato rispetto al passato, permettono ai principali Over-the- Top di generare in tempi brevi ingenti flussi di cassa. Occorre chiedersi, a questo punto, quali siano i fattori principali del successo degli Over-the-Top. Il primo vero fattore abilitante è la crescita di Internet e del numero di utilizzatori: oggi Internet è utilizzata da oltre 4 miliardi di individui, considerando sia la disponibilità di accesso diretto, in casa o in ufficio, sia la disponibilità di accesso indiretto tramite terzi (ad esempio in postazioni pubbliche). Tale crescita risulta attribuibile principalmente ai seguenti fattori:

– i prezzi contenuti: dall’iniziale dial-up essenzialmente gratuito si è passati ai servizi di accesso a banda larga sulle infrastrutture degli operatori di rete fissa e mobile e di tv via cavo, con prezzi in continua discesa grazie anche all’accesa competizione tra operatori;
– le performance crescenti: l’evoluzione delle tecnologie di accesso (xDSL, Cable Modem, Fibra ottica) e gli investimenti degli operatori hanno costantemente incrementato la velocità d’accesso. Secondo Net Index, una delle fonti più accreditate di rilevazione delle velocità, negli ultimi quattro anni la velocità media della connessione nel mondo è triplicata;
– l’evoluzione dei terminali: la trasformazione dei personal computer e la nascita di smartphone e tablet hanno moltiplicato utilizzatori e modalità d’uso della rete.

In breve, Internet ha modificato strutturalmente e irreversibilmente le logiche dell’erogazione dei servizi di comunicazioni. Prima del suo avvento i servizi di comunicazione elettronica potevano essere erogati solo agli utenti raggiunti dall’infrastruttura di proprietà dell’operatore di rete e ad ogni nuovo potenziale cliente erano quindi associati investimenti in termini di sviluppo e gestione delle infrastrutture di rete corrispondenti. Attraverso complessi e lunghi processi di standardizzazione tecnica e organizzativa, di negoziazione economica e di definizione normativa, si è progressivamente consolidato un sistema di interconnessione che ha consentito agli operatori di offrire i servizi anche a utenti non direttamente raggiunti dalle proprie infrastrutture (ad esempio il roaming internazionale o gli operatori virtuali).

Gli Over-the-Top riescono invece a raggiungere con i loro servizi milioni di utilizzatori con investimenti incrementali pressoché nulli. Ma quali servizi offrono gli operatori Over-the-Top? Possiamo individuare alcune categorie principali:
– motori di ricerca; 
– distribuzione dei contenuti digitali e di software;
– commercio elettronico;
– servizi di comunicazione “virtuale”;
– social network.

Vediamo di che cosa si tratta.

Motori di ricerca.

Uno dei primi modelli Over-the-Top è costituito dai motori di ricerca (data searching). Il principale attore del segmento dei data searching è Google. Ma ce ne sono anche altri, quali Yahoo, Bing o il cinese Baidu, che hanno parecchio seguito. Oltre ai motori di ricerca generalisti (Google, Yahoo, Bing, Altavista, Excite, Lycos, Baidu…) esiste un ecosistema di data searching specializzati in specifiche tematiche, quali blog, libri, business, contabilità, imprese, giochi, risorse umane, mappe, salute, multimedia, notizie, vendita e affitto case, scienze, shopping e possibilmente qualsiasi argomento che possa riscuotere interesse. A queste realtà che restringono il proprio campo di azione ad ambiti particolari si affiancano gli strumenti utilizzati dai rivenditori on-line, tipo Amazon o Expedia, che ricorrono a motori di ricerca “interni” per aiutare la propria clientela a orientarsi nella loro sterminata offerta.

Vi è infine una terza sottocategoria, quella dei cosiddetti aggregatori dei motori di ricerca (o metasearch engines) che utilizzano i risultati di più motori di ricerca e li integrano presentandoli in un’unica risposta. È importante sottolineare che alcuni motori di ricerca, come Duck Duck Go, stanno riscuotendo interesse in quanto non raccolgono informazioni sulle ricerche effettuate da parte degli utenti. Ma su cosa si basa il funzionamento dei motori di ricerca? Essenzialmente su due aspetti: la disponibilità di una “copia” di tutto ciò che è disponibile in rete, unita ad un’approfondita conoscenza dell’oggetto della ricerca (cosa gli utenti cercano) e delle modalità di ricerca (come gli utenti cercano). L’efficacia di un motore di ricerca dipende in massima parte proprio da questa conoscenza, costruita attraverso l’osservazione, la raccolta e l’elaborazione dei milioni di ricerche effettuate quotidianamente dagli utenti.

Un elemento, questo, che presenta un forte effetto scala in grado di autoalimentarsi: quanto più cresce il numero di ricerche, tanto più migliora l’accuratezza delle risposte fornite in quanto il motore di ricerca “impara” e diventa più bravo” ad ogni ulteriore ricerca. La maggiore accuratezza delle risposte stimola a sua volta un utilizzo più intenso da parte di un numero sempre più ampio di utenti determinando un miglioramento ulteriore dell’accuratezza delle risposte, e così via. Google è stato il primo sito ad infrangere la barriera del miliardo di visitatori unici al mese, e sono proprio i tre miliardi circa di ricerche quotidiane che gli consentono di perfezionarsi costantemente. Basti pensare che gli algoritmi che determinano il ranking (“classificazione”) delle risposte sono anch’essi rivisitati e migliorati con cadenza giornaliera!

Il primo solido modello di business che si afferma partendo dai data searching è quello della monetizzazione dell’audience in termini pubblicitari. Si tratta di un modello noto, realizzato dalle televisioni commerciali, in cui sono i ricavi pubblicitari a retribuire il servizio che viene erogato gratis ai clienti. Tutti i siti – qualunque sia la loro natura – puntano sui ricavi derivanti dalla pubblicità, ma Google riesce ad intercettare oltre il 45% dei ricavi mondiali della pubblicità su Internet grazie alla sua audience e alla conoscenza degli utilizzatori del suo motore di ricerca. Ma vediamo da dove nasce questa profonda conoscenza, che rappresenta il vero driver (o “determinante”) di ricavi e margini del gruppo con sede a Mountain View, soffermandoci in particolare sul tema della raccolta dei dati e della profilazione della clientela.

Per migliorare l’accuratezza delle risposte i motori di ricerca non si limitano ad utilizzare le ricerche precedenti, ma tentano anche di individuare che tipo di persona sia l’utente che effettua la ricerca e di conoscerne le sue esigenze. Questo perché l’attinenza e la correttezza delle risposte fornite hanno una forte componente soggettiva e sono legate alle caratteristiche dell’utente. Chiariamo con un esempio: l’attinenza delle risposta del motore di ricerca alla parola “Ibiza” dipende da quanto e da cosa si conosce dell’utente che sta effettuando la ricerca e, più in particolare, se quest’ultimo ha in programma di cambiare auto oppure sta cercando una località in cui passare una vacanza. Questo semplice esempio, in cui la parola chiave digitata ha diversi significati, dimostra come le risposte possano risultano soddisfacenti e pertinenti alle esigenze di una determinata categoria di utenti, ma non ad altre classi di utenti.

Quanto appena illustrato rappresenta la principale argomentazione utilizzata da parte dei motori di ricerca per giustificare l’attività di identificazione e profilazione che essi svolgono con assoluta continuità, dettaglio e accuratezza. In realtà è ben noto che i motori di ricerca, come pure molti altri soggetti Over-the-Top, ricorrono a questo tipo di attività, non solo per ottimizzare i propri servizi, ma anche e soprattutto per fini di natura commerciale. Il “monitoraggio” costante delle ricerche effettuate dagli utenti e delle pagine conseguentemente visitate permette infatti di acquisire una conoscenza approfondita sia di ciò che l’utente abitualmente cerca, sia delle sue preferenze, delle sue “abitudini” digitali e quindi di accrescere il valore del messaggio pubblicitario. Ma è proprio la “monetizzazione” dell’informazione raccolta, con le sue ripercussioni di natura etica, economica e anche di tutela del diritto alla riservatezza dell’individuo, a rappresentare un tema cruciale che affronteremo nei prossimi capitoli.

Distribuzione dei contenuti digitali e di software.

Questo modello di business Over-the-Top riguarda la distribuzione di software, applicazioni e contenuti digitali. Qui la rete funge essenzialmente da veicolo attraverso cui il servizio viene proposto e consegnato al cliente. Abbiamo parlato in precedenza del Peer-to-peer, ma sono diversi i soggetti che utilizzano la rete per produrre e distribuire contenuti digitali con modelli di business differenti. I più rilevanti sono sicuramente iTunes di Apple per musica, video e applicazioni, Amazon per libri e giornali e Google con YouTube per contenuti video. Uno dei contenuti che meglio si presta alla distribuzione digitale è proprio il software, e questo genera i cosiddetti Application Stores: App Store è il canale ufficiale della Apple per le applicazioni iOS per dispositivi mobile e personal computer, Amazon Appstore e Google Play distribuiscono applicazioni per apparecchi con sistema Android e Mac App Store distribuisce software per Mac OS X.

Questi servizi raccolgono l’interesse di specifiche “nicchie” di clientela e la loro sostenibilità economica è legata alla dimensione globale del mercato, a strutture di produzione e distribuzione molto snelle e ad un livello di qualità del servizio e assistenza al cliente in alcuni casi non adeguato. I soggetti che commercializzano le applicazioni (titolari degli Appstores) tendono a demandare agli sviluppatori delle Apps sia le verifiche di compatibilità rispetto alle specifiche della piattaforma su cui operano, sia le garanzie sul corretto funzionamento del servizi. Il ruolo delle Appstores somiglia in qualche modo a quello di un supermercato che non si preoccupa di certificare la qualità dei prodotti messi in vendita. In questo caso, però, la qualità è garantita dalla reputazione del singolo marchio e dal fatto che il prodotto è a sua volta certificato da una serie di leggi, norme e regolamenti che ne specificano la provenienza, la composizione, gli eventuali rischi o le limitazioni d’uso.

In altre parole, per i prodotti in vendita in qualsiasi esercizio commerciale esiste una garanzia implicita derivante da norme pubbliche sulle caratteristiche di base dei prodotti, la quale consente al consumatore di fare le sue scelte solo in base all’attrattività della specifica offerta commerciale di ciascun produttore. Nei supermercati dei servizi digitali, gli Appstores, tutto ciò non avviene: non sono – in genere – rinvenibili né garanzie direttamente riconducibili al produttore (ossia allo sviluppatore dell’applicazione), né tantomeno garanzie rappresentate da norme o leggi che impongano determinati livelli di affidabilità dei prodotti commercializzati. Nel mondo degli Appstores la garanzia sul funzionamento di un’applicazione è data esclusivamente dalla reputazione dello sviluppatore, di solito ricavabile soltanto tramite il meccanismo delle “raccomandazioni” e dei giudizi di altri utilizzatori. La qualità non garantita è tipica di questo mondo: la maggior parte degli sviluppatori, infatti, persino quelli più blasonati, per attirare l’interesse e far conoscere un determinato servizio usano spesso il meccanismo della prima offerta gratuita, con funzionalità ridotte e senza garanzie di qualità.

Una volta catturato l’interesse del consumatore, fa seguito il lancio sul mercato – anche da parte di imprese differenti da quella che aveva inizialmente introdotto il servizio – di una seconda versione “premium” (a pagamento) del medesimo prodotto che, pur continuando a non fornire garanzie specifiche né in termini di servizio né di assistenza alla clientela, offre comunque una maggiore qualità (ad esempio un maggior numero di funzioni), migliori prestazioni o semplicemente limita la numerosità e l’intrusività dei contenuti pubblicitari.

Commercio elettronico.

Una delle evoluzioni più interessanti dei modelli di business degli Over-the-Top è rappresentata dall’eCommerce. La facilità con cui si compra in rete un bene digitale viene estesa ai beni fisici con la creazione di marketplaces (generici o di nicchia) in cui aziende e privati vendono e comprano prodotti di qualsiasi tipo e il gestore della piazza virtuale trattiene un margine minimo per la transazione. È questo il modello con cui si sono sviluppati prima eBay e poi Amazon. Si stima che nel 2011 siano stati venduti on-line beni per 680 miliardi di dollari. In questo specifico settore si sono affermati Amazon (con oltre il 20% delle transazioni) ed eBay (con il 16%). Al terzo posto, e in forte crescita, si colloca l’operatore cinese Alibaba con circa il 14%.

Servizi di comunicazione “virtuale”.

Si tratta dei servizi che mettono in comunicazione due personal computer o qualsiasi altro tipo di apparato elettronico e consentono il trasporto da un estremo all’altro di informazioni di varia natura (voce, testo, immagini, suoni, filmati). A seconda che si tratti di voce o di testo, il servizio assume nomi differenti (fonia, instant messaging, ecc.) Nei servizi di comunicazione degli Over-the-Top, il fornitore e il fruitore del servizio utilizzano le infrastrutture di rete o ISP (Internet Service Provider, fornitore del servizio di accesso a Internet) senza che questo generi alcun ricavo aggiuntivo, oltre al canone d’accesso, per l’operatore proprietario dell’infrastruttura. I servizi di accesso a Internet non prevedono, in genere, limiti di utilizzo, oppure hanno limiti molto elevati rispetto ai consumi dei servizi di comunicazione, sicché i servizi di connettività virtuale non comportano per l’utente alcun costo aggiuntivo rispetto al canone mensile di abbonamento. 

I servizi di questo tipo più diffusi sono Skype – con 250 milioni di utilizzatori mensili rilevati a marzo 2011 – e Viber, rispettivamente per i servizi di telefonia fissa e mobile; WhatsApp per invio e ricezione di messaggi di testo o audio, immagini e filmati; Tango e Facetime per le videochiamate; Vtok per videochat; Messenger per servizi di chat e altre applicazioni (ad esempio fring) che, a differenza di Skype e Viber, consentono di mettere in comunicazione anche utenti che utilizzano applicazioni differenti. Per avere un’idea della dimensione di questo tipo di fenomeni si possono confrontare i volumi di traffico sviluppati da uno di questi soggetti con quelli prodotti da un operatore di telecomunicazioni tradizionali. I volumi di traffico gestiti da Skype in un trimestre (119 miliardi di minuti nel secondo trimestre del 2012) sono superiori a quelli complessivamente sviluppati in Italia in un anno (84 miliardi di minuti). I servizi di comunicazione degli Over-the-Top, inizialmente limitati alla messaggistica, stanno progressivamente indirizzandosi verso l’offerta di servizi evoluti e innovativi come, ad esempio, servizi di videoconferenza in grado di mettere in comunicazione simultanea più di due utenti.

Social network.

A questo segmento appartengono gli Over-the-Top più conosciuti e di maggior successo. Il più grande social network è Facebook, il cui nome viene spesso utilizzato come sinonimo dell’intera categoria. Facebook è presente in tutto il mondo, anche se in alcune aree geografiche – Giappone, Sud America e Cina – è meno diffuso. I social network, che inizialmente si proponevano come sistemi di relazione, stanno diventando dei veri e propri facilitatori delle attività commerciali, ovvero dei mercati virtuali in cui domanda e offerta si incontrano. Per le imprese, infatti, essi fungono da aggregatori di individui e di interessi (gruppi di persone con il medesimo hobby, tifosi di una squadra di calcio, fan di un cantante, di un marchio, di uno stilista ecc.), a cui risulta facile offrire servizi e prodotti in linea con le loro preferenze e abitudini di consumo.

I nuovi monopoli.

È interessante notare come i grandi Over-the-Top stiano creando sistemi chiusi integrati verticalmente dal terminale ai sistemi operativi, alle infrastrutture IT (Information technology), ai servizi, partendo dal proprio specifico business: – Apple: partendo dalla user experience è riuscita a costruire un mondo chiuso di terminali, sistemi operativi, cloud, contenuti e servizi. Il 90% dei suoi ricavi è legato alla vendita di terminali. – Google: partendo dal motore di ricerca e dal suo modello di business basato sulla pubblicità, ha sviluppato un sistema integrato che include sistemi operativi, contenuti digitali, cloud e inizia a posizionarsi anche sui terminali.

Il 96% dei suoi ricavi proviene dalla pubblicità. – Amazon: partendo dalla vendita di libri, si è progressivamente posizionata sui terminali e nel cloud. Il 96% dei suoi ricavi deriva dall’eCommerce. – Microsoft: con il suo riposizionamento su Windows mobile, sul cloud e con la partnership con Nokia, sui terminali protegge il suo business caratteristico dei sistemi operativi. L’89% dei suoi ricavi resta legato al software. Sintetizzando, i grandi Over-the-Top puntano a creare situazioni di egemonia nel loro business specifico, generando di fatto piattaforme chiuse e non comunicanti. Anche la semplice migrazione da un fornitore di un determinato servizio – ad esempio un social network – ad un altro fornitore del medesimo servizio, è ostacolata dal fatto che le piattaforme non sono compatibili e quindi non è possibile trasferire il materiale archiviato in un sito (foto, contatti e messaggi) su un sito concorrente.

In pratica gli Over-the-Top, che pure avevano costruito i propri servizi “al di sopra” della rete utilizzando Internet come un’unica piattaforma indifferenziata, stanno ricreando – in contraddizione con quella logica “riunificatrice” – il mondo chiuso dei monopoli degli operatori di rete che l’Internet delle origini aveva inteso superare. In che modo? Approfittando del fatto che, contrariamente a quel mondo, il quale aveva caratteristiche di interoperabilità e standardizzazione codificate da regolamenti internazionali, da leggi, ma anche dalla prassi dell’industria, il nuovo mondo di Internet è fatto di incomunicabilità tecnica e di vuoto normativo. In un certo senso, sta venendo meno l’essenza stessa di Internet, ovvero l’essere “la rete delle reti”. All’interno del settore, tuttavia, si registrano alcuni movimenti che potrebbero portare a superare, o perlomeno a rimettere in discussione, i nuovi monopoli.

Vediamoli:
– la standardizzazione e la diffusione del nuovo linguaggio HTML5 potrebbero di fatto aprire qualsiasi dispositivo, con qualsiasi sistema operativo, al mondo del web che ridiventerebbe così il contenitore naturale di contenuti e applicazioni;
– il successo dell’iniziativa della Mozilla Foundation per un sistema operativo basato su browser e completamente open source (ossia di libera distribuzione, uso e sviluppo) potrebbe rimettere in discussione le posizioni consolidate dei fornitori di sistemi operativi;
– l’iniziativa di alcuni nuovi players, che propongono servizi mash-up e over-Over-the-Top in grado di aggiungere valore semplificando la complessità che si è venuta a creare. Esempi di questa linea di evoluzione sono i già citati fring (un’applicazione per smartphone che permette di gestire comunicazioni tra soggetti appartenenti a communities diverse) e motori di ricerca che integrano i risultati di altri motori di ricerca.

Commenta