Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

l'analisi

Dietro i problemi Apple e Samsung c’è una grossa crisi dell’innovazione, ecco perché

Cosa c’è davvero dietro il calo delle vendite di smartphone? La corsa al nuovo modello ogni pochi mesi sembra essersi esaurita e le cause sono da ricercarsi nella maturità di una tecnologia che sembra avere poco altro di nuovo da offrire ma anche nella “crisi” del software e degli umanisti

11 Gen 2019

Giovanni Salmeri

Università degli Studi di Roma Tor Vergata


I consumatori non sembrano  più disposti a cambiare smartphone alla velocità che i produttori vorrebbero imporre con il loro martellante ritmo di nuovi modelli dai costi (spesso) spropositati rispetto alla novità offerte. Ma basta questo per spiegare il recente ribasso delle stime da parte dei due leader del settore, Apple e Samsung? Di fondo c’è anche dell’altro: una tecnologia che sta raggiungendo la maturità, la crisi del software (già evidente dagli anni ’80, in un certo qual modo). Ma non è solo questo il punto. Cerchiamo di capire meglio.

La notizia

La notizia ha raggiunto le prime pagine dei giornali: Apple è stata costretta a rivedere al ribasso le sue stime, il ricavato nei prossimi mesi sarà molto più basso del previsto. C’è perfino chi, estrapolando i dati, ne ha dedotto che la Apple si trova di fronte ad un bivio: o rinnovarsi, oppure scomparire, ripetendo il triste fato della Nokia, che nel giro di qualche anno divenne l’ombra di sé stessa dopo essere stata alla testa indiscussa delle classifiche di vendita dei cellulari. Qualche giorno dopo, è stata la volta della Samsung: praticamente la stessa identica notizia. Non vogliamo qui ripercorrere le analisi che attribuiscono l’attuale flessione ad un insieme di concause difficili da dominare. Ci vogliamo soffermare su uno solo di questi motivi, che merita qualche considerazione in più: la crisi, è stato detto, deriva anche dal fatto che le persone sono più propense a mantenere il proprio telefono per più tempo, senza cambiarlo inutilmente.

La diagnosi è giustissima, soprattutto in questi tempi di non florida economia, e mi sorprenderei se dirigenze così competenti siano state colte davvero alla sprovvista. Basta sfogliare distrattamente recensioni dell’ultimo anno per notare il montare di considerazioni simili nei confronti di tutti i principali attori del mercato. Ne ho una sotto gli occhi: è la stroncatura di un modello di punta venduto attorno al migliaio di euro. Il recensore ne nota impietosamente i difettucci per poi concludere: certo, è pur sempre un ottimo apparecchio che fa benissimo tante cose, ma ormai anche quelli che costano 100 euro lo sono. Voto complessivo: quattro su dieci.

I commenti della dirigenza della Apple addebitano la colpa delle scarse vendite degli ultimi modelli alla possibilità di cambiare la batteria, a prezzi stracciati, ai modelli vecchi: ma sorvolano sul piccolo particolare, a tutti noto, che tale possibilità è stata concessa per sfuggire all’accusa alquanto grave di limitare artificialmente l’uso di telefoni «vecchi» di appena qualche mese. Insomma, che i nuovi modelli non fossero poi così attraenti lo si sapeva benissimo fin dall’inizio. Ma allora che cosa è successo?

La prima risposta che bisogna dare è che, semplicemente, è accaduto ciò che accade ad ogni tecnologia che sta raggiungendo la maturità. Le forchette più antiche ritrovate risalgono all’età del bronzo: ebbene, sono passati più di quattromila anni e sostanzialmente nessun avanzamento tecnologico vi è stato introdotto.

Se l’esempio pare troppo arcaico, parliamo dei lettori di CD: sono stati introdotti 36 anni fa e in tanto tempo non hanno subìto nessuna modifica sostanziale. Si potrebbe dire che oggi sono in gran parte sostituiti dalla musica «liquida», il che è vero: ma essa ha modificato solo la modalità di immagazzinamento, non la tecnologia digitale soggiacente. Quando nel 1999 si tentò di soppiantare i CD con un formato «superiore», i SACD, il fallimento fu epico malgrado la martellante pubblicità: era difficile migliorare un formato che aveva già la capacità di riprodurre perfettamente tutto lo spettro udibile. Chi ragionevolmente poteva investire quantità ingenti di denaro per avere anche gli ultrasuoni, cioè frequenze per definizione non udibili? Il punto insomma è questo: ogni tecnologia serve ad uno scopo umano. Finché la mano e la bocca sono queste, la forchetta è perfetta; finché il timpano è questo, il CD è perfetto. Non è anzi necessario raggiungere la perfezione: basta che, come amano dire gli americani, qualcosa sia good enough, soddisfaccia cioè un vero bisogno tanto bene che un cambiamento sia più sgradevole (anche solo per il portafoglio) di quanto è grande il vantaggio a cui alla fine esso porterebbe. Elementare psicologia: nessuno affronta un trasloco per avere una casa con un metro quadrato di più.

La crisi del software

Ciò tuttavia non spiega tutto. In fondo, grandi progressi sono avvenuti anche quando pareva che gli strumenti esistenti non lasciassero nulla a desiderare (quelli della mia generazione ricordano bene quante volte in gioventù hanno sistemato il loro parco informatico pensando: così sicuramente sto a posto per sempre!). Il punto è che i progressi attuali sono in ogni caso comparativamente limitati: memoria in più, velocità del processore in più, definizione dello schermo o della videocamera in più, qualche periferica in aggiunta o più veloce. Qualcuno nota una mancanza? Ovviamente sì: si tratta di progressi solo hardware. I progressi software sì che ci sono, ma in gran parte al rimorchio: funzioni e programmi che hanno in sé poco di nuovo, ma sono resi viabili da hardware più potente. Già negli anni 80 si parlava di «crisi del software»: oggi un’osservazione simile andrebbe precisata e sottolineata.

Se è vero che un telefono attuale è good enough, è anche vero che tante cose nuove potrebbero esser tentate, i problemi dell’attuale software sono sotto gli occhi di tutti: ma nessuno pare ancora avere il coraggio e la fantasia di affrontarli. Le interfacce grafiche non paiono aver fatto grandi progressi dalle prime sperimentazioni dello Xerox Alto degli anni 70 (o, per quanto riguarda i telefoni, dai Palm degli anni 90), l’uniformità un tempo considerata la chiave per la facilità d’uso è sempre più violata, il moltiplicarsi delle funzioni e l’inscalfibile dogma secondo cui tutto dev’essere discoverable senz’alcun apprendimento o spiegazione rendono sempre più alta la percentuale di quelle che, per quanto utili o utilissime, restano ignote all’utente medio. E infine, il problema dei problemi: apparecchi all’origine pensati per far risparmiare tempo lo divorano invece sempre di più, sottraendolo a lettura, studio, passeggiate, dialoghi, lavoro, amore.

Un po’ di storia dell’informatica personale

Se si percorre anche rapidamente la storia dell’informatica personale, ci si accorge che questi problemi non sono casuali, e anche che sono in qualche modo legati tra loro. Il punto cruciale consiste infatti nel notare che l’originaria conformazione dell’informatica personale deriva dal convergere di più tendenze. Una tendenza decisiva è stata, in concomitanza con gli studi sul computer come ambiente di apprendimento per bambini, lo sviluppo di interfacce che consentono la manipolazione diretta (o piuttosto la simulazione di una manipolazione) di oggetti e strumenti.

Un’altra tendenza decisiva è stata l’intuizione delle possibilità del computer non solo come strumento di calcolo (come dice il suo nome stesso) o in generale di elaborazione, ma come mezzo di comunicazione. Entrambe queste tendenze (e anche altre che qui non citiamo) mettono però a fuoco un progetto condiviso: il computer come oggetto comune, integrato senza fratture nella vita quotidiana, in grado di moltiplicare le capacità umane. Questa moltiplicazione veniva pensata in due modi complementari: da una parte, offrire strumenti che consentissero di fare facilmente cose altrimenti impossibili, o fino ad allora troppo costose; dall’altra, spostando in una macchina compiti non creativi, liberare il tempo e le forze per le attività propriamente umane.

È sorprendente vedere quanto entrambi questi elementi fossero chiaramente sottolineati nelle prime pubblicità. «L’HP 9100A è capace di compiere molte funzioni prima possibili solo con un grande e costoso sistema di calcolo!», diceva la presentazione di un celebre personal computer del 1968. Ma ancor prima: «Usa il 9100A per espandere il tuo tempo creativo. Il tempo creativo è difficile da valutare in dollari e centesimi. Tuttavia, un valore può essere assegnato alle ore-uomo e al tempo del computer».

Pochi anni dopo l’informatico e sociologo Ted Nelson definiva orgogliosamente il computer una «dream machine». Quando la riflessione veniva condotta sul computer come possibile strumento di comunicazione, la liberazione del tempo creativo era pensata non solo in rapporto a compiti meccanici, ma appunto anche a funzioni comunicative: in un celebre articolo sempre del 1968, lo psicologo e informatico Joseph Licklider immaginava che un sistema informatico dovesse proteggere le persone dai disturbi: «Il tuo computer saprà chi è importante ai tuoi occhi e ti proteggerà da un mondo invadente». Uno spiritoso illustratore aggiunse all’articolo l’immagine di un computer umanoide che ad un assicuratore con la sua valigetta dice freddamente: «È uscito», mentre dietro la porta il padrone sorride compiaciuto per essere stato liberato da uno scocciatore.

Umanisti e scienziati

Che gli esiti oggi siano a volte comicamente opposti a quelli voluti non è un’ironia del destino. Non lo è che gli apparecchi informatici siano diventati massima parte di quel «mondo invadente» da cui dovevano proteggere, né lo è il fatto che essi, più che integrarsi come elementi del mondo quotidiano, siano diventati in parte un caotico universo parallelo. È accaduto, molto semplicemente, che alle intuizioni originarie si sono sovrapposte preoccupazioni diverse. Ma soprattutto la vecchia alleanza tra umanisti e scienziati, tra preoccupazioni sociali e avanzamenti informatici, sembra oggi dissolta. Il problema è forse da entrambi i versanti, ma sicuramente dal primo. Coloro che nei decenni passati hanno progettato il futuro vengono considerati veggenti e visionari, non persone che con intelligenza hanno pensato programmi realistici che poi sono stati, anche se solo in parte, realizzati.

Il tipico umanista di oggi parla dell’evoluzione della tecnica come se questa fosse un’incontrollabile contingenza metereologica, nei confronti della quale bisogna al massimo proporre pensose analisi e strategie di contenimento. Il tipico umanista di oggi di fronte ai problemi dell’informatica rivendica allora i valori dell’umanità, raccomanda saggezza ed equilibrio, ma ben raramente fa proposte, quasi mai si sporca le mani come avveniva tra gli anni 60 e 70. Forse la nuova «crisi del software» potrà essere superata quando questa tendenza sarà invertita.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3