RSS
Condividi tramite Email
Facebook
Facebook
Twitter
Visit Us
LinkedIn

L’Intelligenza Artificiale è un bene comune o una mela avvelenata?

Così fu pensato dai padri fondatori

Mario Ricciardi

1 Giugno 2019 10 minuti

Le conseguenze della tecnologia dell’intelligenza artificiale

Nel 1960, in una prolusione sulla questione della tecnica, il filosofo Martin Heidegger affermò: “Le conseguenze della tecnologia sono tutt’altro che tecnologiche”. Lì per lì sembrò una di quelle sue tipiche oscure espressioni autoavvolgentesi come un’incisione di Escher. In realtà era una profezia. Una profezia che oggi verifichiamo in tutta la sua lungimirante portata. La tecnologia, secondo il filosofo tedesco, è parte del destino dell’essere, qualcosa che attiene alla sua ontologia. Ed è proprio così.

Le conseguenze della tecnologia sono enormi e generali. L’intelligenza artificiale è oggi la tecnologia suprema, anche se ancora nella sua infanzia. Pertanto le sue conseguenze saranno supreme. Gli stessi tecnologi, cioè coloro che la spingono come una Panzerdivision, sono molto, molto allarmati a proposito degli sbocchi dell’intelligenza artificiale. Elon Musk, il commander-in-chief di quella divisione, ha dichiarato che “l’intelligenza artificiale può scatenare la terza guerra mondiale”, che sarà una guerra combattuta nel ciberspazio.

Gli stessi protagonisti della rivoluzione tecnologica, anche i più giacobini, cominciano a interrogarsi su ciò di cui non si sono mai preoccupati, le conseguenze delle loro azioni. Gli americani ora sanno — è scritto in un rapporto ufficiale di oltre 500 pagine — che un presidente sta dove sta perché c’è Facebook e ci sono i social media. C’è uno spazio, cioè, senza tetto né legge. Thomas Friedman, premio Pulitzer ed editorialista del “New York Times” ha scritto qualcosa di definitivo a proposito di questo spazio:

“Siamo arrivati a un punto di non ritorno? Sì. È stato quando ci siamo resi conto che una massa critica delle nostre vite e del nostro lavoro è scivolata via dal mondo terracqueo in direzione del regno del ciberspazio. O meglio, una massa critica delle nostre relazioni si è trasferita in un territorio dove tutti sono connessi ma nessuno è il responsabile.

Dopo tutto non ci sono riflettori nel ciberspazio, non ci sono poliziotti che pattugliano le strade, non ci sono giudici, non c’è Dio che punisce i malvagi e premia i buoni e certamente non c’è il telefono amico da chiamare se Putin rapina le elezioni. Se qualcuno insulta su Twitter o Facebook, a meno che non vi sia una minaccia mortale, buona fortuna se si desidera che l’affronto sia punito, specialmente se è anonimo, cosa che capita spesso nel ciberspazio.

E il ciberspazio è il territorio nel quale adesso spendiamo ore e ore della nostra giornata, dove facciamo la maggior parte nostri acquisti, la maggior parte dei nostri incontri, dove coltiviamo le nostre amicizie, dove apprendiamo, dove svolgiamo gran parte dei commerci, dove insegniamo, dove ci informiamo e dove cerchiamo di vendere le nostre merci, i nostri servizi e le nostre idee.
È dove il Presidente degli Stati Uniti e il leader dell’ISIS possono comunicare con la stessa facilità con milioni di seguaci tramite Twitter. Non ha bisogno di editor, verificatori, studi legali e altri filtri.”

L’intelligenza artificiale sarà una mela avvelenata?

No, almeno non era così nelle intenzioni dei fondatori di questa tecnologia estrema, che vi vedevano sì un nuovo capitolo dello sviluppo umano, ma un capitolo scritto collettivamente dall’insieme del genere umano

A chiarire bene questo aspetto c’è un libro appena uscito che va proprio alla genesi del pensiero, delle elaborazioni e delle azioni degli scienziati e degli inventori visionari che sono la sorgente concettuale e strumentale dell’Intelligenza artificiale. Il libro è La mela avvelenata. Alle origini dell’intelligenza artificiale (goWare, disponibile in versione cartacea ed ebook) a cura di Mario Ricciardi, professore emerito al Politecnico di Torino, e Sara Sacco, una giovane editor. Il libro chiarisce bene gli scopi e gli intenti delle prime idee di macchina cognitiva già a partire dagli anni Trenta dello scorso secolo.

Proprio nel capitolo dedicato ad Heidegger, Ricciardi esprime chiaramente, diciamo, la dialettica delle macchina cognitiva. La esprime in questi termini:

“Le tecnologie informatiche e la teoria della computabilità di Turing hanno in sé un terribile rischio. Si confrontano perciò due visioni profonde:
a) macchina ideale, perché sia universale (pensiero astratto a partire dalla teoria computazionale di Turing);
b) macchina diabolica, infernale, a partire dal concetto di asservimento alla tecnica.”

La stessa letteratura fantascientifica si è polarizzata tra questi due estremi, forse, prediligendo il secondo per la sua maggiore vena narrativa.

Il libro, con delle ampie introduzioni e con il supporto di materiale visuale, propone gli scritti fondamentali sulla genesi dell’Intelligenza artificiale. Si inizia dal saggio di Alan Turing su Macchine e l’intelligenza. Seguono le riflessioni Norbert Wiener che, attraverso la cibernetica, trasformò l‘idea del computer come strumento di calcolo in macchina per comunicare e quindi in medium universale. Fondò anche la scienza della Cibernetica, la scienza sottostante alla IA.

Vi è poi lo scritto visionario di Vannevar Bush sul Memex (il famoso As we think—ormai introvabile in traduzione italiana accurata), il mezzo strumentale attraverso cui avrebbe dovuto transitare la società della conoscenza e della diffusione della scienza, insomma la società dell’informazione.

Vi sono le considerazioni di Engelbart, l’inventore del mouse e di tante altre cose che oggi usiamo come il frigorifero, sul concetto di augmenting e le idee di Ted Nelson per sviluppare attraverso le macchine il linguaggio della creatività personale e accrescere anche le arti liberali.

Abbiamo chiesto a Mario Ricciardi un contributo su questi temi che volentieri pubblichiamo di seguito.

. . .

La visione di Tim

Tim Berners-Lee durante la cerimonia di apertura del Giochi Olimpiadi di Londra seduto davanti al NeXTCube, il computer ideato da Steve Jobs alla fine degli anni 80. Su quel computer Sir Tim Berners-Lee sviluppò il primo server basato sul protocollo http, che è il fondamento del World Wide Web.
Tim Berners-Lee durante la cerimonia di apertura dei Giochi Olimpici di Londra seduto davanti al NeXTCube, il computer ideato da Steve Jobs alla fine degli anni ’80. Su quel computer Sir Tim Berners-Lee sviluppò il primo server basato sul protocollo http, che è il fondamento del World Wide Web.

In una recente intervista al “Guardian” Tim Berners-Lee ribadisce la sua ferma convinzione che la rete si deve fondare su una “piattaforma aperta che consente a chiunque di condividere informazioni, accedere a opportunità e collaborare oltre i confini geografici”. La neutralità e libertà di Internet è stata messa pesantemente alla prova da “gatekeeper digitali sempre più potenti. I loro algoritmi possono essere armati da maestri della manipolazione. Le persone vengono distorte da I.A. molto ben addestrate che capiscono come distrarle.

“Il gas è una utilities, anche l’acqua pulita e anche la connettività”, ha affermato Berners-Lee, “fa parte della vita”. Dunque l’intelligenza artificiale può essere un bene comune; ma è proprio così e forze economiche finanziarie politiche e culturali sono d’accordo con Berners-Lee?

Un’intelligenza in comune non è alla base del “capitalismo delle piattaforme”. Il valore si estrae dalle connessioni e gli smartphone sono gli agenti più dinamici di sviluppo.

 

L’economia delle piattaforme

Questa vignetta apparsa qualche anno fa sul “New York Times” rende bene la logica economica del modello delle piattaforme.
Questa vignetta apparsa qualche anno fa sul “New York Times” rende bene la logica economica del modello delle piattaforme.

Numerosi autori parlano di “capitalismo delle piattaforme” (Nick Srnicek, Platform Capitalism, Cambridge, Polity Press, 2017), una nuova economia in forte espansione, che ogni anno cresce a due cifre e consente a poche grandi corporation di drenare quote crescenti di ricchezza. Il suo potere non è basato sui prodotti che vendono. Una piattaforma non possiede i mezzi di produzione ma fornisce e controlla i mezzi di connessione. Secondo una definizione largamente accettata, una piattaforma è un modello di business che crea valore facilitando gli scambi tra gruppi di persone o di aziende: per lo più tra produttori e consumatori.

Rispetto al passato, lo schema è rovesciato perché i servizi che queste piattaforme ci forniscono senza chiedere soldi in cambio (la ricerca e la casella elettronica di Google, le connessioni video di Skype, i social network…) o a basso costo (Amazon, Uber…) sono legati alle informazioni che noi forniamo loro.

Noi siamo, contemporaneamente, consumatori (acquistiamo beni online) e collaboratori a titolo gratuito, generando continuamente contenuti e pubblicando giudizi sulla merce. Il vero prodotto sono le informazioni personali (abitudini, scelte, etc. etc.) trasformate in dati che vengono accumulati, elaborati e venduti per ottimizzare il processo. Siamo noi stessi il prodotto che le aziende digitali “vendono” sul mercato.

L’intelligenza comune

"La

Questo panorama ci dice che non è all’ordine del giorno un programma condiviso di intelligenza in comune (intelligenza comune). Piuttosto è favorita la crescita di una massa di utenti, consumatori attivi ma non attrezzati. In questo contesto è assai difficile che le macchine permettano — come dice Alan Turing — di “trasformare gli intellettuali in gente comune”, cioè di distribuire intelligenza in forma collaborativa a una platea di umani la più vasta e più consapevole possibile.

Tutto inizia negli anni ’30: i protagonisti sono veri e propri eroi che agiscono, in prima istanza, nel mondo accademico e della ricerca. Da Turing a Vannevar Bush, si afferma il primato della mente e prende forma l’intelligenza prodotta negli anni ’30: per Turing “costruire un cervello”; per Vannevar Bush “as we may think”.

Seguirono le premesse e le realizzazioni degli anni ’60:
1962: Douglas Engelbart scrive Augmenting Human Intellect. A Conceptual Framework.
1968: la madre di tutte le presentazioni. Appare il Mouse, si scoprono le connessioni in ambienti di lavoro e il valore positivo della collaborazione.
1965: Ted Nelson introduce in un paper la parola ipertesto alla conferenza nazionale ACM.

Negli anni successivi ancora uno sviluppo globale ma pieno di contraddizioni:
1990: Tim Berners-Lee lancia il World Wide Web.
2015: il trionfo del valore assoluto delle connessioni. Facebook raggiunge il record di 1 miliardo di connessi in un giorno (globalizzazione dei contatti).

I pionieri di cui parliamo hanno immaginato e previsto sia una mente digitale sia una società digitale. Non è difficile il confronto con l’intelligenza diffusa e la società in cui stiamo vivendo.

Mente digitale

Una moderna implementazione della macchina di Turing.
Una moderna implementazione della macchina di Turing.

Costruire il cervello artificiale. Nel 1943, mentre lavorava sui codici segreti militari nel laboratorio di Bletchley Park, Alan Turing confessò a un collaboratore la sua ambizione di voler «costruire un cervello». Aveva già progettato una macchina universale, quella che comunemente è stata chiamata la macchina di Turing. Aveva così rotto con il paradigma della macchina di Taylor: one best way.

Per Taylor esisteva un “unico miglior modo” (one best way) per compiere qualsiasi operazione in linea con il fondamento teorico di Heidegger: l’essenza della tecnica non è nulla di tecnico. Heidegger per esprimere il destino ineluttabile che la tecnica impone all’uomo usa la parola Gestell (scaffale): la tecnica costringe l’uomo non solo a mettere ordine ma a collocare ogni cosa in un ordine già prestabilito. (In un prossimo post offriremo ai lettori le considerazioni di Ricciardi sul pensier di Heidegger sulla tecnica [NdR]).

C’è dunque un valore “rivoluzionario”, di cambio di paradigma che appartiene a un dominio più generale. La teoria dà origine alla cosiddetta macchina di Turing: in realtà mai realizzata da Turing stesso. Con un po’ di immaginazione e con molto “senno di poi” possiamo pensare al nastro che immagazzina dati e li conserva immutabili e disponibili, come l’hardware del futuro computer, alla memoria di massa. Gli input che vengono attivati attraverso programmi, sono il software, vero fulcro della macchina universale.

Società digitale

Una recente ricostruzione (2014) a grandezza naturale del Memex realizzata dal team di Trevor F. Smith e Sparks Web sulla base degli appunti e dei disegni di Vannevar Bush. Nella parte bassa della figura il pannello di controllo abilitato a gestire gli input degli utenti.
Una recente ricostruzione (2014) a grandezza naturale del Memex realizzata dal team di Trevor F. Smith e Sparks Web sulla base degli appunti e dei disegni di Vannevar Bush. Nella parte bassa della figura il pannello di controllo abilitato a gestire gli input degli utenti.

Costruire una società che non consenta più i disastri del Novecento. Per Wiener è la società in cui vivere in modo effettivo, significa vivere con una quantità adeguata di informazione.

In opposizione all’ineluttabile destino che ci impone il secondo principio della termodinamica: “noi siamo dei naufraghi su un pianeta ormai condannato” la comunicazione può essere una speranza rivelando l’essenza della società in cui le macchine sono protagoniste.

Alla visione drammatica, cioè quella di combattere l’entropia ma senza speranza, si oppone l’utopia secondo la quale la comunicazione salverà il mondo. La disseminazione delle informazioni e quindi la comunicazione sono elementi fondanti, diritti costitutivi per garantire una piena cittadinanza. La nuova scienza, la cibernetica sviluppa la “tesi” di Wiener che la società è costituita dai messaggi prodotti e diffusi al suo interno.

La riflessione sullo statuto scientifico del concetto di informazione e sui “modi intrinseci di comunicazione” nella società offre nuovi indicatori su ciò che Wiener chiama “la natura delle comunità sociali”, aperte o chiuse, comunicanti o no. La cibernetica ebbe un’insperata fortuna, per Wiener, ma la sua influenza declinò rapidamente.

Intelligenza e sogno

Il prototipo del primo mouse per computer, sviluppato da Engelbart e brevettato il 21 giugno 1967. La prima implementazione commerciale del mouse si ha nel 1981, con lo Xerox Star. Essendo scaduto il brevetto, Engelbart non poté trarre un vantaggio economico dalla sua invenzione.
Il prototipo del primo mouse per computer, sviluppato da Engelbart e brevettato il 21 giugno 1967. La prima implementazione commerciale del mouse si ha nel 1981, con lo Xerox Star. Essendo scaduto il brevetto, Engelbart non poté trarre un vantaggio economico dalla sua invenzione.

Nelson e Engelbart. Dream vs Intellect. Davanti a 1000 ingegneri, Engelbart parla del computer come di un “elaboratore di simboli e strumento per aumentare l’intelligenza umana”. Presenta per la prima volta il mouse, un sistema ipermediale e un sistema per la videoconferenza.

Grande importanza viene attribuita all’utente e alla sua interazione con la macchina. Engelbart sostiene, infatti, che “utente e computer sono componenti che mutano dinamicamente, sempre in simbiosi, con l’effetto di potenziare l’intelligenza iniziale dell’utente”.

La risposta è ipertesto e lavoro collaborativo. È un modo nuovo di pensare e di comunicare; un modo nuovo di lavorare in ambienti a forte contenuto tecnologico e scientifico. L’ipertesto secondo Ted Nelson è una rivoluzione culturale: abbandona il codice alfabetico e il paradigma logico-sequenziale e crea una nuova società fatta di persone e di connessioni, di reti e di continue invenzioni.

Nelson immaginò di poter creare, sulla base di questo sistema innovativo di organizzazione dei documenti, una rete globale per l’interscambio e la condivisione di testi e informazioni, una sorta di World Wide Web ante litteram. Ma Nelson fu radicalmente contrario al World Wide Web così come fu realizzato e poi divulgato da Berners Lee.

Xanadu non accetta limiti perché sono le connessioni, i link, le relazioni che rendono vivo e operante questo ambiente. Il sistema a rete non può che riferirsi a un universo continuamente mutante e continuamente attivo.

Curiosamente questi grandi innovatori (a eccezione di Engelbart) non realizzano concretamente i loro progetti.
La macchina di Turing è un’appropriazione successiva nel tempo da parte degli informatici;
Bush non può realizzare Memex. Non ha le tecnologie appropriate
Nelson è alle prese ancora oggi con un progetto incompiuto: Xanadu è un programma che non si conclude, perché non può arrivare alla fine.

. . .

Mario Ricciardi è attualmente professore emerito al Politecnico di Torino. È stato coordinatore dei corsi di laurea in Scienze della comunicazione e in Ingegneria del cinema e dei mezzi di comunicazione. È stato vice rettore e membro della giunta presso il Politecnico di Torino dal 2005 al 2007.
Dal 1998 al 2004 è stato presidente e direttore della Fondazione Maria Adriana Prolo-Museo nazionale del cinema, fondando il nuovo Museo nazionale del cinema. È editor della rivista internazionale online “DigitCult”. Tra le sue ultime pubblicazioni: Il museo dei miracoli (2008), La comunicazione. Maestri e paradigmi (2010), La rete e i luoghi (2014), Friction sociology (2016).

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *