L'evoluzione dell'intelligenza artificiale - IPS CLoud

Molti pensano che i calcolatori siano stati inventati dopo la scoperta dell’elettricità. In realtà i primi erano meccanici e risalgono alla seconda metà del 1600 ed erano già in grado di svolgere operazioni di somma, sottrazione e moltiplicazione. Ma è negli anni trenta del secolo scorso che vengono gettate le basi per il computer e l’informatica come li conosciamo oggi. Claude Shannon, dell’università di Yale, mostra le potenzialità dell’utilizzo del sistema binario nelle telecomunicazioni e da inizio a quella che oggi chiamiamo l’era digitale, quella fatta di uno e zeri. Nello stesso periodo, Alan Turing (famoso per aver decifrato i codici creati dalla macchina tedesca Enigma durante la seconda guerra mondiale) pubblica un articolo sulla Macchina di Turing, una macchina teorica in grado di eseguire algoritmi (una procedura di istruzioni logiche) e gestire dati. Quanto definito da Turing in questo scritto è ancora oggi alla base dei nostri computer.

La macchina che imita l’uomo

Già negli anni quaranta del secolo scorso si parlava di intelligenza artificiale (anche se il nome è nato negli anni cinquanta). Nascevano, almeno sulla carta, le reti di neuroni artificiali. Era stato dimostrato che qualunque problema computabile, cioè risolvibile tramite un algoritmo, era risolvibile con una rete di neuroni. Questa rete era costituita da elementi che potevano essere “spenti” o “accesi”, e lo stato di ogni elemento era determinato dall’insieme degli stimoli dei neuroni circostanti (parleremo più approfonditamente delle reti neurali nel prossimo post). Nel 1950, due studenti di Harvard, basandosi sulle scoperte fatte nel decennio precedente, hanno realizzato la prima rudimentale rete neurale artificiale che chiamarono SNARC (Stochastic neural analog reinforcement calculator). Negli anni successivi, un gruppo di dieci ricercatori guidati da John McCarthy aveva colto la sfida per costruire una macchina che imitasse in tutto e per tutto l’apprendimento e l’intelligenza della mente umana, e il tutto in due mesi. Sicuramente starete pensando che la loro ambizione andava un po’ oltre la realtà e credo non serva che vi dica com’è andata a finire. Al contrario di loro, Allen Newell e Herbert Simon, grazie ad un obiettivo più realistico, ma comunque sorprendente per l’epoca, erano già riusciti a costruire una macchina che era in grado di dimostrare teoremi matematici. Oltre ad aver dato vari contributi a questa materia, a McCarthy va la paternità del termine intelligenza artificiale, che dal suo primo utilizzo nel 1956, ha dato vita ufficialmente all’omonima disciplina.

Ambizioni e difficoltà

Potete immaginare l’entusiasmo che creava questa neonata disciplina. La possibilità di creare delle macchine in grado di ragionare sembrava aver catapultato la fantascienza nella realtà. I primi tentativi erano molto promettenti. Si riuscivano a dimostrare teoremi di geometria anche molto complessi e nel 1966 James Slagle del MIT di Boston riuscì a realizzare un programma che risolveva gli integrali. Si tratta di un’operazione non semplice e penso che tutti noi possiamo confermarlo pensando a quando eravamo alle scuole superiori o all’università e ci siamo trovati di fronte ad esempi che non sapevamo proprio come risolvere. Purtroppo tutta questa euforia si spense presto. I ricercatori si resero conto che in realtà bastava aumentare anche di poco la complessità del sistema e i tempi di calcolo diventavano insostenibili. Per esempio, se applichiamo un sistema di risoluzione (che possono essere le reti neurali o un un altro tipo di algoritmo) per trovare il valore di una variabile e diciamo che in qualche ora di computazione si arriva al risultato, aumentando il numero di variabili questo tempo può diventare più grande dell’età dell’universo. Questo può dipendere sia dal tipo di algoritmo o sistema che viene usato per trovare la soluzione, sia dalla potenza di calcolo della macchina utilizzata. A volte basta anche portare il numero di variabili da una a due per rendere il sistema irrisolvibile in un tempo ragionevole. Per questo motivo durante gli anni sessanta l’euforia per l’intelligenza artificiale si spense e i fondi furono progressivamente tagliati.

Dagli anni 80 ad oggi

Negli anni ottanta ci fu una riaccensione di questa disciplina, la scintilla scoccò grazie al passaggio dal mondo accademico a quello industriale. Nel 1982 fu utilizzato il primo software intelligente a scopo commerciale. Si trattava di un sistema per gestire le vendite dei computer, in grado di riconoscere se in un ordine c’erano componenti mancanti. Per fare questo doveva comprendere e analizzare le relazioni che c’erano tra i vari componenti e gestire eventuali errori o mancanze. Questo “giocattolo” faceva risparmiare all’azienda ben 40 milioni di dollari l’anno. Non ci volle molto prima che la maggior parte delle grandi aziende introdussero dei sistemi intelligenti che gestivano i processi più svariati.

Dal 1986 ci fu anche un ritorno delle reti neurali, rimaste un po’ in disparte dopo i limiti riscontrati negli anni sessanta. Vennero applicati approcci nuovi che portarono a risultati promettenti. Inoltre nel 1996 ci fu la famosa vittoria a scacchi del computer Deep Blue (costruito dall’IBM) contro l’allora campione del mondo Kasparov. Anche se questa macchina non utilizzava le reti neurali, fu comunque un’enorme pubblicità nei confronti della macchina che imita e supera l’uomo. Un anno dopo i sistemi intelligenti approdarono alla NASA, che li utilizzò per gestire vari aspetti delle missioni spaziali.

Oggi i software intelligenti stanno entrando un po’ in tutti i settori. Pensate alle auto con guida autonoma o ai sistemi per i pronostici delle vendite. Dalle previsioni meteo alle predizioni dei guasti nell’industria, passando per la finanza. Tutto si sta trasformando e diventando smart. L’loT (internet delle cose) sta portando alla connessione di sempre più oggetti alla rete, quindi sempre più dati da interpretare e sfruttare per migliorare l’efficienza, piuttosto che la possibilità di controllare tutto da remoto. I sistemi intelligenti portano ad una svolta nella gestione di quelli che vengono chiamati Big Data e permettono di sostituire parzialmente l’uomo nel fare previsioni, piuttosto che nell’ottimizzare sistemi complessi.

Dove porterà il futuro?

Oggi l’intelligenza artificiale è in grado ad esempio di riconoscere il volto di una persona o il linguaggio parlato, ma è ancora lontana da molte altre caratteristiche proprie della mente umana. Questo non rende meno sorprendente o meno efficace ciò che riesce a fare, come vedremo meglio nei prossimi post, ma se la domanda è quanto è vicina alla mente di un essere umano, la risposta è non molto. In tanti hanno speculato su dove potrà arrivare la ricerca in questo campo e in che tempi, ma ovviamente non c’è nessuna certezza. Guardando l’evoluzione del processo tecnologico nei secoli, vediamo un andamento esponenziale. Ci sono voluti 150.000 anni all’homo sapiens per arrivare all’agricoltura con i relativi insediamenti stabili, solo 7.000 per costruire i primi imperi e la scienza come la conosciamo oggi è nata appena 500 anni fa. Come abbiamo visto all’inizio del post, l’era dell’informatica ha circa cent’anni e solo negli ultimi 40 ha avuto un’evoluzione vertiginosa. Guardando questo trend verrebbe da pensare che se continua in questo modo non sarebbe così strano fra un centinaio d’anni assistere (per i nostri posteri) a macchine capaci di replicare tutte o quasi le capacità della mente umana. E se si arrivasse a quel punto, magari si potrebbe andare anche oltre, con macchine molto più intelligenti dell’uomo. Questo da un lato affascina, ma da un altro spaventa. Con uno scenario del genere l’uomo sarebbe ancora al vertice della piramide sul nostro pianeta? A questa domanda lasciamo rispondere la fantascienza, che ha già dato sfogo a molte fantasie con gli scenari più disparati.