cervelloI ntelligenza Statistica

I recenti progressi del machine learning hanno trasformato il modo di utilizzare la statistica per effettuare previsioni. È facile cedere alla tentazione di considerarli quindi solo come una sorta di “statistica che fa uso di steroidi”. In un certo senso è così, dato che lo scopo ultimo è quello di generare previsioni per completare le informazioni mancanti.

Che cos’è allora che rende il machine learning una tecnologia informatica rivoluzionaria, tanto da meritarsi l’appellativo di “intelligenza artificiale”?

In taluni casi, le previsioni sono così precise da poter essere usate al posto delle regole logiche. L’efficacia delle previsioni cambia il modo in cui i computer sono programmati. Negli ambienti complessi non sono sufficienti i tradizionali metodi statistici, né gli algoritmi con sequenze di istruzioni “if-then”. Volete identificare un gatto in un gruppo di fotografie? Dovete allora precisare che il mantello dei gatti può avere colori e disegni molto diversi, che i gatti possono essere in posizione eretta, seduti, sdraiati, saltare, o avere un aspetto scontroso. E poi che possono essere in un luogo chiuso o all’aperto.

La questione si fa presto complicata. Pertanto, anche solo per fare un lavoro discreto, serve molta cura. E tutto questo solo per i gatti. Se volessimo descrivere tutti gli oggetti visibili in un’immagine servirebbero specifiche diverse per ognuno di essi. La tecnologia fondamentale alla base dei recenti progressi, il cosiddetto “deep learning”, si basa su un approccio chiamato “retropropagazione”, che evita tutto il processo appena descritto, proprio come fa il cervello umano, imparando cioè attraverso l’esempio. Se volete insegnare la parola “gatto” a un bambino, la ripetete ogni volta che vedete un gatto. Succede praticamente la stessa cosa con la macchina. Se le fornite una serie di foto con l’etichetta “gatto” e un certo numero di foto senza gatti e che non hanno la relativa etichetta, la macchina imparerà a riconoscere le configurazioni di pixel associate con l’etichetta “gatto”.

Se la serie di fotografie comprende cani e gatti, l’associazione tra i gatti e gli oggetti a quattro zampe si rafforzerà, ma altrettanto accadrà all’associazione tra gli oggetti a quattro zampe e i cani. Senza ulteriori specifiche, una volta che avrete immesso nella macchina milioni di immagini con diverse variazioni (comprese alcune senza cani) ed etichette, questa svilupperà molte altre associazioni e imparerà a distinguere i cani dai gatti.

Molti problemi di tipo algoritmico (“quali sono le caratteristiche dei gatti?”) si sono trasformati in problemi di previsione (“questa immagine priva di etichetta ha le stesse caratteristiche dei gatti che ho visto prima?”).

L’apprendimento automatico utilizza modelli probabilistici per risolvere questo genere di problemi. Perché allora molti tecnologi si riferiscono al machine learning in termini di “intelligenza artificiale”? Perché il prodotto del machine learning – la previsione – è una componente essenziale dell’intelligenza, la sua accuratezza aumenta con l’apprendimento e spesso una grande precisione nella previsione consente alle macchine di eseguire compiti che, fino a oggi, erano associati all’intelligenza umana, come il riconoscimento degli oggetti.

Nel suo libro On Intelligence, Jeff Hawkins è stato tra i primi a sostenere che la previsione è alla base dell’intelligenza umana. Secondo la sua teoria, l’intelligenza umana, che è alla base della creatività e della produttività, trae origine dal modo in cui il nostro cervello usa i ricordi per fare previsioni: “Continuiamo a fare previsioni di basso livello in parallelo a tutta l’attività sensoriale. Ma non è tutto. La mia ipotesi è ancora più radicale. La previsione non è una delle attività del cervello, è la funzione primaria della neocorteccia e il fondamento dell’intelligenza. La corteccia è un organo della previsione”.

Hawkins ritiene che il nostro cervello non smetta mai di fare previsioni rispetto a ciò che stiamo per sperimentare: ciò che vedremo, proveremo, sentiremo. Crescendo e maturando, le previsioni del nostro cervello diventano più accurate e spesso si avverano. Quando però le previsioni non prefigurano in modo preciso il futuro, le informazioni sono inviate nuovamente al cervello, che aggiorna il suo algoritmo, quindi impara e perfeziona ulteriormente il suo modello.

Le teorie di Hawkins sono controverse, le sue idee sono discusse nella letteratura specialistica e molti computer scientist respingono nettamente l’ipotesi che la corteccia possa essere un modello per le macchine predittive.

L’idea che un’intelligenza artificiale possa superare il test di Turing (una macchina che riesce a farsi passare per una persona da un essere umano) nella sua versione “forte” è lontana dalla realtà. L’intelligenza artificiale attuale non è in grado di ragionare ed è difficile interrogarla per comprendere quale sia la fonte delle sue previsioni.

Indipendentemente dal fatto che il suo modello di partenza sia adeguato, l’insistenza di Hawkins sulla previsione come base dell’intelligenza serve per capire l’impatto esercitato dai recenti progressi nel campo dell’IA.

In questa sede intendiamo focalizzarci sulle notevoli conseguenze degli sviluppi della tecnologia predittiva. Molte delle capacità che gli studiosi intervenuti alla conferenza di Dartmouth nel 1956 osavano attribuire a future macchine intelligenti sono oggi a portata di mano. Per diversi aspetti, le macchine possono “usare il linguaggio, dare vita ad astrazioni e concetti, risolvere tipi di problemi attualmente riservati agli esseri umani e possono migliorare se stesse”.

Non vogliamo sostenere che questi progressi preannuncino l’avvento dell’intelligenza artificiale forte, della “Singolarità” o di Skynet. Questo focus ristretto sulla previsione lascia comunque presagire cambiamenti straordinari nei prossimi anni. Le previsioni a basso costo produrranno trasformazioni di portata analoga a quelle determinate dal calcolo a basso costo reso possibile dai computer.

Nel suo complesso, che si tratti o meno di intelligenza, questo avanzamento dalla programmazione deterministica a quella probabilistica è una transizione di ampia portata, per quanto sia in linea con il progresso delle scienze fisiche e sociali. Il filosofo Ian Hacking, nel suo libro The Taming of Chance, ha sostenuto che, prima del diciannovesimo secolo, la probabilità era il regno dei giocatori d’azzardo. Nel corso del diciannovesimo secolo, con l’introduzione dei censimenti statali, si è assistito all’applicazione dei nuovi strumenti matematici della probabilità alle scienze sociali. Nel ventesimo secolo è avvenuto un riassetto radicale del mondo fisico e si è passati dalla prospettiva deterministica di ascendenza newtoniana all’incertezza che caratterizza il panorama della meccanica quantistica.

Quella che è forse l’invenzione più importante dell’informatica del ventesimo secolo eguaglia i precedenti progressi delle scienze fisiche e sociali: il riconoscimento che gli algoritmi funzionano al meglio quando hanno una struttura probabilistica, basata sui dati.

  • Paragrafo tratto dal libro scritto da Ajay Agrawal, Joshua Gans, Avi Goldfarb “Macchine predittive – Come l’intelligenza artificiale cambierà lavoro e imprese”, pubblicato da Franco Angeli, Milano, anno 2019, (pagg. 47 – 49).