Assone

L’architettura delle reti neurali artificiali è costituita da un gran numero di processori molto semplici pressoché uguali fra loro, ogni unità di elaborazione è contemporaneamente unità di memoria; questo tipo di architettura distribuita è esattamente l’opposto dell’architettura tipica dei computer, nei quali un’unità centrale, strettamente separata dalla memoria che contiene tanto le informazioni sulle quali le elaborazioni devono essere effettuate quanto le istruzioni relative alle elaborazioni da compiere, provvede alle operazioni, un’architettura cosiddetta “Von Neumann”.

Come i neuroni biologici, anche le unità delle reti neurali artificiali hanno un funzionamento molto semplice e i canali di comunicazione fra queste unità sono detti, in analogia alle reti nervose biologiche, connessioni sinaptiche. Oltre al fatto di essere costituite da molte unità semplici interconnesse, ognuna delle quali contemporaneamente componente di memoria e processore, e che nel loro insieme possono essere considerate come una sorta di “popolazione”, vi sono altre importanti caratteristiche delle reti neurali artificiali che sono state derivate dalle reti neurali biologiche (le reti nervose).

La più evidente è il massiccio parallelismo, caratteristica fondamentale della struttura del cervello umano e degli animali, che contrasta con la struttura dei computer standard, basati invece su un modello sequenziale. Un’altra caratteristica mediata dalle corrispondenti reti biologiche è che la conoscenza, acquisita attraverso un progressivo processo di apprendimento, risulta immagazzinata nella forza delle connessioni fra neuroni, in definitiva nel complesso della rete stessa e non nei singoli elementi che la compongono. Le reti neurali artificiali hanno inoltre una sorta di “plasticità” determinata dall’apprendimento, caratteristica anch’essa derivata dal modello del cervello: la rete neurale indebolisce progressivamente le connessioni sinaptiche meno utilizzate mentre rinforza quelle maggiormente usate durante il processo di apprendimento. Peraltro mentre alcuni tipi di rete neurale artificiale sono effettivamente abbastanza simili, da un punto di vista dell’architettura complessiva, alle reti neurali biologiche, altri pur mantenendo lo schema a rete costituito da molte semplici unità tutte uguali fra loro, possono differirne anche notevolmente. È comunque innegabile che lo stimolo alla realizzazione di reti neurali artificiali provenga dal desiderio di riprodurre sistemi di elaborazione “intelligenti”, simili, per prestazioni e comportamento, all’uomo, le cui azioni sono governate da un organo particolare: il cervello.

Le prerogative che più delle altre avvicinano le reti neurali artificiali al cervello umano o animale sono:

❯ la conoscenza è acquisita attraverso un progressivo processo di apprendimento, e non è immessa in blocco dall’esterno, come invece avviene per i computer tradizionali;

❯ la forza delle connessioni fra neuroni, detta peso sinaptico, che varia durante il processo di apprendimento è utilizzata per immagazzinare la conoscenza. Può essere utile ricordare le principali caratteristiche dei neuroni biologici solo per avere un termine di paragone con i rispettivi componenti delle reti neurali artificiali.

Innanzitutto si deve dire che i neuroni biologici, i componenti di base del cervello in accordo con la teoria cellulare di Rudolf Virchow, sono più lenti rispetto alle porte logiche dei circuiti integrati; infatti i neuroni operano in termini di millisecondi, un tempo di sei ordini di grandezza più lento delle porte logiche, che operano invece in termini di nanosecondi. Questa condizione deriva dalla loro stessa conformazione; il cervello non può lavorare ad una frequenza operativa più alta essenzialmente per due motivi:

❯ il grandissimo numero di cellule nervose (1011), con l’enorme numero di interconnessioni (1 × 1015 circa) impedisce una velocità più alta;

❯ le funzioni di una singola cellula (il neurone biologico) sono molto più complesse di quelle di una porta logica di un circuito integrato, in quanto oltre all’attività “computazionale” in senso stretto, il neurone deve compiere altre attività, prima fra le quali l’automantenimento (essendo una cellula vivente, il primo compito è quello di rimanere in vita).

I neuroni umani possono essere di vari tipi, e già questo costituisce una notevole differenza con i neuroni costituenti le reti neurali artificiali, tutti pressoché uguali fra loro. Il neurone è composto da un corpo cellulare, detto soma, dal quale si protendono due tipi di filamenti, estensioni della membrana cellulare: i dendriti, fortemente ramificati, che si sviluppano in vari rami principali e secondari, e l’assone, ricco di ramificazioni ma unico per ogni neurone. I dendriti e l’assone crescono in modo notevole dopo la nascita dell’individuo e possono arrivare a grandi lunghezze se paragonate alle dimensioni della cellula neuronica: fino ad un metro per i neuroni cosiddetti di proiezione (da tenere presente che la dimensione del soma è compresa fra i 10 e gli 80 μm). La lunghezza totale del neurone, compresi i dendriti e l’assone, può variare da 0.01 mm degli interneuroni della corteccia cerebrale, fino ad 1 metro per i neuroni che si trovano negli arti.

Mentre i dendriti fungono da recettori dei segnali emessi dai neuroni “a monte”, l’assone serve a trasmettere i segnali elettrici ai neuroni posti “a valle” oppure per trasmettere i segnali elettrici alle fibre muscolari; alcuni studi recenti hanno mostrato come anche i dendriti abbiamo una funzione attiva che non è solo quella di trasmissione.

Tutti tipi di neuroni, al di là delle differenze di dimensioni e forma, sono composti dagli stessi componenti di base e hanno lo stesso schema generale di funzionamento: le estremità dell’assone di un neurone entrano in contatto con le estremità dendritiche di un neurone successivo mediante delle espansioni bulbiformi che si accostano su un sito di giunzione chiamato sinapsi.

Le sinapsi, costituite da una piccolissima distanza, detta gap sinaptico, di soli 200nm che si trova fra il termine dell’assone del neurone a monte e il filamento dendritico di un neurone a valle, e che è uno spazio di trasporto di materiale chimico, sono in grado di diminuire o aumentare il segnale del neurone, per cui si possono avere neuroni eccitatori e neuroni inibitori.

Le sinapsi sono essenzialmente dispositivi biochimici che elaborano segnali elementari, convertendo il segnale elettrico (segnale pre-sinaptico) in segnale chimico nel punto di passaggio fra neurone e neurone (assone-dendrite), per poi riconvertirlo nuovamente in segnale elettrico (segnale post-sinaptico). La forza delle connessioni sinaptiche non è fissata una volta per sempre, ma è variabile.

Come fu dimostrato da Donald Hebb, la forza di una connessione sinaptica viene aggiustata via via che il livello di attività cambia: una sinapsi attiva, che ripetutamente eccita l’attivazione del suo neurone postsinaptico, incrementerà in grandezza, mentre le altre, che non sono attive, progressivamente si indeboliranno. Questo meccanismo di plasticità sinaptica nella struttura delle connessioni neurali è conosciuto appunto come regola di Hebb, ed ha un ruolo predominante nel complessivo processo di apprendimento.

Si può guardare ad un insieme di neuroni come ad una sorta di “popolazione neurale”, prodromica alla rete neurale vera e propria, a sua volta prodromica allo svilupparsi di un vero e proprio “cervello” che possa poi avere processi mentali, quando risultano soddisfatte quattro condizioni:

❯ vi devono essere molti elementi indipendenti, semiautonomi;

❯ ogni elemento deve avere interazioni “deboli” con molti altri elementi dell’insieme in modo tale che il legame tra due singoli elementi non risulti indispensabile rispetto al complesso dei legami e l’interrompersi di un singolo legame non abbia influenza sul funzionamento complessivo dell’insieme;

❯ la relazione fra segnali di ingresso e segnali di uscita del complesso nella sua interezza non deve essere lineare;

❯ deve esistere una fonte di materia ed energia, esterna al sistema, con possibilità di dissipare il calore ed eliminare prodotti di scarto. Da notare che il comportamento dei singoli elementi è vincolato all’insieme in cui sono inseriti e non è possibile comprendere il funzionamento del singolo elemento se si prescinde dal complesso.

L’enorme aggregazione e la densità di connessioni anatomiche ottenuta tramite lo sviluppo di dendriti e di assoni, fanno sì che ad un certo punto i neuroni cessino di agire come individui singoli ed inizino invece ad agire come membri di un sistema nel quale ognuno fornisce un contributo ed al quale ognuno è assoggettato: sopra ad una certa soglia di densità di connessioni sinaptiche i neuroni di un aggregato, che non sono interattivi di per sé (sarebbero solo un insieme di neuroni), cambiano stato e diventano interattivi.

Vi è dunque un momento di “innesco” di questa condizione e in questo nuovo stato il livello di attività neuronica risulta determinato dall’intero complesso della popolazione; la soglia per la transizione di stato viene raggiunta quando un neurone riceve da altri neuroni un numero di impulsi pari a quelli che esso invia ai neuroni del proprio intorno (esempio: se riceve 100 impulsi e ne rinvia 100). Una volta attivato, l’aggregato divenuto così una “popolazione neuronica” sarà in grado di continuare la propria attività anche senza la presenza di ulteriori segnali in ingresso; successivamente, continuando lo sviluppo di tale “popolazione neuronica”, grazie all’aumento delle connessioni, ogni neurone riceverà più impulsi di quanti ne invierà, per esempio 120 impulsi per ogni 100 impulsi inviati.

In teoria questo rapporto potrebbe aumentare ad ogni ciclo successivo, ma questo non accade a causa di un meccanismo biologico di saturazione: i neuroni hanno periodi di refrattarietà individuale che determinano il limite superiore dell’attività dell’intero insieme. Pertanto, indipendentemente dalla densità che le connessioni sinaptiche riusciranno a raggiungere grazie allo sviluppo dell’aggregato, la popolazione neuronica arriverà sempre ad un livello stazionario di attività, senza bisogno di segnali inibitori esterni; una volta raggiunto il livello stazionario la popolazione sarà quindi divenuta semiautonoma, e potrà assumere uno stato di inibizione, così come pure uno di eccitazione al momento che sopraggiunga una perturbazione dall’esterno.

Da qui il fatto che il cervello è un organo di altissima complessità, dotato di un comportamento “non lineare”; con questo si intende dire che la risposta del cervello ad un qualsiasi stimolo non è esprimibile in termini di una funzione matematica a proporzionalità diretta.

È da rilevare come i meccanismi aggregativi utilizzati dalle reti neurali artificiali non siano per ora neanche paragonabili alla complessità dei meccanismi aggregativi che i neuroni naturali sviluppano.

È evidente come, proprio grazie al massiccio parallelismo e a dispetto del fatto che la velocità delle singole operazioni sia in realtà più lenta, il cervello possa effettuare compiti quali il riconoscimento di pattern, la percezione di figure all’interno di una scena, il controllo della locomozione, in modo sicuramente molto più veloce (e contemporaneamente) rispetto al più veloce dei computer digitali che non sono ancora in grado di replicare alcune funzioni che invece il cervello può effettuare.

Per fornire un esempio fra i più banali, si consideri l’efficienza del sistema di visione umano, un’efficienza tale da poterci fornire una rappresentazione dell’ambiente circostante tanto precisa al punto da consentirci di interagire dinamicamente con l’ambiente stesso; è da osservare che una qualsiasi delle operazioni messe in atto dal sistema di visione, come il riconoscimento di una faccia a noi familiare inserita in una scena non familiare, viene attuata dal cervello in circa 100, al massimo 200 ms. Operazioni di complessità molto inferiore richiedono invece ore per un computer digitale dei più veloci esistenti oggi.

Ancora, si consideri la straordinaria efficienza del sistema sonar di un pipistrello, un sistema di localizzazione basato sull’eco e che fornisce all’animale una miriade di informazioni: la distanza dal bersaglio, la velocità relativa e la grandezza, così come molte altre informazioni fra le quali la propria posizione nello spazio circostante. Il flusso di informazioni e le operazioni correlate sono elaborate da un cervello grande quanto un’oliva; anche in questo caso la precisione del sistema sonar del pipistrello è molto superiore alla precisione dei sistemi radar o sonar sviluppati dagli ingegneri umani, che fra l’altro sono molto più grandi e necessitano per funzionare di molta più energia. Interessante il fatto che il cervello è anche un organo molto efficiente dal punto di vista energetico, dal momento che consuma solamente 10–16 joule per operazione per secondo, in confronto al consumo di 10–6 joule per operazione per secondo di un computer digitale. (Fine Prima Parte – continua)

Capitolo tratto dal libro “Intelligenza artificiale e fenomeni sociali, Previsioni con le reti neurali” pubblicato da Maggioli Editore, Santarcangelo di Romagna (RN), anno 2019 (pagg. 35 – 43)