APPRENDIMENTO EMPATICO NELLE MACCHINE PENSANTI

9 Aprile, 2018 | Autore : |

 

Le riflessioni che stiamo cercando di sottoporre agli avvocati italiani sono profondamente politiche, perché si occupano di prospettive, di indicare per tempo le caratteristiche della professione futura. Uno dei compiti primari della buona politica è l’anticipazione degli eventi, la capacità di immaginare ciò che sarà e di proporre regole che derivino dalla ragione, dall’empatia umana. Quando la politica rinuncia al governo del futuro e diventa mero galleggiamento, apatica sussistenza nel presente, diventa altro, perde ogni funzione etica ed inevitabilmente degenera, portando a pratiche che abbrutiscono chi la pratica.

 

NAD sta combattendo una battaglia di grande portata e proprio l’essere un unicum nel panorama forense italiano ci sottopone ad enormi pressioni, non solo provenienti dal regime che vogliamo rovesciare, ma anche – e forse soprattutto – da chi vede nei nostri standard ideali ed operativi un ostacolo insormontabile per sperare in un’affermazione sostitutiva dell’attuale casta dominante. La lotta spietata all’elevazione del dibattito, alla documentazione del pensiero politico, il disvalore riversato sulla parola e sul pensiero, sono solo alcuni degli strumenti che la parte più incolta e mediocre dell’avvocatura, estranea alla Cosa Nostra Forense, ma comunque decisa ad affermarsi, riversa sulla nostra associazione.

NAD fa paura, perché dopo i nostri convegni pubblichiamo relazioni e non ci limitiamo alle foto ricordo, perché proponiamo un sistema che non offra più espedienti agli istituzionalizzati, impedendogli di finanziare la loro crisi professionale con il denaro dei nostri colleghi, ma fa paura anche perché offre un’elaborazione politico/culturale sconosciuta ad altre realtà politicanti, autoreferenziali, che si muovono attorno alla nostra associazione, tentando di limitarne la portata rivoluzionaria ed allo stesso tempo provando in tutti i modi a far calare una sordina sul nostro operato. Noi non ce ne curiamo, andiamo avanti, consapevoli che il lavoro che stiamo facendo mostrerà tutta la sua importanza negli anni a venire.

 

 

Il data mining e la catena di valore 

Siamo partiti dalla politica solo apparentemente per caso. In realtà è proprio la politica, nella sua componente volta all’elaborazione, che oggi raccoglie buona parte del valore distribuito nella società. L’oggettivazione dell’attività politica, la sua trasformazione in un mestiere, è da un lato una degenerazione sociale, ma dall’altro rappresenta un fenomeno di allocazione di valore che va analizzato, allo scopo di ottimizzare i comportamenti sociali.

La politica, quando funziona come elemento che accumula valore, non fa altro che comportarsi come una banale batteria, di quelle che teniamo all’interno delle nostre automobili. La trasformazione dell’energia potenzialmente accumulata nella politica in valore, che viene rilasciato ai politici, impone una riflessione importante sul ruolo degli intellettuali nella società cibernetica. La scomparsa dell’intellettuale, come riferimento sociale in grado di guidare le scelte produttive di valore, attiene proprio al rapporto tra apprendimento meccanico ed empatico e ci getta di peso nel problema che vogliamo brevemente illustrare con questo articolo, ovvero la necessità di bilanciare la quantità e la qualità della capacità di pensiero delle intelligenze artificiali, onde prevenire la disumanizzazione della società, del diritto e dell’avvocatura.

 

 

Gli spunti che stiamo pubblicando sul tema delle intelligenze artificiali non lasciano dubbi sull’atteggiamento critico, cauto, che NAD ha assunto verso questa evoluzione ulteriore delle frontiere dell’agire concreto dell’uomo. Molti nostri soci sono fermamente convinti che un’acritica equiparazione del nuovo e del diverso al concetto di progresso non possa essere accettata. Abbiamo il dovere, proprio in virtù del nostro essere giuristi, di chiederci con onestà quali possano essere i rischi legati a cambiamenti che ci portino ad affrontare fatti del tutto nuovi, mai indagati né vissuti prima dall’umanità. Questi fatti, che stanno già imponendo una riflessione sulle norme che devono regolare la possibile coesistenza di intelligenze umane ed umanoidi, devono essere osservati e regolati dando forte impulso al primato dell’empatia, sviluppando una conoscenza approfondita, anche a livello popolare, dei concetti che riguardano l’agire, il pensare, l’apprendere. Non possiamo ignorare ciò che sta entrando prepotentemente nelle nostre vite, perché senza capire “come funziona”, non possiamo emettere nemmeno giudizi di valore credibili sulla bontà o meno del suo utilizzo.

 

 

Politica, tecnica, empatia, macchine e robot. Solo ad uno sguardo superficiale questi temi possono apparire difficili da collegare. In realtà tutte le questioni che la robotica affronta, collegate al concetto stesso di intelligenza artificiale, nascondono profonde implicazioni con le scienze sociali ed umanistiche, rimandando a dilemmi da affrontare non sul piano piano, tecnologico e banalmente operativo, bensì su quello sociologico, filosofico, giuridico e politico.

Il riferimento a Pasolini è quanto mai calzante. Partiamo infatti dal concetto di dogma sociale, ovvero di una credenza, diffusa a livello capillare nella società, che sia capace di conformare, in modo “prerazionale”, l’agire tendenziale dell’individuo. Nel caso delle nostre riflessioni, il concetto di efficienza nell’elaborazione di calcolo concessa ai robot, ben può essere considerata il nostro dogma esemplare. Se dunque partiamo dal concetto, empiricamente verificato, che i robot e più in generale le macchine, sanno pensare più velocemente dell’uomo, dobbiamo stare molto attenti a non confondere tale velocità con una dogmatica impressione di qualità superiore del pensiero robotizzato.

Certo, le macchine possono eseguire calcoli che la mente umana fatica ad elaborare, ma il pensiero e l’apprendimento sono processi del tutto diversi dalla mera capacità di mettere insieme un gran numero di calcoli in un limitato lasso di tempo. Occorre in altri termini prendere coscienza dell’approccio bivalente da avere nei confronti dell’intelligenza dell’automa: il sistema automatizzato pensa meglio dell’uomo o semplicemente agisce in modi diversi dall’uomo?

Le risposte sono molto meno immediate di quanto il dogma progressivo dell’intelligenza artificiale possa lasciarci immaginare. Se seguiamo le teorie dell’apprendimento generalmente utilizzate per definire i problemi, notiamo che il teorema di base per giungere ad una codificazione del pensiero utile si basa sull’enunciazione di numero finito di step, necessari per trovare ciò che abitualmente definiamo come “soluzione” al problema stesso. Un modello problematico siffatto è dunque facile da inquadrare in una logica “meccanica” del pensiero automatizzato, perché si basa su fattori determinati, a priori, o comunque analizzabili, a posteriori, sulla base di procedure codificate, e potenzialmente ripetibili, con risultati concreti e tangibili.

Cosa accade però quando il sistema automatico di pensiero, che ha appreso secondo gli schemi programmati in base alla valutazione preliminare delle strade logiche che portano alla soluzione di un problema “ben definito”, si trovano di fronte a scelte di carattere etico, casuale, in cui il concetto stesso di apprendimento è legato ad una complessa sfera emozionale?

 

 

WAR GAMES. 

 

Il famosissimo film del 1983, con un giovane Matthew Broderick nel ruolo del geniale hacker capace di azionare la “mente” di un computer, pur muovendosi su un piano banale dell’elaborazione logica sottesa ai problemi dell’apprendimento empatico, centrava la questione in modo assai sagace. La macchina, nel caso di specie, scatenava una vera guerra tra URSS e USA, essendo stata programmata ad una serie di azioni e reazioni legate a fattori predeterminati. La sua capacità operativa consentiva di ricercare i codici di accesso necessari al lancio dei missili nucleari degli USA, ma allo stesso tempo, l’assenza di una visione “empatica”, gli impediva di imparare a valutare gli effetti umani della propria strategia. Nel film la soluzione ideata da David, per “insegnare” al computer l’inutilità di una guerra distruttiva non riusciva a superare lo scoglio dell’empatia. La macchina ( “Joshua”, dal nome del figlio prematuramente scomparso del suo programmatore), si “ferma” non perché abbia imparato un diverso modo di valutare la correttezza del suo agire, non perché abbia acquisito una “moralità” o etica umana, ma solo perché convinto dell’impossibilità di vincere il gioco della guerra, ovvero di provocare, mediante il lancio dei missili, un numero di danni al nemico superiore a quelli propri.

Ciò che illustra questo esempio banale non è molto diverso da quello che gli scienziati al lavoro sulle intelligenze artificiali devono tentare di risolvere, quando si imbattono in due elementi capaci di mandare in crisi i sistemi di pensiero automatizzato: il caos e l’interazione empatica tra analisi incomplete e strategie generali.

 

Il caos, il disordine, è una caratteristica propria della maggior parte degli ambienti logici non progettati in laboratorio. Tradotto in utilizzo concreto della macchina pensante, possiamo dire che il caos impedisca alla macchina di agire secondo le modalità programmate, proprio perché la risposta al dato non programmato manda in crisi il sistema automatico. Il concetto di caos è nemico dello sviluppo dell’apprendimento delle macchine pensanti, perché la risposta al disordine propria della mente umana è naturalmente empatica, legata a programmi arricchiti dall’esperienza. L’uomo è dunque programmato per pensare e reagire al caos secondo una strategia generale non programmabile, frutto di un numero di steps non sintetizzabili nella mera reiterazione di calcoli.

Per tradurre in un linguaggio di computazione questi concetti, si provi ad immaginare di voler far imparare ad una macchina tutte le partite possibili da giocare mediante il gioco degli scacchi. Una tale impresa necessiterebbe della capacità di apprendere un numero valutabile nell’ordine di 10 elevato alla 120esima potenza. Un compito assurdo, non per la sua concreta irrealizzabilità, quanto per l’evidente inutilità di un processo tanto lungo, che comporterebbe un uso smodato di energia, per finalità estranee alla strategia generale utilizzata dall’uomo.

 

 

 

Apprendimento funzionale o comportamentistico? 

Cosa fa una macchina pensante? Ha già una sua “intelligenza” in grado di farle elaborare autonomamente risposte empatiche a situazioni non programmate in origine dal suo creatore, oppure è dotata di una intelligenza semplice, che possa consentirle di offrire risposte via via più elaborate, sulla base di un vero e proprio processo di apprendimento? Quali sono le valutazioni dei sistemi automatizzati quando si tratta di uscire dal novero di problemi ben definiti?

Il problema non è scontato e non può essere ricondotto all’interno della mera meccanica della robotica. Ritorna in primo piano, nella scelta a priori dei modelli di apprendimento e di intelligenza che la società può effettuare, una valutazione che compete all’intellettuale, al giurista, al politico. NAD si è soffermata su una riflessione assai importante che ha trattato questi aspetti, ovvero l’intervento del Presidente francese Macron in una recente intervista, rilasciata alla rivista WIRED, ma i rischi legati all’automazione, alla sua potenziale sfera di influenza sulla società degli uomini, non devono assolutamente essere esclusi dal novero degli scenari possibili. I “war games” sono tutto meno che una remota ipotesi fantasy e la scelta di confini operativi supportati da un’adeguata conoscenza dei modelli cognitivi umani è fondamentale per impedire sviluppi che potrebbero avere impatti devastanti sulla psicologia degli uomini legati alle azioni delle macchine del futuro.

 

 

Robot in grado di impartire ordini agli umani, esoscheletri, sostituzione dell’uomo con macchine capaci di elaborazione sempre più efficiente, lo spostamento del concetto di abilità cognitiva naturale verso i confini di ciò che una definizione meramente empirica considera oggi artificiale, sono solo alcuni degli aspetti più discussi dell’introduzione della robotica all’interno della nostra società. Il rapporto tra lavoro e agire umano, tra reddito e socialità del cittadino uomo, la rielaborazione del valore e del concetto stesso di informazione, nella società del sapere automatizzato, non possono essere liquidati come argomenti di secondo piano.

In questo senso va intesa l’analisi del ruolo dell’intellettuale e più in generale della critica, all’interno della società delle macchine. Nel momento in cui l’intellettuale perde la sua funzione di indirizzo dell’agire collettivo, perché il sapere che esprime non viene valorizzato dai sistemi di allocazione della ricchezza, la società perde la capacità di guidare i propri processi di cambiamento in base ad un’etica empatica e le avanguardie diventano espressioni delle possibilità tecniche, o degli orientamenti di egemonie prive di qualsiasi connotazione etica necessaria.

 

La macchina si inserisce all’interno della società con effetti dirompenti, in grado di ridefinire il concetto stesso di rivoluzione: non più un movimento sociale dettato dal pensiero umanistico, volto a costruire diversi modelli di convivenza, ma sconvolgimento dell’identità dell’uomo, perdita delle connotazioni pratiche che segnano gli argini della nostra umanità, all’interno di scenari che possono astrattamente concretizzarsi come una gigantesca “matrix”.

 

 

Il rischio di una profonda frattura tra un sistema di conoscenze altamente socializzante ed un gran numero di esclusi è elevatissimo, porta a chiedersi se la razionalizzazione dei processi lavorativi e produttivi debba per forza far rima con una sua ottimizzazione, vista solo come miglioramento quantitativo delle operazioni, senza che una guida empatica e politica si interroghi sulle ricadute che questi mutamenti comportano, sulla ridefinizione dei rapporti tra individui e tra identità e psiche soggettiva.

NAD continuerà a spingere l’avvocatura italiana verso riflessioni capaci di tenere viva l’attenzione sul rischio di una disumanizzazione della società. Non possiamo permetterci di fare da spettatori al dogma omologante dettato dalla tecnica, dobbiamo riflettere sul valore, sui valori, su ciò che realmente può concorrere a realizzare lo sviluppo e l’evoluzione della specie umana. Se tutto ciò sarà compatibile con una vasta interazione dell’uomo con le intelligenze artificiali, avverrà solo in presenza di una guida umana che detti gli indirizzi valoriali delle future evoluzioni cibernetiche. In caso contrario, se non faremo nostri i principi di un sapere che oggi appare arcaico, soffocato da una declinazione banale e brutale del pensiero debole, le probabilità che il futuro dei nostri figli si trovi ad affrontare un mondo privo della sua anima umana sono concrete e nessun robot potrà sopperire ad una simile tragedia.

 

Avv. Salvatore Lucignano

CERCA