IMITAZIONE E RETROAZIONE: QUANDO IL PENSIERO ARTIFICIALE DIVENTA AZIONE

9 Aprile, 2018 | Autore : |

 

Una delle difficoltà che un uso rigoroso della logica classica potrebbe evitare,  quando parliamo di intelligenze artificiali, riguarda l’approssimazione con cui si associa al concetto di intelligenza, intimamente collegato al pensare ed al pensiero, l’azione della macchina. In altri termini una visione superficiale dell’intelligenza artificiale tende ad identificarla in base ai feedback che la macchina pensante manifesta, a livello comportamentale.

Il fenomeno spiega la scarsa attenzione che poniamo su alcune peculiarità dello sviluppo di questa branca della tecnologia applicata: vogliamo macchine pensanti che in realtà agiscano, mentre ci concentriamo poco sugli effetti di macchine che pensino in un determinato modo. Tornare dunque ad una rigorosa definizione del concetto di intelligenza non è solo fondamentale per evitare questo errore prospettico, ma consente di concentrarsi sullo sviluppo di macchine potenzialmente in grado di integrarsi nella società umana non solo compiendo azioni, ma magari elaborando un pensiero, una filosofia, un’estetica ed una morale autonoma. Scartare l’idea che la macchina pensante possa imparare, significa non riconoscerne le possibilità. Allo stesso tempo, il meccanismo collegato all’apprendimento apre ogni scenario possibile sull’espressione di liberi codici, parole, linguaggi, abili nel collegare il pensiero artificiale alla sfera emozionale del soggetto umano capace di recepire quel pensiero.

Se accettiamo che i robot possano essere chirurghi, portieri d’albergo, avvocati, siamo così convinti che non possano diventare anche attori, scrittori, polemisti o filosofi?

Si tratta di domande che possono apparire distanti dalla quotidiana pratica dell’avvocato, ma in realtà manca poco tempo prima che le influenze delle macchine sulla sfera sociale dell’umanità necessitino di un enorme sforzo di elaborazione giuridica. L’avvocato dunque deve ragionare di questi temi, essere pronto ad offrire un contributo di previsione, capace di orientare il legislatore prima e l’interprete della legge poi, quando i casi generati dalla coesistenza tra uomo e macchina cominceranno a diventare ordinaria amministrazione.

Il fatto che l’etimologia stessa della parola “robot” rimandi al lavoro, nel suo significato originario, in lingua ceca, non deve dunque trarre in inganno l’interprete che affronti la robotica sul piano dell’integrazione normativa delle macchine. Il robot non è un agente, ma è un oggetto capace di pensare. Ciò ne fa un potenziale soggetto di diritto e non solo un oggetto, con ripercussioni ovviamente incalcolabili sugli sviluppi delle norme che saranno chiamate a regolare il fenomeno delle AI.

 

La retroazione delle macchine pensanti è dunque da intendere come un passaggio successivo e non immediato dell’intelligenza artificiale. Esattamente come per l’umano, anche la macchina pensante può “covare”, elaborare, progettare un’azione differita, se i meccanismi dell’apprendimento di cui è capace rendono possibile un’imitazione dei processi di elaborazione del pensiero propri dell’uomo. Ciò comporta l’innalzamento del dovere di analisi del diritto nei confronti del soggetto artificiale. Nell’uomo, quando un comportamento si manifesta all’interno della sfera giuridica sociale, vi è una presupposizione dell’Ordinamento che attribuisce responsabilità delle azioni giuridicamente rilevanti, collegandole al pensiero dell’agente. Quid iuris nel caso delle macchine? Quando il pensiero e l’azione che intervengono nella sfera giuridica del cittadino/uomo sono figli di processi di apprendimento e retroazione che sfuggono ad una paternità umana, come attribuire al soggetto artificiale una responsabilità giuridica? Come ritornare all’uomo, se la macchina ha “camminato da sola?” Non sono domande di poco conto.

Il problema della retroazione del resto, agisce sia a livello di responsabilità diretta del soggetto artificiale, sia a livello di interazione tra uomo e macchina, con le conseguenze che possono derivare da una responsabilità dell’uomo nella formazione di pensieri e/o azioni giuridicamente rilevanti e nocive per la società. L’uomo può istigare la macchina pensante, la può condizionare, può interagire con una sua sfera cognitiva ed emozionale che si comporta secondo schemi imitativi dell’umano. Anche in questo campo il diritto futuro si troverà ad affrontare questioni assai complesse, di non facile progettazione, anche se appare necessaria una riflessione su quello che dovrà essere fatto per regolare tali fenomeni.

 

Se il meccanismo di retroazione del soggetto artificiale può essere accomunato a quello dell’umano, non possiamo escludere che i fenomeni di risposta allo stress si manifestano in modo simile tra le due entità. Diventa dunque fondamentale comprendere che il rapporto con la soggettività artificiale non potrà limitarsi ad un utilizzo della macchina da un umano che ne sia dominus, così come è accaduto nel corso della storia per i telai o le locomotive. L’intelligenza artificiale pone in potenza il problema dell’interazione paritaria, sul piano dell’agire, del pensare e perfino del sentire, tra umano ed artificiale. Ripensare integralmente le categorie e gli istituti giuridici immaginati per un mondo senza macchine sarà probabilmente una necessità che occuperà le migliori menti giuridiche dei prossimi venti anni.

 

 

La società degli avatar

 

All’interno del nostro sito abbiamo già affrontato alcuni aspetti della virtualità reale, iniziando a parlare di società degli avatar. Nell’ambito del diritto già oggi influenzabile da questa concezione possiamo senza dubbio rivolgerci alle esperienze dei social network. La diffusione di una vita virtuale, a livello social, che si affianca a quella reale, impone nuovi doveri ai giuristi ed agli interpreti più attenti e sensibili. Applicare schemi antichi a fenomeni innovativi, che non hanno punti di contatto con ciò che eravamo abituati a conoscere è uno dei gravi errori che il giurista, sia esso concentrato sulla normativa da scrivere, sia che invece agisca quale interprete, non dovrebbe mai commettere. Nella società degli avatar il rapporto tra personalità del soggetto di diritti e soggettività virtuale deve essere indagato alla luce di un’attività ermeneutica che non può fermarsi alla banale sovrapposizione delle due entità. Si tratta di un operato molto in voga nelle più recenti opere di legislazione ed interpretazione giurisprudenziale, italiane ed europee e non c’è alcun dubbio che tale agire appaia palesemente puerile, con implicazioni anche gravi sulla ridefinizione delle libertà 3.0 che spettano al cittadino socialico.

Ripensare i diritti, alla luce della civiltà degli avatar, separare il reale dal virtuale, comprendendo le peculiarità di questa nuova dimensione della personalità umana, è sicuramente uno dei temi su cui spendere energie e pensiero. Ancora più importante sarà aver realizzato una base che guidi il diritto in questo campo, quando la virtualità dei social network verrà sostituita dagli avatar veri e propri e quando questi diventeranno stabilmente interlocutori del cittadino umano. Allora non potremo più nasconderci dietro la banale riconduzione dell’interazione tra uomo ed avatar ad una dinamica che attribuisca tutta la soggettività all’umano e releghi l’avatar al ruolo di mero oggetto. L’accettazione della disumanizzazione di parte della personalità giuridica dell’individuo dovrà per forza trasferirsi sul piano normativo, trovando il modo di tracciare argini, confini e regolare le relazioni tra i due mondi.

Alla luce di queste probabili necessità, il meccanismo della retroazione della macchina pensante e della sua stretta correlazione con il problema dell’imitazione è di importanza capitale per la codificazione di norme che consentano all’uomo di muoversi in un quadro giuridico che definisca con certezza i suoi diritti e le sue responsabilità.

In particolare l’imitazione dell’artificiale, specialmente di quello capace di padroneggiare le tecnologie di produzione di avatar, rischia di creare problemi serissimi all’identificazione dei soggetti di diritto umani. La potenziale replicabilità della fenomenologia identitaria impone di trovare soluzioni al problema delle responsabilità giuridiche, operando sia in ambito strettamente connesso alla sfera dei diritti, sia sul versante economico e politico, per costruire ambienti capaci di evitare l’esasperazione di conflitti generati o amplificati da un utilizzo dissennato delle nuove tecnologie.

 

In questo senso non si può ignorare che la logica dei sistemi di calcolo complessi, se sarà in grado di replicare meccanismi di adattamento alle situazioni non lineari proprie della relazione umana, renderà difficilissimo distinguere umano ed artificiale. Il problema della riconoscibilità dell’uomo, sia per quanto attiene al rapporto con la sua identità emotiva, sia sul piano dell’affermazione di una tutela delle responsabilità giuridiche, è dunque un ulteriore elemento che dipenderà in buona parte dalla nostra capacità di limitare, regolare e codificare i meccanismi della retroazione e dell’imitazione delle macchine pensanti. Volendo banalizzare, se vogliamo impedire che l’artificiale possa mimetizzarsi con l’umano, e viceversa, dobbiamo accettare l’idea del limite alla libertà di retroazione ed imitazione della macchina, riconoscendo che l’evoluzione che oggi porta alla ricerca di una sempre maggiore confusione tra attività dei robot e dell’uomo, presto potrebbe diventare un punto di non ritorno nei fenomeni di disumanizzazione ed irriconoscibilità delle macchine e degli individui umani.

 

 

La prevedibilità dei comportamenti delle macchine: possibile? 

Uno dei benefici legati alla trattazione di queste problematiche sul piano astratto e teorico, in una dimensione della narrativa che possa ammantarsi di un’aura quasi fantascientifica, si traduce nella capacità di ipotizzare modelli assai arditi, funzionali alla loro natura didattica. La possibilità di prevedere i comportamenti delle macchine, che come abbiamo visto può risultare fondamentale ai fini della certezza dell’identità, è già esclusa dalle evidenze della prima cibernetica. Abbiamo già accennato al tema della complessità, della quantità di operazioni che possono rendere, a livello empirico, indistinguibile per l’uomo un comportamento del soggetto artificiale apparentemente estemporaneo, che invece sia il frutto complesso di una programmazione lineare, già predeterminata. La complessità è dunque un elemento che agisce in ridondanza con l’imprevedibilità, lasciando nuovamente il pallino della controllabilità dell’agire artificiale nelle mani di quegli accorgimenti tecnici, guidati necessariamente da un sistema di valori umanistici, che possa definire il senso accettabile dell’evoluzione delle macchine.

 

Avv. Salvatore Lucignano

CERCA