“il cielo stellato sopra di me, e la legge morale dentro di me”
I. Kant
La prima legge della robotica dice che: “Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno”; la seconda legge che: “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la prima legge”, ed infine la terza legge che: “Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima o con la seconda legge”. Queste regole, proposte dallo scrittore di fantascienza e scienziato Isaac Asimov, sembrano contenere tutto ciò che serve ad un robot per comportarsi in modo eticamente corretto. Eppure non è così.
I robot stanno diventando “creature” sempre più complesse e in un futuro non molto lontano non basterà imporre delle regole per costringere il loro comportamento entro canoni stabiliti a priori. Negli ultimi anni le conoscenze tecnologiche e scientifiche nell’ambito dell’intelligenza artificiale e della robotica hanno subito uno sviluppo senza precedenti: automobili che si guidano da sole, algoritmi capaci di prevedere le abitudini e i gusti delle persone, robot capaci di esibire comportamenti complessi e comprendere il linguaggio umano.
Questi sono solo alcuni esempi dei recenti avanzamenti del settore, e le ultime innovazioni relative allo sviluppo di algoritmi sempre più potenti, come ad esempio quelli proposti dal cosiddetto “deep learning”, prospettano un futuro con robot in grado di apprendere in modo autonomo e senza limiti (open-ended learning) comportamenti ancora più complessi. Questi robot potrebbero sviluppare comportamenti imprevedibili che non potranno essere anticipati in fase di progettazione, per esempio potrebbero “rifiutarsi” di seguire le tre leggi di Asimov, così come altre regole.
Un discorso analogo si può fare anche per l’uomo e per le leggi che dovrebbero regolare il funzionamento di una società etica. Anche l’uomo può scegliere di non seguire le leggi anche se questo può portare a conseguenze negative sia sul piano personale che su quello più ampio della società in cui vive. Dunque imporre regole ad una intelligenza complessa, sia essa artificiale (robot) o naturale (uomo) potrebbe non essere la strada da seguire per ottenere comportamenti etici. Forse occorre che questa intelligenza sviluppi una propria consapevolezza delle regole in modo da scegliere autonomamente di rispettarle.
Questo articolo discute brevemente due aspetti critici che potrebbero contribuire allo sviluppo di questa consapevolezza nei robot (e negli uomini). Un primo punto riguarda la capacità di “mettersi nei panni dell’altro”, la cosiddetta empatia. Le regole possono “attecchire” ed essere efficacemente applicate solo se c’è empatia. Un’intelligenza artificiale o naturale che riesce a provare il dolore (o a percepire il danno) provocato da un comportamento non etico potrebbe essere più propensa a seguire delle regole comportamentali che evitano di provocare dolore agli altri. Con gli studi sui neuroni specchio le neuroscienze ci suggeriscono che il cervello umano è, per così dire, predisposto allo sviluppo dell’empatia.
Una recente ricerca coordinata dal Professor Markus Rütgen dell'Università di Vienna e pubblicata sulla prestigiosa rivista “Proceedings of the National Academy of Sciences” ha inoltre confermato che i circuiti cerebrali che regolano l'empatia nei confronti del dolore altrui sono parzialmente sovrapposti a quelli che modulano la sensibilità al dolore provato in prima persona. Una riduzione di quest'ultima comporta una riduzione nella risposta empatica.
Tutto questo potrebbe suggerire che inserire negli algoritmi e nelle architetture di controllo che regolano l’apprendimento e il comportamento di un robot i presupposti per lo sviluppo dell’empatia (ad esempio riproducendo alcune caratteristiche dei neuroni specchio in una rete neurale artificiale), potrebbe consentire al robot di imparare a “capire” il dolore provocato da un suo comportamento non eticamente corretto. Questa conoscenza potrebbe essere usata dal robot per scegliere autonomamente di seguire le regole che portano ad assumere comportamenti etici.
Se da un lato l’empatia può essere uno strumento che spinge “dall’interno”, al tempo stesso la nascita di un sentire etico dipende fortemente dal contesto in cui un soggetto si trova ad agire. Come l’uomo, il robot ha bisogno di svilupparsi “nell’ambiente giusto”. L’ambiente è dunque un secondo aspetto critico da considerare per realizzare robot etici. Il robot non deve sviluppare la propria intelligenza in un contesto troppo semplificato, ad esempio formato soltanto da oggetti; al contrario deve formarsi in un ambiente in cui sono presenti anche esseri umani, animali e altri robot. In altri termini il robot deve “crescere” in un contesto sociale. In questo modo il robot potrebbe apprendere in modo open-ended diverse abilità motorie e cognitive ma all’interno di un ambiente complesso che presenti dei vincoli (dati proprio dalla presenza di altri agenti estranei) che favoriscano lo sviluppo dell’empatia e delle competenze sociali, con processi del tutto simili a quelli che avvengono durante lo sviluppo del bambino dove l'apprendimento è sì open-ended ma allo stesso tempo è anche vincolato dall'ambiente specifico in cui il bambino cresce (ad esempio il contesto familiare, la scuola, ecc).
Robot più complessi che hanno sviluppato un’intelligenza empatica in un contesto sociale potrebbero dunque più facilmente acquisire una maggiore consapevolezza degli effetti (positivi o negativi) delle proprie azioni, e di conseguenza potrebbero sviluppare autonomamente una predisposizione a seguire regole che portino a comportamenti etici. E’ interessante notare come questa maggiore consapevolezza potrebbe consentire al robot anche di scegliere di non seguire le regole, ad esempio in quelle circostanza in cui questa trasgressione è la scelta migliore sul piano etico.
A questo proposito il filosofo ed esperto di intelligenza artificiale Jerry Kaplan fa notare come, addirittura, spesso sia necessario trasgredire le regole perché le circostanze lo richiedono. Ad esempio, una regola del codice della strada dice che ad un incrocio bisogna fermarsi se il semaforo è rosso; ma se siamo in una situazione di emergenza, ad esempio stiamo trasportando un ferito grave in ospedale, e non c’è nessuno che viene nella direzione che ha la precedenza, allora potrebbe essere più “eticamente corretto” passare con il rosso.
In situazioni come questa bisogna tener conto di tanti aspetti per compiere una scelta moralmente valida, e obbedire ad una regola imposta potrebbe rivelarsi una scelta non corretta per andare verso un comportamento etico. Un robot in grado di esibire comportamenti empatici e che abbia sviluppato la sua intelligenza in un contesto sociale potrebbe essere agevolato nell’affrontare situazioni come questa, in cui l’applicazione acritica delle regole è difficile da gestire e non sempre è garanzia di un effetto socialmente (e moralmente) positivo.
Queste considerazioni ci suggeriscono che forse l’aumento di complessità dei robot, ad esempio realizzando creature artificiali sempre più simili a noi in grado di provare empatia e di vivere in contesti sociali, non è detto che debba essere (come spesso si pensa) fonte di ansia e di preoccupazioni per il futuro dell’uomo. Al contrario analizzare e studiare i meccanismi responsabili della maggiore complessità del comportamento di un robot potrebbe essere un’opportunità di riflessione più ampia sui meccanismi (forse) analoghi che regolano i comportamenti umani, nonché un modo per prepararsi al cambiamento già in atto che porterà ad una società dove intelligenze artificiali e naturali conviveranno.
Daniele Caligiore e Vieri Giuliano Santucci