Ultima edizione | Archivio giornali | Archivio tematico | Archivio video

CNR: Alamanacco della Scienza

N. 1 - 13 gen 2021
ISSN 2037-4801

Focus - Macchine  

Tecnologia

Essere o non essere umano, questo il dilemma

Lo sviluppo dell'Intelligenza artificiale (Ai) è stato così rapido che l'analisi degli aspetti etici e psicologici del rapporto uomo-macchina è divenuta uno dei temi principali di riflessione da parte di ricercatori e filosofi. Già oggi, in diversi contesti, molte decisioni vengono prese autonomamente da sistemi intelligenti e i fornitori di beni e servizi sono proiettati verso un salto di qualità tecnologico che vede l'integrazione e l'uso di questi sistemi in piattaforme robotiche di ultima generazione. Si fa quindi sempre più necessaria la questione etica del rapporto dell'uomo con i robot, ma anche tra le stesse macchine. “Il termine 'roboetica' fu usato per la prima volta nel 2002 da Gianmarco Veruggio, dirigente di ricerca dell'Istituto di elettronica e di ingegneria dell'informazione e delle telecomunicazioni del Cnr, per denotare le diverse problematiche etiche riguardanti la progettazione e l'impiego dei robot”, spiega Agnese Augello, ricercatrice dell'Istituto di calcolo e reti ad alte prestazioni (Icar) del Cnr. “In particolare, per agenti morali artificiali si intendono quei sistemi che incorporano un ragionamento morale nelle loro decisioni e che, in funzione del contesto socioculturale in cui operano, devono valutare le possibili azioni considerando, oltre agli obiettivi prefissati, il rispetto di norme sociali e la priorità tra diversi valori morali”.

Bisogna cioè valutare anche come un sistema di Ai debba comportarsi di fronte a dilemmi morali, ben noti all'uomo. “Si pensi ad esempio a un sistema a guida autonoma che, trovandosi di fronte a un pedone, deve decidere se evitarlo o salvaguardare la sicurezza degli occupanti del veicolo; oppure a un robot di ricerca e soccorso che deve stabilire una priorità tra le vittime, a un robot caregiver che, in determinate circostanze, deve decidere se sacrificare valori come desideri libertà e privacy dell'individuo per garantire la sua salute e la sua sicurezza”, prosegue la ricercatrice.

Nel momento in cui i robot non sono più utilizzati come semplici strumenti e il controllo umano non è predominante occorre garantire un comportamento eticamente accettabile. “Da un punto di vista etico, non ci sono soluzioni ottimali. Virginia Dignum, docente del dipartimento di Computing Science della Umea University (Svezia), propone un approccio metodologico chiamato Design for Values per lo sviluppo di una Ai che incorpori valori sociali ed etici ed estenda i classici obiettivi di autonomia, interattività e adattabilità perseguendo ulteriori, importanti finalità”, continua Augello. “In particolare, nel momento in cui si dà maggiore autonomia a un sistema, occorre considerare come ulteriore obiettivo la responsabilità. Deve esserci una chiara catena di responsabilità che collega la scelta dell'agente ai soggetti (proprietario, produttore, sviluppatore, etc), che contribuiscono alla decisione. Se si progetta un sistema in grado di interagire con l'utente, occorre perseguire anche l'obiettivo di accountaubility, ovvero fare in modo che si possa spiegare in maniera facilmente comprensibile come sono state prese le decisioni. Se si progettano moduli di apprendimento dovrebbe essere garantita anche la trasparenza degli algoritmi e i dati utilizzati. Diversi lavori evidenziano come occorra porre attenzione alla possibile presenza di pregiudizi nei dati utilizzati per il processo di apprendimento, che potrebbero quindi riversarsi nelle credenze del sistema di Ai e condizionarne il comportamento”.

Quando le macchine hanno rapporti diretti anche fisicamente con l'uomo c'è anche un aspetto emotivo da non sottovalutare, soprattutto se esse vengono usate nell'assistenza di persone fragili. “Un'eccessiva antropomorfizzazione del robot può far emergere aspettative e convinzioni ben diverse dalla realtà e, quindi, ingannare individui vulnerabili. Nel contesto del caregiving, un altro rischio è che i robot possano sostituirsi ad altri individui nelle relazioni della persona che viene assistita”, conclude Augello. “Progettare sistemi in grado di comunicare e imparare, depositari di memorie umane, opinioni e credenze ha anche un forte impatto sulla nostra consapevolezza e sulla comprensione di noi stessi, come sottolinea Luciano Floridi, professore di filosofia ed etica dell'informazione all'Università di Oxford. La ricerca e le discussioni su queste tematiche sono promosse a livello globale da diverse organizzazioni e hanno portato alla definizione di linee guida. Tra le diverse organizzazioni possiamo menzionare a livello europeo l'High-Level Expert Group on Artificial Intelligence, nominato dalla Commissione Europea”.

Edward Bartolucci

Fonte: Agnese Augello, Istituto di calcolo e reti ad alte prestazioni , email agnese.augello@icar.cnr.it -