L’Intelligenza Artificiale e l’Uomo
Nella sezione Notizie del Coaching, trova spazio un interessante quadro delle linee guida contenute nel quadro normativo per l’utilizzo dell’intelligenza artificiale. Perché al centro c’è l’uomo, e i suoi valori universali.
Anche la Commissione europea, dopo Stati Uniti, Cina ed altri stati, ha delineato il proprio approccio alla intelligenza artificiale ed alla robotica avanzata. È un problema di rilevanza economica e politica. Focus dell’approccio è: “l’uomo al centro”.
Partendo dalle discipline normative esistenti e aggiornandone l’orizzonte, l’attuazione prevede la definizione di un quadro normativo (pertanto, non di una legge) e indirizzi di etica della tecnologia, sulla base della Carta dei diritti fondamentali dell’Unione. Il lavoro di una Commissione ad hoc ha già portato alla pubblicazione di una prima versione delle linee guida. Considerata l’evoluzione continua del settore robotica, la regolamentazione resta aperta alla possibilità di continui aggiornamenti. Ma l’indirizzo centrale ècostituito dall’intenzione di volere “promuovere i valori umani”, in quanto “lo sviluppo e l’uso dell’intelligenza artificiale non deve essere percepito come un fine in sé, ma con lo scopo di aumentare il benessere dei cittadini”. L’adesione ai principi proposti dalla regolamentazione resta affidato alla scelta della singola impresa, del ricercatore e/o utilizzatore. A tutti i soggetti operanti in ambito internazionale che condividono le affermazioni contenute nel documento, verrà consentito di firmare ed aderire pubblicamente a questo documento.
Focus del documento è quello di una “intelligenza artificiale affidabile”: ossia, prodotti tecnicamente affidabili e persone che possono fidarsi della tecnologia. Il che presuppone la definizione di ciò che è buono, giusto, di che cosa possa costituire una “buona vita”.
Questa definizione comporta problemi etici assai rilevanti e diversi:
- dal potenziamento umano(possibilità di manipolare il proprio corpo, attraverso la tecnologia per superare limiti fisici o mentali considerati invalicabili), allo sviluppo e uso di armi, completamente autonome (non soggetta dunque alla decisione umana di uccidere o meno)
- dalla possibilità di analizzare dati complessi di un individuo, riferibili alle sue abitudini, preferenze, ad arrivare a predire o manipolare il suo comportamento.
La Commissione europea ritiene che, per potersi fidare della tecnologia, questa persegua uno “scopo etico”.
Mentre l‘affidabilità tecnica è connessa al ricorso alle migliori conoscenze, lo scopo etico è connesso sia al rispetto dei diritti fondamentali e delle discipline normative, che al rispetto dei seguenti cinque principi fondamentali:
- beneficenza: sviluppo economico, equità sociale e tutela dell’ambiente;
- non maleficenza: l’intelligenza artificiale non deve nuocere all’uomo; pertanto: no a discriminazioni, manipolazioni del singolo o dell’opinione pubblica;
- autonomia: assicurare la libertà degli esseri umani dalla subordinazione o dalla coercizione di sistemi di intelligenza artificiale, il cui uso non deve diventare obbligatorio. Ad esempio, un medico non dovrebbe essere costretto, per svolgere il proprio lavoro, a fare ricorso a sistemi esperti (programmi di intelligenza artificiale);
- giustizia: uso, sviluppo e regolazione della intelligenza artificiale devono essere delineati per rispettare un principio di equità, garanzia di uguali opportunità, rispetto delle etiche imposte dalla società, risarcimento in caso di incidenti;
- comprensibilità: trasparenza della tecnologia e del modello di business.
I primi quattro principi ripercorrono quelli della bioetica nord-americana, e cioè di autonomia, in contrapposizione a quello europeo della dignità umana. La scelta consiste nel principio che la dignità umana fonda la autonomia, che a sua volta si concretizza, a livello applicativo, nel principio del consenso informato. “Il singolo deve essere informato perché possa comprendere e quindi liberamente determinarsi, potenzialmente senza limiti”.
Il quinto principio costituisce una novità, specificatamente imposta dalle tecnologie emergenti. Il ricorso ad algoritmi e all’intelligenza artificiale avverrà per far fronte, in modo automatico, a scelte imposte dalla nostra vita; e tali scelte imporranno la necessità di una completa comprensione del procedimento utilizzato dal sistema per la decisione.
Il problema della realizzazione di questa macchina sta:
- nel tipo di approccio della macchina: il ”machine learning”, ossia il fatto che il sistema modifica autonomamente il proprio funzionamento nel tempo, imparando dall’esperienza;
- nell’analisi dei big data, che possono rendere non trasparente il processo decisionale della macchina.
Fra i rischi contemplati si cita “l’inganno”. Un essere umano interagendo con un robot androide o un sistema di intelligenza artificiale, potrebbe non distinguere la natura artificiale della macchina, sviluppando una affezione irrazionale. Di qui il principio che ogni forma di inganno sia prevenuta, che l’essere umano sia informato della vera natura della macchina. Ma se la simulazione e l’apparenza che si venisse a creare fosse desiderata dall’uomo (l’autore dell’articolo citato fa l’esempio di un rapporto sessuale), sarebbe sufficiente un consenso a rendere l’utilizzo della macchina eticamente accettabile?
Buona lettura!
- Da: La lettura, del 23 dicembre 2018, “Un’etica per i robot”, estratto da pag.14,15; a firma Andrea Bertolini.