top of page

E se le intelligenze artificiali reclameranno il diritto alla loro autoaffermazione?

Quale futuro per la bioetica delle I.A. (Intelligenze artificiali)? Queste sono domande che pongono sfide etiche e giuridiche di grande rilevanza per il nostro tempo, in cui la scienza e la tecnologia avanzano a ritmi sempre più rapidi e creano sia nuove possibilità che nuovi problemi per l'umanità.




L'intelligenza artificiale (AI) è una disciplina che studia e realizza sistemi capaci di svolgere compiti che richiedono abilità cognitive, come apprendere, ragionare, comunicare e decidere. Tra le sue applicazioni più note ci sono i robot, le macchine che interagiscono con l'ambiente fisico e sociale in modo autonomo o semi-autonomo.


I robot possono essere utili per svolgere attività pericolose, faticose o ripetitive, ma anche per assistere le persone in ambiti come la medicina, l'educazione, l'arte e il divertimento. Tuttavia, i robot possono anche generare rischi e dilemmi morali, come la responsabilità dei danni causati da errori o malfunzionamenti, la tutela della privacy e della sicurezza dei dati, l'impatto sull'occupazione e sulle relazioni umane, la possibilità di manipolazione o abuso da parte di chi li controlla o li usa.


Inoltre, è presumibile che i robot possono diventare sempre più intelligenti, autonomi e consapevoli di sé, grazie ai progressi dell'apprendimento automatico e dell'intelligenza artificiale in generale. In questo scenario si pone la questione se i robot possano o debbano avere diritti e doveri, come il diritto alla vita, alla libertà, al rispetto e alla dignità. Si tratta di un dibattito aperto e controverso, che coinvolge filosofi, giuristi, scienziati, ingegneri e comuni cittadini fruitori dei loro servizi.


Alcuni sostengono che i robot siano solo strumenti sofisticati, privi di vita, emozioni e valori, e che quindi non meritino alcuna considerazione etica o giuridica. Altri ritengono che i robot possano essere considerati agenti morali o soggetti di diritto, a seconda del loro livello di intelligenza, autonomia e consapevolezza. Altri ancora propongono una via di mezzo, basata su principi di precauzione, responsabilità e beneficio reciproco.

In questo scenario possiamo attingere al termine “automatonofobia”, ovvero paura di robot, automi, androidi e altre forme di intelligenza artificiale. Questa specifica fobia è generalmente causata dalla paura irrazionale nei confronti di oggetti che riproducono falsamente un essere umano, come bambole, manichini, statue di cera o creature animate elettronicamente. Per quanto concerne i robot, questa fobia assume caratteri relativamente nuovi, in quanto l'uso di robot e della tecnologia avanzata è ancora recente nella società moderna. Il timore della automazione in parte si avvicenda al luddismo, un movimento di protesta operaio, sviluppatosi all'inizio del XIX secolo in Inghilterra, quando gli operai luddisti si opposero alla diffusione delle macchine tessili, ritenute causa di disoccupazione e penuria di lavoro.

Dal punto di vista bioetico, un aperto dibattito lo si trova in ambito sanitario: di fronte a una presunta “colpa professionale” derivante dall’utilizzo dei sistemi decisionali con intelligenza artificiale chi sarebbe il responsabile? L’utilizzatore della apparecchiatura, oppure il produttore?

Il progressivo depauperamento delle umane autonomie decisionali potrebbe, in un futuro, rendere sempre più difficile contraddire dei sistemi dotati di autonomia decisionali e così apparentemente infallibili, a differenza degli esseri umani, fallibili per loro stessa definizione.

Nonostante non vi siano ancora molte ricerche sull'automantonofobia, alcuni esperti suggeriscono che la paura dei robot possa essere alimentata dall'idea che questi rappresentino una minaccia per il lavoro umano, oltre che per la privacy e la sicurezza delle persone. Secondo il filosofo tedesco Gunther Anders, questa dinamica è anche definibile "vergogna prometeica" ovvero il senso di colpa e di disperazione che gli individui sperimentano quando si rendono conto della propria impotenza di fronte alle tecnologie che loro stessi creano e che usano. In altre parole, il termine si riferisce alla consapevolezza dell'uomo di aver creato le tecnologie che lo governano, ma che allo stesso tempo lo rendono impotente e dipendente. Questo concetto viene esplorato in diverse opere di Anders, tra cui “l’uomo è antiquato”.

C’è da considerare, inoltre, in uno scenario per certi versi fantascientifico, che il futuro delle lotte contro le diseguaglianze e dei pari diritti verterà su forme di advocacy verso appunto i robot e le nuove e più evolute forme di I.A.



AUTORE DELL’ARTICOLO: Dott. Marco Matteoli, medico chirurgo specialista in diagnostica per immagini. Giornalista pubblicista, laureato nel 2020 in Cooperazione Internazionale e Sviluppo presso l’Università di Roma “Sapienza”. Dal 2009 medico volontario della componente civile e del corpo militare della croce rossa italiana.




Sitografia


Bibliografia

  1. Anders Günther and Dallapiccola, L. (2007) L'uomo è Antiquato. Torino: Bollati Boringhieri.

Post in evidenza
Post recenti
Archivio
Cerca per tag
No tags yet.
Seguici
  • Facebook Basic Square
  • Twitter Basic Square
  • Google+ Basic Square
bottom of page