L’intelligenza artificiale ha un’etica?

Le tecnologie con una propria mente (o algoritmo) non possono sviluppare una coscienza “umana”

26 mar 2024
3 minuti di lettura

Quando si parla di intelligenza artificiale, è facile pensare allo strumento come un elaboratore di pensieri e produzioni umane, ma spesso sfocia nell’idea che si tratti anche di una mente indipendente in grado di discernere come se avesse una coscienza.

Questo tema si dibatte dai primi computer e dai primi algoritmi. Nonostante si creino strumenti tecnologici con una propria intelligenza, non vuol dire che possano osservare l’essere umano come oggetto e non come soggetto responsabile. La deresponsabilizzazione può portarci, infatti, a intendere che l’IA possa sviluppare autonomamente un’etica in grado di prendere decisioni in libertà, ma deve esserci sempre una mano “umana” a guidarla.

Il tema fulcro di questi ragionamenti sembra, quindi, che non si debba necessariamente sviluppare l’IA come una scatola nera impenetrabile a cui affidare decisioni che possano facilmente indulgere nel relativismo – sono complesse per l’essere umano, non possono essere semplici per una macchina ideata da un essere umano. L’idea è che la costruzione degli algoritmi di intelligenza artificiale possano avere qualità quali trasparenza, soprattutto, accessibilità, proprio per la natura relativa e cangiante dell’etica stessa.

Non bisogna parlare, dunque, in via definitiva di cosa l’IA debba vedere come giusto e sbagliato ma, come viene affermato nel Manifesto per la Sostenibilità dell’IA, della Fondazione per la Sostenibilità Digitale, identificare fattori come trasparenza, privacy, sicurezza, revoca, riconoscibilità, portabilità, interoperabilità. Per cui lo sforzo non dovrebbe essere concentrato sulla ricerca di improbabili equilibri globali su cosa è buono e cosa è cattivo, ma applicare criteri di sostenibilità economica e sociale all’intelligenza artificiale. Benché ci sia sempre spazio per migliorare e approfondire, questi argomenti sono già stati delineati nell’Agenda 2030.

Perciò no, la tecnologia non potrà mai sostituire completamente l’essere umano, soprattutto nell’elaborazione di decisioni e processi complessi, ma ha un ruolo fondamentale nell’aiutarci a delinearli.

Secondo un rapporto del Ministero dell’Economia e delle Finanze, infatti, pur essendo i “dati” e le informazioni diventate nuova preziosa forma di guadagno, non permettono ai semplici algoritmi di riuscire a elaborare una conoscenza “interpretativa” della realtà – lo si è visto soprattutto nei casi in cui ha erroneamente indicato soggetti afroamericani nelle foto come “gorilla” o nel modo in cui traduce letteralmente modi di dire stranieri senza considerare il contesto della frase.

Non si tratta, secondo questo dibattito, di uno strumento che possa “sostituirci” definitivamente, ma di un sostegno concreto e un aiuto prezioso per diversi aspetti della vita umana, lavorativa e non.


 

Leggi anche
31 ago 2021
Asimov: Intelligenza Artificiale al servizio della comunicazione
startup innovazione
18 feb 2022
Intelligenza Artificiale, un mercato in crescita continua
6 apr 2021
L’intelligenza artificiale tra sviluppo e formazione