Salta al contenuto principale Skip to footer content
3 minuti di lettura
09/04/2026

Etica e governance dell'Intelligenza artificiale: la visione di Immanence

La startup opera sulla valutazione dei rischi e degli impatti dei sistemi IA nei contesti reali di utilizzo

Immanence

Una startup che opera nel campo dell’etica e della governance dell’intelligenza artificiale, con un focus sulla valutazione dei rischi e degli impatti dei sistemi AI nei contesti reali di utilizzo. Con l'obiettivo di supportare le organizzazioni a sviluppare e adottare questo genere di tecnologie in modo da massimizzarne l'impatto positivo. Sono questi gli orizzonti di Immanence, l'azienda fondata nel 2022 a Roma da Luna Bianchi e Diletta Huyskes. Nel loro racconto, Immanence nasce "dopo una giornata spesa con policy maker, imprenditori ed esperti europei a parlare di intelligenza artificiale, innovazione, sfide e futuro. Quella sera abbiamo capito che mancava un pezzo. Dopo anni passati nella ricerca e nella società civile a lavorare con aziende, PA e policy maker su intelligenza artificiale e i suoi impatti, avevamo maturato una consapevolezza: serviva qualcuno che aiutasse concretamente — artigianalmente, in alcuni casi — ingegneri, informatici e le organizzazioni che la adottano a costruire e governare bene l'AI. Non potevamo sperare di dare solo indicazioni dall’altro: serviva qualcuno che, nei contesti specifici, supportasse nel fare scelte tecnologiche migliori".

La proposta di Immanence è quella di una governance dell'IA olistica, partecipativa, adattiva e distribuita: "valutiamo l'impatto sociale e il rischio etico dei progetti di IA, co-disegniamo con i clienti strumenti di guida etica per migliorare i processi decisionali in ambito AI, come Ethical Vision e Governance Framework, introducendo KPI etici e normativi specifici per ogni progetto e costruendo un organigramma AI dei diversi stakeholder a responsabilità distribuite. Facciamo ricerca per identificare nuovi indicatori che permettano di valutare il valore complessivo dei progetti di IA, introducendo metriche sociali ed etiche, abilitiamo una cultura interna che crea consapevolezza e pensiero critico, e garantiamo conformità normativa", raccontano le fondatrici.

Passaggi, orientamenti e visioni che si concretizzano in un processo ben definito, all’insegna di tre pilastri, spiegano Bianchi e Huyskes. "Alla base di qualsiasi intervento, proponiamo sessioni di formazione dedicate ai principali stakeholder AI interni, per poi allargare la formazione a tutta la popolazione aziendale. Non si tratta solo di competenze tecniche, ma di sviluppare una consapevolezza critica su cosa significa introdurre l'AI in un contesto organizzativo — come cambia il lavoro, le relazioni, i processi decisionali. Successivamente, la seconda fase prevede lo sviluppo dell’Ethical Vision interna e partecipativa, un documento capace di orientare scelte strategiche verso un approccio responsabile alla tecnologia e la costruzione di un sistema di governance interna allineato alla compliance normativa. 

Da qui inizia il design della vera architettura di governance della singola organizzazione, non solo per rispettare le regole, ma creare strutture decisionali che distribuiscano responsabilità, assicurare trasparenza e definire indicatori e metriche capaci di misurare l’andamento del progetto IA sotto diverse dimensioni (etica, sociale, giuridica, non solo economica o tecnica)".

Infine, Immanence valuta gli impatti sociali e misuriamo i rischi etici delle tecnologie digitali attraverso dimensioni etiche definite (Governance&Accountability, Data Quality&Protection, Technical Robustness & Safety, Transparency, Interpretability & Explainability, Human Rights, Social & Environmental Sustainability, Fairness, Non discrimination & Inclusion, Human agency & Oversight) usando una metodologia quali-quantitativa. L'obiettivo è rendere espliciti gli effetti — positivi e negativi — che un sistema tecnologico può avere su persone, processi e organizzazione.

Dalla fondazione, Immmanence - contraddistinta da un team di lavoro interdisciplinare e giovane - ha ricevuto diverse gratificazioni. Recentemente ha vinto due progetti Horizon Europe, e ottenuto un finanziamento dal MEF per lo sviluppo della propria piattaforma digitale. Per quanto riguarda il futuro, la direzione dell'azienda è quella di "continuare a lavorare sulla governance dell’AI, costruendo metodologie e analisi sempre più rilevanti, anche attraverso una piattaforma digitale che ci aiuterà a scalare e permetterà ai nostri clienti di tenere continuamente monitorato lo stato etico e normativo dei loro progetti AI. 

“Una governance” – concludono – “che trova nuove modalità per migliorare ed orientare le scelte strategiche e organizzative dei nostri clienti. Sia rispetto a quali progetti di IA integrare, potendo fare delle proiezioni sugli impatti sociali positivi e negativi, e i rischi che ne derivano, sia riprogettando le proprie organizzazioni in ottica decentralizzata per poter accogliere l’IA e la trasformazione in termini di distribuzione del lavoro e delle responsabilità che richiede. Siamo ancora tutti esploratori ed esploratrici in questo settore, l’esercizio di pratiche di governance, valutazione, trasparenza e distribuzione delle responsabilità, sono gli strumenti più utili che abbiamo per migliorare la nostra relazione con la tecnologia”.