Categoria:
Pubblicato:
28 Aprile 2025
Aggiornato:
9 Maggio 2025
“Guida Pratica per Evitare Segnali Etici Negativi nei Progetti di Intelligenza Artificiale”
✅ Tutti i contenuti di tutti i nostri giornali sono scritti e gestiti in modo amatoriale. In nessun caso possono essere considerati riferimento.
Nota redazionale:
Tutte le notizie pubblicate da Italfaber provengono da fonti giornalistiche locali del Paese a cui la notizia si riferisce. Le rielaborazioni sono effettuate al solo scopo di rendere i contenuti più chiari, neutrali e accessibili a un pubblico internazionale, nel rispetto della forma originaria. L’intento è favorire una comprensione diretta e non filtrata degli eventi, così come vengono percepiti e raccontati nei contesti di origine. La categoria dell'articolo indica il pese di provenienza della notizia.
“Guida Pratica per Evitare Segnali Etici Negativi nei Progetti di Intelligenza Artificiale”
Come Evitare Segnali Etici Negativi nei Tuoi Progetti di Intelligenza Artificiale
Essendo un informatico immerso nell’etica dell’IA da circa un decennio, ho visto di persona come il campo si sia evoluto. Oggi, un numero crescente di ingegneri si trova a sviluppare soluzioni di intelligenza artificiale mentre navigano tra complesse considerazioni etiche. Oltre alla competenza tecnica, il deployment responsabile dell’IA richiede una comprensione sfumata delle implicazioni etiche.
Nel mio ruolo di responsabile globale dell’etica dell’IA di IBM, ho osservato un significativo cambiamento nel modo in cui gli ingegneri dell’IA devono operare. Non si limitano più a parlare con altri ingegneri dell’IA su come costruire la tecnologia. Ora devono coinvolgere coloro che capiscono come le loro creazioni influenzeranno le comunità che utilizzano questi servizi. Alcuni anni fa, presso IBM, abbiamo riconosciuto che gli ingegneri dell’IA dovevano incorporare passaggi aggiuntivi nel loro processo di sviluppo, sia tecnici che amministrativi. Abbiamo creato un playbook che fornisce gli strumenti giusti per testare questioni come il bias e la privacy. Ma capire come utilizzare correttamente questi strumenti è cruciale. Ad esempio, esistono molte definizioni diverse di equità nell’IA. Determinare quale definizione si applica richiede la consultazione della comunità interessata, dei clienti e degli utenti finali.

Nel suo ruolo presso IBM, Francesca Rossi copresiede il consiglio etico dell’IA dell’azienda per aiutare a determinare i suoi principi fondamentali e i processi interni. Francesca Rossi
L’istruzione svolge un ruolo vitale in questo processo. Quando abbiamo testato il nostro playbook etico dell’IA con i team di ingegneria dell’IA, un team credeva che il loro progetto fosse esente da preoccupazioni di bias perché non includeva variabili protette come razza o genere. Non si rendevano conto che altre caratteristiche, come il codice postale, potevano fungere da proxy correlati alle variabili protette. Gli ingegneri a volte credono che i problemi tecnologici possano essere risolti con soluzioni tecnologiche. Anche se gli strumenti software sono utili, sono solo l’inizio. La sfida maggiore risiede nel imparare a comunicare e collaborare efficacemente con diversi portatori di interessi.
La pressione per rilasciare rapidamente nuovi prodotti e strumenti di IA può creare tensioni con una valutazione etica approfondita. Per questo motivo abbiamo istituito una governance centralizzata dell’etica dell’IA attraverso un consiglio etico dell’IA presso IBM. Spesso, i singoli team di progetto si trovano di fronte a scadenze e risultati trimestrali, rendendo difficile per loro considerare appieno gli impatti più ampi sulla reputazione o sulla fiducia del cliente. I principi e i processi interni dovrebbero essere centralizzati. I nostri clienti, altre aziende, richiedono sempre più soluzioni che rispettino determinati valori. Inoltre, in alcune regioni le normative ora impongono considerazioni etiche. Persino importanti conferenze sull’IA richiedono che gli articoli discutano delle implicazioni etiche della ricerca, spingendo i ricercatori sull’IA a considerare l’impatto del loro lavoro.
Da IBM, abbiamo iniziato sviluppando strumenti focalizzati su questioni chiave come la privacy, l’esplicabilità, l’equità e la trasparenza. Per ciascuna preoccupazione, abbiamo creato un kit di strumenti open-source con linee guida e tutorial di codice per aiutare gli ingegneri a implementarli in modo efficace. Ma poiché la tecnologia evolve, così fanno le sfide etiche. Con l’IA generativa, ad esempio, ci troviamo di fronte a nuove preoccupazioni sulla creazione di contenuti potenzialmente offensivi o violenti, nonché allucinazioni. Come parte della famiglia di modelli Granite di IBM, abbiamo sviluppato modelli di salvaguardia che valutano sia i prompt di input che gli output per problemi come la veridicità e i contenuti dannosi. Queste capacità dei modelli servono sia ai nostri bisogni interni che a quelli dei nostri clienti.
Anche se gli strumenti software sono utili, sono solo l’inizio. La sfida maggiore risiede nel imparare a comunicare e collaborare efficacemente.
Le strutture di governance aziendale devono rimanere sufficientemente agili per adattarsi all’evoluzione tecnologica. Valutiamo continuamente come nuovi sviluppi come l’IA generativa e l’IA agentica possano amplificare o ridurre determinati rischi. Quando rilasciamo modelli come open source, valutiamo se questo introduce nuovi rischi e quali salvaguardie sono necessarie.
Per le soluzioni di IA che sollevano segnali etici negativi, abbiamo un processo di revisione interno che potrebbe portare a modifiche. La nostra valutazione si estende oltre le proprietà della tecnologia (equità, esplicabilità, privacy) a come viene implementata. L’implementazione può rispettare la dignità e l’agenzia umana o minarle. Conduciamo valutazioni del rischio per ciascun caso d’uso della tecnologia, riconoscendo che comprendere il rischio richiede conoscenza del contesto in cui la tecnologia opererà. Questo approccio si allinea al framework dell’AI Act europeo: non è che l’IA generativa o il machine learning siano intrinsecamente rischiosi, ma certi scenari possono essere ad alto o basso rischio. I casi d’uso ad alto rischio richiedono un’attenzione aggiuntiva.
In questo panorama in rapida evoluzione, l’ingegneria responsabile dell’IA richiede una vigilanza continua, adattabilità e un impegno verso principi etici che pongano il benessere umano al centro dell’innovazione tecnologica.
Nota redazionale:
✅ Tutti i contenuti di tutti i nostri giornali sono scritti e gestiti in modo amatoriale. In nessun caso possono essere considerati riferimento.
Tutte le notizie pubblicate da Universe Today provengono da fonti giornalistiche locali del Paese a cui la notizia si riferisce. Le rielaborazioni sono effettuate al solo scopo di rendere i contenuti più chiari, neutrali e accessibili a un pubblico internazionale, nel rispetto della forma originaria. L’intento è favorire una comprensione diretta e non filtrata degli eventi, così come vengono percepiti e raccontati nei contesti di origine. La categoria dell'articolo indica il pese di provenienza della notizia. Universe Today è un ponte culturale, non una testata. Ogni articolo è una rielaborazione di una fonte giornalistica locale: la categoria indica il Paese della fonte, non il luogo dell’evento.
Metodo di rielaborazione basato su: principi di semplicità del buon senso comune, chiarezza, imparzialità, sobrietà e responsabilità giornalistica, come indicato nelle linee guida editoriali di Italfaber.
Le informazioni contenute in questo articolo sono state verificate e validate attraverso fonti affidabili e aggiornate. Tuttavia, è possibile che alcune informazioni non siano state confermate o che ci siano discrepanze tra fonti diverse. In tal caso, si prega di segnalare eventuali errori o inesattezze.
Se sei curioso di sapere secondo quali principi è stata rielaborata questa notizia, leggi la nostra politica editoriale.