“Guida Pratica per Evitare Segnali Etici Negativi nei Progetti di Intelligenza Artificiale”

Universe Today > Energia e Innovazione > “Guida Pratica per Evitare Segnali Etici Negativi nei Progetti di Intelligenza Artificiale”

“Guida Pratica per Evitare Segnali Etici Negativi nei Progetti di Intelligenza Artificiale”

    Come Evitare Segnali Etici Negativi nei Tuoi Progetti di Intelligenza Artificiale

    Essendo un informatico immerso nell’etica dell’IA da circa un decennio, ho visto di persona come il campo si sia evoluto. Oggi, un numero crescente di ingegneri si trova a sviluppare soluzioni di intelligenza artificiale mentre navigano tra complesse considerazioni etiche. Oltre alla competenza tecnica, il deployment responsabile dell’IA richiede una comprensione sfumata delle implicazioni etiche.

    Nel mio ruolo di responsabile globale dell’etica dell’IA di IBM, ho osservato un significativo cambiamento nel modo in cui gli ingegneri dell’IA devono operare. Non si limitano più a parlare con altri ingegneri dell’IA su come costruire la tecnologia. Ora devono coinvolgere coloro che capiscono come le loro creazioni influenzeranno le comunità che utilizzano questi servizi. Alcuni anni fa, presso IBM, abbiamo riconosciuto che gli ingegneri dell’IA dovevano incorporare passaggi aggiuntivi nel loro processo di sviluppo, sia tecnici che amministrativi. Abbiamo creato un playbook che fornisce gli strumenti giusti per testare questioni come il bias e la privacy. Ma capire come utilizzare correttamente questi strumenti è cruciale. Ad esempio, esistono molte definizioni diverse di equità nell’IA. Determinare quale definizione si applica richiede la consultazione della comunità interessata, dei clienti e degli utenti finali.

    "Guida Pratica per Evitare Segnali Etici Negativi nei Progetti di Intelligenza Artificiale"

    Nel suo ruolo presso IBM, Francesca Rossi copresiede il consiglio etico dell’IA dell’azienda per aiutare a determinare i suoi principi fondamentali e i processi interni. Francesca Rossi

    L’istruzione svolge un ruolo vitale in questo processo. Quando abbiamo testato il nostro playbook etico dell’IA con i team di ingegneria dell’IA, un team credeva che il loro progetto fosse esente da preoccupazioni di bias perché non includeva variabili protette come razza o genere. Non si rendevano conto che altre caratteristiche, come il codice postale, potevano fungere da proxy correlati alle variabili protette. Gli ingegneri a volte credono che i problemi tecnologici possano essere risolti con soluzioni tecnologiche. Anche se gli strumenti software sono utili, sono solo l’inizio. La sfida maggiore risiede nel imparare a comunicare e collaborare efficacemente con diversi portatori di interessi.

    La pressione per rilasciare rapidamente nuovi prodotti e strumenti di IA può creare tensioni con una valutazione etica approfondita. Per questo motivo abbiamo istituito una governance centralizzata dell’etica dell’IA attraverso un consiglio etico dell’IA presso IBM. Spesso, i singoli team di progetto si trovano di fronte a scadenze e risultati trimestrali, rendendo difficile per loro considerare appieno gli impatti più ampi sulla reputazione o sulla fiducia del cliente. I principi e i processi interni dovrebbero essere centralizzati. I nostri clienti, altre aziende, richiedono sempre più soluzioni che rispettino determinati valori. Inoltre, in alcune regioni le normative ora impongono considerazioni etiche. Persino importanti conferenze sull’IA richiedono che gli articoli discutano delle implicazioni etiche della ricerca, spingendo i ricercatori sull’IA a considerare l’impatto del loro lavoro.

    Da IBM, abbiamo iniziato sviluppando strumenti focalizzati su questioni chiave come la privacy, l’esplicabilità, l’equità e la trasparenza. Per ciascuna preoccupazione, abbiamo creato un kit di strumenti open-source con linee guida e tutorial di codice per aiutare gli ingegneri a implementarli in modo efficace. Ma poiché la tecnologia evolve, così fanno le sfide etiche. Con l’IA generativa, ad esempio, ci troviamo di fronte a nuove preoccupazioni sulla creazione di contenuti potenzialmente offensivi o violenti, nonché allucinazioni. Come parte della famiglia di modelli Granite di IBM, abbiamo sviluppato modelli di salvaguardia che valutano sia i prompt di input che gli output per problemi come la veridicità e i contenuti dannosi. Queste capacità dei modelli servono sia ai nostri bisogni interni che a quelli dei nostri clienti.

    Anche se gli strumenti software sono utili, sono solo l’inizio. La sfida maggiore risiede nel imparare a comunicare e collaborare efficacemente.

    Le strutture di governance aziendale devono rimanere sufficientemente agili per adattarsi all’evoluzione tecnologica. Valutiamo continuamente come nuovi sviluppi come l’IA generativa e l’IA agentica possano amplificare o ridurre determinati rischi. Quando rilasciamo modelli come open source, valutiamo se questo introduce nuovi rischi e quali salvaguardie sono necessarie.

    Per le soluzioni di IA che sollevano segnali etici negativi, abbiamo un processo di revisione interno che potrebbe portare a modifiche. La nostra valutazione si estende oltre le proprietà della tecnologia (equità, esplicabilità, privacy) a come viene implementata. L’implementazione può rispettare la dignità e l’agenzia umana o minarle. Conduciamo valutazioni del rischio per ciascun caso d’uso della tecnologia, riconoscendo che comprendere il rischio richiede conoscenza del contesto in cui la tecnologia opererà. Questo approccio si allinea al framework dell’AI Act europeo: non è che l’IA generativa o il machine learning siano intrinsecamente rischiosi, ma certi scenari possono essere ad alto o basso rischio. I casi d’uso ad alto rischio richiedono un’attenzione aggiuntiva.

    In questo panorama in rapida evoluzione, l’ingegneria responsabile dell’IA richiede una vigilanza continua, adattabilità e un impegno verso principi etici che pongano il benessere umano al centro dell’innovazione tecnologica.

    FAQ

    Universe Today

    Lascia un commento