Pubblicato: 27.03.2024
Autore: Alex Lavrynets
Foto scattate durante la seconda riunione della CoP DS&AI del 20 marzo 2024
Il secondo incontro ufficiale della comunità di pratica «Scienza dei dati e intelligenza artificiale» (DS&AI) dell’Amministrazione federale si è tenuto il 20 marzo 2024 a Neuchâtel. In tale occasione le discussioni si sono incentrate principalmente sull’intelligenza artificiale generativa (GenAI, Generative Artificial Intelligence) e i modelli linguistici di grandi dimensioni (LLMs, Large Language Models).
Resoconto della riunione
Il secondo incontro della CoP DS&AI è stato un successo. L’evento ha visto riunirsi un centinaio di membri della CoP attivi nei settori della scienza dei dati e dell’intelligenza artificiale (IA) per l’Amministrazione federale svizzera. I partecipanti hanno potuto presentare i loro progetti innovativi di scienza dei dati e IA nonché condividere le loro competenze a livello tecnico e pratico. I temi principali dell’incontro sono stati l’IA generativa e i modelli linguistici di grandi dimensioni (LLM). L’importanza di questi temi era già stata evidenziata in occasione della prima riunione della CoP DS&AI, tenutasi il 14 novembre 2023. Le riunioni ufficiali della CoP DS&AI sono organizzate su base regolare dal Centro di competenza per la scienza dei dati (DSCC) nel quadro dell’attuazione della strategia della Confederazione in materia di scienza dei dati.
Resoconto del programma
In collaborazione con la Rete di competenze per l’intelligenza artificiale (CNAI), il DSCC ha illustrato nel dettaglio il contesto e ha ricordato le sfide specifiche associate all’impiego di LLM nella pubblica amministrazione, sia dal punto di vista tecnico che sociale.
I preziosi contributi dei membri della CoP DS&AI sono stati gli elementi chiave del programma.
- Il discorso di apertura è stato tenuto dal settore di competenza Scienza e tecnologia (S+T) dell’Ufficio federale dell’armamento (armasuisse), che ha presentato gli ultimi progressi tecnici in fatto di LLM. Questa presentazione ha fatto il punto sui rischi e sui limiti intrinsechi con cui questi potenti modelli devono fare i conti in alcuni contesti e che li rendono spesso opachi.
- La Cancelleria federale ha poi presentato il Promemoria sull’utilizzo di strumenti di IA generativa nell’Amministrazione federale.
- Una rappresentante del Polo di Diritto annesso alla CNAI ha invece descritto le sfide di ordine giuridico derivanti dall’utilizzo dell’IA all’interno dell’Amministrazione federale.
- La Banca nazionale svizzera (BNS) ha poi illustrato un progetto innovativo basato sugli LLM.
- Da parte sua, il servizio informatico del Tribunale federale (TF) ha presentato alcuni progetti in corso basati sugli LLM e che puntano a contribuire all’indipendenza dal punto di vista tecnico, alla digitalizzazione e alla sovranità in ambito digitale.
- Nils Güggi, responsabile dell’Autorità federale di vigilanza sulle fondazioni (AVF) ha descritto il progetto «Esi – il chatbot dell’AVF». Il progetto consisteva nello sviluppo di un chatbot che, servendosi dell’intelligenza artificiale, sia in grado di rispondere alle domande generali dei clienti basandosi direttamente sulle fonti specifiche all’AVF. Il chatbot, attualmente in produzione, può essere testato online in tedesco, francese e italiano.
La riunione ha confermato il valore di questo scambio di esperienze e di buone pratiche all’interno dell’Amministrazione federale e si è conclusa con una cena di networking a buffet.
IA generativa alimentata da LLM
Secondo terminologia della CNAI v2.0 (disponibile in tedesco, francese e inglese), l’IA generativa è definita come segue:
l’«IA generativa» è un concetto ampio che si riferisce a sistemi di IA addestrati sulla base di grandi quantità di dati provenienti dal mondo fisico e virtuale con l’obiettivo di insegnar loro a generare dati in modo autonomo (testi, immagini, registrazioni sonore, video, simulazioni, codici ecc.). Questi sistemi spesso sono multimodali, ovvero con input e/o output in una o più modalità (testo, immagine, video ecc.).
Gli LLM come GPT-4 o Llama, hanno miliardi di parametri e rappresentano una sottocategoria dell’IA generativa basata sul linguaggio naturale.
Quando si utilizzano sistemi di IA generativa all’interno dell’Amministrazione federale, è necessario rispettare le linee guida sull’IA, nonché il codice di comportamento per una scienza dei dati (e un’IA) incentrata sull’essere umano e affidabile (disponibile in francese e tedesco). La corretta osservanza dei principi definiti mira (tra l’altro) a garantire la fiducia del pubblico, la tutela dei diritti individuali e l’allineamento ai valori democratici in uno Stato di diritto.
Ultima modifica 27.03.2024