Sandbox IA & Società Civile
Giugno 2025
Claudio Agosti - Centro Hermes, RDUD
1 · Contesto italiano
- AI Act → obbligo sandbox nazionale (dead‑line 02
ago 2026)
- Bozza decreto attuativo → ACN + AGID come autorità
competenti
- Spazio aperto a sandbox tematiche (privacy, lavoro,
sanità…)
- Esistanza Sandbox non AI (fintech, privacy)
1.1 · Contesto internazionale
- Spagna – AESIA Sandbox (dal 2024) – la nuova
Agenzia spagnola per la supervisione dell’AI nazionale; prima call
aperta, focus su biometria e sanità.
- Norvegia – Datatilsynet Sandbox – ambiente
privacy-centrico dell’autorità norvegese: tutti i report
pubblicati.
- Regno Unito
- ICO Regulatory Sandbox – aiuta i progetti IA a rispettare
la protezione dati; pubblicato nel 2024.
- FCA “Supercharged Sandbox” (in partnership con Nvidia,
2025) – piattaforma fintech che offre potenza di calcolo e
consulenza.
1.2 · Best practice
internazionali
Paese |
Sandbox |
Coinvolgimento utenti |
UK – ICO |
Stakeholder panel ad hoc, survey pubbliche |
Co-design criteri etici |
Norvegia – Datatilsynet |
Workshop aperti + report 100 % pubblici |
Trasparenza radicale |
Canada – OSFI |
Focus group consumatori |
Feedback su explainability |
Esistono anche sandbox private
2.1 · Lacune possibili
- La Sandbox potrebbe girare sull’infrastruttura del cliente.
- La Sandbox potrebbe essere un “periodo di prova” mentre c’è già il
sistema in produzione.
- La Sandbox permette di rivendicare una conformità che cambia al
prossimo aggiornamento.
- La Sandbox svolge dei test utili all’agenza dell’Agenzia ma non a
quella della società civili.
- La Sandbox non produce esperienza riutilizzabile per futuri
attori
2.2 · Inquadrare questo sforzo
I sistemi di Sandbox per prodotti BlockChain nel MiCA con lo scopo di
facilitare l’avvio di nuovi prodotti .. ma poi la creazione di barriere
all’ingresso ha causato che solo banche già stabilite potessero far
partecipare i loro progetti!
I criteri implementativi di queste soluzioni possono avere un effetto
incisivo sul mercato dell’AI ed i suoi effetti, noi ci focalizziamo su
come la Società Civile potrebbe essere inclusa.
2.3
· Coinvolgimento società civile: ecosistema plurale = minori conflitti
di ruolo
- ↑ Legittimità e fiducia pubblica
- Feedback realistici → qualità dei test
- Antidoto a “badge cosmetici” (audit fittizio)
- Stimolare le associazioni di rappresentanza dei cittadini a capire
l’AI ed i suoi effetti
2.4 · Modello partecipativo
ipotizzato
- Scoping rischi dell’autorità → lista impatti
pubblica
- Call aperte associazioni / gruppi cittadini
- Sessione riservata: impresa + società civile +
autorità
- Report intermedio aperto a osservazioni
- Exit report pubblico con lessons
learned
3 · Sandbox tematiche
per diverse istituzioni?
Sandbox |
Autorità pivot |
Focus |
Ammissibilità (esempio) |
Privacy & Dati |
Garante Privacy |
DPIA, logging |
High-risk + dataset personali |
Cyber-security |
ACN |
Robustezza, attacchi |
Tutti i livelli di rischio |
PA & Servizi digitali |
AGID |
Accessibilità, UX |
Soluzioni per enti pubblici |
Lavoro & Algoritmi HR |
INL / INPS |
Fairness occupazionale |
Algoritmi di selezione |
3.1 Flusso decisionale
Non è chiaro quali poteri prescrittivi abbia l’Autorità che gestisce
il servizio di Sandbox
Domanda impresa ──► Autorità pivot
│
├─► Veto → Iterazione / Stop
│
└─► OK → Coinvolgimento società civile → Sperimentazione controllata → Exit report
(Solo l’autorità pivot può esercitare veto formale.)
4 · Supporto Open Source Software?
Scenario |
Funzionalità |
Output |
Budget stima |
A – Leggero |
Chatbot Q&A + link normativi |
PDF guida |
< €25 k |
B – Integrato |
Upload artefatti + mini‑DPIA auto‑gen |
Checklist |
€60‑100 k |
C – Supporto |
Librerie e framework |
Tutorial |
€50 k + |
4.1 · Scenario (A) Leggero
· “AI Compliance RAG”
[Front‑end] ⇄ [RAG Engine] ⇄ [Vector DB]
⇄ [Normative KB]
- Base dati: corpus AI Act, GDPR, linee guida EDPB, ISO 42001
- Community sourced: report pubblicati, nuova ricerca
- Output: JSON + PDF; firma CAdES opzionale
4.2 · Scenario (B)
Integrato · “AI Compliance RAG”
- Come la modalità leggera, più:
- Necessario citare le fonti
- firma CAdES opzionale
- Produzione checklist operative
4.3 · Scenario (C) Supportare il
FLOSS
- Esistono diversi progetti italiani e comunità che sviluppano
componenti
- La produzione culturale ha solo un vantaggio ad essere conforme più
facilmente (abbattere i costi di compliance)
- Il concetto di sandbox “normativa” può deformarsi fino ad veder
l’uso di sandbox “comunitarie”
5 · Spazi di intervento del
FLOSS
Requisito AI Act |
Standard / Framework |
Note utili in sandbox |
Art. 9 Data governance |
Datasheets for Datasets |
Template dati |
Art. 15 Registri eventi |
OpenTelemetry Logs |
Logging uniforme |
Art. 17 Trasparenza |
ISO/IEC 42001 + Model Cards |
Policy + scheda modello |
Art. 18 Accuracy & Robustness |
NIST AI RMF |
Controlli rischio |
- Con un formato aperto e riusabile, chi sviluppa modelli di AI
avrebbe un modo standard* per garantire ispezione e revisione.
(OpenTelemetry)
- Con un formato standard per documentare il proprio
design, sarebbe più facile individuare terze parti, dipendenze,
bias.
- Si avrebbe un ecosistema meno artigianale. (e.g. un template
prodotto dall’Agenzia Nazionale AI o da quella Europea)
- La separazione in componenti è l’anticorpo al proliferare di
blackbox.
- API (Negoziate tra sviluppatori e autorità) per verificare la
conformità, le versioni, lo stato del sistema