Cosa si può fare con l’IA a scuola. Correzione compiti, ammissione corsi di studio, sorveglianza esami. Il regolamento
Le attività scolastiche come la correzione delle prove, l’ammissione ai corsi di studio e la sorveglianza durante gli esami potrebbero presto essere gestite da sistemi di Intelligenza Artificiale (IA). Questi sistemi, pur rappresentando un rischio elevato, non saranno esclusi dal contesto educativo, a condizione che vengano adottate adeguate misure di tutela per garantire la predominanza dell’intervento umano. Tale approccio è sancito dal regolamento UE sull’intelligenza artificiale n. 2024/1689, che disciplina i sistemi di IA a rischio alto nel settore dell’istruzione e della formazione professionale.
Quattro categorie di IA a rischio alto
Secondo il regolamento, esistono quattro categorie di sistemi IA considerati ad alto rischio ma permessi nel settore educativo.
Verifica dei titoli
Questi sistemi verificano i requisiti per l’ammissione agli istituti di istruzione, analizzando titoli e documenti amministrativi. Il rischio principale è rappresentato dalla possibilità di errori o discriminazioni che potrebbero escludere ingiustamente alcune persone.
Valutazione dei risultati
Un’altra categoria riguarda i sistemi IA utilizzati per valutare i risultati dell’apprendimento, che possono influire sull’orientamento scolastico. Anche in questo caso, esiste il rischio di valutazioni errate o distorte da pregiudizi.
Adeguatezza dei percorsi educativi
Questi sistemi valutano l’idoneità dei percorsi formativi per ciascuno studente. Poiché tali valutazioni coinvolgono aspetti soggettivi, come le aspirazioni dello studente, c’è il pericolo che influenzino negativamente lo sviluppo della personalità.
Monitoraggio dei comportamenti vietati
L’ultima categoria comprende i sistemi di sorveglianza degli studenti durante gli esami o all’interno degli istituti. Tali sistemi pongono preoccupazioni per la privacy, specialmente in caso di errori o false segnalazioni che potrebbero compromettere l’esito delle prove.
Gli obblighi delle scuole
Le scuole, in quanto utilizzatrici di sistemi IA, avranno responsabilità precise. In primo luogo, dovranno seguire le istruzioni fornite dai produttori dei sistemi. Inoltre, sarà necessario garantire una supervisione umana continua sugli output dell’IA, affidata a personale competente e formato. È possibile che venga istituito un ruolo specifico per la gestione dell’intelligenza artificiale, in costante coordinamento con il responsabile della protezione dei dati (DPO). Le scuole saranno anche tenute a monitorare costantemente i sistemi per rilevare eventuali rischi e, se necessario, sospendere l’uso dell’IA e informare le autorità competenti.
Trasparenza e supervisione
Anche i sistemi IA meno rischiosi, impiegati per compiti limitati o di supporto, dovranno rispettare obblighi di trasparenza e supervisione umana. Le scuole dovranno garantire che l’utilizzo di questi strumenti non metta a rischio i diritti degli studenti.
La sperimentazione nelle scuole italiane
In attesa della piena applicazione del quadro normativo, il Ministero dell’Istruzione ha avviato una sperimentazione dell’IA in 15 scuole italiane per l’anno scolastico 2024/2025. Il progetto, della durata di due anni, prevede l’uso di un assistente virtuale per individuare difficoltà di apprendimento e fornire supporto personalizzato agli studenti.