Cosa si può fare con l’IA a scuola. Correzione compiti, ammissione corsi di studio, sorveglianza esami. Il regolamento

WhatsApp
Telegram

Le attività scolastiche come la correzione delle prove, l’ammissione ai corsi di studio e la sorveglianza durante gli esami potrebbero presto essere gestite da sistemi di Intelligenza Artificiale (IA). Questi sistemi, pur rappresentando un rischio elevato, non saranno esclusi dal contesto educativo, a condizione che vengano adottate adeguate misure di tutela per garantire la predominanza dell’intervento umano. Tale approccio è sancito dal regolamento UE sull’intelligenza artificiale n. 2024/1689, che disciplina i sistemi di IA a rischio alto nel settore dell’istruzione e della formazione professionale.

Quattro categorie di IA a rischio alto

Secondo il regolamento, esistono quattro categorie di sistemi IA considerati ad alto rischio ma permessi nel settore educativo.

Verifica dei titoli

Questi sistemi verificano i requisiti per l’ammissione agli istituti di istruzione, analizzando titoli e documenti amministrativi. Il rischio principale è rappresentato dalla possibilità di errori o discriminazioni che potrebbero escludere ingiustamente alcune persone.

Valutazione dei risultati

Un’altra categoria riguarda i sistemi IA utilizzati per valutare i risultati dell’apprendimento, che possono influire sull’orientamento scolastico. Anche in questo caso, esiste il rischio di valutazioni errate o distorte da pregiudizi.

Adeguatezza dei percorsi educativi

Questi sistemi valutano l’idoneità dei percorsi formativi per ciascuno studente. Poiché tali valutazioni coinvolgono aspetti soggettivi, come le aspirazioni dello studente, c’è il pericolo che influenzino negativamente lo sviluppo della personalità.

Monitoraggio dei comportamenti vietati

L’ultima categoria comprende i sistemi di sorveglianza degli studenti durante gli esami o all’interno degli istituti. Tali sistemi pongono preoccupazioni per la privacy, specialmente in caso di errori o false segnalazioni che potrebbero compromettere l’esito delle prove.

Gli obblighi delle scuole

Le scuole, in quanto utilizzatrici di sistemi IA, avranno responsabilità precise. In primo luogo, dovranno seguire le istruzioni fornite dai produttori dei sistemi. Inoltre, sarà necessario garantire una supervisione umana continua sugli output dell’IA, affidata a personale competente e formato. È possibile che venga istituito un ruolo specifico per la gestione dell’intelligenza artificiale, in costante coordinamento con il responsabile della protezione dei dati (DPO). Le scuole saranno anche tenute a monitorare costantemente i sistemi per rilevare eventuali rischi e, se necessario, sospendere l’uso dell’IA e informare le autorità competenti.

Trasparenza e supervisione

Anche i sistemi IA meno rischiosi, impiegati per compiti limitati o di supporto, dovranno rispettare obblighi di trasparenza e supervisione umana. Le scuole dovranno garantire che l’utilizzo di questi strumenti non metta a rischio i diritti degli studenti.

La sperimentazione nelle scuole italiane

In attesa della piena applicazione del quadro normativo, il Ministero dell’Istruzione ha avviato una sperimentazione dell’IA in 15 scuole italiane per l’anno scolastico 2024/2025. Il progetto, della durata di due anni, prevede l’uso di un assistente virtuale per individuare difficoltà di apprendimento e fornire supporto personalizzato agli studenti.

REGOLAMENTO

Leggi anche: Valditara rassicura: “L’intelligenza artificiale non sostituirà mai gli insegnanti”. E sul cellulare: “Influenza negativa su creatività e concentrazione”

WhatsApp
Telegram

Nuovo concorso PNRR2. Il bando è imminente. Concentrati sui nuovi obiettivi, preparati con Eurosofia