Intelligenza artificiale, l’Europa pone dei limiti anche in ambito scolastico per valutazione e monitoraggio degli studenti
Il Parlamento europeo ha approvato il Regolamento sull’Intelligenza Artificiale (AI Act), che stabilisce le regole per l’utilizzo dell’IA in vari settori, inclusa la scuola. L’obiettivo è quello di promuovere un uso responsabile e sicuro dell’IA, che tuteli i diritti e le libertà degli studenti.
Sistemi di IA vietati e ad alto rischio
Il Regolamento vieta l’utilizzo di sistemi di IA che riconoscono le emozioni degli studenti e del personale scolastico. Sono inoltre considerati ad alto rischio e soggetti a severe restrizioni i sistemi di IA utilizzati per:
- Valutare gli studenti
- Selezionare gli studenti
- Assegnare il personale alle scuole
- Monitorare gli studenti durante le prove
Per questi sistemi, i fornitori dovranno fornire istruzioni per l’uso esaustive e la loro progettazione deve prevedere la supervisione umana.
Sistemi di IA con finalità generali
I sistemi di IA con finalità generali, come ChatGPT, possono essere utilizzati a scuola, ma è necessario che sia chiaro e facilmente rilevabile quando un contenuto è un prodotto sintetico dell’IA. Questo renderà più facile stanare gli studenti che copiano facendo fare all’IA compiti e prove di esame.
Cosa fare ora?
Le scuole devono iniziare a prepararsi all’entrata in vigore del Regolamento:
- Valutare i sistemi di IA attualmente in uso
- Verificare se questi sistemi sono conformi al Regolamento
- Fornire formazione al personale sull’utilizzo responsabile dell’IA
- Adeguare l’organizzazione degli uffici per la supervisione dei sistemi di IA
L’IA può essere un importante strumento per la scuola, ma è importante utilizzarla con cautela e nel rispetto dei diritti degli studenti. Il Regolamento europeo fornisce un quadro chiaro per l’utilizzo responsabile dell’IA a scuola, che aiuterà a garantire un’istruzione di qualità per tutti.