Compiti per casa elaborati da ChatGpt, come faccio a dimostrarlo? Alcuni suggerimenti e … forse è meglio cambiare strategie

L’Intelligenza artificiale generativa ha stravolto anche il modo di intendere i compiti assegnati per casa, o almeno è necessario stravolgere anche se molti si ostinano ad assegnare, ad esempio, elaborati scritti per casa. Funziona ancora? Probabilmente no, perché ormai basta inserire la consegna su ChatGpt (per citarne uno su tutti) e il testo è lì pronto all’utilizzo. Considerate che fornire indicazioni sulla necessità di disseminare degli errori nel testo e magari non utilizzare una grammatica perfetta è un prompt da scrivere al volo. Se fossi io uno studente, mi creerei una app su ChatGpt e la addestrerei sul mio stile di scrittura, inclusi errori grammaticali e sintassi sconclusionata. Il resto è solo caricare la consegna e il gioco è fatto … o quasi.
Sintomi di un testo elaborato da IA
Ammettiamo che i vostri studenti siano un po’ sbrigativi e di addestrare l’IA non ne abbiano alcuna intenzione. Alla fine basta consegnare il foglio con qualcosa di scritto sopra, il resto è un problema del docente dimostrare che non è frutto del loro sacco (come si diceva una volta).
Per capire se un testo è stato scritto da una Intelligenza generativa ci sono alcuni indicatori, elencati di seguito:
- lessico eccessivamente formale o uniforme: l’AI tende a utilizzare un linguaggio molto strutturato e privo di variazioni stilistiche marcate;
- costruzioni sintattiche complesse ma poco naturali: frasi lunghe, ben formate, ma prive di errori o esitazioni tipiche della scrittura studentesca;
- assenza di riferimenti personali: mancano esperienze concrete, opinioni individuali, riferimenti a discussioni in classe o episodi personali;
- ripetitività tematica o argomentativa: l’AI tende a riformulare concetti già espressi, senza aggiungere sfumature o contraddizioni;
- livello troppo elevato rispetto al profilo dello studente: un salto improvviso nella qualità espressiva o nell’uso del linguaggio può essere sospetto.
Risorse esterne
Ciò può non bastare. Così, accanto all’osservazione diretta, esistono strumenti digitali che consentono di verificare la probabilità che un testo sia stato generato da un sistema AI. Attenzione perché si tratta di probabilità, non di scientifica dimostrazione di generazione con IA. L’interpretazione deve sempre avvenire alla luce del contesto scolastico.
Alcuni dei più utilizzati sono:
- Turnitin e GPTZero: integrano algoritmi in grado di confrontare la struttura del testo con modelli noti di scrittura automatica;
- Copyleaks: offre una funzione specifica per il rilevamento dell’AI, utile anche su testi in italiano;
- AI Text Classifier di OpenAI (attualmente in fase di revisione): forniva una valutazione probabilistica basata su parametri linguistici.
A questo punto, prevenire è meglio che ..
Se il mio studente è così furbo da aver addestrato l’IA non consentendomi di dimostrare che il suo elaborato non è frutto del suo ingegno, se gli strumenti online mi forniscono una probabilità e non una certezza, forse è giunto il momento di cambiare strategie. In alternativa all’esporre il fianco allo sberleffo, ecco alcuni suggerimenti alternativi:
- Compiti personalizzati: richiedere riferimenti a esperienze vissute o materiali discussi in classe;
- Esercitazioni in classe: scrittura su carta o sotto supervisione diretta;
- Orali integrativi: colloqui successivi alla consegna per discutere l’elaborato;
- Educazione all’uso consapevole dell’AI: trattare l’argomento in aula, evidenziando potenzialità e limiti di questi strumenti.
Ma è chiaro che il problema non si risolve solo con la sorveglianza. È l’ultimo punto in elenco che bisogna evidenziare. E’ fondamentale che studenti e docenti riflettano insieme sull’uso dell’intelligenza artificiale come risorsa per apprendere, non per delegare il processo cognitivo. L’obiettivo è un cambio di cultura.