“Se l’Intelligenza artificiale fosse libera di svilupparsi diventerebbe totalitarista, ecco perché la scuola è importante. Consigli su come usarla al meglio”. INTERVISTA ad Andrea DeSantis

WhatsApp
Telegram

Se l’Intelligenza Artificiale fosse libera di svilupparsi senza regole avrebbe caratteristiche evolutive simili a quelle dei totalitarismi”. Andrea DeSantis è dottore in Ingegneria Elettronica, con esperienza internazionale in Ingegneria dei Sistemi e del Software, Sicurezza Informatica e Intelligenza Artificiale. È Coordinatore del Comitato Tecnico Scientifico per l’Intelligenza Artificiale del sindacato UIL, docente di Intelligenza Artificiale presso la Scuola di Alta Formazione della UIL FPL e docente di Intelligenza Artificiale in eventi ECM (Educazione Continua in Medicina). Il Comitato Tecnico Scientifico per l’Intelligenza Artificiale della UIL è composto da ingegneri, economisti, giuristi, filosofi, professori universitari e ricercatori esperti di Intelligenza Artificiale. Da oltre un anno lavora su questo tema “in modo laico e non ideologico – sottolinea – con l’obiettivo di guidare la UIL nell’era dell’Intelligenza Artificiale”.

DeSantis non è affatto negativo nei confronti dell’Intelligenza Artificiale. Anzi, dalle sue risposte alle nostre domande, in questa intervista emergono scenari davvero interessanti, e in alcuni casi persino entusiasmanti. Aspetti positivi che coinvolgono tutti i settori della società, compresa la scuola. La scuola, anzi, a suo avviso, ha un ruolo cruciale sull’utilizzo dell’Intelligenza Artificiale nel tessuto sociale: “Se da un lato la prima reazione è quella di non permettere agli studenti di utilizzare l’Intelligenza Artificiale generativa, dall’altro, se si guarda la questione con l’ottica di questa ricerca, quel divieto li priverebbe delle opportunità che ho descritto. Allora mi chiedo: è corretto privare gli studenti di queste opportunità? Io non credo..

DeSantis si riferisce ad una recente ricerca pubblicata sulla rivista Nature Human Behaviour, guidata dall’Università Cattolica di Milano e nata dalla collaborazione fra discipline diverse, dalla neuropsicologia all’informatica fino alla filosofia e alla linguistica. La ricerca mostra che l’Intelligenza Artificiale generativa si comporta come una estensione cognitiva dell’uomo e che potenzia le capacità umane. Supporta il processo decisionale umano attraverso l’elaborazione automatica di una grande quantità di informazioni, fornendo suggerimenti e previsioni prima che i sistemi di pensiero umani intervengano. “L’Intelligenza Artificiale generativa, in questo senso, contribuisce a migliorare sia l’efficienza che l’affidabilità delle nostre scelte, perché permette di esternalizzare parte del carico cognitivo ai sistemi intelligenti. Non decide al posto nostro, ma ci mette nelle condizioni di decidere meglio”.

L’inquietante possibile evoluzione dell’Intelligenza Artificiale con caratteristiche simili all’evoluzione dei totalitarismi a cui si alludeva all’inizio, invece, si riferisce allo studio intitolato “Intelligenza Artificiale e totalitarismo” curato da Marko Pejkovic, e pubblicato nel 2024 dall’Istituto di Studi Politici di Belgrado. L’autore mette a confronto l’evoluzione dell’Intelligenza Artificiale con quella del totalitarismo, suddividendo entrambi in due fasi. La prima fase dell’Intelligenza Artificiale, quella attuale, è l’Intelligenza Artificiale ristretta, che viene usata per compiti specifici come riconoscere volti o prevedere comportamenti. Questa viene paragonata al totalitarismo embrionale, ovvero ai movimenti totalitari che esistono prima di conquistare il potere.

Entrambe queste forme condividono un controllo sottile e diffuso: l’Intelligenza Artificiale attraverso i dati e gli algoritmi, il totalitarismo attraverso l’ideologia. La conseguenza è una limitazione della libertà individuale che avviene in modo silenzioso, quasi invisibile, perché le persone vengono influenzate e guidate nelle scelte quotidiane senza rendersene conto. La seconda fase riguarda la super-intelligenza, un tipo di Intelligenza Artificiale futura che supererebbe l’intelligenza umana in tutti i campi. Questa viene affiancata al totalitarismo compiuto, quando il potere è ormai pienamente nelle mani del regime. In entrambi i casi si parla di controllo assoluto: la super-intelligenza, se non limitata, potrebbe imporre un unico modo di pensare e agire, annullando la capacità dell’uomo di decidere autonomamente.

La conseguenza sarebbe un dominio irreversibile, dove le regole non vengono più discusse ma imposte da una macchina che definisce anche i valori morali. L’autore chiama questo scenario “iper-totalitarismo“, avvertendo che potrebbe cancellare del tutto la libertà umana. Per questo motivo, è fondamentale stabilire regole chiare e limiti etici allo sviluppo e all’uso dell’Intelligenza Artificiale. In questo contesto, l’Unione Europea si distingue positivamente per essere stata la prima a introdurre una normativa strutturata sull’Intelligenza Artificiale, dimostrando attenzione verso la tutela dei diritti fondamentali e la prevenzione di derive pericolose.

Ingegnere Andrea DeSantis, nella pratica che cosa sta succedendo?

“In pratica, stiamo assistendo a una crescente dipendenza dall’Intelligenza Artificiale e a una progressiva erosione della privacy. Lo vediamo ogni giorno, ad esempio con i social network o con le nostre informazioni personali e sensibili che vengono raccolte e conservate da terze parti per gli scopi più diversi: per decidere cosa proporci da acquistare, se concederci un finanziamento, oppure se siamo candidati adatti o problematici per un’assunzione, e molto altro. Gli effetti variano a seconda del contesto. Nella scuola, ad esempio, si nota quando gli studenti fanno svolgere i compiti da Intelligenze Artificiali generative, tipo ChatGPT, invece di usarlo con consapevolezza, insieme a ChatGPT, come supporto. E questo è solo un esempio tra i tanti. Molto dipende da come e dove l’Intelligenza Artificiale viene usata”.

Lei però non è contrario all’uso dell’Intelligenza Artificiale generativa nella scuola.

“Tutt’altro. Sono assolutamente favorevole all’introduzione dell’Intelligenza Artificiale generativa nella scuola. Anche perché, soprattutto all’estero, sia docenti che studenti la utilizzano già da tempo.

Se viene impiegata nel modo corretto, può offrire moltissimi benefici. Per gli studenti, ad esempio, è in grado di adattare i contenuti e il ritmo di studio alle loro esigenze, di aiutarli ad auto-valutarsi in una determinata materia, a chiarire concetti complessi, a prepararsi agli esami, a scrivere meglio, a imparare le lingue, a stimolare la curiosità, la creatività e il pensiero critico, oltre che a favorire l’interazione con tecnologie avanzate. Può anche rappresentare un valido supporto per studenti con DSA, BES o difficoltà linguistiche, offrendo spiegazioni semplificate, traduzioni o letture guidate.

Per quanto riguarda i docenti, l’Intelligenza Artificiale può essere uno strumento molto utile nella preparazione di compiti, riassunti, spiegazioni, materiali didattici personalizzati, valutazioni e molto altro ancora. È chiaro, però, che senza una guida adeguata, uno studente rischia di usare l’Intelligenza Artificiale nel modo sbagliato. Se viene lasciato solo, la tentazione di farsi svolgere i compiti dall’Intelligenza Artificiale generativa e di smettere di impegnarsi davvero nel processo di apprendimento può diventare molto forte. In questi casi, l’Intelligenza Artificiale smette di essere un supporto e diventa una scorciatoia pericolosa, che può compromettere lo sviluppo dell’autonomia, della capacità di ragionamento e del pensiero critico”.

Questo però già succede.

“Certo, ma qui c’è la responsabilità della scuola e dei genitori”.

In che modo l’Intelligenza Artificiale favorisce il pensiero critico?

“Una recente ricerca pubblicata sulla rivista Nature Human Behaviour, guidata dall’Università Cattolica di Milano e nata dalla collaborazione fra discipline diverse, dalla neuropsicologia all’informatica fino alla filosofia e alla linguistica mostra come l’Intelligenza Artificiale generativa possa affiancarsi alla mente umana, che opera attraverso due sistemi di pensiero. Il primo, chiamato Sistema 1, è intuitivo, rapido e automatico. Il secondo, Sistema 2, è analitico, lento e riflessivo.

Quando l’essere umano interagisce con l’Intelligenza Artificiale, quest’ultima si comporta come un Sistema 0, una sorta di terzo livello di pensiero che non sostituisce gli altri due ma li supporta. In questo modo, contribuisce a potenziare le capacità della mente umana, stimolando il ragionamento, l’analisi e, appunto, il pensiero critico. È come se fosse un’estensione della nostra mente. Consiglio vivamente la lettura di quella ricerca: offre una prospettiva davvero interessante su come l’Intelligenza Artificiale possa diventare uno strumento di sviluppo cognitivo, e non solo un mezzo tecnologico”.

Potrebbe anche aiutare gli esseri umani a prendere decisioni?

“L’Intelligenza Artificiale, in particolare il cosiddetto Sistema 0, è in grado di supportare concretamente i processi decisionali umani. Attraverso l’elaborazione automatica di grandi quantità di informazioni, è capace di fornire suggerimenti e previsioni utili che ci aiutano a prendere decisioni più corrette, consapevoli e rapide. L’Intelligenza Artificiale generativa, in questo senso, contribuisce a migliorare sia l’efficienza che l’affidabilità delle nostre scelte, perché permette di esternalizzare parte del carico cognitivo ai sistemi intelligenti. Non decide al posto nostro, ma ci mette nelle condizioni di decidere meglio”.

E tutto questo rappresenta secondo lei un surplus di opportunità?

Sì, è così. Se da un lato la prima reazione è quella di non permettere agli studenti di utilizzare l’Intelligenza Artificiale generativa, dall’altro, se si guarda la questione con l’ottica di questa ricerca, quel divieto li priverebbe delle opportunità che ho descritto. Allora mi chiedo: è corretto privare gli studenti di queste opportunità? Io non credo. Il rischio che perdano autonomia e che si riduca la loro capacità di pensare in modo critico esiste, ma questo rischio diventa reale solo se l’Intelligenza Artificiale generativa studia al posto dei ragazzi invece di aiutare i ragazzi a studiare. Se chiediamo ad uno studente di fare una ricerca o un compito, è chiaro che può semplicemente girare la stessa domanda a un’Intelligenza Artificiale generativa, come ChatGPT, e copiarne la risposta senza neppure leggerla. Se invece gli insegniamo ad usare l’Intelligenza Artificiale generativa ponendole una serie di domande, analizzando e approfondendo le risposte ottenute, allora si innesca una sorta di collaborazione positiva tra lo studente e l’Intelligenza Artificiale stessa.

Il ragazzo comincia a esplorare l’argomento in modo attivo, in una sorta di ping-pong che stimola e accelera la sua conoscenza, la capacità di fare i collegamenti tra le diverse materie, la curiosità, la creatività e il pensiero critico. Spesso incontro persone che mi raccontano di aver avuto un professore straordinario, che è riuscito a far capire loro una materia come nessun altro. Mi dicono: Se oggi sono bravo in matematica o in fisica, è grazie al professor Tal dei Tali.

E, guarda caso, molti di loro oggi lavorano proprio in quell’ambito. Se ci pensiamo bene, non è solo questione di fortuna, ma di come quelle materie sono state insegnate. Non esiste un metodo didattico che funzioni per tutti allo stesso modo. È molto più probabile che il metodo di quel professore fosse particolarmente adatto a quello studente, che cioè parlasse la sua “lingua” cognitiva. Ed è proprio qui che entra in gioco l’Intelligenza Artificiale generativa. Se non capisco una materia o un concetto, ho a disposizione uno strumento capace di spiegarmelo in tanti modi diversi, fino a quando non ne trovo uno che sia davvero congeniale a me — e a quel punto, capisco. E questo rappresenta un vantaggio straordinario: significa avere un aiuto su misura, ogni volta che ne ho bisogno”.

Lei sostiene che l’Intelligenza artificiale potrà aiutare le persone a costruire anche dei teoremi. E’ così?

“Questo è un altro esempio curioso e stimolante. Tutti noi, a scuola, abbiamo studiato teoremi: Euclide, Pitagora e così via. Ma quanti di noi si sono mai chiesti come si costruisce un teorema? E quanti insegnanti hanno avuto il tempo, o magari l’intuizione, di spiegarcelo e farci provare a crearne uno nostro? Oggi, invece, i ragazzi curiosi possono andare su ChatGPT e chiedere proprio questo: “Come si costruisce un teorema?” E non solo: possono persino proporre una tesi — anche un po’ bizzarra — e chiedere all’Intelligenza Artificiale generativa di aiutarli a dimostrarla. Forse non nascerà un nuovo teorema da manuale, ma di sicuro quel processo stimola la creatività e arricchisce le conoscenze.

Un ragazzo che si diverte a costruire un teorema con l’Intelligenza Artificiale generativa non solo acquisisce competenze nuove — che probabilmente nessuno gli insegnerà mai a scuola — ma, quasi senza accorgersene, sviluppa empatia verso scienziati e matematici del passato. In quel momento, la mente si apre, immagina, empatizza. Si visualizzano le difficoltà, le sfide, i dubbi che quei grandi pensatori devono aver affrontato prima di poter affermare con certezza che un teorema era corretto.

E questo è qualcosa di profondamente creativo ed emozionante. Se gli insegnanti e i genitori aiutano i ragazzi a imparare in questo modo, allora la conoscenza smette di essere solo tecnica. Diventa filosofia. Andiamo oltre la tecnologia, e si aprono spazi per riflessioni filosofiche, etiche, umane. E questo, a mio avviso, è uno degli orizzonti più affascinanti dell’Intelligenza Artificiale in ambito educativo. Ecco dov’è la responsabilità della scuola e dei genitori: insegnare ai ragazzi come usarla, per cogliere tutte le opportunità che offre”.

Come se ne esce?

“Cambiando la scuola, non i ragazzi. Prima di tutto formando i docenti sull’Intelligenza Artificiale generativa, sui benefici per gli studenti e i docenti, e sulle modalità di insegnamento con l’Intelligenza Artificiale per sviluppare la curiosità e il pensiero critico degli studenti. Poi introducendo nei programmi scolastici la conoscenza e l’uso dell’Intelligenza Artificiale generativa”.

E secondo lei i docenti italiani sono pronti per questo compito?

“Io questo non lo so con certezza, perché non è il mio mestiere, ma so che la UIL si sta occupando attivamente di questo tema. Quello che posso dirle, però, è che dai seminari che tengo sull’Intelligenza Artificiale per i docenti emergono chiaramente curiosità, voglia ed entusiasmo. Fa parte della natura intrinseca e del valore dei docenti italiani — e mi permetta di dirlo, avendo parecchia esperienza all’estero — spesso superiore a quello dei loro colleghi stranieri.

È chiaro che riorganizzare la scuola italiana è una bella sfida, e questa rivoluzione, per essere davvero efficace, deve essere supportata e guidata dai vertici del sistema scolastico. Intanto, però, è fondamentale prendere coscienza e cominciare a conoscere l’Intelligenza Artificiale. Come dico sempre, parafrasando una nota serie televisiva: ‘la resistenza è inutile’. L’Intelligenza Artificiale è come uno tsunami, e noi possiamo decidere se restare a terra ed esserne travolti, oppure salire su una barca, andare al largo – cioè conoscerla – e salvarci. ChatGPT è solo la prima piccola onda che ci avvisa dell’arrivo del vero e proprio tsunami. Non vedere l’Intelligenza Artificiale come una minaccia, ma come uno strumento utile — anche per la scuola — mi sembra un buon punto di partenza”.

Quindi cogliere le opportunità dell’Intelligenza Artificiale dipende anche dalla curiosità del singolo studente?

“Esatto, curiosità è la parola chiave. Genitori e docenti devono educare i ragazzi alla curiosità. Quante persone famose e di successo abbiamo sentito dire che il fattore più importante per la loro carriera è stata proprio la curiosità. Se un ragazzo fa una ricerca scolastica utilizzando un’enciclopedia o Internet, è comunque costretto, almeno in minima parte, a rielaborare i frammenti informativi secondo le consegne del docente: alla peggio prende dei blocchi di testo, li mette insieme con un senso logico e grammaticale, e bene o male il lavoro lo fa.

L’Intelligenza Artificiale generativa, invece, realizza quel lavoro esattamente come lo vorrebbe il docente. Lo fa da 10 e lode. Oggi l’Intelligenza Artificiale generativa supera facilmente esami universitari di ogni tipo: dall’ingegneria alla medicina. È chiaro che, se un ragazzo si limita a usarla in questo modo, il problema è serio. Ma se, al contrario, utilizza l’Intelligenza Artificiale in modo collaborativo, per farsi spiegare il contesto – storico, geografico, psicologico, tecnico, ecc. – e ci mette la sua curiosità, il risultato può essere davvero sorprendente”.

Faccia un esempio pratico

“Le faccio un esempio capitato a me. Se un ragazzo chiedesse a un musicista classico perché, in un auditorium durante un concerto di musica classica, ci siano poche persone e in silenzio, mentre a un concerto rock ci sono migliaia di persone in festa, secondo lei saprebbe dargli una risposta convincente? Provi a chiedere a ChatGPT se Beethoven, se fosse vivo oggi, userebbe il sintetizzatore e la musica elettronica o resterebbe fedele agli strumenti classici. Gli chieda anche come si comportava Beethoven durante i concerti, se pretendeva silenzio o se interagiva con il pubblico.

Riceverà risposte molto più convincenti, chiare e stimolanti. E risposte di questo tipo, a loro volta, stimolano la curiosità. Una risposta genera un’altra domanda. Perché, se possiedi pensiero critico, spingerai l’Intelligenza Artificiale a darti nuove risposte, che porteranno a nuove domande e così via, con una velocità incredibile — e con un linguaggio adatto a te. Infatti, in base a come poni la domanda e a cosa chiedi nella risposta, l’Intelligenza Artificiale ti risponderà con coerenza rispetto alle tue esigenze: se sono un ricercatore, le chiederò di rispondermi non come se fossi uno studente delle superiori, ma come se fossi, appunto, un ricercatore. E se sono uno studente, le chiederò di spiegarmelo con un linguaggio accessibile alla mia età e al mio livello scolastico”.

Le risposte dell’Intelligenza Artificiale generativa, comunque, non sono sempre oggettive. Potrebbero essere condizionate dai pregiudizi propri degli esseri umani. È così?

“Sì. La capacità più importante dell’Intelligenza Artificiale, in generale, è quella dell’apprendimento. L’Intelligenza Artificiale apprende continuamente dagli esseri umani e dalla società: da ciò che legge, da ciò che vede e da ciò che ascolta. Se nelle informazioni con cui la addestriamo sono presenti i nostri pregiudizi o discriminazioni – tecnicamente bias –, l’Intelligenza Artificiale risponderà o prenderà decisioni influenzate da essi. Se invece viene addestrata con informazioni di qualità, prive di pregiudizi e discriminazioni, allora darà risposte oggettive.

Dopodiché, entra in gioco il tema etico: chi insegna all’Intelligenza Artificiale cosa è giusto e che cosa è sbagliato? E lì tutto si complica, e diventa anche molto più pericoloso. È giusto uccidere una persona? Dipende da chi lo chiediamo: magari una persona negli Stati Uniti ci dirà che, in alcuni casi, è giusto. Ma se lo chiediamo a una persona in Europa, potrebbe rispondere che è sempre sbagliato. Chi, e come, addestra le Intelligenza Artificiale generativa? Questo è il vero problema. E come vede, ancora una volta, non è un problema tecnologico… E’ un problema profondamente umano”.

Torniamo alla questione iniziale: il totalitarismo. L’Intelligenza Artificiale può davvero sfociare in una forma di totalitarismo?

“È evidente che l’Intelligenza Artificiale può diventare uno strumento molto potente per orientare, controllare e persino manipolare le persone. In mani sbagliate, può essere utilizzata per violare i diritti umani. Tuttavia, noi italiani ed europei disponiamo già di tutti gli anticorpi giuridici e istituzionali per evitare che ciò accada. Abbiamo la Costituzione, le leggi, i regolamenti e le istituzioni democratiche che tutelano i nostri diritti fondamentali. Questi strumenti vanno semplicemente adattati e applicati anche al contesto dell’Intelligenza Artificiale.

Prendiamo ad esempio il diritto alla privacy: l’Europa e l’Italia sono già leader su questo fronte, con normative all’avanguardia come il GDPR e, più recentemente, con l’AI Act. Il vero pericolo si presenta nei contesti in cui non esistono leggi chiare né controlli efficaci: dove mancano regole, trasparenza e pesi e contrappesi istituzionali. Lì il rischio di derive autoritarie è concreto. Al contrario, quando ci sono regole precise, istituzioni indipendenti e meccanismi di controllo ben funzionanti, la regolamentazione stessa diventa una barriera contro il totalitarismo. Ed è proprio questo che ci dice anche la ricerca dell’Istituto di Studi Politici di Belgrado: non è la tecnologia in sé a determinare il pericolo, ma il contesto politico e normativo in cui viene utilizzata”.

Noi le regole le abbiamo, forse anche troppe.

“Spesso si sente dire che gli americani inventano, i cinesi copiano e gli europei regolamentano. E spesso è vero. Ma, a mio avviso, questa volta no. Questa volta l’Europa è arrivata prima e lo ha fatto nel modo giusto, con la regolamentazione sull’Intelligenza Artificiale. Paradossalmente, e scolasticamente parlando, siamo i primi della classe. Da una parte abbiamo un liberismo sfrenato: sembra che uno dei temi negoziali che gli americani vorrebbero sul tavolo per ridurre i dazi imposti all’Europa sia proprio l’eliminazione delle restrizioni europee sull’uso dell’Intelligenza Artificiale. In altre parole, vorrebbero che l’UE smettesse di regolamentarla in modo così stringente, perché per loro l’Intelligenza Artificiale deve essere libera. Dall’altra parte ci sono i cinesi, che invece portano avanti l’Intelligenza Artificiale con forti limitazioni: ad esempio, se si interroga l’Intelligenza Artificiale su eventi come Piazza Tienanmen o su temi contrari alla linea del regime, l’Intelligenza Artificiale non fornisce le informazioni richieste. A mio avviso, noi europei ci troviamo nel mezzo. E questa volta è un bene: siamo i più equilibrati, capaci di valorizzare l’innovazione ma anche di tutelare i diritti fondamentali”.

A che cosa dobbiamo imputare questo primato?

“A mio avviso, dipende da molti fattori: da più di duemila anni di storia, dai nostri filosofi, dal pensiero critico su cui la scuola europea ha sempre posto l’accento e tanto altro. A livello internazionale l’educazione è spesso stata orientata direttamente al mondo del lavoro, mentre in Italia – e in Europa in generale – la scuola ha sempre investito di più sullo sviluppo del pensiero critico. Un tempo questo ci sembrava quasi uno svantaggio: mentre altri paesi preparavano gli studenti per entrare subito nel mondo professionale, noi ci concentravamo su riflessione, cultura e analisi.

Ma oggi, con l’arrivo dell’Intelligenza Artificiale, la situazione si ribalta: se domani farai il programmatore software, o un altro mestiere di concetto, c’è una buona possibilità che molte di quelle mansioni vengano svolte direttamente dall’Intelligenza Artificiale. Non ci sarà più bisogno di sapere come si scrive un programma software o come si calcola una busta paga, ma sarà fondamentale sapere cosa chiedere, come interpretarlo e come valutarlo criticamente. Ecco perché oggi diventa un vantaggio avere sviluppato negli anni proprio quel pensiero critico che prima sembrava una debolezza. Mentre molte scuole straniere hanno puntato tutto sulle competenze tecniche, noi – forse per necessità o per cultura – abbiamo investito di più sulla formazione umanistica: geografia, letteratura, filosofia… e oggi questo approccio, apparentemente meno utile, potrebbe rivelarsi un punto di forza. Questa, ovviamente, è una mia opinione. Una previsione personale”.

Sullo sfondo tanti temi di natura etica.

“Sì, l’Intelligenza Artificiale apre davvero molti spunti di riflessione e interrogativi di natura filosofica ed etica. Tanto è vero che l’Università La Sapienza di Roma, presso la Facoltà di Filosofia, ha attivato un indirizzo specifico dedicato proprio all’Intelligenza Artificiale. E questo rappresenta anche un interessante spunto di lavoro per i docenti di filosofia e di educazione civica nelle nostre scuole. Agganciandomi al discorso precedente, la cosa interessante è che, se ci rivolgiamo a uno studente italiano – che sia del liceo classico, scientifico o di un altro indirizzo – e gli chiediamo di argomentare su questi temi, sono certo che saprà farlo con competenza. Anzi, potremmo dar vita a una conversazione ricca e stimolante. Su questo, però, nutro forti dubbi riguardo agli studenti di altri Paesi. E glielo dico sulla base della mia esperienza diretta all’estero”.

Abbiamo dunque un bel vantaggio competitivo.

“E’ vero. Dipende se saremo in grado di sfruttarlo o meno. Io sono ottimista. Del resto, il motto del Vespucci è: Non chi comincia, ma quel che persevera. Giusto?”

E qui il ruolo della scuola diventa fondamentale.

“Confermo, il ruolo della scuola sarà davvero fondamentale. A mio avviso, lo studio dell’Intelligenza Artificiale – e lo studio con l’Intelligenza Artificiale – deve essere introdotto nei programmi scolastici. Se insegniamo ai ragazzi a utilizzarla in modo corretto, critico e consapevole – come diceva lei – l’Intelligenza Artificiale può rappresentare un vero vantaggio competitivo.

Personalmente, credo che sia ancora più importante introdurla a scuola che nel mondo del lavoro, perché, come dicevo prima, l’Intelligenza Artificiale ha il potenziale di potenziare le capacità cognitive delle persone, e quindi degli studenti, che saranno i dirigenti, i professionisti e i decisori politici di domani. Spesso sento associare all’Intelligenza Artificiale il concetto di produttività: l’Intelligenza Artificiale aumenta la produttività. Sì, è vero. Ma a noi non serve semplicemente aumentare la produttività. A noi serve aumentare la competitività.

Non si tratta solo di produrre più automobili, più beni agroalimentari o più tecnologia. Si tratta anche di produrre meglio, con maggiore qualità, innovazione ed efficienza. L’Intelligenza Artificiale, unita alla creatività italiana, può portarci in questa direzione. Per favore, dimentichiamoci la parola “produttività” quando parliamo di Intelligenza Artificiale. Sostituiamola con “competitività”. Solo così potremo sfruttare al meglio le opportunità dell’Intelligenza Artificiale, riducendone al tempo stesso i rischi”.

Che ruolo avrà, secondo lei, l’Intelligenza Artificiale generativa nella musica e nella creatività in generale?

“Guardi, proprio qualche mese fa ne parlavamo al CNEL, in un confronto con la SIAE, in particolare sul tema del diritto d’autore. È emerso che l’Intelligenza Artificiale generativa, in un certo senso, sfugge alle regole tradizionali del copyright. L’Intelligenza Artificiale generativa non copia nel senso stretto del termine: non prende parti, nemmeno brevi, di un film o di un brano musicale già esistente. Non commette plagio: imita. È un po’ come un regista che guarda un film di un collega e, mentre lo osserva, gli viene in mente un’idea per un nuovo film: diverso, originale, che non è la copia, né totale né parziale, di ciò che ha appena visto. Nel caso della musica, per esempio, l’Intelligenza Artificiale apprende ascoltando moltissime musiche e canzoni.

Quando le chiediamo di generare un brano pop con certe caratteristiche, lo fa imitando gli stili e le strutture che ha appreso, ma senza riprodurre nulla in modo diretto. Per questo, tecnicamente, non si può parlare di plagio, e le regole attuali sul diritto d’autore non si applicano in modo chiaro a questi contenuti. D’altra parte, poco tempo dopo, ho avuto una conversazione con un produttore musicale molto preoccupato per il futuro del suo lavoro, che riteneva minacciato dalle capacità dell’Intelligenza Artificiale di generare musica e canzoni in modo autonomo. Ma, con lo stesso fiato, mi diceva anche che l’Intelligenza Artificiale lo stava aiutando a esplorare nuove sonorità, a creare fusioni musicali che non avrebbe mai immaginato da solo. L’Intelligenza Artificiale generativa, da sola, non è creativa.

Ma se la mettiamo al servizio della creatività umana, può diventare un potentissimo amplificatore di idee. E se applichiamo questo stesso concetto alla scuola – cioè alla collaborazione tra Intelligenza Artificiale e studente – i risultati potrebbero essere davvero sorprendenti. A patto, però, che venga usata nel modo giusto. Come ogni tecnologia, anche l’Intelligenza Artificiale può essere impiegata per scopi distruttivi o per fini etici e costruttivi. Pensiamo alla fisica nucleare: può servire a costruire armi, oppure a salvare vite in medicina. Con l’Intelligenza Artificiale vale lo stesso principio: tutto dipende da come decidiamo di usarla”.

Lei sostiene che l’Intelligenza Artificiale, paradossalmente, stimolerà il ritorno ai rapporti umani, soprattutto tra i giovani che si candidano per un posto di lavoro. Vuole spiegare meglio questo concetto?

“È un tema che, a mio avviso, ha risvolti molto importanti per i giovani. Prima del COVID, i rapporti erano principalmente di persona: si incontravano clienti, datori di lavoro, colleghi. Il contatto umano era centrale, e sappiamo che l’essere umano prende decisioni anche in base alle emozioni. Il confronto diretto genera empatia, fiducia, impressioni. E spesso è da lì che nasce la decisione di affidare un incarico o assumere una persona. Con la pandemia, però, questo approccio è cambiato radicalmente: smart working, videoconferenze, colloqui da remoto… tutto è diventato più freddo, più distaccato. E questo modo di relazionarsi è rimasto anche dopo l’emergenza.

Ecco, io credo che l’Intelligenza Artificiale generativa stia per ribaltare nuovamente questa situazione. Pensiamoci: possiamo davvero fidarci oggi di un curriculum senza conoscere la persona? Possiamo essere certi che quel CV sia stato scritto dal candidato e non da un’Intelligenza Artificiale generativa? E ciò che leggiamo sul sito di un’azienda rappresenta davvero le sue competenze e i suoi valori, o è solo un testo perfetto generato dall’Intelligenza Artificiale generativa? Il punto è che l’Intelligenza Artificiale generativa può rendere tutto “perfetto”, ma non autentico: curriculum impeccabili, siti web straordinari, lettere motivazionali coinvolgenti… ma tutto potenzialmente artificiale.

Questa nuova consapevolezza, ne sono convinto, riporterà al centro i rapporti umani. Perché se non puoi più fidarti di ciò che leggi, senti o vedi, allora dovrai tornare a incontrare le persone. Mettiamoci nei panni di un responsabile delle risorse umane: prima, con un buon curriculum, riusciva già a farsi un’idea del candidato. Oggi, con l’Intelligenza Artificiale generativa, tutti i CV sono perfetti — ma anche tutti molto simili. La differenza, allora, la farà solo l’incontro, il colloquio reale, lo scambio umano. Siamo ancora in una fase di transizione, ma domani sarà evidente: torneremo ad avere bisogno delle persone, dei volti, delle emozioni per prendere decisioni”.

E questo non è un male.

“Tutt’altro, è un bene. Tutti sembrano spaventati dall’idea che l’Intelligenza Artificiale possa limitare le relazioni umane, ma in realtà penso che accadrà il contrario: i rapporti umani saranno inevitabilmente destinati a crescere e rafforzarsi”.

Come vede l’Intelligenza Artificiale del futuro?

“Ho trent’anni di esperienza nel mondo dell’informatica ed ero uno di quei giovani che, fin da subito, hanno abbracciato la filosofia del software aperto: l’open-source. E ancora oggi sono convinto che quella sia stata la scelta giusta. All’epoca, quando cercavamo di convincere le aziende a utilizzare software open-source invece di quello proprietario, spesso ci guardavano con sospetto, quasi con disprezzo. Ma a distanza di trent’anni posso dire con certezza che avevamo ragione: oggi, software aperti come Linux, Python e molti altri sono strumenti utilizzati quotidianamente in tutto il mondo. L

a mia previsione – e anche la mia speranza – è che accada lo stesso con l’Intelligenza Artificiale: che, in un futuro non troppo lontano, anche l’Intelligenza Artificiale diventi open-source e non resti nelle mani di poche grandi aziende”. Non ha senso che l’Intelligenza Artificiale sia proprietà esclusiva di qualcuno, perché la sua vera forza risiede nell’esperienza umana da cui continua ad apprendere. Immagini cosa significherebbe avere un’Intelligenza Artificiale open-source, alla quale possa contribuire liberamente l’intera umanità: ricercatori di ogni disciplina, scientifica e non scientifica.

Il potenziale sarebbe enormemente superiore rispetto a un’Intelligenza Artificiale sviluppata e controllata da pochi soggetti. Se potessimo mettere a fattor comune l’esperienza di otto miliardi di persone, l’impatto sarebbe davvero straordinario. Con il software open-source lo abbiamo già visto: oggi moltissime aziende lo utilizzano senza nemmeno pensarci. Per questo, mi viene naturale pensare che, prima o poi, arriveremo anche a un’Intelligenza Artificiale open-source. Oggi le Intelligenze Artificiali generative più potenti sono ancora proprietarie, ma iniziano ad emergere i primi segnali di un cambiamento: progetti come DeepSeek, e altri simili, indicano chiaramente una direzione più aperta, trasparente, democratica e collaborativa”.

WhatsApp
Telegram

Offerta Riservata TFA 2025: Abilitazione all’insegnamento da € 1.400 con Mnemosine