Con l’avvento dell’IA e dei nuovi software capaci di produrre testi simili a quelli che potrebbe scrivere un essere umano, il vecchio vizio italico di copiare, a casa o in classe, ha fatto un ulteriore salto di qualità rispetto a Internet. Già dieci anni fa due studenti su tre ammettevano di cercare “aiutini” in Rete. Lo sanno bene gli insegnanti che si sono attrezzati a rimaneggiare le versioni per evitare il copia-incolla delle traduzioni. Perfino alla Maturità, nonostante il rischio di bocciatura, il 30 per cento dei candidati confessa di aver copiato la seconda prova. Col tema, però, finora era più difficile: con l’IA generativa diventa un gioco da ragazzi.
Il dossier del Time
Nessun divieto, nessuna minaccia potrà disinnescare questa bomba che rischia di rendere anche più tesi i rapporti tra insegnanti e studenti. Inventare compiti che i chatbot non possano svolgere è sempre più difficile. Ma quello che è diventato quasi impossibile è assicurare una correzione “giusta”: come distinguere un compito copiato da uno originale? Molte università soprattutto nel mondo anglosassone si sono già dotate di appositi software per riconoscere lo zampino dell’IA. Ma i risultati non sempre sono affidabili. E comunque, secondo una recente indagine effettuata su 200 milioni di “paper” da una nota azienda di software anti-cheating (cioè anti imbroglio), la percentuale di studenti che imbrogliano non è aumentata. A essere cresciuta esponenzialmente, come denunciato dal Center for Democracy and Technology, è la diffidenza degli adulti (genitori compresi) nei confronti dei ragazzi.
Nel dossier del Time che raccoglie le voci di vari insegnanti in giro per il mondo, gli intervistati si dividono più o meno a metà fra apocalittici e integrati: quelli che confidano che l’uso dei nuovi programmi possa liberare tempo per compiti e attività meno compilative, e chi invece teme che i bot generativi finiscano per togliere spazio e lavoro ai docenti in carne e ossa. Una parola di saggezza l’ha detta la presidente di uno dei principali sindacati della scuola americani, Randi Weingarten: “Gli insegnanti hanno due possibilità: pensare che gli studenti abusino di ChatGPT o provare a mostrare loro come usarlo in modo responsabile”. Di tentativi se ne fanno già tanti, ma una vera e propria sistematizzazione didattica ancora non c’è. In un liceo di Seattle gli studenti hanno generato con l’aiuto dell’IA un rap in stile Kanye West su vettori e trigonometria; a Detroit hanno commentato criticamente un saggio scritto dal chatbot su Romeo e Giulietta. Succede anche in Italia: in un liceo scientifico di Udine un prof ha fatto svolgere degli esercizi dal software e poi ha chiesto agli studenti di trovare gli errori commessi dalla macchina.
La verifica delle fonti
Quello dell’attendibilità è uno dei problemi principali dell’intelligenza artificiale. Molto istruttivo è l’esperimento fatto dall’Invalsi, l’ente di valutazione delle nostre scuole, che interrogando ChatGPT sulla sua affidabilità si è sentito rispondere: “Sono stato allenato su una vasta gamma di testi provenienti da Internet. Tuttavia non ho accesso diretto alle fonti. Pertanto è consigliabile verificare sempre che le informazioni siano corrette e aggiornate”. Senza contare il fatto che questi “replicanti” si nutrono di dati in base alla cultura dominante in Rete, americana e bianca.
L’Invalsi è coinvolto nella prima sperimentazione nazionale sull’IA lanciata dal ministero dell’Istruzione e del Merito lo scorso autunno in 15 classi di seconda media e quarta superiore in Lombardia, Toscana, Lazio e Calabria. Un piccolo progetto, sostenuto da Google, che prevede l’utilizzo di un “assistente virtuale” dell’insegnante che fa esercitare gli studenti sulle materie scientifiche e le lingue straniere (per ora solo su quelle) per cogliere in tempo reale eventuali difficoltà. Un esempio: il chatbot può accorgersi che un alunno, pur avendo compreso il procedimento delle equazioni di secondo grado, sbaglia nelle somme. Il sistema segnala il problema allo studente e al prof che possono correre ai ripari. Per ora l’Italia ci va coi piedi di piombo, anche per non entrare in rotta di collisione con insegnanti e sindacati. “Una cosa è l’IA – si è affrettato a precisare il ministro Giuseppe Valditara -, ma l’intelligenza umana è un’altra cosa e solo i docenti sanno cogliere la personalità dei loro allievi”.
Resta il fatto che per attrezzare i docenti a gestire la nuova sfida bisognerebbe intervenire sulla loro formazione, mentre al momento dei 60 crediti universitari richiesti per poter diventare prof solo 3 sono dedicati al digitale. Quanto agli studenti, finora c’è solo una vaga indicazione di affrontare la questione all’interno del calderone dell’educazione civica: trentatré ore annuali in cui si studia di tutto, dal contrasto alla violenza di genere all’educazione stradale.
Leggi anche altre notizie su CorriereUniv
Seguici su Facebook e Instagram