Può la scrittura troppo perfetta diventare un problema? In un’epoca in cui le AI sanno generare testi coerenti, ordinati e grammaticalmente impeccabili, la risposta sembra essere sì. È accaduto all’Università Federico II di Napoli, dove una studentessa di Lingue, Rosanna Tecola, è stata bocciata ad un esame perché, secondo i docenti, il suo elaborato mostrava segnali di essere stato prodotto da ChatGPT. “Quando ho chiesto spiegazioni, mi hanno detto che nel compito c’erano indicatori di AI. Ma scrivere bene non dovrebbe essere un difetto”.
Tecola, che ha accettato di rifare l’esame, ha comunque espresso perplessità: “Un conto è se ti scoprono mentre lo usi, un altro è applicare questi criteri a posteriori.” Il caso ha riaperto un dibattito ormai centrale nel mondo dell’istruzione: è davvero possibile riconoscere con certezza un testo scritto da un’intelligenza artificiale? E se sì, in base a quali strumenti?
Il limite degli strumenti di rilevazione
Negli ultimi mesi molte università hanno cominciato a dotarsi di software come Turnitin, GPTZero o Copyleaks, capaci di stimare – in base a modelli statistici – la probabilità che un testo sia stato generato da un’IA. Analizzano la prevedibilità delle parole, la linearità dello stile, la coerenza delle frasi. Ma si tratta di strumenti tutt’altro che infallibili: spesso etichettano come “artificiale” anche un buon articolo giornalistico, un tema ben argomentato o un saggio scritto con rigore formale.
A complicare il quadro c’è anche l’evoluzione dei chatbot: oggi è possibile chiedere a ChatGPT di scrivere con errori, imitare lo stile di uno studente, usare registri meno neutri. Ciò rende ancora più difficile distinguere un contenuto generato da una macchina da uno prodotto da una persona.
Convivenza inevitabile
Più che un allarme, il caso di Napoli racconta una situazione concreta: l’IA è ormai parte del presente. Secondo gli ultimi dati, ogni giorno nel mondo vengono inviati oltre 2,5 miliardi di prompt ai principali chatbot. È quindi realistico pensare di escluderla completamente dalle aule? O bisogna piuttosto imparare a integrarla in modo trasparente, chiedendoci non solo chi ha scritto un testo, ma come ci è arrivato?
Nel mondo della scuola e dell’università, questo significa forse cambiare prospettiva: valutare il percorso, le fonti, le bozze, e non soltanto il risultato finale. La presenza dell’intelligenza artificiale impone nuove domande, non risposte immediate. Non si tratta di prendere posizione a favore o contro, ma di trovare un equilibrio tra strumenti digitali e criteri di valutazione credibili e condivisi. Perché oggi, più che mai, saper convivere con l’IA è una sfida culturale prima ancora che tecnologica.
Leggi anche altre notizie su CorriereUniv