L’intelligenza artificiale è già entrata nelle aule universitarie, nei processi di studio, nella ricerca e nella didattica, ma le università europee non hanno ancora deciso a quali condizioni accettarne l’uso. A lanciare l’allarme è un nuovo report della European University Association (EUA), che invita gli atenei a fermarsi, riflettere e governare l’adozione dell’AI prima che diventi un fatto irreversibile.
Il documento, intitolato Adopting AI that serves the needs and values of universities, non è una guida tecnica né un regolamento. È una presa di posizione politica e culturale sul ruolo dell’università nell’era dell’intelligenza artificiale. E il messaggio è chiaro: l’AI può essere utile, ma rischia di compromettere studio, valutazioni e benessere degli studenti se adottata senza una visione educativa.
AI e università: perché la valutazione è un “uso ad alto rischio”
Uno dei passaggi più netti del report riguarda esami, valutazioni e accesso ai percorsi di studio. Secondo l’EUA, l’uso dell’intelligenza artificiale in questi ambiti rientra tra le applicazioni “ad alto rischio”, perché influisce direttamente sulle traiettorie di vita delle persone.
Sistemi opachi, decisioni automatizzate e algoritmi difficili da verificare pongono problemi di equità, trasparenza e responsabilità. In altre parole, l’AI non può diventare un arbitro invisibile del merito accademico. Il rischio, avvertono le università europee, è che la tecnologia finisca per sostituire il giudizio umano invece di supportarlo.
Studio e dipendenza cognitiva: quando l’AI smette di aiutare
Il report affronta un tema spesso ignorato nel dibattito pubblico: la dipendenza cognitiva. L’uso continuo dell’AI come strumento di supporto allo studio può ridurre l’autonomia intellettuale degli studenti, trasformando l’intelligenza artificiale in un tutor permanente che suggerisce, corregge, sintetizza e orienta il pensiero.
La parola chiave utilizzata dall’EUA è agency: la capacità di pensare, scegliere e argomentare in modo autonomo. Secondo il documento, un’università che delega eccessivamente all’AI rischia di indebolire le competenze critiche che dovrebbe invece formare.
Salute mentale e isolamento: un rischio sottovalutato
Non meno rilevante è il capitolo dedicato al benessere psicologico. L’EUA sottolinea come un uso massiccio e non guidato dell’intelligenza artificiale possa accentuare isolamento, ridurre le interazioni umane e aggravare una crisi di salute mentale già evidente tra gli studenti universitari, soprattutto dopo la pandemia.
L’AI promette efficienza e velocità, ma l’università non è solo un luogo di produzione di contenuti, ricordano gli esperti: è uno spazio relazionale, di confronto e crescita collettiva. Sostituire questi elementi con strumenti automatici rischia di impoverire l’esperienza educativa.
Efficienza non è sinonimo di educazione
Uno dei passaggi più significativi del report riguarda il linguaggio stesso con cui si parla di AI. L’EUA mette in guardia dall’adozione acritica di un discorso basato esclusivamente su produttività ed efficienza, valori centrali per l’industria ma non necessariamente compatibili con la missione accademica.
Nell’università europea, lentezza, dubbio, riflessione e possibilità di errore non sono difetti da eliminare, ma condizioni del sapere. L’intelligenza artificiale, avverte il report, deve servire l’apprendimento, non sostituirlo o accelerarlo a ogni costo.
Università, AI Act e governance europea
Il documento arriva in un momento cruciale: l’entrata in vigore dell’AI Act europeo. Secondo l’EUA, le università devono avere un ruolo attivo nella definizione delle regole, accanto a governi e industria. A ribadirlo è Thomas Jørgensen, direttore della policy coordination dell’associazione, che chiede per gli atenei “un posto al tavolo” nelle decisioni strategiche sull’AI.
Il rischio, altrimenti, è che le scelte sull’uso dell’intelligenza artificiale nell’istruzione vengano dettate dall’esterno, senza tenere conto dei valori educativi, scientifici e sociali dell’università.
Una domanda aperta sul futuro dello studio
Il report dell’EUA non offre soluzioni semplici né ricette immediate. Ma pone una domanda centrale: chi decide come e fino a che punto l’AI deve entrare nell’università? La risposta, per le università europee, non può essere lasciata all’inerzia tecnologica o alla pressione del mercato.
L’intelligenza artificiale non è neutra. E il modo in cui verrà integrata nello studio, nella valutazione e nella didattica determinerà non solo l’efficienza del sistema, ma la qualità stessa della formazione universitaria nei prossimi anni.
Leggi anche altre notizie su CorriereUniv





