Rivoluzione Universitaria: L’AI Richiede Regole, Non Solo Policy!

l'articolo appartiene alla categoria:

pubblicato il:

L’introduzione dell’AI generativa negli atenei rappresenta una trasformazione profonda che coinvolge la natura stessa della ricerca, dell’apprendimento e della produzione scientifica. Le università si trovano dinanzi a una sfida inedita: mantenere l’autonomia cognitiva e la qualità del sapere in un contesto nel quale la conoscenza è sempre più co-prodotta da sistemi non umani.

L’AI come dispositivo cognitivo che ridisegna la conoscenza

L’AI, in particolare nei sistemi generativi, deve essere concepita non semplicemente come una tecnologia, ma come un dispositivo cognitivo, capace di riscrivere il modo in cui si apprende e produce conoscenza. Oggi, essa interviene nella ricerca, dalla traduzione di testi alla sintesi e interpretazione dei dati, fino alla formulazione di ipotesi e redazione di articoli che possono apparire scritti da ricercatori umani. Questo porta a una ristrutturazione profonda dell’organizzazione scientifica e del pensiero universitario.

Fino a poco tempo fa, l’AI occupava un ruolo marginale, ma ora, con l’avanzamento rapido dell’AI generativa e dei modelli generativi di linguaggio, è diventata centrale nella produzione scientifica. Le università sono quindi chiamate a rispondere a questioni politiche cruciali: come mantenere la libertà e la qualità cognitiva quando la conoscenza è co-prodotta da sistemi governati da entità private?

Le linee guida europee e l’ecosistema di fiducia nella ricerca

Le “Living Guidelines on the Responsible Use of Generative AI in Research” elaborati dall’ERA Forum della Commissione europea, evidenziano il potenziale dell’AI come risorsa per la ricerca scientifica e il rischio di erosione dell’integrità della scienza, se non utilizzata in un contesto di consapevolezza e corresponsabilità. La conoscenza deve essere vista come un ecosistema di fiducia.

In questo ecosistema, la tecnologia non può sostituire la valutazione umana. L’università ha il compito di interrogarsi su come l’AI potrà essere integrata come un alleato critico nella ricerca e nella responsabilità dell’apprendimento.

Impatto sistemico dell’AI sulla filiera accademica contemporanea

Negli ultimi due anni, l’AI ha modificato profondamente la morfologia degli atenei, generando un impatto sistemico che interessa ogni aspetto della comunità accademica. Sistemi come ChatGPT e Copilot sono diventati strumenti quotidiani, permettendo produzioni rapide e compiti complessi. Tuttavia, questo porta anche a una crisi di identità nell’università.

Se da un lato l’AI offre possibilità operative innovative, dall’altro rischia di ridurre l’autonomia critica dei ricercatori, trasformandoli in semplici fruitori di output automatici.

La rivista Nature ha già documentato casi di articoli redatti parzialmente da chatbot, presenti nel mercato scientifico con potenziali allucinazioni o contenuti errati. Dai rischi legati all’uso non regolamentato dell’AI emergono questioni etiche e legali, quali la definizione di autore di un testo generato da AI e la garanzia di originalità.

Il quadro normativo europeo tra AI Act e living guidelines

La legislazione europea in materia di AI e ricerca si evolve su un terreno di policy maturo. Con l’AI Act, l’Unione Europea stabilisce un quadro regolatorio finalizzato alla trasparenza e alla sicurezza. Le “Living Guidelines” mirano a fornire un modello di governance che si basa su quattro principi fondamentali: responsabilità, onestà, rispetto e affidabilità.

Queste linee guida sollecitano non solo la deontologia, ma propongono una riformulazione della cultura scientifica. È fondamentale formare comunità di ricerca consapevoli, capaci di discutere le implicazioni dell’AI.

Tre modelli strategici delle università italiane verso l’AI

Gli Atenei italiani rispondono alle sfide dell’AI con diverse modalità, che si possono sintetizzare in tre approcci:

  • Integrazione fiduciaria: Approccio aperto, che considera l’AI come un’opportunità.
  • Regolazione prescrittiva: Strategia cauta, che delinea chiaramente le condizioni d’uso.
  • Governance della conoscenza: Visione più ampia, inserendo l’AI in un contesto di produzione scientifica.

Le quattro lacune critiche delle policy universitarie italiane

  1. Governance ancora debole: Strumenti di verifica sull’uso dell’AI nei progetti di ricerca sono insufficienti.
  2. Formazione e competenze carenti: La richiesta di strumenti AI supera la capacità di formazione.
  3. Disparità infrastrutturali: Risorse non omogenee tra diversi atenei.
  4. Mancanza di visione a lungo termine: Molti atenei si concentrano su aspetti immediati senza approfondire il futuro della ricerca in relazione all’AI.

Efficienza vs efficacia: un bilancio critico

Le politiche universitarie stanno cercando di rispondere alle nuove sfide, ma risultano spesso inadeguate rispetto alle trasformazioni in corso. Mentre alcune università hanno adottato linee guida di utilizzo dell’AI, mancano procedure chiare per un approccio strategico alla governance della conoscenza.

Ripensare la forma della conoscenza nell’era dell’AI

La sfida principale per le università consiste nel ripensare la produzione della conoscenza in un contesto dove l’AI gioca un ruolo significativo. Non è sufficiente regolamentare l’uso della tecnologia; si devono considerare le implicazioni delle politiche della conoscenza nei contesti cognitivi ibridi.

La trasformazione ontologica dei saperi implica una profonda revisione delle politiche. Un passaggio crucial è da una policy tecnologica a una policy della conoscenza, che consideri il contesto relazionale e le responsabilità.

Cinque pilastri per una governance integrata dell’AI in università

Un’università che desidera affrontare l’AI come attivatore di trasformazione cognitiva dovrebbe:

  • Costruire una governance integrata.
  • Adottare strumenti di trasparenza e audit.
  • Formare competenze critiche.
  • Ridefinire i parametri di valutazione.
  • Investire in infrastrutture aperte.

I cinque livelli di maturità istituzionale verso l’AI

Un modello di valutazione della maturità istituzionale rispetto all’AI si basa su diversi livelli evolutivi delle politiche, dall’approccio reattivo a una governance ecosistemica, evidenziando le migliori pratiche e opportunità di sviluppo.

La conoscenza come atto di resistenza cognitiva

Ogni epoca ha espresso un’intelligenza collettiva. La presente epoch ha portato alla esternalizzazione dell’intelligenza, con macchine che operano per noi. L’università deve assumere la responsabilità di rispondere alla domanda fondamentale: che cosa significa ancora pensare?

Il compito dell’università non è solo produrre conoscenza, ma custodire il significato di essa. Utilizzando l’AI come opportunità, essa deve interrogarsi sul proprio ruolo, tornando a essere un presidio di autonomia cognitiva e ridefinendo il legame tra sapere e democrazia.

Condividi sui social:

Articoli popolari

Altro nella categoria
Related

AI Act nell’ombra del Digital Omnibus: chi sopporta il peso dell’incertezza?

  Il Digital Omnibus sull’AI emerge in un momento cruciale...

Insegnare Oggi: Sfide e Passioni nell’Educazione

Competenza, empatia e responsabilità Essere insegnanti oggi implica esercitare una...

AI Innovativa: La Soluzione per Fermare il Furto di Credenziali

Introduzione: quando l’AI intelligente diventa vulnerabile Recenti scoperte nel campo...

La Preside e la Gabbia del Modello Caivano: Un Racconto di Speranza e Resilienza

“La Preside” e il modello Caivano L’intervento Da La Repubblica Napoli,...