Superintelligenza: perché le menti brillanti temono l’AI che sfida l’umanità

l'articolo appartiene alla categoria:

pubblicato il:

Recentemente, Steve Bannon, Meghan Markle e Stephen Fry hanno aderito a un gruppo variegato di personalità pubbliche, scienziati, politici, imprenditori, religiosi e artisti, che richiedono una proibizione globale dello sviluppo della cosiddetta “superintelligenza”. Questa alleanza inedita è stata formata in risposta ai rischi associati all’intelligenza artificiale avanzata.

L’appello, reso pubblico il 23 ottobre dal Future of Life Institute (FLI), ha ricevuto, al momento della redazione di questo articolo, oltre 27.000 firme (di cui 22.075 provenienti da una campagna parallela promossa da Ekō). Tra i nomi di spicco vi sono Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, Richard Branson, Mary Robinson, Susan Rice, Stephen Fry, il principe Harry, Meghan Markle e Steve Bannon. Il documento richiede ai governi e alle istituzioni internazionali di vietare lo sviluppo di sistemi di intelligenza artificiale capaci di superare le capacità cognitive umane in tutti gli ambiti, fino a quando non sarà raggiunto un consenso scientifico sulla loro sicurezza e controllabilità.

Superintelligenza: cosa dicono i contrari

Il FLI richiede una proibizione dello sviluppo della superintelligenza, che deve rimanere in vigore finché non si raggiunga un ampio consenso scientifico riguardo la sua sicurezza e controllabilità, così come un saldo sostegno pubblico. Secondo il presidente del FLI, Max Tegmark, “la vera minaccia non è rappresentata da un’altra azienda o da un altro Paese, ma dalle macchine che stiamo costruendo”. Tegmark sostiene che “sempre più persone stanno iniziando a capire che il rischio maggiore non proviene da attori economici esterni, ma dalla traiettoria tecnologica che abbiamo intrapreso”.

Questo appello emerge in un contesto in cui le principali aziende tecnologiche, tra cui OpenAI, Google, Meta e Anthropic, competono per raggiungere la “general intelligence”. Dopo un primo appello nel marzo 2023 per una moratoria di sei mesi sullo sviluppo di nuovi modelli, oggi la richiesta è di un divieto totale e indeterminato sullo sviluppo della superintelligenza.

Le priorità da affrontare

Il FLI pone come priorità fondamentale il raggiungimento di un consenso scientifico e sociale prima di ulteriori avanzamenti nel campo dell’AI, al fine di prevenire rischi quali “obsolescenza economica, perdita di libertà, disuguaglianze, minacce alla sicurezza nazionale e persino estinzione umana”. Tra i firmatari figurano anche ricercatori cinesi come Andrew Yao e Ya-Qin Zhang, ex presidente di Baidu, oltre a figure istituzionali come Susan Rice e Mike Mullen.

La petizione è completata da un sondaggio che indica come il 75% degli americani sia favorevole a una regolamentazione severa dell’AI, mentre solo il 5% sostiene lo status quo di sviluppo non regolato.

Superintelligenza: il contesto

Il dibattito sulla superintelligenza si inserisce attualmente in un contesto di saturazione tecnologica e narrativa. L’intelligenza artificiale generativa, che ha guadagnato popolarità grazie a modelli come ChatGPT, Gemini e Claude, mostra segni di curva di rendimento decrescente: i nuovi modelli richiedono risorse di calcolo enormi ma forniscono miglioramenti marginali. La “superintelligenza” sollevata dai firmatari non è quindi una realtà imminente ma piuttosto un’ipotesi etica e politica, un manifesto contro la perdita di controllo e significato.

Il dopo-transformer: l’intelligenza predittiva e i modelli JEPA

Per superare i limiti attuali, alcuni studiosi, tra cui Yann LeCun, chief scientist di Meta e vincitore del Turing Award, stanno lavorando su architetture alternative. Il modello più avanzato è i-JEPA (Image Joint Embedding Predictive Architecture), che non si limita a “predire la prossima parola”, ma appare in grado di costruire rappresentazioni astratte e prevedere stati futuri. i-JEPA si basa su apprendimento auto-supervisionato e predizione del contesto, il che lo rende simile al funzionamento del cervello umano.

Una firma che manca: la posizione di Yann LeCun

Importante figura nel campo dell’AI, Yann LeCun non ha aderito allo Statement on Superintelligence. La sua assenza non deve essere interpretata come un dato formale, ma piuttosto come un’indicazione di una visione differente: LeCun ha criticato le paure apocalittiche correlate all’AGI, etichettandole come cliché o “scenari fantascientifici” che distolgono l’attenzione dalla ricerca pratica. La sua visione pone l’accento sulla mancanza di una vera ricerca cognitiva e sul rilievo di realizzare macchine che abbiano specifiche capacità.

Superintelligenza o sovranità cognitiva

Il dibattito attuale non riguarda solo il quando arriverà l’AGI, ma come sarà definita. Lo Statement on Superintelligence sposta l’attenzione dal come al se. La questione cruciale è la sovranità sullo sviluppo dell’intelligenza e chi stabilisce le definizioni etiche e le limitazioni.

Un dibattito necessario, ma in ritardo

Questo Statement giunge in un momento in cui la regolamentazione globale dell’AI sta progredendo lentamente. L’AI Act europeo è in fase di attuazione, mentre gli Stati Uniti risultano frammentati. In questo contesto, l’appello del FLI rappresenta una richiesta di autodisciplina collettiva e un appello al principio di precauzione.

I rischi concreti

Il rischio più immediato non è la nascita di una mente artificiale autonoma, ma piuttosto la perdita della capacità critica di governare l’intelligenza già esistente. L’AI, pur non essendo ancora superintelligente, è già una infrastruttura cognitiva che modella le decisioni e filtra la realtà. Di conseguenza, il vero messaggio dello Statement non è tecnico, ma simbolico: sottolineare che la vera sfida è comprendere l’intelligenza umana prima che le macchine sappiano farlo meglio.

Condividi sui social:

Articoli popolari

Altro nella categoria
Related

Collaborazione Strategica: Protocollo d’Intesa MIM-MC

Il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, insieme...

È possibile usare il minor prezzo nelle gare per lavori oltre soglia?

  È possibile applicare il criterio del minor prezzo per...

Scopri le Opportunità Part-Time con Edscuola: Lavora e Impara!

Il personale che intende richiedere la trasformazione del rapporto...

Nuove Direttive ANAC: Delibera Storica del 3 Febbraio 2026

  AUTORITÀ NAZIONALE ANTICORRUZIONE COMUNICATO Revisione del regolamento per accesso civico, accesso...