No perditempo!

Email: redazione@malanova.info


I premi Nobel e l’Intelligenza Artificiale

Il Premio Nobel per la Fisica 2024 è stato conferito a John J. Hopfield e Geoffrey E. Hinton “per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali“. Anche il Premio Nobel per la Chimica è stato conferito per metà a David Baker “per il design computazionale delle proteine” e per l’altra metà, congiuntamente a Demis Hassabis e John M. Jumper “per la predizione della struttura delle proteine“. Demis Hassabis e John Jumper hanno sviluppato un modello di Intelligenza Artificiale in grado di prevedere le complesse strutture delle proteine.

In entrambe i casi ci troviamo di fronte al dilagare dell’applicazione dell’IA nella ricerca scientifica.

A volte penso che sia come se gli alieni fossero atterrati e le persone non se ne fossero accorte perché parlano un ottimo inglese”. Queste parole sono state pronunciate dal neo premio Nobel Geoffry Hinton che è considerato il pioniere dell’intelligenza artificiale tanto da esserne universalmente riconosciuto come il ‘padrino’. Secondo lo studioso i rischi legati all’uso dell’IA sono visibili già oggi e non sono di poco conto e richiederebbero una riflessione più attenta da parte dei ricercatori di tutto il mondo.

Anche Demis Hassabis, amministratore delegato britannico della divisione AI di Google, ha esposto pubblicamente i suoi timori sulle potenzialità e i pericoli di questa nuova tecnologia, tra cui il sostegno alla creazione di armi biologiche e la minaccia esistenziale rappresentata dai sistemi super intelligenti:

Dobbiamo prendere i rischi dell’IA con la stessa serietà con cui affrontiamo altre grandi sfide globali, come il cambiamento climatico“, ha affermato. “La comunità internazionale ha impiegato troppo tempo per coordinare una risposta globale efficace a tutto ciò, e ora ne stiamo vivendo le conseguenze. Non possiamo permetterci lo stesso ritardo con l’IA“. (Fonte: https://www.theguardian.com)

Secondo il ricercatore britannico l’IA porta con sé incredibili opportunità di sviluppo in campi come la medicina e la scienza, ma non è esente da far nascere preoccupazioni: sarebbe possibile nelle prossime generazioni approdare allo sviluppo di un’intelligenza artificiale generale (AGI) avente le stesse capacità dell’intelligenza umana o addirittura superiori e che per questo non è escluso che potrebbero eludere lo stesso controllo umano. Sarebbe necessario dunque, sempre secondo il neo premio Nobel, che a livello mondiale si creino degli istituti di ricerca centralizzati tipo l’IPCC che si occupa della crisi climatica e successivamente come l’AIEA per l’energia atomica.

Molto più netta, come abbiamo visto, la posizione del premio Nobel per la Fisica Hinton che già nel 2023 ha lasciato il suo lavoro di ricerca presso Google proprio per poter parlare liberamente dei rischi dell’intelligenza artificiale. In una sua intervista a caldo sul conferimento del Nobel ha rilasciato dichiarazioni molto preoccupanti sui rischi dell’IA fino alla previsione di estinzione della razza umana:

Penso che sia piuttosto diverso dal cambiamento climatico. Con il cambiamento climatico, tutti sanno cosa bisogna fare. Dobbiamo smettere di bruciare carbonio. È solo una questione di volontà politica di farlo. E grandi aziende che realizzano grandi profitti non sono disposte a farlo. Ma è chiaro cosa bisogna fare. Qui, invece, abbiamo a che fare con qualcosa su cui abbiamo molte meno certezze su cosa accadrà e cosa fare al riguardo. Vorrei avere una specie di ricetta semplice che se fai questo, andrà tutto bene. Ma non ce l’ho. In particolare, per quanto riguarda le minacce esistenziali dell’IA che sfuggono al controllo e prendono il sopravvento, sono convinto che siamo a una specie di punto di biforcazione nella storia. Nei prossimi anni dovremo capire se c’è un modo per affrontare questa minaccia. Penso che sia molto importante in questo momento che le persone lavorino su come manterremo il controllo. Dobbiamo impegnarci molto nella ricerca. Penso che una cosa che i governi possono fare è obbligare le grandi aziende a spendere molte più risorse nella ricerca sulla sicurezza. In modo che, ad esempio, aziende come OpenAI non possano mettere la ricerca sulla sicurezza in secondo piano”.

L’intervista “a caldo” del Premio Nobel

Già precedentemente, nel maggio 2023, Geoffrey Hinton, annunciando le sue dimissioni da Google, ha confidato al New York Times di essersi “pentito del suo lavoro” e alla BBC ha elencato alcuni dei pericoli – “piuttosto spaventosi” – dei chatbot basati sull’intelligenza artificiale: “Al momento, non sono più intelligenti di noi, per quanto ne so. Ma penso che presto potrebbero diventarlo.” (FONTE: https://www.bbc.com)

La ricerca pionieristica del dott. Hinton sulle reti neurali e sull’apprendimento profondo, infatti,  ha aperto la strada ad applicazioni come ChatGPT che hanno catalizzato lo stupore e l’attenzione globali. Le reti neurali sono sistemi che imitano e moltiplicano il funzionamento del cervello umano nel modo in cui apprendono ed elaborano le informazioni. Consentono alle IA di imparare dall’esperienza, come farebbe una persona. Questo è chiamato apprendimento profondo.

Molte implicazioni sorgono anche nel mondo della comunicazione, della medicina o delle assicurazioni. L’intelligenza artificiale comanda gli algoritmi che dettano cosa mostrare o cosa occultare nelle piattaforme di streaming video, sui social media e su tutte le altre piattaforme digitali.  Possono decidere, al momento seguendo i parametri impostati dai proprietari delle piattaforme, cosa dovresti guardare dopo un determinato video, cosa proporti in lettura o cosa filtrare a seconda degli obiettivi voluti o dei gusti rilevati. Può essere utilizzata nel reclutamento per filtrare le domande di lavoro di persone con “parametri” non graditi, o dalle compagnie assicurative per calcolare con più precisione i premi partendo, ad esempio, dalla consultazione dei dati relativi alla personale condizione medica.

Pensiamo anche, ad esempio, ad un governo che chieda l’ausilio dell’Intelligenza Artificiale per implementare sistemi capaci di analizzare in tempo reale i tanti parametri necessari per prendere una decisione rapidissima – e per questo umanamente impossibile – in caso di conflitto; quella di rispondere ad un’eventuale aggressione nemica con il lancio di bombe nucleari.

Scenari, invero, non molto lontani!

Print Friendly, PDF & Email