Rischi nascosti dell’Intelligenza Artificiale secondo il Padrino dell’IA Geoffrey Hinton

Geoffrey Hinton, il “Padrino dell’IA“, ha recentemente lasciato Google dopo una carriera decennale e ha espresso rimpianto per il ruolo fondamentale che ha svolto nello sviluppo della tecnologia. Hinton, che ha contribuito a spianare la strada per la creazione di prodotti generativi basati sull’intelligenza artificiale come il chatbot Bard di Google e il ChatGPT di OpenAI, ha espresso preoccupazione per la corsa all’IA tra i giganti della tecnologia e per il suo potenziale impatto sulla società.

Rischi nascosti Intelligenza Artificiale
Foto@Pixabay

In particolare, Hinton teme che la tecnologia possa danneggiare l’umanità e che i prodotti generativi possano diffondere informazioni false su Internet, rendendo difficile distinguere tra ciò che è vero e ciò che è falso.

L’uscita di Hinton dall’azienda arriva in un momento in cui la preoccupazione per l’etica dell’IA è in aumento tra gli ingegneri del software e i dipendenti di Google stessa. Secondo quanto riferito, alcuni dipendenti di Google sono preoccupati per il chatbot Bard dell’azienda e hanno affermato che la tecnologia potrebbe essere pericolosa. Alcuni dipendenti hanno addirittura cercato di impedire alla società di rilasciare Bard, poiché ritengono che Google non stia dando la priorità all’etica dell’IA e stia cercando di sviluppare rapidamente la tecnologia per raggiungere il ChatGPT di OpenAI.

Il CEO di Google, Jeff Dean, ha dichiarato che l’azienda rimane impegnata in un approccio responsabile all’IA e sta lavorando per comprendere i rischi emergenti. Tuttavia, la preoccupazione per l’etica dell’IA sta crescendo, con molti critici della tecnologia che temono che possa eliminare il lavoro umano, incluso quello degli assistenti legali, dei traduttori e degli assistenti amministrativi.

Il rapporto di Goldman Sachs di marzo 2023 ha stimato che 300 milioni di posti di lavoro a tempo pieno potrebbero essere “influenzati” da sistemi di intelligenza artificiale come il ChatGPT di OpenAI, ma il livello di tale impatto può variare. In generale, gli ingegneri del software temono che il loro lavoro sia sostituito dall’intelligenza artificiale.

In sintesi, la preoccupazione per l’etica dell’IA sta crescendo tra gli ingegneri del software, i dipendenti di Google e i critici della tecnologia. Mentre la tecnologia continua a svilupparsi, è importante che le aziende mantengano un approccio responsabile e comprendano i rischi emergenti per evitare il potenziale danno alla società e all’umanità.

Next Post

Rapid Security Response iOS e macOS che succede

Apple ha finalmente rilasciato un aggiornamento alla sua funzione Rapid Security Response, quasi un anno dopo averlo annunciato alla Worldwide Developers Conference dello scorso anno. Questa funzione è stata introdotta per abilitare patch di sicurezza più rapide e frequenti per i nuovi sistemi operativi di Apple, in particolare per le […]
Rapid Security Response iOS e macOS che succede

Possono interessarti