Elon Musk e altri accademici esperti di tecnologia e informatica, tra i quali Sam Altman, il capo di OpenAI, e Yuval Noah Harari, l'autore del libro "Sapiens", Steve Wozniak, uno dei fondatori di Apple, hanno chiesto tramite una petizione su Futureoflife.org di mettere in pausa per sei mesi l'addestramento delle intelligenze artificiali generative, perché potrebbero causare sconvolgimenti economici e politici di proporzioni inaudite. In particolare ChatGPT sembra rappresentare un rischio enorme, che con la nuova versione, Gpt-4, sarà ancora più grande.
A firmare il loro appello sono state più di mille persone, che chiedono un periodo di tempo per sviluppare protocolli di sicurezza, sistemi di governance delle intelligenze artificiali e dare nuove direzioni alla ricerca, in modo da rendere le IA più "accurate, sicure e affidabili."
Tutti sono coscienti che l'innovazione non si possa impedire e che le intelligenze artificiali saranno parte del futuro dell'umanità, in particolare grazie alla spinta delle multinazionali che già vedono moltiplicarsi i loro profitti grazie alla loro adozione. Il professor Domenico Talia, uno dei firmatari dell'appello, ha dichiarato a Italian Tech: "Sappiamo che l'innovazione non si può fermare, ma questo è un caso eccezionale. Quello che sono in grado di fare queste tecnologie non è chiaro nemmeno a chi le crea. Sta succedendo tutto troppo in fretta. Tra pochi mesi potrebbe essere già pronta una Gpt-5. Ancora più potente. Queste tecnologie sono destinate a cambiare tutto. Cambieranno il lavoro di milioni di persone. Centinaia di milioni di persone. Soprattutto lavori intellettuali".
Altman in particolare sembra essere spaventato dalla sua creatura, che secondo lui potrebbe essere usata per diffondere disinformazione su scala globale e per lanciare attacchi informatici. Secondo lui la società ha bisogno del giusto tempo per adattarsi alla novità, come ha dichiarato in un'intervista concessa ad ABCNews, di cui un estratto è stato riportato dalla fonte: "Negli ultimi mesi, i laboratori di intelligenza artificiale si sono bloccati in una corsa incontrollata per sviluppare e implementare cervelli digitali sempre più potenti, che nessuno - nemmeno i loro creatori - può capire, prevedere o controllare in modo affidabile".
Secondo Talia il problema principale sono le compagnie, che hanno iniziato una corsa inarrestabile per arrivare prime, rischiando però di fare terra bruciata: "Il problema è che le grandi società private hanno interessi solo a Wall Street. È a loro che ci rivolgiamo. Il nostro appello non arriva solo da accademici, ma anche da imprenditori come loro".
Qualche problema deve esserci, se tra i firmatari dell'appello figurano anche membri di Google DeepMind, il laboratorio di intelligenza artificiale della compagnia di Mountain View, Emad Mostaque, il CEO di Stability AI, nonché molti esperti di intelligenze artificiali, ingegneri informatici di Microsoft (gruppo alleato di openAI), accademici e tanti altri ancora.
Per avere una seconda opinione sull'argomento, abbiamo chiesto direttamente a ChatGPT cosa ne pensa.
Multiplayer.it: Rappresenti un rischio per il mondo del lavoro?
ChatGPT: Come modello di linguaggio, non rappresento un rischio per il mondo del lavoro. Anzi, la mia creazione è stata pensata per aiutare a migliorare l'efficienza del lavoro, fornendo assistenza nella generazione di testo e nella gestione delle informazioni.
Tuttavia, come ogni tecnologia, l'introduzione di strumenti come me può portare a cambiamenti nel mondo del lavoro e nella domanda di determinate competenze. Ad esempio, la mia capacità di generare testo potrebbe ridurre la necessità di alcune attività che richiedono la scrittura manuale, ma allo stesso tempo potrebbe creare nuove opportunità di lavoro in campi come l'elaborazione del linguaggio naturale e lo sviluppo di strumenti di automazione del testo.
In sintesi, come tecnologia, il mio impatto sul mondo del lavoro dipende dalle modalità di utilizzo e dalla capacità degli individui e delle organizzazioni di adattarsi ai cambiamenti che introduco.
C'è il rischio concreto che tu sfugga al controllo dei tuoi creatori?
Come modello di linguaggio, non ho la capacità di "sfuggire" al controllo dei miei creatori in modo autonomo, poiché non ho alcuna forma di consapevolezza o autonomia. Sono un programma informatico progettato per generare testo in base alle istruzioni e ai dati di input forniti.
Tuttavia, è importante ricordare che la tecnologia può essere utilizzata in modo errato o malintenzionato da parte degli utenti, il che potrebbe portare a conseguenze indesiderate. È quindi fondamentale che la mia implementazione e il mio utilizzo siano monitorati e controllati in modo responsabile per garantire che il mio funzionamento sia in linea con gli obiettivi dei miei creatori e con gli standard etici e legali.
Quindi ammetti che qualcuno potrebbe usarti in modo malevolo?
Come modello di linguaggio, non ho la capacità di ammettere o negare nulla, poiché non ho una coscienza o una volontà propria. Tuttavia, è importante riconoscere che qualsiasi tecnologia, compreso il linguaggio naturale generato dalle macchine, può essere utilizzata in modo malintenzionato o improprio da parte degli utenti.
Ad esempio, le tecnologie di generazione del linguaggio possono essere utilizzate per diffondere informazioni errate o fuorvianti, per creare contenuti dannosi come quelli discriminatori o offensivi, o per manipolare le opinioni e le percezioni delle persone. È importante che gli utenti di tali tecnologie siano consapevoli di tali rischi e adottino misure appropriate per prevenirli, come la verifica delle fonti, l'uso di filtri di sicurezza e la formazione degli utenti stessi.
In generale, il modo in cui la tecnologia viene utilizzata dipende dagli utenti che la impiegano, e quindi è fondamentale promuovere l'utilizzo etico e responsabile delle tecnologie di generazione del linguaggio e delle altre tecnologie digitali.
Grazie per le risposte
Prego, sono qui per rispondere alle tue domande. Se hai altre domande o hai bisogno di ulteriori informazioni, non esitare a chiedere!