Miles Brundage, ex-consulente senior di OpenAI per la preparazione all'intelligenza artificiale forte (AGI), ha rivelato un messaggio diretto nel suo annuncio di addio: nessuna azienda, compresa OpenAI, è realmente pronta per l'AGI. Brundage, figura centrale per sei anni nelle iniziative di sicurezza di OpenAI, ha scritto: "Non penso che questa sia un'affermazione contro OpenAI."
Con Intelligenza Artificiale Forte si intende la capacità di una IA di apprendere e capire un qualsiasi compito che può imparare un essere umano, una cosa ben diversa da quella vista nei recenti Chatbot, ma che si avvicina molto di più a ciò che la fantascienza racconta da tempo.
Verso un focus economico
Questa uscita si colloca in un quadro di recenti e importanti abbandoni all'interno di OpenAI, in particolare nei team di sicurezza. Jan Leike, ricercatore di punta, ha recentemente lasciato l'azienda, lamentando che la sicurezza sia stata messa in secondo piano per il lancio di nuovi prodotti. Anche Ilya Sutskever, co-fondatore, ha deciso di lasciare OpenAI per fondare una startup che si concentra su uno sviluppo sicuro dell'AGI. La chiusura del team di Brundage, AGI Readiness, insieme alla precedente dissoluzione del team Superalignment, accentua le divergenze tra la missione iniziale di OpenAI e la sua attuale direzione commerciale. Questa trasformazione verso un focus sui prodotti riflette anche motivazioni economiche. OpenAI si trova sotto pressione in quanto deve evolversi in una public benefit corporation a scopo di lucro entro due anni per mantenere i fondi dell'investimento da 6,6 miliardi di dollari ricevuti. La mossa non è stata priva di critiche, e Brundage aveva già espresso riserve nel 2019, quando OpenAI ha creato la divisione for-profit. In partenza, Brundage ha spiegato che ora desidera contribuire da un'angolazione esterna alla governance AI, libero dalle limitazioni interne e dai vincoli aziendali.
L'evoluzione delle AI
Nonostante le divergenze, Brundage ha riconosciuto che OpenAI gli ha offerto un certo supporto per i suoi futuri progetti, come fondi, crediti API e l'accesso anticipato ai modelli, senza particolari vincoli. La proposta apre nuove opportunità di continuare il lavoro in ambito di regolamentazione e governance AI al di fuori di OpenAI, ribadendo la necessità di bilanciare innovazione e sicurezza.
Il distacco di Brundage evidenzia la necessità di una voce indipendente nel dibattito sulla regolamentazione e sulla sicurezza dell'intelligenza artificiale, una posizione che lui stesso intende rafforzare. Ha anche riferito che l'ambiente di ricerca interno, un tempo collaborativo, ha iniziato a mostrare tensioni sulla distribuzione delle risorse. Si dice, ad esempio, che il team di Leike abbia incontrato difficoltà nel ricevere risorse computazionali per la ricerca sulla sicurezza, cosa che potrebbe aver contribuito alla decisione di scioglierlo.