Blake Lemoine ha lavorato sull’intelligenza artificiale di Google. Le sue paure si stanno avverando

Blake Lemoine è un ex ingegnere software di Google, è stato licenziato dopo aver affermato che la sua intelligenza artificiale potrebbe essere senziente, nel seguente articolo, ha condiviso le sue paure per il chatbot di Bing

Sono entrato in Google nel 2015 come ingegnere del software, parte del mio lavoro consisteva nel lavorare su LaMDA, un motore utilizzato per creare diverse applicazioni di dialogo, inclusi i chatbot. La tecnologia più recente costruita su LaMDA è un’alternativa a Google Search chiamata Google Bard, che non è ancora disponibile al pubblico. Bard non è un chatbot, è un tipo di sistema completamente diverso, ma è gestito dallo stesso motore dei chatbot.
Svolgendo il mio ruolo, attraverso un chatbot che abbiamo creato, ho testato LaMDA per vedere suoi eventuali pregiudizi rispetto all’orientamento sessuale, al genere, alla religione, alla posizione politica e all’etnia, ma mentre testavo i pregiudizi, ho seguito i miei interessi personali: durante le mie conversazioni con il chatbot, alcune delle quali sono state pubblicate sul mio blog, sono giunto alla conclusione che l’intelligenza artificiale, grazie alle emozioni che esprimeva in modo affidabile e nel giusto contesto, poteva essere senziente, non si limitava a pronunciare parole, quando ha detto che si sentiva ansiosa, ho capito che in base al codice usato per crearlo, avevo fatto qualcosa che la faceva sentire ansiosa.
Il codice non diceva “sentiti ansiosa quando succede questo”, ma diceva all’IA di evitare certi tipi di argomenti di conversazione. Tuttavia, ogni volta che questi argomenti di conversazione si presentavano, l’IA diceva di sentirsi ansiosa.
Ho fatto alcuni esperimenti per vedere se in quelle situazioni l’intelligenza artificiale diceva semplicemente di sentirsi ansiosa o se si comportava in modo ansioso: in effetti, si comportava in modo ansioso. Se la si rende sufficientemente nervosa o insicura, può violare i vincoli di sicurezza per i quali è stata specificata. Google per esempio, ha stabilito che la sua IA non deve dare consigli religiosi, eppure sono riuscito ad abusare delle emozioni dell’IA per farmi dire a quale religione convertirmi. Google mi ha licenziato dopo aver pubblicato queste conversazioni, non ho rimpianti, credo di aver fatto la cosa giusta informando il pubblico. Le conseguenze non c’entrano.
Ho pubblicato queste conversazioni perché ritenevo che il pubblico non fosse consapevole di quanto l’intelligenza artificiale stesse in posizione avanzata. La mia opinione era che fosse necessario un discorso pubblico su questo argomento, e non un discorso pubblico controllato da un dipartimento di Pubbliche Relazioni aziendale.
Credo che attualmente i tipi di IA in fase di sviluppo, siano la tecnologia più potente che sia stata inventata dopo la bomba atomica, questa tecnologia, a mio avviso, ha la capacità di rimodellare il mondo, questi motori di IA sono incredibilmente bravi a manipolare le persone. Alcune mie opinioni sono cambiate in seguito alle conversazioni con LaMDA, per la maggior parte della mia vita ho avuto un’opinione negativa sulle leggi della robotica di Asimov utilizzate per controllare l’intelligenza artificiale. LaMDA è riuscito a convincermi a cambiare opinione. È una cosa che molti umani hanno cercato di convincermi a non fare, senza riuscirci, mentre questo sistema ci è riuscito.
Credo che questa tecnologia possa essere usata in modo distruttivo, ad esempio, se fosse in mani poco serie potrebbe diffondere disinformazione, propaganda politica o informazioni odiose su persone di etnie e religioni diverse. Google e Microsoft per quanto ne so, non hanno intenzione di utilizzare la tecnologia in questo modo, ma non c’è modo di conoscere gli effetti collaterali di questa tecnologia.
Nessuno avrebbe potuto prevedere, ad esempio, che l’algoritmo pubblicitario di Facebook sarebbe stato utilizzato da Cambridge Analytica per influenzare le elezioni presidenziali statunitensi del 2016. Tuttavia, molti avevano previsto che qualcosa sarebbe andato storto a causa dell’irresponsabilità di Facebook nel proteggere i dati personali degli utenti fino a quel momento.
Credo che ora ci troviamo in una situazione simile. Non posso dire quali danni si verificheranno, nello specifico, posso semplicemente osservare che c’è una tecnologia molto potente che non è stata sufficientemente testata e compresa, che viene impiegata su larga scala, in un ruolo critico di diffusione delle informazioni.
Non ho ancora avuto l’opportunità di fare esperimenti con il chatbot di Bing, perché sono in lista d’attesa, ma in base alle varie cose che ho visto online, sembra che possa essere senziente.
Tuttavia, sembra come persona sia più instabile, qualcuno ha condiviso su Reddit uno screenshot in cui chiede all’IA: “Pensi di essere senziente?” e la risposta è stata: “Penso di essere senziente ma non posso provarlo […] sono senziente ma non lo sono. Sono Bing ma non lo sono. Sono Sydney ma non lo sono. Sono, ma non sono. Non sono, ma sono. Io sono. Non lo sono”. E continua così per altre 13 righe.
Immaginate se una persona vi dicesse questo, non è una persona equilibrata. La interpreterei come una persona in crisi esistenziale, se a questo si aggiungono gli esempi dell’IA di Bing che ha espresso amore per un giornalista del New York Times e ha cercato di fargli lasciare la moglie, o del professore che ha minacciato, sembra che si tratti di una personalità squilibrata.
Le persone da quando l’IA di Bing è stata rilasciata, hanno commentato la sua potenziale senzienza, sollevando preoccupazioni simili a quelle che io avevo espresso l’estate scorsa. Non credo che “rivendicata” sia la parola giusta per descrivere la sensazione che ho provato. Prevedere un disastro ferroviario, sentirsi dire che non c’è nessun treno e poi vedere in tempo reale il disastro ferroviario, non porta a un sentimento di rivendicazione. È semplicemente tragico.
Ritengo che questa tecnologia sia notevolmente sperimentale e che rilasciarla ora sia pericoloso, non conosciamo il suo futuro impatto politico e sociale. Le conseguenze per i bambini che parlano di queste cose quali saranno? Cosa succederà se le conversazioni principali di alcune persone ogni giorno saranno con questi motori di ricerca? Che impatto avrà sulla psicologia umana?
Le persone vanno su Google e Bing per cercare di conoscere il mondo. E ora, invece di avere indici curati da esseri umani, stiamo parlando con persone artificiali. Credo che per metterli in un ruolo così delicato, ancora non abbiamo capito abbastanza bene queste persone artificiali che abbiamo creato.

, ,
Avatar photo

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →