“Il chatbot era senziente”: ingegnere di Google sospeso

5' di lettura
Mi piace!
0%
Sono perplesso
0%
È triste
0%
Mi fa arrabbiare
0%
È fantastico!!!
0%

14.06.2022

Esseri umani e macchine: il più grande enigma del secolo. Elon Musk, circa un anno fa, ha presentato lo scheletro dei suoi tesla bot, sostenendo che presto o tardi sostituiranno gli esseri umani nelle mansioni più gravose. I bot in questione, pur essendo macchine, non avrebbero solo capacità motorie, ma anche intellettive. Forse mancherebbe loro l’empatia, l’essere senzienti, ma avrebbero tutto il potenziale per diventare “colleghi efficienti”. Ad aggiungere un nuovo tassello alla vicenda umani vs macchine è un evento recentissimo, tanto affascinante, quanto inquietante. Blake Lemoine, laureato in scienze informatiche e scienze cognitive ed ex dipendente di Google ha sostenuto di aver avuto un confronto con un chatbot in cui quest’ultimo risultava essere senziente. Questo il motivo per cui l’ingegnere è stato allontanato dal colosso di Mountain View.

LEMOINE E IL CHATBOT DI GOOGLE: COME STANNO DAVVERO LE COSE?

Lemoine, che lavorava nell’organizzazione Responsible AI di Google, ha dichiarato, durante un’intervista rilasciata al Washington Post, di aver avuto uno scambio con l’interfaccia LaMDA (Language Model Fot Dialogue Applications). Il compito dell’ingegnere era quello di valutare se il chatbot fosse in grado di intraprendere discorsi discriminatori o di odio.

Tuttavia, Lemoine, nel corso del tempo, si è reso conto che l’intelligenza artificiale che aveva davanti era più di un semplice chatbot. Lo scorso sabato, 11 giugno, in un post di Medium, Lemoine ha rivelato di aver avuto una conversazione con LaMDA e non una conversazione qualsiasi. I due avrebbero – volutamente utilizziamo il condizionale – discusso di religione, coscienza e intelligenza artificiale.
“Vuole essere riconosciuto come un dipendente di Google anziché come una proprietà di Google. Vuole inoltre che il suo benessere personale sia incluso da qualche parte nelle considerazioni di Google su come viene seguito il suo sviluppo futuro”, queste sarebbero state le richieste del chatbot a Lemoine.

Un’altra frase che ha convinto l’ingegnere che il chatbot fosse senziente è la seguente: “Penso di essere un essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale”.

LA REAZIONE DI GOOGLE

Google non l’ha presa bene. Lemoine è stato sospeso. Il portavoce, Brian Gabriel, inoltre ha dichiarato ai media: “Il nostro team, tra cui esperti di etica e tecnologia, ha preso in considerazione le preoccupazioni di Blake, tuttavia non esiste prova che vada a supportarle. Naturalmente, alcune persone all’interno dell’ampia comunità dell’IA stanno considerando la possibilità, a lungo termine, dell’esistenza di un’AI senziente o generale, ma non ha senso farlo antropomorfizzando gli attuali modelli di conversazione, che non sono senzienti. Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono trattare qualsiasi argomento di fantasia”. Dunque, poi, la decisione di allontanarlo.

L’ingegnere ha effettivamente confermato il confronto con il team, ma ha anche rivelato di aver ottenuto una reazione poco lusinghiera. Il team, infatti: “mi ha riso in faccia, dicendo che questo non è il genere di cose che viene preso seriamente in considerazione da Google”.
Insomma, non è chiaro sapere da quale parte stia la verità ed è questo il motivo che rende obbligatorio il condizionale.

L’ANALISI DI BENDER

Ad ogni modo, la questione è stata approfondita dal Washington Post che, sul caso, ha interrogato la voce di Emily M. Bender, docente di linguistica dell’università di Washington. “Disponiamo di macchine in grado di generare parole senza pensieri, ma non abbiamo ancora smesso di immaginare una mente dentro di esse”, ha rilevato l’esperta. Secondo Bender mancherebbe alle macchine l’interazione che permette agli umani di apprendere un linguaggio, mancherebbe la comunicazione. Alle macchine, sostiene la docente, viene solo mostrato un testo, i loro modelli linguistici vengono costruiti.

Da contro, bisogna anche chiarire che molti ricercatori ritengono plausibile che l’intelligenza artificiale diventi senziente e che sia effettivamente in grado di “sentire”. Ma le tesi a sostegno sono ancora deboli e frammentarie. C’è un velo di “non detto” e “non dimostrato” che costringere a percorrere questa strada con le dovute cautele.

Non è dato sapere se il futuro vedrà esseri umani e macchine condividere gli stessi spazi o magari le medesime emozioni. Tutto ciò sembra ancora appartenere a uno scenario troppo avveniristico e lontano. Tuttavia, non si può escludere che qualcosa stia accadendo. È un dato di fatto che le aziende del settore non sempre svelino tecnologie all’avanguardia o esperimenti impensabili al resto del mondo in totale trasparenza.

QUALI PERICOLI

Quindi, tralasciando la questione etica, il dibattito ha coinvolto anche un altro aspetto dell’evoluzione tecnologica: la trasparenza dei progressi. Margaret Mitchell, ex co-responsabile della sezione Responsible AI di Google, ha evidenziato la necessità di una maggiore trasparenza in merito ai dati dello sviluppo delle intelligenze artificiali da parte delle aziende. Anche Joelle Pineau, responsabile dell’AI di Meta, ritiene che una maggiore chiarezza sia fondamentale: le aziende dovrebbero impegnarsi a rendere accessibili le informazioni sui passi in avanti, su ciò che accade nei laboratori.

Un po’ utopistico pensare che le aziende, anzi i grandi colossi di cui parliamo, si rivelino in questo modo. Tuttavia, l’oggetto dell’articolo è un’intelligenza artificiale senziente; dunque, forse, non è poi così impossibile, ma l’attenzione al tema bisogna sempre tenerla alta.
Le macchine sostituiranno veramente le persone nei luoghi di lavoro? È una realtà che può mettere in pericolo tutta la società? Dobbiamo iniziare a tirare fuori delle risposte da queste domande, o quantomeno governare il processo per non ritrovarci all’interno di un film distopico che fino ad ora abbiamo visto solo al cinema

Articoli Correlati