OpenaAI e ChatGPT: Luci e ombre della nuova frontiera dell’intelligenza artificiale

5' di lettura
Mi piace!
0%
Sono perplesso
0%
È triste
0%
Mi fa arrabbiare
0%
È fantastico!!!
0%

23.01.2023

Ormai in ambito tecnologico non si parla d’altro. L’azienda OpenAI e il suo prodotto di punta, ChatGPT, sono il fenomeno del momento, tanto che anche le big tech se ne sono accorte: è notizia di inizio gennaio la volontà di Microsoft di investire addirittura dieci miliardi di dollari nell’azienda californiana di intelligenza artificiale fondata, tra gli altri, da Elon Musk e Sam Altman, attuale CEO.

OpenAI e l’IA accessibile

OpenAI è un’azienda di intelligenza artificiale con sede a San Francisco che si dedica alla ricerca e allo sviluppo di tecnologie di intelligenza artificiale avanzate. Fondata nel 2015 da un gruppo di scienziati e imprenditori tra cui Elon Musk, Sam Altman e Ilya Sutskever, l’obiettivo di OpenAI è quello di rendere l’intelligenza artificiale accessibile e utile a tutti, per un futuro in cui sia utilizzata per il bene comune.

L’azienda si concentra sulla ricerca di base e sull’applicazione dell’IA in diverse aree, come il gioco, la lingua, la robotica e la scienza dei dati. OpenAI ha anche sviluppato alcune delle più grandi e potenti reti neurali – un modello computazionale composto di “neuroni” artificiali – del mondo, tra cui GPT-3, pubblicata nel 2020 e utilizzata per “addestrare” ChatGPT.

Ma cos’è ChatGPT e cosa fa?

Visto che parliamo di intelligenza artificiale, abbiamo testato il prodotto chiedendo direttamente a “lei” di descriversi.

Sono ChatGPT, un grande modello di linguaggio addestrato da OpenAI. Posso comprendere e generare testo in diverse lingue, tra cui l’italiano. Sono in grado di rispondere alle domande su una vasta gamma di argomenti e di aiutare con diverse attività, come la scrittura di testo o la traduzione. Sono sempre in evoluzione e la mia conoscenza viene aggiornata periodicamente per essere sempre precisa e utile. Sono qui per aiutarti in qualsiasi modo posso.”

I possibili usi e i limiti dell’AI

Recentemente anche il Corriere della Sera ha approfondito dieci usi pratici che può avere ChatGPT, alcuni di questi letteralmente sorprendenti. Si va infatti dalla funzione base – gratuita peraltro – ovvero la generazione di un testo o di una conversazione in qualsiasi lingua, fino alla stesura di una lettera di raccomandazione o persino di un testo per un post sui social media. Ma non solo, possiamo risolvere un problema matematico passo per passo, scrivere un software ed eseguirne il debug e addirittura vincere Sanremo con una canzone composta da lei stessa, sempre che pubblico e giuria siano benevoli.

Ancora ci sono, fortunatamente a mio avviso, dei limiti. Di fatto, non è particolarmente creativa e di conseguenza non riesce a rispondere a domande che richiedono un’elaborazione o un giudizio personale. Si basa totalmente sulla ricerca di informazioni sul web, quindi rimane impersonale e abbastanza “scolastica” nelle risposte. Non possiamo chiederle, un esempio per rimanere in tema Sanremo, quale sia il conduttore ideale: lei ci darebbe la descrizione trovata nel web di un conduttore ideale e al massimo farebbe degli esempi basati sulle scorse edizioni. Fortunatamente ancora non è così senziente!

Un altro limite è dato dalle informazioni che riesce a reperire. Non sempre sono corrette al 100%, quindi nel caso la usassimo per scrivere un post o una qualsiasi altra descrizione dovremmo fare attenzione alla qualità delle informazioni reperite e controllare il testo.

L’ombra dello sfruttamento anche su OpenAI

Recentemente il Time ha pubblicato un’inchiesta che ha svelato che OpenAI ha affidato a un fornitore esterno il compito di visionare ed etichettare contenuti violenti per ripulire i risultati dell’algoritmo, impedendo così la possibilità di generare hate speech o qualsiasi altro testo violento, razzista e/o misogino. Per farlo hanno dovuto dare “in pasto” all’algoritmo di deep learning una tale quantità di esempi testuali di violenza, molestie sessuali, bullismo, ecc. da permettergli di imparare a riconoscerli in autonomia, esattamente come avrebbero fatto per insegnargli a riconoscere un semaforo o un motociclo (quindi si, a breve il modulo “sei un robot?” su internet non ci terrà più al sicuro dai bot). Per insegnare agli algoritmi a riconoscere questi contenuti è necessario che ci sia in primo luogo qualcuno che analizza questi contenuti e li etichetta come tali. Ed è qui che entra in gioco Sama, una società con sede a San Francisco, ma i cui lavoratori operano in uffici situati in Kenya, Uganda e India, che ha tra i suoi clienti anche Meta, Microsoft e Google e che, nel 2021, ha stretto un accordo commerciale con OpenAI al fine di etichettare il materiale necessario a creare un “detector” di contenuti tossici, che sarebbe poi stato integrato in ChatGPT. Tutto ciò, inevitabilmente, significa che il lavoro degli etichettatori assoldati da Sama consisteva nel leggere tutto il giorno i contenuti più terribili partoriti dalla mente umana, per poi etichettarli in base alle loro caratteristiche, azioni che gli stessi dipendenti hanno definito una tortura che li ha resi “psicologicamente spaventati”. Per non parlare dello stipendio: i lavoratori impiegati in Kenya ricevevano, a seconda del grado di anzianità, tra 1,3 e 2 dollari all’ora – in Kenya il salario minimo si aggira attorno a 1,5 dollari.

Sfruttamento e terrorismo psicologico sugli esseri umani non sembra essere il miglior punto di partenza per un prodotto che si propone di migliorare e semplificare la vita degli esseri umani stessi. Sicuramente l’AI rimane il futuro della tecnologia, la sfida ora è creare un’intelligenza artificiale etica e non solo sulla base dei contenuti che può o non può creare, ma sulla base dell’impatto che ha a 360 gradi sui lavoratori, sulla società e sullo sviluppo umano in generale.

Riccardo Imperiosi, Direttore Giovane Avanti!

Articoli Correlati