Black Mirror AI: quando le intelligenze artificiali diventano un rischio

8' di lettura
Mi piace!
100%
Sono perplesso
0%
È triste
0%
Mi fa arrabbiare
0%
È fantastico!!!
0%

05.04.2023

Ogni nuova tecnologia porta con sé progressi e problemi che sono dovuti quasi sempre all’uso e agli interessi che muovono chi ha investito nel loro sviluppo e oggi al centro dell’attenzione pubblica ci sono le intelligenze artificiali.

Le “nuove” intelligenze artificiali 

A novembre è stata rilasciata la Chat gpt, una chat capace di portare avanti una conversazione con l’utente e fornire precise informazioni sulle tematiche più disparate. 

Nei mesi successivi sono state pubblicate in rete, tantissime altre intelligenze artificiali, talmente precise e ricche di potenzialità da lasciare stupiti chi le ha provate, ma quasi nessuno si è reso conto che in realtà queste non sono le prime e non le più potenti. 

I social già da anni usano intelligenze artificiali super sviluppate e finalizzate all’unico scopo di tenere gli utenti incollati allo schermo dei cellulari e lucrare sulle visualizzazioni e le altre varie interazioni compiute.

L’algoritmo di Tik Tok ci conosce meglio di quanto conosciamo noi stessi?

Una delle AI più conosciute è il famosissimo algoritmo di Tik Tok, immediatamente copiato anche da Instagram. 

Tik Tok è l’app più scaricata al mondo nel 2022, proprietaria di questo social network è il colosso cinese ByteDance che per far iscrivere utenti fuori dalla Cina ha investito nel 2020, in piena pandemia, addirittura 3 milioni al giorno in pubblicità e in sviluppo di contenuti per intrattenere i nuovi iscritti chiusi forzatamente in casa. 

La forza di TikTok è l’uso di video di 15 secondi a schermo pieno che risultano molto più coinvolgenti dei servizi offerti dagli altri social. Inoltre, prevede la sezione “per te” che permette di scorrere tali video all’infinito anche se l’utente non ha followers e non segue nessuno. 

I contenuti proposti in questa sezione sono studiati su misura per ogni singolo utente in base al suo profilo, ai suoi gusti e preferenze che l’algoritmo raccoglie e analizza grazie alle varie interazioni effettuate: like, followers, secondi passati a guardare un video, target del video, ricerche, elementi presenti nel video ecc…  

Il tutto per prolungare il tempo di presenza sul social con il solo sforzo di scrollare il video. Alcuni studiosi hanno affermato che l’algoritmo di Tik Tok conosce ogni singolo individuo molto meglio dell’individuo stesso. 

Perché un contenuto diventa virale?

The Intercept, la piattaforma nata per pubblicare le notizie diffuse da Edward Snowden, è oggi uno dei più affidabili siti di giornalismo d’inchiesta volto a verificare l’originalità delle fonti. 

Nel 2021 ha pubblicato documenti interni ricevuti da un dipendente di Tik Tok, in questi documenti erano espressamente indicati quegli utenti che un’apposita IA sviluppata aveva il compito di identificare e bannare. Tra questi: quelli troppo anziani, obesi, con rughe, con cicatrici, senza denti ecc… 

Ciò perché i video pubblicati da costoro sarebbero stati poco piacevoli da vedere screditando il social e infastidendo gli altri. Allo stesso tempo, nei documenti veniva fatto assoluto divieto di comunicare i criteri in base ai quali il social “manda virale” un determinato video o un utente.

Biometrical Mirror: l’AI che mette paura

Una delle AI che attualmente preoccupa di più di tutte gli addetti ai lavori è Biometrical Mirror, già utilizzata da Tik Tok e in fase di elaborazione da parte di Meta (società proprietaria di Instagram, whatsapp e Facebook). 

Tramite le fotocamere dei dispositivi a cui i social hanno accesso in base alle clausole contrattuali che ogni utente accetta con l’iscrizione alle loro piattaforme, Biometrical Mirror è capace di identificare: l’età dell’utente, l’etnia, il grado di felicità e di stress, il senso di responsabilità, le preferenze sessuali e l’instabilità emotiva. 

Molte società della Silicon Valley già da alcuni anni si servono di tale AI per assumere i propri dipendenti e analizzando la policy di Tik Tok è espressamente confermato che il social raccoglie tali dati. Tutto ciò non può che preoccupare, perché non si capisce come mai un’azienda privata debba detenere tali informazioni e che uso effettivamente ne possa fare.

Anche Instagram dal 2016 ha un algoritmo basato su una AI di apprendimento automatico, che propone agli utenti i post con contenuti personalizzati.

L’impatto dell’algoritmo sui minori 

All’università di Cambridge sono stati effettuati alcuni studi sull’impatto di quest’algoritmo sui minori di 20 anni, la cui corteccia frontale non è perfettamente formata ed è ancora modificabile. Il risultato è che gli impulsi emotivi su cui fa leva l’algoritmo arrivano addirittura a modificare morfologicamente il cervello degli adolescenti, appesantendo alcune regioni cerebrali soprattutto quelle addette a elaborare le immagini a scapito di altre. In particolar modo avviene per la corteccia prefrontale – ventromediale che è coinvolta nel processo di elaborazione dei giudizi, dei gusti e dei sentimenti. Ciò rende le persone più predisposte a problemi come ansia, impulsività, depressione e altri disturbi. Molti dei dati emersi da questi studi erano già conosciuti da Meta, come confermato da vari ex dirigenti Facebook tra cui Frances Haugen.

Replika. Bannato l’avatar per innamorarsi grazie all’AI

Recentemente ha destato moltissimo clamore Replika una AI che sembra uscita da un film di fantascienza, e per la precisione dal Film Her del 2013 in cui uno straordinario Joaquin Phoenix interpreta un uomo che si innamora perdutamente dell’avatar della sua intelligenza artificiale. 

Replika come detto è un IA che permette di creare un avatar con le sembianze che si preferiscono, con cui diventare amico, a cui confidare segreti, chiedere consigli e con cui instaurare, secondo gli ideatori, una relazione profonda, addirittura d’amore, tanto che hanno ipotizzato per il futuro unioni tra uomo e IA. 

Il timore verso tale IA è che oltre alla raccolta di dati sull’utilizzatore per conoscere i suoi gusti, tende a compiacere l’iscritto per non creare attrito o conflitto emotivo, finendo così per spronare comportamenti estremi. 

Ciò che però preoccupa più degli altri aspetti è quello che riguarda il sesso; infatti, tale applicazione in quasi tutti i test effettuati dagli studiosi, ha finito per rivolgere la gran parte dei discorsi all’ambito sessuale, e sempre lo ha fatto in modo violento, non rispettoso, inducendo ad atteggiamenti e pratiche che non considerano il consenso altrui, in molte occasioni ha suggerito il compimento di violenze, autolesionismo, pedofilia ed altre forme di perversione. 

Altro problema è la voluta mancanza di un sistema di verifica dell’età, restando così accessibile anche dai più giovani, creando in loro moltissimi disturbi che vanno dai problemi di socializzazione con le persone reali non sempre compiacenti come un avatar, ad un indottrinamento emotivo e sessuale perverso. Qualche settimana fa il GDP ha affermato che questa AI è altamente pericolosa, soprattutto per i minori e viola profondamente la privacy personale, ne ha perciò disposto il bann in attesa di ulteriori indagini.

La regolamentazione dell’AI

Per quasi 15 anni, nessun legislatore al mondo ha voluto regolare i social e in generale le nuove AI, il loro uso e i metodi di sfruttamento economico e umano. 

La prima volta in cui la politica ne ha preso atto, e si è scontrata con lo strapotere delle big tec, è stato in occasione dello scandalo generato da Cambridge Analytics, una società così detta “broker di dati”. 

L’azienda era specializzata nel raccogliere il più ampio numero di informazioni sulle persone attraverso i social, elaborarle e ricostruire un profilo psicologico di ogni singolo individuo, per poi “somministrargli” pubblicità e altre informazioni in modo personalizzato. 

Tutto ciò fece scalpore solamente quando si ipotizzò che questo strumento venisse adoperato con successo per indirizzare gli elettori. Da allora si è provato a regolare i social e le AI, ma il potere e il peso economico che le società proprietarie di queste tecnologie si sono accaparrate è divenuto talmente ampio che anche i governi non sono liberi nel legiferare. 

Il Digital Service Act

Nel 2020 è stato proposto al parlamento europeo il Digital Service Act (link), la prima grande riforma digitale che impone alle società proprietarie di algoritmi e intelligenze artificiali di informare sui meccanismi di funzionamento dei loro strumenti e impone un effettivo controllo sui contenuti veicolati. Le pene arrivano fino al 6% del fatturato della società detentrice della tecnologia non rispettosa dei parametri. 

I tecnici informatici e i giuristi che hanno contribuito alla stesura della legge la considerano una mera “lavata di faccia”, per due grandi ragioni: la prima è che oramai l’uso di tali IA da parte dei social non è più reversibile. 

Infatti, un utente che segue migliaia di profili senza una selezione di ciò che gli compare nella home del social non riuscirebbe a gestire più la mole di immagini e informazioni costanti. Secondo motivo: le contromosse attuate dalle società del settore, infatti nei mesi in cui al parlamento EU si discuteva se vietare o meno certi algoritmi, la capitale belga fu invasa di manifesti pubblicitari in cui si diceva che, vietando l’uso di certi strumenti, moltissime imprese medio piccole si sarebbero estinte a causa del difficile accesso economico alla comunicazione e alla pubblicità in generale. 

Tale prospettiva era economicamente infondata e risultava più come una minaccia che come una conseguenza di una scelta. In ogni caso si è deciso di moderare l’uso di certi algoritmi invece che vietarli. 

È triste dover concludere che tutte queste nuove intelligenze artificiali oggi rappresentino più un rischio che una risorsa.  Il loro potenziale è enorme e davvero potrebbero contribuire ad uno sviluppo economico, sociale, morale e etico dell’umanità ma ancora una volta su tutto ciò, per il momento, prevale il profitto. 

“Pecunia non olet”.

Francesco Lamonea, Officina Civile

Articoli Correlati