L’impatto dell’Intelligenza Artificiale sarà devastante:
contestare alla radice il dominio privato delle nuove tecnologie
Tempo di lettura: 8 minuti
L’impatto dell’Intelligenza Artificiale sarà devastante: contestare alla radice il dominio privato delle nuove tecnologie
Come ha spiegato magistralmente Shoshana Zuboff ne “Il capitalismo della sorveglianza”, il prodotto di tali piattaforme sono le previsioni di comportamento degli utenti, tramite l’immissione dei loro dati, che vengono vendute agli inserzionisti di pubblicità. Non a caso esse continuano a mantenere l’accesso gratuito e ricavano la gran parte dei propri profitti dagli introiti pubblicitari. In buona sostanza, si colonizza l’esperienza e l’identità umana come bene da collocare sul mercato, come merce tra le altre.
Ora, con il passaggio all’Intelligenza Artificiale generativa, quella resa famosa da Chat GPT, nel momento in cui costruisce un’interazione diretta con le persone praticamente su qualsiasi argomento, si danno istruzioni ad altri dispositivi, si rafforzano sistemi di apprendimento automatico, si compie un ulteriore salto di qualità. Si può dire che si passa dal rubare l’identità umana alla possibilità di poterla plasmare.
Basta dare uno sguardo al suo funzionamento: essa è sostanzialmente in grado di dialogare e rispondere ai quesiti posti dalle persone, sulla base del fatto che i programmatori/sviluppatori costruiscono algoritmi che fissano alcune regole e vincoli di base e, soprattutto, danno istruzioni sulla consultazione di un numero elevatissimo di dati per far sì che l’Intelligenza Artificiale generativa produca risposte consone e coerenti.
Quello che viene fuori, alla fine, è che siamo in presenza di un dispositivo che, grazie al lavoro dei programmatori e degli sviluppatori, è in condizioni di veicolare una propria visione del mondo e che essa è sostanzialmente privatizzata, nelle mani dei programmatori e della proprietà da cui gli stessi dipendono.
Una visione del mondo che può essere facilmente manipolabile a seconda di quelle che sono le regole di base e ciò che si dà da leggere all’intelligenza artificiale.
Una visione del mondo che è tendenzialmente conservatrice, nel senso che si alimenta di dati relativi a ciò che è già accaduto e che incorpora i pregiudizi in esso presenti.
Per non essere troppo astratti, si può fare riferimento alle intenzioni di Elon Musk, il visionario e reazionario multimiliardario che (dapprima), per evidenti ragioni di bottega, ha fintamente messo in guardia dai rischi di un’accelerazione dello sviluppo dell’intelligenza artificiale, mentre (ora) annuncia la nascita di una propria intelligenza artificiale generativa, Grok, ancora in fase sperimentale.
Forse esagero ma, considerando l’adesione al trumpismo di Musk, non si può escludere che egli pensi di potere utilizzare la “sua” Intelligenza Artificiale per propagandare contenuti fortemente orientati, magari facendole “mangiare” le innumerevoli pagine di think-thank e siti egemonizzati da una destra estrema, razzista, patriarcale e omofoba.
C’è poi un altro tema, assolutamente rilevante, che è quello relativo alla possibilità che l’IA sfugga completamente al controllo umano.
Basta prendere in considerazione una forma “debole” di intelligenza artificiale, quella orientata da obiettivi predefiniti e progettata per eseguire compiti singoli. Per esemplificare, è quella che interviene nel gioco degli scacchi: anch’io mi diletto spesso a giocare e a perdere “contro il robot”. Del resto è noto che l’Intelligenza Artificiale vince sempre e comunque con i grandi maestri di scacchi: per loro non c’è nessuna possibilità di prevalere, neppure “per caso”, il divario è ormai incolmabile. Ma gli scacchi sono solo un esempio; la I.A. interviene anche nel gioco ancor più complesso GO, nella guida autonoma dei veicoli (ma anche nelle armi azionate da robot e droni), nel riconoscimento facciale e anche nelle attività di Borsa. Ora, già a questo livello, emergono problematiche assolutamente inedite e che pongono questioni molto rilevanti.
E’ già sufficiente citare il grido d’allarme che, a più riprese, è provenuto dalla Banca d’Inghilterra, che ha individuato diverse tecniche di manipolazione dei mercati borsistici da parte dei sistemi che utilizzano l’intelligenza artificiale, come il fatto di potersi coordinare in modo autonomo con un’ altra attività di investimento, raggiungendo l’obiettivo, per entrambe, di guadagnare da questa strategia. Detto in altri termini, l’I-A. è lasciata interagire con l’ambiente per raggiungere il proprio obiettivo, solitamente la massimizzazione dell’investimento, senza, ovviamente, guardare in che modo questo viene perseguito, costruendo, per esempio, informazioni fittizie sulle possibili quotazioni dei titoli anche con pratiche illegali.
Dobbiamo inoltre tenere conto che siamo solo all’inizio del percorso del possibile sviluppo dell’I.A. Da questo punto di vista, può essere considerato emblematico lo scontro ultimamente verificatosi tra Sam Altman, uno dei fondatori di Open AI, l’azienda che ha dato alla luce Chat GPT, e gran parte del Consiglio di Amministrazione dell’azienda stessa.
La divergenza molto forte di opinioni tra il primo, dapprima allontanato e poi richiamato a “furor di popolo” grazie all’intervento di Microsoft e di una gran parte dei dipendenti, con il conseguente “ licenziamento” degli altri componenti del CdA, si è consumato proprio tra l’alternativa, sostenuta da Altman, di realizzare maggiori profitti e, quindi, accelerare lo sviluppo dell’I.A. oppure procedere con maggior cautela, verificando tutte le implicazioni che tale accelerazione comportava.
Ci sono, poi, altre questioni fortemente critiche che lo sviluppo dell’AI si porta dietro. Una riguarda, senz’altro, il tema del lavoro, visto nella duplice veste di quello utilizzato per produrre questi sistemi e delle conseguenze destinate a prodursi nella fisionomia dell’attuale mondo del lavoro.
Per quanto riguarda il primo aspetto, oltre al ruolo del lavoro molto qualificato svolto dai programmatori/sviluppatori di cui abbiamo già parlato, occorre notare che esso si compone anche dell’apporto, tutt’altro che secondario, di lavoratori sfruttati e sottopagati, dislocati in particolare nei Paesi del Sud del mondo, che hanno il compito di “ripulire” l’addestramento che proviene dalla lettura della miriade di dati, etichettandoli in termini tali che vengano evitate espressioni di odio, violenza sessuale e materiale ad essi assimilabile.
L’intelligenza artificiale, poi, utilizza anche il lavoro degli utenti, cioè di noi stessi che produciamo domande, descrizioni, immagini che diventano altrettanti feedback di apprendimento per l’intelligenza artificiale. Troviamo qui l’impasto che caratterizza tutto il mondo del lavoro delle nuove tecnologie informatiche, che tende a diventare un modello per l’insieme del lavoro, e cioè la forte polarizzazione tra una fascia ristretta di lavoratori ultraqualificati, la maggior parte dei quali fidelizzati all’azienda tramite meccanismi incentrati sul possesso azionario, e una schiera di lavoro supersfruttato e gratuito, fonte di nuove e forti disuguaglianze.
Se poi ragioniamo sull’impatto che il ricorso all’IA determina sul lavoro umano odierno, non ci vuole molto a realizzare che esso avrà conseguenze importanti, a partire dal lavoro impiegatizio e di chi, dai giornalisti alle agenzie di stampa, si occupa di redazione dei testi. Per esempio, Ibm ha già annunciato di poter fare a meno di circa un terzo dei 26.000 addetti che svolgono funzioni di back-office, come le risorse umane e il servizio clienti. Dal canto suo, Walmart, il grande gigante statunitense della distribuzione organizzata, sta lavorando per sostituire il lavoro umano nel rapporto con i fornitori, affidando ad un sistema di intelligenza artificiale la contrattazione con questi ultimi.
Insomma, non c’è dubbio che saremo in presenza di un ulteriore rafforzamento della tendenza che è già in corso da diversi anni, dentro l’onda lunga della fase dell’innovazione tecnologica, di incremento della produttività, diminuzione occupazionale, polarizzazione e svalorizzazione del lavoro umano.
Infine, ci sono almeno altri 2 punti esposti a pesanti criticità, che rischiano di rimanere troppo in ombra:
il primo è quello relativo è quello del forte consumo energetico e di emissione di CO2 connesso al trattamento dei big data. Il modello prevalente attuale indirizza il digitale alla crescita piuttosto che al risparmio di risorse, tant’è che è stato evidenziato che solo l’addestramento del GPT3 per un compito consuma in qualche settimana come due cittadini americani in un anno.
L’altro elemento su cui diventa necessario riflettere e intervenire riguarda tutto il sistema educativo-formativo: in un mondo in cui la trasmissione del “sapere” sarà sempre più affidata alla tecnologia, che posto c’è per un apparato scolastico che era stato pensato per quella funzione e che viene invece spiazzato sin dalle sue radici?
Tutto ciò ci riporta al tema del “che fare” rispetto al cambio di paradigma tecnologico e sociale che lo sviluppo dell’IA ci consegnerà inevitabilmente.
Qui non mi resta che svolgere pochi appunti, non certamente esaustivi, che però varrà la pena approfondire. E’ certo che non basta evidenziare i rischi che stanno di fronte a noi o semplicemente chiedere un rallentamento, se non una moratoria, del suo avanzamento. Né appare sufficiente, come da ultimo ha messo in campo l’UE, anche con alcuni passaggi significativi, muoversi sul terreno della regolamentazione del fenomeno e della protezione di alcuni diritti fondamentali, visto che si interviene a valle di una situazione in cui dominano le 2 grandi superpotenze, USA e Cina.
Occorre, invece, andare alla radice delle problematiche che solleva lo sviluppo dell’IA, e cioè pretendere che gli algoritmi messi a punto dai programmatori/ sviluppatori su cui essa si fonda siano resi trasparenti e pubblici, in modo tale che sia chiaro quali sono gli obiettivi, le regole e le distorsioni (più o meno volute), e che questi elementi possano essere soggetti ad un controllo diffuso.
Quello che va prioritariamente messo in discussione, in altri termini, è la privatizzazione e la finalizzazione al puro profitto del bene comune fondamentale costituito dalla produzione dell’informazione e dalla trasmissione della conoscenza. Compito che, peraltro, potrà essere aggredito solo attraverso una trasformazione profonda del sistema formativo, riorientandolo verso l’alfabetizzazione generalizzata sui nuovi dispositivi tecnologici e la creazione di un nuovo armamentario di lettura critica degli stessi e del loro impatto sociale, tornando ad occuparsi delle fonti e della costruzione del sapere e delle informazioni.
Vaste programme, si potrebbe dire, ma non mi pare esista un’alternativa diversa per contrastare il rischio concreto che, con il ricorso spinto all’IA, il nostro futuro stia dentro un orizzonte distopico.
Per leggere gli altri articoli ed interventi di Corrado Oddi su Periscopio, clicca sul nome dell’autore.
Sostieni periscopio!
Corrado Oddi
Chi volesse chiedere informazioni sul nuovo progetto editoriale, può scrivere a: direttore@periscopionline.it
Lascia un commento