Skip to main content

Decrescita digitale nell’era dell’intelligenza artificiale Big Tech

Stefano Puglia e D. Davide Lamanna
pubblicato Comune-info il 1 Settembre 2024

La più popolare forma di Intelligenza Artificiale (I.A.) attuale è rappresentata da potenti strumenti di statistica computazionale che, pur essendo privi di qualsiasi capacità di ragionamento generale causale di tipo umano, imitano in modo assai efficace abilità complesse ritenute di pertinenza del nostro intelletto. Esiste grande incertezza riguardo ai benefici ed ai rischi d’impiego di tali strumenti e delle loro evoluzioni future. Nonostante tutto, l’I.A. più diffusa oggi rafforza il potere del capitalismo digitale neoliberista che l’ha partorita e che continua a investire in modo consistente nel suo sviluppo. Può una filosofia di decrescita moderna aiutare a riconcettualizzare e perseguire un nuovo futuro tecnologicamente consapevole? È possibile usare la decrescita per immaginare visioni antagoniste rispetto agli usi e agli impatti dell’attuale I.A. statistica e di ogni tecnologia sofisticata ad essa correlata presente e futura? In questo lavoro – pubblicato sui Quaderni della decrescita – vengono proposte due riflessioni in merito. Una più concreta, orientata a favorire soluzioni “intelligenti collettive” che, usando tecnologie libere ed aperte, abilitino servizi su bassa scala, lontani dai profitti globali e vantaggiosi per comunità locali. L’altra contenente una provocazione utopistica propedeutica ad una progressiva transizione verso un futuro tecnologicamente più informato, equilibrato e consapevole.

Sommario esecutivo

Ciò che viene oggi comunemente chiamato Intelligenza Artificiale è costituito da una serie di strumenti complessi capaci di imitare in maniera progressivamente efficace alcune delle abilità tipiche dell’intelletto umano. Tali strumenti (GenAI) affondano le loro radici nelle discipline del cosiddetto apprendimento macchina automatico (Machine Learning, ML) e della statistica computazionale. Essi sono il risultato di impiego e trasformazione dei tre fattori di produzione del moderno capitalismo digitale, usati in enormi quantità, crescenti (al momento) in maniera esponenziale: (i) potenza di calcolo, (ii) dati, (iii) efficienza algoritmica. Pur privi di quella capacità di ragionamento universale di natura causale alla base della vera intelligenza umana, l’esistenza e le capacità di questi strumenti hanno già sollevato ragionevoli riflessioni focalizzate sulla comprensione e sulla gestione di opportunità e rischi collegati ad una loro adozione progressiva in ogni ambito di vita ed attività sul pianeta. Approfonditi studi molto recenti sostengono come non esista ad oggi alcun consenso su come prevedere evoluzioni future relative a possibili benefici e danni che potranno accompagnare l’attuale Intelligenza Artificiale, lasciando spazio a un ampio numero di scenari possibili.

In questo clima di generale incertezza, i grandi capitalisti dell’industria digitale e le aziende Big Tech (private e pubbliche) continuano ad investire, in modo cospicuo e senza concrete preoccupazioni, nello sviluppo di quelli che sono, per loro, strumenti di enorme potere economico e politico. In sostanza, l’Intelligenza Artificiale attuale, rilasciata as a service all’utente finale dalle grandi compagnie tecnologiche, rappresenta di fatto l’ultimo acceleratore della logica tipica dell’attuale capitalismo neoliberista tecnologico. Una logica che, imperniata sulla consueta esigenza di crescita economica infinita basata su produzione e vendita di beni e servizi imposti progressivamente sul mercato come essenziali ed inevitabili, prevede in ultima istanza la monetizzazione da parte dei capitalisti tecnologici dei dati raccolti dai singoli individui debitamente trasformati in utenti registrati di servizi digitali. Aver rilasciato al grande pubblico gli attuali strumenti di Intelligenza Artificiale, opportunamente accompagnati dalla suggestiva narrazione relativa ai potenziali benefici indotti in termini di aumenti di produttività del lavoro moderno e di efficienza dei processi operativi in ogni settore, è valso all’industria Big Tech l’acquisizione, in un tempo brevissimo, di svariate centinaia di milioni di nuovi utenti registrati che hanno subito iniziato a produrre, gratuitamente, dati ed informazioni, la più preziosa materia prima dell’attuale era digitale.

È possibile ipotizzare un uso controfattuale (lavorare per una eterogenesi dei fini) di una tecnologia che nasce con lo stigma del capitalismo neoliberista e della crescita? Ragionare in spirito di decrescita su strumenti asserviti agli obiettivi del capitalismo digitale potrebbe apparire controintuitivo, per non dire privo di senso. Eppure, tentare di adottare alcuni dei princìpi teorici ed alcune delle raccomandazioni pratiche della decrescita nel contesto del moderno mondo digitale ci sembra un esercizio attuale e necessario. Come per altri ambiti più tradizionalmente interessati da rivisitazioni critiche rispetto alle logiche della “crescita ad ogni costo” tipiche del capitalismo moderno (ad es. energia, trasporti, ambiente), riteniamo che ci sia oggi uno spazio per affiancare alle più consuete narrazioni sull’attuale Intelligenza Artificiale anche alcune visioni antagoniste che nascono da una sensibilità diversa.

Riteniamo che il mondo digitale moderno produca, in maniera deliberata ed assolutamente peculiare rispetto al passato, tecnologie progettate appositamente per generare dipendenza d’uso nelle persone ed abilitare la cosiddetta ”economia dell’attenzione”. Questo fatto merita, a nostro avviso, una riflessione ed una reazione che una cultura di decrescita può aiutare a condurre ed a definire.

I contributi principali di questo lavoro sono i seguenti.
– Una prima sezione in cui, da tecnologi esperti della materia, proviamo ad inquadrare in maniera puntuale ed aggiornata lo stato dell’arte rispetto agli attuali strumenti d’Intelligenza Artificiale, chiarendone caratteristiche tecniche ed incertezze sugli sviluppi futuri, al fine di collocare il tema in una cornice che sia la più realistica possibile.
– Una seconda sezione in cui evidenziamo e discutiamo del fondamentale ruolo di potere economico-politico svolto dall’attuale Intelligenza Artificiale nel moderno capitalismo digitale.
– Una terza sezione nella quale proponiamo due riflessioni sulla decrescita per un diverso mondo digitale: la prima focalizzata sulla concreta realizzazione, utilizzando tecnologie informatiche libere ed aperte, di modelli “intelligenti collettivi” a supporto di comunità locali autonome; la seconda contenente una provocazione utopistica propedeutica ad una progressiva transizione verso un futuro consapevole nel quale, combattendo i danni causati dalle dipendenze imposte dall’”economia dell’attenzione”, sia possibile godere davvero dei benefici combinati di tecnologia finalmente “umana” da una parte, e natura dall’altra.

Non ci piace rassegnarci all’idea che la moderna Intelligenza Artificiale, attualmente rappresentata dagli strumenti statistici di GenAI e ML, debba continuare ad alimentare e favorire gli interessi di uno dei capitalismi più estremi e neoliberisti della storia: quello della grande industria tecnologica digitale Big Tech. Riteniamo possibile e doveroso pensare diversamente. Combinare visione, idee e pratiche di un movimento antagonista come la decrescita con le potenzialità di soluzioni tecnologiche libere ed aperte come gli open data, il free libre open source software ed i modelli di GenAI e di ML liberamente accessibili nel pubblico dominio, ci pare possa aprire le porte a possibili rivoluzioni concrete ed a nuove utopie per il mondo digitale del futuro.

Non ci facciamo illusioni sulla possibilità che un’interpretazione nuova di modernità, in linea con quanto illustrato, possa facilmente calarsi dal piano dell’utopia a quello di una realtà concretamente realizzabile. Tuttavia, se da un lato siamo convinti che il tema centrale di rivisitazioni in decrescita di un mondo e di un’epoca guidati da soluzioni tecnologiche sempre più “intelligenti”, sofisticate e diffuse non debba essere quello di un facile ed ingenuo luddismo inteso come preambolo del buen vivir, né di un’interpretazione heideggeriana della tecnologia come estranea all’umanità, dall’altro ci sentiamo di sposare la filosofia e l’approccio di Bernard Stiegler quando evoca la ricerca di un percorso che porti progressivamente verso una de-automatizzazione della società (Stiegler, 2019). Un percorso che, pur riconoscendo i benefici della “buona automazione” e della coesistenza conviviale tra esseri tecnici ed esseri umani (Milani, 2022), arrivi a valorizzare in modo centrale quella tipica caratteristica umana di saper inventare, creare, realizzare soluzioni geniali contrarie alla norma, alla regola generale. Qualcosa di straordinariamente opposto, sul piano concettuale, proprio all’attuale dominante efficientismo algoritmico, prevedibile statisticamente, che ha bisogno invece di “regolarità”, di ritrovare il futuro sempre nel passato, per funzionare correttamente (Esposito, 2022). Qualcosa che, attraverso la tecnologia, ma anche la formazione e lo sviluppo di un pensiero critico, possa invece contrastare quella perdita di significato e quell’erosione dei valori umani più autentici e dei legami sociali più forti, perseguendo nuovi modelli economici secondo una visione conviviale radicale.

1. Intelligenza Artificiale: caratteristiche attuali ed incognite future

Il progresso in corso nei settori tecnologici di punta della microelettronica e dell’informatica ha partorito, nell’ultimo quinquennio e dopo decenni di ricerca sul campo, soluzioni sofisticate in grado di imitare un’ampia varietà di abilità ritenute di pertinenza dell’intelletto umano (es. generazione di conversazioni in linguaggi naturali, generazione di immagini e video a partire da descrizioni testuali, scrittura di codice in linguaggi di programmazione software, traduzione tra molteplici linguaggi umani, creazione di sunti e sommari di lunghi documenti, raggiungimento di alti punteggi in una serie di complessi esami attitudinali in ambiti e domini umani molto diversi).

Soluzioni basate su grandi modelli di linguaggio naturale, detti anche in lingua inglese Large Language Models (LLMs), come ChatGPT, GPT-4, Claude, Gemini, modelli generativi di tipo text to image (es. DALLE-3, MidJourney, Stable Diffusion) e text to video (es. SORA), balzate prepotentemente alla ribalta della cronaca nell’ultimo anno e mezzo, sono note in letteratura come General-purpose Artificial Intelligence (GenAI) (Bengio et al., 2024) e costituiscono l’ultima generazione di una stirpe di strumenti potenti che accompagnano l’umanità già da più di due decenni: i modelli ed i sistemi di apprendimento macchina automatico detto Machine Learning (ML)1. Oggi il ML è parte integrante dei mezzi di produzione del moderno capitalismo tecnologico, in grado di trasformare una preziosa materia prima della contemporaneità, i dati, in avanzati risultati analitici (es. osservazioni ed inferenze complesse, capacità previsionali e generative) da vendere come pregiato prodotto finale in un mercato digitale inventato ed imposto su scala globale da pochi grandi attori (le cosiddette compagnie Big Tech, dislocate oggi principalmente tra Stati Uniti e Cina).

L’ormai popolarissima GenAI, per quanto sorprendente, non dev’essere confusa con l’Artificial General Intelligence (AGI) (Newell & Simon, 1976), termine con cui gli esperti si riferiscono sempre più frequentemente a potenziali futuri sistemi di Intelligenza Artificiale (Artificial Intelligence in lingua inglese, abbreviato con l’acronimo AI) in grado di eguagliare o sorpassare le prestazioni umane in (quasi) tutti le abilità cognitive (Bengio et al., 2024). GenAI è, in sostanza, un concetto estremamente più debole di AGI. Riteniamo necessario puntualizzare tale aspetto per favorire, sperabilmente, un chiarimento sia terminologico che concettuale volto a ricollocare in un alveo complessivo più realistico quella che oggi viene genericamente chiamata AI solo per comode (pur comprensibili) ragioni di comunicazione e marketing.

Al pari di altre soluzioni di ML, applicate in parti sempre più consistenti del software moderno, caratterizzate da singole abilità specifiche (es. classificazione e/o raggruppamento di oggetti/concetti, riconoscimento di immagini, analisi di sequenze) ed indicate di conseguenza anche come narrow AI (AI “ristretta”), l’attuale GenAI è in realtà (solo) il frutto di statistica computazionale addestrata ed eseguita su larga scala, ovvero attraverso l’impiego di ragguardevole potenza di calcolo (e dunque di ingenti risorse energetiche) con cui eseguire efficacemente algoritmi di ML per il processamento di enormi quantità di dati. Ad esempio, si utilizzano gli LLMs per essere in grado di conseguire la generazione di linguaggio di ambito generale2.

Tanto calcolo, tanti dati3 e tanta efficienza algoritmica sono dunque i fattori determinanti per strumenti statistici come la GenAI in particolare ed il ML in generale. Non esiste invece, per il momento neanche lontanamente, alcuna capacità di ragionamento universale esplicito di natura causale (Pearl, 2009; Pearl, 2018; Gopnik et al., 2007; Sloman & Lagnado, 2015), ritenuto aspetto chiave alla base dell’AGI e di sistemi intelligenti estremamente più avanzati, attualmente oggetto di studio e di ricerca (Richens & Everitt, 2024).

Si dibatte (e si dubita) molto circa il fatto che l’attuale GenAI possa arrivare ad acquisire regole causali universali, tipiche del modo di ragionare umano, inferendole come proprietà emergenti da enormi quantità di esempi particolari (Mitchell, 2023). E questo anche impiegando gli ulteriori attuali meccanismi di affinamento (fine tuning) di modelli pre-addestrati e di successivo apprendimento rinforzato dei medesimi attraverso annotazioni e riscontri (feedback) molto precisi ottenuti grazie all’impiego di notevoli quantità di lavoro umano asservito (Huyen, 2023).

In effetti, alcuni esperti autorevoli (LeCun, 2022) sostengono che vera AGI non potrà mai scaturire davvero solamente da “scala”, “fine tuning” e “rinforzo”. Di certo, ai ritmi di crescita esponenziale attuali di calcolo (ca. 4x/anno), dati (ca. 2.5x/anno) ed efficienza algoritmica (ca. 1.5-3x/anno) necessari all’addestramento dei modelli di GenAI più grandi (Bengio et al., 2024), esiste un tetto alla dimensione, e dunque alla potenza, di modelli e sistemi di GenAI generati seguendo l’attuale approccio.
Tale limite superiore è determinato almeno da: costi troppo elevati del calcolo e bassa disponibilità di chip ad-hoc per l’AI (tema di economia), indisponibilità di nuovi dati necessari per addestramenti di qualità sempre più elevata (tema di sociologia, giurisprudenza, politica, tecnologia), prospettive di eccessivo inquinamento ambientale (tema di ecologia).

In ogni caso, che sia destinata o meno a rallentare/arrestare le sue capacità d’imitazione di molte abilità umane e che sia un giorno in grado o meno di evolvere in qualche forma di vera AGI, l’esistenza di GenAI ha già sollevato ragionevoli riflessioni focalizzate sulla comprensione e sulla gestione di opportunità e rischi collegati alla sua attuale adozione progressiva in ogni ambito di vita e di attività sul pianeta.
Tuttavia, stando al recente rapporto sulla sicurezza di forme avanzate di AI (Bengio et al., 2024), non esiste oggi alcun consenso su come prevedere evoluzioni future a tal riguardo, con spazio per un ampio numero di scenari possibili. Nonostante ricerche approfondite in corso per comprendere e valutare la GenAI in modo affidabile, infatti, la conoscenza di come questi avanzati modelli e sistemi di ML funzionino con precisione non può che essere, per una serie di ragioni tecniche, assai limitata. In breve, sono ormai troppe le variabili ed i parametri in gioco, impossibili da monitorare per esseri umani, che hanno un impatto sulla (mancanza di) spiegabilità ed interpretabilità di questi sistemi software. A differenza delle applicazioni informatiche tradizionali, infatti, tali sistemi non sono programmati in modo esplicito, ma in maniera indiretta tramite tecniche di programmazione statistica (vedi nota 2). Essi sono il frutto dell’applicazione di algoritmi di ML impiegati per far generare ad agenti artificiali (i modelli probabilistici) output informatici (osservazioni, inferenze e previsioni) in totale autonomia, dunque non in modo direttamente controllabile dal programmatore.

Inoltre, il rilascio progressivo al grande pubblico delle citate soluzioni di GenAI ha rivelato, in maniera forse ancora più chiara di quanto non facessero i precedenti servizi abilitati e guidati dal ML (es. motori di ricerca per il Web come quello di Google, reti sociali come Facebook, Instagram, Twitter/X, WhatsApp, TikTok), l’assoluta concentrazione di potere nelle mani dei principali attori dell’attuale capitalismo digitale. Come detto, pochissime multinazionali negli Stati Uniti ed in Cina detengono di fatto il monopolio assoluto della moderna economia di algoritmi e dati, determinando, in modo esclusivo, le evoluzioni presenti e future sia dell’intero ecosistema tecnologico globale che ormai dell’esistenza stessa di società e nazioni sul pianeta. Persistendo le attuali condizioni operative per i capitalisti digitali (es. totale deregolamentazione in larga parte del pianeta4), quanto visto finora potrebbe essere soltanto un assaggio di ciò che oggi è noto anche con il termine inquietante e pur realistico di “capitalismo di sorveglianza” (Zuboff, 2019).

Al momento non si può escludere l’eventualità di rischi severi per sicurezza e benessere futuri sia individuali che pubblici sul pianeta. Il citato rapporto sulla sicurezza dell’AI (Bengio et al., 2024) menziona rischi legati ad usi impropri, a pregiudizi ed inclinazioni (detti “bias”), a malfunzionamenti (es. gravi errori di previsione/generazione, chiamati anche “allucinazioni” nel caso specifico dei modelli generativi di linguaggio naturale5) secondo alcuni inevitabili ed incorreggibili vista la natura statistica dei modelli di GenAI (Xu et al., 2023; Gekhman et al., 2024); rischi di natura sistemica con impatti importanti sul mondo del lavoro, sulla privacy degli individui, sul copyright dei contenuti; rischi legati all’estrema concentrazione di GenAI in settori critici come finanza, giustizia e sanità, dove già si riscontra una tendenza progressiva ad affidare decisioni alle elaborazioni delle macchine e degli algoritmi; rischi derivanti dal cosiddetto AI Divide determinato dall’estrema disparità, a livello geopolitico, sociale e tra pubblico e privato, nell’accesso a risorse necessarie per sviluppare GenAI; rischi di perdita di trasparenza, in carenza di accesso o di mezzi per implementare, ripetere e verificare i risultati delle elaborazioni; rischi crescenti di tipo ambientale legati ad inquinamento per consumi energetici importanti, sfruttamento di risorse naturali (es. terre rare) ed acqua.

In base a tutto questo, un ventaglio di traiettorie appare dunque possibile per la GenAI e nulla si può al momento prevedere o escludere con certezza. Nonostante esista, infatti, qualche contromisura tecnica e qualche intervento legislativo per attenuare alcuni dei rischi citati, nessuno degli attuali approcci può dare vere garanzie di contrasto effettivo ai possibili danni causati dalla GenAI e dai grandi modelli di ML attualmente esistenti e che arriveranno in un futuro prossimo.

2. Strumento di potere del moderno capitalismo digitale

In questo tempo di grande incertezza rispetto all’evoluzione di un mondo che incorpori progressivamente soluzioni tecnologiche informatiche potenti e rischiose come la GenAI, molto dipenderà da azioni e reazioni di individui, società e governi. Nonostante tutto, infatti, i grandi capitalisti dell’industria digitale (la più ricca di sempre6), le aziende Big Tech in primis, continuano ad investire massicciamente7, e senza concrete preoccupazioni al di là di facili proclami, in ML e GenAI, strumenti di enorme potere economico e politico. In altre parole, è in atto oggi una competizione profonda ed inarrestabile a colpi di dollari investiti in ML e GenAI. A titolo d’esempio, si consideri come l’addestramento di un modello top di GenAI (es. GPT-4, Claude, Gemini) costi ormai (al 2024) nell’ordine delle centinaia di milioni di dollari. Altrettanto elevato è il costo per l’esercizio delle soluzioni finali basate su quei modelli e rese disponibili al grande pubblico: si stima ad esempio che OpenAI spenda $700.000/giorno per i costi d’esercizio delle sue soluzioni (Gardizy & Ma, 2023).

In sostanza, la GenAI può essere interpretata come l’ultimo acceleratore della logica tipica dell’attuale capitalismo neoliberista tecnologico e tecnocratico. Una logica secondo la quale, per rientrare di massicci investimenti effettuati e conseguire alti profitti anche a beneficio di grandi investitori (es. fondi internazionali, banche d’affari), si perpetua il consueto ciclo della moderna produzione di valore economico-finanziario, disinteressandosi dei citati rischi potenziali e sfruttando i tempi lunghi della ricerca tecnico-scientifica e la scarsa velocità di reazione degli organismi regolatori.
Un ciclo che impone la necessità di accesso a tanta materia prima da monetizzare con le soluzioni di ML nel contesto della moderna economia digitale: i dati di individui e pianeta.
A tal riguardo, vale la pena citare il record assoluto di OpenAI che, nei soli primi due mesi successivi al rilascio della prima versione di ChatGPT ad inizio 2023, ha acquisito una base di oltre 100 milioni di nuovi utenti che hanno registrato un “account”.

Fino a febbraio 2023, quando il servizio online ChatGPT è stato diffuso al grande pubblico, l’intero apparato era appannaggio di pochi addetti ai lavori, rendendoli capaci di realizzare profitti miliardari e di avvantaggiarsi delle informazioni (carpite illegittimamente) per prevedere e determinare le direzioni politiche di ogni sistema di governo, a qualunque livello e in qualunque situazione. Con ChatGPT, e via via con tutti gli analoghi servizi basati su LLMs e introdotti dai diretti concorrenti di OpenAI, per la prima volta una piccolissima frazione delle funzionalità di tali sistemi è stata concessa in uso al grande pubblico per il tramite di un account a libera registrazione o in abbonamento per modiche somme. Abbiamo così potuto provare un assaggio delle potenzialità della GenAI, certamente irrisorie rispetto a quelle complessivamente disponibili e saldamente in mano alle compagnie Big Tech. Ciò ha avuto innegabilmente il merito di estendere ed espandere le riflessioni e di fare patrimonio comune dei punti di attenzione, invero già abbondantemente presenti nel dibattito scientifico e sociologico ormai in corso da decenni.

Ci preme sottolineare che i rischi a cui abbiamo accennato sarebbero rimasti praticamente identici anche senza questo passaggio di alcune applicazioni di GenAI alla sfera pubblica, effettuato per obiettivi di mero sfruttamento commerciale. Inoltre segnaliamo come l’introduzione di sistemi di GenAI valorizzi ulteriormente da un punto di vista economico la raccolta dei dati degli utenti che con essi interagiscono, creando un ciclo di feedback che consente di estrarre informazioni utili e di consentire ai modelli di effettuare inferenze e previsioni in modo sempre più efficiente ed efficace.

Dunque, ricapitolando: il recente rilascio su scala globale al pubblico mondiale di GenAI (a.k.a. ML su larghissima scala) accelera le dinamiche, gli interessi ed i profitti del moderno capitalismo tecnologico digitale. Le grandi compagnie Big Tech, l’ecosistema da essi inventato e trainato ed i grandi investitori di capitali incrementano potere ed influenza in accordo ai principi di crescita economica infinita mettendo a valore, come avviene da circa vent’anni, dati di individui e pianeta attraverso strumenti sofisticati di analytics.
I sistemi di GenAI, rilasciati as a service dalle grandi compagnie tecnologiche e venduti al mondo solo come strumento per conseguire aumenti di produttività ed efficienza ritenuti virtuosi, accentuano il processo di trasformazione degli individui in utenti di servizi informatici (GenAI dei Big Tech richiede “account”) e dunque in moderna materia prima (come previsto da processi di transizione digitale), alimentando la logica finora vincente di gratuità economica e/o di bassi prezzi in cambio di dati, tipica di un capitalismo di sorveglianza (Zuboff, 2019).
Nonostante sia ormai chiaro e documentato che, pur in assenza di AGI, la GenAI sia già una tecnologia difficilmente spiegabile, interpretabile, controllabile e ponga una serie di questioni di sicurezza e rischi da mitigare, le esigenze dei grandi capitalisti digitali sembrano dover avere la precedenza sugli interessi finali di individui, società e pianeta. I governi, espressione diretta dei popoli, ancora impreparati a prendere decisioni logiche e chiare rispetto a scenari futuri intrinsecamente incerti, non sono nelle condizioni di reagire efficacemente e tempestivamente alle sfide del futuro.

Ci sembra, dunque, di poter rilevare il seguente importante fatto: il principale ruolo dell’attuale GenAI è quello di assecondare ed accrescere il potere globale del moderno capitalismo digitale neoliberista, fondato sulla consueta assunzione di crescita economica infinita, tipica di ogni capitalismo, ben combinata con il nuovo processo di generazione di valore economico dai dati attraverso l’impiego di costosi modelli e sistemi di ML addestrati ed eseguiti su sistemi di calcolo di potenza elevatissima.

Non c’è nulla di politicamente promettente, che valga la pena indagare, nell’utilizzare i servizi di GenAI e di ML che le compagnie Big Tech ci mettono a disposizione. I fornitori di AI trattano i loro algoritmi come segreti commerciali, impedendo agli utenti di formarsi una comprensione completa di come questi funzionino o dei risultati da questi prodotti. La totale dipendenza dalle decisioni dei fornitori di servizi Big Tech porta inevitabilmente ad una mancanza di controllo sui cambiamenti e sulle funzionalità ed al rischio di subire interruzioni di servizio o modifica dei termini di utilizzo totalmente arbitrarie. Utilizzare AI di terze parti comporta inoltre la condivisione a senso unico di dati sensibili con i fornitori, sollevando ulteriori preoccupazioni sulla privacy e sulla sorveglianza/manipolazione delle persone.

Inoltre, un’AI sviluppata da altri potrebbe non essere completamente personalizzabile per soddisfare le esigenze specifiche di un’organizzazione o di un individuo, e un’integrazione con sistemi esistenti potrebbe risultare complessa in ottica di compatibilità e scoraggiata con espedienti tecnici. Utilizzando un’AI di terze parti non si ha conoscenza sulle proprietà delle soluzioni o dei dati derivati e vengono pertanto limitate le opportunità d’innovazione indipendente o la capacità di sviluppare soluzioni su misura per bisogni specifici.

A poco valgono appelli ed invocazioni in merito alla cosiddetta “etica dell’AI” (Veliz et al., 2021), concetto spesso percepito ed interpretato in modo vago e strumentale come ethics-washing (Schultz et al., 2024, Tafani 2023) per distogliere l’attenzione dalle questioni sostanziali, come la centralizzazione e la concentrazione di potere da parte degli attori Big Tech, la sorveglianza di massa degli individui, l’uso militare delle tecnologie digitali e la mancanza di trasparenza e responsabilità nelle decisioni che riguardano la collettività.

3. Riflessioni sulla decrescita per un diverso mondo digitale

Alla luce di tutto questo, potrebbe apparire forse controintuitivo ragionare di decrescita nel contesto della GenAI e del ML, strumenti tecnologici tanto connaturati ed asserviti alla forma forse più estrema di capitalismo mai esistita. In realtà, vogliamo condividere alcune riflessioni tese a mostrare come, al contrario, esista un valore molto attuale in un paradigma, radicalmente opposto al capitalismo neoliberista, che immagina e propone visioni alternative ed antagoniste di mondo, economia e società. Visioni che ricordano, enfatizzano, favoriscono il ruolo sempre centrale di essere umano e natura sul pianeta terra e che alimentano un’idea di tecnologia, anche informatica, meno “di supporto al potere”, più vicina alle esigenze umane, che persegua il benessere collettivo e non solo quello di pochi, che rafforzi la partecipazione e stimoli l’affermazione e la valorizzazione di un ambiente informativo davvero condiviso da individui e collettività.

La prima riflessione che desideriamo proporre riguarda allora un approccio che ci piace definire di “resistenza dal basso”, un approccio assolutamente concreto in cui immaginiamo come il ML e la GenAI possano diventare strumenti abilitatori di soluzioni informatiche dispiegate in ambiti locali e sovrani, utili a comunità di persone ed individui comuni, e non esclusivamente mirate ad arricchire e potenziare soltanto i grandi capitalisti digitali. La base di partenza delle nostre riflessioni è l’idea che le comunità locali assumano maggiore controllo sui loro strumenti e risorse, favorendo la decentralizzazione e la partecipazione diretta nella gestione della vita comunitaria. In questo approccio cerchiamo in sostanza di mutuare nel moderno ambito informatico guidato dal ML e dalla GenAI alcune sfide al capitalismo dominante lanciate in contesti e domini più tradizionali (es. energia, abitazioni, cibo, trasporti, salute, ambiente) dai movimenti di decrescita.

La seconda riflessione è invece una sorta di provocazione, forse illusoria ma a nostro avviso utile ed attuale, volta a definire alcuni spunti per una transizione radicale verso un futuro tecnologicamente consapevole, ispirato anche alla filosofia ed ai principi più alti e concettuali della decrescita. Un invito, che giudichiamo molto moderno in una società “drogata” da tecnologie progettate appositamente per generare dipendenza (ed assecondare la cosiddetta “economia dell’attenzione”), a riflettere in modo profondo e consapevole sulla necessità autentica e sul valore benefico per l’essere umano di un “misto equilibrato” che combini impieghi ragionevoli, mirati e limitati di tecnologia eticamente orientata con la riscoperta di forme di vita più libere in cui riaffermare e riapprezzare valori umani, sociali ed ecologici tradizionali ed ancestrali in una nuova relazione con le mediazioni artificiali.

Si noti che le due riflessioni non sono in mutua esclusione tra loro, ma anzi andrebbero integrate in uno slancio verso la definizione di un’utopia di decrescita digitale basata su una nuova interpretazione di quella modernità ultratecnologica informatica, abilitata anche da forme di AI, che ci avvolge e ci attende.

Molti sostenitori della decrescita ritengono che il miglioramento delle condizioni di vita degli esseri umani sul pianeta non debba essere collegato solo alla crescita di variabili economiche associate ad aumenti di produzione e consumo di beni e servizi (es. PIL). Al contrario, una buona vita (o buen vivir) dovrebbe essere valutata anche, e principalmente, da indicatori di natura più generale, relativi allo stato di salute e di benessere psico-fisico di ciascun individuo, all’accessibilità ed alla qualità di servizi sociali chiave (es. sanità, istruzione, giustizia, cultura, trasporto), alla disponibilità di cibo sano e nutriente, al miglioramento dei rapporti sociali, dei servizi collettivi, comunitari e ricreativi, alla misurazione di un giusto e limitato tempo da dedicare al lavoro, alla disponibilità di tempo libero e di riposo, alla qualità di aria, acqua ed ambiente ed alle opportunità di contatto con la natura incontaminata.

Esistono molte iniziative concepite per il perseguimento di una “buona vita” che massimizzi gli indicatori sopra descritti. Dai gruppi di acquisto solidali (GAS) e dalle comunità di sostegno all’agricoltura (CSA) ad imprese sociali attive nell’erogazione di servizi utili a comunità locali (es. educazione e promozione culturale su temi di decrescita, riparazione, riciclo, riuso di beni, autoproduzione di cibo ed oggetti), a veri e propri ecovillaggi aventi obiettivi di riduzione volontaria di consumi ed impatti ambientali di stili di vita, di realizzazione di abitazioni e spazi comuni ad impatto energetico minimo, di comunità energetiche organizzate per produrre e condividere localmente l’energia proveniente da fonti rinnovabili e distaccarsi dai grandi fornitori energetici, di difesa di forme di economie esclusivamente locali concepite per il maggior soddisfacimento possibile di ogni esigenza (lavorativa, fisica, emotiva, spirituale) dei membri della comunità.

3.1 Resistenza dal basso: modelli di “Intelligenza Collettiva Artificiale” (ICA) per comunità locali

Sulla scia di tali iniziative, e per favorire maggior controllo da parte di comunità circoscritte e localizzate di individui sugli strumenti tecnologici a loro disposizione, proponiamo l’impiego di GenAI e ML per sviluppare modelli di analytics di “Intelligenza Collettiva Artificiale” (ICA) in cui vengano enfatizzati i seguenti aspetti:
A ) utilizzo di soluzioni locali (es. GenAI e narrow AI specializzate localmente), addestrate ed operanti su dati relativi a territori piccoli (es. province, comuni, municipi, quartieri) attraverso infrastrutture di calcolo locali, sovrane, non appoggiate a cloud Big Tech;
B ) focalizzazione solamente su contesti rispettosi della riservatezza assoluta dei dati, in cui non vi sia alcun interesse ad utilizzare e valorizzare dati di individui in forma esplicita, ma, ove necessario, solo in maniera aggregata e/o anonimizzata; possibilità di utilizzare le soluzioni anche in maniera completamente disconnessa da Internet;
C ) adozione e promozione di dati aperti (per garanzia di trasparenza), di infrastrutture gestite in proprio (per conseguire sovranità digitale su infrastrutture di calcolo autogestite) e di modelli open source di ML (da personalizzare localmente);
D ) promozione di partecipazione comunitaria all’apprendimento, alla pianificazione, all’implementazione, al finanziamento, al controllo di nuovi processi tecnologici basati su ML/AI a beneficio di comunità circoscritte; condivisione tra comunità di conoscenza e di buone pratiche tecniche e d’impatto a largo spettro in eventi ad-hoc da tenersi periodicamente (es. conferenze, riunioni, dibattiti, festival, hackmeeting, learnathon).

Molti sono gli ambiti possibili in cui contestualizzare modelli di analytics di ICA con le caratteristiche illustrate: monitoraggio e conservazione ambientale, risposta alle catastrofi ed aiuti umanitari, agricoltura di precisione e sicurezza alimentare, pianificazione del traffico e dei trasporti, educazione, monitoraggio della salute pubblica fisica e mentale e prevenzione delle malattie, assistenza alla disabilità ed all’accessibilità, energie rinnovabili e sostenibilità ambientale, conservazione culturale e traduzione linguistica, riforma della giustizia penale.
Nel presente lavoro vogliamo proporre uno studio di caso su soluzioni privacy-preserving di ML e GenAI per l’impegno civico e per lo sviluppo di comunità locali autonome.

3.1.1 Soluzioni a supporto di impegno civico e sviluppo di comunità locali autonome

I modelli di GenAI e ML possono essere utilizzati per aiutare i cittadini ad impegnarsi nel processo di budgeting di governi locali. Fornendo un’interfaccia intuitiva, tali modelli possono aiutare i residenti di un territorio ad analizzare le allocazioni di budget della vita comunitaria, la simulazione dell’impatto di eventuali modifiche e la presentazione delle proprie proposte di budget. Ciò può aumentare la trasparenza e consentire ai membri della comunità di avere voce in capitolo su come vengono spesi i fondi pubblici.

Oppure si può ricorrere a modelli “intelligenti” per creare visualizzazioni e simulazioni interattive di progetti di sviluppo urbano proposti, consentendo ai residenti di fornire feedback ed input sulla progettazione, sul layout e sugli impatti attesi. Questo può contribuire a colmare il divario tra responsabili politici e cittadini, promuovendo processi di pianificazione più inclusivi e reattivi ed aiutando a prendere decisioni informate per la zonizzazione, lo sviluppo delle infrastrutture e l’uso del suolo di un territorio.

Ancora, si possono analizzare in maniera approfondita ed avanzata i dati sull’utilizzo e sulle prestazioni di servizi pubblici, come i trasporti, la gestione dei rifiuti e la risposta alle emergenze, per identificare eventuali aree di miglioramento ed ottimizzare l’allocazione delle risorse locali. Tali analisi possono aiutare i governi locali a fornire servizi più efficienti ed efficaci alle loro comunità.

I membri di una comunità possono poi interagire con modelli di GenAI installati localmente per segnalare e monitorare lo stato di problemi civici di immediato interesse, come buche o discariche illegali. Tali modelli possono quindi evincere problematiche di rilievo a partire dalle segnalazioni, indirizzare opportune e conseguenti richieste alle autorità competenti e fornire aggiornamenti in tempo reale sui progressi di processi risolutivi e di gestione delle questioni, migliorando la trasparenza e la responsabilità. Altra possibilità è offerta da chatbot di GenAI addestrati su dati esclusivamente di un territorio ed implementati localmente in maniera mirata per interagire con i residenti di quel territorio, per rispondere alle domande e per raccogliere feedback solo su argomenti relativi alle comunità interessate. Questo può aiutare i governi locali e le organizzazioni comunitarie a comprendere meglio le esigenze e le preoccupazioni dei loro cittadini e dei loro partecipanti e ad adattare di conseguenza programmi politici ed iniziative concrete.

GenAI e ML possono inoltre analizzare le esigenze e le preferenze di una comunità per suggerire alle amministrazioni competenti se, quando, dove, in che modo pianificare servizi come parchi, centri comunitari o biblioteche in linea con le esigenze specifiche della popolazione locale.

I residenti possono interagire con i modelli di GenAI addestrati ed installati localmente per contribuire con idee, soluzioni e feedback a progetti guidati dalla comunità, come il bilancio partecipativo o le iniziative di pianificazione del quartiere. Quando installata su infrastrutture di calcolo ad-hoc locali amministrate direttamente dalle comunità, l’AI può quindi, in questo caso, aiutare ad aggregare e sintetizzare input che informino il processo decisionale senza la necessità di condividere i dati personali con piattaforme esterne globali.

Chatbot generativi possono essere implementati localmente anche per interagire con i diversi membri di una comunità, compresi i gruppi sottorappresentati e le minoranze etniche. Ad esempio, modelli di GenAI installati localmente possono essere addestrati per fornire servizi di traduzione linguistica e interpretariato, consentendo una comunicazione più efficace tra le autorità locali e i residenti che parlano lingue diverse. Ciò può migliorare l’accesso ai servizi pubblici e promuovere una maggiore inclusione ad esempio per le comunità di migranti e quelle minoritarie.

Ancora, modelli di ML e di GenAI locali possono analizzare i contenuti esistenti forniti da una comunità, come libri di storia locale, narrazioni personali o ricerche condotte dai membri della comunità. Utilizzando questi dati, i modelli possono suggerire argomenti per nuovi libri o articoli che riflettano gli interessi e le lacune di conoscenza della comunità, aiutando l’espansione della conoscenza specifica della comunità all’interno delle biblioteche locali.

Nelle comunità con ricche tradizioni di storia orale (es. comunità lontane da contesti urbani metropolitani), i modelli citati possono facilitare la raccolta, la trascrizione e la conservazione di interviste e storie di anziani o leader di comunità. Ciò garantisce che preziose conoscenze culturali non vadano perse e possano essere accessibili alle generazioni future.

Nel contesto dello sviluppo di competenze ad abilità locali e di creazione di posti di lavori, le moderne soluzioni di AI possono essere utilizzate per sviluppare bacheche di lavoro localizzate che abbinino le competenze dei membri della comunità alle opportunità di lavoro disponibili all’interno di un territorio. Queste bacheche di lavoro possono dare priorità alle imprese e agli imprenditori locali, promuovendo una crescita economica mirata proprio all’interno della comunità.

Inoltre, si può facilitare mediante AI e ML l’identificazione delle lacune di competenze all’interno della comunità e suggerire programmi di apprendistato o workshop di condivisione delle competenze. In questo modo si può creare ad esempio una rete di membri della comunità che insegnino ed imparino gli uni dagli altri, riproponendo una versione moderna delle banche del tempo e promuovendo l’imprenditorialità e lo sviluppo di imprese locali rafforzate da un accresciuto spirito comunitario.

Infine, per quel che concerne iniziative di tutela ambientale locale, ci piace segnalare due idee di modelli di analytics di ICA: la pianificazione degli spazi verdi, in cui i modelli di ML e GenAI possano analizzare i dati ambientali locali, il feedback anonimizzato dei residenti e le immagini satellitari per suggerire posizioni ottimali per nuovi parchi, giardini comunitari o spazi verdi per contribuire a migliorare il benessere della comunità e promuovere la sostenibilità ambientale su scala territoriale; l’ottimizzazione della gestione dei rifiuti, in cui GenAI e ML possano aiutare a migliorare i percorsi di raccolta dei rifiuti, suggerire iniziative di riciclaggio e fornire approfondimenti basati sui dati per ridurre l’impronta ambientale di una comunità e migliorare i tassi di riduzione, riuso e riciclo di materiali, oggetti e scarti.

3.1.2 Sfide e temi chiave

La realizzazione di soluzioni di ICA come quelle descritte introduce una serie di temi chiave da affrontare.

Vi sono anzitutto sfide tecnologiche legate per esempio a:
1) identificazione ed acquisizione di componenti hardware e software idonei per creare un’infrastruttura di calcolo locale robusta, scalabile e sicura;
2) garanzia che l’infrastruttura di calcolo sia in grado di supportare i requisiti computazionali delle applicazioni di ML e GenAI desiderate e di effettuarlo anche in modalità completamente offline, ossia disconnessa dalla rete globale Internet;
3) sviluppo di solidi protocolli di gestione e sicurezza dei dati per proteggere informazioni sensibili della comunità;
4) integrazione dell’infrastruttura di calcolo locale con i sistemi e i servizi esistenti della comunità;
5) disponibilità di dati sufficienti e diversificati per lo sviluppo di modelli di ML e GenAI efficaci e generalizzabili. A quest’ultimo riguardo, le comunità locali potrebbero aver bisogno di collaborare per aggregare i dati, garantendo al contempo l’utilizzo di tecniche che preservino la privacy, come l’apprendimento federato o la predisposizione di silos/”laghi”8 di dati sicuri.

Vi è poi un tema legato all’adozione di un modello di governance guidato dalla comunità per supervisionare lo sviluppo, l’implementazione e la manutenzione di infrastrutture ed applicazioni tecnologiche. Il tutto al fine di definire chiare strutture di proprietà e controllo per assicurare che infrastrutture, modelli ed applicazioni rimangano nelle mani della comunità, senza dipendere (o dipendendo in minima parte) da entità esterne (es. attori Big Tech).
Vanno inoltre sviluppati processi decisionali trasparenti e responsabili per l’allocazione delle risorse e per la definizione delle priorità nei bisogni della comunità.
La governance locale va esercitata ovviamente anche sui dati: la privacy dei dati e la gestione etica delle informazioni personali sono una preoccupazione fondamentale. Le infrastrutture indipendenti guidate dalla comunità (es. reti mesh territoriali), capaci di operare anche disconnesse da Internet9 quando ed ove necessario, devono stabilire chiari framework di governance dei dati che ne delineino le politiche di raccolta, archiviazione ed utilizzo. Ottenere il consenso informato, rendere anonimi i dati e fornire alle persone il controllo sui propri dati sono punti essenziali.
E’ poi fondamentale affrontare la questione di pregiudizi presenti in dati e modelli, secondo quanto accennato nella premessa tecnologica della prima sezione. Le comunità locali devono identificare e mitigare attivamente i pregiudizi che possano svantaggiare gruppi specifici. Conseguire un’equità nei risultati inferiti e generati da soluzioni di ML e GenAI ed una trasparenza nei processi decisionali è fattore chiave per mantenere la fiducia nelle soluzioni tecnologiche di ICA che proponiamo.

Altro tema critico è quello del coinvolgimento profondo di una comunità durante tutto il processo di progettazione ed implementazione delle soluzioni. Educare i membri della comunità a riconoscere vantaggi e potenziali rischi della tecnologia favorisce la fiducia e l’accettazione. Il coinvolgimento di un insieme diversificato di parti in causa garantisce che le soluzioni siano in linea con i valori e gli obiettivi della comunità. Lo sviluppo di interfacce intuitive ed accessibili per consentire ai membri della comunità d’interagire con le soluzioni avanzate discusse è poi essenziale per l’adozione: strumenti e piattaforme di facile utilizzo che non richiedano competenze tecniche avanzate garantiscono in generale una partecipazione più ampia delle comunità all’uso finale di soluzioni tecnologiche di ML e GenAI.
Tuttavia, è importante che questa accessibilità non sia concepita allo scopo di “impigrire” le persone, come accade proprio con le soluzioni “cattura attenzione” offerte dai Big Tech. La caratteristica da considerare in questo caso è quella della buona automazione, ossia quella propria di tecnologie che le persone possano utilizzare direttamente e facilmente per raggiungere i loro obiettivi, senza la necessità di intermediari esperti o di procedure inutilmente complesse (gli strumenti conviviali di Ilich (Illich, 1973)). Un tipo di automazione che si contrapponga all’automazione svilente e meramente privativa del controllo, che riduce la capacità di agire in modo autonomo e significativo (Mumford, 1967). È fondamentale inoltre lasciare sempre la possibilità di studiare e monitorare gli automatismi, per migliorarli e affinarli continuamente. Le tecnologie dovrebbero infatti potenziare le capacità individuali, promuovendo l’apprendimento, la creatività e l’iniziativa personale, consentendo agli individui di apprendere e di contribuire attivamente alla società, piuttosto che limitarsi ad essere solo dei consumatori passivi.

Legato al coinvolgimento c’è poi il tema della collaborazione e della condivisione delle conoscenze. E’ importante facilitare la condivisione delle conoscenze e la collaborazione tra individui e gruppi impegnati in diverse iniziative di sviluppo di soluzioni locali ICA per imparare dalle reciproche esperienze e best practice. A tale scopo, appare imprescindibile lasciare sempre agli individui la possibilità di studiare e modificare le soluzioni esistenti.
Altro aspetto rilevante è quello di esplorare partnership con istituzioni accademiche, organizzazioni della società civile ed altre parti interessate per sfruttare competenze e risorse esterne. Diviene strategico appoggiare politiche e quadri normativi che sostengano lo sviluppo di soluzioni tecnologiche guidate dalla comunità e destinate anche alla protezione dei diritti dei gruppi più emarginati.

Non va trascurata poi l’esigenza di assicurarsi conformità alle normative relative alla protezione dei dati ed alle leggi sulla privacy. Le comunità locali devono cercare una guida legale per comprendere i propri obblighi, soprattutto quando gestiscono dati sensibili. Per quanto riguarda la condivisione e la collaborazione dei dati, occorre stabilire accordi e protocolli chiari quando si collabora con altre comunità o partner esterni. Ciò garantisce infatti privacy e sicurezza dei dati in tutti i contesti di riferimento, sia infrastrutturale che applicativo.

Parlando di sicurezza, l’implementazione di solidi protocolli di sicurezza, crittografia e controlli degli accessi è essenziale per creare fiducia all’interno della comunità. Allo stesso modo, essere trasparenti sul funzionamento interno di infrastrutture ed applicazioni (per quanto possibile in presenza di modelli di ML e GenAI), spiegare come i dati vengano utilizzati ed archiviati e fornire percorsi per feedback, crea fiducia, oltre a favorire e rafforzare un’idea di ownership delle soluzioni da parte della comunità.

Infine, ci pare di rilievo menzionare il tema di possibili divari digitali: è cruciale garantire un accesso equo alle soluzioni di ML e GenAI ed ai suoi benefici, oltre che avere conoscenza e consapevolezza di rischi e pericoli ad esse connaturati. Così, fornire formazione critica sull’alfabetizzazione digitale, offrire punti di accesso informativo ad ogni individuo e considerare le esigenze dei gruppi emarginati all’interno della comunità sono punti importanti. Guidata dall’approccio comunitario partecipato accennato in precedenza ed al fine di soddisfare sempre l’intera comunità, la progettazione delle soluzioni deve essere sempre il più possibile inclusiva, tenendo conto di diverse abilità, lingue e contesti culturali.

3.1.3 Il ruolo tecnico, economico e politico delle tecnologie libere ed aperte

Al fine di conseguire una concreta realizzazione di soluzioni di ICA che rafforzino comunità locali affrontando i temi citati, ci pare importante discutere in questa sezione del ruolo imprescindibile di tre elementi abilitanti:
1)  le tecnologie libere ed aperte come gli open data;
2) gli strumenti software free libre open source (FLOSS) per costruire infrastrutture di calcolo e sviluppare modelli di ML ex novo;
3) i modelli di GenAI liberamente accessibili nel pubblico dominio (es. HuggingFace10) da personalizzare secondo esigenze locali di una comunità. L’obiettivo è costruire soluzioni di ICA da utilizzare in alternativa ai servizi globali delle grandi compagnie Big Tech.

Dati e strumenti open e modelli di ML e Gen AI liberamente accessibili consentono alle comunità di rendersi tecnologicamente indipendenti ed autonome. Non solo riducono la barriera all’ingresso, fornendo accesso a tecnologie avanzate senza costose licenze o vincoli del software proprietario, ma la natura aperta offre alle comunità la flessibilità di personalizzare ed adattare gli strumenti alle loro esigenze specifiche. Si possono cioè modificare algoritmi, aggiungere nuove funzionalità, integrare fonti di dati locali o di dati liberamente pubblicati. Diverse comunità possono contribuire a migliorare gli strumenti creando reti di condivisione e di supporto tra loro.

Non ci sfugge che lo sviluppo e la manutenzione di queste soluzioni siano tecnicamente impegnativi e richiedano competenze elevate ed assai specializzate. Ad esempio, per mantenere i sistemi sicuri ed evitare di esporli a potenziali vulnerabilità, specie nel caso degli attuali modelli di ML e GenAI (Seger et al., 2023), sono necessari aggiornamenti e patch regolari. Siamo però convinti che sia possibile costruire gradualmente un percorso di approfondimento conviviale e creativo di tali aspetti, bilanciando le esigenze e le difficoltà con le energie e le competenze disponibili.

Come detto, elemento indispensabile per l’addestramento ed il funzionamento di soluzioni di GenAI e di ML è la disponibilità di “sufficienti quantità” di dati aperti e d’interesse locale per un territorio. Questa disponibilità potrebbe non sempre essere garantita, impattando negativamente sulla quantità e la qualità delle soluzioni offerte. Al fine di rendere i modelli addestrabili e più robusti anche in presenza di dati scarsi, esistono tecniche di contestualizzazione e di rinforzo (processo iterativo di prova ed errore) per sfruttare al massimo i dati disponibili e metodi efficaci di generazione di dati sintetici a partire da dati reali.

Economicamente, gli open data e le moderne tecnologie infrastrutturali ed applicative di ML e GenAI libere ed open source possono catalizzare lo sviluppo locale. Infatti, le comunità sono senz’altro in grado progressivamente di sviluppare soluzioni basate sui dati, lanciare iniziative relative a ML e GenAI e creare nuovi servizi digitali innovativi, riducendo la dipendenza da entità esterne globali. Occorre però sempre operare una valutazione mirata e lungimirante, perché i costi da sostenere possono essere enormi (es. hardware, competenze tecniche, gestione) e non facilmente ripagabili con sufficienti economie di scala, come avviene invece nel caso degli approcci proprietari chiusi, ma globali, delle compagnie Big Tech.

Dal punto di vista politico, invece, ciò che è in gioco è essenzialmente la sovranità ed il controllo sui propri dati, sulle proprie infrastrutture e sui propri servizi, per proteggersi da indesiderati e non autorizzati appropriamenti e sfruttamenti di dati da parte di entità esterne e per mantenere gli obiettivi di sviluppo tecnologico in linea con i valori e le priorità della comunità. Costruendo infrastrutture di calcolo indipendenti ed autonome, si riducono i monopoli ed il controllo centralizzato da parte di soggetti terzi e si favorisce il processo decisionale locale. La responsabilità nella governance di dati, infrastrutture e modelli incoraggia la partecipazione e la discussione politica, contribuendo anche a costruire fiducia rispetto a potenziali usi impropri di dati ed informazioni.

Condividere tra comunità conoscenze e best practice su dati aperti, FLOSS e modelli liberi promuove inoltre, come detto, una cultura virtuosa di sostegno reciproco e di risoluzione collettiva dei problemi, rafforzando la resilienza e l’autosufficienza delle comunità locali. Tuttavia, le comunità possono trovarsi a dover affrontare complessità normative e legali riguardo a temi come privacy dei dati, proprietà intellettuale e moderazione dei contenuti e questo può rivelarsi più difficile da affrontare per comunità piccole con risorse legali limitate e ridotte capacità di spese consulenziali.

Infine, riteniamo che sostenere le iniziative guidate dalla comunità a lungo termine richieda volontà politica e sostegno costanti. Cambiamenti nella governance o nelle priorità da perseguire possono avere un impatto sulla continuità dei progetti proposti, influenzandone, potenzialmente, efficacia e longevità. Ciononostante, siamo convinti che la costruzione di un “autogoverno locale del digitale”, abilitato e garantito dalle tecnologie libere ed aperte per dati, software e modelli di GenAI e di ML, resti un passaggio obbligato per resistere in maniera progressivamente efficace all’espansione ed alle derive dell’attuale capitalismo digitale globale “di sorveglianza”.

3.2 Una provocazione utopistica: verso un futuro tecnologicamente consapevole

Trovare una giusta mediazione tra tecnologia e natura ci sembra particolarmente attuale in quest’epoca in cui l’essere umano pare aver smarrito ancora una volta il senso della misura. Nella consueta ricerca di materie prime da sfruttare, trasformare e monetizzare tipica di ogni capitalismo, la versione più moderna, attuale e fiorente di questa forma di economia ossessionata dall’idea di crescita infinita di produzione e consumi, il capitalismo digitale, ha spostato la sua attenzione dalla natura anche all’essere umano.
L’esperienza di vita di ciascuno di noi è ormai degradata a mera materia prima digitale da trasformare in prodotti, applicazioni e servizi virtuali con cui renderci al contempo produttori e consumatori permanenti ed ubiqui.
I moderni e potenti calcolatori elettronici mobili (gli smartphone) e le loro interfacce concepite appositamente per generare dipendenza nell’uso (Flayelle, 2023) di un elevatissimo numero di funzionalità (le app) sono proprio il risultato di un deliberato disegno asservito al soddisfacimento della logica operativa dell’attuale economia digitale “dell’attenzione”: rendere ciascun essere umano agganciato in modo continuo ed in ogni luogo alle esigenze di 1) produzione su vastissima scala di dati con le caratteristiche più diverse possibili e 2) consumo di beni e servizi accelerato da meccanismi di pubblicità invasiva personalizzata abilitata da modelli di ML sottostanti.

In realtà, la ricerca disperata dei dati interessa ormai sia l’essere umano che la natura. Ad esempio, il dispiego di soluzioni di Internet-of-Things (IoT) per misurare quantitativamente comportamenti sociali ed evoluzioni ecologiche sul nostro pianeta è la concreta dimostrazione di quell’attitudine, tipica di questa epoca storica, a “matematicizzare” ed “ingegnerizzare” ogni aspetto della realtà potenzialmente “efficientabile” e, conseguentemente, monetizzabile economicamente. E’ l’esatto mantra della società ipertecnologica e tecnocratica che è al contempo risultato e causa del moderno capitalismo digitale e che richiede, anzi esige, il finanziamento ed il completamento rapido di transizioni sempre più guidate dall’adozione di strumenti artificiali ed orientate ad un uso accentuato di questi (es. transizione digitale, transizione ecologica).

“Drogare” la società con il mantra di una tecnologia che debba essere “sempre di più, ovunque, in ogni momento e ad ogni costo” in quanto infallibile ed intrinsecamente benefica per umanità e pianeta è reso possibile, in larga misura, da un’assenza di atteggiamento critico e di riflessioni informate e consapevoli da parte della maggioranza delle persone riguardo alle proposte avanzate dal moderno capitalismo tecnologico.
Ci riferiamo a riflessioni che potrebbero voler considerare intanto l’intrinseca fallibilità di tecnologie a cui ormai si attribuisce un ruolo sempre salvifico e “di oracolo veritiero”, specie ora che si ritiene superficialmente (ed erroneamente come visto nella prima sezione di questo lavoro) che gli attuali progressi di AI siano in grado di effettuare ragionamenti in maniera umana.
E ci riferiamo anche a riflessioni sul valore di un continuo esercizio proprio del nostro intelletto umano, difettoso, inadeguato di fronte a molte delle operazioni divenute rilevanti in questa modernità, ma sempre capace di trovare creativamente spunti e soluzioni, proprio in virtù, invece, di una capacità di ragionare vera e propria. Ci riferiamo, infine, a riflessioni sul nostro rapporto con la natura madre, sempre più attenuato e viziato proprio dalla presenza crescente di un’artificialità prepotente.

Da tecnologi di lungo corso, non neghiamo il valore del progresso che scienza ed ingegneria apportano all’umanità.
Da persone consapevoli della non neutralità delle tecnologie in un sistema di produzione di valore economico di tipo capitalistico che le partorisce per interessi e potere ed essendo da sempre interessati agli impatti ad ampio spettro che le soluzioni tecniche hanno su essere umano e natura, abbiamo avanzato nella precedente sezione alcune idee proprio per ricontestualizzare le moderne e potenti soluzioni di ML e GenAI oggi esistenti e destinarle a obiettivi diversi da quelli dei grandi capitalisti digitali di oggi. Tuttavia, abbiamo risposto a tecnologia con più tecnologia.

Ed ecco dunque che, invece, anche alla luce delle precedenti considerazioni, in questa sezione vogliamo concludere questo lavoro domandandoci (e domandando al lettore) se una filosofia di decrescita moderna non possa aiutare davvero a riconcettualizzare e perseguire un nuovo futuro tecnologicamente consapevole. Una nuova interpretazione della modernità in cui:

  • -si proceda ad una progressiva decolonizzazione dell’immaginario “ultra tecnologizzato” attraverso processi di educazione critica e formazione multidisciplinare mirati a ragionare su quali e come debbano essere tecnologie “umane” (CHT11), inclusive e di pace, e non di profitto, divisive e di guerra;
  • -ogni nuova soluzione tecnologica, anche guidata dagli attuali modelli informatici di ML e GenAI e dalle future incarnazioni che verranno, sia sempre sottoposta al vaglio critico di ciascun individuo secondo un’analisi rischi-benefici informata, completa e multifattoriale;
  • -in assenza di AGI, si ridimensioni l’adozione di modelli di ML e GenAI in ogni dominio reale possibile, ricordandone sempre la natura intrinsecamente non deterministica e favorendo solo ambiti più “stabili statisticamente” (es. scientifici e tecnologici) rispetto ad ambiti meno regolari e più soggetti a cambiamenti inattesi (es. umani, sociali, culturali, politici), portatori di pericolosi fenomeni come la “deriva concettuale” (concept drift)12;
  • -ogni individuo sia posto, democraticamente, nelle condizioni di acquisire maggior consapevolezza possibile in maniera olistica (considerando sia utopia che distopia) di cosa sia e cosa comporti per le società contemporanee e future l’approccio del moderno capitalismo digitale targato ML, inventato e gestito da poche singole entità private per favorire e tutelare solo i propri interessi di potere;
  • -si comprenda bene (e si insegni) l’esigenza di una ragionevole “disintossicazione digitale”: scelta critica, e non viziata da sole esigenze di comodità, praticità e consumo, di applicazioni e servizi informatici utilizzabili su sistemi di calcolo fissi e mobili; disconnessione programmata, ma completa, da servizi/sistemi automatici di produzione, raccolta e processamento dati e, ancora, spegnimento totale, opportunamente schedulato su base periodica (settimanale, quotidiana, oraria), di ogni macchina di calcolo individuale (i.e. telefoni, smartphone, PC); in altre parole, si scopra e si conferisca un valore alla riduzione drastica, considerando la scala, della domanda di tecnologia consumer (quella destinata agli individui) targata Big Tech e si cerchino soluzioni informatiche alternative sviluppate e rese disponibili da comunità indipendenti ed in ambiti antagonisti (es. movimenti open-source, paradigmi emergenti come il Decentralized Web13), esercitando una “frizione” nei confronti del sistema di capitalismo digitale attuale (Zuboff, 2019);
  • -si proceda ad una progressiva ricalibratura del ruolo che le tecnologie avanzate di processamento dati debbano avere in un futuro in cui essere umano e pianeta restino sempre “centrali”; e si faccia in modo che questa ricalibratura non possa che essere guidata da informate, dibattute, partecipate scelte pubbliche implementate da una lenta, ma seria, governance pubblica, non esclusivamente privata e legata solo all’interesse dei grandi capitali, ma a quella degli individui e dei popoli;
  • -si torni infine a riflettere in modo profondo e consapevole sulla necessità autentica e sul valore benefico per l’essere umano di un “misto equilibrato” che combini impieghi ragionevoli, mirati e limitati di tecnologia avanzata ed innovativa con immersioni frequenti, totali e senza mediazioni di macchine e dispositivi nella natura più selvaggia (Thoreau, Huxley, Foster).

Riferimenti bibliografici

Bengio, Y. et al., 2024, International scientific report on the safety of advanced AI: interim report, DSIT research paper series number 2024/009, pdf
Bertelè, U., 2024, Big tech, pioggia di soldi sull’AI e tanta paura della bolla, Agenda Digitale, https://www.agendadigitale.eu/
Carnevali, Cristina e Fratello, Germana e Perrotta, Mimmo 2022, Dialogo tra una hacker e una contadina in: Gli Asini Rivista.
CEREBRAS, 2023, Andromeda, https://www.cerebras.net/andromeda/
CEREBRAS, 2024, Condor Galaxy 1, https://www.cerebras.net/
Esposito, E., 2022, The Future of Prediction: From Statistical Uncertainty to Algorithmic Forecasts, Artificial Communication, MIT Press, Published on Jun 22, 2022
Flayelle, M. et al., 2023, A taxonomy of technology design features that promote potentially addictive online behaviours, Nat Rev Psychol 2, 136–150 (2023), https://doi.org/
Gardizy, A. e Ma, W., 2023, Microsoft Readies AI Chip as Machine Learning Costs Surge, 2023, https://www.theinformation.com/
Gekhman, Z. et al., 2024, Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations?, arXiv preprint arXiv:2405.05904, 2024
Gopnik, A. et al., 2007, Causal learning: Psychology, philosophy,and computation, Oxford University Press, 2007
Huyen, C., 2023, RLHF: Reinforcement Learning from Human Feedbackhttps://huyenchip.com/2023/05/02/rlhf.html
Illich, I., 1973, Tools for Conviviality, 1973, Harper and Row publishing, ISBN 9780714509730
LeCun, Y., 2022, A path towards autonomous machine intelligence, Version 0.9.2, 2022-06-27(2022), https://openreview.net/
MarketCap, 2024, https://en.wikipedia.org/
Milani, C., Fant, D., 2022 – Tecnologie conviviali, Eleuthera edizioni. https://www.eleuthera.it/
Mitchell, M., 2023, AI’s challenge of understanding the world, Science 382, eadm8175 (2023), https://doi.org/10.1126/science.adm8175
Mumford, L., 1967, The Myth of the Machine – Technics and Human Development, 1967, Harcourt Brace Jovanovich publishing, ISBN 0-15-163973-6
Newell, A. e Simon, H. A., 1976, Computer Science as Empirical Inquiry: Symbols and Search, Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022
INVIDIA, 2023, DGX GH200 AI Supercomputer, https://nvidianews.nvidia.com/
Pearl, J., 2009, Causality: Models, Reasoning, and Inference, Cambridge University Press, 2 edition, 2009. ISBN 9780521895606
Pearl, J., 2018, Theoretical impediments to machine learning with seven sparks from the causal revolution, arXiv preprint arXiv:1801.04016, 2018
Richens, J., Everitt, T., 2024, Robust agents learn causal world models, arXiv preprint arXiv:2402.10877, 2024
Russell, S. e Norvig, P., 2020, Artificial Intelligence: A Modern Approach, 4th Global ed., Pearson, 2020. ISBN 978-0134610993, http://aima.cs.berkeley.edu/
Schultz, M. et al., 2024, Digital ethicswashing: a systematic review and a process-perception-outcome framework, AI and Ethics, March 2024, https://doi.org/
Seger, E. et al., 2023, Open-Sourcing Highly Capable Foundation Models: An evaluation of risks, benefits, and alternative methods for pursuing open-source objectives, arXiv preprint arXiv:2311.09227, 2023
Sloman, S. e Lagnado, D., 2015 Causality in thought, Annual review of psychology, 66:223–247, 2015
Statista, 2024, Data growth wordwide 2010-2025https://www.statista.com
Stiegler, B., 2019, La società automatica, Editore Meltemi, 2019, ISBN 8855190490, 9788855190497
Tafani, D., 2023, L’etica dell’intelligenza artificiale? Perché è solo uno specchietto per le allodole, Agenda Digitale, https://www.agendadigitale.eu/
Veliz, C. et al., 2021, The Oxford Handbook of Digital Ethics, Oxford University Press, https://doi.org/
Weijia Xu, W. et al., 2023, Understanding and Detecting Hallucinations in Neural Machine Translation via Model Introspection, Transactions of the Association for Computational Linguistics, 11:546–564.
Zuboff, S., 2019, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York, Public Affairs, ISBN 978-1610395694, https://en.wikipedia.org/


Note

1 Il termine “Machine Learning”, coniato nel 1959 da Arthur Samuel, indica solo quel particolare settore dell’Intelligenza Artificiale, disciplina assai più ampia (Russell & Norvig, 2020), che riguarda lo studio, lo sviluppo e l’impiego di algoritmi in grado di “imparare”, attraverso ottimizzazioni matematiche, modelli statistici da dati di addestramento. Tali modelli sono in grado di effettuare efficacemente in modo automatico (i.e. senza esplicite istruzioni) inferenze e previsioni su dati mai visti prima (e compatibili statisticamente con i dati di addestramento) grazie ad una capacità, perfezionabile secondo necessità, nota con il termine di “generalizzazione”. Ulteriore ed attualmente rilevantissima parte del ML è il cosiddetto “Deep Learning”, in cui i modelli statistici automatici sono il risultato dell’addestramento di reti neurali, strutture informatiche capaci di eseguire complesse operazioni “non lineari” su rappresentazioni dei dati in formati ad-hoc detti “tensoriali”.
2 LLMs come ChatGPT, GPT4 e simili acquisiscono la base delle odierne ragguardevoli capacità di generazione linguistica umana in seguito ad una prima fase (detta di preaddestramento) in cui vengono eseguite, al 2024, dalle 1023 alle 1025 operazioni macchina (dette “flops”) su corpora di testo costituiti ormai da decine di migliaia di miliardi di parole (o parti di esse) in totale.
3 Calcolo e dati crescono esponenzialmente (OpenAI, 2018), (Statista, 2024). Le potenze di calcolo di singoli supercalcolatori per AI e ML sono oggi nell’ordine degli exaflops (NVIDIA, 2023), (CEREBRAS, 2023), (CEREBRAS, 2024), ossia 1018 operazioni macchina al secondo . Reti e “cloud” di questi calcolatori consentono di completare le operazioni di addestramento degli LLMs di cui alla precedente nota in un tempo che oscilla tra settimane e mesi. I dati prodotti ogni anno complessivamente nel mondo sono nell’ordine delle centinaia di zettabyte (1 ZB = 1021 byte, o un miliardo di terabyte, o un milione di petabyte) destinati a divenire yottabyte (1 YB = 1024 byte, mille zettabyte, mille miliardi di terabyte) entro il 2030. L’“hard disk” di un potente laptop attuale ha una capacità che va da mezzo ad un terabyte.
4 Mitigata ormai, per fortuna, da progressive acquisizioni di consapevolezza e conseguenti interventi legislativi a livello nazionale e sovranazionale (es. sono già approvati ed in vigore in Europa regolamenti molto articolati ed approfonditi come il Digital Services Act, il Digital Markets Act, e l’AI Act e simili iniziative sono attese ovunque nel mondo).
5 Trattasi essenzialmente di testi impeccabili ed ineccepibili sul piano linguistico, ma semanticamente del tutto incoerenti, privi di senso, non adeguati al contesto ed al significato di una domanda, di una richiesta, di una considerazione.
6 Capitalizzazioni di mercato trilionarie (MarketCap, 2024), fatturati nell’ordine delle centinaia di miliardi di dollari.
7 Nell’ordine delle centinaia di miliardi di dollari all’anno, al 2024 (Bertelè, 2024)
8 Dall’inglese “data lakes”.
9 Esistono numerose esperienze di reti autonome territoriali che utilizzano una struttura a maglia (mesh) per collegare diversi nodi locali tra loro creando reti con servizi autogestiti per il territorio e che possono all’occorrenza fornire accesso a Internet in aree remote o scarsamente servite da altre forme di connettività (Carnevali, 2022).
10 https://huggingface.co/
11 https://www.humanetech.com/
12 In ML, un elemento chiave che impatta sulle performance di un modello stocastico è quello legato alle proprietà statistiche, come la distribuzione di probabilità, dei dati effettivi. Se queste proprietà si discostano dalle omologhe del set di dati di addestramento del modello, le stime apprese potrebbero non essere più valide sui dati effettivi. Questo fenomeno prende il nome di “deriva concettuale” (concept drift) del modello.
13 https://en.wikipedia.org/wiki/Decentralized_web

sostieni periscopio

Sostieni periscopio!

tag:

Scelto da Periscopio

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *



Chi volesse chiedere informazioni sul nuovo progetto editoriale, può scrivere a: direttore@periscopionline.it