La popolarità del software ChatGPT è un’occasione per entrare nel merito di una problematica che segnerà gli scenari del XXI secolo in molti ambiti della nostra vita – ovvero il crescente sviluppo di dispositivi intelligenti che svolgono autonomamente compiti prima appannaggio dei soli esseri umani, intervenendo in contesti sensibili per il loro valore economico, sociale e culturale.
Da un punto di vista storico è tempo che discutere di Intelligenza Artificiale (IA) non è più considerato come area riservata solo a una certa élite professionalizzata. A partire dagli anni Duemila – con il crescente coinvolgimento delle persone negli ambiti tecnologici e culturali della rete internet – l’argomento è iniziato a circolare, affascinare o inquietare fasce di popolazione crescenti.
L’ibridazione umana nella rete
La ragione potrebbe essere nel fatto che in quel periodo iniziavamo a interrogarci sull’ibridazioni che stavamo subendo innestandoci con le tecnologie e le pratiche digitali della rete. In questa fusione, infatti, sentivamo che si attivava uno scambio tra un “aumento” delle nostre possibilità di azione e la delega di alcune delle nostre abilità ai dispositivi informatici messi in campo.
Dove iniziava e dove finiva la capacità di comprendere e comunicare che pensavamo uniche dell’essere umano una volta che ci siamo fatti corpo con questi artefatti?
La crescente intimità prodotta per via algoritmica sarebbe stata la base per produrre macchine in grado poi di sostituirci in compiti più complessi richiedenti intelligenza e sensibilità? Avremmo potuto contare su partner – robot, software – in grado di aiutarci nei compiti fisici o nelle analisi di fenomeni altamente complessi?
Se andiamo a vedere le ricerche del termine Artificial Intelligence sul motore di ricerca di Google – con dati che partono dall’anno 2004 – abbiamo modo di vedere come intorno a quegli anni vi sia un alto grado di interesse, che è andato poi scemando nel tempo per ricrescere e avere una violenta impennata proprio agli inizi dell’anno corrente. Il 2023 non è certo casuale: anche la chiave di ricerca chatGPT si innalza alla massima vetta in questo frangente.
L’arrivo di ChatGPT al grande pubblico
In effetti, il prodotto ChatGPT – un software NLP (Natural Language Process, dove naturale nel mondo IA sta per umano) – messo in rete e lanciato al grande pubblico in grande stile e grancassa da parte di Microsoft in partnership con OpenAI, l’azienda ideatrice del modello generativo, diventata ormai un think tank operativo del colosso informatico – ha destato una meraviglia universale per il suo modo di usare il linguaggio naturale per i compiti più vari: costruire chatbot in grado di comprendere e rispondere a input in linguaggio umano, completare e suggerire del testo, generare contenuti scritti, tradurre automaticamente, analizzare il sentiment, fare riassunti, classificare testi – a queste funzioni se ne aggiungono via via altre quali l’interpretazione o la creazione di immagini e le interpolazioni con la voce (wikipedia).
Sull’onda della sua popolarità, assistiamo a un continuo proliferare di articoli stampa che si interrogano su questa svolta e sulle ripercussioni che tali capacità – di comprendere, intessere dialoghi e produrre testi appropriati in diversi campi del sapere e del lavoro – avranno.
Meraviglia e critiche
Ovviamente, come spesso accade quando si vede realizzarsi concretamente un qualcosa che si era solo teorizzato o sembrava ancora lontano, a prevalere sono – oltre alla meraviglia – le preoccupazioni e le difficoltà ad affrontarle, comprese le critiche verso alcune uscite improvvide trovate nei testi in risposta a certe domande – accuse di razzismo, fake news, pregiudizi stereotipali, lesione della privacy, ma anche più generali, come le violazioni del diritto d’autore.

In effetti, come è noto, gli attuali software di IA (machine learning) sono addestrati con enormi mole di dati da cui apprendere e, in questo caso, essi provengono al 60% da tutte le pagine del web, al 22% da post presenti sul social network reddit selezionati per il loro alto contenuto qualitativo, al 16% da due diverse banche dati contenenti pubblicazione librarie e al 3% dai testi di Wikipedia.
I software di IA quindi riutilizzano i materiali trattati così come ne introiettano i pregiudizi di cui si è in qualche modo alimentato, compresi i casi di fraintendimento di cui diventa autore data l’intrinseca ambiguità del linguaggio, fenomeni noti e criticati a cui le aziende creatrici di prodotti IA provano a fare fronte filtrando in anticipo temi “sensibili” o procedendo, a ritroso, a correggerne con qualche artificio le derive – definite in gergo “linguaggio tossico” o anche “allucinazioni”.
La decostruzione della mitologia sull’IA
La cosa utile in questo interesse popolare e nella pubblicazione dei tanti articoli è senza dubbio la decostruzione della mitologia che si era creata attorno all’IA intesa come idea forte di riproduzione della intelligenza umana e finanche della sua coscienza grazie a processi computazionali che fossero capaci di replicarne perfettamente i meccanismi biologici, idee che troviamo spesso in tanti film.
Entrando nel merito di ChatGPT diventa chiaro come l’IA che funziona è invece ottenuta cercando di replicare gli esiti di un’azione che intendiamo come intelligente, senza doverci preoccupare di sapere come un cervello umano arrivi allo stesso risultato – cosa su cui, dal punto di vista neuroscientifico, sappiamo tra l’altro molto poco.
La cosiddetta IA debole o riproduttiva (degli esiti di un’azione intelligente) è dunque un’opera di ingegnerizzazione, di problem solving ottenuta tramite l’utilizzo di mole enormi di dati e grandi risorse computazionali e di memorizzazione. Essa, come tutti gli artefatti ingegneristici di una certa complessità, è sottoposta a strategie scientifiche/commerciali, vincoli di budget, capacità progettuali e operative, paradigmi sociali e culturali. Insomma, per creare algoritmi IA complessi è necessario implementare una organizzazione e muovere un lavoro umano enorme – in questo senso, nella sua facitura vi è poco di un cosiddetto apprendimento autonomo ma tanta cura per guidare e monitorare la qualità e quantità dei passaggi in cui si realizza.
Detto ciò, risulta evidente come una società interessata alle proprie condizioni di vita e alle proprie evoluzioni è obbligata a valutare tutti questi aspetti progettuali e di prodotto – soprattutto quelli più controversi – anche perché essi plasmano dei prodotti che diventano soggetti che agiscono e partecipano nella nostra società e cultura – nel caso di ChatGPT come partner dialogico utile per esperire una moltitudine di compiti, spesso in campi molto delicati come quello della conoscenza e della comunicazione.
Intelligenza o comunicazione artificiale?
Era questa in fondo l’idea che, in una recente ricognizione sull’IA, la sociologa Elena Esposito, allieva e studiosa delle teorie della complessità sulle orme di Niklas Luhmann, avanzava avvertendoci che
tutti questi programmi non riproducono l’intelligenza ma la competenza comunicativa. Ciò che rende gli algoritmi socialmente rilevanti e utili è la loro capacità di fungere da partner in pratiche comunicative che producono e fanno circolare le informazioni, indipendentemente dalla loro intelligenza. Potremmo dire che i programmi di machine learning realizzano non un intelligenza artificiale ma una sorta di comunicazione artificiale, fornendo agli esseri umani informazioni impreviste e imprevedibili? Forse la nostra società nel suo complesso sta diventando “più intelligente” non perché riproduce artificialmente l’intelligenza, ma perché ha creato una nuova forma di comunicazione che utilizza i dati in modo diverso (Esposito, 2022, p. 22).
In ogni caso, la prima considerazione da fare è che ci ritroviamo in ambienti sociali avviluppati e declinati per favorire dei reciproci scambi comunicativi attraverso tecnologie rice-trasmissive e computazionali di cui miliardi di persone e cose sono singolarmente bardate, e in essi svolgiamo sempre più attività connessi in rete.
In queste condizioni l’ideazione e la progettazione dei nuove artefatti intelligenti – ovvero macchine in grado di compiere azioni complesse una volta concepibili solo come il prodotto di agenti umani – prolifereranno, anche perché utili ad ampliare la nostra conoscenza tramite l’analisi e le correlazioni individuabili nell’oceano dei dati generati – cosa altrimenti impossibile da ottenere per la quantità delle combinazioni in esso presenti.
Il sezionamento della realtà e l’assalto dei prodotti di IA
Da questo punto di vista, la nostra realtà si presta a essere selettivamente ma massivamente sezionata da qualche genere di interesse per sviluppare qualche sorta di operatore intelligente.
In effetti ogni macchina intelligente può essere rappresentata (in astratto) come costituita da un “agente” – l’azione funzionale in atto – un “ambiente” – la sezione di realtà su cui agisce – una “relazione agente-ambiente” – il sistema di scambio informativo tra agente e ambiente e l’elaborazione, sulla base delle informazioni scambiate, delle risposte funzionali da mettere in atto.
Va chiarito che queste macchine riescono ad agire solo in un contesto chiuso in cui si opera razionalmente con entità numeriche e quindi seguendo logiche matematiche di natura deterministica o – più probabilmente con la ricchezza dei big data, statistica – ovvero di natura induttiva, con azioni giudicate giuste con la massima probabilità ottenibile in base alla numerosità dei casi “appresi”.
I big data – informazioni sempre più esaustive disponibili su tanti fenomeni/attività – e la potenza computazionale e di memorizzazione di cui ci siamo dotati per supportare le nostre vite online sono gli elementi ormai a noi comuni che consentono a tali macchine di diventare così sagaci.

Esse vengono modellate in architetture computazionali che richiamano e simulano le reti neurali umane ma che sono organizzate in strati intricati (ed esageratamente numerosi) di punti di accensione o spegnimento (1 e 0) che – sulla base delle tante peculiarità fenomeniche e negli innumerevoli passaggi delle fasi di addestramento – vengono finemente ponderati per ottenere degli algoritmi efficaci nel fornire risposte “altamente probabili”.
In definitiva
sulla base dei dati la macchina – avendo ricevuto dall’uomo un modello o un insieme di modelli logici-matematici di partenza – mette in campo tutto ciò che può in termini di capacità computazionale e di memoria per risolvere specifici problemi e formulare decisioni in modo sempre più indipendente dall’intervento umano(D’Acquisto, 2021).
La complessità strutturale dei modelli IA
Il controcanto di queste potenti strategie di modellizzazione è la complessità costruttiva – si pensi che per ChatGPT versione 3 si parla di un modello algoritmico con una capacità di “175 miliardi di parametri di apprendimento automatico” (wikipedia, 2023).
I modelli che vengono fuori da tali procedure, a differenza degli algoritmi programmati tradizionalmente tramite linguaggi simbolici, risultano non facilmente comprensibili nei vari passaggi. Essi derivano da un approccio definito “subsimbolico” risultando criptici agli stessi ricercatori del campo – nel gergo si dice che hanno problemi di “esplicabilità”.
Gli approcci subsimbolici all’IA hanno tratto ispirazione dalla neuroscienza e cercato di cogliere i processi mentali, talvolta inconsapevoli, su cui si fonda quella che alcuni hanno chiamato percezione rapida, come riconoscere volti o identificare parole pronunciate. Tali programmi non contengono il tipo di linguaggio comprensibili degli esseri umani e sono in genere sequenze di equazioni, un groviglio di operazioni numeriche spesso difficili da intepretare, sistemi concepiti per imparare dai dati come svolgere un compito (Mitchell, 2022).
Quando i modelli di IA diventano altamente complessi, come nel caso di ChatGPT, non solo spesso ci sono problemi nel descriverne i passaggi funzionali – spiegare a qualcuno cosa si sta facendo – ma vi sono anche casi in cui le macchine correlano aspetti per noi ignoti, come può accadere nel caso del riconoscimento automatico dei contenuti di immagini, dove gli algoritmi incorrono frequentemente in errori o possono, al contempo, essere appositamente ingannati.
È un fenomeno comunemente osservato nel machine learning. La macchina impara ciò che osserva lei nei dati piú che quello che osservate voi (esseri umani). Se nei dati di addestramento sono presenti delle associazioni statistiche con altri oggetti o attributi dell’immagine – persino se sono irrilevanti nel compito in questione – la macchina imparerà queste associazioni senza problemi, ma non quelle che voi volevate imparasse. Se la macchina è valutata con nuovi dati caratterizzati dalle stesse associazioni statistiche, sembrerà che abbia imparato con successo il compito. Tuttavia può inaspettatamente sbagliare, come fece la rete di Will [uno sperimentatore di IA n.d.r.] con le immagini di animali senza uno sfondo sfocato. Nel gergo del machine learning si dice che la rete di Will è “sovra-adattata” (overfitted) rispetto al proprio insieme di addestramento, e quindi non può applicare correttamente ciò che ha imparato a immagini differenti da quelle su cui è stata addestrata (id.).
Contro i nuovi regimi di verità
La popolarità del tema IA deve quindi spingerci a esaminare criticamente i modi in cui si concretizzano i prodotti tecnologici – strategie, tecniche, attori, interessi – e anche come sono “pregiudizionalmente” o “inconsapevolmente” implementati – ad esempio, non dovrebbero esserci brevetti a fare da schermo a possibili analisi, e le logiche open source dovrebbero essere la regola.
In definitiva, abbiamo bisogno – e in ciò la ricerca sociale e culturale è di fondamentale aiuto – di incrinare le ideologie o le credenze acritiche in cui è facile cadere, attratti dalla necessità di affrontare con efficacia – grazie a tali strumenti – la complessità del mondo e dei nostri problemi.
In effetti, il filosofo francese Eric Sadin nota acutamente come vi sia il rischio di cadere in nuovi “regimi di verità” – egli usa la parole aletheia algoritmica, con aletheia che dal greco indica lo “svelamento”, la “verità” – per il fatto che ci convinciamo che solo essi hanno il potere di cogliere il reale in maniera estremamente precisa (Sadin, 2019). Da notare come – con la crescente centralità del ruolo degli artefatti algoritmici in molti processi sociali – ultimamente si sono coniati diversi neologismi tesi a coglierne gli impatti, ad esempio algocrazia, per il loro peso nella formazione delle opinioni politiche, o algoretica, per i problemi etici che ci pongono.
A questo punto una domanda sorge spontanea. Di fronte ai tanti pericoli ben documentati – ad esempio, la possibilità di creare sistematicamente notizie e documenti convincenti e circolanti su larga scala, ma purtroppo basati su teorie ingannevoli e cospiratrici (Erler, 2023) – come mai prima del lancio Microsoft non si è fermata a parlarne con le autorità che da tempo stanno lavorando su leggi che regolamentino l’uscita di dispositivi IA – vedi l’Artificial Intelligence Act della UE (2021)?
Tra l’altro, ChatGPT è un sistema general purpose utilizzabile per fini buoni ma anche malevoli e agisce trasversalmente, infiltrandosi negli infiniti rivoli della delicata sfera comunicazionale, da cui si comprende anche la sua attuale popolarità.
La lotta delle aziende high-tech per primeggiare nel mercato
In verità, la strategia e il comportamento di Microsoft sono in linea con quanto visto nelle ultime tre decadi della storia di internet e rispondono prevalentemente alle esigenze di successo delle grandi aziende high-tech che, seguendo le logiche vincenti delle economie di scala e delle esternalità di rete vigenti in internet, provano sempre a forzare i tempi di lancio di prodotti innovativi per guadagnare audience. L’attecchimento dei prodotti IA innestati nelle pratiche d’uso dell’utenza – e, parallelamente, a cascata nelle filiere business di altri prodotti – diviene un serbatoio prezioso e difficilmente svuotabile dalla concorrenza.
Nel caso di ChatGPT si aggiunge anche la possibilità di mettere in difficoltà un altro competitore nel settore dei motori di ricerca – Bing.com di Microsoft ha una fetta di mercato insignificante, il 3% contro il 95% di Google, e un’interfaccia così friendly per le persone potrebbe fare la differenza per invertire la tendenza d’uso.
Come si vede, un obiettivo goloso, da perseguire anche al costo di rischiare qualche multa in qualche regione del mondo – che è ciò che più o meno è avvenuto (in pochi casi e con danni risibili rispetto ai profitti assicurati) per punire a posteriori pratiche che si rivelavano dannose per le persone e le comunità.
La eco di questa battaglia – anche Google, restia a scendere in campo per i noti problemi di affidabilità, si è presentata infine sulla scena con l’emulo di ChatGPT, ovvero Bard – è ormai sotto gli occhi di molti, con tutti i problemi del mettere in campo dispositivi capaci di diffondere disinformazione su larga scala e, potenzialmente, in maniera sistemica (Vincent, 2023).
In un lavoro divenuto un testo fondamentale per comprendere le strategie e tattiche portate avanti negli anni da queste aziende per raggiungere comunque i propri obiettivi di business, la studiosa Shoshana Zuboff, autrice del libro Il capitalismo della sorveglianza, indica i passaggi messi pervicacemente in pratica davanti a denuncie di abusi e sfruttamenti (2019).
Incursione, assuefazione, adattamento, reindirizzamento
All’inizio si agisce con una tecnica incursiva per esplorare la realizzazione di servizi in campi indifesi e, di fronte a qualche genere di accusa, si prova ad attribuire gli errori a qualcuno all’interno del gruppo di progetto. Nel frattempo, sfruttando gli immancabili ritardi burocratici dei poteri pubblici, si punta – continuando a portare gli utenti dalla propria parte – sull’assuefazione. Nel momento in cui si è comunque costretti ad apportare delle modifiche – la fase di adattamento – queste si rivelano per lo più superficiali. Se le critiche continuano a perpetuarsi si arriva infine alla fase di reindirizzamento, che prevede un accerchiamento dell’obiettivo, che si proverà ad avvicinare attraverso il lavoro di altre entità con profili meno noti, spesso piccole aziende acquisite ad hoc.
Ora un fattore che certamente ha influenzato questo andazzo è la protezione legale che le imprese nate in rete hanno goduto per essere difese da tutte quelle industrie tradizionali che, per difendere le proprie attività dalla nuova competizione, potevano soffocarle alla nascita – il fatto che gli Internet Service Provider non debbano rispondere dei contenuti presenti in rete perché generati dalle attività degli utilizzatori dei servizi ivi implementati ha consentito di creare innovazione, oltre a estendere e stabilizzare processi e infrastrutture del mondo online.
L’IA nell’ambiguità della responsabilità
Tuttavia, di fronte alla estensione e peso delle attività in rete e dei loro riflessi sociali le varie autorità pubbliche hanno tentato di contrastare questa sorta di mentalità deresponsabilizzante ma agendo comunque caso per caso.
Dal canto loro, le aziende internet hanno provato a recepire queste esigenze implementando i correttivi per lo più con meccanismi algoritmici che, in maniera automatica, mitigano gli effetti degli abusi denunciati, disposti comunque a intervenire manualmente a posteriori.
Si può dire che finora l’azione più sistematica in termini legali è circoscritta alla legge sulla privacy – il cosiddetto GDPR (General data protection regulation) – che prova a frenare l’abuso della raccolta e dell’uso dei dati personali, ed è confinata praticamente alla regione europea.
A questo punto, consideriamo la profondità e l’estensione di informazioni, processi e conoscenze già depositate e che continuiamo ad alimentare in rete, così come alla sua fitta trama di correlazioni, scambi informativi e operativi attivati con l’altra internet, quella delle cose.
È ragionevole lasciare questo immenso patrimonio umano e sociale alla mercé di qualunque opportunismo commerciale che possa essere conseguito attraverso l’implementazione di macchine o software intelligenti liberi di muoversi ambiguamente in termini di responsabilità?
Come ci suggerisce il filosofo Luciano Floridi, uno dei massimi esperti di etica applicata all’IA, questo nuovo genere di dispositivi sono a tutti gli effetti dei nuovi modi di agire all’interno delle comunità con cui dobbiamo sempre di più – e inevitabilmente – convivere.
Tuttavia, al momento risulta un agire scollato da una qualche intenzionalità (in termini di finalità e consapevolezza) come invece avviene – e pretendiamo che debba avvenire – quando ad agire sono gli esseri umani.
Le conseguenze sociali a cui andiamo incontro sono dunque enormi. Ecco perché, come accade nel campo medico, in cui le biotecnologie hanno aperto un ampio campo di possibilità, non tutto ciò che le tecnologie consentono diventa socialmente e moralmente fattibile. Dibattere e legiferare sugli sviluppi dell’IA, come si fa nella medicina con la bioetica – per quanto complesso possa essere elaborare una governance su scala mondiale – è dunque una priorità ineludibile se vogliamo guidarne, e non continuare solo a subirne, i processi (Floridi, 2023).
Riferimenti
D’Acquisto, G., 2021, Intelligenza artificiale. Elementi, Torino, Giappichelli.
Erler, D., 2023, “ChatGpt è sempre più potente. Anche nella capacità di fare disinformazione”, editorialedomani.it.
Esposito, E., 2022, Comunicazione artificiale. Come gli algoritmi producono intelligenza sociale, Milano, Bocconi University Press.
Floridi, L., 2022, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, Cortina Raffaello.
Mitchell, M. 2022, L’intelligenza artificiale. Una guida per esseri umani pensanti, Torino, Einaudi.
Sadin, E., 2019, Critica della ragione artificiale. Una difesa dell’umanità, Roma, Luiss University Press.
Vincent, J., 2023, “Google and Microsoft’s chatbots are already citing one another in a misinformation shitshow”, theverge.com.
Zuboff, S., 2019, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma, Luiss University Press.