Intelligenze artificiali e inquinamenti naturali
Da prodigi della mente umana a strumenti di tutti i giorni dotati di intelligenze iperconnesse, che eseguono comandi a distanza, i robot fanno ormai parte della nostra vita: ma ogni volta che buttiamo via uno smartphone che ci pare obsoleto o interroghiamo un’intelligenza artificiale anche solo per gioco chiediamoci anche quanto ne vale la pena.
La storia degli automi – intesi come macchine autonome, meccaniche e spesso di forma umanoide – è appassionante, dai giocattoli ellenistici al meccanismo di Antikythera, misterioso per lunghissimo tempo, e ancora più indietro all’ingegnere meccanico Yan Shi del Regno di Zhou (1023-957 a.C.) del Libro del Vuoto Perfetto, fino al cavaliere meccanico di Leonardo, agli automi di Athanasius Kircher e al suonatore di flauto di Jacques de Vaucanson (1737).
Quando nel 1920 lo scrittore cèco Karel Čapek utilizzò il termine ròbot derivandolo dal sostantivo «robota», cioè «lavoro», per identificare gli automi che lavorano servilmente al posto degli operai nel suo dramma distopico R.U.R. (Rossumovi Univerzální Roboti), pensava a esseri costituiti interamente da materia organica e simili all’uomo, che sviluppavano a un certo punto sentimenti umani.
Ma è nella seconda metà del Novecento che il robot, almeno nella nascente fantascienza – un genere che in Italia si affaccia nel 1952, con la mitica rivista «Urania» della Mondadori – diventa pensante per davvero. Del resto anche il famoso articolo in cui Alan Turing – che era convinto che entro il 2000 le macchine sarebbero state in grado di replicare la mente umana – per la prima volta descrive il suo test, data al 1950. Da lì è un susseguirsi di progressi, non sempre lineari, che portano direttamente ai primi anni del nuovo secolo e alla maturazione delle Intelligenze Artificiali, da quelle in grado di disegnare il modello di una proteina alle lavatrici intelligenti, in un crescere di curiosità, entusiasmi, sospetti e paure, da un lato per le possibili sorti progressive, dall’altro per l’uso incontrollato dello strumento e per le implicazioni in termini di proprietà intellettuale.
L’addestramento delle intelligenze artificiali
Qualsiasi modello AI, come un organismo che cresce, ha bisogno di «dati di addestramento» cioè di insiemi di informazioni da apprendere per restituire i risultati richiesti: grandi quantità di dati, dal cui livello di accuratezza dipendono direttamente i risultati, generati da un’attività umana o anche autoprodotti (dati cioè prodotti da un’AI che ne nutrono un’altra).
Al di là della prospettiva, in qualche modo inquietante, e dell’inevitabile pericolo che l’uso dei dati non sia autorizzato dai proprietari – si aprono qui ampi dibattiti e gli editori iniziano a poter definire istruzioni specifiche (metadati) che impediscono o consentono alle AI di attingere alle informazioni contenute nelle pubblicazioni; per quanto moltissimi dei dati di base, non ci si crede, provengano dalle sentenze e dai documenti pubblici delle Istituzioni, in testa quelle europee, che per trasparenza le rendono disponibili in varie lingue – c’è da tener conto dei possibili «inquinamenti», neanche tanto metaforici che, come ricordava Fausto Colombo nel bel volumetto sull’Ecologia dei media, finiscono per avere conseguenze spesso drammatiche sulla convivenza sociale.
Inquinamento territoriale
Il primo è l’inquinamento fisico, inteso come sfruttamento incontrollato di risorse: è quello causato più intuibilmente dalla nuova industria, che ha spostato i cimiteri di macchine sempre più preziose in zone del mondo in cui le norme sull’inquinamento ambientale sono più lasche ed è più facile utilizzare della mano d’opera a basso costo per il recupero dei materiali (in un personal computer ci sono minerali rari e metalli preziosi, in una percentuale che va dal 2 al 4%, che una volta usati sono difficili da smaltire, riestrarre e riutilizzare; è meno costoso buttar via uno smartphone e costruirne uno da zero che riutilizzare il materiale del primo per assemblare il secondo), ma è anche quello della manodopera – sempre a basso costo – che viene utilizzata per il data entry di base, cioè per la classificazione delle immagini e la pulizia dei testi in modo che siano leggibili dall’algoritmo, che serve ad alimentare il database di un’intelligenza artificiale. Il che spiega peraltro alcuni dei risultati più paradossali e qualcuno dei fraintendimenti nella generazione delle immagini: noi chiediamo di generare un albero, e il modello genera un baobab, che nell’aspetto è abbastanza diverso dalla nostra rappresentazione ideale.
Inquinamento mentale
Il secondo tipo di inquinamento è meno diretto; utilizzare una AI è (apparentemente) facile, e permette di ottenere in breve dei prodotti che richiederebbero diversamente un certo impegno e fatica: il riassunto di un paper, l’abstract di un libro, la generazione di slides da un testo, eccetera. La tentazione è forte; ma, per fare un esempio, i docenti che generano slides e testi con l’AI per illustrare le loro lezioni non devono stupirsi se i loro studenti poi utilizzeranno la stessa scorciatoia per fare i compiti.
Il pericolo, da certi punti di vista, è più che altro che se chiediamo all’AI di fare una parte o tutto il lavoro per noi e se la stessa logica viene usata dai nostri fruitori per riassumere ciò che la nostra AI ha generato, la nostra capacità di generazione o peggio di comprensione di un testo o di un contenuto diminuisca progressivamente e che infine il fruitore – il lettore umano – finisca sottilmente, tragicamente, per scomparire.
L’inquinamento digitale
E poi c’è da tenere in conto l’inquinamento digitale.
Subdolo, difficile da materializzare o da quantificare, al quale spesso non si pensa o non si fa caso. In un certo senso, la responsabilità (civile) andrebbe applicata fin dal principio, nel momento stesso in cui ci si dovrebbe chiedere se è il caso di generare un contenuto con l’aiuto dell’AI, se cioè è veramente necessario utilizzare una piattaforma che, come altre, è altamente energivora.
È una domanda cui i chatbot rispondono evasivamente, ma alcuni studi iniziano a tenere in considerazione l’argomento: fare una richiesta all’AI di Google, per esempio, costerebbe in termini energetici circa 30 volte di più che interrogare il corrispondente motore di ricerca tradizionale; la generazione di un’immagine, anche per gioco, richiederebbe energia sufficiente ad alimentare un computer portatile per circa 20 ore.
L’efficienza è aumentata negli ultimi anni, ma anche dal punto di vista di consumo dell’acqua (perché le AI “bevono”: cioè consumano in grandi quantità l’acqua necessaria al raffreddamento dei data center giganti che le contengono) ogni volta che generiamo un’immagine o scriviamo una query possiamo chiederci se vale la pena impiegare (o sprecare) quel prezioso mezzo litro di liquido che l’AI richiede per generare una risposta.