Non molestate l’intelligenza (artificiale)
Le nuove e mirabolanti funzioni promesse dalle intelligenze artificiali non devono farci perdere di vista la «responsabilità», innanzitutto nell’applicare il principio del dubbio e del controllo delle fonti, ma anche nel chiederci se davvero è necessario utilizzare l’AI per generare dei contenuti che tutto sommato potremmo – magari con maggiore soddisfazione – produrre autonomamente.
Fare le domande giuste
Nel 2025 OpenAI, l’azienda proprietaria del più famoso motore di intelligenza artificiale, ha rilasciato la versione 4.5 del suo ChatGPT, che promette meraviglie, e Meta – azienda proprietaria di Instagram, Facebook e Whatsapp – dichiara che la sua AI è in grado di rilevare l’attività cerebrale e convertirla in testo; il chatbot dell’azienda di Mark Zuckerberg è stato peraltro integrato anche su Whatsapp, con risultati almeno inizialmente sconcertanti e alcune conversazioni surreali.
Il nuovo motore di generazione immagini di OpenAI (il GPT-4o, che ha sostituito DALL-E) dispone inoltre da qualche giorno di nuove e strabilianti funzioni, che promettono un salto di qualità nel realismo e nella semplicità di fruizione del prodotto. Tra l’altro, proprio questo nuovo generatore di immagini, appena rilasciato, è stato utilizzato da così tanti utenti – e, fa strano dirlo, da molti politici anche italiani – per trasformare foto personali in illustrazioni che ricalcano l’estetica del maestro Miyazaki (il creatore di capolavori dell’animazione come La città incantata e Il castello errante di Howl), da divenire la probabile causa dell’inaccessibilità del servizio registrata il 31 marzo e della successiva sospensione della funzione, anche a causa delle implicazioni di copyright, da parte di OpenAI.
Per ottenere dei risultati accettabili, in ogni caso, bisogna fare le domande giuste, o il vostro avatar in stile fumetto classico giapponese vi invecchierà molto più di quanto sperate.
Esercitare il dubbio
Il concetto di AI non è affatto nuovo: il termine sarebbe stato utilizzato per la prima volta in un documento informale noto come Proposta di Dartmouth redatto da alcuni informatici nel 1955, cinque anni dopo la pubblicazione del famoso articolo di Alan Turing Computing Machinery and intelligence, che scoperchiava la teoria del cervello meccanico, o dell’Imitation Game (la domanda era: le macchine possono pensare? E soprattutto la conclusione suonava più o meno come: «se le macchine possono essere scambiate per esseri pensanti, allora pensano». Se qualcuno volesse saperne di più, c’è la biografia di Turing, scritta da Andrew Hodges nel 1983 e ripubblicata dopo l’uscita del film The Imitation Game, con Benedict Cumberbatch, che ne parla), ma il primo «robot positronico», cioè con un cervello pensante autonomo e in grado di prendere decisioni, creato da quel genio di Isaac Asimov data addirittura al 1940 (era Robbie, capostipite di quegli automi intelligenti che obbediscono alle tre leggi della robotica e hanno interpretato, consapevolmente o meno, il nostro immaginario fantascientifico per lunghissimo tempo).
Dai primi anni dieci del secolo corrente l’AI è ormai una realtà che sta cambiando molti dei modi di fare le cose, non tutti voluti: l’uso, in editoria e in comunicazione, può essere prezioso e apre interessanti interrogativi, dei quali si discute molto e spesso con un certo timore, legato per lo più all’alimentazione delle intelligenze artificiali e ai rischi di un uso non controllato dei contenuti originali.
L’AI è un supporto validissimo per costruire le basi di una nuova campagna, dai loghi ai testi delle cartelle stampa ai contenuti per i social, o per tradurre rapidamente in immagini delle idee, così come in editoria può servir bene al paratesto, dalla generazione della base dei testi per i risvolti alle grafiche di copertina, solo per fare degli esempi; ma va «aiutata», anche per evitare i rischi – piuttosto alti – di fraintendimento.
Quelli generati dall’AI finiscono spesso per essere contenuti a basso valore aggiunto, che ci permettono, almeno apparentemente, di risparmiare tempo, dalla faticosa costruzione di una serie di storie per Instagram alla risposta a domande più o meno ricorrenti che a uno sportello «fanno perdere tempo» e che possono trovare risoluzione in un assistente virtuale.
Ma anche una mente raffinata può cadere in errore e, soprattutto, una AI tende ad avere le risposte – e già si parla di «allucinazioni» – anche quando non ha elementi sufficienti, e in qualche caso a inventarle; accadeva terribilmente al supercomputer HAL9000 nel citatissimo Odissea nello spazio, ma è successo nella realtà, e con un certo clamore, ad esempio per alcune sentenze della Cassazione inventate dalla piattaforma e improvvidamente utilizzate in un processo civile alla Sezione Imprese del Tribunale di Firenze.
Il dubbio, in questo caso, e il controllo (umano) delle fonti sono atteggiamenti che – almeno da Cartesio in poi, ma la lezione è decisamente più antica – non si può non avere.
È, come in fondo per molto altro, una questione di responsabilità.
Qualche azienda, come Adobe, che con l’AI e la comunicazione lavora parecchio, ha iniziato anche a rilasciare delle linee guida all’uso dell’AI nelle organizzazioni, inserendo sempre tra i punti di particolare attenzione la «responsabilità» nell’uso della risorsa («Responsible implementation builds responsible innovation»: sembra il mantra di Spiderman, ma è uno dei titoli chiave del report), oltre che il monitoraggio continuo dell’attendibilità delle risposte.
L’ultima domanda
Tornando ad Asimov, un fisico e uno scienziato prestato magistralmente alla scrittura: nel racconto breve L’ultima domanda, pubblicato nel 1956 sulla Rivista «Science Fiction Quarterly», immaginava che il prodigioso Multivac, un cervello elettronico in grado di rispondere praticamente a tutto, a una richiesta particolarmente insidiosa che coinvolge la termodinamica («come sarà possibile salvare l’umanità quando il Sole si spegnerà con tutte le altre stelle?») rispondesse di «non disporre di dati sufficienti per dare una risposta significativa», almeno fino all’istante in cui si svela l’epilogo in un desertificato «fiat lux» (Ne parla Riccardo Luna in un bell’articolo su «La Repubblica»).
Ecco, è una bella dimostrazione di buon senso.
P.S.: Ah già, a proposito: nessuna Intelligenza artificiale è stata (direttamente) molestata per la produzione di questo articolo.
(Continua)