C’è qualcosa di profondamente postmoderno nell’intelligenza artificiale. Non tanto per le sue capacità tecniche, quanto per il modo in cui ridefinisce — o disintegra — i concetti di verità, sapere, autorità. In questo senso, tornare a Jean-François Lyotard oggi non è un esercizio di archeologia filosofica, ma un atto politico e culturale.
Nel suo celebre La condizione postmoderna (1979), Lyotard annunciava la fine delle grandi narrazioni: quei racconti totalizzanti (la Storia, il Progresso, l’Emancipazione, la Ragione) che, per secoli, hanno dato senso e direzione all’Occidente. In loro assenza, il sapere non scompare, ma cambia statuto: non serve più a corroborare un’idea di verità universale, bensì si frammenta, si moltiplica, si specializza. E, soprattutto, si valuta in base alla sua performatività.
In altre parole: è utile? funziona? produce risultati?
Questa, non altre, è la nuova misura del sapere.
L’Intelligenza Artificiale si muove esattamente in questa direzione. Non cerca “verità”, ma soluzioni ottimali. Non racconta, calcola. Non interpreta, prevede. La sua legittimità sociale non si fonda su un principio etico o filosofico, ma sulla sua capacità di fare meglio degli esseri umani: diagnosticare più rapidamente, automatizzare con maggiore efficienza, ottimizzare processi, aumentare produttività. È il trionfo della performatività lyotardiana.
Ma è proprio qui che si apre il problema.
Se il sapere perde il suo carattere narrativo, come ci ricorda Lyotard, smette anche di costruire significato condiviso. Non ci dice più perché fare una cosa, ma solo come farla. L’intelligenza artificiale, se lasciata a se stessa, rischia di diventare lo specchio perfetto di questa deriva: potentissima nell’esecuzione, muta nel senso.
In un mondo dove la verità è una funzione, e l’etica un plugin opzionale, chi decide cosa sia giusto fare?
L’intellettuale come algoritmo
Lyotard denuncia anche un’altra mutazione: quella dell’intellettuale. Nell’epoca moderna, egli era colui che dava voce alla narrazione dominante o la contestava con forza, ma sempre dentro una logica collettiva. Oggi, dice Lyotard, l’intellettuale è sul mercato. Non interpreta il mondo: lo performa. E se l’intellettuale è una funzione, può essere sostituito.
Dovremmo allora chiederci: l’IA sta sostituendo l’intellettuale, o sta semplicemente incarnando il suo nuovo destino postmoderno?
I modelli linguistici, i chatbot, i sistemi di raccomandazione: tutti promettono sapere accessibile, immediato, personalizzato. Ma non sono portatori di una visione del mondo. Non costruiscono una “narrazione”, se non per approssimazione o su commissione. Eppure ci abituiamo, giorno dopo giorno, a delegare loro la mediazione tra noi e il senso delle cose.
L’etica come paralogia
Lyotard, però, non è un apocalittico. Il suo rimedio non è un ritorno nostalgico alla verità perduta, ma un invito a coltivare la paralogia: la creazione di discorsi nuovi, eccentrici, divergenti. Non l’uniformità, ma la molteplicità dei linguaggi. È qui, forse, che possiamo trovare un’etica per l’intelligenza artificiale: non nei codici di condotta scritti in fretta per placare l’opinione pubblica, ma nella capacità di promuovere sistemi aperti, critici, capaci di generare domande e non solo risposte.
Serve un’IA che non solo funzioni, ma disturbi. Che non solo confermi ciò che sappiamo, ma ci sorprenda. Un’IA paralogica, per usare le parole di Lyotard, che alimenti la differenza anziché ridurla a margine di errore.
L’efficienza non basta
L’etica dell’IA non può ridursi alla sua efficienza. Deve recuperare un elemento di narrazione, o meglio, di pluralità di narrazioni. In un mondo dove la conoscenza rischia di diventare una mera funzione del profitto, dobbiamo ritrovare il coraggio della differenza, dell’imprevedibile, del non ancora pensato.
In questo senso, Lyotard non è un pensatore del passato. È, paradossalmente, un filosofo dell’algoritmo.
E forse oggi, proprio grazie (o a causa) dell’intelligenza artificiale, dovremmo ascoltarlo più di ieri.