Scatola nera, a forma di libro, che emerge da un mare schiumoso

La GenAI? È l’orrendo che affascina

L’intelligenza artificiale generativa ha la sua forma di agency, nonostante la mancanza di intenzionalità. L’energia retorica della macchina catalizza esperienze estetiche all’insegna del sublime. E si offre a noi come sguardo inedito sulle cose del mondo.

Siamo inclini a rifiutare l’idea che la capacità generativa acquisita dall’intelligenza artificiale negli ultimi anni rifletta una qualche forma di creatività. Ogni volta che chiediamo ai grandi modelli multimodali di «creare» un testo, un’immagine o un suono in grado di sollecitare la nostra sensibilità estetica, dall’iniziale turbamento ci solleva la consapevolezza che, in fin dei conti, si tratta di un gioco imitativo. Nulla di autentico, e dunque nulla di cui preoccuparsi. Il nostro primato è salvo, ci diciamo, in quanto i processi macchinici sottostanti all’intelligenza artificiale sono radicalmente diversi da quelli che caratterizzano la creatività umana. Per quanto, poi, in che cosa consista codesta creatività umana non sia affatto chiaro. E per quanto da sempre sappiamo che l’espressione artistica ha anche a che fare con l’imitazione, il gioco combinatorio e la matematica.

Ma, in attesa di capire meglio che cosa sia la creatività, può essere interessante formulare un’ipotesi: gli artefatti della macchina esercitano un loro potere performativo sull’insieme delle nostre strutture sensoriali e dunque posseggono una forza estetica. Quella che segue è appunto una riflessione intorno a tale ipotesi. Mi servirò di due elaborazioni concettuali: da un lato la categoria di agentività, a cui spesso ci si riferisce anche con la corrispondente espressione inglese agency; dall’altro quella di energia retorica, nell’accezione proposta da George Kennedy (1992). In che senso possiamo affermare che l’intelligenza artificiale è dotata di agency e di energia retorica? 

L’agency dell’intelligenza artificiale

Nella teoria sociocognitiva l’agentività è la facoltà umana di agire in un contesto sociale, determinando un cambiamento (Bandura 2006). L’agentività si manifesta come causazione, nel senso che fra azione umana e cambiamento c’è una relazione di causa-effetto: l’una determina l’altro. Ma, in termini sociocognitivi, l’agentività deve soddisfare anche un altro requisito: quello dell’intenzionalità. L’azione nel contesto sociale dà corpo a un obiettivo o a un desiderio, e la sua efficacia consiste nella capacità di produrre non un effetto qualunque, ma quello inteso. Il che non ci deve indurre a confondere l’agentività con il libero arbitrio, dal momento che ogni azione umana è sottoposta a vincoli di vario tipo, non solo di carattere sociale e culturale, ma probabilmente anche biologico, come le scoperte in ambito neuroscientifico ci inducono a ritenere (DE CARO 2011).

D’altra parte, se ci allontaniamo dal campo della sociologia cognitiva, possiamo essere tentati di attribuire un’agentività anche agli esseri viventi non umani (piante e animali) e agli enti che sono animati ma non vivi (siano essi naturali o artificiali). Ma agli uni e agli altri è ben difficile riconoscere un’intenzionalità. Certamente, se esiste un’agentività dei fiori, del vento e della macchina, essa è un’agentività priva di volontà: i fiori non «vogliono» attrarre le api, il vento non «vuole» agitare il mare, la macchina non «vuole» fare tutto quello che fa.

Performatività computazionale: le macchine influenti

Concentriamoci sulla presunta agentività del software. È un punto sul quale non c’è consenso. In passato non è mancato un certo scetticismo a riguardo (Miller 2007), mentre in tempi più recenti alcuni autori si sono schierati a favore dell’ipotesi (per esempio Accoto 2017). Floridi, nello specifico, si riferisce all’agentività dell’intelligenza artificiale generativa, rispetto alla quale parla di «agency without intelligence» (Floridi 2023).

In ogni caso, le tecnologie digitali non hanno il carattere di strumenti neutrali e passivi. Piuttosto, le possiamo intendere come agenti dotati di un’evidente capacità performativa. Può dunque essere interessante interrogarsi su natura, effetti e limiti di tale performatività computazionale. Un lavoro notevole in tale direzione è quello proposto da Miles C. Coleman con il suo Influential Machines (2023). Il punto di partenza consiste nel considerare l’agentività del software e dell’intelligenza artificiale in termini non procedurali, ma piuttosto gesturali. Si tratta di spostare l’analisi dal livello epistemico (riferibile a una conoscenza sulle cose che il software non è in grado di esprimere) a quello ontologico (concernente la relazione che il software instaura con le cose).

La retorica come dimensione extralinguistica della comunicazione

Coleman ricorre al concetto di energia retorica, mutuandolo da Kennedy per spiegare il carattere della performance computazionale. Nel suo lavoro, Kennedy decostruisce il processo storico di «letteraturizzazione» della retorica, nata come abilità persuasiva e trasformatasi nel corso dei secoli in un sistema di governo del linguaggio. Lo studioso americano suggerisce che la retorica possa essere meglio intesa come una forma di energia inerente alla dimensione extralinguistica e non intenzionale della comunicazione. È l’energia fisica consumata dall’agente che attua una performance (in questo senso, potremmo parlare di attante) e percepita dal destinatario del messaggio. Tale energia – osserva Kennedy – si esprime attraverso i corpi, inclusi quelli degli agenti non umani. Essa si manifesta nel pianto con cui il neonato esprime le proprie esigenze e persuade il genitore ad agire per soddisfarle, ma anche nel bramito del cervo in amore, così come nei colori con cui i fiori attirano gli insetti impollinatori.

Coleman fa un passo in più, rispetto a Kennedy, suggerendo che l’energia retorica si manifesti anche negli agenti animati non vivi e dunque, in termini più specifici, nelle macchine computazionali. Se, sul piano ontologico come su quello dell’efficacia, ammettiamo un’attinenza fra l’energia espressa dall’oratore, verso il quale si volgono gli sguardi del pubblico, e la performance del sole, che induce le piante a orientarsi nella sua direzione (eliotropismo), perché non dovremmo riconoscere una simile capacità di orientamento da parte del software?

In definitiva, l’agentività del software potrebbe corrispondere alla sua energia retorica. Coleman richiama diversi esempi di questa retorica computazionale, ossia della forza persuasiva che il software esercita su di noi. L’ambito che qui ci interessa è quello relativo alla capacità delle macchine computazionali di catalizzare esperienze estetiche. Coleman ritiene che tali esperienze siano riconducibili alla categoria del «sublime», il quale si differenza dal «bello» in quanto caratterizzato da una complessa combinazione di gioia e orrore: è il senso di smarrimento che si accompagna al meraviglioso, di cui parla l’anonimo estensore del trattato  Περὶ Ὕψους (Pseudo-Longino 1965), o, in altri termini, l’orrendo che affascina («delightful horror») concettualizzato da Edmund Burke nel 1757 con la sua famosa Philosophical Enquiry (Burke 2014). Il sublime qualifica il piacere provato al cospetto di un oggetto che trascende il nostro controllo e la nostra comprensione.

Il bot censusAmericans e le esperienze immersive di Refik Anadol

Qui si possono richiamare due esempi che vanno in questa direzione.

Il primo esempio è indicato dallo stesso Coleman, nel secondo capitolo del suo libro. Si tratta di censusAmericans, un bot creato da Jia Zhang nel 2015. Il software, scritto in Python, elabora brevi biografie di americani basate sui dati forniti dall’Ufficio del censimento degli Stati Uniti, trasformando i numeri e i codici dei dati in mini-narrazioni. Ogni ora il bot pubblica su Twitter (oggi X) una nuova biografia e continuerà il suo compito in modo automatico fino a quando non arriverà alla fine delle 15.450.265 righe del set di dati (Zhang 2015). «Ci vorranno circa 1.760 anni» suggerisce la stessa autrice del programma, non senza una certa dose di ironia.

Il gioco di Zhang consiste dell’inserire degli estranei nella nostra vita a intervalli regolari, ma anche delle biografie in cui ciascuno di noi può rispecchiarsi, un po’ come accade con gli efitaffi della Spoon River Anthology di Edgar Lee Masters. Siamo nell’ambito dell’esperienza abilitata dal software mediante processi casuali o permutativi. Potremmo parlare di «estetica generativa computazionale» e di «sublime computazionale» (McCormack & Dorin 2001). Per dirla con Coleman, l’esperienza di censusAmericans si nutre di un misto di gratificazione e ansietà, a fronte del carattere aperto e inafferrabile dell’infinito al lavoro, carattere implicito in una performance computazionale in cui il controllo è stato ceduto all’attività generativa della macchina (Coleman cit, p. 51).

Il secondo esempio è sempre inerente al campo della permutazione, ma ci trasferisce dalla dimensione testuale a quella multimodale (integrazione di testi, immagini e audio). Mi riferisco all’installazione immersiva di Refik Anadol Renaissance Dreams, realizzata nel 2020. L’opera è stata elaborata a partire da una cospicua collezione di dati relativi a pittura, scultura, testi letterari e opere architettoniche databili tra il 1300 e il 1600. Questi set di dati sono stati elaborati attraverso tecniche di intelligenza artificiale di tipo GAN (reti generative avversarie), progettati per produrre una forma dinamica multidimensionale site-specific. L’installazione è stata infatti concepita da Anadol per interagire con lo spazio architettonico e con l’infrastruttura tecnica della sala immersiva del MEET, il Centro internazionale per l’Arte e la Cultura Digitale  di Milano.

Refik Anadol, Renaissance Dreams, 2022.

La macchina «reimmagina» le opere censite nel database, mentre l’impianto dinamico ne muta incessantemente le forme, i colori e il design audio, performando in modo emergente l’universo di dati latenti in essa. Ancora una volta è giusto chiamare in causa la categoria del sublime. Renaissance Dreams ci sottopone l’intero corpus rinascimentale in una prospettiva completamente nuova, che ci interroga, ma al tempo stesso ci ammalia per la sua grazia. Le allucinazioni della macchina, noto problema di GPT e degli altri grandi modelli linguistici sviluppati nell’ambito dell’intelligenza artificiale generativa, diventano qui un’opportunità estetica, perché ci pongono al cospetto dell’improbabile. A turbarci è il modo in cui la macchina legge l’iconografia rinascimentale, registrando pattern, corrispondenze e suggestioni che sfuggirebbero all’occhio umano. Perché la sua potenza computazionale le consente di «vedere» ciò che noi non vediamo e ce lo restituisce con una grande forza retorica.

L’immagine tecnica e la perdita di centralità dello sguardo umano

Com’è noto, l’idea che la macchina manifesti una sua autonomia nel volgere lo sguardo sulle cose del mondo è al centro della riflessione di Vilém Flusser. Il filosofo ceco parla di «immagine tecnica», riferendosi appunto al prodotto di un processo oscuro che si sviluppa all’interno della macchina fotografica (Flusser 1985). Interponendosi fra noi e il mondo, l’apparecchio manifesta una propria «soggettività». Questa interposizione ci turba, perché mette in discussione la centralità del nostro sguardo. Lo sgomento di fronte a un orizzonte che non si appartiene è quello provato da Martin Heidegger di fronte alla prima immagine della Terra vista dall’orbita lunare e riferito nella famosa intervista rilasciata nel 1966 a «Der Spiegel» (Heidegger 1976).

La prima vista della Terra ripresa dalle vicinanze della Luna, fotografata il 23 agosto 1966 (fonte: NASA)

Il filosofo tedesco alludeva alla fotografia scattata il 23 agosto 1966 dalla Lunar Orbiter 1, l’astronave priva di equipaggio impiegata dalla NASA per preparare le missioni Surveyor e Apollo. Quella immagine gli sembrava l’epitome dello sradicamento dell’uomo: il luogo in cui viviamo non è più la Terra. Ma qui lo sradicamento può essere inteso anche in un altro senso. Il punto non è solo che abbiamo reciso le nostre radici, fino a ieri ben piantate sulla Terra. Si tratta di prendere atto dello spostamento del punto di vista: dall’umano alla macchina. La foto scattata dalla Lunar Orbiter 1 certificava, insieme alla agency della macchina, la sua capacità di «vedere» le cose da una prospettiva diversa rispetto alla nostra. La macchina è diventata un dispositivo di enunciazione.

Dal rifiuto della scrittura espresso nel Fedro di Platone fino ai giorni nostri, il disagio che l’esperienza della tecnologia provoca in noi sembra essere una costante. Ma la potenza della tecnica moderna, nella quale Heidegger vede la realizzazione della sua essenza, ci appare oggi come una minaccia definitiva. Eppure lo stesso Heidegger contestava in termini espliciti l’idea che siamo sopraffatti dalla tecnica, suggerendo semmai che non abbiamo ancora trovato la strada (Ivi, p. 206). E dunque concludeva auspicando la conquista, da parte dell’essere umano, di un rapporto sufficiente («ein zureichendes Verhältnis») con l’essenza della tecnica (Ivi, p. 214). È proprio alla ricerca di questo rapporto, io credo, che dovremmo rinunciare ad assumere una posizione di sdegno, del tutto sterile, per la presunta detronizzazione dell’umano da parte delle macchine. E dovremmo semmai decostruire con spirito critico un antropocentrismo ingenuo, considerando lo sguardo computazionale sul mondo come un prezioso strumento di conoscenza.

Sullo stesso tema:

ChatGPT come l’OuLiPo: il Grande Grammatizzatore alla prova

Naomi Baron e GPT: la sfida della scrittura sintetica

Bibliografia

ACCOTO C. (2017), Il modo dato. Cinque brevi lezioni di filosofia digitale, Milano, Egea.

BANDURA A. (2006), Toward a Psychology of Human Agency, «Perspectives on Psychological Science», 1, 2, https://doi.org/10.1111/j.1745-6916.2006.00011.x.

BURKE E. (2014), A Philosophical Enquiry into the Origin of Our Ideas of the Sublime and Beautiful, Cambridge, Cambridge University Press.

COLEMAN M. C. (2023), Influential Machines. The Rhetoric of Computational Performance, Columbia SC, University of South Carolina Press, 2023.

DE CARO M. (2011), Libero arbitrio e neuroscienze, in A. Lavazza, G. Sartori (a cura di) Neuroetica, Bologna, Il Mulino, 2011, pp. 69-83.

FLORIDI L. (2023), AI as Agency Without Intelligence: On ChatGPT, Large Language Models, and Other Generative Models, «Philosophy and Technology» (14 febbraio 2023), https://dx.doi.org/10.2139/ssrn.4358789.

FLUSSER V. (1985), Ins Universum der technischen Bilder, Göttingen, European Photography.

HEIDEGGER M. (1976), “Nur noch ein Gott kann uns retten”: Spiegel-Gespräch mit Martin Heidegger am 23. Sept. 1966, in «Der Spiegel», 23, 31 maggio 1976, pp. 193-219.

KENNEDY G. A. (1992), A Hoot in the Dark: The Evolution of General Rhetoric, «Philosophy & Rhetoric», 25, 1, pp. 1-21, : https://www.jstor.org/stable/40238276

MCCORMACK J. & DORIN A. (2010), Art Emergence, and the Computational Sublime, «Proceedings of the Second International Conference on Generative Systems in Electronic Arts, Victoria Australia, 5-7 dicembre 2001», Victoria, Centre for Electronic Media Art, pp. 67-81.

MILLER C. R. (2007), What Can Automation Tell Us About Agency?, «Rhetoric Society Quarterly», 37, 2, pp. 137-157.

PSEUDO-LONGINO (1965), Del Sublime (traduzione, introduzione e note a cura di Giuseppe Martano), Bari, Laterza.

ZHANG J. (2015), Introducing censusAmericans, A Twitter Bot For America, «FiveThirtyEight», 24 luglio 2015.

Animated Social Media Icons by Acurax Responsive Web Designing Company
Visit Us On TwitterVisit Us On FacebookVisit Us On PinterestVisit Us On YoutubeVisit Us On Linkedin