Insegnare de Chirico (senza nominarlo) all’Intelligenza artificiale

Le ricerche in corso sull’Intelligenza artificiale e il machine learning stanno aprendo nuove strade anche alla creazione di immagini generate a partire da grandi database di riproduzioni, che vengono usate per addestrare il programma a riconoscere, a discernere, e a produrre nuove immagini. Poiché le riproduzioni di opere artistiche sono una parte consistente di queste immagini di addestramento, anche la storia dell’arte è coinvolta nel processo.
Le così dette reti generative avversarie (GAN) hanno, per esempio, prodotto esempi plausibili di ritratti in stile sette-ottocentesco, che assomigliano, senza replicarle, alle immagini di addestramento (uno di questi ritratti fu venduto da Christie’s nel 2018), scatenando discussioni sull’autorialità, sul valore, sulla natura estetica di questi nuovi prodotti tecnologici e creativi.
Per il pubblico italiano, due libri, aumentati di QrCode, aiutano ad orientarsi in questo panorama cangiante: Alice Barale, Arte e Intelligenza Artificiale. Be my GAN (Jaca Book 2020) e Rebecca Pedrazzi, Futuri possibili. Scenari d’arte e intelligenza artificiale (Jaca Book 2021). 

Di recente, diversi progetti in corso – fra cui Dall-E e Midjourney – mettono a disposizione di utenti invitati degli strumenti che trasformano input di testi in immagini, creando aggregati visivi che mescolano fotorealismo, fantasy, stili artistici canonici, effetti cromatici ecc.
Come spiega Pietro Minto nell’articolo Un’intelligenza artificiale può creare arte? (Il Post, maggio 2022), si tratta di immagini prodotte

“da un’intelligenza artificiale. O, più precisamente, da un modello di linguaggio chiamato Generative Pre-trained Transformer (GPT), in grado di generare immagini (ma anche testi) sulla base di input testuali. Questo genere di modelli, normalmente, deve essere «allenato» dai suoi ricercatori, che scelgono, curano e inseriscono nel sistema documenti e testi in modo che l’intelligenza artificiale li possa analizzare, imparando i meccanismi della scrittura o dell’arte umana. La caratteristica principale di GPT è la sua relativa indipendenza: una volta ricevute le enormi moli di documenti su cui basarsi, il modello di linguaggio evolve, come se imparasse da solo senza bisogno di “spiegazioni”.

Gli utenti invitati che stanno usando Dall-E o Midjourney, e condividendo i risultati su social network e piattaforme come Discord, rivelano una gamma di potenzialità degli strumenti e della loro risonanza con le chiavi di ricerca testuali utilizzate. C’è chi chiede all’algoritmo di produrre figure o scene alla maniera di artisti famosi o di stili, chi scrive incipit di romanzi, chi storyboard di fumetti (è il caso dell’artista Francesco D’Isa) delegando all’IA la parte illustrativa che, a sua volta, modifica la storia, suggerendo all’utente nuove configurazioni testuali e aggiustamenti di tiro.

Il caso di  Midjourney è particolarmente rilevante: il nome (che in italiano si può tradurre “a metà viaggio”) individua un laboratorio di ricerca – su cui è difficile avere notizie dettagliate – e un programma di Intelligenza artificiale che crea per l’appunto immagini partendo da descrizioni testuali.  Si accede alla versione Beta su invito e ci si può abbonare per un uso estensivo del programma.

Anche art-usi ha voluto provare a usarlo, con un occhio alla storia dell’arte italiana e alla tradizione dell’ecfrasi, la descrizione testuale delle immagini artistiche, così importante per la letteratura artistica, la critica d’arte,  l’insegnamento e l’accessibilità.
Con l’aiuto di un utente iscritto, abbiamo inserito nel prompt di richiesta una serie di termini collegati ai dipinti metafisici di de Chirico: empty square, shadows of buildings, clouds, oil on canvas.
Il programma, in pochi secondi, restituisce quattro immagini in risposta, che possiamo ordinare a seconda della loro maggiore o minore corrispondenza alla nostra richiesta, chiedendo una nuova elaborazione. A quel punto, il programma prosegue trasformando e ricombinando, in un modo che – citiamo ancora Pietro Minto – sembra evolvere in maniera autonoma, come se imparasse da solo, senza bisogno di spiegazioni ex cathedra.

Nell’immagine, il primo set di quattro immagini prodotte da  Midjourney in risposta alle parole “dechirichiane” proposte:

 

Impressiona la velocità di elaborazione, grazie alla quale il programma seleziona – da enormi dataset di immagini – i singoli elementi, l’assetto, l’atmosfera, i dettagli, e li aggrega in insiemi plausibili, in catene di combinazioni con varianti.
Sono immagini inventate, generate da un testo che descrive immagini esistenti su supporti fisici (che a loro volta sono state inventate dagli artisti): il procedimento dell’ecfrasi si configura qui come una specie di “gioco del telefono” visuale, giocato con un programma che possiede una memoria diffusa e ricombinabile di forme, segni, figure, effetti.
Andando avanti, il programma ha elaborato sia l’immagine in apertura di questo post, sia molte altre, tutte dotate di un’aria di famiglia metafisica, tutte simili e diverse, ciascuna con qualche incongruità, che restituisce in modo imprevedibile il linguaggio e la poetica dello straniamento. E questo aviene grazie all”addestramento di reti neurali, che mettono in risonanza le parole umane che descrivono il visibile e l’immensa collezione di immagini che stiamo riversando nelle reti. 

 

La pagina Instagram di Francesco D’Isa, dove sono riportati i suoi esperimenti narrativi con Midjourney.

E qui la pagina del sito ufficiale da cui entrare.

AS