ARTIFICIAL BOTANY

REAL-TIME A/V INSTALLATION
2020

ARTIFICIAL BOTANY

REAL-TIME A/V INSTALLATION
2020

Artificial Botany è un progetto che esplora le potenzialità espressive delle illustrazioni botaniche attraverso l'utilizzo di algoritmi di machine learning. Prima dell'invenzione della fotografia, le illustrazioni botaniche erano l'unico modo per archiviare visivamente le molteplici specie di piante esistenti al mondo. Queste immagini sono state usate da fisici, farmacisti e scienziati botanici per l'identificazione, l'analisi e la classificazione delle specie.
Sebbene non siano più scientificamente rilevanti, sono comunque diventate fonte d'ispirazione per artisti che rendono omaggio alla vita e alla natura usando strumenti e metodologie contemporanee. Artificial Botany è un'opera creata con questo spirito attingendo da archivi di pubblico dominio contenenti illustrazioni dei più grandi artisti del genere, tra cui Maria Sibylla Merian, Pierre-Joseph Redouté, Anne Pratt, Mariann North ed Ernst Haeckel.

Sviluppandosi come un organismo in un intreccio di forme che si trasmettono e fluiscono l'una nell'altra, la pianta è simbolo del potere creativo della natura. In questa continua attività di organizzazione delle forme si confrontano due forze opposte in tensione l'una con l'altra: da un lato, la tendenza verso l'informe, la fluidità del passaggio e del cambiamento; dall'altro il principio di cristallizzazione del flusso, senza il quale la forma si perderebbe indefinitamente. Nella dinamica di espansione e contrazione che segna lo sviluppo della pianta, la bellezza si manifesta in quel momento di equilibrio catturato nel momento in cui svanisce nell'organismo successivo.

 

PROCESSO

Queste illustrazioni sono diventate il materiale di apprendimento per un sistema chiamato GAN (Generative Adversarial Network), che attraverso una fase di addestramento è in grado di ricreare nuove immagini artificiali con elementi morfologici quasi identici alle immagini originali, ma con dettagli e caratteristiche che sembrano creati da mani umane. La macchina in questo senso rielabora il contenuto creando un nuovo linguaggio, catturando le informazioni e le qualità artistiche tipiche dell'uomo e della natura.

Artificial Botany EPK.jpg 0006 Layer 3 copy1

I recenti progressi tecnologici nel campo dei modelli generativi hanno ampliato le possibilità di creare nuovi contenuti partendo da una determinata serie di immagini. Seguendo questa direzione abbiamo focalizzato la nostra attenzione sullo studio dei cosiddetti Generative Adversarial Neworks (GANS), una tecnica in cui due reti neurali vengono addestrate in maniera competitiva all'interno di un framework di gioco minimax. Questo tipo di networks funzionano solitamente senza supervisione, apprendendo autonomamente come imitare una determinata distribuzione di dati; il che significa che, una volta addestrati, sono in grado di replicare nuovi contenuti a partire da un set di dati specifico.
Questa distribuzione viene spesso chiamato "spazio latente" del modello. E' spesso uno spazio con un alto numero di dimensioni, anche se inferiore a quello del materiale originale. Ad esempio quando si utilizzano immagini a colori (RGB), con una risoluzione di 1024x1024 pixels, si considerano circa 3 milioni di dimensioni (features nel numero di 1024x1024x3) mentre noi potremmo utilizzare uno spazio latente di sole 512 dimensioni.
Artificial Botany EPK.jpg 0005 Layer 3 copy 2
La prima fase necessaria per impostare una GAN è la definizione dell'output desiderato e la raccolta di un set di dati per impostare l'addestramento iniziale basato su tali parametri. Questi dati vengono poi randomizzati ed inseriti nel generatore fino a quando non viene acquisita la precisione necessaria alla produzione dell'output.
In un modello generativo incondizionato, non esiste alcun controllo sul modello dei dati generati. Tuttavia, condizionando il modello con determinate informazioni è possibile orientare il processo di generazione dei dati. Tale condizionamento può essere basato sull'individuazione di categorie o con dati di diverso tipo.

Il primo format di questo progetto è una serie di tre video creati grazie all'interazione speculativa tra due sistemi di intelligenza artificiale che interagiscono tra loro. Il testo alla base di ogni opera è generato da un algoritmo chiamato "traduzione da immagine a testo" comunemente usato per classificare database di immagini. In questo contesto è stato utilizzato nel tentativo di riconoscere le immagini generate artificialmente fotogramma per fotogramma.

Produzione: fuse*
Direzione Artistica: Mattia Carretti, Luca Camellini
Concept: Mattia Carretti, Luca Camellini, Samuel Pietri
Supervisione Software: Luca Camellini 
Software Artists: Luca Camellini, Samuel Pietri
Sound Design: Riccardo Bazzoni 
Hardware Engineering: Matteo Mestucci