Il Nuovo Materialismo nella storia della Media Art (parte 2)

perth 3

 

 

 

 

Principalmente quando diciamo medium intendiamo qualcosa di un ordine di complessità piuttosto alto, come la televisione. Questi media non solo sono capolavori dell’ingegneria, ma anche motori immaginari, immaginari perché ascriviamo loro una coerenza che in realtà non possiedono. La televisione è un’industria, una consuetudine culturale, un mobile, un assortimento di generi di trasmissioni spesso derivati da altri media più vecchi, come lo sport e le news e un assemblaggio di tecnologie, non tutte appartenenti esclusivamente alla TV. La convergenza è il rovescio dell’ibridità: così tanti elementi che compongono la televisione sono condivisi con altri media. Si consideri la tecnologia delle lenti, per esempio. Non esistono lenti analogiche o digitali. Le capacità e le tecnologie per la messa a fuoco e l’apertura del diaframma, la temperatura di colore e l’inquadratura, sono le stesse nella fotografia, nella cinematografia e nell’imaging elettronico analogico e digitale. Ogni medium è già fatto di una dozzina di tecnologie organizzate in un sistema. Chiamare un assemblaggio televisione è quasi sciocco: dobbiamo guardare gli elementi che lo compongono, le sue articolazioni con altre tecnologie (satellite, web, telefonia mobile, TV via cavo, telecomunicazioni, riviste, etc.), cosa condivide con altri media, quali elementi specifici sono ad esso esclusivi, e quali modi unici di combinare i suoi elementi lo rendono distinto. Sebbene nell’uso di tutti i giorni sappiamo cosa significhi televisione, nell’uso tecnico il termine medium sarebbe meglio conservarlo per, diciamo, un tipo di schermo. Se ci concentrassimo su certe caratteristiche come le lenti troveremmo affascinanti nuove storie dei media, in questo caso una storia della disciplina della luce, dai telescopi alle fibre ottiche.

Gran parte della discussione sulla specificità del digitale poggia sull’imaging e la differenza tra le reazioni chimiche ed elettrochimiche alla luce. Commentatori seri come D. N. Rodowick e Laura Mulvey fanno l’errore di credere che ci sia una relazione fisicamente privilegiata con il mondo reale propria della vecchia fotografia “bagnata”. Non è questo il caso: la conservazione e il recupero dei dati avviene chimicamente al momento della latenza nella fotografia analogica, in un processo che ha quasi esattamente la stessa forma della transizione fra un fotone entrante, la carica, e la differenza di potenziale su un chip CMOS (metallo ossido semiconduttore complementare) o CCD (dispositivo ad accoppiamento di carica. La differenza realmente significativa fra la fotografia analogica e quella digitale, fissa o in movimento, sta nella funzione di clock che i chip devono avere per scaricare la carica dal chip in modo ordinato (Cubitt, 2011).

E non è necessariamente vero, come suggerisce Peter Osborne, che “la maggior parte delle immagini prodotte digitalmente sono basate sulla fotografia, come di fatto emerge empiricamente.”(Osborne, 2010: 65). Certamente se includiamo le radiografie e altri strumenti scientifici, ci sono grandi quantità di immagini che vengono prodotte ogni giorno. Allo stesso tempo, tuttavia, l’architettura, il design, l’ingegneria, la manifattura e le industrie della grafica producono un numero altrettanto vasto di file usando immagini non fotografiche generate dal computer. L’immagine bitmap – la cui storia è legata alla riproduzione in retinatura della fotografia – non è più la forma esclusiva dell’imaging digitale. Le grafiche vettoriali sono ovunque nella stampa, nel broadcast, nel web e nelle applicazioni per dispositivi mobili. Ma tutti i vettori devono essere visualizzati su schermi bitmap; molti programmi per il bitmap, in particolare Adobe Photoshop, hanno incorporati strumenti vettoriali; e nella forma di codec, le tecnologie vettoriali sono profondamente radicati nel movimento delle immagini bitmap, il che suggerisce che non esiste una chiara distinzione tra i due ordini di immagini. L’argomento di Osborne è più sottile, tuttavia, e suggerisce che i dati fungono da origine nel digital imaging in luogo dell’oggetto immortalato nella fotografia analogica. Questi dati invisibili (che noi sosteniamo essere analoghi all’immagine latente nella fotografia chimica) caratterizzano, inoltre, “la peculiarità ontologica, o autosufficienza, dei dati digitalizzati.” (Osborne, 2010: 65) L’argomentazione di Osborne è che poiché la digitalizzazione libera dati da qualsiasi medium specifico, permette alle risultanti immagini “derealizzate” di diventare infinitamente intercambiabili. Come vedremo, c’è una buona ragione di concordare con l’analisi finale, ma il problema sta nel falso empirismo che rivendica predominio per la fotografia e una specifica modalità digitale di astrazione dal referente.

Stranamente il rivivificato realismo degli studi sul cinema e la condizione postmediale resa popolare negli scritti critico artistici di Rosalind Krauss condividono un debito verso la fotografia. Krauss sostiene una “trionfante convergenza nel dopoguerra dell’arte e della fotografia che iniziò negli anni ’60 [sic],” concludendo con “il bisogno dell’idea del medium come tale per recuperare lo specifico dal noioso abbraccio del generale.” (Krauss, 1999: 289). La specificità materiale degli oggetti è parte integrante di questa affermazione, e offre un senso dell’ontologico diverso da quello di Osborne. Commentando l’idiosincratica definizione di Krauss della parola medium, Mary-Anne Doane sottolinea che è “una ristretta specificità che prende il lavoro individuale e le sue attivazioni di particolari convenzioni come suoi punti di partenza, e non il medium in sé.”(Doane, 2007: 131)

Questo ci porta molto più vicino alla dialettica della storia della media art. Da una parte perseguiamo l’assoluta specificità di ogni lavoro, e nei casi delle intelligenze interattive e artificiali, e delle opere generate da numeri casuali, la specificità di ogni esperienza dell’opera. In questo caso abbiamo a che fare con una storia di eventi unici: performance irripetibili che è nostro dovere descrivere in amorevoli dettagli, con un occhio a tutte le circostanze che convergono sulla loro realizzazione. Dall’altro lato cerchiamo una storia fatta di continuità, influenze, connessioni, flussi, movimenti e trend, e stili: in breve, una storia astratta focalizzata su istituzioni, discorsi, carriere e comunità. In molti aspetti questi generi di storiografia sono sovrapponibili, ma scomodamente perché operano a diversi livelli di dettaglio. Qui è dove la sfida del realismo fotografico incontra la sfida dell’empirismo storico: che livello di dettaglio costituisce il vero oggetto dell’imaging o della ricerca? È al livello dei fotoni e degli elettroni? Degli individui? Dei gruppi? Degli ambienti e delle congiunture? (Hermann, 2005)

La risposta non è semplice come lavorare a tutti questi livelli. Le modalità della verità delle scienze fisiche (cosa è successo), dell’estetica fenomenologica (che sensazione ha dato) e dell’analisi ecopolitica (quali forze erano in gioco) non sono necessariamente compatibili, e i loro terreni di spiegazione sono stridenti nella migliore delle ipotesi e reciprocamente contraddittori nella peggiore. In tutti i time-based media, c’è una qualche forma di funzione di clock. Questo dovrebbe orientarci verso la risoluzione del problema: un medium è altamente specifico, persino idiosincratico. I media digitali sono molteplici, forse anche di più, come qualsiasi predecessore, e una breve rassegna attraverso vecchi manuali fotografici o vecchie riviste di stampa commerciale televisiva vi convinceranno che erano anche in un perpetua condizione di cambiamento. Un medio è composto non di un’essenza permanente ma di una serie di evoluzioni connesse, ciascuna delle quali assembla i suoi elementi da ciò che è disponibile, inventando, adattando, facendo retro-engineering, riadattando e sabotando. Il digitale è tropo vasto per essere assimilabile ad una singola estetica: l’estetica di una stampante a matrice di punti ha poco a che fare con Avatar; Excel ha poco in comune con Blender.

Tuttavia Franco Berardi (“Bifo”) che legge ad alta voce il codice sorgente del virus I Love You (2001) è un’opera d’arte digitale, tanto convincentemente legata alla specificità del computing contemporaneo quanto, ad esempio, Indra’s Net di John Cayley del 1996. Il problema è l’ubiquità della tecnica digitale e la velocità del suo sviluppo (le note originali di Cayley per la sezione Oisleánd dell’Indra specificano che egli all’epoca non era in grado di usare Java per creare una versione web del pezzo; la performance di Bifo è stata registrata in una versione di QuickTime ora obsoleta). Lo è anche il fatto che le specifiche del codice sorgente e dell’ipertesto sono completamente differenti. Anche quando, come in questi casi, le opere ci danno espliciti riferimenti al codice sottostante, i generi e i linguaggi del codice sono completamente differenti. Pertanto quando parliamo della specificità del medium dobbiamo essere sicuri di comprendere l’unicità dell’opera e le continuità che essa ha con altre opere. Nel caso del poema di Cayley che costruisce paralleli acrostici fra il poema irlandese di Nuala Ní Dhomhnaill e la sua traduzione in inglese da parte di John Montague, il fatto che sia un poema è importante quanto il fatto che sia stato codificato digitalmente. Lo stimolo, le procedure, l’assemblaggio delle parti possono includere elementi disparati da tutto l’universo digitale, dai saldatori al software e da qualsiasi luogo al di là: piantine, luce del sole, pappagalli. Fare storia significa costruire dalle minuzie in su e sforzarsi di dar loro un senso; è seguire le grandi linee, e poi metterle in questione con l’aiuto del dettaglio cumulato. Ed è storia: tratta del cambiamento, cambiamento che, inoltre, è l’elemento proprio dei media nel loro complesso e delle media art in particolare.

 

 

Fine seconda parte

Traduzione dall’inglese di Andrea Carletti

 

 

Bibliografia

 

Cayley J., Oisleánd, http://programmatology.shadoof.net/works/oi/oisleand.html.

Cubitt S., “The Latent Image,” International Journal on the Image (2011), http://seancubitt .cgpublisher.com/product/pub.202/prod.34/index_html.

Doane M. A., “The Indexical and the Concept of Medium Specificity,” d i f f e r e n c e s: A Journal of Feminist Cultural Studies 18, no. 1 (2007).

Harman G., Guerrilla Metaphysics: Phenomenology and the Carpentry of Things (Chicago: Open Court Press, 2005).

Krauss R. E., “Reinventing the Medium,” Critical Inquiry 25, no. 2 (1999).

Osborne P, “Infinite Exchange: The Social Ontology of the Photographic Image,” Philosophy of Photography 1, no. 1 (2010)

 

 

 Versione in inglese

Mostly when we say medium we mean something of a pretty high order of complexity such as television. These media are not just feats of engineering but also imaginary engines,imaginary in that we ascribe to thema coherence they do not actually possess. Television is an industry, a cultural habit, furniture, a mixed bag of program genres often derived from other, older media such as sport and news and an assemblage of technologies not all of which are exclusive to TV. Convergence is the obverseof hybridity: so many elements that comprise television are shared with other media. Take lens technologies, for example. There are no analog or digital lenses. The skills and technologies of focus and aperture, color temperature and framing are the same in photography, cinematography, and analog and digital electronic imaging. Each medium is already a dozen technologies arranged in a system. To label one assemblage television is almost silly: we have to look at the elements composing it, its articulations with other technologies (satellite, web, mobile, cable, telecoms, magazines, etc.), what it shares with other media, what specific elements are unique to it, and what unique ways of combining its elements mark it out as discrete. Although in everyday usage we know what television means, in technical use the term medium would be better reserved for, say, a type of screen. If we did concentrate on such features as lenses we would find intriguing new histories of media, in that instance a history of disciplining light from telescopes to fiberoptics.

Much of the argument about the specificity of the digital rests on imaging and the difference between chemical and electrochemical reactions to light. Serious commentators such as D.N.Rodowick and Laura Mulvey make the error of believing that there is a physically privileged relation to the real world proper to the old “wet” photography. This is not the case: storage and retrieval of data occurs chemically in themoment of latency in analog photography, in a process that has almost exactly the same shape as the transition between incoming photon, charge, and voltage on a CMOS (comple- mentary metal-oxide semiconductor) or CCD (charge-coupled device) chip. The really significant difference between analog and digital photography, still and moving, lies in the clock function that chips must have in order to drain charge from the chip in  an orderlymanner.

Nor is it necessarily the case, as Peter Osborne suggests, that “most digitally produced images are, as a matter of empirical fact, photographically based.” Certainly, if we include X-rays and other scientific instruments, there are vast numbers of captured images being produced daily. At the same time, however, the architecture, design, engineering, manufacturing, and graphics industries produce equally vast numbers of files using nonphotographic computer-generated imagery. The bitmap image—whose history link sit to halftone reproduction of photography—is no longer the exclusive form of digital imaging. Vector graphics are ubiquitous in print, broadcast, web, and mobile applications. But all vectors have to be displayed on bitmap screens; many bitmap programs, notably Adobe Photoshop, have vector tools embedded in them; and in the form of codecs, vector technologies are deeply embedded in moving bitmap images, suggesting that there is no clear distinction to be made between the two orders of imaging. Osborne’scase is more subtle, however, suggesting that data serve as the origin in digital imaging in place of the object photographed in analog photography. This invisible data (which we contend is analogous with the latent image in chemical photography) characterize, moreover, “the ontological peculiarity, or self-sufficiency, of digitalized data.”17 Osborne’s argument is that because digitization frees data from any specific medium, it allows the resulting “de-realized” images to become infinitely exchangeable. As we will see,there is good reason to agree with the final analysis but the problem lies in the false empiricism that claims dominance for photography and a specifically digital mode of abstraction from thereferent.

Oddly, the revivified realism of film studies and the postmedium condition made popular in the art-critical writings of Rosalind Krauss share a debt to photography. Krauss argues for a “triumphant postwar convergence of art and photography that began in the 1960s [sic],”18 concluding with “the need for the idea of the medium as such to reclaim the specific from the deadening embrace of the general.”19 The material specificity of objects is an integral part of this claim, offering a different sense of the ontological from Osborne’s. Commenting on Krauss’s idiosyncratic definition of the word medium, Mary-Anne Doane remarks that it is “a restricted specificity that takes the individual work and its activations of particular conventions as its point of departure, and not the medium itself.”

This brings us a great deal closer to the dialectic of media art history. On the one hand, we pursue the absolute specificity of each work, and, in the instances of interac- tives, artificial intelligences, and random-number–generated works, the specificity of each experience of the work. In this instance, we deal with a history of unique events: unrepeatable performances that it is our task to describe in loving detail, with an eye to all the circumstances that converge on its realization. On the other, we seek a history of continuities, influences, connections, flows, movements and trends, and styles: in short, an abstract history focused on institutions, discourses, careers, and communities. In many respects these genres of historiography overlap,but uncomfortably because they operate at different levels of detail. This is where the challenge of photographic realism meets the challenge of historical empiricism: what level of detail constitutes the true object of imaging or enquiry? Is it at the level of photons and electrons?Of individuals? Of groups? Of environments and conjunctures?

The answer is not so simple as to work at all of these levels. The modes of truth of physical sciences (what occurred), phenomenological aesthetics (what it felt like), and ecopolitical analysis (what forces were in play) are not necessarily compatible, and their grounds of explanation are jarring at best and at worst mutually contradictory. In all the time-based media, there is some form of clock function. This should point   us toward the resolution of the issue: a medium is highly specific, even idiosyncratic. Digital media are as multiple,probably more so, as any predecessor, and abrief browse through old photographic manuals or old television trade press magazines will persuade you that they were in perpetual states of change, too. A medium is composed not of a permanent essence but a series of connected evolutions, each of which assembles its elements from what is available, inventing, adapting, retroengineering, refitting, and sabotaging. The digital is far too vast to be assimilable to a single aesthetic: the aesthetic of a dot-matrix printer has little to do with Avatar; Excel has little in common withBlender.

However, Franco Berardi (“Bifo”) reading the I Love You virus source code aloud (2001) is a digital artwork, as convincingly attached to the specificity of contemporary computing assay John Cayley’s Indra’sNetfrom 1996. The problem is that the ubiquity of digital technique and the speed of its development (Cayley’s original notes to the Oisleánd section from Indra specify that he was not then able to use Java to make aweb version of the piece; Bifo’s performance is captured in a now supersededversion of QuickTime). It is also that the specifics of source code and hypertext are utterly different. Even when, as in these instances, the works refer us explicitly to the underlying code, the genres and languages of the code are utterly different. Therefore, when we speak of medium specificity we must be sure we understand the uniqueness of the work and the continuities it has with other works. In the case of Cayley’s poem,which builds acrostic parallels between Nuala Ní Dhomhnaill’s Irish poem and John Montague’s English translation of it, the fact that it is a poem is as important as that it has been coded digitally. The provocation, the procedures, the assembling of parts may include disparate elements from across the digital universe, from soldering irons to software and from any where beyond: seedlings, sunlight, parrots. Doing history means building from the minutiae upward and straining to make sense of them; it is making the broad strokes, then questioning them with the aid of the hoarded detail. And it   is history: it is about change, change that, moreover, is the element proper to the media as a whole and the media arts especially.

 


Condividi questo articolo:


Sean Cubitt e Paul Thomas

Sean Cubitt si è specializzato sulla storia e la filosofia dei media, ed è particolarmente interessato all'ambientalismo, alle tecnologie dei media, alle media art e all'estetica politica. Ha lavorato in Australia, Canada, Nuova Zelanda e Stati Uniti e ha in corso collaborazioni di ricerca e appuntamenti onorari presso le Università di Melbourne e Oslo. Cubitt fa parte del comitato editoriale di numerose riviste ed è un editor di serie per Leonardo Books al MIT Press. I suoi libri più recenti sono Finite Media: Environmental Implications of Digital Media e The Practice of Light: A Genealogy of Visual Technology from Prints to Pixels. Il professore associato Paul Thomas lavora nel settore delle arti elettroniche dal 1981, quando ha co-fondato il gruppo Media-Space, parte del primo collegamento globale con artisti collegati ad ARTEX. Dal 1981 al 1986 il gruppo è stato coinvolto in una serie di mostre collaborative e ha stabilito una notevole quantità di ricerche. Thomas è stato co-presidente della Transdisciplinary Imaging Conference dal 2010 ed è stato il direttore fondatore della Biennale di Electronic Arts Perth. Thomas è un artista elettronico il cui lavoro è stato esposto a livello internazionale. Si occupa principalmente dell'intersezione tra arte, scienza, industria e cultura e ha lavorato allo sviluppo di una ricerca sostenibile nelle aree di convergenza tra queste sfere.


'Il Nuovo Materialismo nella storia della Media Art (parte 2)' has no comments

Commenta questo articolo per primo!

Vuoi scrivere un commento?

Il tuo indirizzo email non sarà pubblicato

Scenari. Il settimanale di approfondimento culturale di Mimesis Edizioni Visita anche Mimesis-Group.com // ISSN 2385-1139