Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Les univers de la science-fiction

Date

January 2017

Type

Conférence

Contexte

Anthony Masure, « les univers de la science-fiction », invitation à l’émission de radio La Clique numérique, Marseille, Radio Grenouille

Résumé

Écouter l’émission de radio Télécharger en MP3 Résumé Les mois de janvier sont compliqués… La Clique commence donc son année en évoquant la science fiction car en 2017 il va nous en falloir de l’imagination pour dépasser nos hallucinations ! Avec comme invité Anthony Masure, agrégé d’arts appliqués, dont les recherches portent sur les implications sociales et politiques des technologies numériques. Animée par Céline Berthoumieux et Marylou Bonnaire Avec notre chroniqueur récurent Thomas Ricordeau, La première apparition physique du programmateur musical Fabrice Pompidou ! Et l’agenda culturel de Sophie-Charlotte Gautier ! Jodorowsky’s Dune

Panne des imaginaires technologiques ou design pour un monde réel ?

Date

September 2017

Type

Publication

Contexte

Anthony Masure, «Panne des imaginaires technologiques ou design pour un monde réel?», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse – Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017

Résumé

Il est couramment admis que les films de science-fiction, censés incarner l’imaginaire du futur, multipliraient les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.). Ce constat, qui reste à interroger, fait dire au chercheur Nicolas Nova qu’il existerait ainsi une « panne des imaginaires ». Alors qu’il est fréquemment demandé au design d’« innover », nous nous demanderons en quoi certaines séries récentes comme Mr. Robot ou Black Mirror permettraient de contester cette injonction. Il s’agira d’analyser en quoi les croisements entre cinéma et design peuvent recouper des critiques politiques et sociales adressées aux nouvelles technologies (Bernard Stiegler, Evgeny Morozov). Entre les extrême dystopiques (films catastrophe) et utopiques (d’un monde sauvé par la science), qu’est-ce que la science-fiction nous dit du design ? Comment le design pourrait-il à la fois renouveler les imaginaires et agir dans un monde « réel » (Victor Papanek) ?

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

January 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

AVANT C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! QUELLES SOLUTIONS ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

Machines désirantes : des sexbots aux OS amoureux

Date

November 2017

Type

Publication

Contexte

Anthony Masure et Saul Pandelakis, «Machines désirantes : des sexbots aux OS amoureux», ReS Futurae, revue d’études sur la science-fiction, no10, «Imaginaire informatique et science-fiction», novembre 2017

Résumé

Nous proposons de rendre compte de l’émergence du désir au cœur de la relation entre un être humain et une machine, tel qu’il est représenté dans les fictions audiovisuelles. Si, dans nos expériences quotidiennes, ce désir s’exprime le plus souvent sur le mode de la frustration, il semble que le cinéma de science-fiction projette d’autres devenirs du désir comme possible horizon de la technologie, notamment au travers du trope du sexbot. Dans la réalité des objets désignés, le sexbot reste encore un jouet passif proche du sextoy. Une figure plus trouble émerge dans les fictions audiovisuelles lorsque que la machine (selon les cas : le robot, l’ordinateur ou l’intelligence artificielle) peut faire de ce désir un sentiment réciproque et devenir alors une « machine désirante ». Des femmes télécommandées de Stepford Wives à l’intelligence sans corps de Her, nous tâcherons de qualifier ces imaginaires de l’informatique sexués et sexuels, et le devenir de ceux-ci dans les processus de conception propres au design.

Notions

Personnes citées

Objets mentionnés

Médias

Design et récits du futur

Date

May 2018

Type

Conférence

Contexte

Intervention au séminaire U+ / Plurality University, séance 2, « Y a-t-il une panne des imaginaires du futur ? », Paris, Cnam, 22 mai 2018.

Résumé

Selon Nicolas Nova, l’industrie cinématographique de la science-fiction multiplirait les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.) et entraînerait une « panne des imaginaires ». Après avoir examiné une série de contre-arguments permettant de resituer le rôle de la science-fiction quant à la mise en récits du futur, nous nous demanderons quelle place peut jouer la fiction dans des démarches de design. Faut-il séparer les « fictions de clôture » des « fictions potentielles » (Camille de Toledo) ? Qui parle derrière ces récits ? Le design est-il soluble dans la fiction ? Après avoir séparé les registres esthétiques et discursifs, nous proposons une compréhension du design au fait de la « pluralité » humaine (Hannah Arendt).

IA et pédagogie : un état de l’art

Date

April 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

Panne des imaginaires ou design pour un monde réel ?

Date

October 2016

Type

Conférence

Contexte

Conférence donnée à la journée d’étude « Cinéma-Design, pour une convergence disciplinaire du cinéma et du design », université Toulouse – Jean Jaurès

Résumé

Il est couramment admis que les films de science-fiction, censés incarner l’imaginaire du futur, multipliraient les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.). Ce constat, qui reste à interroger, fait dire au chercheur Nicolas Nova qu’il existerait ainsi une « panne des imaginaires ». Alors qu’il est fréquemment demandé au design d’« innover », nous nous demanderons en quoi certaines séries récentes (Silicon Valley, Mr. Robot, Black Mirror) permettraient de contester cette injonction. Pour cela, nous étudierons également des productions relevant des champs du design fiction (Bruce Sterling), du design critique (Dunne & Raby) et de leur réception française (Jehanne Dautrey et Emanuele Quinz, N O R M A L S). Il s’agira d’analyser en quoi ces croisements recoupent des critiques politiques et sociales adressées aux nouvelles technologies (Bernard Stiegler, Evgeny Morozov). Entre les extrême dystopiques (films catastrophe) et utopiques (d’un monde sauvé par la science), qu’est-ce que la science-fiction nous dit du design ? Comment le design pourrait-il à la fois renouveler les imaginaires et agir dans un monde « réel » (Victor Papanek) ?

Troubler les programmes. Design, cybernétique et biologie moléculaire

Date

October 2022

Type

Publication

Contexte

Article rédigé avec Élise Rigot pour l’ouvrage collectif Les écologies du numérique, Orléans, Esad, 2022

Résumé

Dans un monde où presque aucune activité humaine n’échappe aux programmes numériques, ces derniers prennent un caractère existentiel et engendrent un assujettissement du vivant à des logiques d’automatisation. Il en résulte un profond déséquilibre des milieux de vie (théories de l’effondrement, perte de la biodiversité, etc.) et une perte de sens de l’existence. Afin de mieux cerner le concept de programme, nous associons trois champs tendant à converger : le design, l’informatique et la biologie. Ce rapprochement permet de formuler trois perspectives écologiques non binaires – autant de scénarios qui contestent le présupposé d’un design comme plan et qui le redéfinissent comme « art de l’équilibre », « zone de trouble », et « variation d’insignifiant ».

Archéologie des notifications numériques

Date

April 2019

Type

Publication

Contexte

Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)

Résumé

La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?

Personnes citées

Autres activités

Date

Type

Contexte

Résumé

Total Record. Les protocoles blockchain face au post-capitalisme

Date

May 2018

Type

Publication

Contexte

Article coécrit avec Guillaume Helleu dans la revue Multitudes, no 71, dossier « Dériver la finance », été 2018

Résumé

Le protocole Bitcoin (2009) s’inscrit dans le prolongement des utopies crypto-anarchistes visant à développer une monnaie numérique sécurisée et distribuée sur le réseau Internet pour échapper à la centralisation du pouvoir par les banques et les gouvernements. Récupérées en grande partie par la finance spéculative, ces technologies à chaînes de blocs (blockchain) se sont progressivement développées et dépassent désormais largement le champ monétaire (applications distribuées, contrats intelligents, jetons de valeurs, etc.). Malgré la persistance de certains freins sociaux et techniques, les protocoles blockchain pourraient-ils prendre de vitesse la logique destructrice du capitalisme financier ?

Pour un design radicalement circulaire. À propos des « Considérations écologiques » de Vilém Flusser

Date

July 2021

Type

Publication

Contexte

Article coécrit avec Victor Petit, contribution au dossier « Flusser et la France » du 31e numéro de la revue Flusser Studies dirigé par Rainer Guldin, Marc Lenot et Anthony Masure.

Résumé

Dans ses « Considérations écologiques », un article inédit rédigé en français en 1984-1985, le théoricien des médias Vilém Flusser montre les limites d’une opposition tranchée entre nature et culture, et soutient l’hypothèse provocante d’une naturalisation de la technique prenant la forme d’une « circularité de la production ». Les notions d’objet et de déchet deviennent les pôles d’une critique de la consommation, que Flusser relie au développement des programmes numériques et des théories de l’information. Examiner ce texte, à près de 40 ans d’écart, permet de prendre du recul sur les débats et controverses relatifs au champ de l’éco-design. Il montre qu’un design radicalement circulaire ne changerait pas seulement la production, ni même la consommation, mais la définition même du design.

Christophe Neumann
Transmédia : Qui règne sur les mondes fictifs ?

Date

June 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Transmédia. Nouvelle manière de raconter les histoires, évolution audiovisuelle, intéressons-nous aux raisons de cet engouement. En analysant le phénomène de la franchise Star Wars, nous parviendrons à mieux comprendre la mécanique derrière la narration transmédia. Poursuivons ensuite avec un décryptage du concept de fiction. Narration, média et transmédia, modes de financement, nous tâcherons de poser les bases nécessaires à la compréhension de cette nouvelle manière de raconter. Plongeons ensuite au sein des communautés de fans, coeur du dispositif transmédia. Partageons l’espace d’un instant leurs motivations, leurs règles et leurs sentiments. A travers plusieurs exemples, nous verrons ce qui alimente cet amour et ce qu’ils attendent d’une oeuvre de fiction. Enfin, assistons à une lutte pour le pouvoir, symbole d’un conflit d’autorités, symptôme d’un système de références emphatiques qui confine à la canonisation et à la religion. Affrontement et défi, foi et réalisme, l’équilibre délicat derrière chaque fiction transmédia concourt à définir qui régnera sur un monde de fiction dont on attend beaucoup. Créateur, producteur et fans, appât du gain, gloire ou respect, est-ce possible de les départager ?

La saisie comme interface

Date

November 2016

Type

Publication

Contexte

Anthony Masure, « La saisie comme interface », dans : Sophie Fétro, Anne Ritz-Guilbert (dir.), actes du colloque scientifique « Collecta. Des pratiques antiquaires aux humanités numériques », École du Louvre, 2016

Résumé

Une vision limitée du design des sites Web, et des programmes numériques en général, consiste à ne s’intéresser qu’à ce qui apparaît à l’écran. Pour aller plus loin, cette contribution vise ainsi à démontrer l’importance, pour les designers, de porter attention à la structuration et à l’agencement des codes source informatiques. Dans le domaine des archives en ligne où les interfaces de saisie sont rarement étudiées en tant que telles, ces enjeux interrogent le rôle et de la place du design. Que demande-t-on à ce dernier dans le contexte des «humanités numériques» ? Comment le design, en envisageant la saisie comme une interface, peut-il contribuer à dépasser une vision instrumentale de la technique ?

Manifesto for an Acentric Design

Date

December 2019

Type

Publication

Contexte

Version enriched with a chapter of the essay Design and digital humanities (2017), translation from French by Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, “Navigating the Human”

Résumé

Télécharger l’article en PDF Voir l’article [En ligne «  Human, All Too Human is the monument to a crisis. It calls itself a book for free spirits: almost every sentence is the manifestation of a victory – I used it to liberate myself from things that did not belong to my nature. Idealism is one of them: the title says “where you see ideal things, I see – human, oh, only all too human!”… I know people better. The term “free spirit” does not want to be understood in any other way: a spirit that has become free, that has taken hold of itself again. — Friedrich Nietzsche 1 Friedrich Nietzsche, Ecce Homo [1888], in: The Anti-Christ, Ecce Homo, Twilight of the Idols: And Other Writings, ed. Aaron Ridley and Judith Norman (Cambridge, England 2005), pp.  115–116. In this seemingly autobiographical fragment, Nietzsche refers back to his book Human, All Too Human [1876-1878]. In current discussions of “interface design,” catchphrases such as “user-centered   design,” “the user experience,” and by extension, “experience design” might not, at first glance, seem to draw scrutiny. After all, isn’t the purpose of design to create ‘useful’ things based on the users’ needs, ‘centered’ on them and on the improvement of their ‘experience’? However, if one looks at these concepts more closely, one might wonder what these methods engage as conceptions of design, and more broadly as an understanding of human relations and human-machine relations. Indeed, it is not unproblematic to presuppose that “we” are users first and foremost, i.e. beings solely concerned with relations of utility. What are we to think, then, of terms such as “user-centered design (UCD) 2 Shawn Lawton Henry, Justin Thorp, Notes on User Centered Design Process (UCD). W3C.org (March 2004), http://www.w3.org/WAI/redesign/ucd, access: July, 1, 10:00pm., ” “human-centered design (HCD) 3 Human-Centered Design Toolkit. Ideo (2009), http://www.ideo.com/work/human-centered-design-toolkit, access: July, 1, 10:00pm.,” “activity-centered design (ACD)4 See Geraldine Gay, Helene Hembrooke, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems (Cambridge, MA 2004).,” or “people-centered design (PCD)5 Hugh Graham, People-Centered Design. hughgrahamcreative.com, http://hughgrahamcreative.com/people-centered-design, access: July, 1, 10:00pm.”? Why must design be “centered” on something? More broadly, aren’t there some aspects of human life that can’t be replaced by the “experiences” generated by “user-centered” design? In order to critique the engineering of design and the reduction of the designer’s task to normative and even quantitative methodologies, I propose, as a research method, to bring together an historical study of the concepts to be questioned with technical analyses and the related discourses surrounding them. More precisely, I could synthesize this text’s research method in the following way 6 Here, I borrow the useful summary provided by Alexandre Saint-Jevin in his review of the essay Design et humanités numérique s: Alexandre Saint-Jevin, Sur la trace de l’humain dans les « objets » de design. Non-Fiction (2018),: 1 . To analyze the concept determining the process by which design issues were constructed in order to draw out the underlying philosophical concepts. 2 . To retrace the genealogy of this concept, connecting the technical reality of the products of design with the discourses of all entities being at the origin of the project (originators, designers, contractors, communicators, marketers, etc.) regarding these products. 3 . To synthesize the history and the discourses of these entities concerning matters of design more broadly in order to draw out the philosophical issues entailed in them. 4 . To connect the philosophical issues revealed by the analysis of the discourses of the entities with those of the original concept to show how these come to condition and determine the technical reality. This is thus not a matter of constructing a model of design activity in the form of logical sequences (diagrams, schemata, timelines, etc): rather than trying to tell designers what they should do, this analysis is intended to provide them with critical tools allowing them to analyze, in their own process, what they have already made or are still working on. In order to open up possibilities for making interfaces other than the behavioral scripts of experiential design, I will begin my analysis by turning back to the history of the first graphic interfaces. How do the values embedded within these technological strata infuse and even limit our relations to technology? Xerox Star’s “conceptual model of the user” The expression “user interface” correlates temporally with the development of microcomputers at the end of the 1960s. In 1968, Douglas Engelbart presented the result of the research undertaken at Xerox PARC at the time of an event retrospectively called the “mother of all demos”, where were first showcased videoconferencing, teleconferencing, email, the hypertext navigation system, and the interface modeled on the “office metaphor” based on “windows,” “folders,” the “trash,” etc. Partially realized in the 1973 Xerox Alto 7 Only 1500 units were produced: 1000 for employees of Xerox and the remainder for universities and public institutions. computer, this first form of graphic user interface (GUI) was included in the 1981 Xerox Star. Moreover, the latter was accompanied by network access, email capabilities, a mouse, and a WYSIWIG (What You See Is What You Get) printing system precise enough to make what is seen on the screen coincide with a paper output. In order to specify the origin of the conceptual model used as a basis for a design explicitly asserting needs of “users,” it is important to reconsider the founding principles of the Xerox Star. In an article dating from 1982, five former employees of Xerox Corporation explain their comprehension of the human-machine relations, and more precisely their methodology of interface design: “We have learned from Star the importance of formulating the fundamental concepts (the user’s conceptual model) before software is written, rather than tacking on a user interface afterward. […] It was designed before the functionality of the system was fully decided. It was even designed before the computer hardware was built. We worked for two years before we wrote a single line of actual product software.” 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p.  246. Reprinted online: Contemporary readers, used to design being relegated to the end of a process, dependent on a multitude of external parameters, will certainly wonder at the attribution of such importance to design “before” the material specifications are even formulated. In the case of the Star, it was much more a question of introducing the market to “radically new concepts”9 Ibid.p.  242. than of seeking to apply an “order” issued from above. By dedicating a quantity of memory to the screen display, the originators of the Star were able to create a visual interface functioning in tandem with the mouse (also used on Xerox Alto), defined in the 1982 text as “a way to quickly point to items on the screen 10 Ibid. p.  246.” more effective than the cursors activated by the keyboard. It is particularly interesting to study how the Xerox teams developed a project methodology linked to what is today called “user-centered design.” The development of an interface poses many problems indeed: taking into account the variety of languages in which the users address their commands to the computer, the design of on-screen representations displaying the state of the system to the user, and other abstract problems that can affect the understanding of the system’s behavior. According to the Star teams, these problems are highly subjective, and can be solved only on a case-by-case basis. The method employed thus consisted in focusing on what should precede any design of a successful interface, namely “task analysis”: ” The current task description, with its breakdown of the information objects and methods presently employed, offers a starting point for the definition of a corresponding set of objects and methods to be provided by the computer system [including programs and peripherals]. The idea behind this phase of design is to build up a new task environment for the user, in which he can work to accomplish the same goals as before, surrounded now by a different set of objects, and employing new methods.11 Ibid.p.  248. “ For Xerox, the user is an entity centrally dedicated to carrying out tasks in order to achieve objectives. One finds here the common definition of an algorithm, namely, a set of instructions intended to accomplish a given action. In other words, isn’t this understanding of what a user is derived from the “program” (an algorithm written in machine language) as a model of thought? Isn’t it odd that, in order to improve human-machine relations, human beings are to be imagined on the model of the machines? In this sense, what one would call a “user” in the data-processing context would often be merely a logical reduction of human subjectivity, consequently able to hold a dialogue with “extra-human” programs 12 I borrow this expression from the exhibition Haunted By Algorithms, a research project directed by Jeff Guess and Gwenola Wagon, Paris, ENSAPC / YGREC, January 21, 2017 – March 5, 2017.. Just as some see design as a discipline capable of becoming a science 13 See Anthony Masure, Pour une recherche en design sans modèle, in: Design et humanités numériques, ed. Anthony Masure (Paris 2, here it is a matter of constructing “models of behavior” in order to improve the effectiveness of the “tasks.” The etymology of the French noun “tâche” (“task”) can be traced back to the Latin verb “taxare” (“to tax»), indicating “a determinate work that one is obliged to perform, together with a concept of ‘remuneration’ [or] moral duty 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. p.  9620–9621.”. The French verb “tâcher” (“to try to do”), in turn, expresses the idea of striving, sometimes accompanied by the idea of a degree of painful exertion in order to comply with the imperative to “try to do” something. If the user is a being whose objectives, to be realized, necessarily pass by a series of tasks to achieve, wouldn’t this make us “tâcherons” (“drudges”), i.e. “person[s] performing work on command [emphasis by the author/s] without much intelligence”? 15 Ibid.p.  248–249. In the case of the Xerox Star, nevertheless, things are more complicated. The fact of starting from a “user-model” comprised of a small set of design principles makes it possible to ensure an overall coherence, since “the user experience [acquired in] in one area… [can] apply in others 16 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p.  242: “The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […] and allow user experience in one area to apply in others.” Emphasis mine.,”  thus reducing the cognitive load involved in the use of the computer system. Another aspect discussed in the article – connected with the concept of coherence – pertains to the concept of “familiarity” (the “Familiar User’s Conceptual Model”): “A user’s conceptual model is the set of concepts a person gradually acquires to explain the behavior of a system […] The first task for a system designer is to decide what model is preferable for users […]. This extremely important step is often neglected or done poorly. The [Xerox] Star designers devoted several work-years […] [to] evolving […] an appropriate model for an office information system: the metaphor of a physical office.”17 Ibid.p.  252. The Xerox Star interface was thus constructed on the basis of the users’ current universe, namely, the hierarchical model of the office. It was important to produce a “familiar” interface in order to reduce sources of friction, making the “user experience” seamless. Thus, users find in the machine their customary division, organization, and management of tasks. For example, the pile of paper messages on the physical desk of office-worker users is translated, in their computer, into a pictogram of an envelope indicating when a new email has been received. It is interesting to specify that the metaphorical model defined in advance of the actual development of the program de facto modifies the functions of this program: the design is not approached as a matter of mere presentation. Taking the example of the emails once again, typing a “send mail” command can thus be avoided by manipulating the icons. A last important aspect of the Star interface pertains to the personalization of the interface, as the movable icons make it possible to configure the work environment. Summarizing the overall principles of the Xerox Star, what is indicated here by the term “user” is in fact a succession of goal-directed “tasks” from which the designers construct a “conceptual model” as a basis for the developing of the computer system and ensuring its metaphorical coherence. By providing users with a “familiar” and “friendly” environment, the interface thus developed is intended to increase their productivity by developing “human-machine synergism.” However, the Xerox Star’s “friendly” interface reveals its limitations in certain functions where the office metaphor is inoperative: “One of the raisons d’être for Star is that physical objects do not provide people with enough power to manage the increasing complexity of the “information age.” For example, we can take advantage of the computer’s ability to search rapidly by providing a search function for its electronic file drawers, thus helping to solve the long-standing problem of lost files.” 18 Ibid.p.  282. The 1982 article concludes on an intriguing note, observing that it is difficult to choose between several models of interfaces while relying on stable (scientific) criteria: “User-interface design is still an art, not a science.” 19 Ibid. : «  User-interface design is still an art, not a science. » Although the Xerox Star text ultimately pleads for the establishment of a “more rigorous process” for the development of interfaces, such an assertion must elicit the contemporary reader’s curiosity. The emergence of “rationalized” graphic operating systems In spite of the commercial failure of Xerox Star, these design methods will be a success, definitively changing our relations with electronic machines. A precursor of the research conducted to Xerox PARC, Jef Raskin’s thesis in computer science, Quick-Draw Graphic System, published in 1967 (i.e., 6 years before the Xerox Alto 20 At the beginning of the Seventies, the IBM Usability lab was solely concerned with ergonomics. The Psychology of Computer Programming was published by Gerald Marvin Weinberg in 1971, and the work of Stuart K. Card, Allen Newell and Thomas P. Moran was only made known to the general public after the publication of The Psychology of Human-Computer Interaction in 1983.), argued for a data-processing environment in which the graphic interface would hold a dominant place. Such an idea was not at all self-evident at the end of the 1960s: “The most heretical statement I made […] was that my work was based on a “design and implementation philosophy which demanded generality and human usability over execution speed and efficiency.” This at a time when the main aim of computer science courses was to teach you to make programs run fast and use as little memory as possible.” 21 Dr. Bob, Articles from Jef Raskin about the history of the Macintosh. Dr Bob Tech Blog (2013), https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/, access: July, 1, 10:00pm. After contacts with Xerox concerning the development of the mouse, Jef Raskin was hired by Apple in 1978. It is under his impetus and that of Bill Atkinson 22 The title of Jef Raskin’s thesis (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) was echoed when Bill Atkinson named the Macintosh’s graphics package. that Steve Jobs and Steve Wozniak took note of the research conducted by Xerox PARC on graphic interfaces. Everyone of us knows the rest of the story. In 1979, the CEO of Apple Inc., Steve Jobs, age 24, visited the Xerox facility. In a 1995 documentary, he recalls the shock which this event constituted for him: “They [Xerox] showed me […] three things. […]. One of the things they showed me was object orienting programming […]. The other one they showed me was a networked computer system [of a hundred computers] […]. I didn’t even see that. I was so blinded by the first thing […] which was the graphical user interface. I thought it was the best thing I’d ever seen in my life. Now remember it was very flawed, what we saw was incomplete […] [But, at the time,] within […] ten minutes it was obvious to me that all computers would work like this some day.” 23 Steve Jobs, Triumph of the Nerds: The Rise of Accidental Empires. Documentation. PBS.org (1996), http://www.pbs.org/nerds, access: July, 1, 10:00pm. Following this presentation, obtained in exchange for shares in Apple Inc., Steve Jobs launched the Apple LISA micro-computer, which took the principles of the mouse and the graphic interface from Xerox Star, in 1982. With a price that was too high ($10,000 at the time, or $24,000 today), the LISA was replaced by the much more financially accessible Macintosh, released in 1984. While many still think that Steve Jobs did little more than “steal” the key principles of the Xerox Alto, the history is more complicated than that. The leaders of Xerox had not yet recognized the decisive consequences of what they had discovered, leaving their prospective vision in the hands of the sales and marketing teams, which were focused on photocopiers, the core of the brand, and not on the new market for computers 24 For a detailed history of the Xerox company, see: Douglas K. Smith and Robert C. Alexander, Fumbling the Future: How Xerox Invented, then Ignored, the First Personal Computer (New York 1988).. Bill Atkinson would have to rewrite and improve the quantity of functions in order for the LISA, and then the Macintosh, to take advantage of a “superior” graphic interface (with the addition of scrolling menus, the opening of windows with a double-click, the trash icon, etc). No line of code was “copied and pasted,” strictly speaking 25 Christoph Dernbach, Did Steve Jobs steal everything from Xerox PARC? Mac History (February 2012), http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc, access: July, 1, 10:00pm.. In order to bolster the supply of software for Apple machines, at the beginning of the 1980s, Steve Jobs invited Microsoft to publish programs for the Macintosh. In spite of Jobs’ request to Bill Gates (then CEO of Microsoft) not to use a mouse-controlled graphic interface before the Macintosh (1984) had been on sale for a year, Microsoft surprised everyone by announcing the operating system Windows 1.0 in 1983 26 Windows 1.0 was not yet a complete operating system, but rather a “graphic shell” that could be used by third-party software. , although it would only make its official debut in 1985. When Jobs, furious, accused Bill Gates of having betrayed him, Gates replied that they had both stolen from their “rich neighbor, Xerox.”27 Andy Hertzfeld, A Rich Neighbor Named Xerox. Folklore.org (November 1983), https://www.folklore.org/StoryView.py?story=A_Rich_Neighbor_Named_Xerox.txt, access: July, 1, 10:00pm. See also : Andy Hertzfeld, How the Mac was born, and other tales. Conversation with Scott Ard. CNET (January 2005), http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html, access: July, 1, 10:00pm.. The suit brought against Microsoft by Apple in 1988 was unsuccessful in the courts. Don Norman: the limits of the “user experience” After the release of Microsoft Windows, the design methods used in interface design were structured around scientific disciplines connected with this field. In addition to the expressions “human usability” and “user interface,” that of “user experience” (often shortened to “UX”) then achieved a notable success. The latter seems to appear for the first time in 1986 28 For a detailed chronology of the history of this term, see: Peter Merholz, Whither “User Experience”? Peterme.com (November 1998), http://www.peterme.com/index112498.html, access: July, 1, 10:00pm. in a book co-edited with Donald Norman (a cognitive science researcher), titled User Centered System Design: New Perspectives on Human-Computer Interaction 29 Donald A. Norman and Stephen W. Draper, User Centered System Design: New Perspectives on Human-Computer Interaction (San Diego 1986).. After a consideration of the impossibility of arriving at a univocal meaning by means of standardized images (pictograms), this quotation follows: “Direct Engagement occurs when a user experiences direct interaction with the objects in a domain. Here, there is a feeling of involvement directly with a world of objects rather than of communicating with an intermediary. The interactions are much like interacting with objects in the physical world. […] [T]he interface and the computer become invisible. Although we believe this feeling of direct engagement to be of critical importance […] we know little about the actual requirements for producing it.”30 Edwin L. Hutchins, James D. Hollan, and Donald A. Norman, Direct Manipulation Interfaces, in: User Centered System Design: New Perspectives on Human-Computer Interaction, ed. Donald A. Norman and Stephen W. Draper (San Diego 1986), pp.  114-115. “User experience” can thus be understood as a will to export the Xerox Star design model to fields other than that of screen interfaces and computers which can disappear, becoming “invisible.” Frequently cited as the originator of this expression, Don Norman defined it as follows in 1998: “I invented the term [user experience] because I thought Human Interface and usability 31 The concept of “usability” that Don Norman judges insufficient, was addressed by its proponents, Jeff Rubin and Dana Chisnell, in these terms: “when a product or service is truly usable, the user can do what he or she wants to do the way he or she expects to be able to do it, without hindrance, hesitation, or questions.” Source: Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests (Indianapolis 2008 [1994]), p.  4. were too narrow: I wanted to cover all aspects of the person’s experience with a system, including industrial design, graphics, the interface, the physical interaction, and the manual.” 32 Don Norman, quoted in: Peter Merholz, Whither ‘User Experience’? This broader aspect of “user experience” was then refined in the “canonical” version formulated by Jakob Nielsen and Don Norman: “User experience” encompasses all aspects of the end-user’s interaction with the company, its services, and its products.  The first requirement for an exemplary user experience is to meet the exact needs of the customer […]. We should also distinguish UX and usability: According to the definition of usability, it is a quality attribute of the UI, covering whether the system is easy to learn, efficient to use, pleasant, and so forth. Again, this is very important, and again total user experience is an even broader concept.” 33 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. “Experience design” and the myth of “invisible” data processing This interest, from then on focusing on the user rather than the technological apparatus (the interface), is even more explicit in the phrase “user-centered design” (“UCD”), which consists in basing the whole methodology of design on the central point that is the user. This design methodology enjoyed considerable success, perhaps because of the bond it helped establish between the marketing services tasked with studying consumers and the teams tasked with designing the products. However, by the admission of its own proponent, Don Norman, the term “user” has shown its limitations. In a 2006 article titled “Words Matter. Talk About People: Not Customers, Not Consumers, Not Users,” Don Norman admitted: “We depersonalize the people we study by calling them “users.” Both terms are derogatory. They take us away from our primary mission: to help people. […] People are rich, complex beings. […] A label such as customer, consumer or user ignores [their] […] social structures. […] It is time to wipe words such as consumer, customer, and user from our vocabulary. Time to speak of people. Power to the people.”34 Don Norman, Words Matter. Talk About People: Not Customers, Not Consumers, Not Users. jnd.org (2008), http://www.jnd.org/dn.mss/words_matter_talk_a.html, access: July, 1, 10:00pm. In the same way, in 2008: “One of the horrible words we use is “users.” I am on a crusade to get rid of the word “users.” I would prefer to call them “people.” […] We design for people, we don’t design for users.” 35 Don Norman at UX Week 2008, Adaptive Path. YouTube, https://youtu.be/WgJcUHC3qJ8, access: July, 1, 10:00pm. Let us summarize these points. The methodology of “user-centered design” consists in designing so as to treat each human being as a user, as a person dedicated to maintaining with companies only relations “centered” on his or her “exact needs,”36 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. concerning which there should be no “hindrance[s], hesitation[s], or questions.”37 Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. How to Plan, Design, and Conduct Effective Tests (New York 2008), p.  4. This current of thought results from a scientific modeling of the principles that governed the design of the Xerox Star in order to make it a “personal” machine, optimizing the tasks to be performed by the user. Retrospectively, the performative texts of Don Norman speaking in praise of the study of “needs,” by the admission of their author, led to a dead end, because the human being cannot be reduced to a specific role 38 This idea was inscribed within the ISO standards, which propose replacing the expression “user-centered   experience” with “human-centred design.” See: ISO 9241-210: 2010. Ergonomics of human-system interaction — Part 210: Human-centred design for interactive systems. Iso.org (March 2010), https://www.iso.org/obp/ui/en/#iso:std:iso:9241:-210:ed-1:v1:en, access: July, 1, 10:00pm.. Such a reversal of thought might be amusing. However, on closer inspection, wouldn’t one also have to interpret these contradictory injunctions as the sign of a power belonging not to the “people,” but to those who make these speeches? In other words, isn’t this an indictment of those who are constantly getting richer (in the banal sense of the term) by controlling the circulation of the design methodologies that are to be gotten rid of by this “crusade”? More than a plea in favor of taking complexity into account in design, this “appeal to the human,” for Don Norman, provides a rationale for gradually eliminating “interfaces” in the name of an “invisible” computing 39 Donald A. Norman, The Invisible Computer. Why Good Products Can Fail, the Personal Computer Is So Complex, and Information Appliances Are the Solution (Cambridge MA, 1998)., the products of which would be “human-centered.”40 Chapter 2 of The Invisible Computer is titled “Growing up: Moving from technology-centered to human-centered products.” This prediction of invisibility, passing under the guise of a change in vocabulary, a priori innocent, was so absorbed so thoroughly by the corporations that in 2012, Apple made it into a selling point: “We believe technology is at its very best when it’s invisible, when you’re conscious only of what you’re doing, not the device you’re doing it with. An iPad is the perfect expression of that idea. It’s just this magical pane of glass. It can become anything you want it to be […] It’s a more personal experience with technology than people have ever had.” 41 Official Apple (New) iPad Trailer. YouTube (March 2012), https://youtu.be/RQieoqCLWDo , access: July, 1, 10:00pm. However, Don Norman’s big picture does not mean that his idea of “invisible” computing is viable. The important term here is “experience,” which goes hand in hand with that of “magic.” What could be more magical, indeed, than experiencing an “invisible” technology? The artist Olia Lialina, in a critical article on the study of the concept of user, does not join in the chorus: “This is why Interface Design starts to rename itself to Experience Design — whose primary goal is to make users forget that computers and interfaces exist. With Experience Design there is only you and your emotions to feel, goals to achieve, tasks to complete. ” 42 Olia Lialina, Turing Complete User (2012), http://contemporary-home-computing.org/turing-complete-user/, access: July, 1, 10:00pm. A world without experience In the conclusion of her article studying the limitations of an exclusion of the term user of the methods of interface design, Olia Lialina proposes to return to foundations predating the Xerox Star, namely those developed by the computer scientist Ted Nelson in his 1974 work Computer Lib/Dream Machine: “COMPUTING HAS ALWAYS BEEN PERSONAL. By this I mean that if you weren’t intensely involved in it, sometimes with every fiber in your mind atwitch, you weren’t doing computers, you were just a user. If you get involved, it involves all of you: your heart and mind and way of doing things and your image of yourself. A whole way of life.” 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now (self-published, revised edition 1987 [1974]), p.  3. The argument is strong. Nelson’s denunciation of a “naïve” use points to the risk of a loss of contact with the computer, which, from Xerox Star to the iPad, presupposes that everything “real” (real life, creativity, etc) is external to the machine. However, in spite of the ascendancy of tactile interfaces (without mouses), in spite of the emergence of gestural interfaces (without buttons) and sound interfaces (without screens), and in spite of the return of command-line interfaces (without icons), it is clear that the great principles of the graphic interfaces created at Xerox PARC at the beginning of the 1970s are still the main ones governing our relations with electronic machines – which are not yet “invisible,” far from it. Take, for example, the “Apple Human Interface Guidelines” 44 See for example: “Designing for Yosemite: […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience.” Human Interface Guidelines, developer.apple.com, https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGuidelines, access: July, 1, 10:00pm.   and Google’s “Material Design,” 45 Google Material Design, material.io (first version published June 2014), https://www.google.com/design/spec/material-design/introduction.html, access: July, 1, 10:00pm. which, in the 2010s, are the recommended readings – with the proviso of reading critically – for anyone interested in interface design. In spite of its widespread acceptance, the cognitive model of an interface coupled with an idealized user (understood as a bundle of habits) has its limitations. Since Jef Raskin’s 1967 text associating “human usability” with efficient task completion 46 See Jef Raskin, A Hardware-Independent Computer Using List-Structured Modeling: The Quick-Draw Graphics System (Pennsylvania, 1967)., the will to create a graphic interface to procure for the “user” a new work environment and new methods “to accomplish the same goals as before” 47 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p.  248. has consisted in envisaging electronic media as “problem solvers” rather than as powers of transformation and invention. However, as the humanities specialist Yves Citton perceptively notes: “The invention of communication technologies […] takes place within a vast nebula of hopes, anxieties, dreams, tinkerings, parallel knowledges, subversive appropriations and reappropriations, crossing many traditional disciplinary fields […]. Indeed, our media cannot be reduced to mere instruments for the transmission of forms and contents: it functions, first and foremost, in just the same way as the mediums who fascinate us, delude us, hypnotize us and stimulate us via simulations that penetrate our senses.” 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques (Paris, 2012), pp.  21–22. Taking into consideration these foundational design texts of the computer age, it is obvious that electronic machines raise questions that did not exist before. But perhaps it is precisely against these innovations that methodologies of design were themselves designed with an eye to preserving the powers and knowledges already in place. In spite of its undeniably advanced technology, the Xerox Star did not have the full support of the corporate leaders, who preferred to focus on the photocopier business, more in phase with the “uses” of the time. In this history of “user-centered design,” an expression originating after the Xerox Star, it is indeed a matter of a concern about forgetting the “useful,” the utility of the object. But is this really possible in a world in which marketing services, for example, constantly seek to anticipate consumers’ “needs  ” by statistical processes linked to observation protocols? Another factor suggesting a design constructing against technological innovations – i.e., for habits – is this history of the “center,” a term which should now be examined. This twofold suffix coupled with design could have been the subject of variations. Why does one never speak, for example, of “form-centered” design, for example, or of “practice-centered” design? Perhaps is this because these two concepts (there could be others) resist the idea of a “center,” of delimitation. If one considers the concept of form, it is notable that this, historically, was related to design – according to the formula of the architect Louis Sullivan, according to which “form ever follows function.” As a canny observer of a history that sometimes “tramples” (in which the issues are sometimes obscured, sometimes rediscovered), the philosopher Pierre-Damien Huyghe notes that the concept of form expresses the “artistic interest” of design: “It was not only a question of creating potentially functional objects. The concern for making form is absolutely essential to the design. We may note here that the Latin forma can be translated as “beauty.””49 Pierre-Damien Huyghe, On appelle beaucoup trop de choses ‘design’. Interview with Julie Delem. Naja21 (April 2015), http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design, access: July, 1, 10:00pm. In a more general way, design, in so far as it encompasses the capacity to transform the world, cannot “center” on anything. Design is only of any interest if it is derived from tensions, polarities, contradictions – in other words, the opposite of a center. Olia Lialina, in the conclusion of her article, also refuses to let herself be reduced to a label: “We, general purpose users — not hackers and not people — who are challenging, consciously or subconsciously, what we can do and what computers can do, are the ultimate participants of man-computer symbiosis.” 50 Olia Lialina, Turing Complete User. One must then reconsider the fact that the conceptual model of the 1981 Xerox Star interface was decided “before” the material (hardware) existed, “two years before we wrote a single line of actual product software.” 51 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p.  246. Retrospectively, this account can be understood as that of a missed encounter with the otherness of the machines, since it is, in effect, a matter of subordinating the digital technology (hardware and software) to a “model,” i.e., to something anticipated and stabilized. This progressive distancing of the concept of the “General Purpose User” 52 Olia Lialina, Turing Complete User.op.  cit (active and polyvalent) has made possible the expressions “human-centered design” and “experience design”, which incarnate the promise of a world in which one could “do whatever one wishes,” immediately, as if by “magic.” But which kind of “doing” are we talking about when invisibility becomes the ideal for the machines? This myth of the invisibility of technological innovations in fact already existed in a nascent form at the dawn of personal computing. In a 1979 commercial for the Xerox Alto intended to demonstrate the power of the “office of the future,” an office worker (Bill) arrives at work and greets his colleagues, coffee in hand. When he arrives at his station, he turns on his Alto computer and addresses it verbally: “Hello, Fred.” The computer answers him: “Hello, Bill.” After a series of tasks, easily solved by the machine, comes the final dialogue: Bill (tired): “Anything else?” Fred: A richly detailed bouquet of daisies spreads across the screen. Bill (puzzled): “Flowers? What flowers?” Fred: “Your anniversary is tonight.” Bill (chagrined): “My anniversary. I forgot.” Fred: “It’s okay. We’re only human.” 53 Douglas K. Smith and Robert C. Alexander, Fumbling the Future, (Indiana, 1999), p.  20. What such initiatives describe, paradoxically, is a world without experience [un monde sans expérience] 54 The French word expérience can mean “experience” or “experiment.” (Translator’s note.), in the sense in which experience/experimentation can take place only within a field of possibilities open to uncertainty: Economic power is what the socialization of experiences implements. However, if this implementation augments shared experience and perception day by day, it does not appear authentically. Most often, it borrows the forms of habit, it slips mimetically into experience. 55 Pierre-Damien Huyghe, Faire place, in: Qu’est-ce que l’art domestique ?, ed. Richard Conte and Sandrine Morsillo (Paris, 2006), p.  29. Symptomatic of an era when “apparatuses” 56 The apparatus is defined by Pierre-Damien Huyghe as “a technological method distinct from the tool and the machine [which produces] within us a power of perception, a particular form of sensibility.” See: Pierre-Damien Huyghe, Introduction au dossier “Temps et appareils”. Plastik 3 (2003), p.  4. are no longer objects worthy of interest, human-machine relations are increasingly marked (branded) by the registers of utility, output, or time-saving. The human experience of “experience design” is often reduced to an experimental situation, that of a rat seeking the way out of a labyrinth. Even if it is “friendly” or “invisible,” this technological medium is no less a straightjacket, a controlled situation in which any exchange is anticipated and preprogrammed. When we are mirrored in the form of the “human, all too human” computer, we “ordinary people” are the ones who stand to lose sight of our complex and infinite possibilities.

Formes, formats, formatage : vers un design des sciences

Date

November 2022

Type

Publication

Contexte

Article rédigé avec Alexandre Saint-Jevin pour l’ouvrage collectif Les devenirs numériques des patrimoines, Paris, UDPN, 2022.

Résumé

En déniant à la recherche ses dimensions esthétiques, les chercheur·euses pensent se protéger d’une capitalisation du savoir et de sa spéculation financière. Or l’impensé des enjeux esthétiques de leurs travaux ne fait que renforcer ces problèmes. L’analyse de plusieurs cas d’étude entre design et science met en évidence que la dimension critico-créative que le design apporte aux sciences n’annule pas la dimension critico-discursive que les sciences apportent au design. Ainsi, le format n’a pas pour fatalité de (seulement) formater mais peut aussi « former » les savoirs : il s’agit de dépasser l’idée réductrice d’une « science du design » au profit d’un « design des sciences ».

Design et humanités numériques

Date

November 2017

Type

Contexte

Ouvrage publié avec le concours de l’université Rennes 2, préface de Nicolas Thély.

Résumé

En étudiant des opérations et des systèmes techniques potentiellement ouverts à la recherche, cet essai interroge le rapport du design aux « humanités numériques » (digital humanities) qui se développent, dans le contexte francophone, depuis le milieu des années 2000. En quoi les environnements numériques contemporains actualisent-ils les modes de production et de transmission des savoirs ? Quelle est la place des designers dans des projets relevant des sciences humaines et sociales ? De la modélisation des connaissances à l’injonction à l’innovation et à la créativité, du design d’expérience aux conditionnements techniques, de l’étude de la rationalité numérique aux reconfigurations de la subjectivité, ce parcours réflexif montre que l’industrie des programmes, chaque jour un peu plus puissante, n’a pas épuisé tout le champ des possibles. En interrogeant et en révélant l’environnement technique dans lequel les humanités numériques opèrent, le travail des techniques numériques par le design montre ainsi qu’il reste de la place pour d’autres modulations, d’autres sensibilités, d’autres cultures.

Le design de la recherche: conventions et déplacements du doctorat en design

Date

May 2015

Type

Publication

Contexte

Emeline Brulé, Anthony Masure, «Le design de la recherche : normes et déplacements du doctorat en design», Paris, PUF, Sciences du Design, no1, mai 2015, p.58-67

Résumé

Prenant acte d’une spécificité du design quant au travail des supports d’expression, cet article se donne comme champ d’étude les formes et formats de thèses dans le contexte de la recherche en design. Nous considérerons ici la thèse comme un «type» de document ayant intégré au fil du temps un certain nombre de conventions qui ne sont que trop rarement interrogées. Nous reviendrons tout d’abord sur son évolution historique et discuterons des conventions et normes des thèses en design à l’heure actuelle. Nous étudierons ensuite la manière dont ces dernières structurent le travail de recherche pour nous demander si la recherche en design se doit d’en créer d’autres, ou si elle doit œuvrer à les déconstruire. Enfin, nous nous demanderons si le design peut être vu comme un «laboratoire» permettant de déplacer les façons de faire de la recherche, au sens large.

The Digital Thesis as a Website: SoftPhD.com, from Graphic Design to Online Tools

Date

May 2021

Type

Publication

Contexte

Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.

Résumé

How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?

Mémoire Nietzsche ta mère !

Date

June 2005

Type

Projet

Contexte

Mémoire de fin d’études rédigé sous la forme d’un Livre-Jeu Dont Vous Êtes le Héros.

Résumé

Mémoire de fin d’études rédigé sous la forme d’un Livre-Jeu Dont Vous Êtes le Héros. Le processus de réflexion est raconté sous une fiction à embranchements multiples, programmée dans un logiciel spécialisé. Mémoire de DSAA Mode et Environnement, ESAA Duperré (Paris), sous la direction de Marie Rochut, Pierre Giner, Brigitte Smadja et Michel Jamet.

D’un Web omniprésent à des pratiques plurielles

Date

May 2015

Type

Publication

Contexte

Anthony Masure, «D’un Web omniprésent à des pratiques plurielles», compte-rendu de la conférence de David Larlet aux Rencontres de Lure 2014, Lurs, Après\Avant, no3, mai 2015, p. 52-53

Résumé

David Larlet est artisan, contributeur et citoyen. Un Web sous contrôle Qui a un compte G M ail, Facebook ou Instagram? C’est par cette question en apparence anodine que commençait l’intervention de David Larlet aux Rencontres de Lure 2014, portant sur l’évolution du Web. Cette cartographie de nos pratiques contemporaine dessine un paysage facilement repérable, celui de quelques grands centres s’étant accaparés la plupart du trafic et des données. Devons-nous nous résigner à n’œuvrer que dans une banlieue soumise au contrôle des grands «opérateurs»? L’intervention de David Larlet ayant suscité de nombreuses réactions dans l’assistance, cet article sera ainsi l’occasion de poursuivre les débats par des références complémentaires aux notions développées 1 David Larlet a mis en ligne le texte et les images de sa conférence sur son site personnel : larlet.fr/david/blog/2014/un-web-omni-present. Le Web de services menace-t-il la démocratie ? « On utilise de plus en plus le Web comme une TV », nous dit David Larlet. Force est de constater que « l’omniprésence » de certains onglets dans nos navigateurs peut être vue comme le symptôme d’un recentrement problématique, où nous serions contraints de ne pouvoir explorer que des zones protégées et sécurisées. « On a concentré un réseau qui à la base était acentré », nous dit David Larlet, « normalement il n’y a pas d’araignée au centre de la Toile ». La prophétie de Tim O’Reilly s’est réalisée : le problématique « Web 2.0 2 Pour une analyse du texte «What is Web 2.0 » de Tim O’Reilly paru en 2004, voir : Anthony Masure, « Ouvertures et fermetures du ‹Web 2.0› », dans : Le design des programmes, des façons de faire du numérique, 2014, [Thèse en ligne], softphd.com/these/web2/intro » s’est construit autour de la notion de «plateformes», où lorsqu’un «service» a du succès il emporte tout (« winners takes all »), ne laissant derrière lui que des miettes. Pensons ainsi aux voitures avec chauffeur de Uber, dont les pratiques en terme d’espionnage des utilisateurs et de non respect des lois ont tristement marqué l’année 2014 3 Voir par exemple : Éloïse Bouton, « Ubergate », Brain Magazine, novembre 2014, [En ligne], brain-magazine.fr/article/news/21653-Ubergate, faisant dire à l’auteur Evgeny Morozov que la Silicon Valley menace la notion même de démocratie 4 Hubert Guillaud, « La technologie est-elle un programme politique ? », Internet Actu, septembre 2014, [En ligne], internetactu.net/2014/09/01/la-technologie-est-elle-un-programme-politique. Les gouvernements nationaux remplacent la régulation a priori par l’étude statistique des effets. Chacune de nos actions est susceptible d’être enregistrée, quantifiée et corrigée pour nous remettre dans le droit chemin, «faisant de la psychologie comportementale le discours favori de la bureaucratie gouvernementale [et] effaçant tout ce qui existe comme différences entre les secteurs de la société 5 Evgeny Morozov, « La prise de pouvoir des données et la mort de la politique », Blog de Paul Jorion, août 2014, [En ligne], pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique-par-evgeny-morozov». Votre futur divorce vaut de l’or Le fait que quelques grands opérateurs contrôlent toute la chaîne porte préjudice à la curiosité et au développement de la personnalité. Ce renfermement a été qualifié de «filtre-bulle 6 Voir : Wikipedia, [En ligne], en.wikipedia.org/wiki/Filter_bubble» (filter bubble), pour désigner les conditionnements invisibles opérés par les algorithmes des médias sociaux et des moteurs de recherche, « personnalisant » chaque requête ou chaque flux d’informations et ne nous confrontant que de moins en moins à des idées ou personnes éloignées de nos supposés « centres d’intérêts ». Plus encore, ces programmes au fonctionnement invisible sont désormais capables de modéliser nos existences. Là où les compagnies de cartes bleues type VISA pouvaient savoir quand un couple allait divorcer 7 Nicholas Ciarelli, « How Visa Predicts Divorce », The Daily Beast, juin 2010, [En ligne], thedailybeast.com/articles/2010/04/06/how-mastercard-predicts-divorce.html (exemple donné par David Larlet), Facebook est désormais capable de prédire votre vie sentimentale 8 Pascal Riché, « Quand vous tombez amoureux, voici ce que voit Facebook », Rue 89, février 2014, [En ligne], rue89.nouvelobs.com/2014/02/16/quand-tombez-amoureux-voici-voit-facebook-249983 par une analyse sémantique de vos messages. Ces informations hautement « stratégiques » sont pour ces médias l’occasion parfaite de vous proposer de la publicité « ciblée ». Toute trace ou action en ligne est susceptible d’être monétisée : vos productions, relations, ou données de navigation sont le nouveau pétrole des annonceurs. Comme le dit Evgeny Morozov : « Quelqu’un, quelque part, finira par vous évaluer en tant que passager, hôte de maison d’hôtes, étudiant, patient, client 9 Evgeny Morovoz, op.  cit.». Pour un Web pluriel Le problème n’est pas tant dans cette collecte qui a peut être toujours existé (qu’on pense par exemple aux fichiers de la Police nationale) que dans le fait que de moins en moins d’acteurs ne soient capable de connecter toutes ces informations, la NSA ou Google par exemple. Comme dans la nouvelle de Borges 10 Jorge-Louis Borges, « Funes ou la mémoire » [1942], dans : Fictions, Paris, Gallimard, 1983. où le protagoniste meurt de son hypermnésie, une mémoire infinie ne sert à rien si elle n’est pas couplée à des fonctions d’association 11 Il faut paradoxalement énormément de stockage pour retenir en mémoire – fut-ce un bref instant – tous les flux d’informations « en temps réel ».. Dès lors, comment faire pour qu’un certain Web « omniprésent » ne résume pas l’ensemble de nos activités en ligne ? En portant attention à la façon dont nos données sont stockées (auto-hébergement 12 François Bon, « De l’art perdu des webcams (digression) », Le Tiers Livre, décembre 2014, [En ligne], tierslivre.net/spip/spip.php : « ne pas confier à ces plateformes en permanente reconfiguration vos ressources ‹ lentes ›, le fil profond de votre marche dans ce qui est la pure tradition de l’écriture ».) et circulent (cryptage), nous pouvons alors reprendre la main et contourner les grands « centres ». David Larlet nous donne quelques pistes possibles en mentionnant le moteur de recherche DuckDuckGo, le service de messagerie CaliOpen, ou encore les protocoles de connexion anonymes type VPN ou Tor. S’il ne tient qu’à nous de d’inventer un Web pleinement pluriel, ces démarches ne pourront cependant pas faire l’économie de réflexions politiques.

Le brouillon comme activation de la page blanche

Date

May 2015

Type

Publication

Contexte

Anthony Masure, «Le brouillon comme activation de la page blanche», compte-rendu de la conférence de David Meulemans aux Rencontres de Lure 2014, Lurs, Après\Avant, no3, mai 2015, p. 22-23

Résumé

David Meulemans a fondé les éditions Aux forges de Vulcain en 2010. Cette maison a publié plus de cinquante titres en quatre ans, en alternant essais, fictions et livres d’art. Titulaire d’une thèse de philosophie portant sur la question de la créativité artistique, il a fondé en 2013 la société DraftQuest, qui propose des solutions éducatives et créatives, dont un atelier d’écriture virtuel qui réunit plusieurs milliers de participants au quotidien. Écrire, oui mais quand et comment ? Comme les régimes, le sport ou la cigarette, on remet toujours ça à la semaine prochaine. Les bonnes résolutions de rentrée tombent vite quand arrive la confrontation au réel. Ce décalage entre l’intention et la réalisation inquiète beaucoup d’écrivains potentiels, qui se découragent d’avance de ne pas voir aboutir l’objet rêvé. C’est précisément ce nœud entre conception, projet et production qu’est venu nous démêler David Meulemans aux Rencontres de Lure 2014 en choisissant de consacrer l’essentiel de sa présentation à la notion de « brouillon » (draft) afin de permettre à tous d’activer enfin la page blanche. Une création «sans objet» Le modèle classique de la conception repose sur une idée qu’on va exécuter de façon transparente : l’objet final sera réussi s’il est conforme à l’intention initiale. Si l’essentiel des théories de l’art est consacré à la réception, on constate rapidement qu’inverser ce raisonnement ne fonctionne pas, puisque cela revient à réduire l’acte de création au vouloir dire, à la simple matérialisation d’une intention, de quelque chose à exprimer. Si l’art se tenait dans le langage, il suffirait de raconter les productions ; pas besoin d’en faire ! David Meulemans passe ainsi par la figure de l’ingénieur pour démontrer que la pensée causale 1 David Meulemans cite Charles Darwin et sa notion « d’illusion rétrospective » selon laquelle rien n’aurait pu être que ce qui est en raison de logiques déterministes. ne s’applique pas aux œuvres d’art qui, pour reprendre l’expression de Kandinsky, sont sans but ou « sans objet 2 Vassily Kandinsky, « Réflexions sur l’art abstrait [Betrachtung über die Abstrakte Kunst] », Cahier d’art, n o  1, 1931, dans : Essays über Kunst und Künstler, Bern, Benteli Verlag, 1955, p.  17. ». Il faut oublier la réception du texte pour pouvoir écrire Docteur en psychologie de la création et créateur du service DraftQuest.com, David Meulemans commence son intervention sans slides car «le meilleur moyen de surmonter son angoisse est de la contourner». Si un Français sur trois rêve d’écrire un roman, 10% se lanceront et, parmi eux, seuls 9% aboutiront à quelque chose. Selon David Meulemans, la première chose à faire pour pouvoir écrire est de dissocier la production de la diffusion, car bien souvent la crainte de décevoir le lecteur entraîne un blocage au niveau de la création. La deuxième est de séparer l’acte d’écrire de la figure romantique et intimidante de l’écrivain se plaçant en retrait du peuple avec sa plume et son encrier (métaphores rigoureusement bannies du site DraftQuest !). Réhabiliter le brouillon Surmonter les blocages d’écriture passera par la réhabilitation de la notion de brouillon. Le premier sens de ce terme est évidemment péjoratif (« quelqu’un de brouillon »), mais l’on oublie trop souvent que le brouillon est aussi le matériau transitoire indispensable à la réalisation de l’œuvre finale. L’erreur des écrivains angoissés est donc de confondre cette étape avec le texte final, d’où une disjonction sclérosante et bloquante. Il faut dire que les logiciels dominants de traitement de texte favorisent ces névroses, en mettant l’utilisateur en face d’une page blanche qui est la même que celle que recevra le lecteur : la séparation nécessaire à l’écriture ne peut avoir lieu. De plus, ce mimétisme d’un environnement bureautique hiérarchisé entraîne des confusions sur la nature même du texte. Comme le dit Matthew Fuller à propos de Microsoft Word, quel que soit ce que vous souhaitez faire, « c’est comme si vous étiez en train d’écrire une lettre 3 Pour une analyse de l’arrière-plan idéologique du logiciel, voir : « Une productivité encombrée (Word) », Le design des programmes, thèse en ligne d’Anthony Masure, softphd.com/these/creation-numerique/word ». De la production à la sélection On peut difficilement écrire quand on se met constamment à la place du lecteur. Comme le dit David Meulemans, « l’angoisse de la page blanche est provoquée par la superposition du geste créatif et du geste critique ». Si à chaque fois qu’on veut écrire on doit se faire violence, la qualité du texte s’en ressentira forcément. Travailler sur le brouillon en tant que brouillon permet alors de dédramatiser le processus créatif car la production du texte est clairement dissociée de l’acte critique de sélection. David Meulemans s’appuie ici sur les travaux de Lydia Goehr 4 Lydia Goehr, The Imaginary Museum of Musical Works. An Essay in the Philosophy of Music, Oxford, Clarendon Press, 1992. dans le domaine de la musique classique, qui montre que le XVIII e siècle opère un changement en faisant de la musique quelque chose qui est écrit (conçu) avant d’être exécuté, au contraire de l’improvisation qui fait se confondre ces deux temps. DraftQuest, la quête du brouillon Mettant en action ces intuitions, le service en ligne DraftQuest propose de surmonter les blocages d’écriture par une interface d’accompagnement basée sur deux idées fortes : un set de visuels (le deck) et un chronomètre (de 5 à 20 minutes). Non intrusives, les images paramétrables et interchangeables servent de support à l’imagination en permettant d’amorcer le récit. L’espace de rédaction du texte est réduit au strict minimum, à savoir un simple bloc de rédaction, sans aucune option de mise en forme 5 DraftQuest utilise uniquement la police d’écriture Lato (Lukasz Dziedzic, licence SIL). Il serait intéressant de s’interroger le rapport entre la police choisie et le type d’écriture : une autre façon de lever des blocages ?. Le compte à rebours sert à focaliser l’attention de l’utilisateur sur une seule tâche en lui fournissant un laps de temps balisé. La découpe du temps d’écriture en petites tranches, telle une course à pied ou une partie de carte, dédramatise le processus de rédaction d’une fiction 6 On peut très bien imaginer d’autres usages, notamment ceux concernant les textes théoriques. David Meulemans cite à ce propos Robert Boice, chercheur américain ayant travaillé sur les blocages dans l’écriture des thèses financées par l’argent public. en l’inscrivant dans la régularité du quotidien. L’utilisateur n’est plus intimidé par l’aura du chef d’œuvre ; il peut enfin activer la page blanche.

Subjectivités computationnelles et consciences appareillées

Date

April 2016

Type

Publication

Contexte

Anthony Masure, « Subjectivités computationnelles et consciences appareillées », Multitudes, no 62, avril 2016, p. 87-96

Résumé

Cet article revient sur la notion de « subjectivité computationnelle » formulée par David M. Berry visant à développer une approche critique des technologies numériques. Afin de comprendre les implications philosophiques d’un tel rapprochement entre « subjectivation » et « computation », nous reviendrons tout d’abord, via Leibniz et Hannah Arendt, sur l’émergence des sciences modernes qui visent à faire du « sujet » classique une entité calculante. Nous verrons ensuite comment les sciences « comportementales » ont influencé la conception des ordinateurs en substituant à la raison humaine des modélisations rationnelles déléguées à des machines. Pour sortir de l’impasse d’une déshumanisation annoncée dès la fin des années 1970 par des auteurs comme Ivan Illich ou Gilles Deleuze, nous envisagerons enfin la « subjectivation » comme un processus qui ne nécessite pas qu’il y ait sujet. Le concept d’« appareil », tel que le propose Pierre-Damien Huyghe à propos de la photographie et du cinéma, peut ainsi être étendu aux machines computationnelles pour penser de possibles « consciences appareillées ».

La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires

Date

September 2017

Type

Publication

Contexte

Irène Dunyach, Anthony Masure, Saul Pandelakis, «La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse - Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017

Résumé

Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Les événements scientifiques qui réunissent des chercheur/se/s et des praticien/ne/s, notamment au sein des universités, donnent lieu à un grand nombre de publications: actes de journées d’études, actes de colloques, anthologies, revues retraçant des séminaires, mais aussi affiches, plaquettes, sites Web, etc. Les temporalités qui relient les différentes étapes de la vie d’un projet de recherche se retrouvent donc étirées par le temps, variable, qui sépare un événement de sa mise en livre ou en revue, et qui se compte habituellement en années. Ces délais sont en grande partie dus à des protocoles éditoriaux fastidieux: comités de sélection, comités de relecture, partenariats avec des éditeur/trice/s dont les calendriers sont prévus longtemps à l’avance, impression et fabrication auprès d’imprimeur/se/s partenaires, pour finalement atteindre la diffusion, sans parler de la communication des productions. Pour autant, ces processus sont aussi majoritairement perçus, dans le monde de la recherche, comme des choix méthodologiques garants de la rigueur scientifique indispensable à un travail de qualité universitaire. Cependant, les chercheur/se/s admettent souvent souffrir des durées élastiques de conception marquées par les nombreuses étapes de relectures, réécritures, lissages, validations, et lourdeurs administratives que des protocoles fragmentés entraînent inévitablement. Ces écarts temporels entre l’expérience et sa retranscription, qui peuvent facilement dépasser deux années, génèrent des décrochages, voire des désengagements de la part des auteur/e/s et du lectorat, sans parler de l’obsolescence qui atténue parfois la qualité d’un ouvrage qui, paraissant bien trop longtemps après l’événement dont il est issu, ne prend pas en compte les avancées récentes du domaine dans lequel il s’inscrit. Cela est particulièrement le cas dans la recherche en design, champ où les avancées techniques et technologiques se succèdent, et où les usages ne cessent de se transformer: un ouvrage scientifique perd de sa valeur à mesure que se creuse le gouffre qui éloigne son point de départ à sa diffusion éditoriale. Le sentiment le plus cruel de cet écart se mesure souvent dans le temps de l’enseignement, lorsque l’enseignant/e-chercheur/se souhaite partager ses recherches les plus actuelles avec ses étudiant/e/s et doit souvent (parfois en hésitant) communiquer l’article à paraître, qui devient du coup référencé dans un mémoire qui sera, lui, rapidement rendu disponible. Les durées propres à la publication universitaire existent donc à plusieurs niveaux, en asynchronie avec les pratiques pédagogiques qui sont l’horizon du texte de recherche. Dès lors, comment répondre à ces enjeux, et quelles tactiques adopter? À partir de l’étude d’un cas concret, la publication imprimée et numérique des actes de la journée d’études « CinéDesign, pour une convergence disciplinaire du cinéma et du design 1 Voir la publication de l’événement en ligne : cinema-design.fr et univ-tlse2.fr» qui s’est tenue à l’Université Toulouse – Jean Jaurès les 6 et 7 octobre 2016, cette contribution se propose d’esquisser de nouvelles façons d’envisager l’édition scientifique. Faisant écho à des réflexions sur les pratiques éditoriales « marginales» qui traversent simultanément nos recherches (Irène Dunyach, Anthony Masure et Saul Pandelakis), les actes CinéDesign ont été pensés comme l’expérimentation d’une approche décalée du processus de publication scientifique traditionnel. Nous qualifions ici cette démarche de publication « buissonnière», dans le sens où notre ouvrage, parce qu’il s’affranchit des processus habituels, c’est-à-dire anonymes de la revue par les pairs (souvent connue dans sa traduction anglaise de peer review) s’affirme comme une réponse délibérément « indisciplinée». Il ne s’agit pas cependant de rejeter toute méthodologie universitaire — celle-ci reste le fondement de nos formations et de nos activités de recherche. Pour autant, face au rythme interne d’un projet de recherche dont l’échelle temporelle est plutôt le mois que l’année, nous avons décidé d’enjamber quelques règles choisies, avec la pleine conscience que ces libertés nous demanderaient par ailleurs une plus grande rigueur, ainsi qu’un plus grand engagement personnel. Il apparaît que des formes plus fluides et plus légères de protocoles éditoriaux sont à tester, inventer et démocratiser. En ce sens, et pour cette publication, nous avons cherché à tirer avantage des outils numériques en ligne: les étapes de relectures, d’écritures des textes introductifs et conclusifs, et les discussions qui accompagnent ces étapes se sont déployées sur des documents partagés, où les différent/e/s organisateur/trice/s pouvaient commenter, transformer et modifier les textes simultanément. Cette dynamique collaborative a également été mise en avant pour les phases de relectures: nous avons décidé de ne pas constituer de comité scientifique, mais de demander à la place aux différent/e/s participant/e/s locaux/ales de la journée d’études et de la publication de se relire entre eux/elles, dans une gymnastique croisée. Ainsi, les auteur/e/s ont relu leurs collègues, qui les ont relu/e/s en retour. En plus de permettre l’émulation d’une pensée interne et de créer de nouveaux croisements entre les réflexions grâce aux dialogues qui ont émergé de cette mécanique transversale (suggestions de références, de compléments et de précisions directement issus des autres contributions), ce dispositif a permis une remise à plat des différent/e/s participant/e/s, sans qu’une hiérarchie ne se constitue et ne devienne écrasante. Au contraire, ceci a favorisé la prise d’initiative de la part des auteur/e/s, qui ont été parties prenantes dans le processus éditorial. Cette démarche nous semble participer d’un positionnement mobile et mouvant face à la recherche en design, positionnement qui tend à favoriser les échanges et à mettre en retrait les différences dans les statuts des différent/e/s participant/e/s pour se consacrer aux convergences de leurs pensées — comme cela a été mis en avant dans la mise en forme du programme de la journée d’études CinéDesign, où seuls les noms des structures de rattachement accompagnaient ceux des communicant/e/s. Cela se traduit également par une volonté d’intégrer autant que possible des designers et des cinéastes aux futurs événements de CinéDesign, pour encourager les entrelacements entre la théorie, la pratique, et l’analyse de cette pratique. La méthodologie adoptée pour la publication des actes a été la suivante: • Les chapitres des contributeur/trice/s, dès réception par mail en février 2017, ont été versés sur une plateforme de stockage de fichiers synchronisée, Google Docs. Le choix d’une solution propriétaire nous a donné des regrets, mais les temps compressés de publication nous ont incité/e/s à utiliser les outils sur lesquels nous sommes les plus agiles. L’ergonomie des logiciels libres, et plus largement l’attention portée à leur design, fait (malheureusement) encore débat dans les relations entre designers et développeur/se/s (Dubedout, 2017), ce qui ralentit indirectement le développement de programmes pleinement « travaillables» spécifiques au champ de la recherche scientifique 2 Citons comme exemple d’exception le programme Peritext développé par Robin de Mourat : https://github.com/peritext. • Les chapitres ont tous été relus par au moins deux contributeur/trice/s durant le mois d’avril 2017. Le panel se composait des personnes organisatrices du projet (Irène Dunyach, Saul Pandelakis) et des membres fondateurs du groupe (les sus-cité*es, Mélanie Boissonneau, Anthony Masure), ainsi que d’enseignant/e/s en design de l’Université Toulouse – Jean Jaurès ayant rejoint le projet lors de la journée d’études (Fabienne Denoual, Brice Genre). à l’exception de Mélanie Boissonneau, toutes les personnes mentionnées sont amenées à se voir physiquement sur leur lieu de travail (le campus de l’université, situé au Mirail), ce qui constitue un atout majeur pour la coordination. Une grande partie du travail a cependant été effectuée de manière « dématérialisée», ce qui correspond aux emplois du temps asynchrones et aux sollicitations diverses des un/e/s et des autres à l’extérieur de l’université. • Suite à la première relecture, les articles ont été renvoyés aux contributeur/trice/s en mai et juin 2016 pour qu’ils/elles valident les corrections effectuées et qu’ils/elles reprennent le propos de manière plus approfondie quand nécessaire. • Irène Dunyach, Anthony Masure et Saul Pandelakis ont ensuite relu l’ensemble des articles et ont effectué de concert les dernières corrections nécessaires. • La maquette de l’ouvrage a été réalisée par Irène Dunyach et Saul Pandelakis en juin-juillet 2017 en partant de contraintes économiques strictes. Il était prévu de financer la publication des actes CinéDesign grâce à une bourse iDex 3 Ladite bourse a été obtenue par Saul Pandelakis lors de son recrutement en 2015 en tant que maître de conférences. Ce dispositif, dit des nouveaux entrants, lui a permis de bénéficier de 14 000 euros pour financer ses recherches et un ¾ temps en 2015-16., comme cela avait été le cas pour la journée d’études. Le système des achats piloté par l’université nous a cependant contraint/e/s à renoncer à cette solution, la bourse devant être dépensée avant une date butoir (le 15 juin 2017). Ajouter Blurb.fr à la liste des partenaires commerciaux de l’université aurait pris trop de temps et aurait signifié la perte du reliquat de la bourse. Saul Pandelakis a ainsi jugé que l’obtention de la bourse en 2015 constituait une compensation satisfaisante, lui ayant permis de nombreuses économies sur les années universitaires 2015-16 et 2016-17. El a pour ces raisons décidé de financer l’ouvrage sur fonds propres. Dans ce contexte, nous avons opté pour un folio noir & blanc, autopublié sur Blurb.fr, ce qui induit un choix de format et de papier spécifique à cette plateforme. Blurb propose des services dont la qualité, le coût et le délai de fabrication sont en accord avec nos exigences, et offre par ailleurs la possibilité d’une impression à la demande (vente en ligne automatisée, ce qui permet d’une part de faire face à un éventuel épuisement du premier tirage, et de permettre à des personnes extérieures à l’événement de commander facilement l’ouvrage, sans gestion de la part de l’université). Par ailleurs, Anthony Masure avait déjà expérimenté ce service dans le cadre du Master Design graphique du Campus de la Fonderie de l’Image (Bagnolet), pour rendre disponibles des articles de recherche d’étudiant/e/s (Masure, 2013). • Sur le plan graphique, toujours pour des questions d’efficacité, la mise en page a été réalisée sur le logiciel propriétaire Adobe InDesign, dédié à la conception de médias imprimés. Ces dispositifs nous ont permis de jouir d’une totale autonomie sur la question des choix graphiques, tout en réduisant considérablement les délais évoqués plus haut: la journée d’études s’est tenue au mois d’octobre 2016 et ces actes ont été achevés en août 2017, soit dix mois plus tard. Les derniers points, relatifs au processus de conception, font résonner la place du design dans le contexte éditorial de la publication scientifique. En effet, un grand nombre d’ouvrages et de revues semblent révéler un intérêt « limité» pour la mise en forme, et plus largement pour le design graphique: on constate bien souvent une uniformité et, par conséquent, une pauvreté au niveau des langages visuels déployés. Cette situation peut s’expliquer par les partenariats exclusifs qui sont établis entre les universités et leurs maisons d’édition rattachées, qui très souvent sous-traitent les mises en page et proposent des couvertures réalisées sur un même modèle très sommaire: une image, un bloc de couleur, un titre, un logo — la relation entre les éléments étant le plus souvent fortuite et peu maîtrisée. Les questionnements liés aux choix typographiques, aux marges, aux grilles éditoriales et aux vocabulaires visuels ne sont que rarement pris en compte, et les « styles» se répètent d’un ouvrage à l’autre dans une ressemblance monotone. Les dispositifs éditoriaux qui régissent les publications scientifiques ne se font pas le reflet des dynamiques de recherche, et nous semblent façonner une image parfois défraîchie de la recherche à l’université — et ce d’autant plus quand les publications se réclament des champs de l’art et du design, directement en prise avec la notion de forme. Ceci fait écho à l’article d’Émeline Brulé et Anthony Masure (2015) à propos du design de l’« objet thèse» qui clôt une recherche de doctorat, et qui est donc le premier objet graphique que tout/e chercheur/se réalise au début de sa carrière. Comme les deux auteur/e/s le soulignent, cet « objet thèse» reste encore enfermé dans des contraintes formelles qui empêchent toute liberté créative, ce qui semble dénaturer, voire parasiter, le propos d’une recherche en art ou en design. La thèse marquerait donc la première étape d’un processus de normalisation du langage visuel des supports éditoriaux de la recherche, qui devraient pourtant être les émissaires graphiques d’une pensée dynamique et innovante. Car le milieu de la recherche tend à valoriser une énergie sans cesse renouvelée qui nourrit les pensées et propulse les avancées, autant théoriques que pratiques. Des exceptions allant dans ce sens existent: citons notamment la maison d’édition Zones Sensibles 4 Voir aussi les démarches, malheureusement isolées, des éditions B42, Nouveau Document, B2, ou encore de la revue Carnets de Science du CNRS. pour qui « si, d’après certains pleureurs, les livres de sciences humaines ne se vendent plus, c’est moins […] parce que le lectorat manque qu’en raison de la pauvreté graphique de la plupart des livres» (Baratin, 2017). Le design graphique ne se résume pas ici à une question d’embellissement, mais doit se comprendre comme un travail du rapport entre le sens et la forme, ou encore, comme le définit Annick Lantenois, comme «[…] l’un des instruments de l’organisation des conditions du lisible et du visible […]. Traiter visuellement les informations, les savoirs et les fictions, c’est donc concevoir graphiquement leur organisation, leur hiérarchie, c’est concevoir une syntaxe scripto-visuelle dont les partis pris graphiques orientent les regards, les lectures» (Lantenois, 2010, 11). Cette attention portée au regard, à la lisibilité, à la hiérarchie de l’information, aux rapport texte/image, à la fabrication de l’objet, etc. participe pleinement, selon nous, d’un travail devant faire l’objet d’une réflexion spécifique – et ce d’autant plus lorsque la publication a vocation à aborder des enjeux liés au design. Nous préconisons ainsi aux chercheur/se/s, aux éditeur/trice/s et aux directeur/trice/s de laboratoires de se saisir de ces enjeux et de les discuter avec des designers graphiques 5 Notons que le Centre national des arts plastiques (Cnap) organisera fin 2017 un « salon graphique » (journée d’échanges professionnels) intitulé « Publier la recherche », afin de sensibiliser les commanditaires et designers graphiques à ces enjeux., pour qui le champ des publications de la recherche reste encore majoritairement une terra incognita. De plus, la pauvreté visuelle des publications universitaires n’est pas seulement graphique mais aussi bien souvent iconographique. Les auteur/e/s de ce texte ont eu l’occasion de publier dans des revues où la sélection d’images était excellente, mais cela était le plus souvent permis par l’adossement du projet à un éditeur de poids, possédant les moyens humains et financiers de négocier les droits ad hoc. Les publications plus modestes doivent la plupart du temps se contenter d’images de piètre qualité, voire renoncer tout simplement à inclure des visuels — ce qui, autant en design qu’en cinéma est très problématique. En effet, comme le note André Gunthert, contrairement aux textes, « la restriction de citation [des matériaux audiovisuels est] cause de censure. Les contraintes définies pour éviter de porter préjudice aux industries culturelles ont des conséquences particulièrement graves en matière scientifique. Outre l’alourdissement des budgets de la recherche spécialisée, elles interdisent un exercice indépendant de la réflexion et de la critique» (Gunthert, 2013). Pour contourner cette question des droits, nous avons puisé dans notre réservoir de compétences. Irène Dunyach et Saul Pandelakis pratiquant l’illustration en plus du design graphique, il a été décidé de dessiner les images de projets et photogrammes de films 6 Des cas précédents existent, comme par exemple l’ouvrage de culture visuelle L’homme et ses signes de André Frutiger (1978), où toute l’iconographie a été conçue par l’auteur.. Ce choix a desserré nos obligations légales, tout en renforçant notre prise sur l’identité visuelle de la publication finale. L’exercice du re-dessin s’inscrit par ailleurs tout à fait dans une approche de recherche, puisqu’elle croise la pratique de la captation graphique (lors d’événements universitaires) pratiquée par Saul Pandelakis depuis environ deux ans. Bien que la publication n’ait pas été réalisée grâce à des logiciels libres, les auteur/e/s souhaitent s’inscrire autant que possible dans la logique du libre et sa philosophie. Les textes sont ainsi placés sous licence libre Creative Commons CC BY-SA 7 Cette licence autorise à « partager » (copier, distribuer et communiquer le matériel par tous moyens et sous tous formats) et à « adapter » (remixer, transformer et créer à partir du matériel) le contenu pour toute utilisation, y compris commerciale, à condition de « créditer» la source et de la « redistribuer » sous les mêmes conditions. afin de favoriser le partage des connaissances. La question des licences d’utilisation des polices a également fait l’objet d’une attention spécifique, spécialement dans le cadre de publications (potentiellement) multisupports, tant les modalités contractuelles sont diverses et difficile à comprendre (Adebiaye, 2017): le choix de polices de caractères libres de droits (SIL Open Font License), dans un projet au budget réduit, est alors une évidence. Les polices utilisées dans les actes CinéDesign, référencées dans l’ours, sont Lil Grotesk (Bastien Sozeau), Lora (Olga Karpushina & Alexei Vanyashin) et Logisoso (Mathieu Gabiot). Les chapitres seront rendus disponibles, à terme, sur le site Web du projet cinema-design.fr) afin d’augmenter leur visibilité. Bien que les directeur/trice/s de publication des actes CinéDesign aient toujours souhaité que ceux-ci existent sous une forme imprimée, ce choix n’a jamais été fait à l’encontre, ou par opposition à une possible publication numérique. Une fois l’imprimé réalisé s’ouvrira un temps de conversion des textes pour une lecture sur écran et sur le Web. L’aspect multi-supports est donc réel, même si à l’heure où ces lignes sont écrites, la publication existe d’abord, en théorie, comme un objet papier. L’éthique du libre affecte également ces méthodologies. Il est notre souhait de voir d’autres chercheur/se/s s’emparer de cette première expérimentation, pour en tester les limites et en éprouver les contours. D’autres approches restent bien sûr à découvrir, l’idée générale étant de voir se raréfier les expressions de surprise (certes joyeuses) du/de la chercheur/se qui se rappelle d’un texte cinq ans après son écriture, en raison d’une publication qu’il/elle n’espérait plus. Considérant les conditions de ce « sprint» éditorial, il apparaîtra sans nulle doute des coquilles, erreurs, imprécisions. Nous les assumons et souhaitons que cette publication, plutôt que de couronner notre journée d’études, en soit le témoignage instantané, vivant, et serve de laboratoire d’expérimentation à nos projets futurs — tel le colloque CinéDesign à venir en 2018, qui ne manquera pas de s’appuyer sur cette publication. Nous ne sommes pas tant un comité de lecture qu’un commité, au sens du « commit» proposé par le protocole technique contributif Git, c’est-à-dire d’un choix qui ne se fait jamais sans la validation des pair/e/s, immédiate, agile, dans un temps partagé. Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017

Le design de la transparence : une rhétorique au cœur des interfaces numériques

Date

January 2019

Type

Publication

Contexte

Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence »

Résumé

Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes :
1. Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques.
2. La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données.
3. La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.

Transhumanisme et traces d’humanité

Date

December 2020

Type

Publication

Contexte

Propos récoltés par Loven Bensimon pour Conforme Magazine et rédigés par Anthony Masure le 1er avril 2020 à Paris.

Résumé

Conforme Magazine : Le transhumanisme est-il notre futur ou est-il déjà d’actualité ? Anthony Masure : Le transhumanisme, qui ne se développe vraiment qu’à partir des années 1980, est un mouvement de pensée complexe et aux ramifications multiples. Il y a un écart entre la réparation et l’augmentation, à savoir le développement de facultés qui dépassent les contraintes biologiques. Mais cette distinction peut rapidement être remise en cause, comme par exemple dans le cas du traitement des maladies génétiques, où l’on pourrait facilement imaginer que seul un groupe social aisé aurait les moyens d’être immunisé à certaines pathologies. Mais ce scénario ne ferait que renforcer les actuelles différences d’accès aux soins, à l’éducation, et aux inventions techniques. De façon plus générale, si l’on entend par transhumanisme la volonté de transcender une condition initiale, alors l’humain a toujours été plus qu’humain, pour reprendre le mot de Nietzsche, c’est-à-dire toujours tiré en dehors de lui même. Autrement dit, il n’est pas possible de séparer l’humain du fait technique ! Comme le note la philosophe Donna Haraway, nous vivons déjà dans une société cyborg 1 Donna Haraway, « Manifeste Cyborg. Science, technologie et féminisme socialiste à la fin du XXe siècle » [1985], dans : Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes [1985–1997], trad. de l’anglais par Denis Petit en collaboration avec Nathalie Magnan, Paris, Exils, 2007. : le cyborg n’est pas une autre ontologie, il est « notre ontologie ». Cette figure permet à Haraway de renverser les oppositions homme / femme / machine et les dynamiques capitalistes : il est possible de réinvestir politiquement le présent pour montrer que ce dernier ne détermine mécaniquement pas le futur. L’enjeu n’est donc pas de s’opposer frontalement au transhumanisme, mais d’explorer des zones de perméabilité, d’en faire un « système d’information polymorphe » (Haraway). Lisa Thieffry pour Conforme magazine Conforme Magazine : L’humain, maître et possesseur de la nature se croit-il tout permis ? Il y a-t-il des écueils à cet hubris ? Peut-il y avoir des conséquences néfastes ? Anthony Masure : Ce n’est pas parce quelque chose est possible qu’il faut à tout pris l’explorer. De la même façon, ce qui est légal n’est pas forcément moral. Se pose alors la question de savoir sur quels critères juger de qui est ou non souhaitable, et à qui cela incombe : politiques, juristes, designers, scientifiques, société civile, etc. Selon le philosophe Vilém Flusser, la question est épineuse car les technologies numériques (les « appareils ») et les biotechnologies font voler en éclat les anciennes catégories de pensée : « L’abandon des critères traditionnels implique l’abandon non seulement de la tradition occidentale, mais de tout humanisme. Et cela, nous ne sommes pas prêts à le faire, et nous avons de très bonnes raisons pour le refuser. C’est pourquoi notre faculté critique face à la culture inhumaine émergente est en crise par manque de critères 2 Vilém Flusser, « Critique, Critères, Crise » [texte inédit, 1984], reproduit dans : Multitudes, n o  74, dossier « Vilém Flusser : vivre dans les programmes », dir. Yves Citton et Anthony Masure, avril 2019, p.  216, https://www.cairn.info/revue-multitudes-2019-1-page-212.htm. ». Les conséquences néfastes d’un déploiement toujours plus important du « programme occidental » ne pourront être évitées qu’à condition de sortir de la binarité humain / nature et de déployer de nouveaux critères de lecture du monde, ce à quoi nous invite Haraway dans un texte écrit à la même époque que Flusser : « Avec les machines de la fin du XXe siècle, les distinctions entre naturel et artificiel, corps et esprit, autodéveloppement et création externe, et tant d’autres qui permettaient d’opposer les organismes aux machines, sont devenues très vagues. Nos machines sont étrangement vivantes, et nous, nous sommes épouvantablement inertes 3 Donna Haraway, op.  cit.. » Conforme Magazine : Ces progrès technologiques sont-ils à même de venir en aide à nos sociétés (évolutions médicales, création de viande, alternatives énergétiques écologiques, etc.) ? Anthony Masure : Tout dépend ce que l’on entend par « nos sociétés » (ce qui sous-entend une réponse orientée vers l’occident) et par « aide » : que ou qui faut-il aider, et pourquoi ? Si l’on prend par exemple le cas de la viande « de synthèse » produite à partir de protéines végétales, même si le gain énergétique et moral semble probant, on reste tout de même dans une logique de culte symbolique de la viande et dans de la nourriture industrialisée. Il ne faudrait pas que cette étape de transition se transforme en point final : les repas végétariens ne se réduisent pas à du « sans viande », et leur intérêt est justement d’explorer d’autres saveurs. De plus, avec de tels procédés, on rejoue un vieux débat dans l’histoire de l’art et du design, à savoir l’imitation de la tradition (d’anciennes formes) par des inventions techniques. C’était par exemple le cas des débuts de la photographie, où l’enjeu était d’imiter la peinture. Or la photographie comme art n’a pu se développer qu’en s’écartant d’une telle approche. Est-ce qu’avec la viande de synthèse ou avec des énergies « alternatives » (et non pas pensées de façon autonome) on n’est pas en train de faire de même ? Jusqu’à quelle point ces progrès « béquilles » ne viennent-ils pas contrecarrer l’émergence d’un nouveau pleinement neuf et de nouvelles saveurs ? Conforme Magazine : Le progrès entre de mauvaises mains représente-t-il un danger pour notre démocratie ? Anthony Masure : Dans les sociétés dites développées, le progrès technique va souvent de pair avec l’automatisation, c’est-à-dire avec la recherche d’un rendement toujours plus efficace. Cette tendance n’est pas forcément à rejeter en bloc, car il y a des tâches qu’il vaut mieux confier à des machines. Mais, à un certain moment, cette décharge de capacités cognitives à des machines engage une perte de la notion de responsabilité : plus personne ne se sent responsable de rien, ce qui entraîne un affaiblissement du sens moral et donc de la démocratie. Mais les démocraties représentatives n’échappent pas à cet écueil : trop souvent on attend des dirigeant·e·s politiques qu’ils·elles prennent des décisions à notre place, alors que le sens moral doit précisément être partagé. Le « devenir-fonctionnaire » des êtres humains (c’est-à-dire la réduction des personnes à des entités ne pouvant que fonctionner et appliquer des ordres) nous guette : les réponses ne pourront être que collectives. Il me semble de plus en plus urgent de penser ce que pourrait être un « design de la responsabilité ». Conforme Magazine : L’intelligence artificielle : outil démocratique ou dictatorial ? Anthony Masure : Je ne pense pas que les techniques (et par extensions les technologies) doivent être pensées comme des outils, mais plutôt comme des polarités plus ou moins ouvertes et pouvant faire l’objet de bifurcations (ce qui pourrait être l’enjeu de l’art et du design). Dès lors, il faut moins penser en terme d’intelligences artificielle (IA) au singulier que d’intelligences artificielles au pluriel. En effet, l’histoire de ce champ fait apparaître des profondes controverses entre différentes méthodes, dont ne rend pas compte l’actuelle hégémonie du deep learning (« apprentissage profond »). Le deep learning ne fonctionne pas sous la forme de règles écrites à l’avance (comme dans la cas de la programmation traditionnelle), mais via élaboration du traitement de l’information par la machine, qui élabore en quelque sorte par elle-même l’écriture du programme. Il en résulte des programmes d’un nouveau type, des « boîtes noires 4 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, n o  80, « L’intelligence artificielle : enjeux éthiques et politiques », dir. Vanessa Nurock, décembre 2019, p.  31–46. » incompréhensibles par des êtres humains, ce qui renvoie à la perte de responsabilité que j’évoquais précédemment. On voit mal comment faire « bifurquer » de tels codes, de la même façon que l’on n’imaginerait pas qu’une centrale nucléaire fonctionne en autogestion, dans une logique de démocratie locale. Il faut donc moins s’inquiéter d’un usage dictatorial des IA que du fait que ce qui est singulier et désarmant avec celles du deep learning, c’est précisément qu’elles n’ont pas d’intentionnalité ! Nous devrons apprendre à composer avec des entités potentiellement autonomes, pour lesquelles les concepts de maîtrise, contrôle, liberté, etc., ne sont pas vraiment signifiants. Laurence Revol Conforme Magazine : Il y a-t-il des inégalités face au transhumanisme et au progrès technologique ? Si oui, peuvent-il être pensés comme égalitaires dans une société capitaliste ? Anthony Masure : Tout progrès technique charrie son lot de nouvelles catastrophes. Comme l’indiquait le philosophe Paul Virilio : « Airbus, en inventant un avion de 800 places, créé 800 morts potentiels » 5 Paul Virilio, « Le krach actuel représente l’accident intégral par excellence », propos recueillis par Gérard Courtois et Michel Guerrin, Le Monde, 18 octobre 2008, https://www.lemonde.fr/idees/article/2008/10/18/le-krach-actuel-represente-l-accident-integral-par-excellence_1108473_3232.html. Cela ne veut pas dire qu’il faut tous se réfugier dans le Larzac, mais plutôt d’intégrer que l’« accident intégral » est au cœur de sociétés capitalistes, dont la logique consiste à concentrer toujours plus de richesses et de pouvoir. Il s’agit donc d’œuvrer à décentrer ces points d’ancrage, de faire de la monoculture technique une « permaculture » – qui considère la coexistence de différents écosystèmes comme un préalable à une reconfiguration sociale. Dès lors, un des enjeux du design, dans une dimension critique, serait non pas de renforcer les lieux de pouvoir mais de faire place à d’autres voies et d’autres voix. Si l’on reprend le cas des intelligences artificielles, celles-ci n’ont pas pour fatalité d’être mobilisées sous l’angle de la volonté de puissance. En les considérant dans une optique élargie, au-delà du deep learning, celles-ci peuvent faire l’objet de reconfigurations esthétiques, c’est-à-dire devenir des prismes permettant de révéler et d’activer ce qui était déjà là parmi nous, comme délaissé. C’est quelque chose que nous travaillons à la HEAD – Genève 6 Jürg Lehni, Douglas Edric Stanley, « Pour un design alternatif de l’IA ? », propos recueillis par Anthony Masure, Multitudes, n o  79, dossier « Cultivons nos IA », https://www.cairn.info/revue-multitudes-2020-1.htm. Cet article fait suite à un workshop initié par Alexia Mathieu au sein du Master Media Design de la HEAD – Genève au 1er semestre 2019–2020., en hybridant différentes époques techniques des IA et en faisant dialoguer des programmes « traditionnels » et auto-apprenants. Le champ du design montre ainsi qu’il est possible de « cultiver » les IA et de les emmener dans des directions insoupçonnées. Casser les monopoles capitalistes à l’endroit des logiciels (et donc des méthodes) de création – en l’occurrence Adobe – est un préalable à toute démarche de ce type. Conforme Magazine : Dans un entretien 7 Hans Jonas, « Les machines ne pourront jamais avoir une conscience », entretien avec Norbert Lossau, Die Welt, 29 novembre 1991., le philosophe Hans Jonas affirme : « prétendre que, outre l’exécution des tâches, l’automate puisse lui-même devenir vivant, acquérir une âme et qu’il puisse désormais en vertu de sa propre volonté, nous donner du fil à retordre, n’est que pure spéculation ». Qu’en pensez-vous ? Une machine peut-elle penser ? Anthony Masure : Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Publié en 1945 par l’ingénieur Vannevar Bush, l’article propédeutique «  As we may think 8 Vannevar Bush, «  Comme nous pourrions penser  » [«  As we may think  », The Atlantic Monthly, vol.  176, n o  1, juillet 1945, p.  101–108], trad. de l’anglais (États-Unis) par Anthony Masure, dans : Le design des programmes, des façons de faire du numérique, doctorat en esthétique (spécialité design) sous la direction de Pierre-Damien Huyghe, université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques et Sciences de l’Art, 2014, http://www.softphd.com/these/traduction/vannevar-bush-as-we-may-think.php. » (« Comme nous pourrions penser ») envisage que les appareils de calcul puissent augmenter les capacités intellectuelles afin d’éviter que l’humanité ne replonge dans un conflit meurtrier : l’informatique balbutiante pourrait servir à partager les connaissances, et non pas développer l’économie. Dans cette optique, la délégation d’opérations intellectuelles aux machines n’a pas vocation de remplacer mécaniquement les humains, mais pourrait permettre – à extrapoler Vannevar Bush – de les « déprogrammer » de tâches fastidieuses. En associant la notion de création aux processus de sélection et non pas au traitement répétitif d’informations, Bush s’écarte de la vision du mathématicien Alan Turing. Selon Turing, la pensée humaine, et plus précisément sa part d’intelligence, serait susceptible d’être non pas augmentée, mais « imitée » par une machine 9 Alan M. Turing, « Théorie des nombres calculables, suivie d’une application au problème de la décision » [« On Computable Numbers, with an Application to the Entscheidungsproblem », 1936], trad. de l’anglais par Julien Basch et Patrice Blanchard dans : La Machine de Turing, édition dirigée par Jean-Yves Girard, Paris, Seuil, coll. « Sciences », 1995.. On voit ici se dessiner deux angles d’approches pour les IA : imiter la pensée humaine, ou lui permettre de franchir des seuils. Si une machine donne l’illusion de penser, est-ce une preuve d’intelligence – si l’on entend sous ce mot la capacité à reformuler des situations imprévues ? Penser, est-ce seulement atteindre des objectifs et résoudre des tâches ? On comprendra que l’intérêt est moins de savoir si une machine peut penser à la façon d’un humain que de se demander en quoi ces formes de pensée machinique modifient, altèrent, augmentent son psychisme. Si les machines sont très performantes pour reproduire, elles le sont beaucoup moins pour créer. Conforme Magazine : Est-on proche d’une mort de la mort ? Anthony Masure : L’actuelle pandémie de Covid-19 rappelle avec violence à quel point les humains sont fragiles et comment, malgré toute l’habileté des technosciences à établir des prédictions, de l’imprévu finit toujours par surgir. Derrière la volonté de certains transhumanistes à surmonter la mort, je ne peux m’empêcher de penser à ce que disait Flusser, qu’une fois libéré de tout (travail, responsabilités, morale, etc.) il ne restera plus rien à l’humain sinon l’ennui, et que cet ennui sera bien plus douloureux que la mort. La perspective de la mort est précisément cette chance d’échapper à l’ennui.

Vibrants, ressemblants, questionnants : humains (et designers) face à l’avènement des sexbots

Date

May 2019

Type

Conférence

Contexte

Communication avec Saul Pandelakis, cycle Computer Grrrls, week-end « Dea Ex-Machina », Paris, Gaîté Lyrique

Résumé

Cyborgs, sexbots et tulpas Conférence de Saul Pandelakis et Anthony Masure, conférence de Lauren Moffatt et projection du film This Country Is Lonely de Jaco Bouwer Computer Grrrls - Week-end_03 : Dea Ex-Machina Intelligence artificielle sans corps, poupées programmées et « tulpas », cette rencontre plonge dans les imaginaires de la technologie informatique, de Hollywood aux subcultures étranges d’Internet. Des femmes télécommandées du film Stepford Wives à l’intelligence sans corps de Her, les enseignants-chercheurs Saul Pandelakis et Anthony Masure explorent dans cette conférence illustrée le trope du sexbot. « Dès qu’un imaginaire de l’automate (matrice de l’androïde) émerge au XVIII-XIXe siècles, le corps mécanique autonome est perçu comme potentiellement dangereux en même temps que féminin. Deuxièmement, la technologie informatique est potentiellement féminisante en termes symboliques pour l’usager masculin, dans la mesure où le programme numérique s’inscrit dans un jeu de binarités entre mou et dur, entre software et hardware, relié à la binarité fondatrice et ordonnatrice des sexualités entre masculin et féminin. » « Fluide, imprévisible, le software appartient à un univers féminisant donc dangereux, menaçant pour l’usager masculin. Cependant, en même temps que les technologies molles du programme possèdent cette coloration féminine, les femmes, en tant que telles, sont paradoxalement exclues des imaginaires de la technologie informatique. » Dans le cadre de l’exposition Computer Grrrls Vingt-trois artistes et collectifs internationaux livrent un regard critique et incisif sur les technologies numériques. Elles revisitent l’histoire des femmes et des machines et esquissent des scénarios pour un futur plus inclusif.

Web3 et métavers : quelle place pour les artistes et designers ?

Date

October 2022

Type

Conférence

Contexte

Cycle de conférences UNIGE « Comprendre le numérique », session « Web3 et métavers : qu’est-ce qui nous attend vraiment ? », dir. Yaniv Benhamou.

Résumé

La promesse d’un monde virtuel immersif fusionnant loisir et travail traverse l’histoire de la science-fiction et de l’informatique depuis plusieurs décennies. Remise dans l’actualité par l’entreprise Facebook (Meta) fin 2021, l’idée d’un métavers reste encore floue et convoque différents champs technologiques tels que le Web, le jeu vidéo ou la blockchain. Les univers stéréotypés des grands groupes technologiques ne sauraient éclipser de nombreuses expériences développées par des artistes et des designers, et qui permettent d’étendre la définition de ces espaces vers de nouvelles narrations, interactions et audiences.

Artificial Design: Creation Versus Machine Learning

Date

March 2023

Type

Contexte

Anthony Masure, Artificial Design: Creation Versus Machine Learning, Geneva, HEAD – Publishing, coll. “Manifestes,” 2023

Résumé

In the early 2020s, driven by progress in “artificial intelligence”, programs such as GPT-3, DALL E, Midjourney or Disco Diffusion made it possible to generate images from text instructions. Although these productions often only imitate existing data and lack diversity, media debates tend to focus on the replacement of humans by the machine. In doing so, they screen the essential question: what is the spectrum of current and potential implications of machine learning for design practices?

iPad et mimesis

Date

June 2010

Type

Publication

Contexte

Anthony Masure, « iPad et mimesis », journée d’étude à propos de László Moholy-Nagy, laboratoire de recherche CREDE, juin 2010

Résumé

Étude et analyse de l’interface de lecture de l’application iBooks sur iPad : comment sortir d’un modèle mimétique pour proposer une expérience de lecture singulière ?

Que fait l’amateur?

Date

May 2013

Type

Publication

Contexte

Anthony Masure, «Que fait l’amateur?», Rencontres de Lure, Après\Avant, no1, mai 2013, p.52-53

Résumé

À une époque où la figure du consommateur est à la fois contestée et installée de fait, il est possible de penser le succès médiatique de « l’amateur » comme une tentative d’ajustement de l’époque à ses objets techniques. Pris dans les cadences d’un temps écrasé sur lui-même, nous ne serions plus en mesure de réaliser autre chose que du déjà-là. L’accélération des communications réduit le sensible à des informations dont la valeur décroît à mesure qu’augmente le temps de leur réception. De la même façon, les marchandises aux cycles de renouvellement toujours plus rapides ne permettent pas de réaliser autre chose que des comportements, c’est-à-dire des actes soumis à des réflexes.

Makers : Fable labs ?

Date

January 2013

Type

Publication

Contexte

Anthony Masure, «Makers : Fable labs ? », Strabic.fr, janvier 2013

Résumé

Après La longue traîne (2006) et Free ! Entrez dans l’économie du gratuit (2009), Chris Anderson revient nous narrer les tendances du futur dans Makers. La nouvelle révolution industrielle (2012). Si ces précédents ouvrages restaient cantonnés au domaine des écrans, celui-ci explore le vaste champ du numérique et des objets « autofabriqués ? ». L’ex-rédacteur en chef du magazine culte Wired est-il convaincant dans son nouveau rôle d’évangéliste des machines de fabrication automatisées ?

Travailler l’impensable

Date

May 2013

Type

Publication

Contexte

Anthony Masure, «Travailler l’impensable », préface du recueil d’articles Secousses, Campus Fonderie de l’Image, Bagnolet, mai 2013

Résumé

« Tout objet produit par l’homme est la matérialisation d’un pensable-possible : quelque chose à quoi quelqu’un a pensé et qui peut être réalisé. Le pensable-possible se situe au carrefour des évolutions de la pensée […] et du développement technologique quant aux matériaux disponibles, aux procédés de transformation et aux systèmes de prévision et de contrôle. Cette interaction entre le pensable et le possible, qui se traduit dans ce que nous appelons un projet, est loin d’être simple et linéaire. Le pensable n’est pas un champ ouvert qui devrait rentrer dans les limites du possible, la conscience de ces limites étant déjà un élément constitutif de ce qui peut être pensé. D’autre part, ce qui peut être pensé dépasse la simple acceptation des limites connues. L’acte créateur et inventif se traduit notamment par la capacité de déplacer dans un autre système de références certaines données contraignantes, pour produire ainsi quelque chose de nouveau auquel on n’avait pas encore pensé, et qui pouvait donc sembler impensable 1Ezio Manzini, introduction à La Matière de l’Invention (1986), Paris, Centre Georges Pompidou, coll. Inventaire, 1989, p.  14.. » Si le graphisme est la « manière de représenter le langage par l’écriture 2 Définition de 1875. Citée dans : Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Robert, 2011. », qu’en est-il de l’écriture de cette discipline ? Des structures éditoriales comme B42, Ypsilon ou The Shelf Company, des initiatives comme Graphisme en France ou des évènements comme Les Rencontres de Lure témoignent, à l’échelle française, d’un intérêt soutenu pour les enjeux théoriques et techniques du design graphique. Cette « manie d’écrire 3 Alain Rey, op.  cit. » est-elle pour autant cultivée chez les professionnels de la profession ? Rien n’est moins sûr. Au-delà de l’inévitable côté « entre-soi » des critiques, les contraintes économiques et le temps qui s’y échappe ne favorisent pas l’élargissement des limites de « ce qui peut être pensé 4 Ezio Manzini, op.  cit. ». Le projet d’un recueil d’articles rédigés par des étudiants en design graphique permet de développer quelques réflexions sur la notion d’école comme lieu de distance critique. Un exercice critique Ce livre est constitué de textes rédigés par des étudiants engagés en première année de « Mastère Design Graphique » à La Fonderie de l’Image, une école où le visible est interrogé à chaque strate diplômante. Particularité de cet établissement : les élèves sont employés « en alternance » environ deux semaine sur trois dans des agences de communication (édition, web, vidéo, etc.). Dès lors, il est vain de chercher à imiter des conditions professionnelles. L’exercice critique apparaît comme un contrepoint nécessaire vis-à-vis des réalités des métiers. Emprunté à Catherine de Smet, l’appel « pour une critique du design graphique 5 Catherine de Smet, Pour une critique du design graphique. Dix-huit essais, Valence, B42, 2012. » vise à prendre conscience de l’importance et de l’urgence d’une pensée de cette discipline aux frontières problématiques. La méthode d’écriture se réinvente à chaque objet d’étude, même si des principes propres à toute recherche peuvent se dégager : tracer l’histoire des formes, être attentif aux spécificités techniques, comprendre les enjeux commerciaux, articuler des niveaux de discours hétérogènes, construire des liens logiques entre des auteurs d’époques et de disciplines différentes, référencer précisément ses sources, etc. Le style d’écriture, également, peut se designer. Imaginons des articles alternant fictions, analyses historiques, concepts philosophiques, anthropologiques ou psychanalytiques, encarts techniques, entretiens, etc. La critique en design se doit de penser les formes possibles de son expression. L’école comme lieu du commun Ce travail de base sur le langage, la façon dont les projets de design graphique se construisent et se montrent, est essentiel. Dans le langage courant, nous entendons nombre d’expressions qui traduisent, pour peu qu’on les interroge, des réalités problématiques. Il s’agit d’éprouver « la capacité de déplacer 6 Ezio Manzini, op.  cit. » des formes et des discours installés parmi nous. Comme le souligne Ezio Manzini, le spectre de la pensée est à la fois facteur des données de l’époque et de ce que l’on entreprend pour les dépasser. Travailler le champ du pensable permet de multiplier les possibles. La tâche du designer serait alors de s’affranchir de ses obligations immédiates pour pouvoir « produire [de] l’impensable ». Paradoxalement, la retraite de l’économique permettrait de rédimer 7 Du latin redimere : Racheter une faute, s’affranchir d’une obligation. l’activité de projet. L’école peut-elle être l’occasion d’un tel affranchissement ? Il faut tout d’abord séparer le lieu physique de l’activité de libre pensée (skholê). Cette distinction permet de formuler une échappée à l’administration de nos existences. Libérée des objectifs de rentabilité, l’école, au sens fort, est un temps du recul. Alors que les designers n’investissent que trop rarement les textes relatifs à leurs objets 8 Catherine Geel, « L’ordre sans qualité. Du décor et de la décoration », dans : Fresh Theory, tome 1, Paris, Léo Scheer, 2005, p.  97-113., l’école peut montrer l’exemple afin de combattre, si besoin, les accusations formulées à son encontre – ce supposé éloignement quant à un monde (plus) « réel ». Cette inquiétude n’est-elle pas précisément le signe qu’un déplacement a lieu ? N’est-ce pas le propre de l’école que de produire des situations professionnelles nouvelles, qui ne sont précisément pas celles de l’époque ? Le travail scolaire se doit d’errer, de questionner, de rater (quel meilleur endroit pour expérimenter l’erreur que l’école ?). L’injonction à former des êtres immédiatement adaptables ne vise-t-elle pas au fond à nier la possibilité d’un avenir fondamentalement inconnu, au profit d’un devenir prévisible dans tous ses aspects ? Cet « impératif utopique 9 Alain Fleischer, L’impératif utopique. Souvenirs d’un pédagogue, Paris, Galaade, coll. Essais, 2012. » se heurte bien entendu à des réalités pratiques. Le texte de Manzini rappelle que le projet, l’activité de projection, se construit à la fois avec et contre les « systèmes de prévision et de contrôle ». Pour autant, cette mise à distance ne saurait s’apparenter à un retrait du faire. Comme le rappelle Manzini, « tout objet produit par l’homme est [une] matérialisation », entendue au sens physique et mental. Cessons d’opposer la pratique et la théorie ; la théorie se pratique et une pratique non pensée ne conduit qu’à une « acceptation des limites [déjà] connues ». Manifester ces limites, les faire apparaître, c’est déjà faire projet, c’est voir au delà de ce qui est immédiatement possible. Pour ces raisons, il s’agit moins de penser le temps scolaire en terme de « formation » que « d’instruction », dont l’étymologie latine (struere) « munir, outiller, équiper, disposer par couches » indique l’élaboration d’outils permettant une émancipation de conditions initiales. D’autre part, l’école (cette fois pensée comme un principe d’organisation physique et temporel) peut permettre, lorsque les conditions sont réunies, de produire en commun. L’interaction de systèmes de références différents invite à réfléchir dans des cadres qui ne sont pas initialement les siens. Un objet éditorial ouvert Le titre « Secousses », choisi et assumé par les étudiants pour les tables-rondes et le recueil, nous semble recouper l’idée de déplacement indiquée précédemment. Ce « mouvement en avant », imprimé avec ardeur, invite à bousculer les idées reçues. Espérons qu’une telle énergie saura se retrouver au sein des différentes entrées du livre, préludes à des questionnements qui pourront être développés dans les mémoires de recherche de deuxième année. La division en cinq chapitres : « De l’écriture », « De l’imprimé », « Des écrans », « De l’espace public » et « Du quotidien » démontre la diversité des objets d’étude. Si le graphisme est affaire d’écriture, les supports d’activation de ces signes sont multiples et complexes : des signalétiques de métro aux mèmes numériques, des mutations de l’imprimé aux agrégateurs RSS, des tablettes numériques pour enfants aux gifs animés, des transformations des espaces de vente au graphisme « engagé », des marronniers du graphisme culturel aux emballages de jeux vidéo et pochettes de disque. Le champ ainsi traversé dessine un paysage graphique qui dit quelque chose des préoccupations de l’époque. La rédaction des articles s’est étalée sur six mois, le temps de relire, corriger et réécrire 10 Les articles ont été suivis par Anthony Masure, Adeline Goyet et Perrine Rousselet.. Ces textes ont été pensés dans le contexte d’une journée de tables-rondes autour du graphisme, qui aura lieu le 1 er juin 2013 à la Fonderie de l’Image en présence de quatre invités aux disciplines diverses 11 La première édition des tables-rondes, organisée par les Mastères Design Graphique deuxième année, a réuni le 9 février 2013 Alexandre Saint-Jevin (psychanalyste) Morgane Rébulard (typographe), Julien Priez (typographe) et Annick Lantenois (critique).. Ce moment d’échange est organisé par les étudiants du début à la fin (choix des intervenants, communication, modération, éditorialisation). Le recueil des articles permet ainsi de créer une base consultable par tous avant les discussions. Chacun pourra l’acheter en ligne (impression à la demande 12 Inspiré en cela du livre Questions/Questions, initié par Charlotte Cheetham et Samuel Bonnet en 2011. Site web du projet : questionsslashquestions.tumblr.com. Ce recueil n’est, à ma connaissance, pas disponible en PDF.) et télécharger librement le PDF (placé sous licence Creative Commons). Une telle démarche peut sembler évidente pour des étudiants en design, au fait des spécificités de circulation des pensées dans les environnements numériques. Pour autant, mis à part certains laboratoires de recherche universitaires, les établissements scolaires français se sont-ils vraiment engagés en faveur d’un partage des travaux à l’intérieur et au-delà de leurs enceintes ? Il est malheureusement permis d’en douter. Mais pour actualiser les pratiques, nous dit Annick Lantenois, encore « faut-il que chaque acteur du design graphique accepte de sortir de son statut et de ses certitudes : s’aventurer dans l’inconnu 13 Annick Lantenois, Le vertige du funambule. Le design graphique, entre économie et morale, Paris, B42, 2010, 4 e de couverture. ».

Graphisme en numérique: entre certitudes et incertitudes

Date

April 2014

Type

Publication

Contexte

Anthony Masure, «Graphisme et numérique: entre certitudes et incertitudes», Paris, CNAP, Graphisme en France, no20, p. 65-76

Résumé

« Dans mes moments d’euphorie les plus intenses, c’est comme si le logiciel surgissait des profondeurs de l’ordinateur. Une fois finalisé dans mon esprit, j’avais le sentiment qu’il siégeait dans la machine, n’attendant plus que l’instant de sa libération. Dans cette optique, ne pas fermer l’œil de la nuit me semblait un prix à payer bien dérisoire pour lui donner sa liberté, pour que mes idées prennent forme. — Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000 » Cofondateur de Sun Microsystems 1 Fondée en 1982 et rachetée en 2008 par Oracle, Sun Microsystems a progressivement délaissé la production de serveurs et de postes de travail pour développer Java (un langage de programmation orienté objet), ainsi que M y SQL (un système de gestion de bases de données). et coauteur du langage de programmation Java 2 On appelle «langage de programmation» une bibliothèque d’instructions univoques interprétables par une machine, constituées d’un vocabulaire et d’une syntaxe définis. Le plus ancien est le FORTRAN (1954)., Bill Joy semblait être l’exemple parfait du développeur informatique accompli. C’est pourtant depuis sa pratique des codes sources 3 Le code source désigne l’ensemble des instructions et des fonctions constituant un programme (logiciel, page Web, etc.)., qu’il écrit, au début des années 2000, une mise en garde adressée à ses pairs: «Pourquoi le futur n’a pas besoin de nous 4 Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000..» Rejouant les thèses développées par Günther Anders dès les années 1950 dans L’Obsolescence de l’homme 5 Günther Anders, L’Obsolescence de l’homme (1956), Paris, Ivrea, 2002. (sans les mentionner explicitement), Bill Joy en arrive, par sa pratique de codeur, à prophétiser lui aussi «un monde sans hommes». Comme Günther Anders, il se base sur le traumatisme de la bombe atomique. Bill Joy entrevoit la poursuite de cet évènement paradigmatique dans le développement des ordinateurs, du génie génétique, de la robotique et des nanotechnologies. Selon lui, ces recherches «représentent une menace différente des technologies antérieures» et menacent directement notre survie ici-bas. C’est l’ivresse résultant de la quête du savoir qui aveugle les scientifiques: «Happé dans le vortex d’une transformation, sans doute est-il toujours difficile d’entrevoir le réel impact des choses. […] Le progrès à l’origine de technologies toujours plus innovantes et toujours plus puissantes peut nous échapper et déclencher un processus autonome.» L’émancipation euphorisante permise par les programmes 6 Un programme est généralement conçu pour faire exécuter une tâche précise à une machine (afficher une couleur à l’écran, connecter un ordinateur à une adresse Web, etc.). Un logiciel comprend donc plusieurs programmes permettant de traiter des données. numériques masquerait-elle une catastrophe inéluctable ? À travers l’exemple de Bill Joy, nous pouvons donc distinguer deux attitudes possibles face à la technique: se laisser griser par ses infinies possibilités ou travailler contre elle. L’hypothèse que nous souhaitons étudier ici est que le design ne relève d’aucune des deux. Tel que nous pouvons le soutenir, le design est un processus conscient et inconscient «d’authentification» des techniques nouvelles 7 Sur ces notions rapidement abordées ici, il conviendra de se référer aux travaux de Pierre-Damien Huyghe. Voir par exemple: «L’outil et la méthode», Milieux, n o  33, 1988, p.  64-69.. Le designer travaille dans la marge séparant la certitude de l’incertitude. Il a pour tâche de révéler ce qui, parmi nous, est recouvert de nos habitudes culturelles. Afin de donner forme à ce changement 8 Günther Anders, ibid.: «Il ne suffit pas de changer le monde. Nous le changeons de toute façon. Il change même considérablement sans notre intervention. Nous devons aussi interpréter ce changement pour pouvoir le changer à son tour. Afin que le monde ne continue pas ainsi à changer sans nous. Et que nous ne nous retrouvions pas à la fin dans un monde sans hommes.», le designer ne doit pas se laisser «happer dans le vortex» séparant une époque d’une autre. La vigilance qu’il exerce vis-à-vis des avancées techniques ne va donc pas de soi. Dans le champ du numérique, le graphiste est souvent confiné à n’être qu’un utilisateur des systèmes techniques. Pourtant, il a, tout comme le développeur, un rôle à jouer dans les directions soutenables ou nuisibles que peuvent prendre les programmes. Plus encore, nous pensons que le designer graphique, par sa culture du projet, apporte des éléments de réflexion qui concernent, au sens large, le rapport de l’homme aux inventions techniques. Cet article sera ainsi l’occasion d’examiner quatre situations de controverse autour des rapports entre design graphique et culture numérique. Ces analyses sont dans le prolongement des articles parus ces vingt dernières années au sein de la revue Graphisme en France. Forcément incomplètes, ces lectures croisées explorent des façons de faire du design qui ne présument pas d’avance sur ce qui peut être trouvé, et espèrent ouvrir des «perspectives […] aussi excitantes qu’incertaines 9 Michel Wlassikoff, «Graphisme et informatique, rapide bilan d’une liaison durable», Graphisme en France 1998, Paris, CNAP, 1998.». Révolution informatique / culture numérique Écrit en 1998, l’article «Graphisme et informatique, rapide bilan d’une liaison durable» de l’historien Michel Wlassikoff 10 Michel Wlassikoff est historien du graphisme et de la typographie, diplômé en histoire de l’EHESS. Il enseigne au sein de plusieurs écoles d’art et de design en France et à l’étranger. expose les mutations historiques et esthétiques des logiciels de création. La «décennie prodigieuse» du design graphique déroulée par Wlassikoff nous renseigne à propos de la réception française des technologies dites nouvelles. La conclusion de son texte fait ressortir deux types de rapport à l’ordinateur: la crainte d’une homogénéisation de la création et le développement d’esthétiques nouvelles, «radicalement différentes». Dans son livre Le Monde du computationnel 11 Jean-Michel Salanskis, Le Monde du computationnel, Paris, Les Belles Lettres, 2011., Jean-Michel Salanskis tente de penser le numérique au-delà de la promesse d’une «révolution». Selon lui, le numérique rassemble une multitude d’objets contradictoires, qu’il est délicat d’englober sous une même appellation. En effet, le rapport utilitaire aux objets techniques empêche que cette problématique «révolution» soit tout à fait la nôtre, car ce qu’ils ont d’inédit est souvent parasité par d’anciens modèles de pensée. Le dévoilement de l’ordinateur dans sa puissance de nouveauté commence par le jeu, activité libre et exploratoire. C’est pourquoi il importe que les «systèmes d’exploitation» ne ferment pas à tout jamais la «visite des entrailles 12 Ibid., p.  75.» de nos machines. Grotesk, caractère numérique de Frank Adebiaye pour la fonderie Velvetyne. Première publication sur velvetyne.typepad.com, le 26 juin 2010, sous le nom de Mercandieu, renommé en 2011 en Grotesk, fonte numérique sous licence Open Font License. © F. Adebiaye, 2010-2011, certains droits réservés. Le travail du typographe Frank Adebiaye de la fonderie Velvetyne (VTF) 13 velvetyne.fr va dans ce sens. Distribuées sous la SIL Open Font License (OFL), ses fontes sont accessibles librement 14 VTF, «Manifeste posttypographique, ou l’appel des formidables»: «Nous, VTF, rejetons intrépides de la génération Postscript, nous poursuivons, à la vitesse de l’électron, cet illustre cortège. Tel Spartacus, nous libérons les caractères du joug des règlements iniques et des conventions arbitraires (…).» au designer graphique, au relecteur ou à l’imprimeur, ce qui simplifie le process d’édition. Dans un même registre, Frank Adebiaye poursuit actuellement des recherches autour de la génération automatisée de contenus destinés à l’impression. Référents non référents 15 Frank Adebiaye, Référents non référents, Paris, Forthcome, 2013, coll. «Hoplites», (En ligne), forthcome.fr/hoplites/ref_non_ref/ref_non_ref.html., son dernier livre, est un recueil de textes poétiques écrits entre 2006 et 2013. L’ouvrage est réalisé en XML 16 Le XML est un langage de «balisage» qui facilite l’échange de données complexes par sa grande flexibilité., et interprété par un navigateur Web type Firefox HTML 5 17 Initié en 2009, le langage HTML 5 permet une structuration plus fine des contenus. La gestion des médias est également simplifiée par les balises audio et vidéo.. Le passage du numérique à l’imprimé s’effectue ici par un usage savant des nouvelles possibilités techniques du Web: Responsive Web Design (RWD, site Web adaptable à plusieurs résolutions d’écran), ancres (liens internes) aléatoires, fontes Web hintées (optimisées pour la lecture à l’écran) via le service en ligne Cloud Typography de Hoefler & Frere-Jones 18 typography.com/cloud, etc. Ce type de démarche est partagé par des designers pour qui le travail de la programmation numérique («ce qui ne supporte pas l’inexactitude 19 Ibid., p.  65.») se fait dans l’acceptation d’une certaine marge d’incertitude. Artisanat numérique / conscience industrielle Beaucoup de produits ont pour finalité de disparaître à l’usage. Dans le champ du design graphique, les outils numériques informent directement les pratiques. Il en est ainsi, par exemple, des logiciels propriétaires dits de création, dont les conditionnements pernicieux ont aussi marqué la dernière décennie du design graphique francophone. Ces programmes ne sont pas des interfaces transparentes, mais bien des vecteurs d’idées voire d’idéologies 20 Pour en savoir plus sur ce point, voir Kévin Donnot, «Code = Design», Graphisme en France 2012, Paris, CNAP, 2012, p.5-12. Cela n’empêche pas certains designers de jouer avec les codes de leurs environnements de travail, telle Danielle Aubert, qui compose des tableaux dans le tableur Microsoft Excel 21 Danielle Aubert, 58 Days Worth of Drawing Exercises in Microsoft Excel as Rendered for Web and Animated Daily Excel Drawings, 2005 – 2006, (En ligne), (link: https://danielleaubert.com/print/exceldrawings_book.. Danielle Aubert, Sixteen Months Worth of Drawing Exercises in Microsoft Excel, extrait, 3 avril 2005. © D. Aubert Selon Annick Lantenois, depuis 1990, le développement des programmes a été progressivement confié aux ingénieurs, le designer se retrouvant dès lors relégué au statut de simple usager. Comme le dit Florian Cramer: «Ce modèle impose un retour à un mode de travail artisanal qui exclut les artistes et les designers des évolutions des médias de masse électroniques 22 Annick Lantenois cite Florian Cramer dans: «Ouvrir des chemins», Graphisme en France 2012, Paris, CNAP, 2012, p.  15. […].» Une telle expression réactualise des débats très anciens sur la constitution du design comme champ autonome de l’artisanat. L’histoire d’un mouvement précurseur comme le Deutscher Werkbund 23 Lucius Burckhardt, Le Werkbund: Allemagne, Autriche, Suisse (1977), Paris, Centre d’études et de prévisions, 1981. est ainsi jalonnée de prises de position contradictoires sur le rapport à l’industrie – travail manuel et production de masse. Dans la synthèse qu’en donne Walter Gropius au Bauhaus, il y aurait «design» quand les artistes cessent de s’opposer à l’industrie et travaillent avec elle, en tension – Art et Industrie 24 «Kunst und Technik – eine neue Einheit», Walter Gropius, 1923.. Si la place nous manque pour développer ce dernier point, et pour en revenir aux rapports entre design graphique et culture numérique, nous noterons tout de même qu’elle implique la possibilité d’une «esthétique avec la mécanisation 25 Pierre-Damien Huyghe, Art et Industrie. Philosophie du Bauhaus, Belval, Circé, 1999, p.41.». Le retour au mode de vie médiéval de la communauté artistique avait déjà été expérimenté à l’orée du Bauhaus. Est-ce que le design graphique, dans les conditions techniques actuelles, gagnerait à revenir à un modèle où les notions de production en série et de standardisation ne posaient pas problème ? Ne risquerait-on pas alors, en réaction à des craintes similaires à celles de Bill Joy, de basculer dans une attitude antitechnique ? Superscript 2, affiche pour l’exposition Lettres Type, My Monkey, Nancy, novembre 2011. 80 × 120 cm. © Superscript 2 Superscript 2, Opération Graffiti, affiche réalisée pour le Festival international de l’affiche et du graphisme de Chaumont, 2013. Interprétation graphique d’une opération militaire. 80 × 120 cm. © Superscript 2 À l’opposé de ce retour à une tradition révolue, les travaux du studio Superscript 2 jouent ainsi avec les codes graphiques de la production en série, hésitant ironiquement entre travail manuel et automatisation complète du processus créatif (le «super script»). Ce qui est en jeu ici, c’est la fondamentale marge de liberté qui fait de toute vie authentiquement humaine une singularité non reproductible. L’enjeu du design serait alors de permettre le développement des techniques, sans qu’elles nous portent atteinte. Dire cela ne revient donc pas à accepter toute forme de production en série, mais bien au contraire à la choisir et à la transformer. À la lumière de ces quelques intuitions, nous pouvons relire ce que disait Michel Wlassikoff des «logiciels [qui] se sont ainsi inspirés des habitudes professionnelles et ont pris en compte les propositions des graphistes, ce qui a assuré leur adoption rapide et leur constante adaptation». Ce mélange d’habitudes et de renouvellements définit bien la réalité du designer, pris dans une zone de confort qu’il cherche continuellement à dépasser. Ordonner le monde / donner forme à la technique Dans « Ce que nous pourrions penser», article visionnaire publié dans le contexte de la bombe atomique de 1945, Vannevar Bush 26 Vannevar Bush, «As We May Think», The Atlantic Monthly, volume 176, n o  1, juillet 1945, p.  101-108. Trad. de l’auteur., chef de la recherche scientifique étasunienne, développe l’idée d’un réseau d’informations à échelle mondiale. Plus précisément, il invente sur le papier la notion d’hypertexte, qui ne sera réalisée techniquement qu’une trentaine d’années plus tard. Son concept de «memex» vise à résoudre le problème de la dispersion des articles scientifiques, dont les meilleurs tombent dans l’oubli. Sa visée plus large est d’éviter qu’un nouveau conflit mondial ne se produise. Cet article, écrit comme celui de Bill Joy depuis une pratique des systèmes d’informations, interroge la façon d’organiser le savoir humain à l’époque des calculateurs. Pour Vannevar Bush, il y a un enjeu décisif à choisir ce qui doit être rendu public (partageable) dans une masse d’informations. L’hypertexte ouvre la possibilité de structurer un flux afin d’isoler ce qui est pertinent de ce qui ne l’est pas. Si l’humanité n’est plus en mesure de transformer l’information en connaissance, alors cette indistinction deviendra indigestion, «infobésité», absence de communication, conflit, bombe. L’éthique de l’ingénieur développée par Vannevar Bush est aussi celle du designer: la technique doit servir l’homme pour lutter contre ses insuffisances. Rationalisé et rendu disponible, le savoir humain doit pénétrer toutes les couches de la société pour l’éclairer de ses vertus. Cette pensée se prolonge aujourd’hui, avec d’importantes nuances, dans des systèmes dont l’ambition ne serait plus seulement d’organiser le monde, mais de le recouvrir de leurs ordonnancements. On pourra penser ici à l’ambition de Google «d’organiser toute l’information du monde 27 Larry Page, à propos de Google: «Notre ambition est d’organiser toute l’information du monde, pas juste une partie», Paris, Le Monde, 21 mai 2010.». Par là, on remarque que le monde n’est pour Google qu’une matière dont la finalité serait de produire des éléments signifiants, c’est-à-dire des connaissances pouvant faire l’objet d’un rendement. Dans cette configuration, nul espace n’est supposé échapper à la trame informationnelle 28 Paul N. Edwards, Un monde clos. L’ordinateur, la bombe et le discours politique de la Guerre froide (1996), Paris, B2, coll. Territoires, 2013. qui se tisse autour de nos existences, réduites progressivement à des entités calculables. Avec le recul dont nous disposons désormais, nous pouvons dire que «l’informatique» dont parlait Michel Wlassikoff s’est constituée en culture numérique. On retrouve l’origine française du mot «ordinateur», dans une lettre de 1955 adressée au président d’IBM: «Cher Monsieur, écrivit Jacques Perret, que diriez-vous d’ordinateur ? C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde 29 Éric Hazan, «16 avril 1955: que diriez-vous d’ordinateur ?», Paris, Le Monde, 15 avril 2005..» Cette traduction maximaliste du terme «computer» substitue ainsi à la puissance de calcul l’idéal religieux d’un ordonnancement du monde. Il y a aussi dans l’ordonnancement, au sens testamentaire, l’idée d’instaurer et de prendre des dispositions, c’est-à-dire des décisions. N’est-ce pas aller trop loin, au risque du contresens, que d’attribuer de telles propriétés aux machines à calculer ? Au-delà de ces promesses, un champ de recherche pour les designers graphiques consisterait à faire apparaître les systèmes techniques qui disparaissent habituellement derrière des interfaces «transparentes». Il ne s’agit donc plus simplement d’organiser le monde, mais avant tout de donner à le comprendre 30 «(Notre époque) se raidit pour atteindre l’absolu et l’empire, elle veut transfigurer le monde avant de l’avoir épuisé, l’ordonner avant de l’avoir compris.» Albert Camus, «L’Exil d’Hélène», dans: L’Été, Essais, Paris, La Pléiade, 1963, p.  856.. Dans les projets de design qui nous intéressent, la technique n’est pas abordée dans sa dimension fabuleuse, mais révélée dans sa puissance de nouveauté. Il en est ainsi de l’affiche Specimen de Fanette Mellier, réalisée dans le cadre d’une exposition au pôle graphique de Chaumont en 2009. Ce projet ne cherche pas à «faire image», mais affirme son statut d’objet imprimé, appréciable à une échelle déterminée. Le recto est rempli des trames et gammes colorées servant au calibrage des machines d’impression. Ce motif obsessionnel sature la page d’éléments géométriques non symboliques, faisant de ce qui n’est habituellement pas vu l’endroit d’une expérience sensible. Le verso de l’affiche contient des éléments informatifs conventionnels. Une fois pliée, l’affiche joue du contraste entre ces deux modes d’approche du design graphique: manifester une technique ou délivrer un message. Fanette Mellier, Specimen, affiche pour un programme d’expositions sur le graphisme éditorial, pôle graphisme de Chaumont, 2009. Impression offset recto-verso. 120 × 176 cm. Le titre apparaît avec le pli. © F. Mellier Datavisualisation / transformation de données Les dizaines de millions de fiches individuelles accumulées par John Edgard Hoover au sein du FBI n’auront pas suffit à nous réveiller. Le scandale déclenché par les révélations d’Edward Snowden sur les pratiques de la NSA a de nouveau mis en lumière les liens profonds existants entre les gouvernements occidentaux et les grands groupes de télécommunication. Même si nous pouvions nous en douter, ces preuves à charge jettent le trouble sur un système n’ayant plus grandchose à voir avec des préoccupations citoyennes. Au début des années 2000, le Web 2.0 31 Tim O’Reilly, «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», conférence du 30 septembre 2005. aura été, sous couvert de partage et d’ouverture des possibilités techniques, l’endroit d’un recentrement problématique. La «facebookisation» du Web est celle de sa progressive transformation en télévision. Par exemple, la récente fonction autoplay des vidéos des flux Facebook 32 Josh Constine, «Facebook Puts Its Web Feed In Motion With Auto-Playing Videos», Techcrunch.com, 11 décembre 2013, (En ligne), techcrunch.com/2013/12/11/facebook-autoplay-video vise à réduire le degré d’interaction avec le contenu, pour proposer un modèle de consommation passive. Comme l’écrivait en 1987 le critique de cinéma Serge Daney: «L’affaire Médiamétrie […] et ce qu’on sait sur les techniques à venir du contrôle du téléspectateur vont toutes dans le même sens: l’écran du téléviseur n’est plus une frontière qui – comme tout écran – sépare et réunit des êtres anonymes mais un miroir dans lequel, idéalement, l’émetteur et le récepteur se comptent et se voient 33 Serge Daney, Le Salaire du zappeur, Paris, P.O.L, 1987, p.  11..» Le modèle télévisuel apprend aux gens à vendre leurs expériences – finalité bien éloignée des utopies des pionniers d’Internet 34 Fred Turner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand, un homme d’influence (2006), Caen, C&F, 2012.. Dans cette calculabilité des existences, la multiplication des informations interroge le designer sur son rôle d’organisateur. Le mythe des données «brutes» est battu en brèche par l’étude du «travail des données 35 Hubert Guillaud, «Travail et travailleurs de la donnée», Internet Actu, 13 décembre 2013, (En ligne), internetactu.net/2013/12/13/travail-et-travailleurs-de-la-donnee », qui montre que celles-ci sont toujours biaisées et soumises à interprétation. Dès lors, on comprendra que le rôle du designer graphique est central dans la compréhension des données. Son travail tient davantage de la «transformation 36 Marie Neurath, Robin Kinross, Le Transformateur, Paris, B42, 2013.» que d’une illusoire objectivation. Non seulement les données sont visibles avant le travail du designer graphique, mais celui-ci produit un travail d’interprétation voire de production du sens qu’il serait difficile de nier. Par exemple, en mettant en tension l’impersonnalité des diagrammes à des éléments illustratifs et narratifs, le design du rapport d’activité 2012 du CNAP réalisé par The Shelf Company (Morgane Rébulard et Colin Caradec) se joue ainsi des conventions graphiques. The Shelf Company: Morgane Rébulard et Colin Caradec, Rapport d’activité du CNAP, 2012, p.  63. © The Shelf Company, 2013 Afin de «faire société» dans ce déluge de données «obtenues 37 Bruno Latour, «Que la bataille se livre au moins à armes égales», postface à Controverses climatiques, Sciences et Politiques, Paris, Les Presses de Sciences Po, 2012, p.  6.», le médialab de Sciences Po (initié par Bruno Latour) mène depuis quelques années des recherches autour de leurs modalités de présentation à l’écran. Comme il est possible de faire dire n’importe quoi à des chiffres, il ne suffit pas de démontrer l’ensemble du traitement statistique. Il faut également expliquer comment on est parvenu à l’image finale, en laissant à l’utilisateur la possibilité de remonter dans le processus d’abstraction. Ces interfaces recourent ainsi à ce que l’on pourrait appeler une «chaîne de transformation 38 «(…) la production de savoir est un cheminement, une trajectoire, une chaîne de transformations (…).» Bruno Latour, «La connaissance est-elle un mode d’existence ?», dans: Vie et Expérimentation. Peirce, James, Dewey, Paris, Vrin, 2007, p.  13.», pour désigner la présentation cohérente de l’ensemble du cheminement intellectuel. Comme le dit Bruno Latour: «Propriété essentielle, cette chaîne doit rester réversible. La traçabilité des étapes doit permettre […] de la parcourir dans les deux sens. Qu’on l’interrompe en n’importe quel point et voilà qu’elle cesse de transporter le vrai, de le produire, de le construire, de le conduire 39 Bruno Latour, «Sol amazonien et circulation de la référence» (1993), dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007, p.  74..» En ouvrant des marges entre la collecte et l’abstraction, de telles démarches cherchent à comprendre plus qu’à ordonner 40 Karl Marx, Thèses sur Feuerbach, XI, 1888: «Les philosophes n’ont fait qu’interpréter le monde de différentes manières, ce qui importe, c’est de le transformer.» ; elles laissent de la place à l’autre. Figure de Bruno Latour: «Pour chacune des étapes que traverse la référence, la transformation peut être représentée comme un compromis entre ce qui est gagné [amplification] et ce qui est perdu [réduction] à chaque étape de la production d’information.» Extrait de «Sol amazonien et circulation de la référence» [1993], dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007. Penser en numérique Le développement des logiciels libres 41 Le logiciel «libre» vise à respecter la liberté essentielle de l’utilisateur (liberté d’utiliser, de modifier et de redistribuer des copies d’un programme). L’open source voit dans la mise à disposition du code source la meilleure façon de favoriser l’innovation logicielle. a permis à des machines hétéroclites de dialoguer ensemble. Nous réalisons chaque jour que cette idée est fondamentale, afin que le Web (et le numérique en général) ne se referme pas définitivement. Pour cette raison, il est important que les logiciels libres développent de nouvelles «méthodes d’approche 42 László Moholy-Nagy, «Nouvelle méthode d’approche – Le design pour la vie» (1947), dans: Peinture, photographie, film et autres écrits sur la photographie, Paris, Folio, 2007.», au lieu de se contenter d’imiter des logiques propriétaires. Nous pouvons nous référer ici à la ligne de recherche Design by Numbers, initiée par John Maeda dans les années 1990 43 John Maeda, Design by Numbers, Cambridge, MIT Press, 2001.. Créé par Ben Fry et Casey Reas en 2001, le logiciel Processing 44 processing.org est directement issu de ces explorations. En permettant de tracer et d’animer des formes au moyen d’une syntaxe 45 Dans le contexte du code, la syntaxe permet d’articuler des instructions pour les rendre compréhensibles par la machine. simplifiée, ce type de programme permet de dépasser les interfaces à base d’icônes et de menus déroulants. Plus encore, le succès de Processing nous dit, s’il en était besoin, que l’évolution des supports modifie profondément les champs d’action du design graphique. Les médias animés, sonores, tactiles, etc. font partie de notre quotidien depuis déjà de nombreuses années, et cette réalité doit être prise en compte par les designers. Murmur, du studio Chevalvert 46 m-u-r-m-u-r.me. Projet réalisé en collaboration avec 2R oqs, Polygraphik et Splank. Technologies employées : OpenFrameworks, Javascript, bandes LED. Processing avait été utilisé pour les premiers prototypes de Murmur., incarne cette transversalité des supports, où le projet s’enrichit des expériences passées. Ici, une prothèse architecturale permet la communication entre une personne etun mur sur lequel elle est connectée. Ce type de démarche excède toujours un peu l’idée initiale, les codes sources pouvant être réinvestis dans d’autres contextes et/ou redistribués librement. Murmur, un projet de Chevalvert, 2R oqs, Polygraphik et Splank, vue de la projection dans le cadre de «nuit numérique #10X-L ight», Centre culturel Saint-Exupéry, Reims, 25 mai 2012. ©D.R. Les logiciels sont généralement plus intéressants quand ils sont employés pour des usages qui n’étaient pas prévus initialement. Utilisé dans le projet Murmur, Processing permet aux designers d’inventer de nouveaux environnements de travail. À la recherche d’une esthétique pertinente pour leur «journal de recherche», les designers de NORMALS ont développé dans Processing une interface de création de bande dessinée vectorielle. La forme est directement issue du code, et non d’une logique analogique. Une fonction de leur programme Polyrotor connecte ainsi les nouveaux points placés sur l’écran à ceux qui sont les plus proches 47 «Delineating the Future – an interview with NORMALS», Creative Applications Network, 6 décembre 2013, (En ligne), creativeapplications.net/theory/delineating-the-future-an-interview-with-n-o-r-m-a-l-s. Cette façon de faire du graphisme en numérique invente des formes qui ne sont pas totalement anticipables par l’imagination. Les formes polygonales dessinent un futur où le réalisme de l’image est mis en doute au profit d’hypothèses et de fictions transversales. Sans même connaître les processus de création, le lecteur comprend qu’il a affaire à un dialogue stéréoscopique entre l’homme et la machine. NORMALS: Cédric Flazinksi & Aurélien Michon, programme Polyrotor, capture d’écran, janvier 2014. Cédric Flazinksi, Aurélien Michon, NORMALS, ouvrage autoédité, Paris, mars 2014. Réalisé à l’origine sous Processing, l’interface de création typographique Prototypo 48 Yannick Mathey et Louis-Rémi Babé, prototypo.io, travail en cours de réalisation. Prototypo est désormais développé en HTML5 Angular JS et SVG. Dans le même registre, voir aussi les expérimentations du studio LettError. de Yannick Mathey s’émancipe d’une construction lettre par lettre de la fonte. L’utilisation d’algorithmes permet de manipuler en temps réel des formes dynamiques, les changements formels étant répercutés sur l’ensemble de l’alphabet. Le programme permet également d’indiquer des «limites» aux bonnes règles typographiques, sans que celles-ci ne freinent la création. Depuis des dizaines d’années, les apports du numérique au champ de la typographie ont été fructueux. Il reste beaucoup à apprendre d’initiatives comme l’Unified Font Object ou Metafont 49 David Vallance a présenté, aux Rencontres internationales de Lure 2013, le travail de découverte et d’appropriation du programme Metafont, qu’il a mené dans le cadre de son diplôme national d’Art et technique à l’Ésad Grenoble-Valence.. Yannick Mathey et Louis-Rémi Babé, programme Prototypo, captures d’écran, janvier 2014. © Y. Mathé, L.-R. Babé Désirer l’incertitude À l’issue de ces quelques exemples et relectures croisées, nous pouvons appréhender d’une nouvelle manière les craintes de Bill Joy. Il nous semble périlleux d’envisager a priori les inventions techniques sous l’angle de la «menace», car au nom de quoi critiquerions-nous une nouvelle technique, si ce n’est suivant son rapport à la tradition ? En n’acceptant pas que le monde puisse changer, un tel parti pris se retranche dans ses convictions. Le développement des systèmes de prévision en tous genres (sondages, assurances, contrats, etc.) semble faire de nos existences des entités dociles et réglables, de moins en moins aptes à prendre des décisions. Pour échapper à cette programmatique, il faut que le designer participe à l’élaboration d’une société qui ne fonde pas sa marche sur le calcul. Le fait que les designers graphiques investissent de plus en plus la conception des programmes numériques nous ouvre de nouvelles façons de faire, basées sur la compréhension sensible des spécificités techniques. Le designer peut ainsi choisir de conduire la technique dans des directions qui ne portent pas atteinte à la liberté humaine. Son travail hésite entre certitudes et incertitudes: d’un côté les habitudes professionnelles et culturelles, de l’autre la confrontation à l’inconnu 50 Pierre-Damien Huyghe, Modernes sans modernité. Éloge des mondes sans style, Paris, Lignes, 2009, p.  123. La modernité s’inscrit dans un «mouvement qui ne fait pas de l’émission d’un sens le but unique des conduites techniques […]».. «Apprendre et désapprendre», disait Catherine de Smet 51 Catherine de Smet, «Apprendre et désapprendre», Graphisme en France 2008, Paris, Cnap, 2008.. Afin que la prochaine décennie ne soit pas déjà écrite, à nous de désirer l’incertitude.

Notions

Personnes citées

Objets mentionnés

Médias

Visual Culture. Open Source Publishing, Git et le design graphique

Date

November 2014

Type

Publication

Contexte

Anthony Masure, «Visual Culture. Open Source Publishing, Git et le design graphique», Strabic.fr, novembre 2014

Résumé

Le collectif Open Source Publishing (OSP) propose aux designers graphiques de s’inspirer des méthodes de programmation informatique en vigueur depuis de nombreuses années, notamment dans le logiciel libre. Placé en financement collaboratif (crowdfunding) en novembre 2014 sur la plateforme Kiss Kiss Bank Bank, leur projet « Visual culture, un outil pour le design collaboratif (avec Git) » nous donne ainsi une parfaite occasion d’envisager des façons de faire du graphisme qui ne soient pas marquées par les logiques dominantes type Adobe.

Les dessous du code: le commentaire comme espace de liberté ?

Date

May 2015

Type

Publication

Contexte

Anthony Masure, «Les dessous du code: le commentaire comme espace de liberté ?», compte-rendu de la conférence de Joanna Pomian aux Rencontres de Lure 2014, Lurs, Après\Avant, no3, mai 2015, p. 42-44

Résumé

Après des études de sciences humaines et informatique, Joanna Pomian choisit le métier du conseil pour aller au devant des entreprises et les aider à gérer leurs données, informations ou connaissances. Aujourd’hui spécialisée dans la transformation numérique des organisations, elle travaille chez Wax Interactive (groupe SQLI). Les programmes recto/verso Elle voulait être médiéviste, elle a finalement fait une thèse en intelligence artificielle. Après un passage au CNRS, Joanna Pomian rejoint le monde de l’entreprise, où elle travaille désormais dans le secteur de la « transformation numérique ». Le cadre de son intervention aux Rencontres de Lure 2014 faisait suite à un article écrit dans la revue Traverses en 1988 sur l’iconicité du code informatique 1 Emmanuël Souchier, Joanna Pomian, « Les machines écrivantes ou l’écriture virtuelle », Traverses, n o  44-45, Paris, Centre Pompidou, 1988.. Commande lui était passée, profitant de son expérience professionnelle dans le monde, de prolonger ses réflexions dans le contexte des « commentaires » des codes source : l’occasion d’une ballade dans « les dessous du code ». Les étoiles du code composent un tableau visuel qui ne sera pas exécuté par le programme. Programme écrit en FORTRAN suivi de sa version compilée, RWTH Aachen University, 1987. Source : Wikipedia, licence CC BY-SA 3.0 Le code : un type d’écrit particulier Dans le contexte de la programmation informatique, l’utilisateur n’a le plus souvent accès qu’à une interface, c’est-à-dire à un ensemble de menus et de boutons lui permettant d’effectuer un certain nombre d’actions anticipées dans la conception du programme. Au-delà du fait que la plupart des programmes ne possèdent pas d’interfaces, il est pourtant possible de comprendre leur fonctionnement en les étudiant comme des textes : en lisant le langage que constitue leur «code source». Même si de telles démarches sont rares, nous pouvons donc aller plus loin et analyser les programmes non pas comme des producteurs d’effets (de «fonctions»), mais comme des écrits particuliers 2 Citons comme contre-exemple l’ouvrage collaboratif 10 Print Chr (205.5+Rnd(1)); : Goto 10 paru aux MIT Press en 2012, constitué d’articles consacrés à l’analyse d’une ligne de code.. Des langages de programmation spécialisés Comme le dit Joanna Pomian, un programme est un texte écrit à destination d’un ordinateur. Il structure un ensemble d’instructions destinées à faire quelque chose. Au plus «bas niveau», les machines informatiques emploient du code binaire constitué de 0 et de 1. Comme il est compliqué de comprendre une telle abstraction, les développeurs informatiques ont inventé de multiples langages, davantage compréhensibles de ceux qui les utilisent car moins abstraits. Ces « langages formels », logiques comme les mathématiques, ont évolué de par leur facilité de compréhension et par la spécialisation des problèmes à résoudre. Joanna Pomian cite par exemple le COBOL (1959), langage de programmation comprenant des milliers de lignes de code destinées au domaine de la comptabilité-gestion ou le FORTRAN (1957), utilisé pour contrôler les centrales nucléaires. Écrire dans le programme Dans un deuxième temps, les langages informatiques se sont élargis, devenant plus « généralistes » afin de pouvoir produire toutes sortes de programmes. Indépendants de toute finalité ou machine, ces langages de programmation sont à la base des «commentaires» des codes sources, rendus nécessaires par l’abstraction et l’univocité de ce type de notation. Comme un programme informatique doit pouvoir être compris et retravaillé par (potentiellement) n’importe quel programmeur, il a fallu prévoir dans le programme des zones où ajouter du texte qui ne sera pas «lu» par le « compilateur 3 Un compilateur est un programme qui transforme un code source en un programme exécutable écrit dans un langage de « bas niveau » (proche du langage machine).». Dit autrement: «Un commentaire est une ligne de code qui n’est pas exécutée par l’ordinateur» (Joanna Pomian). La dimension iconique des codes sources Les premiers commentaires des programmes étaient écrits à la main, sur les cartes perforées à l’origine des langages de programmation totalement électroniques. Avec le développement des ordinateurs, il a fallu trouver des façons d’indiquer à l’ordinateur où commence et où s’arrête le commentaire, « et chacun y est allé de son petit système de notation » (Joanna Pomian). Des suites de caractères tels que <!-- -->, /* */, //, etc 4 On distinguera deux types de commentaires : les commentaires « en ligne » et les commentaires « en bloc » (pour plusieurs paragraphes), qui se développent avec la disparition progressive de la notion de ligne dans les codes sources.. permettent de ménager des espaces d’expression libre dans l’exactitude du code. Cette multitude de signes différents servant une même fonction – commenter – renforce la dimension iconique des langages de programmation. Cet aspect visuel est de plus en plus présent, car là où les premiers moniteurs ne pouvaient afficher qu’une seule couleur, les éditeurs de code (Dreamweaver, Brackets, Notepad++, etc.) ont rapidement intégré la couleur comme élément de repérage 5 Le logiciel Sublime Text va même plus loin en affichant un raccourci visuel (dézoom) du code source dans une colonne latérale (« minimap»). (on parle ainsi de «coloration syntaxique»), permettant d’afficher les commentaires dans un style spécifique. Normaliser pour (se) comprendre Cette volonté de réguler voire de normaliser la structuration des programmes peut se comprendre, nous dit Joanna Pomian, en observant le développement du «reverse engineering», science consistant à étudier un objet « fini » en remontant aux principes ayant présidé à sa conception pour en comprendre le fonctionnement. Dans le contexte des programmes, ce sont ainsi des millions de lignes de code qui ont pu être documentées après coup.  Nous en venons ainsi au cœur de l’exposé de Joanna Pomian: «à qui s’adresse le commentaire, et qui parle?» Une première réponse consiste à dire que le commentaire s’adresse en priorité au développeur lui-même, « qui aime parler seul ». Le commentaire s’apparente alors au post-it, permettant de prendre du recul et de se comprendre par la verbalisation de sa propre pensée. Dans le contexte de l’entreprise, on échange aussi avec ses collègues, ses supérieurs et clients: le commentaire a également une valeur d’échange. Un espace de liberté menacé ? Le statut principal des commentaires de programmes vise donc à permettre une (illusoire?) transparence du fonctionnement des programmes, à éclaircir ce qui se passe dessous. Deux courants s’affrontent : l’un pensant que le code se suffit à lui-même (logique du «beau» code), et l’autre consistant à commenter de façon réglée, l’énonciation de ces règles étant soumise à polémiques. Joanna Pomian conclut son exposé en insistant sur la valeur déclarative et personnelle de ces portions de textes qui constituent peut-être un des derniers endroits où les développeurs informatiques peuvent exprimer librement leur créativité, d’où le recours à des jeux de mots, figures, ornements, etc. Alors que la recherche de rentabilité gagne du terrain dans tous les domaines, le développement des méthodologies «agiles» signe-t-il la fin des commentaires ? Que reste-t-il de démarches comme la «programmation lettrée 6 Par opposition à la toute puissance de la « programmation structurée », l’informaticien Donald Knuth (inventeur du programme Metafont) développa au début des années 90 la « programmation lettrée », qui se voulait tournée vers les êtres humains et non pas vers les ordinateurs. Voir : fr.wikipedia.org/wiki/Programmation_lettr%C3%A9e» de Donald Knuth? Souhaite-t-on vraiment un monde où tout serait structuré selon des règles logiques?

L’intelligence en défaut des smart cities

Date

January 2017

Type

Publication

Contexte

Anthony Masure, «L’intelligence en défaut des smart cities», Sur-Mesure, no 1, «Villes, usages et numériques», janvier 2017

Résumé

Supports d’« innovations » technologiques, les smart cities n’en sont pas pas moins porteuses d’enjeux socio-politiques: les dispositifs invisibles ou opaques des applications numériques, en déplaçant les frontières entre domaine privé et domaine public, entre libertés individuelles et contrôle social, posent en creux cette question: «quelle nouvelle forme donner à l’intelligence collective?»

À défaut d’esthétique : plaidoyer pour un design graphique des publications de recherche

Date

November 2018

Type

Publication

Contexte

Article publié dans la revue de recherche Sciences du Design, Paris, Puf, no 8, novembre 2018, p. 67-78

Résumé

Selon le philosophe Jacques Derrida, la distinction métaphysique entre l’écriture et la parole (logos) entraîne une dépréciation de l’écriture et interroge par extension la prétention d’une « pure » pensée à exister séparément de sa représentation graphique. Nous proposons de mettre en résonance l’analyse de ce « logocentrisme » avec le champ des publications numériques de recherche, où la forme demeure majoritairement impensée. En montrant au travers de l’étude de deux publications en ligne (GAM3R 7H30RY et Haunted by Algorithms) comment certaines pratiques de design graphique permettent de dépasser l’opposition forme/contenu, nous soutenons que la prise en compte de la dimension esthétique de l’écriture peut contribuer à dérouter et à renouveler les pratiques de recherche communément installées.

Recherche et culture libre : approche critique de la science à un million de dollars

Date

December 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

Prises et déprises des technologies numériques

Date

January 2021

Type

Publication

Contexte

Contribution à l’ouvrage Colloque Vues & Données – De la prise de vue à l’épreuve de la donnée comme histoire matérielle de l’image, dir. Fabien Vallos, Arles, ENSP, Dijon, Les presses du réel.

Résumé

La collecte des « données » numériques à grande échelle, sur lesquelles les citoyens n’ont que peu de « prise », prolonge la vieille utopie de mesurer chaque entité matérielle du monde. L’invisibilisation (la soustraction à la vue) des opérations de calcul et de traduction propre aux technologies numériques masque les idéologies (politiques, etc.) qui les sous-tendent : comment faire pour que le code informatique n’ait pas pour seule visée le management des êtres humains ? Pour proposer des réorientations soutenables permettant de desserrer l’emprise des données numériques, il est nécessaire d’aller à rebours des discours inscrivant l’informatique dans une évolution voire dans une révolution. Une étude resituant la notion de donnée depuis l’apparition des « appareils » photographiques fait ainsi apparaître des disjonctions entre ce qu’on pensait être nouveau et ce qui était déjà là parmi nous, en latence.

Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création

Date

May 2021

Type

Publication

Contexte

Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.

Résumé

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.

Ouvrir le livre. HEAD – Publishing, une cellule éditoriale engagée dans la dissémination des savoirs

Date

September 2021

Type

Publication

Contexte

Article rédigé pour le catalogue de la Biennale internationale de design graphique de Chaumont 2021.

Résumé

La pandémie du Covid-19, avec la fermeture des librairies et des bibliothèques en 2020, a mis en évidence la nécessité d’accéder aux livres en versions numériques. De nombreux·euses éditeur·trices, pourtant peu friand·es des publications en ligne, ont rendu disponibles des ouvrages pour garder le lien avec leur public. Les institutions culturelles ont renforcé les actions de médiation en ligne. De son côté, avec le Covid, le milieu de la recherche s’est davantage engagé dans l’open access, en mettant en œuvre l’obligation, pour les projets financés sur fonds publics 1 C’est par exemple le cas des projets financés par les bailleurs de fonds ANR (France) et FNS (Suisse)., de livrer les résultats rédigés sous une forme consultable gratuitement en ligne. Mais qu’entend-on par « livre numérique » ? Il faut reconnaître que les frontières de ce dernier sont difficiles à baliser. L’expression de livre numérique peut renvoyer à des formats de fichiers (e P ub, HTML, PDF), à des pratiques de lecture (navigation par hyperliens, consultation sur plusieurs terminaux), ou à des modèles économiques (circuits de distribution spécifiques). Pour aller plus loin, il faut examiner ce qui, dans la forme culturelle du livre tel que nous la connaissons depuis plusieurs siècles, empêche l’émergence d’autres façons de faire. La notion de livre reste en effet attachée à celle du livre imprimé, comme si le livre numérique ne pouvait être qu’un calque « dématérialisé ». Or changer de processus de travail n’est pas seulement une affaire de compétences techniques et de moyens, mais engage une redéfinition de l’écriture et de la lecture en milieux numériques. Autrement dit : comment imprimer une culture numérique dans des institutions où domine encore le paradigme traditionnel du livre ? Difficultés à penser des livres « vraiment » numériques Pour apporter quelques éléments de réponse, il faut tout d’abord examiner une série de problèmes liés aux livres numériques tels que nous les connaissons habituellement : – Le paradigme de la page reste le modèle de référence pour les interfaces de lecture, notamment via l’usage massif du format PDF (Portable Document Format, 1992). Un PDF est un ensemble de coordonnées géométriques permettant d’assurer un rendu imprimé fidèle à ce qu’on voit à l’écran afin de faciliter le processus de travail avec les imprimeurs. S’il facilite les citations via les numéros de page 2 Arthur Perret, « L’impensé des formats : réflexion autour du PDF », blog de l’auteur, 7 mars 2021, https://www.arthurperret.fr/impense-des-formats-reflexion-autour-du-pdf, le PDF a pour défaut de ne pas être « sémantique » 3 Sauf dans le cas de solutions expérimentales telles que le « Liquid Mode » de Adobe Acrobat (septembre 2020)., (les données ne sont pas structurées de façon logique), et n’est donc n’est pas accessible aux personnes malvoyantes. Il ne peut pas être remis en page dynamiquement (responsive), et est donc inadapté à la diversité des formats d’écrans. De plus, il est mal indexé par les moteurs de recherche, qui obligent à charger tout le fichier pour trouver le contenu désiré. – Les multiples formats de lecture (e P ub, HTML, PDF, apps, etc.) et types de terminaux entraînent une barrière technique qui entrave la réalisation de livres numériques. Ces derniers nécessitent de maîtriser les langages de programmation (Web notamment), mais aussi d’acquérir une culture des interfaces, à savoir une fréquentation d’objets numériques dans toute leur diversité (sites Web, applications, jeux vidéos, motion design, etc.) – l’analyse de ces productions nécessitant l’élaboration de nouvelles méthodologies 4 Alexandre Saint-Jevin, « Essai pour une méthode d’analyse plastique du vidéoludique », Conserveries mémorielles, n o  23, 2018, http://journals.openedition.org/cm/3213. – Les usages et modèles économiques sont encore fragiles, ce qui freine les développements. Le format e P ub, par exemple, n’a guère percé car il ne fait que dupliquer les technologies Web « standard », qui évoluent en permanence au contraire des systèmes d’exploitation des liseuses type Kobo ou Kindle. De plus, la multiplication des formats de lecture en ligne (articles, podcasts, vidéos, sites Web, etc.), de même que la possibilité de faire des hyperliens et de commenter les contenus, mettent à mal la compréhension du livre comme une unité close. – Les pratiques du design graphique liées aux livres imprimés impliquent une attention soutenue à la fabrication de l’objet, de même qu’aux notions de grille et de micro-typographie. Or les environnements numériques sont par défaut « variables », non stabilisés, et le rendu du texte ne peut jamais être totalement maîtrisé. Les démarches de design graphique « d’auteur » peuvent entrer en conflit avec la standardisation des logiciels et environnement de travail (frameworks) numériques, qui entraînent un risque de « globalisation esthétique 5 Anthony Masure, « Copier/Varier. Standards, critiques et contre-emplois des logiciels de création », dans : David Christoffel et Nathalie Blanc, Multitudes, n o  79, dossier « Globalisations esthétiques ». ». « Manifestes » : une collection d’ouvrages multi-supports et libres et droits Voyons à présent un cas d’étude mettant en évidence la difficulté à passer du modèle de l’imprimé à une démarche multi-supports. Souhaitant internaliser la production de ses ouvrages et les déployer dans une multiplicité de formats, la Haute école d’art et de design de Genève (HEAD – Genève, HES-SO) s’est engagée depuis 2020 dans une restructuration de ses publications via la création du label HEAD – Publishing, une cellule éditoriale multi-supports destinée à valoriser les actions pratiques, théoriques et critiques de l’école genevoise à l’initiative de Julie Enckell Julliard (responsable du développement culturel et des publications), Anthony Masure (responsable de la recherche) et Dimitri Broquard (responsable du département Communication visuelle). Un site Web dédié (https://head-publishing.ch), développé par Juan Gomez (alumnus Master Media Design), met en valeur les précédentes publications de l’institution en montrant les différentes proportions des ouvrages imprimés (dimensions et épaisseur) et en faisant le lien avec la revue de l’école (ISSUE 6 https://issue-journal.ch). La première initiative de HEAD – Publishing est le lancement, en avril 2021, d’une nouvelle collection d’ouvrages intitulée « Manifestes » (coordination éditoriale : Sylvain Menétrey), qui réunit des textes courts portant un regard incisif sur les champs d’action et d’étude de la HEAD – Genève. Les essais, qui se font le reflet de recherches en cours, affirment des parti pris méthodologiques, proposent une vision spéculative de l’art et du design, et positionnent les filières et leurs acteur·trices de l’école dans les débats du monde contemporain. Pour cette collection, nous souhaitions avoir une dissémination des savoirs la plus large possible. Les Manifestes sont disponibles en deux langues (français/anglais), et les textes sont mis à disposition sous licence libre CC BY-SA pour dépasser la notion de gratuité associée au mal nommé open access. Conçue par Dimitri Broquard, l’identité visuelle décline les Manifestes en version imprimée offset distribuée en librairies (17 × 10,5 cm, 80 pages, 12€), en version Print on Demand (Lulu.com) à prix plus faible pour les pays non couverts par les distributeurs, et en divers formats numériques accessibles librement sur le site Web HEAD – Publishing : HTML responsive, e P ub et PDF. La version Web (HTML) a fait l’objet d’un soin particulier, avec une interface en trois colonnes pour séparer le texte courant des notes et des figures. La production des textes des Manifestes a été réalisée via Editoria 7 https://editoria.pub (Coko Fondation), une plateforme d’édition collaborative et libre de droits dédiée aux ouvrages scientifiques. La gestion des rôles nous a évité l’envoi par mail de multiples fichiers Word, le texte étant finalisé en ligne à un seul endroit. Les versions numériques HTML et e P ub des Manifestes ont été exportées (générées) depuis Editoria. Souhaitant avoir un environnement de travail totalement libre de droits, nous voulions utiliser la bibliothèque de code Paged.js 8 https://www.pagedjs.org (Coko Fondation) pour mettre en page les Manifestes en Web to Print (maquettage via des feuilles de style CSS). Ce workflow s’est cependant révélé plus compliqué que prévu, notamment en raison de difficultés liées à la gestion des césures en CSS, à la résolution des images, et à nos choix de maquette relatifs aux notes de bas de pages, placement des visuels et appels de figures – ce qui a conduit à finaliser la maquette offset des trois premiers Manifestes dans Adobe InDesign. Nous espérons toutefois revoir cela pour de futurs opus, et pensons également à produire des versions sonores pour élargir la diffusion. Manifeste pour des environnements rugueux Le cas pratique de HEAD – Publishing met en évidence la complexité d’établir un flux de travail unifié (single source publishing) : bien qu’en grand progrès, les outils de Web to Print ne permettent pas encore d’obtenir une précision graphique comparable aux logiciels de PAO type Adobe InDesign. Ce constat doit toutefois être nuancé par la très mauvaise gestion par InDesign des formats numériques « non PDF » (e P ub et HTML). De plus, étant libre de droits, Paged.js bénéficie d’améliorations constantes de la communauté, comme par exemple une potentielle gestion manuelle des drapeaux via une interface de prévisualisation dans le navigateur 9 Julie Blanc, « A paged.js hackathon at EnsadLab », blog de Paged.js, 18 mars 2021, [https://www.pagedjs.org/posts/2021-03-hackathon. Le Web to Print doit davantage être compris comme un appel à inventer de nouvelles formes de livres, voire de nouveaux types de designers, plutôt que comme une façon plus efficace de produire des ouvrages. Mais, plus fondamentalement, c’est le rapport aux technologies qui est changé. Dans la culture des logiciels libres, il est hasardeux de penser en termes de simples « outils » ou de « solutions » : n’étant pas gérés par des entreprises avec des objectifs de rentabilité, les environnements de travail libres de droits nécessitent une compréhension des valeurs du partage et de la contribution 10 Lauren Lee McCarthy (@laurenleemack), tweet du 2 avril 2021, https://twitter.com/laurenleemack/status/1378020279545331723, et une implication dans le design des protocoles. Les logiciels libres sont souvent rugueux voire contre-intuitifs 11 Marcello Vitali-Rosati, « Ce qui pourrait être autrement : éloge du non fonctionnement », blog de l’auteur, 18 mars 2021, http://blog.sens-public.org/marcellovitalirosati/cequipourrait/fonctionnement.html, et mettent à mal l’assignation de n’être que des « usager·ères » 12 Pierre-Damien Huyghe, À quoi tient le design. Sociétés, services, utilités, Grenoble, De L’Incidence, 2018.. Peut-être est-ce là leur plus grand mérite : contrecarrer le jargon dépolitisant du design « d’expérience » et du design « d’interfaces utilisateurs ». Manifestes HEAD – Publishing, 2021

Play-to-Earn : quand jouer devient un job à temps plein

Date

February 2022

Type

Publication

Contexte

Entretien avec Marine Protais pour la revue L’ADN.

Résumé

Vous voulez comprendre ce qu’est le Web3 ? Découvrez les jeux Axie Infinity, Valhalla Battle Arena ou Sorare… Leur modèle est la meilleure illustration de ce que devient Internet. Interview d’Anthony Masure, spécialiste du sujet.

La HEAD décrypte le numérique

Date

June 2023

Type

Publication

Contexte

Anthony Masure, Aurélie Gfeller, « La HEAD décrypte le numérique », Go Out!, no 111, juin 2023, p. 43-45

Résumé

Le numérique est au coeur des entreprises et de notre quotidien. Il se met au service de tous les secteurs d’activités : la finance, l’industrie, les télécommunications, le commerce, la sécurité mais aussi l’aide à la personne, l’éducation, le sport, la musique, etc. Normal que les formations autour de ces fluctuations digitales fleurissent. Ainsi, dès le 10 juillet prochain, c’est la Haute école d’art et de design (HEAD) qui s’enrichit d’une nouvelle formation continue unique en son genre autour de la transition numérique sous forme de 8 modules courts en dialogue les uns avec les autres. De quoi booster sa carrière et sa créativité ! Tête-à-tête avec deux grands experts de la pédagogie et du numérique, et créateurs de ce nouveau cycle de formation : Aurélie Gfeller et Anthony Masure. Pourriez-vous nous parler de ce nouveau cycle de formation sur la transition numérique? Pourquoi ce nouveau cursus ? Anthony Masure (AM) – Avec les récentes vagues de transformations numériques, le monde a changé : on est passé de logiciels plus ou moins spécialisés à des environnements où il est de plus en plus difficile de s’orienter et pour lesquels on a plus que jamais besoin de repères. Les artistes et designers ont toujours été précurseurs des usages et détournements des technologies ; c’est pourquoi nous pensons que la HEAD – Genève a un rôle à jouer dans la compréhension des mutations contemporaines ! Aurélie Gfeller (AG) - Dans un monde où l’accélération des changements technologiques entraîne la disparition de certains métiers tout en en créant d’autres, les professionnels, qu’ils soient aguerris ou fraîchement diplômés, doivent constamment renouveler leur palette de connaissances et de compétences. Le temps leur manque cependant pour s’engager dans une formation de longue durée. Avec ces modules de 8 à 10 demi-journées, susceptibles de s’insérer à terme dans un CAS (Certicate of Advanced Studies), nous souhaitions proposer une formule aisément accessible, aussi bien en termes de coût (CHF 1’200.- par formation) que d’investissement personnel. Quelles sont vos fonctions respectives au sein de cette formation, et qu’est-ce qui vous a plus dans cette dernière ? AM - Je suis responsable de la recherche et professeur associé à la HEAD, avec un focus personnel sur le design et les technologies. Avec Aurélie Gfeller, nous sommes convaincus que le numérique offre un terrain de jeu à même d’intéresser un public élargi. Nous avons imaginé ce cycle de formations comme une initiation à un ensemble de champs qui sont en train de modifier de nombreuses professions. J’interviendrai également dans les modules « Web3 Basics » et « Web-to-Print », avec dans les deux cas une promesse de nouvelles expressions créatives et d’opportunités économiques. AEG - Je suis responsable des études et professeure associée à la HEAD – Genève. À ce titre, je coordonne nos 15 formations Bachelor et Master. À mon entrée en fonction en octobre 2021, il m’est d’emblée apparu évident que la HEAD – Genève avait une carte à jouer au niveau de la formation continue, destinée à des professionnels en emploi. Nos concours d’admission Bachelor et Master étant très sélectifs, la HEAD donne parfois l’impression d’être inaccessible. Nous souhaitions montrer que cette école genevoise, de renommée internationale, pourrait aussi s’ouvrir à un public plus large, basé essentiellement à Genève et en Suisse romande. À qui est-elle destinée ? AM - Nous avons pour ambition d’intéresser, via les moyens de l’art et du design, un public plus large que les métiers de la création, et qui puisse y trouver une voie d’accès ouverte et prospective. Toute personne concernée par l’avenir des métiers de la culture, au sens large, et ceux de la communication peut ainsi se sentir concernée. Qui sont les intervenants experts sur l’AI conviés à y participer ? AM - Ce module associe deux enseignants de la HEAD– Genève experts de ces technologies en plein essor : Etienne Mineur, designer d’interactions et cofondateur de l’entreprise Volumique, et Douglas Edric Stanley, artiste, designer, curateur, développeur et théoricien, qui tous deux travaillent sur ces enjeux depuis déjà plusieurs années. Ensemble, ils couvriront à la fois l’histoire culturelle des IA et aussi leur prise en main pratique, depuis des services grand public comme Chat GPT ou Midjourney jusqu’à des alternatives plus ouvertes. AEG - La thématique mais aussi la notoriété des intervenants ont d’emblée suscité un grand engouement. La session de l’été 2023 sur l’intelligence artificielle a été complète à peine ouverte. Nous prévoyons ainsi de proposer une nouvelle session avec les mêmes intervenants début 2024. Comment sont composés les 8 modules du programme? Y a-t-il des pré-requis à ces derniers ? AM - Chaque module dure de 4 à 5 jours et la plupart du temps aucun prérequis n’est exigé. Nous accordons une grande place à l’accessibilité des informations transmises, avec un soin particulier porté aux supports de cours et documents fournis, dont certains ont fait l’objet de recherches spécifique – comme pour le module sur la blockchain qui se base sur un guide visuel de ces technologies et qui a été inventé à la HEAD. Qu’y apprend t-on concrètement? Que peut-on attendre à la fin de cette formation ? AM - Des thématiques comme les intelligences artificielles, les environnements 3D, la blockchain ou le web-to-print sont autant de mutations profondes actuelles et potentielles des métiers de la culture. Avec ce cycle de formation continue, nous permettrons au public d’être acteur des transformations de sa profession plutôt que de subir des vagues d’innovation toujours plus rapides. AEG - Si l’on entre dans le détail de chaque formation, les participants à la formation « Modélisation d’expositions en 3D » (juillet 2023) – artistes, curateurs, scénographes, régisseurs, monteurs, responsables d’institutions, conservateurs ou encore commissaires d’exposition – apprendront à utiliser un programme (SketchUp) afin de traduire une idée dans un plan 3D ou de modéliser des oeuvres dans différents espaces. Ils deviendront dès lors capables de comprendre la plus-value et les limites de ces modes de représentation et de les utiliser de manière pertinente pour offrir au public une expérience convaincante. La formation « Web3 basics » (septembre-octobre 2023), quant à elle, prend du recul sur la mode des NFT et donne des clés de compréhension aux métiers de la culture pour fédérer de nouvelles communautés et des modèles économiques plus redistributifs.

Sexbots : sexe, technologie, politique

Date

November 2017

Type

Conférence

Contexte

Communication avec Saul Pandelakis dans le cadre de la journée d’étude « Sex Plays : penser les objets du sexe du présent », université Toulouse – Jean Jaurès / Master DTCT

Résumé

Contexte de la journée d’étude En 2017 on estime à 13% le nombre de requêtes sur les moteurs de recherche qui s’inscrivent dans le registre de la pornographie. Ceci est même banal, tout comme le fait d’observer que « le sexe vend ». De nouveaux sextoys arrivent tous les mois sur le marché, tandis que de nouveaux discours s’élaborent autour des rencontres et des activités à caractère sexuel. Nous n’avons pas encore les moyens techniques de construire de parfaits sexbots (robots pour le sexe), mais nos fictions, de Ex Machina à Hot Bot, investissent pourtant frontalement le champ des interactions sexuelles humain-machine. De nombreux documentaires présentent par ailleurs les relations contradictoires qui animent la culture occidentale, entre le jeu de la satisfaction instantanée (avec Grinder, Tinder, et d’autres services du même acabit) et les schémas de l’addiction (dans Chem Sex, 2015). Le sexe est bien sûr aussi une question de pouvoir, et l’absence d’autonomie sexuelle constitue une privation de liberté et de droits. En France, il est toujours interdit aujourd’hui de recourir aux services d’un/e assistant/e sexuel/le dans les cas des personnes en situation de handicap, alors que la pratique est légale en Belgique, Suisse, Italie, etc. et même financée par l’État au Danemark. Le documentaire Yes We Fuck (2015) nous rappelle que le sexe n’est pas seulement une question de plaisir, mais bien d’agentivité — en tant que tel, il devrait constituer une part fondamentale de tout projet de justice sociale. Les débats actuels autour du sexe viennent aussi remuer notre compréhension des dichotomies de sexe / genre. Alors que les personnes trans, intersexe, queer, fluides se battent pour obtenir visibilité et respect, il semble que les productions du design, et plus particulièrement les sextoys, peuvent jouer un rôle décisif dans les stratégies politiques autour des identités personnelles et collectives.

Esthétique des données : des humanités numériques aux crypto-actifs

Date

March 2018

Type

Conférence

Contexte

Conférence et performance autour de la nouvelle collection Esthétique des données (éditions B42), pensée à la fois pour les amateurs et les spécialistes de la culture numérique. Merci à Marie Lechner, Lola Ricordeau et Clémence Seurat.

Résumé

À l’occasion de cette soirée, j’ai rédigé et performé une une nouvelle notice (contenu complémentaire à l’essai Design et humanités numériques) intitulée « Binance.com / Représenter », mise en ligne sur le site Web de la collection Esthétique des données. Cette contribution interroge l’esthétique des crypto-actifs (crypto-monnaies, etc.) et de leurs représentations. Contexte Rencontre autour de la collection Esthétique des données (éditions B42), dont le premier livre a paru en novembre 2017. Cette collection s’adresse aux amateurs et aux spécialistes de la culture numérique. Dirigée par Nicolas Thély, elle a pour objectif de rendre communicables les expériences et les modes de pensée associés à la fréquentation des artefacts numériques (CD-R om, sites Internet, mondes virtuels, logiciels, bases de données, etc.) en mettant en lumière des textes rédigés ces vingt dernières années par des critiques et théoriciens de l’art et en publiant les recherches d’une nouvelle génération de chercheurs en humanités numériques. Table ronde et discussion en présence de Nicolas Thély, directeur de la collection Esthétique des données (éditions B42), Anthony Masure, auteur de Design et humanités numériques, Gilles Rouffineau, auteur de Éditions off-line (prochain livre à paraître dans la collection) et de Kévin Donnot et Elise Gay, qui ont pris en charge la création du site Web dédié à la collection. À l’occasion de cette table ronde, Anthony Masure et Gilles Rouffineau offriront une démonstration performée des enjeux théoriques développés au sein de leurs ouvrages respectifs. Anthony Masure présentera les notices d’une sélection choisie de logiciels et de services présentés dans son livre. Gilles Rouffineau ramènera à la vie des CD-R om des années 1990. Avec le partenariat de l’équipe PTAC. — Participants Anthony Masure est maître de conférences en design à l’université Toulouse Jean Jaurès. Il a cofondé les revues de recherche Réel-Virtuel et Back Office. Inscrites dans le champ du design, ses recherches portent sur les implications sociales et politiques des nouvelles technologies. Il est l’auteur de Design et humanités numériques (B42). Gilles Rouffineau enseigne en design graphique à l’Ecole Supérieure d’Art et de Design Grenoble-Valence. Il codirige l’unité de recherche « Il n’y a pas de savoir sans Transmission ». Ses recherches concernent depuis quelques années l’archéologie des éditions numériques. Son livre, Editions off-line, paraîtra aux éditions B42 en 2018. Nicolas Thély est Directeur de la Maison des Sciences de l’Homme en Bretagne (MSHB) et professeur en arts, esthétique et humanités numériques à l’université Rennes 2 au sein de l’équipe Pratiques et Théories de l’art contemporain. Il dirige la collection Esthétique des données aux éditions B42. Kévin Donnot et Élise Gay sont designers graphiques au sein du studio E+K. Kévin Donnot est également enseignant spécialisé dans le numérique à l’ÉESAB Rennes et à l’Université Paris 8.

Résister aux boîtes noires. Design et intelligences artificielles

Date

September 2018

Type

Conférence

Contexte

Conférence donnée au colloque colloque MCRIDD, Tunis, Institut Supérieur des Arts Multimédia de la Manouba (Isamm)

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes auto-apprenants (deep learning) et potentiellement incontrôlables (black boxes). Ces IA « créatives » investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Sous couvert de rentabilité, le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs (patterns) automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notre monde vampyroteuthique

Date

August 2019

Type

Conférence

Contexte

Conférence-performance au Marseille Octopus Worldwide 2019 / Festival du Poulpe, Marseille, piscine naturelle du Vallon des Auffes

Résumé

Anthony Masure et Élise Rigot sont deux chercheurs en design. Ils sont allés au fond des abysses pêcher un étrange ouvrage de fiction philosophique, le Vampyroteuthis Infernalis. Cet étrange récit date du début des années 1980 : il a été écrit en Provence par le philosophe Vilém Flusser, et illustré par l’artiste paranaturaliste Louis Bec. Animal des enfers, l’octopode y devient le miroir des médias et de notre humanité. Afin de suivre en image le récit qui sera proposé, un site Web mobile, créé pour l’occasion, sera accessible le jour J pour les visiteurs.

Du métavers au Web3

Date

October 2022

Type

Conférence

Contexte

Intervention à la rencontre « Métavers : quels enjeux pour la culture et la musique », Espace Multimedia Gantner – Centre d’art contemporain à Bourogne.

Résumé

La promesse d’un monde virtuel immersif fusionnant loisir et travail traverse l’histoire de la science-fiction et de l’informatique depuis plusieurs décennies. Remise dans l’actualité par l’entreprise Facebook (Meta) fin 2021, l’idée d’un métavers reste encore floue et convoque différents champs technologiques tels que le Web, le jeu vidéo ou la blockchain. Les univers stéréotypés des grands groupes technologiques ne sauraient éclipser de nombreuses expériences développées par des artistes et des designers, et qui permettent d’étendre la définition de ces espaces vers de nouvelles narrations, interactions et audiences.

D’une culture visuelle sous contrôle à des IA situées

Date

December 2025

Type

Conférence

Contexte

Communication dans le cadre du séminaire « L’œil numérique » (dir. Laurence Danguy et Julien Schuh), séance 4 : « Pouvoir et contrôle en IA visuelle », université Paris Nanterre.

Résumé

Cette présentation s’ancre dans la longue histoire des interfaces humains-machines pour mettre en perspective leurs principes fondateurs (promesses de transparence, de naturalité et d’absence de friction) avec les mutations induites par l’IA générative. Alors que ces technologies ouvrent la voie à une potentielle ère « post-smartphone » (facial computing, interfaces neuronales, agents intégrés, vibe coding, etc.), qu’en est-il des enjeux de pouvoir sous-jacents ? Les nouvelles partitions de l’IA, entre visible et invisible, induisent-elles de nouvelles croyances et mécanismes de contrôle ?

Pour traiter ces questions, nous nous intéresserons à un corpus d’exemples en art et design ainsi que sur les premières conclusions du projet de recherche « Fucking Tech! » (2024-2027), qui étudie les mutations des relations humain-machines dans le domaine des sexualités. Ces initiatives, encore éparses, montrent qu’il est possible de refonder les infrastructures et imaginaires de l’IA sur la diversité des cultures, des esthétiques et des modes de production : une IA comme bien commun plutôt que d’une IA au service des monopoles.

Médias

Adrien Gonauer
Epreuves de la tradition. Le numérique comme outil de narration dans les contes

Date

June 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Légende, fable, fiction, récit d’événements imaginaires, le conte remplit un double objectif : plaire et éduquer. Les approches analytiques ont souligné son caractère d’universalité, et mis en lumière son rôle pédagogique. Générateur d’espace transitionnel, il permet à l’enfant d’initier son apprentissage de la société et des règles qui la régissent. Avec l’avènement du numérique et l’apparition des interfaces graphiques, un nouvel avenir se propose aux contes. Comment modeler la « matière numérique » afin qu’elle serve la narration ? Comment conserver la fonction de tremplin vers l’imaginaire ? Pour que le passage de l’écrit au numérique puisse s’effectuer au bénéfice du conte, il est nécessaire d’être conscient des enjeux graphiques mais aussi éthiques qui en découlent.

CV

Date

Type

Contexte

Résumé

Productions de recherche

Date

Type

Contexte

Résumé

Angles morts du numérique ubiquitaire – Un glossaire critique et amoureux

Date

January 2023

Type

Contexte

Cet ouvrage collectif a été publié suite au colloque éponyme de Cerisy en 2020. Il a été codirigé par Yves Citton, Marie Lechner et Anthony Masure.

Résumé

138 entrées pour explorer les non-dits des nouvelles technologies, intelligences artificielles et autres aspects du numérique, d’algolittérature et asservissement machinique à viralité en passant par capitalisme de plateforme, évangélisme technologique, glitch-féminisme, médiactivisme et technopolice.

Thèse

Date

September 2008 — November 2014

Type

Contexte

Thèse en esthétique dirigée par Pierre-Damien Huyghe à l’université Paris 1 Panthéon-Sorbonne, UFR Arts plastiques et Sciences de l’art

Résumé

Résumé Cette thèse interroge le design depuis les pratiques de programmation en montrant qu’elles ne se réduisent pas à une industrie des programmes, qui empêche les inventions de naître tout à fait. Pour cela, elle confronte au sein d’une lecture non linéaire cinq moments de l’histoire du numérique (depuis Vannevar Bush en 1945, dont une traduction inédite est proposée en appendice, jusqu’aux usages contemporains du site web G it H ub) à quatre formulations conceptuelles issues d’un corpus philosophique. Le choix d’auteurs qui n’ont pas directement voué leurs réflexions au design (comme Jacques Derrida, Hannah Arendt ou Walter Benjamin) permet de déconstruire un certain nombre de discours entourant la réception des technologies dites nouvelles. Critiquant nombre d’usages faits des notions de conception et de projet et s’appuyant finalement sur Gilbert Simondon, cette thèse s’intéresse à ce qui n’est pas prévisible dans les programmes. Elle soutient cinq axes ou directions pour une recherche dans le champ concerné : décentrer, authentifier, appareiller, traduire et désarticuler. La plausibilité de ces façons de faire du numérique, encore à l’état d’ébauche dans les productions contemporaines, peut intéresser les designers au-delà des spécialistes. Elle est avérée en fin d’ouvrage dans la description d’une fiction curatoriale. Jury de soutenance M. Yves Citton, Professeur des universités, Université Stendhal-Grenoble 3 (pré-rapporteur). M. Pierre-Damien Huyghe, Professeur des universités, Université Paris 1 Panthéon-Sorbonne (directeur de thèse). M. Nicolas Taffin, Designer d’applications, Professeur associé à l’Université de Caen Basse-Normandie. M. Nicolas Thély, Professeur des universités, Université Rennes 2 (président de jury).

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias