Anthony Masure

chercheur en design

Recherche

Résultats de recherche

IA et pédagogie : un état de l’art

Date

avril 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

Résister aux boîtes noires. Design et intelligence artificielle

Date

décembre 2019

Type

Publication

Contexte

Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notions

Personnes citées

Objets mentionnés

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

janvier 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

AVANT C’était devenu le règne des boules de neige. Ils disaient  : «  attracteurs  ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du «  buzz  ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif («  web 2.0  ») avait colonisé les dynamiques de «  publics  » avec des comportements de «  foules  » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective  » à propos des essaims. Les nostalgiques parlaient de «  bêtise grégaire  ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres  : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des «  choix  » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient  : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient  : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir  ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux  ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source  : «  unindexed/scripts/query.js  »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines «  Google material  » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face  ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND  ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : «  The Value of Art  ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau  : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS  ? Premiers symptômes  : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul  ? Cupidité autodestructrice  ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION  ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de «  The Value of Art  ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE  ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20   mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES  ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste  : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE  ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus  : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES  ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents  : saturés. Puis simplement introuvables. Disparus  ! QUELLES SOLUTIONS  ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde  ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source  : «  updraftplus/admin.php  »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES  ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES  ? Le procédé était dirimant  : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source  : «  Imagick::addNoiseImage  »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION  ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus  : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS  ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe  : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS  ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source  : «  Amazon-Killer  »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS  ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de «  décongestionner  » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux «  autoroutes de l’information  » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du «  gain  ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS  ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS  ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source  : «  Wordless Web  »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS  ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES  ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES  ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS  ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue  : Le robocopyright «  ContentID  » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en «  AttentionID  », affectant à chaque vidéo un «  coefficent d’accélération  » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking «  AttentionID  », le script «  slow_max_views.js  » avait par exemple étiré à 30h la durée du clip «  Gargantuan style  » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles  ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode «  esthétique  » de circulation s’activant en fonction des trajets planifiés. Les objets «  connectés  » étaient aussi touchés, eux qui demandaient toujours plus de temps et de «  mises à jour  ». Les montres, lampes, chauffages, prothèses et autres gadgets «  intelligents  » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS  ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe «  pollen  » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES  ? Ce qu’on appelait «  l’Histoire  » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance  : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient  : un monde sans histoire, un monde sans mémoire  ! Un monde sans civilisation  ! Un retour à la sauvagerie  ! À l’immédiateté ! Un monde «  post-historique  », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE  ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS  ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media  : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention «  immédiate  » échappait à la lèpre  : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement  ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille «  humaine  » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait «  s’y sentir  » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres  ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

Recherche et culture libre : approche critique de la science à un million de dollars

Date

décembre 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

Des interfaces graphiques aux IA. Vers un design à sens unique ?

Date

janvier 2024

Type

Publication

Contexte

Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.

Résumé

À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.

Peut-on encore ne pas travailler ?

Date

juin 2017

Type

Publication

Contexte

Anthony Masure, «Peut-on encore ne pas travailler?», Cité du Design / ESADSE, Azimuts, no47, juin 2017, p.20-35

Résumé

Tandis que le travail, en crise, est de plus en plus recherché, mince est la limite entre des emplois salariés, pour lesquels il faut en faire toujours plus, et une myriade de micro-tâches non rémunérées, qui donnent l’impression de travailler jour et nuit. Autrement dit : peut-on encore ne pas travailler ? Afin de traiter ce paradoxe, nous examinerons tout d’abord le passage du métier à des professions employées à faire croître le capital. Ensuite, après avoir vu en quoi l’époque contemporaine pourrait signer une possible « mort de l’emploi », nous analyserons en quoi le développement du « labeur numérique » (digital labor) et des objets supposément « intelligents » (smart) brouille la distinction entre le temps libre et le temps travaillé. Afin de sortir de ces impasses, nous nous demanderons si le design, en tant que travail de « qualités » inutiles, pourrait permettre d’envisager de nouveaux rapports au temps.

Le design de la transparence : une rhétorique au cœur des interfaces numériques

Date

janvier 2019

Type

Publication

Contexte

Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence »

Résumé

Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes :
1. Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques.
2. La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données.
3. La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.

Veille créative

Date

Type

Contexte

Résumé

Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création

Date

mai 2021

Type

Publication

Contexte

Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.

Résumé

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.

Le design des programmes

Date

décembre 2014

Type

Conférence

Contexte

Conférence donnée à l’EESAB Rennes autour de la thèse Le design des programmes

Résumé

La plupart des « guides » à destination des concepteurs de programmes numériques visent à établir des listes de normes ou de « bonnes pratiques ». Ces approches nous paraissent insuffisantes, car elles évacuent d’emblée des considérations philosophiques, politiques et morales. Alors que toutes les activités humaines sont progressivement affectées par des programmes parfois menaçants et étouffants, sous quelles conditions le design peut-il faire que les objets techniques deviennent des « appareils » ouverts sur des perspectives émancipatrices d’inventivité individuelle et collective ?

Graphisme en numérique: entre certitudes et incertitudes

Date

avril 2014

Type

Publication

Contexte

Anthony Masure, «Graphisme et numérique: entre certitudes et incertitudes», Paris, CNAP, Graphisme en France, no20, p. 65-76

Résumé

«  Dans mes moments d’euphorie les plus intenses, c’est comme si le logiciel surgissait des profondeurs de l’ordinateur. Une fois finalisé dans mon esprit, j’avais le sentiment qu’il siégeait dans la machine, n’attendant plus que l’instant de sa libération. Dans cette optique, ne pas fermer l’œil de la nuit me semblait un prix à payer bien dérisoire pour lui donner sa liberté, pour que mes idées prennent forme. — Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000  » Cofondateur de Sun Microsystems 1 Fondée en 1982 et rachetée en 2008 par Oracle, Sun Microsystems a progressivement délaissé la production de serveurs et de postes de travail pour développer Java (un langage de programmation orienté objet), ainsi que M y SQL (un système de gestion de bases de données). et coauteur du langage de programmation Java 2 On appelle «langage de programmation» une bibliothèque d’instructions univoques interprétables par une machine, constituées d’un vocabulaire et d’une syntaxe définis. Le plus ancien est le FORTRAN (1954)., Bill Joy semblait être l’exemple parfait du développeur informatique accompli. C’est pourtant depuis sa pratique des codes sources 3 Le code source désigne l’ensemble des instructions et des fonctions constituant un programme (logiciel, page Web, etc.)., qu’il écrit, au début des années 2000, une mise en garde adressée à ses pairs: «Pourquoi le futur n’a pas besoin de nous 4 Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000..» Rejouant les thèses développées par Günther Anders dès les années 1950 dans L’Obsolescence de l’homme 5 Günther Anders, L’Obsolescence de l’homme (1956), Paris, Ivrea, 2002. (sans les mentionner explicitement), Bill Joy en arrive, par sa pratique de codeur, à prophétiser lui aussi «un monde sans hommes». Comme Günther Anders, il se base sur le traumatisme de la bombe atomique. Bill Joy entrevoit la poursuite de cet évènement paradigmatique dans le développement des ordinateurs, du génie génétique, de la robotique et des nanotechnologies. Selon lui, ces recherches «représentent une menace différente des technologies antérieures» et menacent directement notre survie ici-bas. C’est l’ivresse résultant de la quête du savoir qui aveugle les scientifiques: «Happé dans le vortex d’une transformation, sans doute est-il toujours difficile d’entrevoir le réel impact des choses. […] Le progrès à l’origine de technologies toujours plus innovantes et toujours plus puissantes peut nous échapper et déclencher un processus autonome.» L’émancipation euphorisante permise par les programmes 6 Un programme est généralement conçu pour faire exécuter une tâche précise à une machine (afficher une couleur à l’écran, connecter un ordinateur à une adresse Web, etc.). Un logiciel comprend donc plusieurs programmes permettant de traiter des données. numériques masquerait-elle une catastrophe inéluctable  ? À travers l’exemple de Bill Joy, nous pouvons donc distinguer deux attitudes possibles face à la technique: se laisser griser par ses infinies possibilités ou travailler contre elle. L’hypothèse que nous souhaitons étudier ici est que le design ne relève d’aucune des deux. Tel que nous pouvons le soutenir, le design est un processus conscient et inconscient «d’authentification» des techniques nouvelles 7 Sur ces notions rapidement abordées ici, il conviendra de se référer aux travaux de Pierre-Damien Huyghe. Voir par exemple: «L’outil et la méthode», Milieux, n o  33, 1988, p.  64-69.. Le designer travaille dans la marge séparant la certitude de l’incertitude. Il a pour tâche de révéler ce qui, parmi nous, est recouvert de nos habitudes culturelles. Afin de donner forme à ce changement 8 Günther Anders, ibid.: «Il ne suffit pas de changer le monde. Nous le changeons de toute façon. Il change même considérablement sans notre intervention. Nous devons aussi interpréter ce changement pour pouvoir le changer à son tour. Afin que le monde ne continue pas ainsi à changer sans nous. Et que nous ne nous retrouvions pas à la fin dans un monde sans hommes.», le designer ne doit pas se laisser «happer dans le vortex» séparant une époque d’une autre. La vigilance qu’il exerce vis-à-vis des avancées techniques ne va donc pas de soi. Dans le champ du numérique, le graphiste est souvent confiné à n’être qu’un utilisateur des systèmes techniques. Pourtant, il a, tout comme le développeur, un rôle à jouer dans les directions soutenables ou nuisibles que peuvent prendre les programmes. Plus encore, nous pensons que le designer graphique, par sa culture du projet, apporte des éléments de réflexion qui concernent, au sens large, le rapport de l’homme aux inventions techniques. Cet article sera ainsi l’occasion d’examiner quatre situations de controverse autour des rapports entre design graphique et culture numérique. Ces analyses sont dans le prolongement des articles parus ces vingt dernières années au sein de la revue Graphisme en France. Forcément incomplètes, ces lectures croisées explorent des façons de faire du design qui ne présument pas d’avance sur ce qui peut être trouvé, et espèrent ouvrir des «perspectives […] aussi excitantes qu’incertaines 9 Michel Wlassikoff, «Graphisme et informatique, rapide bilan d’une liaison durable», Graphisme en France 1998, Paris, CNAP, 1998.». Révolution informatique / culture numérique Écrit en 1998, l’article «Graphisme et informatique, rapide bilan d’une liaison durable» de l’historien Michel Wlassikoff 10 Michel Wlassikoff est historien du graphisme et de la typographie, diplômé en histoire de l’EHESS. Il enseigne au sein de plusieurs écoles d’art et de design en France et à l’étranger. expose les mutations historiques et esthétiques des logiciels de création. La «décennie prodigieuse» du design graphique déroulée par Wlassikoff nous renseigne à propos de la réception française des technologies dites nouvelles. La conclusion de son texte fait ressortir deux types de rapport à l’ordinateur: la crainte d’une homogénéisation de la création et le développement d’esthétiques nouvelles, «radicalement différentes». Dans son livre Le Monde du computationnel 11 Jean-Michel Salanskis, Le Monde du computationnel, Paris, Les Belles Lettres, 2011., Jean-Michel Salanskis tente de penser le numérique au-delà de la promesse d’une «révolution». Selon lui, le numérique rassemble une multitude d’objets contradictoires, qu’il est délicat d’englober sous une même appellation. En effet, le rapport utilitaire aux objets techniques empêche que cette problématique «révolution» soit tout à fait la nôtre, car ce qu’ils ont d’inédit est souvent parasité par d’anciens modèles de pensée. Le dévoilement de l’ordinateur dans sa puissance de nouveauté commence par le jeu, activité libre et exploratoire. C’est pourquoi il importe que les «systèmes d’exploitation» ne ferment pas à tout jamais la «visite des entrailles 12 Ibid., p.  75.» de nos machines. Grotesk, caractère numérique de Frank Adebiaye pour la fonderie Velvetyne. Première publication sur velvetyne.typepad.com, le 26 juin 2010, sous le nom de Mercandieu, renommé en 2011   en Grotesk, fonte numérique sous licence Open Font License. © F. Adebiaye, 2010-2011, certains droits réservés. Le travail du typographe Frank Adebiaye de la fonderie Velvetyne (VTF) 13 velvetyne.fr va dans ce sens. Distribuées sous la SIL Open Font License (OFL), ses fontes sont accessibles librement 14 VTF, «Manifeste posttypographique, ou l’appel des formidables»: «Nous, VTF, rejetons intrépides de la génération Postscript, nous poursuivons, à la vitesse de l’électron, cet illustre cortège. Tel Spartacus, nous libérons les caractères du joug des règlements iniques et des conventions arbitraires (…).» au designer graphique, au relecteur ou à l’imprimeur, ce qui simplifie le process d’édition. Dans un même registre, Frank Adebiaye poursuit actuellement des recherches autour de la génération automatisée de contenus destinés à l’impression. Référents non référents 15 Frank Adebiaye, Référents non référents, Paris, Forthcome, 2013, coll. «Hoplites», (En ligne), forthcome.fr/hoplites/ref_non_ref/ref_non_ref.html., son dernier livre, est un recueil de textes poétiques écrits entre 2006 et 2013. L’ouvrage est réalisé en XML 16 Le XML est un langage de «balisage» qui facilite l’échange de données complexes par sa grande flexibilité., et interprété par un navigateur Web type Firefox HTML 5 17 Initié en 2009, le langage HTML 5 permet une structuration plus fine des contenus. La gestion des médias est également simplifiée par les balises audio et vidéo.. Le passage du numérique à l’imprimé s’effectue ici par un usage savant des nouvelles possibilités techniques du Web: Responsive Web Design (RWD, site Web adaptable à plusieurs résolutions d’écran), ancres (liens internes) aléatoires, fontes Web hintées (optimisées pour la lecture à l’écran) via le service en ligne Cloud Typography de Hoefler & Frere-Jones 18 typography.com/cloud, etc. Ce type de démarche est partagé par des designers pour qui le travail de la programmation numérique («ce qui ne supporte pas l’inexactitude 19 Ibid., p.  65.») se fait dans l’acceptation d’une certaine marge d’incertitude. Artisanat numérique / conscience industrielle Beaucoup de produits ont pour finalité de disparaître à l’usage. Dans le champ du design graphique, les outils numériques informent directement les pratiques. Il en est ainsi, par exemple, des logiciels propriétaires dits de création, dont les conditionnements pernicieux ont aussi marqué la dernière décennie du design graphique francophone. Ces programmes ne sont pas des interfaces transparentes, mais bien des vecteurs d’idées voire d’idéologies 20 Pour en savoir plus sur ce point, voir Kévin Donnot, «Code = Design», Graphisme en France 2012, Paris, CNAP, 2012, p.5-12. Cela n’empêche pas certains designers de jouer avec les codes de leurs environnements de travail, telle Danielle Aubert, qui compose des tableaux dans le tableur Microsoft Excel 21 Danielle Aubert, 58 Days Worth of Drawing Exercises in Microsoft Excel as Rendered for Web and Animated Daily Excel Drawings, 2005 – 2006, (En ligne), (link: https://danielleaubert.com/print/exceldrawings_book.. Danielle Aubert, Sixteen Months Worth of Drawing Exercises in Microsoft Excel, extrait, 3 avril 2005. © D. Aubert Selon Annick Lantenois, depuis 1990, le développement des programmes a été progressivement confié aux ingénieurs, le designer se retrouvant dès lors relégué au statut de simple usager. Comme le dit Florian Cramer: «Ce modèle impose un retour à un mode de travail artisanal qui exclut les artistes et les designers des évolutions des médias de masse électroniques 22 Annick Lantenois cite Florian Cramer dans: «Ouvrir des chemins», Graphisme en France 2012, Paris, CNAP, 2012, p.  15. […].» Une telle expression réactualise des débats très anciens sur la constitution du design comme champ autonome de l’artisanat. L’histoire d’un mouvement précurseur comme le Deutscher Werkbund 23 Lucius Burckhardt, Le Werkbund: Allemagne, Autriche, Suisse (1977), Paris, Centre d’études et de prévisions, 1981. est ainsi jalonnée de prises de position contradictoires sur le rapport à l’industrie – travail manuel et production de masse. Dans la synthèse qu’en donne Walter Gropius au Bauhaus, il y aurait «design» quand les artistes cessent de s’opposer à l’industrie et travaillent avec elle, en tension – Art et Industrie 24 «Kunst und Technik – eine neue Einheit», Walter Gropius, 1923.. Si la place nous manque pour développer ce dernier point, et pour en revenir aux rapports entre design graphique et culture numérique, nous noterons tout de même qu’elle implique la possibilité d’une «esthétique avec la mécanisation 25 Pierre-Damien Huyghe, Art et Industrie. Philosophie du Bauhaus, Belval, Circé, 1999, p.41.». Le retour au mode de vie médiéval de la communauté artistique avait déjà été expérimenté à l’orée du Bauhaus. Est-ce que le design graphique, dans les conditions techniques actuelles, gagnerait à revenir à un modèle où les notions de production en série et de standardisation ne posaient pas problème  ? Ne risquerait-on pas alors, en réaction à des craintes similaires à celles de Bill Joy, de basculer dans une attitude antitechnique ? Superscript 2, affiche pour l’exposition Lettres Type, My Monkey, Nancy, novembre 2011. 80 × 120   cm. © Superscript 2 Superscript 2, Opération Graffiti, affiche réalisée pour le Festival international de l’affiche et du graphisme de Chaumont, 2013. Interprétation graphique d’une opération militaire. 80 × 120   cm. © Superscript 2 À l’opposé de ce retour à une tradition révolue, les travaux du studio Superscript 2 jouent ainsi avec les codes graphiques de la production en série, hésitant ironiquement entre travail manuel et automatisation complète du processus créatif (le «super script»). Ce qui est en jeu ici, c’est la fondamentale marge de liberté qui fait de toute vie authentiquement humaine une singularité non reproductible. L’enjeu du design serait alors de permettre le développement des techniques, sans qu’elles nous portent atteinte. Dire cela ne revient donc pas à accepter toute forme de production en série, mais bien au contraire à la choisir et à la transformer. À la lumière de ces quelques intuitions, nous pouvons relire ce que disait Michel Wlassikoff des «logiciels [qui] se sont ainsi inspirés des habitudes professionnelles et ont pris en compte les propositions des graphistes, ce qui a assuré leur adoption rapide et leur constante adaptation». Ce mélange d’habitudes et de renouvellements définit bien la réalité du designer, pris dans une zone de confort qu’il cherche continuellement à dépasser. Ordonner le monde / donner forme à la technique Dans «  Ce que nous pourrions penser», article visionnaire publié dans le contexte de la bombe atomique de 1945, Vannevar Bush 26 Vannevar Bush, «As We May Think», The Atlantic Monthly, volume 176, n o  1, juillet 1945, p.  101-108. Trad. de l’auteur., chef de la recherche scientifique étasunienne, développe l’idée d’un réseau d’informations à échelle mondiale. Plus précisément, il invente sur le papier la notion d’hypertexte, qui ne sera réalisée techniquement qu’une trentaine d’années plus tard. Son concept de «memex» vise à résoudre le problème de la dispersion des articles scientifiques, dont les meilleurs tombent dans l’oubli. Sa visée plus large est d’éviter qu’un nouveau conflit mondial ne se produise. Cet article, écrit comme celui de Bill Joy depuis une pratique des systèmes d’informations, interroge la façon d’organiser le savoir humain à l’époque des calculateurs. Pour Vannevar Bush, il y a un enjeu décisif à choisir ce qui doit être rendu public (partageable) dans une masse d’informations. L’hypertexte ouvre la possibilité de structurer un flux afin d’isoler ce qui est pertinent de ce qui ne l’est pas. Si l’humanité n’est plus en mesure de transformer l’information en connaissance, alors cette indistinction deviendra indigestion, «infobésité», absence de communication, conflit, bombe. L’éthique de l’ingénieur développée par Vannevar Bush est aussi celle du designer: la technique doit servir l’homme pour lutter contre ses insuffisances. Rationalisé et rendu disponible, le savoir humain doit pénétrer toutes les couches de la société pour l’éclairer de ses vertus. Cette pensée se prolonge aujourd’hui, avec d’importantes nuances, dans des systèmes dont l’ambition ne serait plus seulement d’organiser le monde, mais de le recouvrir de leurs ordonnancements. On pourra penser ici à l’ambition de Google «d’organiser toute l’information du monde 27 Larry Page, à propos de Google: «Notre ambition est d’organiser toute l’information du monde, pas juste une partie», Paris, Le Monde, 21 mai 2010.». Par là, on remarque que le monde n’est pour Google qu’une matière dont la finalité serait de produire des éléments signifiants, c’est-à-dire des connaissances pouvant faire l’objet d’un rendement. Dans cette configuration, nul espace n’est supposé échapper à la trame informationnelle 28 Paul N. Edwards, Un monde clos. L’ordinateur, la bombe et le discours politique de la Guerre froide (1996), Paris, B2, coll. Territoires, 2013. qui se tisse autour de nos existences, réduites progressivement à des entités calculables. Avec le recul dont nous disposons désormais, nous pouvons dire que «l’informatique» dont parlait Michel Wlassikoff s’est constituée en culture numérique. On retrouve l’origine française du mot «ordinateur», dans une lettre de 1955 adressée au président d’IBM: «Cher Monsieur, écrivit Jacques Perret, que diriez-vous d’ordinateur  ? C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde 29 Éric Hazan, «16 avril 1955: que diriez-vous d’ordinateur  ?», Paris, Le Monde, 15 avril 2005..» Cette traduction maximaliste du terme «computer» substitue ainsi à la puissance de calcul l’idéal religieux d’un ordonnancement du monde. Il y a aussi dans l’ordonnancement, au sens testamentaire, l’idée d’instaurer et de prendre des dispositions, c’est-à-dire des décisions. N’est-ce pas aller trop loin, au risque du contresens, que d’attribuer de telles propriétés aux machines à calculer  ? Au-delà de ces promesses, un champ de recherche pour les designers graphiques consisterait à faire apparaître les systèmes techniques qui disparaissent habituellement derrière des interfaces «transparentes». Il ne s’agit donc plus simplement d’organiser le monde, mais avant tout de donner à le comprendre 30 «(Notre époque) se raidit pour atteindre l’absolu et l’empire, elle veut transfigurer le monde avant de l’avoir épuisé, l’ordonner avant de l’avoir compris.» Albert Camus, «L’Exil d’Hélène», dans: L’Été, Essais, Paris, La Pléiade, 1963, p.  856.. Dans les projets de design qui nous intéressent, la technique n’est pas abordée dans sa dimension fabuleuse, mais révélée dans sa puissance de nouveauté. Il en est ainsi de l’affiche Specimen de Fanette Mellier, réalisée dans le cadre d’une exposition au pôle graphique de Chaumont en 2009. Ce projet ne cherche pas à «faire image», mais affirme son statut d’objet imprimé, appréciable à une échelle déterminée. Le recto est rempli des trames et gammes colorées servant au calibrage des machines d’impression. Ce motif obsessionnel sature la page d’éléments géométriques non symboliques, faisant de ce qui n’est habituellement pas vu l’endroit d’une expérience sensible. Le verso de l’affiche contient des éléments informatifs conventionnels. Une fois pliée, l’affiche joue du contraste entre ces deux modes d’approche du design graphique: manifester une technique ou délivrer un message. Fanette Mellier, Specimen, affiche pour un programme d’expositions sur le graphisme éditorial, pôle graphisme de Chaumont, 2009. Impression offset recto-verso. 120 × 176   cm. Le titre apparaît avec le pli. © F. Mellier Datavisualisation / transformation de données Les dizaines de millions de fiches individuelles accumulées par John Edgard Hoover au sein du FBI n’auront pas suffit à nous réveiller. Le scandale déclenché par les révélations d’Edward Snowden sur les pratiques de la NSA a de nouveau mis en lumière les liens profonds existants entre les gouvernements occidentaux et les grands groupes de télécommunication. Même si nous pouvions nous en douter, ces preuves à charge jettent le trouble sur un système n’ayant plus grandchose à voir avec des préoccupations citoyennes. Au début des années 2000, le Web 2.0  31 Tim O’Reilly, «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», conférence du 30 septembre 2005. aura été, sous couvert de partage et d’ouverture des possibilités techniques, l’endroit d’un recentrement problématique. La «facebookisation» du Web est celle de sa progressive transformation en télévision. Par exemple, la récente fonction autoplay des vidéos des flux Facebook 32 Josh Constine, «Facebook Puts Its Web Feed In Motion With Auto-Playing Videos», Techcrunch.com, 11 décembre 2013, (En ligne), techcrunch.com/2013/12/11/facebook-autoplay-video vise à réduire le degré d’interaction avec le contenu, pour proposer un modèle de consommation passive. Comme l’écrivait en 1987 le critique de cinéma Serge Daney: «L’affaire Médiamétrie […] et ce qu’on sait sur les techniques à venir du contrôle du téléspectateur vont toutes dans le même sens: l’écran du téléviseur n’est plus une frontière qui – comme tout écran – sépare et réunit des êtres anonymes mais un miroir dans lequel, idéalement, l’émetteur et le récepteur se comptent et se voient 33 Serge Daney, Le Salaire du zappeur, Paris, P.O.L, 1987, p.  11..» Le modèle télévisuel apprend aux gens à vendre leurs expériences – finalité bien éloignée des utopies des pionniers d’Internet 34 Fred Turner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand, un homme d’influence (2006), Caen, C&F, 2012.. Dans cette calculabilité des existences, la multiplication des informations interroge le designer sur son rôle d’organisateur. Le mythe des données «brutes» est battu en brèche par l’étude du «travail des données 35 Hubert Guillaud, «Travail et travailleurs de la donnée», Internet Actu, 13 décembre 2013, (En ligne), internetactu.net/2013/12/13/travail-et-travailleurs-de-la-donnee », qui montre que celles-ci sont toujours biaisées et soumises à interprétation. Dès lors, on comprendra que le rôle du designer graphique est central dans la compréhension des données. Son travail tient davantage de la «transformation 36 Marie Neurath, Robin Kinross, Le Transformateur, Paris, B42, 2013.» que d’une illusoire objectivation. Non seulement les données sont visibles avant le travail du designer graphique, mais celui-ci produit un travail d’interprétation voire de production du sens qu’il serait difficile de nier. Par exemple, en mettant en tension l’impersonnalité des diagrammes à des éléments illustratifs et narratifs, le design du rapport d’activité 2012 du CNAP réalisé par The Shelf Company (Morgane Rébulard et Colin Caradec) se joue ainsi des conventions graphiques. The Shelf Company: Morgane Rébulard et Colin Caradec, Rapport d’activité du CNAP, 2012, p.  63. © The Shelf Company, 2013 Afin de «faire société» dans ce déluge de données «obtenues 37 Bruno Latour, «Que la bataille se livre au moins à armes égales», postface à Controverses climatiques, Sciences et Politiques, Paris, Les Presses de Sciences Po, 2012, p.  6.», le médialab de Sciences Po (initié par Bruno Latour) mène depuis quelques années des recherches autour de leurs modalités de présentation à l’écran. Comme il est possible de faire dire n’importe quoi à des chiffres, il ne suffit pas de démontrer l’ensemble du traitement statistique. Il faut également expliquer comment on est parvenu à l’image finale, en laissant à l’utilisateur la possibilité de remonter dans le processus d’abstraction. Ces interfaces recourent ainsi à ce que l’on pourrait appeler une «chaîne de transformation 38 «(…) la production de savoir est un cheminement, une trajectoire, une chaîne de transformations (…).» Bruno Latour, «La connaissance est-elle un mode d’existence  ?», dans: Vie et Expérimentation. Peirce, James, Dewey, Paris, Vrin, 2007, p.  13.», pour désigner la présentation cohérente de l’ensemble du cheminement intellectuel. Comme le dit Bruno Latour: «Propriété essentielle, cette chaîne doit rester réversible. La traçabilité des étapes doit permettre […] de la parcourir dans les deux sens. Qu’on l’interrompe en n’importe quel point et voilà qu’elle cesse de transporter le vrai, de le produire, de le construire, de le conduire 39 Bruno Latour, «Sol amazonien et circulation de la référence» (1993), dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007, p.  74..» En ouvrant des marges entre la collecte et l’abstraction, de telles démarches cherchent à comprendre plus qu’à ordonner 40 Karl Marx, Thèses sur Feuerbach, XI, 1888: «Les philosophes n’ont fait qu’interpréter le monde de différentes manières, ce qui importe, c’est de le transformer.» ; elles laissent de la place à l’autre. Figure de Bruno Latour: «Pour chacune des étapes que traverse la référence, la transformation peut être représentée comme un compromis entre ce qui est gagné [amplification] et ce qui est perdu [réduction] à chaque étape de la production d’information.» Extrait de «Sol amazonien et circulation de la référence» [1993], dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007. Penser en numérique Le développement des logiciels libres 41 Le logiciel «libre» vise à respecter la liberté essentielle de l’utilisateur (liberté d’utiliser, de modifier et de redistribuer des copies d’un programme). L’open source voit dans la mise à disposition du code source la meilleure façon de favoriser l’innovation logicielle. a permis à des machines hétéroclites de dialoguer ensemble. Nous réalisons chaque jour que cette idée est fondamentale, afin que le Web (et le numérique en général) ne se referme pas définitivement. Pour cette raison, il est important que les logiciels libres développent de nouvelles «méthodes d’approche 42 László Moholy-Nagy, «Nouvelle méthode d’approche – Le design pour la vie» (1947), dans: Peinture, photographie, film et autres écrits sur la photographie, Paris, Folio, 2007.», au lieu de se contenter d’imiter des logiques propriétaires. Nous pouvons nous référer ici à la ligne de recherche Design by Numbers, initiée par John Maeda dans les années 1990  43 John Maeda, Design by Numbers, Cambridge, MIT Press, 2001.. Créé par Ben Fry et Casey Reas en 2001, le logiciel Processing 44 processing.org est directement issu de ces explorations. En permettant de tracer et d’animer des formes au moyen d’une syntaxe 45 Dans le contexte du code, la syntaxe permet d’articuler des instructions pour les rendre compréhensibles par la machine. simplifiée, ce type de programme permet de dépasser les interfaces à base d’icônes et de menus déroulants. Plus encore, le succès de Processing nous dit, s’il en était besoin, que l’évolution des supports modifie profondément les champs d’action du design graphique. Les médias animés, sonores, tactiles, etc. font partie de notre quotidien depuis déjà de nombreuses années, et cette réalité doit être prise en compte par les designers. Murmur, du studio Chevalvert 46 m-u-r-m-u-r.me. Projet réalisé en collaboration avec 2R oqs, Polygraphik et Splank. Technologies employées  : OpenFrameworks, Javascript, bandes LED. Processing avait été utilisé pour les premiers prototypes de Murmur., incarne cette transversalité des supports, où le projet s’enrichit des expériences passées. Ici, une prothèse architecturale permet la communication entre une personne etun mur sur lequel elle est connectée. Ce type de démarche excède toujours un peu l’idée initiale, les codes sources pouvant être réinvestis dans d’autres contextes et/ou redistribués librement. Murmur, un projet de Chevalvert, 2R oqs, Polygraphik et Splank, vue de la projection dans le cadre de «nuit numérique #10X-L ight», Centre culturel Saint-Exupéry, Reims, 25 mai 2012. ©D.R. Les logiciels sont généralement plus intéressants quand ils sont employés pour des usages qui n’étaient pas prévus initialement. Utilisé dans le projet Murmur, Processing permet aux designers d’inventer de nouveaux environnements de travail. À la recherche d’une esthétique pertinente pour leur «journal de recherche», les designers de NORMALS ont développé dans Processing une interface de création de bande dessinée vectorielle. La forme est directement issue du code, et non d’une logique analogique. Une fonction de leur programme Polyrotor connecte ainsi les nouveaux points placés sur l’écran à ceux qui sont les plus proches 47 «Delineating the Future – an interview with NORMALS», Creative Applications Network, 6 décembre 2013, (En ligne), creativeapplications.net/theory/delineating-the-future-an-interview-with-n-o-r-m-a-l-s. Cette façon de faire du graphisme en numérique invente des formes qui ne sont pas totalement anticipables par l’imagination. Les formes polygonales dessinent un futur où le réalisme de l’image est mis en doute au profit d’hypothèses et de fictions transversales. Sans même connaître les processus de création, le lecteur comprend qu’il a affaire à un dialogue stéréoscopique entre l’homme et la machine. NORMALS: Cédric Flazinksi & Aurélien Michon, programme Polyrotor, capture d’écran, janvier 2014. Cédric Flazinksi, Aurélien Michon, NORMALS, ouvrage autoédité, Paris, mars 2014. Réalisé à l’origine sous Processing, l’interface de création typographique Prototypo 48 Yannick Mathey et Louis-Rémi Babé, prototypo.io, travail en cours de réalisation. Prototypo est désormais développé en HTML5 Angular JS et SVG. Dans le même registre, voir aussi les expérimentations du studio LettError. de Yannick Mathey s’émancipe d’une construction lettre par lettre de la fonte. L’utilisation d’algorithmes permet de manipuler en temps réel des formes dynamiques, les changements formels étant répercutés sur l’ensemble de l’alphabet. Le programme permet également d’indiquer des «limites» aux bonnes règles typographiques, sans que celles-ci ne freinent la création. Depuis des dizaines d’années, les apports du numérique au champ de la typographie ont été fructueux. Il reste beaucoup à apprendre d’initiatives comme l’Unified Font Object ou Metafont 49 David Vallance a présenté, aux Rencontres internationales de Lure 2013, le travail de découverte et d’appropriation du programme Metafont, qu’il a mené dans le cadre de son diplôme national d’Art et technique à l’Ésad Grenoble-Valence.. Yannick Mathey et Louis-Rémi Babé, programme Prototypo, captures d’écran, janvier 2014. © Y. Mathé, L.-R. Babé Désirer l’incertitude À l’issue de ces quelques exemples et relectures croisées, nous pouvons appréhender d’une nouvelle manière les craintes de Bill Joy. Il nous semble périlleux d’envisager a priori les inventions techniques sous l’angle de la «menace», car au nom de quoi critiquerions-nous une nouvelle technique, si ce n’est suivant son rapport à la tradition  ? En n’acceptant pas que le monde puisse changer, un tel parti pris se retranche dans ses convictions. Le développement des systèmes de prévision en tous genres (sondages, assurances, contrats, etc.) semble faire de nos existences des entités dociles et réglables, de moins en moins aptes à prendre des décisions. Pour échapper à cette programmatique, il faut que le designer participe à l’élaboration d’une société qui ne fonde pas sa marche sur le calcul. Le fait que les designers graphiques investissent de plus en plus la conception des programmes numériques nous ouvre de nouvelles façons de faire, basées sur la compréhension sensible des spécificités techniques. Le designer peut ainsi choisir de conduire la technique dans des directions qui ne portent pas atteinte à la liberté humaine. Son travail hésite entre certitudes et incertitudes: d’un côté les habitudes professionnelles et culturelles, de l’autre la confrontation à l’inconnu 50 Pierre-Damien Huyghe, Modernes sans modernité. Éloge des mondes sans style, Paris, Lignes, 2009, p.  123. La modernité s’inscrit dans un «mouvement qui ne fait pas de l’émission d’un sens le but unique des conduites techniques […]».. «Apprendre et désapprendre», disait Catherine de Smet 51 Catherine de Smet, «Apprendre et désapprendre», Graphisme en France 2008, Paris, Cnap, 2008.. Afin que la prochaine décennie ne soit pas déjà écrite, à nous de désirer l’incertitude.

Notions

Personnes citées

Objets mentionnés

Médias

Archéologie des « notifications » numériques

Date

juin 2016

Type

Conférence

Contexte

Conférence donnée avec Saul Pandelakis au colloque scientifique « Archéologie des médias et écologies de l’attention », dir. Yves Citton, Emmanuel Guez, Martial Poirson et Gwenola Wagon, Cerisy-la-Salle. Cette conférence a été redifusée sur les sites Web de France Culture et de La Forge Numérique (MRSH de l’université de Caen – Normandie).

Résumé

Nous souhaitons examiner « le passage d’un modèle économique (de l’investissement) au modèle écologique (de la relation au milieu) ». Les programmes numériques peuvent-ils être ou devenir le lieu d’une écologie attentionnelle contribuant à une « écologie [plus large] de l’environnement artificiel » ? Comment concevoir, par le design, la place de l’attention humaine au sein des machines numériques ?

Vers des humanités numériques « critiques »

Date

juillet 2018

Type

Publication

Contexte

Article publié dans le quotidien d’idées AOC

Résumé

Les humanités numériques, ces pratiques à la croisée de l’informatique et des sciences humaines et sociales, ne se sont que trop peu préoccupées de questions propres au design. Au-delà d’une approche utilitaire, la constitution d’archives et de corpus de connaissances en ligne est pourtant l’occasion de s’interroger sur les rôles que peuvent jouer les designers au sein de ces projets. Dans la situation contemporaine d’une numérisation du monde marquée par une oligarchie des plateformes, les humanités numériques et le design devraient ainsi œuvrer à dérouter la captation des connaissances et les déterminismes technologiques. Des savoirs et pratiques hybrides Les humanités numériques désignent communément un champ de recherche à la croisée de l’informatique et des sciences humaines et sociales (arts, lettres, histoire, géographie, etc.). Initiées dans les années 1950 grâce au traitement électronique de données permettant d’analyser de grands corpus de textes, les humanités numériques ne décollent vraiment qu’avec le développement du Web au début des années 1990 qui ouvre la voie à des collaborations transdisciplinaires et à la mise en ligne des résultats de recherche. De fait, la plupart des projets en humanités numériques s’incarnent dans des jeux de données interopérables (langages Web SQL, TEI/XML, etc.) et des sites Web dédiés (archives en ligne, visualisation de données, etc.). Ce n’est toutefois qu’en 2010, lors de l’événement THAT Camp Paris, que la communauté francophone se fédère via la rédaction du « Manifeste des Digital Humanities » : ce texte collectif prend explicitement position pour une ouverture des connaissances hors des frontières académiques via l’utilisation de licences libres et de processus collaboratifs documentés. Repenser les façons dont les savoirs se constituent et circulent engendre nécessairement des ruptures épistémologiques. La numérisation de documents antérieurs aux technologies numériques (d’encodage par les nombres) ne laisse pas indemnes les éléments de départ. Une fois encodés, les supports de connaissance se prêtent à de multiples utilisations et contextualisations et peuvent «  exister dans des versions différentes, éventuellement en nombre illimité. Ce potentiel est une […] conséquence du codage numérique des médias et de [leur] structure modulaire  » (Lev Manovich). De façon plus générale, les humanités numériques font vaciller et s’hybrider les délimitations universitaires. Les logiques de programmation propres à l’informatique voisinent avec celles – par exemple – des historiens, qui peuvent eux-mêmes être amenés à intervenir sur l’architecture de l’information. Apparaissent alors des problématiques mettant en jeu les méthodes de ces différents champs, voire des frictions entre la rationalité des langages formels informatiques et l’incertitude propre aux (vieilles) humanités. Le design comme mise en tension du capitalisme Le paradoxe est que les objets issus des projets en humanités numériques ne reflètent que peu, dans leurs formes, ces tensions épistémologiques. Les interfaces des archives en ligne de documents historiques, par exemple, se ressemblent quelque soit leur fonds de départ. De façon plus dérangeante, les logiques propres à l’industrie des programmes ne sont que peu remises en question. La « facture » des interfaces de consultation demeure majoritairement impensée et reflète souvent les choix «  par défaut  » des environnements de programmation et des systèmes de gestion de contenus (CMS). De même, dans les rares cas où un designer est présent, cela se fait la plupart du temps en aval des prises de décision propres à l’architecture des données. Le risque est alors d’appliquer sans recul critique des méthodologies propres au design UX (User eXperience), dont l’étude de leur histoire montre qu’elles reposent sur des fondements cognitivistes ayant pour revers de réduire l’expérience humaine à une suite de comportements (modélisations des personas, scripts d’utilisation, etc.). Or l’application de ces processus de conception ne va pas sans poser problème dans le champ des humanités numériques, ancrées dans une culture (du) libre s’opposant à la privatisation des savoirs. De façon plus large, le design «  centré utilisateur  » inquiète la façon dont «  nous  » pouvons nous situer dans ces expériences  : sommes-nous condamnés à n’être que de simples « utilisateurs » ? Que nous dit cette obsession pour le fait de modéliser l’humanité par des encodages numériques  ? Les humanités numériques pourraient-elles – au contraire – devenir l’endroit d’une subversion des technologies et processus dominants ? Nous faisons l’hypothèse qu’une implication du design (et non pas une application, comme le sous-entend l’expression d’« arts appliqués  ») au sein des humanités numériques pourrait permettre, tout en facilitant l’accès aux productions de recherche (promesse du design dit UX), d’en renouveler l’approche. L’histoire du design est en effet traversée de tensions entre l’économie de marché et la recherche de dimensions échappant à la rentabilité et à l’utilité. Aux débuts de la Révolution Industrielle, l’artiste et écrivain William Morris souligne ainsi l’importance de penser un «  art socialiste  » qu’il oppose aux «  articles manufacturés [qui] ne peuvent avoir aucune prétention à des qualités artistiques  » (1891). Le socialiste, dit-il, «  voit dans cette absence évidente d’art une maladie propre à la civilisation moderne et nuisible à l’humanité ». Cette articulation de l’existence humaine à l’esthétique est selon lui la seule façon de parvenir à une «  communauté d’hommes égaux  ». Remplaçons «  socialiste  » par «  designer  », et nous retrouverons à presque un siècle d’intervalle cette idée d’un écart du monde des objets avec le capitalisme dans les écrits du designer Victor Papanek (1971), pour qui le bridage des activités créatives fait que «  la morale et la qualité de la vie [souffrent] immensément sous notre système actuel de production de masse et de capital privé ». Il en résulte, selon Victor Papanek, que «  le designer doit obligatoirement comprendre clairement [tout comme chaque être humain, pourrions-nous ajouter] l’arrière-plan politique, économique et social de ses actes  ». Une vingtaine d’années après Victor Papanek, le critique d’art Jonathan Crary dresse l’histoire des «  nouvelles constructions institutionnelles d’une subjectivité productive et contrôlée  » apparues au XIXe siècle, dont les enjeux résonnent fortement avec la situation contemporaine d’une société numérisée. Dans Techniques de l’observateur (1990), Suspensions of perceptions (2000), puis 24/7 (2013) Jonathan Crary fait émerger la problématique de l’attention, qui «  peut [alors] s’imposer comme un enjeu intellectuel, autant que politique  » (Maxime Boidy). Le rapport avec les humanités numériques prend alors sens  : face à un monde des apps qui ambitionne de réduire au maximum notre temps de sommeil (24/7), ces dernières pourraient au contraire, via leur recul historique et leur inscription dans la recherche, démontrer que d’autres modalités d’être-au-monde sont possibles. Les humanités numériques ne doivent pas seulement viser la numérisation des connaissances mais également les manières dont cet encodage affecte et transforme les êtres humains. Démontrer que l’informatique personnelle, issue des théories cybernétiques de la Guerre Froide, peut être mobilisée dans des directions insoupçonnées permet de lever l’idée d’un déterminisme technologique. La rencontre entre le design et les humanités numériques, si celle-ci n’est pas de l’ordre d’une commande mais d’une recherche commune, pourrait ainsi permettre d’explorer de nouveaux pans de la connaissance en levant les impensés présidant à la construction et à la valorisation des savoirs en milieux numériques. Vers des humanités critiques Au-delà de la numérisation de corpus et de la mise en ligne, de nouveaux défis attendent donc les chercheurs en humanités numériques pour peu que le couple informatique/SHS fasse place au design. Nous proposons en guise de conclusion quelques directions de travail allant dans ce sens. Réduire la barrière technique de l’accès aux données L’open data est partout convoqué, or on constate dans les faits que la mise à disposition des données nécessite des prérequis techniques souvent trop importants pour des non-spécialistes. Le format tabulaire .CSV est le plus accessible pour commencer à travailler, mais ce dernier n’est pas systématiquement proposé, au détriment de méthodes plus lourdes (récupération de flux JSON via des API, etc.). Le workshop « Fabriquer des jeux de données en art » qui s’est tenu en mai 2018 dans le cadre du groupe de travail «  Art, design et humanités numériques  » de l’association Humanistica (Clarisse Bardiot et Nicolas Thély) a proposé des méthodologies pédagogiques relatives au champ des digital art history : identification et nettoyage de jeux de données, construction de visualisations, etc. Un outil permettant de générer des fichiers CSV à partir du portail Europeana a été développé à cette occasion. Interroger l’idéal d’une sémantique universelle Le modèle du Web sémantique (Tim Berners-Lee, 2001) ambitionne de relier l’éparpillement des connaissances humaines par le recours à des balises et métadonnées insérées dans les codes source des pages Web («  référentiels d’autorité », etc.). D’une utilité évidente pour sortir d’une approche en silo des initiatives scientifiques, ce processus pose pourtant de multiples défis ontologiques et taxonomiques mal connus des chercheurs et des designers. Comment mieux impliquer ces derniers dans l’élaboration de modèles sémantiques  ? Faut-il que cette ambition éclipse tous les autres aspects des projets (enjeux formels, collaboratifs, etc.) ? Comment montrer le travail d’encodage sémantique, habituellement recouvert par l’habillage des interfaces  ? Explorer les impensés de l’objectivité des données Les jeux de données sont souvent construits sans que leurs processus d’élaboration – et les biais inhérents à toute démarche de ce type – ne soient documentés. Or derrière une apparente objectivité se cachent des enjeux sociaux liés à de multiples prescriptions normatives voire discriminantes (catégories de genre, de «  race  », de classe, etc.). Comment inclure davantage de voix  ? Pourrions-nous, comme nous y invite la chercheuse Catherine D’Ignazio, faire de la visualisation de données de façon collective et inclusive et ainsi permettre des approches dissidentes voire contestataires  ? Impliquer des technologies émergentes dans des protocoles de recherche Au-delà de l’effet de mode, des technologies telles que les protocoles blockchain (certification distribuée de transactions) ou l’appellation générique d’« intelligence artificielle  » offrent des possibilités de recherche stimulantes pour les chercheurs en humanités numériques. La blockchain peut permettre d’authentifier des documents et des chaînes de transformation de données, de mettre à disposition de la puissance de calcul, de signer les rôles de chaque acteur d’un projet, de générer des smart contracts pour déclencher automatiquement des actions prédéfinies, etc. L’intelligence artificielle, quant à elle, est déjà utilisée par des entreprises comme Google pour la construction automatisée de gammes chromatiques (projet Art Palette), l’identification d’œuvres d’art du MoMa à partir de 30   000 photographies d’exposition ou le repérage (tagging) des contenus de plus de 4 millions de photographies du magazine LIFE. Alors que nous avons en France des pointures internationales dans le domaine de l’IA, est-ce une fatalité que la puissance publique abandonne la « culture logicielle » à des acteurs privés  ? Sortir d’une pensée «  agnostique  » de la forme Beaucoup d’interfaces de projets en humanités numériques se désintéressent des enjeux formels liés à la consultation des documents, ce qui est d’autant plus paradoxal dans l’exemple de documents relatifs à l’histoire de l’art. Jusqu’où cette illusion de neutralité est-elle tenable voire souhaitable  ? Est-ce une fatalité que les archives en ligne présentent majoritairement des cadres homogènes  ? Quid, sur un autre plan, des relations entre les interfaces de saisie des corpus et la capacité à projeter des modes de consultation  ? Citons pour exemple les travaux de Giorgio Caviglia (projet Mapping the Republic of Letters, Stanford) ou de Donato Ricci (Enquête sur les modes d’existence, Sciences Po). Sur d’autres plans, des designers comme LUST, Antony Kolber, l’histoire du net art ou celle des jeux vidéos sont par exemple des sources d’inspiration pouvant intéresser les chercheurs en humanités numériques. Mentionnons également le travail mené à l’Atelier national de recherche en typographie (ANRT Nancy) sous la direction de Thomas Huot-Marchand, où des étudiants en dessin de caractères typographiques se confrontent à des contextes tels que les premières notations du chant, la cartographie, les hiéroglyphes, les inscriptions monétaires, la reconnaissance de caractères, etc. — Ces quelques propositions ont pour objectif d’inciter les chercheurs en humanités numériques à s’intéresser davantage, au-delà du design, à des champs connexes tels que les études visuelles, les media & software studies, ou encore l’archéologie des médias. Une telle visée invite également les designers à envisager d’autres contextes de travail que ceux dans lesquels, au risque d’une saturation de l’offre, ils s’inscrivent habituellement. Les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques.

Les économies bricolées du Web3

Date

mai 2023

Type

Publication

Contexte

Anthony Masure, Guillaume Helleu, « Les économies bricolées du Web3 », LSD, no 3, mai 2023, p. 72-83

Résumé

English version here. Apparus en 2017, les NFT (Non Fungible Tokens), à savoir des certificats numériques infalsifiables et décentralisés, ont été rendus célèbres pour leurs usages dans le monde de l’art. Si ces derniers occupent aujourd’hui le devant de la scène médiatique, ils ne représentent pourtant qu’une brique d’un mouvement technologique bien plus large, cristallisé sous le terme aux allures marketing de «  Web3  » 1 Apparu avec Ethereum comme une réponse au Web 2.0 des GAFAM, le Web3 propose un écosysteme tout-en-un: un système monetaire Bitcoin au sein d’un système économique D e F i pour échanger des propriétés numériques NFT, le tout géré par un système de gouvernance DAO utilisant des identités numériques (DID). Le Web3, ou le nouvel ordre du Web Pour comprendre les principes de cette nouvelle itération du Web s’appuyant sur les technologies décentralisées de la blockchain 2 On désigne par le terme blockchain, ou chaîne de blocs, une base de données distribuée permettant de stocker, certifier et partager des informations de manière décentralisée. Les données sont répliquées dans de multiples espaces de stockage, formant ainsi une chaîne publique sécurisée par l’addition des différents noeuds du réseau. Cet ensemble est conçu pour rendre les informations inaltérables et les transactions infalsifiables., il importe de rappeler à quoi il fait suite. Inventé en 1989 par Tim Berners-Lee au Cern, le Web - rétrospectivement qualifié de «  1.0  », malgré l’utopie d’un partage des connaissances scientifiques au niveau mondial via des protocoles de publication simplifiés, s’est révélé trop complexe techniquement pour qu’un public élargi puisse y participer. Ce mode en «  lecture seule  », celui de la simple consultation, résulte également de stratégies commerciales  : les laptops, les smartphones et les «  Box  » Internet qui peuplent notre quotidien ne sont pas pensés pour pouvoir facilement faire office de «  serveurs  », à savoir assurer le stockage et le fonctionnement de sites Web. Ce problème d’accès va être pris en charge par le «  Web 2.0  » des années 2000 avec le développement de plateformes participatives telles que les médias sociaux (Flickr, MySpace, Facebook, Twitter, etc.), où n’importe qui peut créer un compte et partager des informations avec le plus grand nombre. Le problème majeur de cette «  plateformisation  » du Web, dans laquelle nous nous trouvons aujourd’hui encore, réside dans la non-redistribution de la valeur créée par les internautes et dans sa centralisation accrue. En réaction à l’hégémonie des GAFAM 3 Acronyme des initiales des géants de la tech américaine Google (Alphabet),Apple, Facebook (Meta), Amazon et Microsoft. (et de leurs avatars asiatiques), les promesses de décentralisation propres au Web3 pourraient permettre de redonner aux internautes le contrôle et la gestion de leurs données. Celui-ci va se développer autour de cinq principes clés  : 1 — Un système monétaire Bitcoin 4 Bitcoin (฿, 2009) est un protocole numérique décentralisé permettant des transactions de valeurs monétaires indépendamment des institutions financières traditionnelles et des monnaies fiduciaires (FIAT). On doit son invention à une personne, ou un groupe d’anonymes, se présentant sous le pseudonyme de Satoshi Nakamoto. (2009) et les autres cryptomonnaies sont à replacer dans cette optique. 2 — Un système économique La D e F i (Decentralized Finance) peut être définie comme un environnement de transactions financières indépendant des intermédiaires traditionnels tels que les courtiers, bourses ou banques. Déclinée en nombreux protocoles Compound, 2019; Un iswap, 2018, la D e F i autorise des passerelles entre économie traditionnelle et économie décentralisée par l’introduction de stablecoins Tether (2014) Dai (2017) Binance USD (2018), à savoir des tokens 5 Un token, ou jeton d’authentification, est une représentation numérique d’une valeur sécurisée dans la blockchain monnaie, part sociale, oeuvre d’art, etc. de valeurs basés sur les monnaies FIAT 6 La valeur d’une monnaie FIAT est imposée par un État sur un territoire identifié, et sa gestion est confiée à une banque centrale. Par exemple, le cours et la distribution de l’Euro sont assurés par la Banque centrale européenne BCE, tandis que le dollar dépend de la Réserve fédérale des Etats-Unis FED. Le mot fiat est déterministe, il nous vient du latin et signifie, à l’impératif: «  Qu’il soit fait  ».. Ces derniers permettent l’échange de monnaies étatiques sans passer par des protocoles traditionnels SWIFT, et ce de manière quasi instantanée. Fonctionnant jour et nuit et difficilement arrêtable, la D e F i représentait en janvier 2022 un marché de plus de 200 milliards de dollars. 3 — Un système de propriété Les NFT peuvent transformer en marchandise n’importe quelle entité numérique. Dans le champ artistique, l’exemple le plus connu est celui des CryptoPunks, 10   000 fichiers de 24 pixels de côté à l’origine distribués gratuitement sur le réseau Ethereum 7 Ethereum (2015) est une plateforme d’échanges décentralisée et collaborative, initialement imaginée par Vitalik Buterin comme une mise à jour de Bitcoin. Ethereum élargit les principes de Bitcoin pour passer d’une monnaie à un système de valeurs paramétrable, notamment via l’usage des smart contracts.. Grâce à la blockchain, il peut y avoir des milliers de copies viii d’une image d’un même CryptoPunk 8 Les CryptoPunks (2017) sont une célèbre collection de NFT représentant des personnages pixélisés générés par ordinateur., mais un seul d’entre eux sera rattaché a une signature numérique et pourra donc avoir de la valeur. 4 — Un système de gouvernance Apparues en avril 2016 via le projet éponyme The DAO, les DAO (Decentralized Autonomous Organizations) instaurent de nouveaux types de gouvernance où la fraude et la corruption sont rendues impossibles par des règles préalablement définies et exécutées au travers de smart contracts 9 Les contrats intelligents permettent de programmer de la valeur en automatisant le déclenchement d’actions au sein d’une blockchain et en y inscrivant les résultats obtenus.. Si les DAO des processus de gouvernance votations, validations, exécution, etc., elles soulèvent néanmoins de nombreuses questions en raison de leur potentielle substitution aux États et aux instances de régulation traditionnelles justice, associations, syndicats, etc. 5 — Un système d’identité La DID (Decentralized Identifiers) est certainement l’enjeu majeur de ces prochaines décennies. Dans un monde où la notion d’identité n’a jamais été autant questionnée et où le profiling opéré par les GAFAM est aussi prégnant, la refonte de l’identité numérique devient une nécessité. La traditionnelle authentification via email + mot de passe du Web 1.0 a été en partie remplacée par les «  logins sociaux  » (Facebook Connect, 2008; Google Sign In, 2015  ; Sign in with Apple, 2019), qui représentent l’ensemble des problématiques inhérentes au Web 2.0 publicité ciblée, captation des données, dépendance à des acteurs privés, etc.). En réponse à cela, le Web3 offre une nouvelle manière de s’ authentifier en ligne par l’utilisation de portefeuilles (wallets) tels que Metamask 10 MetaMask (2016) est un portefeuille numérique de cryptomonnaies et de tokens permettant d’interagir avec nombre d’applications et environnements décentralisés.(2016). Décentralisé et appartenant à son utilisateur, ce type de protocole propose une meilleure interopérabilité des données tout en laissant à chacun-e le contrôle sur ce qu’il-elle veut bien transmettre. Son intégration possible à lnstagram et Twitter montre que nous sommes dans une phase de transition entre Web 2.0 et Web3 et que rien, à ce stade, ne permet d’ affirmer que les problèmes que le Web3 est censé résoudre ne seront pas remplacés par des risques plus élevés. Vers des économies bricolées  ? Contrairement à l’économie traditionnelle où seuls les États (ou les banques centrales) ont le pouvoir d’émettre de la monnaie, les technologies du Web3 permettent à n’importe qui (en ayant les compétences techniques) de créer non seulement des espèces numériques, mais plus encore  : de programmer des systèmes de valeurs et donc des modèles économiques renouant avec des principes plus anciens tels que les monnaies locales, les Scops (Sociétés coopératives et participatives), ou encore les financements participatifs (crowd funding). Ces derniers se voient actualisés par les NFT, avec des initiatives telles que Stoner Cats (2021) - une série animée dont l’accès aux épisodes est limité aux détenteurs des tokens dédiés-, ou Hamlet Within (2022) - un documentaire du réalisateur avant-gardiste britannique Ken McMullen commercialisé en NFT sur le réseau Cineverse et découpé en plusieurs parties «  uniques  » réservées aux acheteurs. Selon Ken McMullen, «  le modèle artistique [du cinéma] deviendra totalement participatif, ce qui modifiera le vocabulaire esthétique du XXIe siècle dominé par une mentalité du jeu  ». Dans ce registre, le modèle encore instable du play-to-earn, popularisé par des jeux vidéo comme Axie Infinity (2018 ), consiste à redonner aux joueurs la majorité des gains résultant de la vente des items du jeu. De façon plus générale, le Web3 autorise de nouveaux usages et une forme d’inventivité économique voire de legal design 11 Le legal design est une pratique visant à introduire et faciliter la compréhension du droit à toutes et tous. Centré sur l’utilisateur, le legal design est par définition pluridisciplinaire et collaboratif.. Les smart contracts, par exemple, sont des scripts associés aux NFT qui proposent, entre autres, une redistribution automatique d’une partie des gains initiaux et des bénéfices des reventes successives, que ce soit pour l’artiste ou le designer ( actualisation du concept du «  droit de suite  ») ou pour des dons à des institutions (« ONG », mais aussi fondations produisant des logiciels libres, comme activé sur la plateforme de NFT Teia.art). Ces smart contracts peuvent aussi avoir des utilisations plus inattendues, comme la découpe d’un bien en de multiples fragments, le plafonnement des prix de revente, ou la mise en place d’une déflation basée sur le temps ou sur des données externes. On en arrive alors à des propositions à la frontière de l’art, où l’ oeuvre découle de règles régissant les relations entre humains et non-humains: Nouns DAO (2021) - une cagnotte alimentée par les ventes d’un NFT par jour et pouvant financer, par votes, des initiatives très diverses - ou Botto (2021) - un robot-artiste dont le goût est modelé par les votes hebdomadaires de la communauté et qui met automatiquement en vente en NFT les résultats de cet apprentissage semi-automatique. Au vu de ces éléments, gageons que les années à venir seront ainsi propices à l’étude des tensions entre les vieilles logiques capitalistes ( qui n’ont pas tardé à se réapproprier la logique anarchiste de Bitcoin) et de nouvelles « économies bricolées  », potentiellement plus redistributions mais encore minoritaires.

Enjeux critiques des assistants vocaux

Date

décembre 2018

Type

Conférence

Contexte

Introduction à la journée d’étude « Vox Machines », université Toulouse – Jean Jaurès / ESA Pyrénées

Résumé

Contexte de la journée d’étude Apparu dans les objets grand public depuis une dizaine d’année, le champ des «  assistants vocaux  » s’est tout d’abord développé sous la forme de programmes intégrés à des systèmes d’exploitation pour smartphones (Apple Siri, Microsoft Cortana, OK Google, etc.) puis a récemment été incorporé dans des objets «  boîtes noires  » autonomes (Amazon Echo, enceintes Google Now, Sonos One, etc.). Mi-2018, un américain sur cinq possédait une «  enceinte connectée  » et 50% des recherches en ligne se feraient d’ores et déjà à l’oral. Le shopping via commande vocale pourrait représenter aux États-Unis un marché annuel de 40 milliards de dollars en 2022, contre deux milliards en 2018. Le récent succès de ces objets s’appuie sur une promesse de «  fluidité » et de «  transparence  ». Or ces notions oblitèrent d’une part les considérables moyens techniques mis en oeuvre pour faire fonctionner ces programmes, et d’autre part le fait que les langues humaines, tout comme les langages formels, sont elles aussi le résultat d’une construction sociale. Censées apporter plus de confort et de fluidité, les interfaces dites «  ubiquitaires  » ou «  invisibles  » annihilent toute réflexivité sur le fonctionnement des programmes car la médiation graphique entre le système technique et nos capacités de prise de décision a disparu. Cette journée d’étude se propose ainsi d’étudier les enjeux techniques, historiques, économiques, politiques et créatifs des «  assistants vocaux  » afin d’amorcer une analyse critique de ces derniers. Les vidéos des conférences sont consultables ici

Manifesto for an Acentric Design

Date

décembre 2019

Type

Publication

Contexte

Version enrichie d’un chapitre de l’essai Design et humanités numériques (2017), traduction du français par Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, « Navigating the Human »

Résumé

Télécharger l’article en PDF Voir l’article [En ligne English version here. «  Là où vous voyez des choses idéales, moi je vois… des choses humaines, hélas  ! trop humaines  ! » […] Un «  esprit libre  » ne signifie pas autre chose qu’un esprit affranchi, un esprit qui a repris possession de lui-même. — Friedrich Nietzsche 1 Friedrich Nietzsche, «  Pourquoi j’écris de si bons livres. Humain, trop humain et deux suites  », dans  : Ecce Homo [1888], trad. de l’allemand par Henri Albert, Paris, Mercure de France, 1908, p.  636-637. Dans ce fragment aux allures autobiographiques, Nietzsche revient sur son livre Humain, trop humain [1876-1878]. Dans les expressions circulant à propos du «  design d’interface  », celles de «  design centré utilisateur  », «  d’expérience utilisateur  », et par extension de «  design d’expérience  » pourraient, à première vue, aller de soi. Le design aurait ainsi pour but de créer des choses «  utiles  », partant des besoins des utilisateurs, «  centrés  » sur eux et sur l’amélioration de leur «  expérience  ». Pourtant, si l’on regarde ces notions de plus près, on peut se demander ce que ces méthodes engagent comme conceptions du design, et plus largement comme compréhension des relations humaines et des relations humains-machines. En effet, il ne va pas sans poser problème de présupposer que «  nous  » serions avant tout des utilisateurs, c’est-à-dire des êtres voués à n’entretenir que des rapports d’utilité. Que penser alors de termes tels que «  user-centered design (UCD) 2  Shawn Lawton Henry, Justin Thorp, «  Notes on User Centered Design Process (UCD) », W3C.org, mars 2004, [En ligne], http://www.w3.org/WAI/redesign/UCD accès  : 1er Juillet, 22:00», « human-centered design (HCD) 3  Ideo, «  Human-Centered Design Toolkit  », 2009, [En ligne], http://www.ideo.com/work/human-centered-design-toolkit», « activity-centered design (ACD) 4 Geraldine Gay, Helene Hembrooke, Cambridge, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems, MIT Press, 2004. » ou encore «  people-centered design (PCD) 5 Hugh Graham, « People Centered-Design », [En ligne], http://hughgrahamcreative.com/people-centered-design » ? Pourquoi le design devrait-il se «  centrer  » sur quelque chose  ? Plus largement, n’y a-t-il pas dans l’existence humaine quantité d’aspects auxquels les «  expériences  » générées par le design ne sauraient se substituer  ? Afin de critiquer l’ingénierisation du design et la réduction du travail des designers à des méthodologies normatives voire quantitatives, nous proposons comme méthode de recherche d’associer une étude historiques des notions à interroger à des analyses techniques et aux discours afférents qui les entourent. Plus précisément, nous pourrions synthétiser la méthode de recherche de ce texte de la façon suivante 6 Nous reprenons ici la formulation établie par le chercheur Alexandre Saint-Jevin dans son compte-rendu de lecture de l’essai Design et humanités numériques : «  Sur la trace de l’humain dans les ‹  objets  › de design  », Non-Fiction, mars 2018, [En ligne], https://www.nonfiction.fr/article-9264-sur-la-trace-de-lhumain-dans-les-objets-de-design.htm: 1 . Analyser la notion déterminant le processus de création des choses de design pour en dégager les concepts philosophiques sous-jacents. 2. Retracer la généalogie de ce concept pour confronter la réalité technique des productions de design aux discours de l’entité (des concepteurs, des entrepreneurs, des communicants, des marketeurs, etc.) à propos des productions concernées. 3. Synthétiser l’histoire et les discours des entités sur les choses du design en général pour en dégager les enjeux philosophiques. 4. Confronter les enjeux philosophiques révélés par l’analyse des discours de l’entité à ceux de la notion de départ pour révéler en quoi ils viennent conditionner et déterminer la réalité technique. À rebours de la volonté de modéliser l’activité du design sous forme de chaînes logiques (diagrammes, schémas, timelines, etc.), cette formalisation ne vise donc pas à dire aux designers ce qu’il convient de faire mais ambitionne de leur fournir, dans leur démarche même, des entrées critiques leur permettant d’analyser ce qui a déjà été fait ou ce qu’ils sont en train d’élaborer. Afin d’activer d’autres façons de faire des interfaces que les scénarisations comportementales du design d’expériences, nous proposons de débuter notre analyse par un retour sur l’histoire des premières interfaces graphiques. Comment les valeurs recouvertes par ces couches techniques infusent-elles voire limitent-elles nos relations à la technique  ? Le «  modèle conceptuel de l’utilisateur  » du Xerox Star L’expression «  d’interface utilisateur  » (user interface) est contemporaine du développement des ordinateurs personnels à la fin de années 60. En 1968, Douglas Engelbart présentait l’aboutissement des recherches menées au sein du Xerox PARC lors d’un évènement rétrospectivement surnommé «  la mère de toute les démos  » (Mother of all demos), où l’on vit pour la première fois la visioconférence, la téléconférence, le courrier électronique, le système de navigation hypertexte et le modèle d’interface de la «  métaphore du bureau  » basé sur des «  fenêtres  » (windows), «  dossiers  » (folders), «  corbeilles  » (trash), etc. Partiellement réalisée dans l’ordinateur Xerox Alto de 1973  7 Seulement 1500 unités furent produites  : 1000 pour les employés de Xerox et le reste pour des universités et institutions publiques., cette première forme d’interface graphique (« GUI » pour graphic user interface) fut reprise dans le Xerox Star de 1981. Ce dernier était de plus accompagné d’un accès au réseau, de la possibilité d’envoyer des mails, d’une souris, et d’un système d’impression WYSIWIG (What You See Is What You Get) assez précis pour faire coïncider ce qui est vu à l’écran avec une impression papier. Afin de préciser l’origine du modèle conceptuel ayant servi de base à un design se revendiquant explicitement des besoins des «  utilisateurs  », il importe de revenir sur les principes fondateurs du Xerox Star. Dans un article datant de 1982, cinq anciens employés de Xerox Corporation expliquent leur compréhension des relations humains-machines, et plus précisément leurs méthodologie de design d’interface  : «  Nous avons appris du Star l’importance de formuler les concepts fondamentaux (le modèle conceptuel de l’utilisateur [the user’s conceptual model] avant que le programme ne soit écrit, plutôt que de faire suivre l’interface utilisateur user interface après. […]Elle a été conçue avant designed before les fonctionnalités du système ne soient entièrement décidées. Elle a même été conçue avant que le matériel informatique n’ai été construit. Nous avons travaillé pendant deux ans avant d’avoir écrit une seule ligne de code du programme du produit réel 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, Eric Harslem, «  Designing the Star user interface », Byte, no   4, 1982, p.  242-282, [En ligne], http://www.GUI debookgallery.org/articles/designingthestaruserinterface. » Une telle importance attribuée au design « avant » que les spécification matérielles ne soient formulées ne manquera pas d’interroger le lecteur contemporain, habitué à ce que le design soit réduit à une action en bout de course, dépendante d’une multitude de paramètres extérieurs. Dans le cas du Star, il était question d’introduire sur le marché des «  concepts radicalement nouveaux 9 Ibid. » bien plus que de chercher à appliquer une «  commande  » venue d’en haut. En dédiant une mémoire à l’affichage écran, les concepteurs du Star furent en mesure de créer une interface visuelle fonctionnant de concert avec la souris (également utilisée sur le Xerox Alto), définie dans le texte de 1982 comme «  un moyen de pointer rapidement un item à l’écran 10 Ibid. » plus efficace que les curseurs activables par le clavier. Il est particulièrement intéressant d’étudier comment les équipes de Xerox mirent au point une méthodologie de projet pouvant être reliée avec ce qui se nomme aujourd’hui «  design centré utilisateur  ». Le développement d’une interface pose en effet de nombreux problèmes  : la compréhension de la variété des langages dans lesquels les utilisateurs expriment leurs commandes à l’ordinateur, le design des représentations à l’écran montrant l’état du système à l’utilisateur, et d’autres problèmes abstraits pouvant affecter la compréhension du comportement du système. Selon les équipes du Star, ces problèmes sont hautement subjectifs, et ne peuvent être résolus qu’au cas par cas. La méthode employée aura donc consisté à se focaliser sur ce qui devrait précéder tout design d’une interface réussie, à savoir «  l’analyse des tâches  » (task analysis) : «  La description de la tâche actuelle avec sa répartition des objets et des méthodes d’information actuellement employées offre un point de départ pour la définition d’un ensemble équivalent d’objets et de méthodes devant être fournies par le système informatique l’ordinateur, ses programmes et ses périphériques]. L’idée derrière cette phase de conception [this phase of design] est de construire un nouvel environnement des tâches utilisateur [a new task environment for the user], dans lequel il puisse travailler pour atteindre les mêmes objectifs [same goals] qu’avant, désormais entourés d’un ensemble différent d’objets, et en employant de nouvelles méthodes 11 Ibid. » Pour Xerox, l’utilisateur est une entité essentiellement vouée à effectuer des tâches en vue d’accomplir des objectifs. On retrouve ici la définition commune d’un algorithme, à savoir un ensemble d’instructions destinées à accomplir une action déterminée. Autrement dit, n’est-ce pas du «  programme  » (un algorithme écrit en langage machine) en tant que modèle de pensée que découle la compréhension de ce qu’est un utilisateur  ? N’est-ce pas étonnant que d’aller de la machine vers les êtres humains afin de comprendre comment améliorer leurs relations  ? En ce sens, ce que l’on appellerait «  utilisateur  » dans le contexte informatique ne serait bien souvent qu’une réduction logique de la subjectivité humaine, capable dès lors de dialoguer avec des programmes «  extra humains 12 J’emprunte cette expression au livre Haunted by algorithms issu de la ligne de recherche Meta Mediums dirigée par Jeff Guess et Gwenola Wagon, à apparaître en 2016 aux Presses du réel. ». De même que certains voient dans le design une discipline susceptible de faire science 13 Voir  : «  Pour une recherche en design sans modèle  », supra., il s’agirait ici de «  modéliser des comportements  » disparates en vue d’améliorer l’efficacité des «  tâches  ». L’étymologie du terme «  tâche  » renvoie à taxer (taxare) pour désigner «  le travail déterminé que l’on a l’obligation de faire, avec une notion de ‹  rétribution  › [voire de] devoir moral 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. ». Le verbe «  tâcher  » exprime quant à lui l’idée de «  faire des efforts pour  », avec parfois l’idée d’une pénibilité voire d’un ordre atténué avec l’impératif «  tâchez de  ». Si l’utilisateur est celui dont les objectifs à réaliser passent nécessairement par une série de tâches à accomplir, cela ferait-il de nous des «  tâcherons  », c’est-à-dire des «  personne effectuant des besognes de commande [nous soulignons], sans grande intelligence » ? 15 Ibid. Dans l’exemple du Xerox Star, les choses sont néanmoins plus complexes. Le fait de partir d’un «  modèle-utilisateur  » constitué d’un petit ensemble de principes de design (design principles) permet d’assurer une cohérence globale, puisque « l’expérience utilisateur acquise dans une des zones du programme peut s’appliquer dans une autre 16 «  Designing the «  Xerox Star user interface », op.  cit : «  The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […]and allow user experience in one area to apply in others. » Nous soulignons. », réduisant ainsi la charge cognitive relative à l’utilisation du système informatique. Un autre aspect discuté dans l’article – relatif à la notion de cohérence – concerne la notion de «  familiarité » (« Familiar User’s Conceptual Model ») : «  Un modèle conceptuel utilisateur [a user’s conceptual model] est l’ensemble des concepts qu’une personne acquiert progressivement pour expliquer le comportement [behavior] d’un système […]. La première tâche d’un concepteur de système est de décider quel modèle est préférable pour les utilisateurs […]. Cette étape extrêmement importante est souvent négligée ou mal faite. Les concepteurs du [Xerox] Star [The Star designers] ont consacré de nombreuses années […]à évoluer vers […]un modèle approprié pour un système d’information bureautique  : la métaphore d’un bureau physique 17 Ibid. » C’est en partant de l’univers actuel des utilisateurs, à savoir le modèle hiérarchique du bureau, que l’interface du Xerox Star a pu être élaborée. Il était important de donner naissance à une interface «  familière  » afin qu’il y ait le moins de frictions (seamless) dans «  l’expérience utilisateur  ». Ce dernier retrouve ainsi dans la machine son organisation habituelle de gestion et de découpage des tâches. Par exemple, les message papier empilés sur le bureau physique de l’utilisateur employé de bureau deviennent, dans son ordinateur, un pictogramme d’enveloppe indiquant quand un nouvel email est reçu. Il est intéressant de préciser que le modèle métaphorique défini avant le développement effectif du programme modifie de fait les fonctions dudit programme  : le design n’est pas abordé comme un simple habillage. Toujours dans l’exemple des emails, la commande d’envoi (send mail) a ainsi pu être évitée en utilisant le déplacement d’icônes. Un dernier aspect important de l’interface du Star concerne la personnalisation de l’interface, les icônes déplaçables permettant de configurer l’environnement de travail. Si l’on résume les grands principes du Xerox Star, ce qui est ici désigné sous le terme d’«  utilisateur  » est en fait une succession de «  tâches  » orientées vers des objectifs à partir desquelles les designers vont élaborer un «  modèle conceptuel  » servant de base au développement du système informatique et assurant sa cohérence métaphorique. En fournissant un environnement «  familier  » et «  amical  » à l’utilisateur, l’interface développée vise donc à accroître son efficacité en développant des «  synergies humains-machines  ». L’interface «  amicale  » (« friendly ») du Xerox Star montre toutefois ses limites sur certaines fonctions où la métaphore du bureau est inopérante  : «  Une des raisons d’être du [Xerox Star] est que Les objets physiques ne donnent pas assez de pouvoir aux gens [do not provide people with enough power] pour gérer la complexité croissante de «  l’ère de l’information  ». Par exemple, nous pouvons tirer avantage de la capacité des ordinateurs à chercher rapidement en mettant en place une fonction de recherche pour les dossiers de fichiers électroniques, aidant ainsi à résoudre le vieux problème des fichiers perdus 18 Ibid. » La fin de l’article de 1982 se conclut de façon intrigante sur le fait qu’il est difficile de choisir entre plusieurs modèles d’interfaces en s’appuyant sur des critères stabilisés (scientifiques) : «  Le design d’interface est encore un art et non une science 19 Ibid. : «  User-interface design is still an art, not a science. » ». Bien que le texte du Xerox Star plaide au final pour l’établissement de «  processus plus rigoureux  » concernant l’élaboration d’interfaces, une telle assertion ne manquera pas d’intriguer le lecteur contemporain. L’émergence des systèmes d’exploitation «  graphiques  » rationalisés Malgré l’échec commercial du Xerox Star, ces méthodes de design vont connaître un succès qui changera définitivement nos rapports aux machines électroniques. Précurseur des recherches menées au Xerox PARC, la thèse en Informatique (computer science) de Jef Raskin, Quick-Draw Graphic System, publiée en 1967 (soit 6 ans avant le Xerox Alto 20 Au début des années 70, le IBM Usability lab ne se préoccupait que d’ergonomie. The Psychology of Computer Programming fut publié par Gerald Marvin Weinberg en 1971, et les travaux de Stuart K. Card, Allen Newell et Thomas P. Moran ne furent connus du grand public qu’après la parution en 1983 de The Psychology of Human-Computer Interaction.), plaidait pour un environnement informatique où l’interface graphique tiendrait une place prépondérante. Une telle idée n’allait pas du tout de soi à la fin des années 1960  : «  Ma déclaration la plus hérétique […]fut de dire que mon travail était basé sur une «  conception [design] et une mise en œuvre philosophique qui plaçaient la généralisation et l’utilisabilité humaine [human usability] devant la vitesse d’exécution et l’efficacité ». Ceci à une époque où le principal objectif des cours d’informatique était de vous apprendre à faire des programmes plus rapides [to make programs run fast] et utilisant le moins de mémoire possible 21 «  Articles from Jef Raskin about the history of the Macintosh  », 1996, [En ligne], https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/. » Après des contacts avec Xerox concernant le développement de la souris, Jef Raskin fut embauché par Apple en 1978. C’est sous son impulsion et celle de Bill Atkinson 22 Le titre de la thèse de Jef Raskin (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) fut repris par Bill Atkinson pour nommer l’environnement graphique (graphics package) du Macintosh. que Steve Jobs et Steve Wozniak prirent connaissance des recherches menées au Xerox PARC sur les interfaces graphiques. La suite de l’histoire est connue. Alors CEO de Apple Inc., Steve Jobs, âgé de 24 ans, visita en 1979 les locaux de Xerox. Dans un documentaire sorti en 1995, il revient sur le choc que constitua pour lui cet événement  : «  Ils [Xerox] me montrèrent […]trois choses. […]. Une des choses qu’ils me montrèrent fut la programmation orientée objet […]. L’autre chose qu’ils me montrèrent était un système informatique [d’une centaine d’ordinateurs] en réseau […]. Je ne le voyais même pas. J’étais totalement aveuglé par la première chose […], à savoir l’interface graphique utilisateur [the graphical user interface]. Je pensais que c’était la meilleure chose que j’ai jamais vue de toute ma vie. Aujourd’hui, je me souviens que c’était très imparfait. […] Mais, à l’époque], au bout de […]dix minutes, il était évident pour moi que tous les ordinateurs fonctionneraient comme cela un jour. C’était évident 23 Steve Jobs, entretien avec Robert X. Cringely, Triumph of the Nerds: The Rise of Accidental Empires, documentaire, 1996, [En ligne], http://www.pbs.org/nerds » Suite à cette présentation obtenue en échange d’actions de l’entreprise Apple Inc., Steve Jobs lança l’ordinateur personnel Apple Lisa en 1982, qui reprenait du Xerox Star les principes de la souris et de l’interface graphique. D’un prix trop élevé (10   000 $ pour l’époque soit 24   000 $ aujourd’hui), le Lisa fut remplacé par le Macintosh sorti en 1984, bien plus accessible financièrement. Si beaucoup pensent encore que Steve Jobs s’est contenté de «  voler  » les principes clés du Xerox Alto, l’histoire est cependant plus complexe. Les dirigeants de Xerox n’avaient pas pris conscience des conséquences décisives de ce qu’ils avaient découvert, abandonnant leur vision prospective aux équipes de ventes et du marketing qui étaient focalisées sur les photocopieurs, le cœur de la marque, et non sur le nouveau marché des ordinateurs 24 Pour un histoire détaillée de l’entreprise Xerox, voir  : Douglas K. Smith, R. C. Alexander, Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, New York, William Morrow & Co, 1988.. Il a fallu que Bill Atkinson réécrive et améliore quantité de fonctions pour que le Lisa puis le Macintosh puissent bénéficier d’une interface graphique «  supérieure  » (ajout des menus déroulants, ouverture des fenêtres en double-clic, icône corbeille, etc.). Aucune ligne de code ne fut, au sens propre, «  copiée/collée 25 Christoph Dernbach, «  Did Steve Jobs steal everything from Xerox PARC? », Mac History, février 2012, [En ligne], http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc ». Afin de développer l’offre logicielle des machines Apple, Steve Jobs invita Microsoft au début des années 1980 à éditer des programmes pour le Macintosh. Malgré la demande faite par Jobs à Bill Gates (alors CEO de Microsoft) de ne pas utiliser d’interface graphiques pilotable à la souris avant que le Macintosh (1984) ne fut en vente depuis un an, Microsoft surprit tout le monde en annonçant en 1983 le système d’exploitation Windows 1.0  26 windows 1.0 n’était pas encore un système d’exploitation complet, mais plutôt une «  couche graphique  » utilisable par des logiciels tiers., dont la sortie officielle n’aura lieu qu’en 1985. Quand Jobs, furieux, accusa Bill Gates de l’avoir trahi, ce dernier lui répondit qu’ils avaient tous les deux volé «  leur riche voisin Xerox 27 Andy Hertzfeld, «  How the Mac was born, and other tales  », entretien avec Scott Ard, CNET, janvier 2005, [En ligne], http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html ». En 1988, la justice américaine classa sans suite le procès intenté par Apple. Don Norman, les limites de «  l’expérience utilisateur  » Après la sortie de Microsoft windows, les méthodes de conception liées au design d’interface se structurent autour de disciplines scientifiques connexes à ce champ.  En plus des expressions d’«  utilisabilité humaine  » (human usability) et d’«  interface utilisateur  » (user interface), celle d’«  expérience utilisateur  » (souvent abrégée en « UX » pour User eXperience) rencontre alors un succès notable. Cette dernière semble apparaître pour la première fois en 1986  28 Pour une chronologie détaillée de l’histoire de ce terme, voir  : Peter Merholz , «  Whither ‹  User Experience  › », novembre 1998, [En ligne], http://www.peterme.com/index112498.html dans un livre codirigé par Donald Norman (chercheur en sciences cognitives) et intitulé User Centered Design: New Perspectives on Human-Computer Interaction (Design des systèmes centrés utilisateur) 29 Donald A. Norman, Stephen W. Draper (dir.), User Centered Design: New Perspectives on Human-Computer Interaction, San Diego, University of California, Hillsdale, Lawrence Erlbaum Associates, 1986. Après un développement sur l’impossibilité de parvenir à un sens univoque par des images normées (pictogrammes), on trouve cette citation  : «  Un engagement direct se produit lorsqu’un utilisateur fait l’expérience d’une interaction directe [a user experiences direct interaction] avec des objets dans un milieu […]plutôt qu’une communication avec un intermédiaire. Ces interactions s’apparentent à interagir avec des objets du monde physique. […]L’]interface et l’ordinateur deviennent invisibles [the interface and the Computer become invisible]. Bien que nous croyons que ce sentiment d’engagement direct soit d’une importance capitale, nous ne savons […]que peu de choses sur les besoins réels nécessaires à sa production 30 Edwin L. Hutchins, James D. Hollan, Donald A. Norman, «  Direct Manipulation Interfaces  », ibid., p.  114. » L’«  expérience utilisateur  » pourrait ainsi être comprise comme un volonté d’élargir le modèle de conception du Xerox Star à d’autres champs que celui des interfaces écran et des ordinateurs qui pourraient disparaître, devenant «  invisibles  ». Fréquemment mentionné comme étant l’inventeur de cette expression, Don Norman la définissait ainsi en 1998  : « J’ai inventé l’expression [d’expérience utilisateur] parce que je pensais que celles d’interface humaine et d’utilisabilité 31 La notion d’«  utilisabilité », que Don Norman juge insuffisante, était abordée par ses zélateurs Jeff Rubin et Dana Chisnell sous ces termes  : «  Quand un produit ou un service est vraiment utilisable, l’utilisateur peut faire ce qu’il […]veut faire de la façon dont il […]espère pouvoir le faire, sans entrave, hésitation, ou questions. » Source  : Jeff Rubin, Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests [1994], Indianapolis, Wiley, 2008, p.  4. étaient trop restreintes [I thought Human Interface and usability were too narrow]: je voulais couvrir tous les aspects de l’expérience d’une personne [the person’s experience] avec un système, incluant le design industriel, le design graphique, l’interface, l’interaction physique et le mode d’emploi 32 Don Norman, cité dans  : Peter Merholz , «  Whither ‹  User Experience  › », op.  cit » Cet aspect plus large de l’«  expérience utilisateur  » fut ensuite précisé dans la version «  canonique  » formulée par Jakob Nielsen et Don Norman  : «  L’expérience utilisateur  » englobe tous les aspects de l’interaction de l’utilisateur final [«User experience  » encompasses all aspects of the end-user’s interaction] avec l’entreprise, ses services et ses produits. La première exigence pour une expérience utilisateur exemplaire est de répondre aux besoins exacts du client [to meet the exact needs of the customer]. […]Nous devons distinguer l’UX [l’expérience utilisateur] et l’utilisabilité [usability]. La définition de l’utilisabilité indique que c’est une qualité de l’UI [interface utilisateur] couvrant le fait qu’un système soit simple à comprendre, efficace à utiliser, plaisant, etc. [L’expérience utilisateur] est un concept bien plus large 33 Jakob Nielsen, Don Norman, «  The Definition of User Experience  », article non daté, Nielsen Norman Group, [En ligne], http://www.nngroup.com/articles/definition-user-experience. » Le «  design d’expérience  » et la fable de l’informatique «  invisible  » Cet intérêt désormais resserré autour de la personne-utilisateur et non plus de l’appareillage technique (l’interface) est encore plus explicite dans la formule «  design centré utilisateur  » (« UCD » pour user-centered design), qui consiste à fonder l’ensemble de la méthodologie de conception sur le point central qu’est l’utilisateur. Cette méthodologie de conception a rencontré un très grand succès peut-être en raison du lien qu’elle permettait d’établir entre les services marketing chargés d’étudier les consommateurs et les équipes chargées du design des produits. Pourtant, de l’aveu même du zélote Don Norman, le terme «  d’utilisateur  » a montré ses limites. Dans un article paru en 2006 et intitulé «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », Don Norman confessait ainsi  : «  Nous dépersonnalisons les individus que nous étudions en les rebaptisant «  utilisateurs  ». Ces termes sont péjoratifs. Ils nous éloignent de notre mission première  : aider les gens [to help people].[…]Les gens sont des êtres complexes et riches. […]Une étiquette telle que client, consommateur ou utilisateur ignore cette […]structure sociale. […]Il est temps de débarrasser notre vocabulaire de termes tels que consommateur, client et utilisateur. Il est temps de parler à des personnes. Le pouvoir au peuple [Time to speak of people. Power to the people] 34 Don Norman, «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », jnd.org, 2006, [En ligne], http://www.jnd.org/dn.mss/words_matter_talk_a.html. » De même, en 2008  : «  Parmi les horribles mots que nous employons, il y a le mot «  utilisateurs  ». Je pars en croisade pour nous débarrasser de ce terme. Je préfère parler de «  personnes  ». […] Nous concevons des produits pour des personnes, pas pour des utilisateurs 35 «  Don Norman at UX Week 2008, Adaptive Path  », YouTube, [En ligne], https://youtu.be/WgJcUHC3qJ8 » Résumons ces différents points. La méthodologie de conception «  centrée sur l’utilisateur  » consiste à traiter par le design chaque être humain comme un utilisateur, comme une personne vouée à n’entretenir avec les entreprises que des rapports «  centrés  » sur ses «  besoins exacts 36 Jakob Nielsen, Don Norman, «  The Definition of User Experience (UX) », op.  cit », avec lesquels il n’aurait ni «  entrave[s], hésitation[s]ou questions 37 Jeff Rubin, Dana Chisnell, Handbook of Usability Testing, op.  cit ». Ce courant de pensée est issu d’une modélisation scientifique des principes ayant présidé à la conception du Xerox Star afin d’en faire une machine «  personnelle  » optimisant les tâches à accomplir par l’utilisateur. Rétrospectivement, les textes performatifs de Don Norman faisant l’éloge de l’étude des «  besoins  » ont conduit, de l’aveu même de l’auteur, à une impasse, en raison du fait que l’être humain ne peut pas être réduit à un rôle déterminé 38 Cette idée a été inscrite dans les normes ISO, qui proposent de changer l’expression d’«  expérience centrée-utilisateur  » en «  conception centrée sur l’opérateur humain  ». Voir  : «  ISO 9241-210:2010. Ergonomie de l’interaction homme-système. Partie 210  : Conception centrée sur l’opérateur humain pour les systèmes interactifs  », Iso.org, mars 2010, [En ligne], https://www.iso.org/obp/ui/fr/#iso:std:iso:9241:-210:ed-1:v1:fr. Il serait possible de se réjouir d’un tel revirement de pensée. Pourtant, à y regarder de plus prêt, ne faudrait-il pas également interpréter ces injonctions contradictoires comme le signe d’un pouvoir qui n’appartiendrait pas au «  peuple  », mais à ceux tenant ces discours  ? Autrement dit, n’est-ce pas contre ceux qui s’enrichissent continuellement (au sens banal du terme) en maîtrisant la circulation des méthodologies de conception qu’il faudrait «  partir en croisade  » ? Davantage qu’un plaidoyer en faveur d’une complexité à prendre en compte dans la conception, cet «  appel à l’humain  » aura été, pour Don Norman, l’occasion d’éliminer progressivement les «  interfaces  » au nom d’une informatique «  invisible 39 Donald A. Norman, Norman, The Invisible Computer. Cambridge, MIT Press, 1998. » dont les produits seraient «  humainement centrés  » (human-centered) 40 Le chapitre 2 du livre The Invisible Computer a pour titre «  Growing up: Moving from technology-centered to human-centered products  ». Cette prédiction d’invisibilité passant à couvert dans un changement de vocabulaire a priori innocent fut si bien intégrée par les entreprises qu’en 2012 Apple en faisait l’objet d’une publicité : «  Nous pensons que la technologie atteint son summum lorsqu’elle devient invisible, quand vous ne pensez qu’à ce que vous faites et non à l’appareil avec lequel vous le faites. […] L’iPad illustre parfaitement cette idée. C’est une fenêtre magique qui peut devenir tout ce que vous voulez qu’elle soit. […]C’est une expérience de la technologie plus intime que ce que le public [people] a connu jusqu’alors 41 «  Official Apple (New) iPad Trailer  », YouTube, mars 2012, [En ligne], https://youtu.be/RQieoqCLWDo. » La prise de recul de Don Norman ne veut pas dire pour autant que son idée d’informatique «  invisible  » soit viable. Le terme qui importe ici est celui d’«  expérience  », qui va de pair avec celui de «  magie  ». Quoi de plus magique, en effet, que de faire l’expérience d’une technologie «  invisible  » ? Olia Lialina (artiste), dans un article critique consacré à l’étude de la notion d’utilisateur, ne s’en laisse pas compter  : «  C’est pour cela que le design d’interfaces a progressivement été rebaptisé design d’expériences – expression dont l’objectif premier est de faire oublier l’existence des ordinateurs et des interfaces auprès des utilisateurs. Le design d’expériences vous laisse seul avec vos émotions à ressentir, vos objectifs à atteindre et vos tâches à effectuer 42 Olia Lialina, «  L’utilisateur Turing-complet  » [2012], trad. de l’anglais par Jean-François Caro, LGRU Reader, 2013, [En ligne], http://reader.lgru.net/texts/lutilisateur-turing-complet. » Pour un design appareillé En conclusion de son article consistant à étudier les limites d’une exclusion du terme d’utilisateur des méthodes de conception d’interface, Olia Lialina propose de revenir à des fondements antérieurs au Xerox Star, à savoir ceux développés par l’informaticien Ted Nelson dans son ouvrage Computer Lib / Dream Machine de 1974  : «  L’INFORMATIQUE A TOUJOURS ÉTÉ PERSONNELLE [COMPUTING HAS ALWAYS BEING PERSONNAL]. Je veux dire par-là que si vous ne vous y plongiez pas intensément, parfois avec chaque cellule de votre cerveau éveillé, vous n’étiez pas en train de faire de l’informatique, vous n’étiez qu’un simple utilisateur [you weren’t doing computers, you were just a user] 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now, auto-édition, 1974, p.  3. » L’argument est fort. L’utilisation «  naïve  » dénoncée Ted Nelson, précise les risques d’une perte de contact avec l’ordinateur, qui du Xerox Star à l’iPad, présuppose que tout ce qui est «  vrai  » (la vraie vie, la créativité, etc.) serait extérieur à la machine. Pourtant, malgré la montée en puissance des interfaces tactiles (sans souris), malgré l’émergence des interfaces gestuelles (sans boutons), des interfaces sonores (sans écran), et malgré le retour des interfaces [En ligne de commande (sans icônes), force est pourtant de constater que les grands principes des interfaces graphiques élaborées au Xerox PARC au début des années 1970 régissent encore majoritairement nos rapports aux machines électroniques – qui ne sont pas encore,  loin s’en faut, «  invisibles  ». En témoignent, par exemple, les « Apple Human Interface GUI delines 44 Voir pour exemple  : « OS X Human Interface GUI delines  », Apple, [En ligne], https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGUI delines  : «  Designing for Yosemite  : […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience. » » (littéralement  : «  Directives Apple d’interfaces humaines  ») et le « Material Design 45  Google, Material Design, première version publiée en juin 2014, [En ligne], https://www.google.com/design/spec/material-design/introduction.html » de Google qui, dans les années 2010, sont des lectures recommandées – à condition d’être critique – pour quiconque s’intéresse au design d’interface. Cette actualité n’empêche pas que le modèle de pensée d’une interface couplée avec une figure utilisateur idéalisée (prise dans un faisceau d’habitudes) ait ses limites. Depuis le texte de Jef Raskin de 1967 associant «  l’utilisabilité humaine  » à l’efficacité de la résolution de tâches 46 Jef Raskin, A Hardware-Independent Computer, 1967, op.  cit, la volonté de créer une interface graphique pour procurer à l’«  utilisateur  » un nouvel environnement de travail et de nouvelles méthodes pour accomplir «  les mêmes objectifs qu’avant 47 «  Designing the Star user interface », op.  cit » aura consisté à envisager les médias électroniques comme des «  résolveurs de problèmes  » plutôt que comme des puissances de transformation et d’invention. Or, comme le note avec acuité le spécialiste des humanités Yves Citton  : «  L’invention des dispositifs techniques de communication […]s’inscrit dans une vaste nébuleuse d’espoirs, d’angoisses, de rêves, de bricolages, de savoirs parallèles, de détournements et de réappropriations, qui traversent de nombreux champs disciplinaires traditionnels […]. Nos médias ne sauraient en effet se réduire à de simples instruments de transmission de formes et de contenus  : il fonctionnent avant tout comme des médiums qui nous fascinent, nous hallucinent, nous hypnotisent et nous stimulent par l’entremise des simulations qu’ils qu’ils font pénétrer à travers nos sens 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques, Paris, Armand Colin, coll. Le temps des idées, 2012, p.  21-22. » Au regard de ces quelques textes fondateurs du design à l’époque du numérique, il est évident que les machines électroniques posent des questions qui n’existaient pas avant elles. Mais peut-être est-ce précisément contre ces nouveautés que se seront élaborées des méthodologies de conception trop inquiètes de préserver les pouvoirs et savoirs en place. Malgré ses indéniables avancées techniques, le Xerox Star n’aura pas bénéficié du plein soutien des dirigeants de l’entreprise, qui préférèrent développer le commerce des photocopieurs, plus en phase avec les «  usages  » de l’époque. Dans cette histoire de «  design centré utilisateur  », expression postérieure au Xerox Star, il est en effet question d’une inquiétude quant à un oubli de «  l’utile  », de l’utilité de l’objet. Mais est-ce vraiment possible dans un monde où les services marketing, par exemple, cherchent sans cesse à anticiper les «  besoins  » des consommateurs par des procédures statistiques couplées à des protocoles d’observation  ? Un autre aspect allant dans le sens d’un design se construisant contre les nouveautés techniques – c’est-à-dire pour les habitudes – est cette histoire de «  centre  », terme qu’il faut à présent examiner. Ce double suffixe accolé à design aurait pu faire l’objet de variations. Pourquoi ne parle-t-on jamais, par exemple, de design «  centré forme  » par exemple, ou bien de design «  centré pratiques  » ? Peut-être est-ce parce que ces deux notions (il pourrait y en avoir d’autres) résistent à l’idée de «  centre  », de délimitation. Si l’on prend la notion de forme, il est notable que celle-ci, historiquement, aura concerné le design – suivant la formule de l’architecte Louis Sullivan suivant laquelle «  de la forme suit de la fonction 49 Traduction proposée par Pierre-Damien Huyghe de la formule « form ever follows function » de 1886. ». Fin observateur d’une histoire qui, parfois, «  piétine  » (où des enjeux sont tantôt occultés, tantôt redécouverts), le philosophe Pierre-Damien Huyghe note que la notion de forme traduit le «  souci artistique  » du design  : «  Il ne s’agissait pas seulement de mettre au monde des objets fonctionnels qui pouvaient servir. Le souci de faire forme aura été absolument essentiel au design. On pourra noter ici que le latin forma peut, a pu se traduire par «  beauté » 50 Pierre-Damien Huyghe, «  On appelle beaucoup trop de choses «  design  », entretien avec Julie Delem, Naja21, avril 2015, [En ligne], http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design » De façon plus générale, c’est bien le design, dans ce qu’il comprend de capacité à transformer le monde, qui ne saurait «  se centrer  » sur quelque chose. Le design n’a de l’intérêt que s’il est emprunt de tensions, de polarités, de contradictions – soit tout le contraire d’un centre. Olia Lialina, en conclusion de son article, refuse également de se laisser réduire à une étiquette  : «  Nous, utilisateurs généralistes – qui ne sommes ni hackers, ni «  personnes  » –, qui interrogeons, consciemment ou non, notre potentiel et celui de l’ordinateur, sommes les participants ultimes de la symbiose de l’homme et de l’ordinateur 51 Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit » Il faut désormais revenir sur le fait que le modèle conceptuel de l’interface du Xerox Star de 1981 ait été décidé «  avant  » que le matériel (hardware) n’existe, «  deux ans avant d’avoir écrit une seule ligne de code 52 «  Designing the Star user interface », op.  cit ». Rétrospectivement, ce récit peut être compris comme celui d’une rencontre manquée avec l’altérité des machines, puisqu’il y est question, en substance, d’assujettir la technique numérique (hardware et software) à un «  modèle  », c’est-à-dire à quelque chose d’anticipé et de stabilisé. Cette mise à distance progressive de la notion d’«  utilisateur généraliste {53; Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit} » (actif et polyvalent) aura rendue possible les expressions de «  design centré-humain  » puis de «  design d’expérience  », qui incarnent la promesse d’un monde où l’on pourrait «  faire ce que l’on veut  », immédiatement, comme par «  magie  ». Mais de quel «  faire  » parle-t-on quand l’invisibilité devient l’idéal des machines  ? Cette fable de l’invisibilité des nouveautés techniques était en fait déjà en germe aux prémices de l’informatique personnelle. Dans un spot publicitaire de 1979 pour le Xerox Alto censé démontrer la puissance du «  bureau du futur  », un cadre commercial (Bill) arrive au travail et salue ses collègues un café à la main. Quand il arrive à son poste, il allume son ordinateur Alto et s’adresse vocalement à lui  : «  Hello, Fred  ». L’ordinateur lui répond «  Bonjour Bill  ». Après une série de tâches facilement résolues par la machine, vient le dialogue final  : Bill (fatigué) : «  Autre chose  ? » Fred  : Un bouquet de fleurs richement détaillé apparaît à l’écran Bill (troublé) : «  Des fleurs  ? Pourquoi des fleurs  ? » Fred  : «  Votre anniversaire est ce soir. » Bill (attristé) : «  Mon anniversaire. J’avais oublié. » Fred  : « Ça va. Nous ne sommes que des humains [It’s ok. We’re only human] 54 Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, op.  cit, p.  20.» Ce que décrivent de telles initiatives est paradoxalement un monde sans expérience, au sens où l’expérience ne peut avoir lieu qu’au sein d’un champ de possibles ouvert à l’incertitude  : «  La puissance économique est bien ce que la socialisation des expériences met en œuvre. Mais d’un autre côté, si cette mise en œuvre nourrit jour après jour l’expérience et la perception communes, elle n’apparaît pas authentiquement. Le plus souvent même, elle emprunte les formes de l’habitude, elle se glisse mimétiquement dans l’expérience 55 Pierre-Damien Huyghe, «  Faire place  », dans :  Richard Conte, Sandrine Morsillo (dir.), Qu’est-ce que l’art domestique  ?, Paris, Publications de la Sorbonne, coll. Arts et monde contemporain, 2006, p.  29.. » Symptomatique d’une époque où les «  appareils 56 L’appareil est défini par Pierre-Damien Huyghe comme «  une modalité technique distincte de l’outil et de la machine qui fait qu’il y a en lui une puissance de perception, une forme particulière de la sensibilité ». Voir  : Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, 2006. » ne sont plus des objets dignes d’intérêt, les relations humains-machines sont de plus en plus marquées (brandées) par les registres de l’utilité, du rendement ou du gain de temps. L’expérience humaine du «  design d’expérience  » se réduit bien souvent à une situation expérimentale, celle d’un rat cherchant sa sortie dans un labyrinthe. Qu’il soit «  amical  » (friendly) voire «  invisible  », ce milieu technique n’en est pas moins un carcan, une situation sous contrôle où tout échange est anticipé et programmé. À force de vouloir nous imiter dans des ordinateur «  humains, trop humains  », c’est nous-mêmes, «  simples personnes  », qui risquons de passer à côté de leurs possibilités complexes et infinies.

Singulariser le multiple : les NFT artistiques entre spéculation et redistribution

Date

novembre 2021

Type

Publication

Contexte

Article rédigé avec Guillaume Helleu pour la revue de recherche Multitudes.

Résumé

Cet article explore les enjeux des technologies blockchain dans le champ de la création (art, design, jeu vidéo, etc.) à travers le développement, depuis 2015, des « Non Fungible Tokens » (NFT) – à savoir la production d’un certificat numérique infalsifiable et décentralisé attaché à une entité numérique ou tangible. Mis en lumière depuis le début de l’année 2021 par une multitude de ventes aux sommes record et par le développement de places de marché spécifiques, les NFT soulèvent des enjeux relatifs à la valeur, à la circulation et à l’exposition des productions artistiques et culturelles.

Design des angles morts (promesses, limites, bifurcations)

Date

janvier 2023

Type

Publication

Contexte

Chapitre publié dans l’ouvrage collectif Angles morts du numérique ubiquitaire. Un glossaire critique et amoureux, Presses universitaires de Paris Nanterre, 2023.

Résumé

Parmi les ritournelles managériales qui rythment les sociétés occidentales, celle de la «  transformation numérique  » implique une vision linéaire et homogène (au singulier) de l’histoire des techniques  : il existerait ainsi un mouvement inéluctable, ou du moins souhaitable, consistant à numériser – c’est-à-dire à quantifier, calculer, mesurer – l’ensemble des activités humaines. Issue du champ économique, la «  transformation numérique  » est définie par le consultant Fred Cavazza comme désignant «  l’évolution du marché et des organisations qui cherchent à adapter leur offre, fonctionnement et pratiques aux enjeux du XXIe siècle  » (2021). Toujours selon lui, «  adapter les pratiques [signifie] mieux tirer parti des données (gouvernance, littératie, conformité, etc.), de l’IA (machine learning, deep learning, etc.) ou de l’automatisation (chatbots, assistants vocaux, RPA, etc.) ». Les «  enjeux du XXIe siècle  », quant à eux, sont «  liés à un quotidien sans contact, à une croissance économique nulle (ou du moins très faible en Europe), aux nombreuses crises et tensions (Gilets jaunes, Cancel Culture [sic.], etc.) » (Cavazza, 2021). Ces discours font apparaître en creux des tensions au sein de «  la  » transformation numérique. L’adhésion aveugle aux «  innovations  », qui se succèdent à un rythme de plus en plus rapide, se heurte à des mutations politiques et sociales qui déstabilisent leurs promesses de linéarité, d’efficacité et de rentabilité. Les technologies numériques, en tant qu’innovations, naissent en quelque sorte «  hors-sol  », sous un mode détaché des contingences et singularités humaines. Autrement dit, les discours économiques ne peuvent pas être transposés sans contradictions dans le champ social – ne serait-ce que pour savoir comment conjuguer transformation numérique et transition écologique. Plus encore, à rebours de l’idée éculée (et pourtant toujours présente) d’un progrès technique pour le plus grand nombre, la diversité des pratiques et l’analyse des discours font surgir des valeurs «  embarquées  » (embedded) au sein des programmes qui mettent en doute cette visée positiviste. Ce décalage entre usages (prescrits) et pratiques (libres) (De Certeau, 1990) est au cœur du design, que nous comprenons ici non pas comme une volonté d’adéquation entre les innovations et le marché, mais comme un «  cheminement dans les qualités formelles, structurelles et fonctionnelles de nos environnements  » (Masure, 2017). À l’époque des IA, l’idée d’une désautomatisation des modes de vie induits par l’industrie des programmes se repose de façon aiguë. Quels sont les angles morts du numérique que le design permet d’éclairer  ? À quels problèmes les technologies numériques sont-elles aveugles  ? En quoi les choix – ou non-choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer  ? L’émergence du design comme résistance à l’économie Pour étudier les angles morts du numérique, il faut tout d’abord préciser quel rôle le design peut jouer pour interroger ce qui semble aller de soi dans les environnements techniques. Nous proposons ici d’entendre sous le nom de design non pas, comme dans l’acception courante, un champ de conception et de production d’objets et de services, mais une mise en tension, voire une suspension, des attendus économiques de nos environnements techniques. Pour étudier ces questions, nous allons tout d’abord recourir à la figure de Karl Marx qui nommait «  la grande industrie » : «  Dans le système de machines, la grande industrie crée un organisme de production complètement objectif ou impersonnel, que l’ouvrier trouve là, dans l’atelier, comme la condition matérielle toute prête de son travail. [Marx, 1963, p.  930-931] » Si le design apparaît de façon conjointe aux différentes révolutions industrielles qui traversent l’Europe à la fin du XIXe siècle, il sera installé dans la modernité en faisant brèche avec l’artisanat, et plus précisément avec son imitation mécanisée et asservissante. Un des moments clés pour mettre en évidence cette visée est celui des Expositions universelles, dont les prouesses techniques sont des vitrines politiques pour les gouvernements. Lors de la première Great Exhibition of the Works of Industry of All Nations à Londres en 1851, l’ingénieur Michel Chevalier note ainsi, lyrique, que «  le grand principe de la division du travail, […] la force motrice de la civilisation, s’étend à toutes les branches de la science, de l’industrie et de l’art. […] Les distances qui séparent les peuples et les contrées de la Terre s’évanouissent chaque jour devant la puissance de l’esprit d’invention  » (1851, p.  36). À cette occasion, un des bâtiments principaux, le Crystal Palace de l’architecte Joseph Paxton, est construit en seulement six mois grâce à l’emploi novateur d’unités modulaires standardisées, préfabriquées en usine et montées sur place. L’édifice est gigantesque  : 563   m de long sur 268   m de large, pour une surface de 92   000   m². Il marque durablement les esprits et préfigure la production d’architecture de métal et de verre et la préfabrication du XXe siècle. «  Association des arts, des sciences et de l’industrie  », le Crystal Palace contraste pourtant avec les objets qui y sont exposés  : les chaises, cruches et autres tapis restent engoncés dans le vieux siècle, comme le fait remarquer l’historienne du design Alexandra Midal  : « [Les organisateurs des expositions universelles espéraient] que la machine permettrait d’alléger le travail, de multiplier les richesses et d’améliorer la vie de tous, d’apporter la paix et la fraternité entre les nations. [Mais] en plus de substituer au style et à l’ornementation artisanale celui de la machine […], les produits standardisés européens favorisent surtout le passé, l’ostentatoire, le goût bourgeois et l’imitation, telle cette cruche à eau ornementée dont l’anse associe une colonnade et des animaux… [2009, p.  37] » Plusieurs intellectuels britanniques, dont Henry Cole, à l’initiative d’une des premières occurrences du mot design (via son Journal of Design and Manufacture, 1849-1852), soutiennent, sans vouloir revenir à l’artisanat, que «  le degré d’industrialisation n’est pas plus une condition de culture que de savoir-vivre  » (Midal, 2009, p.  38). Le design naît d’un écart avec les conséquences d’une mécanisation aveugle  : il est donc erroné de le comprendre comme un simple accroissement des forces productives. Face à l’inertie mentale  : le design pour la vie Près d’un siècle plus tard, l’artiste et photographe László Moholy-Nagy explicite la compréhension d’un travail singulier avec les machines qui diffère de leur usage économique massifié. Moholy-Nagy prend ainsi l’exemple des assiettes faites au tour (dont la forme est peu adaptée aux lave-vaisselle) ou des poignées en plastique (qui reprennent, de façon mimétique, celles en fonte) : «  Beaucoup d’objets anciens sont l’expression directe de leur méthode artisanale de fabrication. Ils sont souvent copiés par les designers industriels, sans aucune raison valable. Il est vrai que plus un artisanat est ancien, plus la forme qu’il produit est difficile à modifier. […] L’expérience montre, cependant, qu’il est assez difficile de se dégager d’habitudes de pensée bien ancrées. [1947, p.  283] » À cette tendance à l’imitation qu’il qualifie d’«  inertie mentale  », Moholy-Nagy oppose une puissance d’invention qui manifeste des ruptures claires avec la tradition, tout en notant qu’il «  ne faut jamais perdre de vue que l’élément humain […] doit rester le critère essentiel d’évaluation du progrès technologique  » (1947, p.  283). Rédigés au tournant de la Seconde Guerre mondiale, ces propos font écho à l’époque contemporaine où les machines, cette fois numériques, placent les humains dans un paysage homogène où la place dédiée à la diversité et l’invention se réduit  : «  La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. [1947, p.  285] » La question se pose alors de savoir comment cette substitution s’articule à une redéfinition de l’humain, et comment les technologies peuvent être pluralisées, désorientées, réorientées dans d’autres directions que celles régies par «  l’inertie morale  ». S’appuyant sur Walter Benjamin et László Moholy-Nagy, le philosophe Pierre-Damien Huyghe défend que l’art et le design peuvent être compris comme des «  puissances de découverte des poussées techniques  » (2014) : le développement économique d’une technique ne suffit pas, loin s’en faut, à en épuiser les possibilités. À ces enjeux esthétiques s’ajoute un souci d’intelligibilité. Plus une technique est puissante et dominante, plus il est difficile de développer d’autres façons de faire, et plus cette technique génère de l’incompréhension et de l’opacité. Le scientifique Karl Sagan note ainsi que «  nous avons arrangé une société basée sur la science et la technologie dans laquelle personne ne comprend rien à la science et à la technologie. Ce mélange combustible d’ignorance et de pouvoir, tôt ou tard, va nous exploser au visage  » (1996). Pour combattre ces emprises, il est nécessaire de mettre en évidence ce à quoi les technologies sont aveugles, et en premier lieu les cécités qu’elles induisent en nous et contre nous. Laissées en attente voire délaissées, les «  nouvelles  » (et désormais déjà vieilles) techniques, celles de la computation, ont besoin d’être activées par ce que nous pourrions appeler un design non pas pour l’économie (qui s’économise, qui se retient), mais «  pour la vie  » (Moholy-Nagy, 1947). Les technologies numériques comme fabrique d’angles morts Tandis que la computation étend son influence à la plupart des activités humaines, la question est de savoir à quels problèmes le numérique est aveugle ou, plus précisément, d’identifier quels sont les angles morts et les limites de la programmation. Le sens de l’expression «  angle mort  », dans l’Encyclopédie de Diderot et D’Alembert (1778) est celui d’un «  angle rentrant, qui n’est point flanqué ou défendu  ». Par extension, l’angle mort renvoie à une «  zone inaccessible au champ de vision  » (Wikipedia). En conduite automobile, c’est une «  zone non couverte par le rétroviseur central et les rétroviseurs latéraux, qui nécessite un contrôle par vision directe (tourner la tête une fraction de seconde) » ou, dans le champ urbain, une «  zone non couverte par les caméras de surveillance  ». Au sens figuré, on dit d’un angle mort qu’il est une «  partie d’une question, d’un problème, pour laquelle l’esprit semble aveugle  ». Un «  design pour la vie  » serait ainsi une expérience de la bifurcation, de l’exploration, et non pas de la réduction ou de la modélisation aveugle. Pierre-Damien Huyghe formule en ce sens une compréhension du design éloignée de sa réduction à des enjeux de rentabilité : «  Je ne proposerai pas d’appeler design ce qui organise d’avance des usages ni ce qui induit des consommations ni ce qui assigne des comportements au règne de la marchandise, mais plutôt certaines recherches et attitudes qui permettent à un système de production d’hésiter. [2006] » Les questions du design pour la vie nous demandent en quoi les choix (ou non-choix) de conception des environnements numériques déterminent une zone dans laquelle il est difficile de bifurquer  : comment ce qui compte vraiment pour nous en tant qu’humain·es, c’est-à-dire ce qui peine à être mesuré, est-il laissé dans l’ombre  ? Quels sont les angles morts du numérique que le design permet d’éclairer  ? En quoi ces angles sont-ils «  morts  », et comment leur donner vie  ? Une méthode d’analyse Pour traiter ces questions et entrer dans des approches plus concrètes, nous proposons une méthode d’analyse des angles morts du numérique structurée autour de trois notions complémentaires  : promesses, limites et bifurcations. Celles-ci font écho à un autre texte dans lequel un des auteur·rices de ces lignes analyse une série de logiciels de création (Masure, 2020) pour faire émerger des chemins de traverse au sein de l’appareil industriel  : dans la lignée de l’archéologie des médias déconstruisant l’idée d’un progrès technique linéaire, il n’est pas dit que les généalogies des technologies basées sur l’efficience fonctionnelle et la rentabilité marchande soient les seules possibles. La notion de promesse, tout d’abord, renvoie aux discours entourant le développement commercial des programmes numériques. L’idéal du progrès technique a toujours ses zélotes  : selon elles et eux, malgré de nombreux accrocs, la technologie serait in fine porteuse de «  transformations  » sociales et économiques positives. Cette approche performative, voire incantatoire, est qualifiée par le chercheur Evgeny Morozov de «  solutionniste  » (2013) pour dénoncer l’absurdité des prétentions visant à réduire la politique à une affaire de «  logiciel » : des problèmes globaux comme l’écologie, la famine ou la pauvreté ne pourront pas être «  réglés  » par la technologie. De plus, les promesses énoncées par les grands groupes technologiques sont souvent utilisées comme paravent pour masquer des entorses au droit du travail, voire à la dignité humaine. Par exemple, l’annonce en 2016 par Amazon d’une division de livraison par drones entraîna de multiples réactions médiatiques et politiques (législatives) et fut rapidement suivie d’un discret désengagement commercial en interne. Pendant ce temps, cette initiative occupait le terrain médiatique et faisait écran à la triste réalité de l’entreprise. Dans un thread Twitter, le journaliste Cory Doctorow explicite cette stratégie  : «  Les entreprises technologiques promettent de réaliser des choses impossibles afin de cultiver une sorte d’aura mystique invoquée pour masquer l’horreur du monde réel. […] C’est le genre de choses que [l’auteur] Riley Quinn appelle le ‹  tintement de clés  › – une distraction pour les personnes peu au fait des technologies (et pour les ingénieurs qui ont la tête plongée dans leurs produits) pendant que les crimes quotidiens des entreprises sont commis sous notre nez. [2021] » Le concept de limite, ensuite, confronte les promesses des technologies à l’expérience du terrain. Les technologies numériques promettent beaucoup en raison du caractère invisible du code et de sa plasticité (capacité à être modifié), mais montrent leurs limites quand elles sont confrontées à la complexité du réel (Klein et al., 2013). Fonctionnant habituellement à partir de règles et de conditions, la programmation ne peut que difficilement «  comprendre  » les ambiguïtés des interactions sociales et la diversité d’un monde multiculturel  : genre, origine, classe sociale, etc. Outre le fait que les technologies reproduisent des discriminations déjà présentes dans la société, celles-ci sont amplifiées par le caractère homogène des développeurs informatiques et designers (masculins, aisés financièrement, etc.) et par des méthodologies de conception (UX et UI Design) fonctionnant à partir de scénarios d’usage et de personas (Masure, 2017, p.  73) – soit une schématisation de l’expérience humaine réduite à une suite de comportements, voire de stéréotypes. Sur un autre plan, il est instructif de comparer les emplois (prescrits) aux usages et pratiques (ouverts, libres, transmissibles). Dans un vocabulaire se rapprochant de celui de Michel de Certeau (1990), le philosophe Bernard Stiegler explicite cette distinction  : «  On ne va plus parler de pratiques des objets, c’est-à-dire de savoir-faire instrumentaux, mais d’usages des objets et d’utilisateurs ou d’usagers, en particulier pour les appareils et pour les services. Or, un objet que l’on pratique ouvre un champ de savoir-faire par lequel le praticien est lui-même transformé : ses savoir-faire, eux-mêmes ouverts de manière indéterminée et singulière, explorent des possibles. [2004] » La question se pose dès lors de savoir comment éclairer ce qui fait limite pour prendre conscience que toute promesse génère des angles morts. Le terme de bifurcation, enfin, renvoie à une compréhension non instrumentale des techniques. Une technique, comprise non pas en tant que moyen mais en tant que culture, peut être réorientée dans des directions plus soutenables que celles visant un rendement productif. Issue du domaine de la biologie, l’expression de bifurcation renvoie à «  la fourche produite par le développement d’une partie sur une autre, soit semblable, soit différente. Ainsi, le bourgeon forme une bifurcation avec le rameau qui le porte, celui-ci en forme une avec la branche qui lui a donné naissance  » (Dictionnaire TFLI). Dans le champ du logiciel libre, un fork (embranchement) désigne un nouveau programme créé à partir du code source d’un programme existant. La pratique du fork permet d’ajouter des fonctions non prévues initialement, de placer le code dans un nouveau contexte, etc. – autant d’adaptations à ce qui n’était pas écrit d’avance (pro-grammé). Dans un sens plus fondamental, la bifurcation peut être comprise comme une expérience existentielle, au sens où une vie ne devient une existence qu’à condition de pouvoir échapper à des conditions données (Huyghe, 2006). Dans un numéro spécial de la revue Multitudes intitulé Abécédaire des bifurcations et rédigé dans le contexte de la pandémie de la Covid-19, les auteur·rices se demandent quels sont «  les bifurcations, les effets de cliquet, les points de non-retour qui empêcheront demain de renaître comme hier  » et où se «  situe le lieu d’où peut s’élaborer l’alchimie de la transformation  » (Cora Novirus, 2020). D’une façon approchante, dans un essai rédigé en réaction à la multiplication des crises engendrées par un «  modèle de développement  » à bout de souffle et pourtant largement dominant, Bernard Stiegler (2020) s’interroge pour savoir comment «  bifurquer  » afin de tordre l’expression thatchérienne selon laquelle «  il n’y a pas d’alternative  » à l’économie capitaliste. Ces considérations permettent d’expliciter l’écart entre technique et économie  : l’absence d’alternative (TINA) n’est valable que pour qui ne croit pas à l’esthétique et pour qui ne fait que l’usage du monde dominant. Or, selon Pierre-Damien Huyghe, nombre d’exemples et contre-exemples dans le champ du design prouvent qu’il peut en aller autrement  : «  La réduction des possibles dans une époque donnée et l’uniformisation résultante des effets n’appartiennent […] pas par principe à la technique, mais à son économie. […] Elle ne va pas sans réserve. C’est justement la quête de cette sorte de réserve, et à son expression formelle, que le design historique s’est voué, quitte à mettre pour cela au monde des produits d’exception déliés des pratiques de masse a contrario recherchées par le mode économique d’exploitation et de domination de la puissance productive. [2013, p.  149-176] » À titre d’exemples, nous allons à présent examiner deux paradoxes mettant en jeu des limites de la programmation. Pour chacun d’entre eux, nous nous attacherons à situer la place qu’occupe le design vis-à-vis des technologies concernées  : vient-il déjouer leurs angles morts ou contribuer à les renforcer  ? En quoi des bifurcations potentielles ou avérées sont-elles souhaitables (et pour qui  ?) afin de ne pas retomber dans d’autres impasses  ? Paradoxe 1. Les templates promettent de la distinction mais ne produisent que du consensus visuel Promesse Un template (gabarit) est un modèle de mise en page de contenus visuels. Influencé par les designers László Moholy-Nagy et Jan Tschichold, Josef Müller-Brockmann comprend la grille comme une méthode universelle de structuration de l’information  : «  Dans mes créations […], la subjectivité est supprimée au profit d’une grille géométrique qui détermine l’arrangement des mots et des images. La grille est un système d’organisation qui rend le message plus facile à lire, cela vous permet d’obtenir un résultat efficace à un coût minimum. Avec une organisation arbitraire, le problème est résolu plus facilement, plus vite et mieux. Cela permet également une uniformité qui va au-delà des frontières nationales. [2017] » Les templates reprennent la logique de la grille, mais à une échelle bien plus vaste  : celle des logiciels, du Web, et des applications. Ils peuvent à la fois être mobilisés pour définir l’ergonomie d’une interface en recourant à des codes visuels éprouvés (placement du logo, des menus, etc.), et/ou être inclus dans des logiciels comme base de travail (par exemple  : gabarits PowerPoint, Word, Photoshop). Grâce aux templates, n’importe qui (grand public, commanditaire, etc.) peut créer à son image, maîtriser le rendu visuel de ses contenus et opérer des mises à jour sans intermédiaire (Mineur, 2007). Limite Avec les templates, remarque le designer Étienne Mineur, «  les graphistes doivent […] abandonner une partie de leur pouvoir et responsabilité au règne du graphisme papier  » (2007) consistant à maîtriser le processus et la forme de A à Z. Selon lui, deux attitudes sont possibles  : refuser de laisser le contrôle formel aux technologies et rester sur les supports imprimés, ou se rapprocher du design industriel pour embrasser la création d’outils et l’ergonomie. Près de quinze ans après ces propos, force est de constater que les programmes sont de moins en moins des outils – de «  simples prolongements d’outils manuels  » (Moholy-Nagy, 1947, p.  285) –, et de plus en plus des dispositifs techniques complexes qui ne laissent que peu de prises aux designers. L’autonomisation des commanditaires par les templates s’est accélérée, et les compétences nécessaires à leur conception échappent pour une grande part aux designers, car la barrière technique et économique est de plus en plus haute. La concentration de la valeur au sein d’un petit nombre d’acteurs, les Gafam et leurs avatars asiatiques, opère un renversement du processus créatif avec lequel le code n’est plus une matière à modeler mais une loi à laquelle se conformer. Le design d’interfaces (UX/UI) ne consiste bien souvent qu’à appliquer des procédures visuelles (Teslert & Espinosa, 1997) : des design systems, comme le Material Design (Google, 2014) ou les Human Interface Guidelines (Apple), régissent les interfaces des applications mobiles, car le non-respect de ces consignes menace leur validation dans les app stores (magasins d’applications distribuées par Apple). Plus largement, la multiplication des systèmes de gestion de contenus (CMS), des terminaux, des formats d’écran et des territoires géographiques (Asie, Amérique du Sud, Afrique, etc.) incite les industriels à penser avant tout en termes de distribution et de standardisation. La promesse de singularité des «  expériences  » bute sur une homogénéisation du réel et engendre une «  globalisation esthétique  » (Masure, 2020) : une même interface peut être indifféremment utilisée pour une campagne médicale, un site de voyage, un musée. Plus inquiétant encore, malgré la pauvreté esthétique des templates, ces derniers, de par leur efficacité, tendent à surpasser beaucoup de designers. Dès les premières années du développement de la «  publication assistée par ordinateur  » (PAO), l’artiste et designer John Maeda entrevoyait les conséquences professionnelles des logiciels dits de création  : «  Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers ne définissent plus la culture  ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media [1991], le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile  : ‹  Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté. › [1995] » Quelle est, dès lors, la valeur de ce dernier  ? Bifurcation Étienne Mineur soutient que les designers peuvent repenser leurs pratiques au profit de compétences plus stratégiques. Une autre voie est possible pour que l’attention humaine puisse s’attacher à du non-prescrit  : il s’agit ici d’avérer les effets de standardisation des environnements et modes de vie pour éclairer ce qui n’entre pas dans ce cadre (les angles morts). Plusieurs initiatives ont mis en évidence les grilles tapies derrière les programmes, tels que les projets Safebook (Grosser, 2018), clickHere (Retzepi, 2020), ou les modules «  par défaut  » des systèmes d’information, avec des initiatives comme Reproduction générale (Jacquet, 2003) ou My%Desktop (Heemskerk & Paesmans/JODI, 2002). Un axe complémentaire consiste à révéler les valeurs embarquées dans les interfaces. Matthew Fuller, chercheur en Cultural Studies, propose ainsi de comprendre les templates sous l’angle de la notion de franchise  : «  Les modèles [templates] et exemples que l’utilisateur peut éditer pour créer ses propres documents – tels que ‹  fax élégant  ›, ‹  fax contemporain  ›, ‹  lettre formelle  › ou ‹  mémo  › – attestent que la falsification est la forme de base du document produit dans les bureaux contemporains. [2000] » À l’époque contemporaine, marquée par les problématiques de circulation et la collecte des données personnelles, les templates prennent un nouveau relief. Sous couvert de neutralité, ces derniers annihilent le sens critique et font passer à couvert des procédures suspectes. La designeuse Kelli Retzepi, dans TheRealFacebook (Retzepi, 2018), propose ainsi un redesign de Facebook en gardant la même interface mais en changeant tous les textes (titres, libellés, etc.) pour les rendre conformes aux «  vrais  » objectifs de Facebook. « Connect with friends and the world around you on Facebook », par exemple, devient « This whole thing started as a website that rated who is a hotter Harvard undergrad », et « Sign up.  It’s free and always will be » est remplacé par « Give us your data. We are definitely using it to profit »1 «  Entrez en connexion avec des amis et avec le monde autour de vous grâce à Facebook  » devient «  Tout ce truc a commencé comme un site web classant qui étaient les étudiant·es les plus sexy de Harvard  ». Ou «  Inscrivez-vous. C’est gratuit et ça le sera toujours  » est remplacé par «  Donnez-nous vos data. Nous comptons bien les mettre à profit  ».. Paradoxe 2. La création par le truchement des IA participe souvent d’une logique réactionnaire Promesse Formulée à la fin de la Seconde Guerre mondiale, l’idée d’une «  intelligence  » machinique susceptible de se substituer au cerveau humain (Turing, 1995) a connu de multiples modalités techniques, que l’on peut résumer en deux courants  : les technologies «  symboliques  » se fondent sur la délimitation de règles préalables, tandis que celles «  connexionnistes  » (neuronales) impliquent des jeux de données (datasets) en entrée et sortie pour que la machine puisse générer un programme permettant d’aboutir au résultat souhaité. Au tournant des années 2010, l’approche neuronale, et plus précisément celle du deep learning, prouve sa supériorité fonctionnelle pour la reconnaissance d’images et pour le tri d’informations (spams, etc.). Les technologies du deep learning investissent depuis quelques années les industries créatives  : l’entreprise Zalando travaille avec Google depuis 2016 pour prédire les tendances de la mode grâce au machine learning, et des services comme TheGrid.io (2016), WixAI (2016) ou Adobe Sensei (2016) visent à faciliter voire à automatiser la mise en page de sites web et la retouche d’images. Grâce au deep learning, la tension entre la conception (l’idéation) et la production n’a plus lieu d’être  : des programmes «  intelligents  » prennent en charge la commande sans aléas humains pour produire la «  solution  » optimale. Limite Les technologies du deep learning prétendent annuler la zone d’incertitude entre conception et production en synthétisant des jeux de données (projets de design, œuvres d’art, etc.) majoritairement agrégées sur le Web. On touche ici à la distinction entre «  création  » (vision romantique d’une mise au monde ex nihilo, dégagée des contingences matérielles) et «  production  » (attention portée aux modalités techniques et rapports sociaux) : «  Au moment où l’Ancien régime se défait, où se déploie la révolution industrielle, les artistes revendiquent […] le terme de ‹  création  › – une notion […] issue du dogme biblique de la genèse – pour signifier leur souveraine sensibilité, leur libre vouloir et établir l’art comme champ autonome parmi les activités humaines. [Menghini, 2021] » À cette tradition s’oppose la pensée «  matérialiste  » développée par des philosophes comme Karl Marx ou Walter Benjamin, pour qui il est crucial d’examiner les médiations permettant à l’art (et par extension au design) d’exister pour mieux saisir son potentiel émancipatoire. Dans son essai L’artiste comme producteur, Walter Benjamin cherche à savoir non pas seulement «  quelle est la position d’une œuvre littéraire à l’égard des rapports de production de l’époque [mais, avant tout,] quelle est sa place dans ces mêmes rapports  ». Il s’agit pour lui d’«  indiquer la différence essentielle qui existe entre le simple approvisionnement d’un appareil de production et sa transformation  » (1969, p.  110, 117). De tels propos sont précieux pour mettre en exergue les limites des technologies du deep learning, dont la séduction tient à leur caractère magique (algorithmique) et tout puissant  : structurellement basées sur des jeux de données (du passé), ces «  intelligences  » ne peuvent qu’approvisionner l’appareil de production sans jamais pouvoir le transformer. Autrement dit, et pour rester dans le vocabulaire de Benjamin, elles sont «  réactionnaires  » et non pas «  révolutionnaires  ». Il est par exemple aisé de comprendre que si une IA peut reproduire (créer) un tableau à la façon de Rembrandt (Microsoft, The Next Rembrandt, 2018) – sans efforts apparents, et sans que la technique ne soit vraiment une question –, elle aura beaucoup plus de difficultés à inventer non pas seulement un paradigme pictorial aussi fort que Rembrandt, mais aussi de nouvelles formes d’expression dépassant les catégories habituelles (peinture à l’huile, musique électronique, interface de site web de e-commerce, etc.). Bifurcation Walter Benjamin nous donne des pistes de travail pour que les technologies du deep learning puissent produire, et pas seulement reproduire. «  La notion de technique représente l’élément dialectique initial à partir duquel l’opposition stérile de la forme et du fond peut être surmontée  » (1969, p.  110). Un des problèmes majeurs de l’implémentation des IA au sein des services mentionnés plus haut (Adobe Sensei, etc.) est que la technique disparaît derrière les interfaces annoncées comme «  conviviales  ». Pour bifurquer de ces logiques, il faut en premier lieu réinvestir la technique – ce qui ne va pas de soi dans le cas du deep learning, qui nécessite de constituer des jeux de données puis de les traiter avec une puissance de calcul importante et avec des programmes à l’élaboration complexe. On pourrait tout d’abord surmonter ces écueils en disséquant les couches techniques logicielles et matérielles des IA, comme l’ont fait les chercheur·es Kate Crawford et Vladan Joler (2018) à propos de l’enceinte connectée Amazon Echo – travail qui mériterait d’être prolongé en analysant les strates pouvant être réinvesties. Une autre approche consiste à ne plus envisager les IA comme des machines de création (détachées symboliquement des contingences matérielles) mais comme des étapes de production. On pourrait par exemple utiliser le deep learning pour analyser des amorces d’idées et les comparer à l’existant, dans une stratégie d’aide à la décision et non pas d’imitation. Il faut aussi garder en tête que le deep learning n’est qu’une facette du champ bien plus vaste des IA, et que plusieurs époques techniques peuvent cohabiter au sein d’un même projet. Un workshop à la HEAD (Haute école d’art et de design de Genève), coordonné par Alexia Mathieu, Jürg Lehni et Douglas Edric Stanley (Thinking Machines, 2020), a ainsi mélangé des procédures neuronales à des règles préétablies pour élaborer un générateur de contes illustrés et imprimés. L’artiste Nicolas Maigret propose pour sa part un Predictive Art Bot décrit comme «  un algorithme qui utilise les discours actuellement tenus sur l’art comme une base de données générant automatiquement des concepts de projets artistiques et, parfois, des prédictions d’absurdes trajectoires futures pour l’art  » (2017). De tels processus laissent entrevoir ce que pourrait être le studio de design du futur  : moins un lieu où élaborer des «  solutions  » et des formes closes qu’un laboratoire où mélanger et faire bifurquer des techniques et des projets. Conclusion. Pour une bifurcation des techniques De l’examen de ces deux paradoxes, nous pouvons à présent esquisser des éléments de réponse à la problématique posée en introduction, à savoir quels sont les angles morts du numérique que le design permet d’éclairer, pour poser que ces derniers sont à chercher dans une compréhension de la technique comme moyen, dans un souci d’efficience et de scalabilité (d’extension à la plus grande échelle possible). Comme nous l’avons vu avec l’exemple des expositions universelles, une lecture des textes et querelles liées à l’émergence du design situe son intérêt non pas comme un gain de productivité, mais comme une bifurcation face à la perte de qualité entraînée par l’automatisation du dispositif industriel. Ce détour par le design permet de mieux comprendre l’articulation des technologies à une quête de rendement productif, puisqu’une bonne partie des productions industrielles (objets, industries des programmes, etc.) participe de cette logique. À ce design des angles morts, nous opposons un design «  pour la vie  », qui travaille pour nous en tant qu’êtres humain·es, c’est-à-dire en tant qu’entités non déterminées d’avance. Autrement dit, un «  design pour la vie  » serait ce qui éclaire les angles morts de l’industrie pour chercher ce qui nécessite d’être investi et réorienté. De façon approchante à Walter Benjamin qui invite à penser l’esthétique comme une façon d’articuler technique et politique, le designer Ezio Manzini, dans un essai sur «  l’écologie de l’artificiel  », ouvre une réflexion sur la «  qualité » (et non pas la quantité) des environnements  : «  Il s’agit de penser la technique comme un système devant lequel il ne faut jamais baisser pavillon et savoir rester critique, mais aussi comme une gigantesque mine de ressources et de potentialités. C’est là qu’il faut puiser pour imaginer de nouvelles qualités. [1991, p.  53] » Finalement, c’est bien en déniant au design sa part esthétique que l’économie des techniques engendre son lot de limites. En réinvestissant la technique comme un questionnement, les limites de la programmation deviennent autant d’occasions de bifurcations.

La saisie comme interface

Date

novembre 2016

Type

Publication

Contexte

Anthony Masure, « La saisie comme interface », dans : Sophie Fétro, Anne Ritz-Guilbert (dir.), actes du colloque scientifique « Collecta. Des pratiques antiquaires aux humanités numériques », École du Louvre, 2016

Résumé

Une vision limitée du design des sites Web, et des programmes numériques en général, consiste à ne s’intéresser qu’à ce qui apparaît à l’écran. Pour aller plus loin, cette contribution vise ainsi à démontrer l’importance, pour les designers, de porter attention à la structuration et à l’agencement des codes source informatiques. Dans le domaine des archives en ligne où les interfaces de saisie sont rarement étudiées en tant que telles, ces enjeux interrogent le rôle et de la place du design. Que demande-t-on à ce dernier dans le contexte des «humanités numériques» ? Comment le design, en envisageant la saisie comme une interface, peut-il contribuer à dépasser une vision instrumentale de la technique ?

Écologie de l’attention et design des environnements numériques : vers une politique des filtres ?

Date

novembre 2017

Type

Conférence

Contexte

Communication dans le cadre du colloque scientifique « Écologies du numérique », Écolab / ESAD Orléans

Résumé

L’enjeu d’une écologie du numérique, d’un point de vue psychique, serait d’interroger la prétention des technologies à « solutionner » tous les problèmes du monde, alors même que nous faisons face à de multiples crises cognitives liées à la « captation » de l’attention, à savoir l’exploitation économique des comportements, des affects et des désirs. En tant que ces opérations se font en retrait de toute visibilité, il s’agit bien d’une question écologique, à savoir une disjonction entre un « milieu technique » et les acteurs qui y évoluent. Entre attention personnelle et attention collective, il s’agira ici de réfléchir à une pensée « en commun », et dès lors politique, d’une écologie du numérique.

Workshop « Design & Justice »

Date

décembre 2016

Type

Cours

Contexte

« Design & Justice », workshop en Master 1 Design Transdisciplinaire, Cultures et Territoires, organisé par Anthony Masure et Raphaël Bastide du 2 au 9 décembre 2016 à l’université Toulouse – Jean Jaurès

Résumé

Workshop en Master 1 Design Transdisciplinaire, Cultures et Territoires, organisé par Anthony Masure et Raphaël Bastide du 2 au 9 décembre 2016 à l’université Toulouse – Jean Jaurès.

iPad et mimesis

Date

juin 2010

Type

Publication

Contexte

Anthony Masure, « iPad et mimesis », journée d’étude à propos de László Moholy-Nagy, laboratoire de recherche CREDE, juin 2010

Résumé

Étude et analyse de l’interface de lecture de l’application iBooks sur iPad : comment sortir d’un modèle mimétique pour proposer une expérience de lecture singulière ?

Visual Culture. Open Source Publishing, Git et le design graphique

Date

novembre 2014

Type

Publication

Contexte

Anthony Masure, «Visual Culture. Open Source Publishing, Git et le design graphique», Strabic.fr, novembre 2014

Résumé

Le collectif Open Source Publishing (OSP) propose aux designers graphiques de s’inspirer des méthodes de programmation informatique en vigueur depuis de nombreuses années, notamment dans le logiciel libre. Placé en financement collaboratif (crowdfunding) en novembre 2014 sur la plateforme Kiss Kiss Bank Bank, leur projet « Visual culture, un outil pour le design collaboratif (avec Git) » nous donne ainsi une parfaite occasion d’envisager des façons de faire du graphisme qui ne soient pas marquées par les logiques dominantes type Adobe.

D’un Web omniprésent à des pratiques plurielles

Date

mai 2015

Type

Publication

Contexte

Anthony Masure, «D’un Web omniprésent à des pratiques plurielles», compte-rendu de la conférence de David Larlet aux Rencontres de Lure 2014, Lurs, Après\Avant, no3, mai 2015, p. 52-53

Résumé

David Larlet est artisan, contributeur et citoyen. Un Web sous contrôle Qui a un compte G M ail, Facebook ou Instagram? C’est par cette question en apparence anodine que commençait l’intervention de David Larlet aux Rencontres de Lure 2014, portant sur l’évolution du Web. Cette cartographie de nos pratiques contemporaine dessine un paysage facilement repérable, celui de quelques grands centres s’étant accaparés la plupart du trafic et des données. Devons-nous nous résigner à n’œuvrer que dans une banlieue soumise au contrôle des grands «opérateurs»? L’intervention de David Larlet ayant suscité de nombreuses réactions dans l’assistance, cet article sera ainsi l’occasion de poursuivre les débats par des références complémentaires aux notions développées 1 David Larlet a mis en ligne le texte et les images de sa conférence sur son site personnel  : larlet.fr/david/blog/2014/un-web-omni-present. Le Web de services menace-t-il la démocratie  ? «  On utilise de plus en plus le Web comme une TV », nous dit David Larlet. Force est de constater que «  l’omniprésence  » de certains onglets dans nos navigateurs peut être vue comme le symptôme d’un recentrement problématique, où nous serions contraints de ne pouvoir explorer que des zones protégées et sécurisées. «  On a concentré un réseau qui à la base était acentré », nous dit David Larlet, «  normalement il n’y a pas d’araignée au centre de la Toile  ». La prophétie de Tim O’Reilly s’est réalisée  : le problématique «  Web 2.0  2 Pour une analyse du texte «What is Web 2.0 » de Tim O’Reilly paru en 2004, voir  : Anthony Masure, «  Ouvertures et fermetures du ‹Web 2.0› », dans  : Le design des programmes, des façons de faire du numérique, 2014, [Thèse en ligne], softphd.com/these/web2/intro » s’est construit autour de la notion de «plateformes», où lorsqu’un «service» a du succès il emporte tout («  winners takes all  »), ne laissant derrière lui que des miettes. Pensons ainsi aux voitures avec chauffeur de Uber, dont les pratiques en terme d’espionnage des utilisateurs et de non respect des lois ont tristement marqué l’année 2014  3 Voir par exemple  : Éloïse Bouton, «  Ubergate  », Brain Magazine, novembre 2014, [En ligne], brain-magazine.fr/article/news/21653-Ubergate, faisant dire à l’auteur Evgeny Morozov que la Silicon Valley menace la notion même de démocratie 4 Hubert Guillaud, «  La technologie est-elle un programme politique  ? », Internet Actu, septembre 2014, [En ligne], internetactu.net/2014/09/01/la-technologie-est-elle-un-programme-politique. Les gouvernements nationaux remplacent la régulation a priori par l’étude statistique des effets. Chacune de nos actions est susceptible d’être enregistrée, quantifiée et corrigée pour nous remettre dans le droit chemin, «faisant de la psychologie comportementale le discours favori de la bureaucratie gouvernementale [et] effaçant tout ce qui existe comme différences entre les secteurs de la société 5 Evgeny Morozov, «  La prise de pouvoir des données et la mort de la politique  », Blog de Paul Jorion, août 2014, [En ligne], pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique-par-evgeny-morozov». Votre futur divorce vaut de l’or Le fait que quelques grands opérateurs contrôlent toute la chaîne porte préjudice à la curiosité et au développement de la personnalité. Ce renfermement a été qualifié de «filtre-bulle 6 Voir  : Wikipedia, [En ligne], en.wikipedia.org/wiki/Filter_bubble» (filter bubble), pour désigner les conditionnements invisibles opérés par les algorithmes des médias sociaux et des moteurs de recherche, «  personnalisant  » chaque requête ou chaque flux d’informations et ne nous confrontant que de moins en moins à des idées ou personnes éloignées de nos supposés «  centres d’intérêts  ». Plus encore, ces programmes au fonctionnement invisible sont désormais capables de modéliser nos existences. Là où les compagnies de cartes bleues type VISA pouvaient savoir quand un couple allait divorcer 7 Nicholas Ciarelli, «  How Visa Predicts Divorce  », The Daily Beast, juin 2010, [En ligne], thedailybeast.com/articles/2010/04/06/how-mastercard-predicts-divorce.html (exemple donné par David Larlet), Facebook est désormais capable de prédire votre vie sentimentale 8 Pascal Riché, «  Quand vous tombez amoureux, voici ce que voit Facebook », Rue 89, février 2014, [En ligne], rue89.nouvelobs.com/2014/02/16/quand-tombez-amoureux-voici-voit-facebook-249983 par une analyse sémantique de vos messages. Ces informations hautement «  stratégiques  » sont pour ces médias l’occasion parfaite de vous proposer de la publicité «  ciblée  ». Toute trace ou action en ligne est susceptible d’être monétisée  : vos productions, relations, ou données de navigation sont le nouveau pétrole des annonceurs. Comme le dit Evgeny Morozov  : «  Quelqu’un, quelque part, finira par vous évaluer en tant que passager, hôte de maison d’hôtes, étudiant, patient, client 9 Evgeny Morovoz, op.  cit.». Pour un Web pluriel Le problème n’est pas tant dans cette collecte qui a peut être toujours existé (qu’on pense par exemple aux fichiers de la Police nationale) que dans le fait que de moins en moins d’acteurs ne soient capable de connecter toutes ces informations, la NSA ou Google par exemple. Comme dans la nouvelle de Borges 10 Jorge-Louis Borges, «  Funes ou la mémoire  » [1942], dans  : Fictions, Paris, Gallimard, 1983. où le protagoniste meurt de son hypermnésie, une mémoire infinie ne sert à rien si elle n’est pas couplée à des fonctions d’association 11 Il faut paradoxalement énormément de stockage pour retenir en mémoire – fut-ce un bref instant – tous les flux d’informations «  en temps réel  ».. Dès lors, comment faire pour qu’un certain Web «  omniprésent  » ne résume pas l’ensemble de nos activités en ligne  ? En portant attention à la façon dont nos données sont stockées (auto-hébergement 12 François Bon, «  De l’art perdu des webcams (digression) », Le Tiers Livre, décembre 2014, [En ligne], tierslivre.net/spip/spip.php : «  ne pas confier à ces plateformes en permanente reconfiguration vos ressources ‹  lentes  ›, le fil profond de votre marche dans ce qui est la pure tradition de l’écriture  ».) et circulent (cryptage), nous pouvons alors reprendre la main et contourner les grands «  centres  ». David Larlet nous donne quelques pistes possibles en mentionnant le moteur de recherche DuckDuckGo, le service de messagerie CaliOpen, ou encore les protocoles de connexion anonymes type VPN ou Tor. S’il ne tient qu’à nous de d’inventer un Web pleinement pluriel, ces démarches ne pourront cependant pas faire l’économie de réflexions politiques.

Panne des imaginaires technologiques ou design pour un monde réel ?

Date

septembre 2017

Type

Publication

Contexte

Anthony Masure, «Panne des imaginaires technologiques ou design pour un monde réel?», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse – Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017

Résumé

Il est couramment admis que les films de science-fiction, censés incarner l’imaginaire du futur, multipliraient les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.). Ce constat, qui reste à interroger, fait dire au chercheur Nicolas Nova qu’il existerait ainsi une « panne des imaginaires ». Alors qu’il est fréquemment demandé au design d’« innover », nous nous demanderons en quoi certaines séries récentes comme Mr. Robot ou Black Mirror permettraient de contester cette injonction. Il s’agira d’analyser en quoi les croisements entre cinéma et design peuvent recouper des critiques politiques et sociales adressées aux nouvelles technologies (Bernard Stiegler, Evgeny Morozov). Entre les extrême dystopiques (films catastrophe) et utopiques (d’un monde sauvé par la science), qu’est-ce que la science-fiction nous dit du design ? Comment le design pourrait-il à la fois renouveler les imaginaires et agir dans un monde « réel » (Victor Papanek) ?

La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires

Date

septembre 2017

Type

Publication

Contexte

Irène Dunyach, Anthony Masure, Saul Pandelakis, «La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse - Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017

Résumé

Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Les événements scientifiques qui réunissent des chercheur/se/s et des praticien/ne/s, notamment au sein des universités, donnent lieu à un grand nombre de publications: actes de journées d’études, actes de colloques, anthologies, revues retraçant des séminaires, mais aussi affiches, plaquettes, sites Web, etc. Les temporalités qui relient les différentes étapes de la vie d’un projet de recherche se retrouvent donc étirées par le temps, variable, qui sépare un événement de sa mise en livre ou en revue, et qui se compte habituellement en années. Ces délais sont en grande partie dus à des protocoles éditoriaux fastidieux: comités de sélection, comités de relecture, partenariats avec des éditeur/trice/s dont les calendriers sont prévus longtemps à l’avance, impression et fabrication auprès d’imprimeur/se/s partenaires, pour finalement atteindre la diffusion, sans parler de la communication des productions. Pour autant, ces processus sont aussi majoritairement perçus, dans le monde de la recherche, comme des choix méthodologiques garants de la rigueur scientifique indispensable à un travail de qualité universitaire. Cependant, les chercheur/se/s admettent souvent souffrir des durées élastiques de conception marquées par les nombreuses étapes de relectures, réécritures, lissages, validations, et lourdeurs administratives que des protocoles fragmentés entraînent inévitablement. Ces écarts temporels entre l’expérience et sa retranscription, qui peuvent facilement dépasser deux années, génèrent des décrochages, voire des désengagements de la part des auteur/e/s et du lectorat, sans parler de l’obsolescence qui atténue parfois la qualité d’un ouvrage qui, paraissant bien trop longtemps après l’événement dont il est issu, ne prend pas en compte les avancées récentes du domaine dans lequel il s’inscrit. Cela est particulièrement le cas dans la recherche en design, champ où les avancées techniques et technologiques se succèdent, et où les usages ne cessent de se transformer: un ouvrage scientifique perd de sa valeur à mesure que se creuse le gouffre qui éloigne son point de départ à sa diffusion éditoriale. Le sentiment le plus cruel de cet écart se mesure souvent dans le temps de l’enseignement, lorsque l’enseignant/e-chercheur/se souhaite partager ses recherches les plus actuelles avec ses étudiant/e/s et doit souvent (parfois en hésitant) communiquer l’article à paraître, qui devient du coup référencé dans un mémoire qui sera, lui, rapidement rendu disponible. Les durées propres à la publication universitaire existent donc à plusieurs niveaux, en asynchronie avec les pratiques pédagogiques qui sont l’horizon du texte de recherche. Dès lors, comment répondre à ces enjeux, et quelles tactiques adopter? À partir de l’étude d’un cas concret, la publication imprimée et numérique des actes de la journée d’études «  CinéDesign, pour une convergence disciplinaire du cinéma et du design 1 Voir la publication de l’événement en ligne  : cinema-design.fr et univ-tlse2.fr» qui s’est tenue à l’Université Toulouse – Jean Jaurès les 6 et 7 octobre 2016, cette contribution se propose d’esquisser de nouvelles façons d’envisager l’édition scientifique. Faisant écho à des réflexions sur les pratiques éditoriales «  marginales» qui traversent simultanément nos recherches (Irène Dunyach, Anthony Masure et Saul Pandelakis), les actes CinéDesign ont été pensés comme l’expérimentation d’une approche décalée du processus de publication scientifique traditionnel. Nous qualifions ici cette démarche de publication «  buissonnière», dans le sens où notre ouvrage, parce qu’il s’affranchit des processus habituels, c’est-à-dire anonymes de la revue par les pairs (souvent connue dans sa traduction anglaise de peer review) s’affirme comme une réponse délibérément «  indisciplinée». Il ne s’agit pas cependant de rejeter toute méthodologie universitaire — celle-ci reste le fondement de nos formations et de nos activités de recherche. Pour autant, face au rythme interne d’un projet de recherche dont l’échelle temporelle est plutôt le mois que l’année, nous avons décidé d’enjamber quelques règles choisies, avec la pleine conscience que ces libertés nous demanderaient par ailleurs une plus grande rigueur, ainsi qu’un plus grand engagement personnel. Il apparaît que des formes plus fluides et plus légères de protocoles éditoriaux sont à tester, inventer et démocratiser. En ce sens, et pour cette publication, nous avons cherché à tirer avantage des outils numériques en ligne: les étapes de relectures, d’écritures des textes introductifs et conclusifs, et les discussions qui accompagnent ces étapes se sont déployées sur des documents partagés, où les différent/e/s organisateur/trice/s pouvaient commenter, transformer et modifier les textes simultanément. Cette dynamique collaborative a également été mise en avant pour les phases de relectures: nous avons décidé de ne pas constituer de comité scientifique, mais de demander à la place aux différent/e/s participant/e/s locaux/ales de la journée d’études et de la publication de se relire entre eux/elles, dans une gymnastique croisée. Ainsi, les auteur/e/s ont relu leurs collègues, qui les ont relu/e/s en retour. En plus de permettre l’émulation d’une pensée interne et de créer de nouveaux croisements entre les réflexions grâce aux dialogues qui ont émergé de cette mécanique transversale (suggestions de références, de compléments et de précisions directement issus des autres contributions), ce dispositif a permis une remise à plat des différent/e/s participant/e/s, sans qu’une hiérarchie ne se constitue et ne devienne écrasante. Au contraire, ceci a favorisé la prise d’initiative de la part des auteur/e/s, qui ont été parties prenantes dans le processus éditorial. Cette démarche nous semble participer d’un positionnement mobile et mouvant face à la recherche en design, positionnement qui tend à favoriser les échanges et à mettre en retrait les différences dans les statuts des différent/e/s participant/e/s pour se consacrer aux convergences de leurs pensées — comme cela a été mis en avant dans la mise en forme du programme de la journée d’études CinéDesign, où seuls les noms des structures de rattachement accompagnaient ceux des communicant/e/s. Cela se traduit également par une volonté d’intégrer autant que possible des designers et des cinéastes aux futurs événements de CinéDesign, pour encourager les entrelacements entre la théorie, la pratique, et l’analyse de cette pratique. La méthodologie adoptée pour la publication des actes a été la suivante: • Les chapitres des contributeur/trice/s, dès réception par mail en février 2017, ont été versés sur une plateforme de stockage de fichiers synchronisée, Google Docs. Le choix d’une solution propriétaire nous a donné des regrets, mais les temps compressés de publication nous ont incité/e/s à utiliser les outils sur lesquels nous sommes les plus agiles. L’ergonomie des logiciels libres, et plus largement l’attention portée à leur design, fait (malheureusement) encore débat dans les relations entre designers et développeur/se/s (Dubedout, 2017), ce qui ralentit indirectement le développement de programmes pleinement «  travaillables» spécifiques au champ de la recherche scientifique 2 Citons comme exemple d’exception le programme Peritext développé par Robin de Mourat  : https://github.com/peritext. • Les chapitres ont tous été relus par au moins deux contributeur/trice/s durant le mois d’avril 2017. Le panel se composait des personnes organisatrices du projet (Irène Dunyach, Saul Pandelakis) et des membres fondateurs du groupe (les sus-cité*es, Mélanie Boissonneau, Anthony Masure), ainsi que d’enseignant/e/s en design de l’Université Toulouse – Jean Jaurès ayant rejoint le projet lors de la journée d’études (Fabienne Denoual, Brice Genre). à l’exception de Mélanie Boissonneau, toutes les personnes mentionnées sont amenées à se voir physiquement sur leur lieu de travail (le campus de l’université, situé au Mirail), ce qui constitue un atout majeur pour la coordination. Une grande partie du travail a cependant été effectuée de manière «  dématérialisée», ce qui correspond aux emplois du temps asynchrones et aux sollicitations diverses des un/e/s et des autres à l’extérieur de l’université. • Suite à la première relecture, les articles ont été renvoyés aux contributeur/trice/s en mai et juin 2016 pour qu’ils/elles valident les corrections effectuées et qu’ils/elles reprennent le propos de manière plus approfondie quand nécessaire. • Irène Dunyach, Anthony Masure et Saul Pandelakis ont ensuite relu l’ensemble des articles et ont effectué de concert les dernières corrections nécessaires. • La maquette de l’ouvrage a été réalisée par Irène Dunyach et Saul Pandelakis en juin-juillet 2017   en partant de contraintes économiques strictes. Il était prévu de financer la publication des actes CinéDesign grâce à une bourse iDex 3 Ladite bourse a été obtenue par Saul Pandelakis lors de son recrutement en 2015   en tant que maître de conférences. Ce dispositif, dit des nouveaux entrants, lui a permis de bénéficier de 14   000 euros pour financer ses recherches et un ¾ temps en 2015-16., comme cela avait été le cas pour la journée d’études. Le système des achats piloté par l’université nous a cependant contraint/e/s à renoncer à cette solution, la bourse devant être dépensée avant une date butoir (le 15 juin 2017). Ajouter Blurb.fr à la liste des partenaires commerciaux de l’université aurait pris trop de temps et aurait signifié la perte du reliquat de la bourse. Saul Pandelakis a ainsi jugé que l’obtention de la bourse en 2015 constituait une compensation satisfaisante, lui ayant permis de nombreuses économies sur les années universitaires 2015-16 et 2016-17. El a pour ces raisons décidé de financer l’ouvrage sur fonds propres. Dans ce contexte, nous avons opté pour un folio noir & blanc, autopublié sur Blurb.fr, ce qui induit un choix de format et de papier spécifique à cette plateforme. Blurb propose des services dont la qualité, le coût et le délai de fabrication sont en accord avec nos exigences, et offre par ailleurs la possibilité d’une impression à la demande (vente en ligne automatisée, ce qui permet d’une part de faire face à un éventuel épuisement du premier tirage, et de permettre à des personnes extérieures à l’événement de commander facilement l’ouvrage, sans gestion de la part de l’université). Par ailleurs, Anthony Masure avait déjà expérimenté ce service dans le cadre du Master Design graphique du Campus de la Fonderie de l’Image (Bagnolet), pour rendre disponibles des articles de recherche d’étudiant/e/s (Masure, 2013). • Sur le plan graphique, toujours pour des questions d’efficacité, la mise en page a été réalisée sur le logiciel propriétaire Adobe InDesign, dédié à la conception de médias imprimés. Ces dispositifs nous ont permis de jouir d’une totale autonomie sur la question des choix graphiques, tout en réduisant considérablement les délais évoqués plus haut: la journée d’études s’est tenue au mois d’octobre 2016 et ces actes ont été achevés en août 2017, soit dix mois plus tard. Les derniers points, relatifs au processus de conception, font résonner la place du design dans le contexte éditorial de la publication scientifique. En effet, un grand nombre d’ouvrages et de revues semblent révéler un intérêt «  limité» pour la mise en forme, et plus largement pour le design graphique: on constate bien souvent une uniformité et, par conséquent, une pauvreté au niveau des langages visuels déployés. Cette situation peut s’expliquer par les partenariats exclusifs qui sont établis entre les universités et leurs maisons d’édition rattachées, qui très souvent sous-traitent les mises en page et proposent des couvertures réalisées sur un même modèle très sommaire: une image, un bloc de couleur, un titre, un logo — la relation entre les éléments étant le plus souvent fortuite et peu maîtrisée. Les questionnements liés aux choix typographiques, aux marges, aux grilles éditoriales et aux vocabulaires visuels ne sont que rarement pris en compte, et les «  styles» se répètent d’un ouvrage à l’autre dans une ressemblance monotone. Les dispositifs éditoriaux qui régissent les publications scientifiques ne se font pas le reflet des dynamiques de recherche, et nous semblent façonner une image parfois défraîchie de la recherche à l’université — et ce d’autant plus quand les publications se réclament des champs de l’art et du design, directement en prise avec la notion de forme. Ceci fait écho à l’article d’Émeline Brulé et Anthony Masure (2015) à propos du design de l’« objet thèse» qui clôt une recherche de doctorat, et qui est donc le premier objet graphique que tout/e chercheur/se réalise au début de sa carrière. Comme les deux auteur/e/s le soulignent, cet «  objet thèse» reste encore enfermé dans des contraintes formelles qui empêchent toute liberté créative, ce qui semble dénaturer, voire parasiter, le propos d’une recherche en art ou en design. La thèse marquerait donc la première étape d’un processus de normalisation du langage visuel des supports éditoriaux de la recherche, qui devraient pourtant être les émissaires graphiques d’une pensée dynamique et innovante. Car le milieu de la recherche tend à valoriser une énergie sans cesse renouvelée qui nourrit les pensées et propulse les avancées, autant théoriques que pratiques. Des exceptions allant dans ce sens existent: citons notamment la maison d’édition Zones Sensibles 4 Voir aussi les démarches, malheureusement isolées, des éditions B42, Nouveau Document, B2, ou encore de la revue Carnets de Science du CNRS. pour qui « si, d’après certains pleureurs, les livres de sciences humaines ne se vendent plus, c’est moins […] parce que le lectorat manque qu’en raison de la pauvreté graphique de la plupart des livres» (Baratin, 2017). Le design graphique ne se résume pas ici à une question d’embellissement, mais doit se comprendre comme un travail du rapport entre le sens et la forme, ou encore, comme le définit Annick Lantenois, comme «[…] l’un des instruments de l’organisation des conditions du lisible et du visible […]. Traiter visuellement les informations, les savoirs et les fictions, c’est donc concevoir graphiquement leur organisation, leur hiérarchie, c’est concevoir une syntaxe scripto-visuelle dont les partis pris graphiques orientent les regards, les lectures» (Lantenois, 2010, 11). Cette attention portée au regard, à la lisibilité, à la hiérarchie de l’information, aux rapport texte/image, à la fabrication de l’objet, etc. participe pleinement, selon nous, d’un travail devant faire l’objet d’une réflexion spécifique – et ce d’autant plus lorsque la publication a vocation à aborder des enjeux liés au design. Nous préconisons ainsi aux chercheur/se/s, aux éditeur/trice/s et aux directeur/trice/s de laboratoires de se saisir de ces enjeux et de les discuter avec des designers graphiques 5 Notons que le Centre national des arts plastiques (Cnap) organisera fin 2017 un «  salon graphique  » (journée d’échanges professionnels) intitulé «  Publier la recherche  », afin de sensibiliser les commanditaires et designers graphiques à ces enjeux., pour qui le champ des publications de la recherche reste encore majoritairement une terra incognita. De plus, la pauvreté visuelle des publications universitaires n’est pas seulement graphique mais aussi bien souvent iconographique. Les auteur/e/s de ce texte ont eu l’occasion de publier dans des revues où la sélection d’images était excellente, mais cela était le plus souvent permis par l’adossement du projet à un éditeur de poids, possédant les moyens humains et financiers de négocier les droits ad hoc. Les publications plus modestes doivent la plupart du temps se contenter d’images de piètre qualité, voire renoncer tout simplement à inclure des visuels — ce qui, autant en design qu’en cinéma est très problématique. En effet, comme le note André Gunthert, contrairement aux textes, « la restriction de citation [des matériaux audiovisuels est] cause de censure. Les contraintes définies pour éviter de porter préjudice aux industries culturelles ont des conséquences particulièrement graves en matière scientifique. Outre l’alourdissement des budgets de la recherche spécialisée, elles interdisent un exercice indépendant de la réflexion et de la critique» (Gunthert, 2013). Pour contourner cette question des droits, nous avons puisé dans notre réservoir de compétences. Irène Dunyach et Saul Pandelakis pratiquant l’illustration en plus du design graphique, il a été décidé de dessiner les images de projets et photogrammes de films 6 Des cas précédents existent, comme par exemple l’ouvrage de culture visuelle L’homme et ses signes de André Frutiger (1978), où toute l’iconographie a été conçue par l’auteur.. Ce choix a desserré nos obligations légales, tout en renforçant notre prise sur l’identité visuelle de la publication finale. L’exercice du re-dessin s’inscrit par ailleurs tout à fait dans une approche de recherche, puisqu’elle croise la pratique de la captation graphique (lors d’événements universitaires) pratiquée par Saul Pandelakis depuis environ deux ans. Bien que la publication n’ait pas été réalisée grâce à des logiciels libres, les auteur/e/s souhaitent s’inscrire autant que possible dans la logique du libre et sa philosophie. Les textes sont ainsi placés sous licence libre Creative Commons CC BY-SA 7 Cette licence autorise à «  partager  » (copier, distribuer et communiquer le matériel par tous moyens et sous tous formats) et à «  adapter  » (remixer, transformer et créer à partir du matériel) le contenu pour toute utilisation, y compris commerciale, à condition de «  créditer» la source et de la «  redistribuer  » sous les mêmes conditions. afin de favoriser le partage des connaissances. La question des licences d’utilisation des polices a également fait l’objet d’une attention spécifique, spécialement dans le cadre de publications (potentiellement) multisupports, tant les modalités contractuelles sont diverses et difficile à comprendre (Adebiaye, 2017): le choix de polices de caractères libres de droits (SIL Open Font License), dans un projet au budget réduit, est alors une évidence. Les polices utilisées dans les actes CinéDesign, référencées dans l’ours, sont Lil Grotesk (Bastien Sozeau), Lora (Olga Karpushina & Alexei Vanyashin) et Logisoso (Mathieu Gabiot). Les chapitres seront rendus disponibles, à terme, sur le site Web du projet cinema-design.fr) afin d’augmenter leur visibilité. Bien que les directeur/trice/s de publication des actes CinéDesign aient toujours souhaité que ceux-ci existent sous une forme imprimée, ce choix n’a jamais été fait à l’encontre, ou par opposition à une possible publication numérique. Une fois l’imprimé réalisé s’ouvrira un temps de conversion des textes pour une lecture sur écran et sur le Web. L’aspect multi-supports est donc réel, même si à l’heure où ces lignes sont écrites, la publication existe d’abord, en théorie, comme un objet papier. L’éthique du libre affecte également ces méthodologies. Il est notre souhait de voir d’autres chercheur/se/s s’emparer de cette première expérimentation, pour en tester les limites et en éprouver les contours. D’autres approches restent bien sûr à découvrir, l’idée générale étant de voir se raréfier les expressions de surprise (certes joyeuses) du/de la chercheur/se qui se rappelle d’un texte cinq ans après son écriture, en raison d’une publication qu’il/elle n’espérait plus. Considérant les conditions de ce «  sprint» éditorial, il apparaîtra sans nulle doute des coquilles, erreurs, imprécisions. Nous les assumons et souhaitons que cette publication, plutôt que de couronner notre journée d’études, en soit le témoignage instantané, vivant, et serve de laboratoire d’expérimentation à nos projets futurs — tel le colloque CinéDesign à venir en 2018, qui ne manquera pas de s’appuyer sur cette publication. Nous ne sommes pas tant un comité de lecture qu’un commité, au sens du « commit» proposé par le protocole technique contributif Git, c’est-à-dire d’un choix qui ne se fait jamais sans la validation des pair/e/s, immédiate, agile, dans un temps partagé. Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017

Assistants connectés : des ordres dans la voix

Date

janvier 2020

Type

Conférence

Contexte

Invitation dans l’émission de radio Magnétique, Lausanne, Radio Télévision Suisse (RTS)

Résumé

« Dis Siri ! OK Google… Alexa, s’il te plaît… » La rumeur s’amplifie: nous utilisons toujours davantage les assistants vocaux, qu’ils « habitent » une enceinte connectée, un smartphone ou un ordinateur. Ces interactions nous amènent à revoir notre conception de la voix ; la nôtre quand les machines semblent la comprendre et la leur quand elles nous répondent.

Automatisation ou mécanisation ? Le design à l’ère des intelligences simulées

Date

avril 2021

Type

Conférence

Contexte

Conférence à l’Esad Amiens dans le cadre du séminaire « Le champ du signe » (dir. Simon Renaud) autour des intelligences artificielles et de la création.

Résumé

En raison de leur efficacité et rentabilité, les intelligences artificielles (IA) « neuronales » trouvent leur place dans les industries créatives depuis plusieurs années. Si les technologies du deep learning sont la plupart du temps envisagées sous l’angle de l’automatisation, nous proposons de les considérer également sous l’angle du concept de mécanisation pour souligner la possibilité d’un travail « avec » les machines plutôt qu’un abandon de leurs potentialités aux forces économiques. En quoi le design pourrait-il contribuer à désamorcer la culture dominante de l’IA ? Comment faire en sorte que les technologies du deep learning puissent ouvrir à l’invention et à la curiosité ? En quoi les cursus de design pourraient-ils (ou devraient-ils) faire l’objet de reconfigurations ?

Autres activités

Date

Type

Contexte

Résumé

Archéologie des notifications numériques

Date

avril 2019

Type

Publication

Contexte

Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)

Résumé

La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?

Personnes citées

Amateurs et typothèses

Date

septembre 2013

Type

Publication

Contexte

Anthony Masure, «Rencontres de Lure 2013: amateurs et typothèses», Strabic.fr, septembre 2013

Résumé

D’abord cercle d’amis fondé dans les années 50, élargi en «école» (au sens de lieu d’autoformation et non de chapelle), l’association des Rencontres de Lure s’est ouverte depuis une trentaine d’années à tous les curieux de la chose graphique. Aujourd’hui, après 61 années d’existence, elle regroupe un public hétérogène et passionné qui se réunit chaque été dans ce lieu retiré des Alpes de Haute-Provence. «  J’ai en esprit une phrase de Plotin – à propos de l’Un, me semble-t-il, mais je ne sais plus où, ni si je la cite correctement  : «  Personne n’y marcherait en terre étrangère  » 1 Yves Bonnefoy, L’arrière-pays, Paris, Flammarion, coll. Les sentiers de la création, 1992, p.  7.. » Le visiteur qui revient des Rencontres de Lure est confronté à un double embarras  : l’impossibilité de rendre compte de l’esprit du lieu, et la longue attente de la prochaine édition. Les Rencontres sont nées autour de 1950, de l’amitié de Jean Giono et du typographe Maximilien Vox. Subjugué par la beauté des montagnes, Vox achètera et reconstruira plusieurs maisons du village de Lurs-en-Provence, alors en ruine. Vox en profitera pour y initier des «  retraites graphiques  », au ton monacal. Reste de cette époque l’exigence de la réflexion, le temps du recul, l’esprit des lieux où de nombreuses pierres portent une histoire toujours vivante. Volontairement discrètes, les Rencontres de Lure accueillent chaque année autour de 80 personnes (un peu plus pour le cru 2013, qui a battu les records de fréquentation!). Nicolas Taffin préside depuis 2006 l’association (les conférences sont payantes pour couvrir les frais de fonctionnement). Cette fine équipe pratique une éthique de l’ouverture et s’efforce de mélanger les générations et disciplines. Après/Avant, une revue de culture graphique rouge et bleue C’est dans l’ignorance de cette histoire très dense que j’ai été invité par Adeline Goyet à rédiger un article dans la nouvelle revue Après\Avant. Particularité graphique, cet objet éditorial joue comme portfolio de la création contemporaine typographique. Un appel à contribution a été lancé, avec grand succès puisque la revue comporte au final une cinquantaine de polices de caractères différentes, toutes créditées  ! L’habile et cauchemardesque maquette (réalisée par Sandra Chamaret et Julien Gineste) permet d’unifier tous les contenus par le recours à une bichromie rouge et bleue. La revue donne à lire des points de vue sur les conférences de l’édition précédente et s’écarte ainsi de la volonté de retranscrire fidèlement les paroles exactes, qui resteront à Lurs. Le deuxième temps de lecture initie la prochaine thématique, en l’occurrence  : «  l’amateur  ». L’imprévu des programmes Afin de clarifier mes réticences quant à ce thème, j’ai proposé un court article intitulé « Que fait l’amateur  ? ». Si l’on considère que l’amateur (de amator : celui qui aime) redonne du temps à ses objets d’étude, il est dans le même temps pris dans des logiques de récupération et de captation de ses productions. Dès lors, la responsabilité du designer serait de créer des objet qui «  font faire  », afin de permettre aux amateurs, que nous sommes peut-être tous, de pouvoir adopter l’altérité du monde. Amateur de rencontres, j’ai naturellement accepté l’invitation lursienne pour me permettre de développer ces premières idées. J’ai effectué une sélection de quelques points clés de ma thèse 2 Anthony Masure, Le design des programmes, thèse en cours de rédaction sous la direction de Pierre-Damien Huyghe, Université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques., pour discuter l’idée que certains programmes «  conditionnent  » la création numérique, tandis que d’autres sont moins de l’ordre d’une planification. Il est donc important pour les amateurs et designers de déplacer leurs systèmes de références afin de faire place à l’imprévu. Me voilà donc parti dans la montagne. Le coup de bleu Je débarque donc le dimanche 25 août 2013   en gare de La Brillane-Oraison en compagnie d’autres amateurs de rencontres. De là, nous sommes conduits en haut de la montagne, où je prends place dans le superbe gîte-dortoir communal, qui sera vite rebaptisé Gîte-Hub. La vue sur la vallée et les vieilles pierres installent d’emblée une ambiance de recul, je pressens que la semaine ne ressemblera pas à ce que je connais, et que c’est bien moi qui ferai l’expérience de «  l’imprévu des programmes  », titre de mon intervention. Ma première tâche consiste à préparer la salle des repas, installer les tables et chaises pour une centaine de convives. Mes acolytes-ouvriers procèdent alors à une réflexion sur la grille pour aligner consciencieusement le mobilier, dont les nappes seront recouvertes pendant la semaine de recherches typographiques diverses. N’importe quelle scène du quotidien peut devenir l’endroit de jeux de mots et déplacements improbables. La salle étant rangée, nous voici donc en marche sur la crête de la montagne pour le traditionnel «  coup de bleu  », un apéritif improvisé à la lumière particulière du paysages à la tombée de la nuit. Je reconnais ça et là des visages familiers de Twitter, ou des noms dont le souvenir m’échappe parfois. La nuit tombe sur Lurs, ma peau passe du bleu au rouge. Une bande d’activistes Lundi matin, début des conférences à 9h30. L’amateur est évidemment au centre des débats, Nicolas Taffin ouvre la semaine, suivi rapidement de Frank Adebiaye, qui animera chaque matin un feuilleton décalé et savant traitant des figures de l’amateur. J’écoute avec grande attention l’intervention d’André Gunthert (EHESS), qui propose dès 10h à l’assemblée d’en finir avec le terme d’amateur  : la semaine vient à peine de commencer que la thématique est détruite  ! Pour Gunthert, l’amateur est l’œuvre des institutions et experts qui «  sabotent  » tout ce qui n’est pas de leur sein en disqualifiant ce qui leur est extérieur. «  Ne parlons plus des amateurs  » car plus personne ne croît aux récits héroïques d’émancipation. On confond démocratisation et extension, refusant souvent de prendre en compte dans nos analyses les personnes et facteurs hostiles aux changements, les «  saboteurs  ». Il nous faut réinventer la possibilité de créer des œuvres collectives et anonymes, ce qu’on savait faire avant la Renaissance. Gunthert propose pour finir de remplacer «  amateurs  » par «  activistes  », pour mieux qualifier la dimension subversive de ce que fait l’amateur aux productions culturelles. Deuxième coup de bleu, me voilà donc faisant partie d’un groupe d’activistes. Typothèses de recherche Les autres interventions de la première journée traiteront du Comic Sans («  le doudou de la typo  »), de l’application Vine, du «  tout le monde est graphiste  », et la journée se conclura par le défilé des loufoques créations «  typonoclastes  » de Jean-Jacques Tachdjian, dont la police Hermetica serait parfaite pour ma thèse. Il est déjà l’heure d’aller déranger la grille de la salle des repas. Heureusement, personne ne ronfle dans le Gîte-Hub. Mardi matin, c’est donc à moi de commencer la journée. Les questions du public sont variées, de l’exemple de IA Writer pour désencombrer nos interfaces, à André Gunthert qui me titille sur les conditionnements culturels, qui sont aussi importants que ceux de la technique. Je peux aller me rasseoir et continuer mon live-tweet en réseau Edge (la foudre a cassé le boitier ADSL deux jours avant le début des Rencontres). Je capture ce que je peux de l’intervention de Jean Alessandrini, qui n’avait plus mis les pieds à Lurs depuis 35 ans pour des querelles portant sur sa classification typographique concurrentielle de celle de Maximilien Vox. Son retour en grâce fut mis en scène par Olivier Nineuil, qui organisa la présentation des travaux autour d’une carte mentale de pas moins de 530 images  ; grand moment pour certains et mal de mer pour d’autres. Les discussions continueront toute la semaine au « Buffalo grid » et ailleurs, mon intention de venir à Lurs pour discuter d’hypothèses de recherche en cours est pleinement réalisée. J’accapare André Gunthert pour discuter de Walter Benjamin et de l’histoire de la photo. C’est passionnant de rencontrer des activistes, finalement. Baignade et colliers de PERL Mercredi, tout le monde part en car à Marseille pour une journée off, une vraie colonie pour adultes  ! Activités au choix  : baignade, musée ou visites urbaines. Jeudi, reprise des hostilités. Naviguant des tampons à l’archivage du web, je retiendrai surtout la réédition par Alexandre Laumonier (fondateur de la maison d’édition Zones Sensibles du Dictionnaire historique et critique de Pierre Bayle de 1702. Après avoir fait le tour des principaux enjeux historiques, philosophiques et économiques que pose le projet de rééditer aujourd’hui un livre qui fait à l’origine 4000 pages (le correcteur a mis un an à traiter 1% du contenu  !), Alexandre Laumonier pose très justement le fait que rééditer ces pages sans conserver la mise en page d’origine n’a aucun sens. Il s’agit donc de trouver des procédés techniques pour relier les notes de notes de notes entre elles, géniales compositions page par page qui donneraient des cauchemars à n’importe quel maquettiste d’aujourd’hui. Tous les nerds luriens de la salle ont senti leur cœur se nouer quand fut faîte la démonstration de requêtes GREP InDesign servant entre autres à gérer de la micro typographie, ainsi que d’un script PERL pour extraire des statistiques de composition de n’importe quelle page du document, qui fut repris depuis le début de très nombreuses fois  ; plus de 10 années de travail. Meta nights Après une nuit où la place du village improvisée en sound system aurait pu générer une nouvelle affaire Dominici, nous revoilà vaillants pour écouter Joe la pompe himself en cagoule, pour protéger son identité des «  pompeurs de pubs  ». Je découvre l’œuvre et les archives de Gérard Blanchard, typographe, dont les écrits ont de quoi occuper des générations de transcripteurs. Les codeurs de la salle en reprennent un coup, avec David Vallance qui nous présente son projet de DNAT tournant autour de Metafont, un langage de description des polices vectorielles développé dans les années 60 par Donald Knuth, une histoire fascinante de la typographie numérique. Venu des États-Unis, Rich Roat de la fonderie House Industries clôture de fort belle manière cette semaine des amateurs par un show à l’américaine, la culture du goodies et du toujours plus. C’est déjà la dernière nuit. Coup de blues La semaine graphique s’ouvrait par le «  coup de bleu  », elle se termine par le «  coup de blues  ». Les derniers lurons échangent sur la semaine, et déjà place à la prochaine édition avec un brainstorming de la prochaine thématique, qui se poursuivra dans le TGV pour Paris. Coup de gris, la montagne reprend ses droits. Pour les joyeux amateurs de #Lure2014, l’attente sera longue. On rebranche quand  ? Remerciements chaleureux à l’équipe des Rencontres de Lure pour leur hospitalité légendaire et pour leur organisation tirée au cordeau. Merci à Thibéry Maillard pour les images. En savoir plus  : Un très bon article du blog Graphéine sur l’histoire et les secrets des Rencontres de Lure.

Divertissements typographiques : des épreuves de caractères aux spécimens animés

Date

avril 2021

Type

Publication

Contexte

Article coécrit avec Michel Wlassikoff dans le 4e numéro de la revue Back Office intitulé « Suivre le mouvement ».

Résumé

Le spécimen typographique constitue un genre de publication à part, entre document promotionnel et espace d’expression graphique. Il s’incarne aujourd’hui sur le Web à travers des sites de démonstration expérimentaux que l’article propose d’analyser au regard de l’histoire typographique ancienne.

Le design à l’ère des big tech : tactiques de résistance dans un écosystème globalisé

Date

décembre 2024

Type

Publication

Contexte

Entretien avec Florence Jamet-Pinkiewicz publié dans la revue Digital des étudiant·es de l’École Estienne en DSAA DCN, 2025, p. 77-84.

Résumé

Cet entretien revient sur les transformations du design à l’ère des grandes plateformes technologiques : évolution du rapport aux outils et aux IA génératives, enjeux de médiation des savoirs, projets de recherche-création (Play-to-Learn, Fucking Tech!, CryptoKit), et rôle politique et esthétique du design numérique.

Art, design : vers une ère post-numérique ?

Date

septembre 2017

Type

Conférence

Contexte

Participation à la table-ronde « Art, design : vers une ère post-numérique ? » dans le cadre du festival Scopitone, Nantes

Résumé

Modération – Claire Richard (journaliste) Intervenants – Samuel St-Aubin (artiste) – Anthony Masure (MCF Design, université Toulouse – Jean Jaurès) – Dominique Moulon (critique d’art et enseignant) Organisation – Stereolux / Labo Arts & Tech De gauche à droite  : Samuel Augustin, Anthony Masure, Dominique Moulon, Claire Richard — Résumé graphique Prise de notes graphique  : Thibéry Maillard / @entroispoints — Contexte Ce temps d’échange s’inscrit dans une réflexion dont l’objectif est de croiser les expériences, les approches et les points de vue de professionnels et d’experts du numérique – qu’ils soient artistes, chercheurs, critiques, journalistes ou ingénieurs. Il s‘agit de questionner les évolutions scientifiques, philosophiques et sociétales induites par le numérique et mises en exergue par le travail des artistes programmés à Scopitone. Cette table ronde s’intéresse au post-numérique – l’occasion de discuter des incidences de ce terme dans les champs de l’art et du design et, plus généralement, de ce qu’il implique en termes d’évolution sociétale, selon trois axes principaux et en croisant les regards d’artistes, de designers et de théoriciens  : Quelles réalités le terme «  post-numérique  » recouvre-t-il vraiment  ? S’il renvoie généralement à un moment où le numérique n’est plus considéré comme une simple technologie, mais bien comme une composante omniprésente de notre environnement et de nos vies, il peut également traduire la fin d’une certaine fascination exercée par le numérique. En devenant omniprésent, banal même, celui-ci perd son caractère «  magique  » et «  nouveau  », et cesse d’être perçu comme une fin en soi. Quelles sont les incidences du post-numérique dans le champ artistique  ? Cette nouvelle ère est-elle celle de la remise en cause des arts numériques  ? Peut-on identifier des différences et/ou des similitudes entre un art dit «  numérique  » et un art «  post-numérique » ? Quel rapport l’art post-numérique entretient-il avec la technologie  ? Quel rôle le design peut-il tenir dans une société post-numérique  ? Quels sont les enjeux que soulève cette notion de «  post-numérique  » dans le champ du design  ? Nos objets du quotidien intègrent de plus en plus fréquemment des éléments informatiques  ; pour cette raison, leur fonctionnement, comme leurs interactions avec notre environnement peuvent devenir «  opaques  », et leur utilité poser question.

Esthétique des données : des humanités numériques aux crypto-actifs

Date

mars 2018

Type

Conférence

Contexte

Conférence et performance autour de la nouvelle collection Esthétique des données (éditions B42), pensée à la fois pour les amateurs et les spécialistes de la culture numérique. Merci à Marie Lechner, Lola Ricordeau et Clémence Seurat.

Résumé

À l’occasion de cette soirée, j’ai rédigé et performé une une nouvelle notice (contenu complémentaire à l’essai Design et humanités numériques) intitulée « Binance.com / Représenter », mise en ligne sur le site Web de la collection Esthétique des données. Cette contribution interroge l’esthétique des crypto-actifs (crypto-monnaies, etc.) et de leurs représentations. Contexte Rencontre autour de la collection Esthétique des données (éditions B42), dont le premier livre a paru en novembre 2017. Cette collection s’adresse aux amateurs et aux spécialistes de la culture numérique. Dirigée par Nicolas Thély, elle a pour objectif de rendre communicables les expériences et les modes de pensée associés à la fréquentation des artefacts numériques (CD-R om, sites Internet, mondes virtuels, logiciels, bases de données, etc.) en mettant en lumière des textes rédigés ces vingt dernières années par des critiques et théoriciens de l’art et en publiant les recherches d’une nouvelle génération de chercheurs en humanités numériques. Table ronde et discussion en présence de Nicolas Thély, directeur de la collection Esthétique des données (éditions B42), Anthony Masure, auteur de Design et humanités numériques, Gilles Rouffineau, auteur de Éditions off-line (prochain livre à paraître dans la collection) et de Kévin Donnot et Elise Gay, qui ont pris en charge la création du site Web dédié à la collection. À l’occasion de cette table ronde, Anthony Masure et Gilles Rouffineau offriront une démonstration performée des enjeux théoriques développés au sein de leurs ouvrages respectifs. Anthony Masure présentera les notices d’une sélection choisie de logiciels et de services présentés dans son livre. Gilles Rouffineau ramènera à la vie des CD-R om des années 1990. Avec le partenariat de l’équipe PTAC. — Participants Anthony Masure est maître de conférences en design à l’université Toulouse Jean Jaurès. Il a cofondé les revues de recherche Réel-Virtuel et Back Office. Inscrites dans le champ du design, ses recherches portent sur les implications sociales et politiques des nouvelles technologies. Il est l’auteur de Design et humanités numériques (B42). Gilles Rouffineau enseigne en design graphique à l’Ecole Supérieure d’Art et de Design Grenoble-Valence. Il codirige l’unité de recherche «  Il n’y a pas de savoir sans Transmission  ». Ses recherches concernent depuis quelques années l’archéologie des éditions numériques. Son livre, Editions off-line, paraîtra aux éditions B42 en 2018. Nicolas Thély est Directeur de la Maison des Sciences de l’Homme en Bretagne (MSHB) et professeur en arts, esthétique et humanités numériques à l’université Rennes 2 au sein de l’équipe Pratiques et Théories de l’art contemporain. Il dirige la collection Esthétique des données aux éditions B42. Kévin Donnot et Élise Gay sont designers graphiques au sein du studio E+K. Kévin Donnot est également enseignant spécialisé dans le numérique à l’ÉESAB Rennes et à l’Université Paris 8.

Résister aux boîtes noires. Design et intelligences artificielles

Date

septembre 2018

Type

Conférence

Contexte

Conférence donnée au colloque colloque MCRIDD, Tunis, Institut Supérieur des Arts Multimédia de la Manouba (Isamm)

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes auto-apprenants (deep learning) et potentiellement incontrôlables (black boxes). Ces IA « créatives » investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Sous couvert de rentabilité, le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs (patterns) automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

From Semiology of Graphics to Cultural Analytics: flaws in the mathematization of visible

Date

juillet 2019

Type

Conférence

Contexte

Communication dans le cadre du colloque International Cartographic Conference (ICC), Chair T33, « Design and visual variables: Rethinking Jacques Bertin », dir. Anne-Lyse Renon, Tokyo

Résumé

Cette communication se donne pour objet d’étudier l’héritage de la Sémiologie Graphique de Jacques Bertin dans les visualisations de données contemporaines, et plus précisément dans le champ des Cultural Analytics de Lev Manovich.

Against black boxes. Design and artificial intelligence

Date

février 2020

Type

Conférence

Contexte

Basel, Critical Media Lab

Résumé

Although the concept of “artificial intelligence” (AI) is an old one, its presence is constantly growing, whether in medias, pop culture, or everyday objects. In the 2010’s, the power of “self-learning” systems, those of deep learning, is related to unintelligible architectures (black boxes). These AIs progressively could replace tasks commonly assigned to designers. In this process, there is a risk that design becomes nothing more than an automated way of doing things and services, and that of formatting human experiences. How are these issues addressed by designers? What can design do “with” artificial intelligence?

Perspectives contemporaines de la Sémiologie graphique

Date

janvier 2023

Type

Conférence

Contexte

Conférence donnée dans le cadre du cycle de conférences sur le design dirigé par Catherine Chomarat-Ruiz, session « Contribution du design et des technologies numériques pour la recherche sur le patrimoine scientifique » à l’initiative de Anne-Lyse Renon, Paris, Université Paris 1 Panthéon-Sorbonne.

Résumé

Le projet DESIGNSHS, financé par l’Agence Nationale de la Recherche (2021-2025), réalise la première étude d’envergure portant sur les relations entre design graphique et recherche en sciences humaines et sociales, des années 1950 à nos jours. Le Laboratoire de graphique de Jacques Bertin a été un acteur historique majeur de ce mouvement au croisement de l’innovation graphique numérique et des sciences humaines et sociales, en France notamment dans la deuxième moitié du XXe siècle. Nous présenterons les enjeux méthodologiques et scientifiques du projet et la manière dont le design et les humanités numériques y répondent. Nous explorerons aussi les rayonnements de ce projet tant sur le plan historique qu’épistémologique.

Workshop numérique « Écoles de la pensée »

Date

mars 2013

Type

Cours

Contexte

Résumé

Mars 2013 (4 jours) Le workshop « Écoles de la pensée  » se base sur un thème a priori étranger au numérique  : la philosophie à destination à des enfants. Depuis de nombreuses années, la «  philosophie pour les enfants  » se développe dans de nombreux pays, essentiellement via des ateliers de parole et des ouvrages dédiés. Il était demandé aux étudiants de réfléchir à des modes de lecture et de dialogue à l’écran s’inscrivant dans ce champ pédagogique. Les projets ont été menés par groupes de 5, avec pour chaque équipe un éditeur, un graphiste, un développeur et un coordinateur. Le rendu devait comprendre un prototype fonctionnel, ainsi qu’un dossier de faisabilité (rétroplanning, budget fictif, technique, etc.). L’enjeu était de construire son propre projet plutôt que de se placer dans une posture d’exécution  : un vrai entraînement au projet pro de deuxième année  ! Au cours des 4 jours du workshop, les étudiants ont pu bénéficier de l’expertise de Nicolas Loubet (Umaps) pour la partie scénarisation de projet. Pour la technique, ils étaient assistés d’Antoine Frankart fondateur d’Oxent, startup de services à destination des éditeurs et compétiteurs de jeux vidéos. Les projets ont pu être poursuivis durant deux semaines «  libres  », avant présentation devant un jury extérieur. Groupe #1  : « Planète Cékoi  ? » Un jeu vidéo iOS où l’enfant explore des planètes aux thématiques existentielles. Groupe #2  : « Melting peau » Une application pour Google Glass faisant prendre conscience de problèmes sociaux, à expérimenter en atelier au sein de musées comme la Gaité Lyrique. Groupe #3  : «Pourquoi  ? Parce que» Un projet d’exposition numérique au sein du futur Musée des Confluences de Lyon. Groupe #4  : «Cinéphilo» Un site web pour comprendre la philo à partir d’extraits de blockbusters. Groupe #5  : «Mon20h» L’application qui décrypte l’actualité pour les touts petits. Groupe #6  : «Philo&Sophie» Une application pour créer chez soi son atelier philo, déclinaison pour enfants de Philosophie Magazine.

À défaut d’esthétique : plaidoyer pour un design graphique des publications de recherche

Date

novembre 2018

Type

Publication

Contexte

Article publié dans la revue de recherche Sciences du Design, Paris, Puf, no 8, novembre 2018, p. 67-78

Résumé

Selon le philosophe Jacques Derrida, la distinction métaphysique entre l’écriture et la parole (logos) entraîne une dépréciation de l’écriture et interroge par extension la prétention d’une « pure » pensée à exister séparément de sa représentation graphique. Nous proposons de mettre en résonance l’analyse de ce « logocentrisme » avec le champ des publications numériques de recherche, où la forme demeure majoritairement impensée. En montrant au travers de l’étude de deux publications en ligne (GAM3R 7H30RY et Haunted by Algorithms) comment certaines pratiques de design graphique permettent de dépasser l’opposition forme/contenu, nous soutenons que la prise en compte de la dimension esthétique de l’écriture peut contribuer à dérouter et à renouveler les pratiques de recherche communément installées.

Dérive décodée sur le logiciel

Date

octobre 2019

Type

Publication

Contexte

Entretien avec Joanne Pouzenc, Plan Libre, hors-série

Résumé

À quoi ressemblent les pratiques contemporaines en architecture aujourd’hui ? À quoi ressembleront-elles demain ? Depuis le début des années 1980, la démocratisation de l’informatique et l’accélération des progrès technologiques transforment la profession à vitesse grand V. Si la conception est laissée à la machine devenue intelligente, que reste-il à l’architecte ?

Entre rejet en bloc et nouvelles chaînes de valeurs : les NFT au-delà du visible

Date

septembre 2022

Type

Publication

Contexte

Article rédigé avec Guillaume Helleu pour la revue AOC.

Résumé

Apparus en 2017, les NFT (« Non Fungible Tokens »), à savoir des certificats numériques infalsifiables et décentralisés, ont été rendus célèbres pour leurs usages dans le monde de l’art. Hautement polémiques, les NFT sont fréquemment accusés d’être spéculatifs, inutiles et polluants. Nous proposons d’y voir plus clair dans ces controverses, fondées pour une bonne part, afin de montrer que d’autres voies sont possibles. En effet, les NFT – dont les applications artistiques ne sont qu’un maillon – ne sauraient se réduire à leur portion visible et engagent des réflexions plus larges sur les systèmes de valeurs, chaînes de distribution et formes de gouvernance.

Mise à jour technique du site avec Claude Cowork

Date

mars 2026

Type

Blog

Contexte

Anthony Masure, « Mise à jour technique du site avec Claude Cowork », blog AnthonyMasure.com, 23 mars 2026

Résumé

Mon premier site Web personnel a été lancé en 2012 sous WordPress, et a migré sous Kirby en 2015 avant d’être entièrement refait en 2016 puis légèrement mis à jour en 2021. En mars 2026, porté par le développement des intelligences artificielles grand public, une refonte technique complète a été menée grâce à l’IA Claude Cowork : migration de Kirby 3.4.4 (2020) vers Kirby 5.3.2 (2026), correctifs de sécurité, optimisation des performances et nettoyage du code JS et CSS. Ce billet documente l’usage de Claude et l’ensemble des changements effectués.

Le langage des nouveaux médias

Date

juillet 2013

Type

Conférence

Contexte

Organisation et modération d’une table-ronde à la Gaîté Lyrique avec Sylvia Fredriksson.

Résumé

La sortie en anglais du nouveau livre de Lev Manovich, Software takes command (juillet 2013), nous donne l’occasion de faire le point sur l’actualité et la singularité des « software studies ». En quoi les concepts et catégories développées par Lev Manovich sont-ils pertinents pour penser nos modes de relations aux logiciels ?

La fable des techniques invisibles

Date

mars 2016

Type

Conférence

Contexte

Anthony Masure, « La fable des techniques invisibles », conférence dans le cadre du cycle « Graphisme / Technè », université de Strasbourg & HEAR Strasbourg, dir. Vivien Philizot

Résumé

Cette communication interroge, dans le contexte du design, les relations qu’entretiennent entre les notions de technique et de visibilité. Si le design prend sens en raison d’un travail des techniques dans une finalité qui n’est pas donnée d’avance, que dire de la tendance contemporaine qui consiste à faire du design l’instrument de techniques invisibles ? Autrement dit, comment et pourquoi, depuis un certain nombre d’années, une tendance à rendre les techniques invisibles s’est-elle développée ? Que recouvre cette intention ? À travers la critique de cette idéologie de la transparence appliquée aux objets numériques, il s’agira de démontrer qu’une des tâches du design serait de dévoiler la technique, et non pas de l’occulter en la rendant invisible.

Panne des imaginaires ou design pour un monde réel ?

Date

octobre 2016

Type

Conférence

Contexte

Conférence donnée à la journée d’étude « Cinéma-Design, pour une convergence disciplinaire du cinéma et du design », université Toulouse – Jean Jaurès

Résumé

Il est couramment admis que les films de science-fiction, censés incarner l’imaginaire du futur, multipliraient les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.). Ce constat, qui reste à interroger, fait dire au chercheur Nicolas Nova qu’il existerait ainsi une « panne des imaginaires ». Alors qu’il est fréquemment demandé au design d’« innover », nous nous demanderons en quoi certaines séries récentes (Silicon Valley, Mr. Robot, Black Mirror) permettraient de contester cette injonction. Pour cela, nous étudierons également des productions relevant des champs du design fiction (Bruce Sterling), du design critique (Dunne & Raby) et de leur réception française (Jehanne Dautrey et Emanuele Quinz, N O R M A L S). Il s’agira d’analyser en quoi ces croisements recoupent des critiques politiques et sociales adressées aux nouvelles technologies (Bernard Stiegler, Evgeny Morozov). Entre les extrême dystopiques (films catastrophe) et utopiques (d’un monde sauvé par la science), qu’est-ce que la science-fiction nous dit du design ? Comment le design pourrait-il à la fois renouveler les imaginaires et agir dans un monde « réel » (Victor Papanek) ?

Les humanités numériques au prisme du design typographique

Date

novembre 2016

Type

Conférence

Contexte

Conférence donnée au colloque international de typographie Automatic Type Design 2, ANRT Nancy, 18 novembre 2016

Résumé

Le design, historiquement, est marqué par la volonté d’insuffler une dimension humaine dans la production industrielle mécanisée. Alors que le numérique permet d’automatiser la construction de formes via des agents non humains (programmes, etc.), qu’en est-il, dès lors, des rapports entre le design et les « humanités numériques » ? Comment concevoir des formes visuelles capables de rendre intelligible la complexité des environnements techniques contemporains ? Quels rôles un design typographique au fait du numérique peut-il jouer dans l’élaboration de langages visuels capables de pluraliser les rapports au savoir ?

Les humanités numériques

Date

février 2018

Type

Conférence

Contexte

Invitation à l’émission de radio La Clique numérique en présence de Michaël Cros, Marseille, Radio Grenouille

Résumé

Essai Design et humanités numériques, Paris, B42, collection «  Esthétique des données  », 2017

Du design graphique, essai de futurologie

Date

avril 2018

Type

Conférence

Contexte

Conférence à l’Esad Reims

Résumé

Depuis le développement de l’informatique personnelle au tournant des années 1980, le design graphique a connu de profondes mutations au contact des technologies numériques et des pratiques afférentes. Quelles sont les grandes catégories et les enjeux de ce rapprochement ? À quels nouveaux défis pourraient être confrontés les designers graphiques ces dix prochaines années ?

Design et récits du futur

Date

mai 2018

Type

Conférence

Contexte

Intervention au séminaire U+ / Plurality University, séance 2, « Y a-t-il une panne des imaginaires du futur ? », Paris, Cnam, 22 mai 2018.

Résumé

Selon Nicolas Nova, l’industrie cinématographique de la science-fiction multiplirait les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.) et entraînerait une « panne des imaginaires ». Après avoir examiné une série de contre-arguments permettant de resituer le rôle de la science-fiction quant à la mise en récits du futur, nous nous demanderons quelle place peut jouer la fiction dans des démarches de design. Faut-il séparer les « fictions de clôture » des « fictions potentielles » (Camille de Toledo) ? Qui parle derrière ces récits ? Le design est-il soluble dans la fiction ? Après avoir séparé les registres esthétiques et discursifs, nous proposons une compréhension du design au fait de la « pluralité » humaine (Hannah Arendt).

Repenser les modes de production et de transmission des savoirs

Date

novembre 2018

Type

Conférence

Contexte

Conférence et présentation de l’essai Design et humanités numériques à l’EPFL de Lausanne dans le cadre du cycle « DH Distinguished Lecture Series »

Résumé

Alors que la plupart de ses projets s’incarnent dans des interfaces en ligne, les humanités numériques – ce champ à la croisée de l’informatique et des sciences humaines et sociales – ne se sont que trop peu préoccupées des enjeux du design. Le recours quasi systématique à des formats de publication automatisés (templates, etc.) montre en creux que l’aspect sensible existe toujours, y compris quand il est impensé. Il ne faut donc pas limiter le design à une recherche de lisibilité ou d’ergonomie, mais l’ouvrir à une vraie réflexion concernant les formes des publications de recherche et les modes de production et de transmission des savoirs. Au-delà d’une approche utilitaire, la constitution d’archives et de corpus de connaissances en ligne – soustraite à des objectifs de rentabilité – pourrait ainsi être vue comme l’occasion de s’interroger sur les rôles que peuvent jouer les designers au sein de ces projets. Pour peu que le couple informatiqueSHS fasse place au design, les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques. Nous proposerons quelques pistes de travail allant dans ce sens.

De la sémiologie graphique aux Cultural Analytics, les failles de la mathématisation du visible

Date

décembre 2018

Type

Conférence

Contexte

Communication dans le cadre des journées d’étude « Objectivité et design graphique : l’interdisciplinarité entre art, image et science », dir. Anne-Lyse Renon et Catherine Allamel-Raffin, université de Strasbourg.

Résumé

Cette communication propose de resituer dans l’histoire de la cartographie topographique du 18e siècle l’émergence, au 19e siècle, de l’objectivité scientifique. Prolongée efficacement au 20e siècle dans la « sémiologie graphique » de Jacques Bertin, cette rationalité du visible influencera largement le champ de la visualisation de données. Cette prise de recul nous permettra d’analyser le récent domaine des Cultural Analytics, qui ambitionne de modéliser les productions culturelles humaines par l’analyse de grands jeux de données. Nous nous demanderons ainsi jusqu’où cette volonté de mathématisation du visible est-elle tenable.

Repenser les interfaces du savoir

Date

janvier 2019

Type

Conférence

Contexte

Conférence à l’occasion des Rencontres crossmédias IDEFI CréaTIC, dir. Ghislaine Azémard & Arnaud Laborderie, MSH Paris Nord

Résumé

Alors que la plupart de ses projets s’incarnent dans des interfaces en ligne, les humanités numériques – ce champ à la croisée de l’informatique et des sciences humaines et sociales – ne se sont que trop peu préoccupées des enjeux du design. Le recours quasi systématique à des formats de publication automatisés (templates, etc.) montre en creux que l’aspect sensible existe toujours, y compris quand il est impensé. Pour peu que le couple informatique/SHS fasse place au design, les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques. Nous proposerons quelques pistes de travail allant dans ce sens, avec un focus sur les interfaces numériques des collections en ligne.

Assistants vocaux : quelles voies pour le design ?

Date

avril 2019

Type

Conférence

Contexte

Introduction à la journée d’étude « HyperVoix », corganisée avec Julien Drochon et la Fing, Paris, Le Square / Ensci

Résumé

Apparu dans les objets grand public depuis une dizaine d’année, le récent succès des assistants vocaux s’appuie sur des promesses de fluidité et de transparence. Or ces notions oblitèrent les considérables moyens techniques nécessaires à leur fonctionnement, et le fait que les langues et les programmes sont le résultat de constructions sociales. Censées apporter plus de confort et de fluidité, les interfaces dites « naturelles » annihilent toute réflexivité car la médiation graphique entre le système technique et nos capacités de prise de décision a disparu.

Capitalisme cognitif et économie de l’attention : vers un design à sens unique ?

Date

mai 2019

Type

Conférence

Contexte

Communication dans le cadre de la chaire de philosophie à l’hôpital, séminaire « Design with Care », dir. Cynthia Fleury et Antoine Fenoglio (Les Sismo), Paris, Cnam

Résumé

Alors que nous manquons encore de recul pour comprendre ce que les média, flux et interactions numériques nous font, font avec nous, ou font contre nous, quels autres modes de conception et modèles économiques peut-on inventer ? Comment une compréhension plus fine des différentes théories psychologiques pourrait-elle permettre de déjouer une certaine approche neurocognitiviste assimilant le psychisme humain à une commutation de circuits ? Pourrait-on permettre au plus grand nombre de comprendre et d’accéder aux paramètres façonnant l’attention en contexte numérique ? Le design pourrait-il devenir, à rebours de l’exploitation de nos vulnérabilités psychiques, l’endroit d’une possible « écologie de l’attention » ?

Notre monde vampyroteuthique

Date

août 2019

Type

Conférence

Contexte

Conférence-performance au Marseille Octopus Worldwide 2019 / Festival du Poulpe, Marseille, piscine naturelle du Vallon des Auffes

Résumé

Anthony Masure et Élise Rigot sont deux chercheurs en design. Ils sont allés au fond des abysses pêcher un étrange ouvrage de fiction philosophique, le Vampyroteuthis Infernalis. Cet étrange récit date du début des années 1980 : il a été écrit en Provence par le philosophe Vilém Flusser, et illustré par l’artiste paranaturaliste Louis Bec. Animal des enfers, l’octopode y devient le miroir des médias et de notre humanité. Afin de suivre en image le récit qui sera proposé, un site Web mobile, créé pour l’occasion, sera accessible le jour J pour les visiteurs.

Apprendre des abysses : les humanités numériques face aux machines du deep learning

Date

septembre 2019

Type

Conférence

Contexte

Communication dans le cadre du colloque « Humanités numériques et computationnelles », université Côte d’Azur, Académie d’Excellence « Homme, Idées et Milieux », Nice, Centre Universitaire Méditerranéen

Résumé

Prenant de l’ampleur au tournant des années 2010, les modalités d’intelligences artificielles dites d’« apprentissage profond » (deep learning) reposent sur une architecture technique structurellement opaque : le programme informatique n’est plus modélisé en amont mais résulte, par rétroaction, du couplage entre des entrées (inputs) et des sorties (outputs) « étiquetées ». En automatisant de plus en plus de tâches – y compris dans les champs de l’art et du design –, ces boîtes noires (black boxes) échappant à l’entendement humain bousculent les actuelles catégories éthiques ou morales. Mais si l’on considère que les machines, par effet de miroir, révèlent la part « inhumaine » de l’humanité, la partition humain/machine a-t-elle encore un sens ? S’inscrivant dans le dépassement de cette opposition, le travail critique des technologies du deep learning par l’art et le design montre comment des capacités considérées comme « humaines » peuvent en fait relever d’un caractère machinique. Dès lors, cela ne conduirait-il pas à remettre en cause l’expression même d’« humanités numériques » ?

Thinking Machines

Date

janvier 2020

Type

Conférence

Contexte

Conférence avec Alexia Mathieu, responsable du Master Media Design de la HEAD – Genève. Séance inaugurale du cycle « Machine Vision : surveillance, simulation, spéculation », Paris, Le BAL

Résumé

Bien que le concept d’« intelligence artificielle » (IA) soit déjà ancien, sa présence ne cesse de s’intensifier, que ce soit dans la presse, la pop culture, ou les objets du quotidien. Des approches critiques se développent, par exemple face aux dérives sécuritaires de ces technologies, ou face à la précarisation des « tâcherons du clic » invisibilisés par ces promesses d’innovation. Comment ces enjeux sociaux sont-ils abordés par les métiers dits de la « création », eux-mêmes en proie à des risques et opportunité d’automatisation ? Qu’est-ce que le design peut faire « avec » les intelligences artificielles ? Comment aborder ces questionnements dans des situations pédagogiques ?

Design & attention : captation des esprits

Date

septembre 2020

Type

Conférence

Contexte

Interview pour le podcast « Design MasterClass », no 10, « Design & attention : captation des esprits ».

Résumé

Podcast «  Design MasterClass  », n o  10, «  Design & attention  : captation des esprits  », 7 septembre 2020 «  L’attention est une faculté naturelle indispensable à la survie. Pourtant, il est facile d’oublier à quel point on ne la maitrise pas. L’essor et l’accélération des technologies d’information et de communication ont donné naissance à un capitalisme cognitif dont l’ingrédient est notre attention. Aujourd’hui, l’attention que nous consacrons aux choses à une valeur marchande. Elle est constamment chassée, captée et monétisée dans ce qu’on peut appeler l’économie de l’attention. Le design, en tant que force créatrice de l’environnement attentionnel, joue un rôle primordial dans cette économie. Sylvia Fredriksson, Anthony Masure, Mellie La Roque et Lénaïc Faure sont nos invité•es pour examiner la place du design, des designers et designeuses dans cette économie de l’attention. Cet épisode à été enregistré à distance durant la période de confinement, il se compose de 3 chapitres  : – 01:30 • Chapitre 1  : Le capitalisme cognitif – 13:40 • Chapitre 2  : Le design attentionnel – 40:03 • Chapitre 3  : L’éthique et la responsabilité dans le design – 56:48 • Conclusion Vous souhaitez approfondir et mieux comprendre ce sujet  ? Nous avons compilé une liste de ressources que vous pouvez retrouver ici 👉 http://bit.ly/dmc-10-ressources. Cet épisode à été réalisé et monté par Alex Mohebbi avec l’aide de Anthony Adam. Les voix-off sont de Anaïs Texier. »

Promesses, limites, bifurcations : du « design pour la vie » aux angles morts du numérique

Date

septembre 2020

Type

Conférence

Contexte

Communication au colloque « Angles morts du numérique. Limites de la programmation », dir. Yves Citton, Francis Jutand, Marie Lechner, Anthony Masure, Vanessa Nurock, Olivier Lecointe, Cerisy-la-Salle.

Résumé

Quels sont les angles morts du numérique que le design permet d’éclairer ? À quels problèmes les technologies numériques sont-elles aveugles ? En quoi les choix – ou non choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer ?

Design and Machine Learning: Automation Takes Command?

Date

octobre 2021

Type

Conférence

Contexte

Conférence dans le cadre du cycle « Design experiences », Prague, Department of Design, FA ČVUT. Version anglaise retravaillée d’une communication donnée à l’Esad Reims en avril 2021.

Résumé

Neural artificial intelligences (AI) have been finding their place in creative industries for several years. While deep learning technologies are most often considered from the perspective of automation, we propose to consider them also from the perspective of the concept of mechanization to emphasize the possibility of working “with” machines rather than surrendering their potentialities to economic forces. How might design contribute to defusing the dominant AI culture? How can we ensure that deep learning technologies can open up to invention and curiosity? How could (or should) design curricula be reconfigured?

Design & machine learning

Date

novembre 2021

Type

Conférence

Contexte

Intervention à la « commission interparlementaire de contrôle HES-SO », en présence d’une cinquantaine de député·es de Suisse romande et de la rectrice.

Résumé

L’intelligence artificielle, ou plutôt le machine learning, est de plus intégré et masqué dans des programmes et objets du quotidien.

Interview pour l’émission « Dans ton Campus » de la radio Fréquence Banane

Date

novembre 2021

Type

Conférence

Contexte

Entretien radiophonique avec Baptiste Leduc pour l’émission « Dans ton Campus » de la radio Fréquence Banane.

Résumé

Émission complète ici — Émission «  Dans ton Campus  » de la radio Fréquence Banane Studio genevois de la radio Fréquence Banane, novembre 2021

Création sous artifices. Mutations du design à l’ère du machine learning

Date

septembre 2022

Type

Conférence

Contexte

Intervention aux journées d’étude « Enjeux éthiques et esthétiques de l’Intelligence Artificielle », Université de Strasbourg, Littératures, éthique & arts – Lethica.

Résumé

Affiche de l’évènement La prochaine École d’Automne de l’ITI Lethica se tiendra du 28 au 30 septembre 2022 autour des enjeux éthiques et esthétiques de l’Intelligence Artificielle. Abordé dans le cadre de l’École d’Automne 2021, ce sujet a été choisi pour son actualité contemporaine, mais également pour son interdisciplinarité et sa proximité avec les quatre thématiques centrales de Lethica  : Révolution morale  : accepterons-nous la présence d’intelligences artificielles dans nos vies  ? Quel statut moral, juridique, philosophique leur accorderons-nous le cas échéant  ? Triage : dès lors que l’intelligence artificielle peut être appelée à faire des choix, comment anticiper sur ces éventuels arbitrages  ? (cas, par exemple, des voitures automatiques). Transparence et secret : La gestion de nos données personnelles peut-elle être confiée à une intelligence artificielle  ? Faut-il avoir peur des big data ? «  Faire cas  » : Une intelligence artificielle peut-elle «  faire cas » ? Peut-elle être chargée de veiller sur les plus faibles (personnes âgées  ; enfants) ? Peut-elle elle-même devenir un «  cas  », c’est-à-dire développer une forme de singularité ? Pour discuter de ces questions, Lethica a choisi de solliciter des spécialistes issus de domaines variés (littératures, éthique, arts, mais aussi informatique et philosophie) : certains invités sont des chercheurs polyvalents, situés à la croisée de plusieurs disciplines  ; d’autres sont engagés dans des pratiques de recherche et de création (ou de recherche-création) ; d’autres encore sont des artistes ou des écrivains bénéficiant d’une reconnaissance nationale et internationale.

IA – État des lieux

Date

mars 2023

Type

Conférence

Contexte

Présentation didactique à destination du conseil de direction de la HEAD – Genève.

Résumé

Le grand public a pris conscience du développement des IA via des services orientés divertissement et création tels que DALL·E (janvier 2021), MidJourney (juillet 2022) ou ChatGPT (novembre 2022). Comment comprendre cette actualité ?

Vers une informatique invisible : l’art et le design face aux neurosciences

Date

mars 2023

Type

Conférence

Contexte

Communication dans le cadre de la journée « Arts et neurosciences : nouveaux terrains d’expérimentations » (dir. Justine Emard), Nantes, Stereolux.

Résumé

Les liens entre informatique et psychologie hantent l’informatique depuis ses débuts, qu’on pense à l’augmentation des facultés intellectuelles par la machine (Vannevar Bush) ou le développement d’un cerveau électronique capable de remplacer l’humain dans certaines tâches (Alan Turing). Alors que plusieurs approches psychologiques coexistaient aux débuts de la cybernétique – allant de la psychanalyse aux neurosciences – celles-ci vont progressivement se resserrer autour d’une visée comportementaliste (où domine la recherche de performance et d’efficience) que l’on retrouve aujourd’hui dans les interfaces dites « neuronales », c’est-à-dire qui fonctionnent en visualisant l’activité des neurones. Leur développement s’inscrit dans le paradigme de « l’informatique ubiquitaire », développé par Mark Weiser à la fin des années 1980, et qui prône la réduction des médiations entre l’humain et la machine au profit de leur intégration dans le quotidien. Si cette visée aura facilité les usages de l’informatique via le développement d’interfaces « naturelles » (tangibles, vocales, et désormais neuronales), elle engendre plusieurs problèmes tels que le formatage des expériences, la collecte de données sans consentement, ou encore le syndrôme de la réponse unique. Pour les champs de l’art et du design, ces technologies rejouent l’idée romantique du « génie », qui « créé » dans l’instant, sans barrière avec le contact avec la matière – une idée au cœur des fantasmes de l’apprentissage automatique (deep learning) et des générateurs en tout genre. Il s’agit alors de savoir ce que peuvent faire l’art et le design en contexte de technoscience afin que les programmes des interfaces neuronales, encore en émergence, ne se limitent pas à des dispositifs prescriptifs.

Design sous artifice, présentation au séminaire ArTeC

Date

avril 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice au séminaire ArTeC (Paris), suivie d’une discussion avec Pierre-Damien Huyghe.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles. Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

De la sémiologie graphique au machine learning : les sciences sociales au prisme de l’automatisation

Date

avril 2023

Type

Conférence

Contexte

Intervention au colloque international « Design et sciences humaines et sociales », Carthage, Académie des sciences, des lettres et des arts (Beït Al-Hikma).

Résumé

Le projet de recherche DESIGNSHS, financé par l’ANR (2021-2025), étudie les relations entre design graphique et recherche en sciences humaines et sociales, des années 1950 à nos jours, via l’histoire du Laboratoire de graphique (1954-1985) de Jacques Bertin – qui a été un acteur historique majeur de ce mouvement de par ses travaux pionniers en cartographie et design d’information. Cette conférence situera les bases de ce laboratoire et du projet de recherche DESIGNSHS afin d’en montrer les résonances contemporaines, notamment dans les champs de la dataviz, des cultural analytics et du machine learning.

Appareiller les plateformes de partage du savoir

Date

mai 2023

Type

Conférence

Contexte

Conférence donnée dans le cadre du séminaire « Design graphique et sciences sociales », session « Visual analytics et humanités numériques », dir. Charlotte Bigg, Paris, EHESS.

Résumé

Cette communication traitera des enjeux des interfaces de partage du savoir. Si l’on comprend la recherche comme la production de nouvelles connaissances, qu’en est-il de la façon dont celles-ci sont « formées » visuellement ? Autrement dit, que gagnerait-on à ne pas opposer production et communication mais à les étudier de façon entrelacée ? Suffit-il de produire des connaissances pour qu’elles soient opérantes ? Nous proposons d’aborder ces questions sous l’angle des plateformes scientifiques d’archivage et de consultation de documents historiques afin de situer le livrable principal du projet ANR #DesignSHS dans un écosystème plus large : comprendre ces plateformes non pas comme des « outils » mais comme des appareillages de savoirs.

Adrien Gonauer
Epreuves de la tradition. Le numérique comme outil de narration dans les contes

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Légende, fable, fiction, récit d’événements imaginaires, le conte remplit un double objectif : plaire et éduquer. Les approches analytiques ont souligné son caractère d’universalité, et mis en lumière son rôle pédagogique. Générateur d’espace transitionnel, il permet à l’enfant d’initier son apprentissage de la société et des règles qui la régissent. Avec l’avènement du numérique et l’apparition des interfaces graphiques, un nouvel avenir se propose aux contes. Comment modeler la « matière numérique » afin qu’elle serve la narration ? Comment conserver la fonction de tremplin vers l’imaginaire ? Pour que le passage de l’écrit au numérique puisse s’effectuer au bénéfice du conte, il est nécessaire d’être conscient des enjeux graphiques mais aussi éthiques qui en découlent.

Antoine Cadoret
Usage et autonomie. Le smartphone comme outil de mobilité

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Ce mémoire a pour volonté de démontrer que l’usage du numérique grand public a changé avec les terminaux mobiles connectés : nouveau rapport à la communication (disponibilité), façon de penser (accès instantané à l’information). Mais aussi qu’ils ont apporté de nouveaux codes d’utilisation (gestes, ergonomie), spécificités graphiques (format, utilisation du doigt). Dans un second temps il sera abordé la notion d’accessibilité numérique. L’accessibilité est connu de tous mais elle est encore peu mise en pratique en France. « On ne peut pas concevoir un objet qui desservirait », il est en effet difficile d’admettre qu’une équipe de conception ferait exprès d’entraver l’utilisation de leur appareil aux utilisateurs handicapés. Ce n’est pas une volonté de rendre inaccessible un smartphone mais plutôt un manque d’implication concernant leurs usagers. C’est pourquoi, de plus en plus, les entreprises doivent rendre leurs contenus accessibles. Mais pour qu’elles le fassent un effet d’inertie doit être lancé. Et ce doit être aux institutions de montrer l’exemple.

Médias

Arianne Derville
La place du signe dans les espaces scolaires

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

École. Cinq lettres pour une multitude de notions. Des souvenirs pour les adultes, le quotidien pour les enfants. Ce mot peut susciter des sentiments très divers selon l’atmosphère et les évènements qui y sont rattachés. L’école, c’est aussi une structure, des couloirs, des portes ouvertes et fermées. Ces détails, insignifiants pour l’adulte, sont capitaux pour l’enfant. À l’arrivée dans ce nouveau bâtiment, l’enfant doit en effet s’adapter à ce nouvel espace. Alors que l’on souhaite encourager l’enfant à devenir responsable, selon les écoles, le signe, principale source du langage, de la communication adulte et de l’autonomie y est soit refusé, soit absent, soit omniprésent. Un pêle-mêle de convictions pour un même but. Quel est le juste milieu ? Un ensemble de signes qui encouragerait l’autonomie de l’enfant sans le brusquer et qui l’aiderait à s’approprier l’espace est-il possible ?

Audrey Lorel
Images de la guerre | Guerre des images

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Il y a un peu plus de soixante ans, l’humanité a été libérée du nazisme. Au lendemain de la guerre, une seule justification : « On ne savait pas ». Aujourd’hui, on a en notre possession l’expérience de l’horreur et l’ensemble des outils pour que plus jamais cela ne se reproduise. Pourtant, pour la première fois depuis longtemps, la France s’est trouvée cette année engagée dans quatre guerres à la fois, sans parler des conflits largement passés sous silence dans la presse nationale. Mais ce sont toutes les aberrations du quotidien qui altèrent chaque jour un peu plus la frontière entre indignation et voyeurisme, entre information et divertissement. Pourtant, « on en a marre de toutes ces images de guerres ». De quelles manières les faiseurs d’images peuvent-ils éduquer le regard des gens et influer sur leur perception de l’actualité ? Comment le graphisme peut-il rétablir le poids des événements ?

Christophe Neumann
Transmédia : Qui règne sur les mondes fictifs ?

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Transmédia. Nouvelle manière de raconter les histoires, évolution audiovisuelle, intéressons-nous aux raisons de cet engouement. En analysant le phénomène de la franchise Star Wars, nous parviendrons à mieux comprendre la mécanique derrière la narration transmédia. Poursuivons ensuite avec un décryptage du concept de fiction. Narration, média et transmédia, modes de financement, nous tâcherons de poser les bases nécessaires à la compréhension de cette nouvelle manière de raconter. Plongeons ensuite au sein des communautés de fans, coeur du dispositif transmédia. Partageons l’espace d’un instant leurs motivations, leurs règles et leurs sentiments. A travers plusieurs exemples, nous verrons ce qui alimente cet amour et ce qu’ils attendent d’une oeuvre de fiction. Enfin, assistons à une lutte pour le pouvoir, symbole d’un conflit d’autorités, symptôme d’un système de références emphatiques qui confine à la canonisation et à la religion. Affrontement et défi, foi et réalisme, l’équilibre délicat derrière chaque fiction transmédia concourt à définir qui régnera sur un monde de fiction dont on attend beaucoup. Créateur, producteur et fans, appât du gain, gloire ou respect, est-ce possible de les départager ?

Maja Puljak
La publicité peut-elle contribuer au changement social positif ?

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Dès l’antiquité des affiches annonçaient les combats de gladiateurs, au Moyen-Âge les crieurs vantaient les qualités des marchands, et les troubadours transmettaient à leurs sujets les messages des rois. La démarche publicitaire n’est pas un phénomène nouveau. Elle s’est développée jusqu’à devenir aussi importante que le produit qu’elle représente. La publicité sur le web s’instaure suivant le même modèle que celui appliqué aux médias traditionnels. Les publicitaires cherchent à la dissimuler afin de pouvoir toucher la cible sans provoquer la méfiance. Cette dissimulation perfide n’a telle pas causé la méfiance envers les médias eux-mêmes ? Il y a t-il de la sincérité dans les sourires publicitaire ? Le monde virtuel est un refuge de toutes ces incertitudes, un endroit idéalisé où tout est possible. La publicité, peut-elle contribuer à un changement social positif ?

Eloise Gouby
Saisissez votre légende ici

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

« Saisissez votre légende ici » parle du discours, du langage, de la littérature qu’engendre la photographie. Ce mémoire aborde les mutations de la légende à travers son support photographique, médium des réels et des réalités aussi multiples que personnels. Une légende mutante se dessine, un discours ou mots et images ne se disputent jamais mais se complètent. De la photographie de presse et ses images iconiques, de l’histoire des albums de famille du début du 19e siècle à Instagram et Facebook en passant par la recontextualisation par le livre ou les expositions, la légende est présente, partout, écrite, griffonnée, parlée, narrée, mise en scène ou silencieuse. Les légendes sont cachées ou dévoilées, telles les légendes numériques propres à Internet. Car s’il y a autant de narrations du réel que d’êtres humains, alors il y a au moins autant de légendes photographiques.

Design sous artifice : la création au risque du machine learning

Date

mars 2023

Type

Contexte

Cet essai a été réalisé dans le cadre du projet de recherche « Design et machine learning : l’automatisation au pouvoir ? », financé par la HES-SO et conduit par Anthony Masure de 2022 à 2023 à la HEAD – Genève avec Alexia Mathieu, Douglas Edric Stanley, Élise Gay et Kévin Donnot. Site Web du projet : www.design-machine-learning.ch.

Résumé

Au début des années 2020, portés par les progrès des « intelligences artificielles », des programmes comme GPT-3, DALL·E, Midjourney ou Disco Diffusion permettent de générer des images à partir d’instructions textuelles. Bien que ces productions ne font souvent qu’imiter des données existantes et manquent de diversité, les débats médiatiques ont tendance à se polariser sur le remplacement des humains par la machine. Ce faisant, ils font écran à la question essentielle : quel est le spectre des implications actuelles et potentielles du machine learning pour les pratiques de design ?

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias