Date
avril 2012
Type
PublicationContexte
Anthony Masure, « Braun/Apple, des survivances paradoxales », Reel-Virtuel.com, no 3, « Archéologie des nouvelles technologies », avril 2012
Résumé
Si les appareils font époque, leur invention précède leur découverte. La nouveauté est recouverte de formes anciennes, qui permettent de faire accepter socialement l’innovation. Nous discuterons ces hypothèses en étudiant le design des objets Apple, qui reprennent les formes élaborées par Dieter Rams chez Braun dès 1950. Comment penser ces survivances paradoxales ? Faut-il y voir un échec des nouvelles technologies à formuler un vocabulaire esthétique singulier ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
septembre 2013
Type
PublicationContexte
Anthony Masure, «Rencontres de Lure 2013: amateurs et typothèses», Strabic.fr, septembre 2013
Résumé
D’abord cercle d’amis fondé dans les années 50, élargi en «école» (au sens de lieu d’autoformation et non de chapelle), l’association des Rencontres de Lure s’est ouverte depuis une trentaine d’années à tous les curieux de la chose graphique. Aujourd’hui, après 61 années d’existence, elle regroupe un public hétérogène et passionné qui se réunit chaque été dans ce lieu retiré des Alpes de Haute-Provence. « J’ai en esprit une phrase de Plotin – à propos de l’Un, me semble-t-il, mais je ne sais plus où, ni si je la cite correctement : « Personne n’y marcherait en terre étrangère » 1 Yves Bonnefoy, L’arrière-pays, Paris, Flammarion, coll. Les sentiers de la création, 1992, p. 7.. » Le visiteur qui revient des Rencontres de Lure est confronté à un double embarras : l’impossibilité de rendre compte de l’esprit du lieu, et la longue attente de la prochaine édition. Les Rencontres sont nées autour de 1950, de l’amitié de Jean Giono et du typographe Maximilien Vox. Subjugué par la beauté des montagnes, Vox achètera et reconstruira plusieurs maisons du village de Lurs-en-Provence, alors en ruine. Vox en profitera pour y initier des « retraites graphiques », au ton monacal. Reste de cette époque l’exigence de la réflexion, le temps du recul, l’esprit des lieux où de nombreuses pierres portent une histoire toujours vivante. Volontairement discrètes, les Rencontres de Lure accueillent chaque année autour de 80 personnes (un peu plus pour le cru 2013, qui a battu les records de fréquentation!). Nicolas Taffin préside depuis 2006 l’association (les conférences sont payantes pour couvrir les frais de fonctionnement). Cette fine équipe pratique une éthique de l’ouverture et s’efforce de mélanger les générations et disciplines. Après/Avant, une revue de culture graphique rouge et bleue C’est dans l’ignorance de cette histoire très dense que j’ai été invité par Adeline Goyet à rédiger un article dans la nouvelle revue Après\Avant. Particularité graphique, cet objet éditorial joue comme portfolio de la création contemporaine typographique. Un appel à contribution a été lancé, avec grand succès puisque la revue comporte au final une cinquantaine de polices de caractères différentes, toutes créditées ! L’habile et cauchemardesque maquette (réalisée par Sandra Chamaret et Julien Gineste) permet d’unifier tous les contenus par le recours à une bichromie rouge et bleue. La revue donne à lire des points de vue sur les conférences de l’édition précédente et s’écarte ainsi de la volonté de retranscrire fidèlement les paroles exactes, qui resteront à Lurs. Le deuxième temps de lecture initie la prochaine thématique, en l’occurrence : « l’amateur ». L’imprévu des programmes Afin de clarifier mes réticences quant à ce thème, j’ai proposé un court article intitulé « Que fait l’amateur ? ». Si l’on considère que l’amateur (de amator : celui qui aime) redonne du temps à ses objets d’étude, il est dans le même temps pris dans des logiques de récupération et de captation de ses productions. Dès lors, la responsabilité du designer serait de créer des objet qui « font faire », afin de permettre aux amateurs, que nous sommes peut-être tous, de pouvoir adopter l’altérité du monde. Amateur de rencontres, j’ai naturellement accepté l’invitation lursienne pour me permettre de développer ces premières idées. J’ai effectué une sélection de quelques points clés de ma thèse 2 Anthony Masure, Le design des programmes, thèse en cours de rédaction sous la direction de Pierre-Damien Huyghe, Université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques., pour discuter l’idée que certains programmes « conditionnent » la création numérique, tandis que d’autres sont moins de l’ordre d’une planification. Il est donc important pour les amateurs et designers de déplacer leurs systèmes de références afin de faire place à l’imprévu. Me voilà donc parti dans la montagne. Le coup de bleu Je débarque donc le dimanche 25 août 2013 en gare de La Brillane-Oraison en compagnie d’autres amateurs de rencontres. De là, nous sommes conduits en haut de la montagne, où je prends place dans le superbe gîte-dortoir communal, qui sera vite rebaptisé Gîte-Hub. La vue sur la vallée et les vieilles pierres installent d’emblée une ambiance de recul, je pressens que la semaine ne ressemblera pas à ce que je connais, et que c’est bien moi qui ferai l’expérience de « l’imprévu des programmes », titre de mon intervention. Ma première tâche consiste à préparer la salle des repas, installer les tables et chaises pour une centaine de convives. Mes acolytes-ouvriers procèdent alors à une réflexion sur la grille pour aligner consciencieusement le mobilier, dont les nappes seront recouvertes pendant la semaine de recherches typographiques diverses. N’importe quelle scène du quotidien peut devenir l’endroit de jeux de mots et déplacements improbables. La salle étant rangée, nous voici donc en marche sur la crête de la montagne pour le traditionnel « coup de bleu », un apéritif improvisé à la lumière particulière du paysages à la tombée de la nuit. Je reconnais ça et là des visages familiers de Twitter, ou des noms dont le souvenir m’échappe parfois. La nuit tombe sur Lurs, ma peau passe du bleu au rouge. Une bande d’activistes Lundi matin, début des conférences à 9h30. L’amateur est évidemment au centre des débats, Nicolas Taffin ouvre la semaine, suivi rapidement de Frank Adebiaye, qui animera chaque matin un feuilleton décalé et savant traitant des figures de l’amateur. J’écoute avec grande attention l’intervention d’André Gunthert (EHESS), qui propose dès 10h à l’assemblée d’en finir avec le terme d’amateur : la semaine vient à peine de commencer que la thématique est détruite ! Pour Gunthert, l’amateur est l’œuvre des institutions et experts qui « sabotent » tout ce qui n’est pas de leur sein en disqualifiant ce qui leur est extérieur. « Ne parlons plus des amateurs » car plus personne ne croît aux récits héroïques d’émancipation. On confond démocratisation et extension, refusant souvent de prendre en compte dans nos analyses les personnes et facteurs hostiles aux changements, les « saboteurs ». Il nous faut réinventer la possibilité de créer des œuvres collectives et anonymes, ce qu’on savait faire avant la Renaissance. Gunthert propose pour finir de remplacer « amateurs » par « activistes », pour mieux qualifier la dimension subversive de ce que fait l’amateur aux productions culturelles. Deuxième coup de bleu, me voilà donc faisant partie d’un groupe d’activistes. Typothèses de recherche Les autres interventions de la première journée traiteront du Comic Sans (« le doudou de la typo »), de l’application Vine, du « tout le monde est graphiste », et la journée se conclura par le défilé des loufoques créations « typonoclastes » de Jean-Jacques Tachdjian, dont la police Hermetica serait parfaite pour ma thèse. Il est déjà l’heure d’aller déranger la grille de la salle des repas. Heureusement, personne ne ronfle dans le Gîte-Hub. Mardi matin, c’est donc à moi de commencer la journée. Les questions du public sont variées, de l’exemple de IA Writer pour désencombrer nos interfaces, à André Gunthert qui me titille sur les conditionnements culturels, qui sont aussi importants que ceux de la technique. Je peux aller me rasseoir et continuer mon live-tweet en réseau Edge (la foudre a cassé le boitier ADSL deux jours avant le début des Rencontres). Je capture ce que je peux de l’intervention de Jean Alessandrini, qui n’avait plus mis les pieds à Lurs depuis 35 ans pour des querelles portant sur sa classification typographique concurrentielle de celle de Maximilien Vox. Son retour en grâce fut mis en scène par Olivier Nineuil, qui organisa la présentation des travaux autour d’une carte mentale de pas moins de 530 images ; grand moment pour certains et mal de mer pour d’autres. Les discussions continueront toute la semaine au « Buffalo grid » et ailleurs, mon intention de venir à Lurs pour discuter d’hypothèses de recherche en cours est pleinement réalisée. J’accapare André Gunthert pour discuter de Walter Benjamin et de l’histoire de la photo. C’est passionnant de rencontrer des activistes, finalement. Baignade et colliers de PERL Mercredi, tout le monde part en car à Marseille pour une journée off, une vraie colonie pour adultes ! Activités au choix : baignade, musée ou visites urbaines. Jeudi, reprise des hostilités. Naviguant des tampons à l’archivage du web, je retiendrai surtout la réédition par Alexandre Laumonier (fondateur de la maison d’édition Zones Sensibles du Dictionnaire historique et critique de Pierre Bayle de 1702. Après avoir fait le tour des principaux enjeux historiques, philosophiques et économiques que pose le projet de rééditer aujourd’hui un livre qui fait à l’origine 4000 pages (le correcteur a mis un an à traiter 1% du contenu !), Alexandre Laumonier pose très justement le fait que rééditer ces pages sans conserver la mise en page d’origine n’a aucun sens. Il s’agit donc de trouver des procédés techniques pour relier les notes de notes de notes entre elles, géniales compositions page par page qui donneraient des cauchemars à n’importe quel maquettiste d’aujourd’hui. Tous les nerds luriens de la salle ont senti leur cœur se nouer quand fut faîte la démonstration de requêtes GREP InDesign servant entre autres à gérer de la micro typographie, ainsi que d’un script PERL pour extraire des statistiques de composition de n’importe quelle page du document, qui fut repris depuis le début de très nombreuses fois ; plus de 10 années de travail. Meta nights Après une nuit où la place du village improvisée en sound system aurait pu générer une nouvelle affaire Dominici, nous revoilà vaillants pour écouter Joe la pompe himself en cagoule, pour protéger son identité des « pompeurs de pubs ». Je découvre l’œuvre et les archives de Gérard Blanchard, typographe, dont les écrits ont de quoi occuper des générations de transcripteurs. Les codeurs de la salle en reprennent un coup, avec David Vallance qui nous présente son projet de DNAT tournant autour de Metafont, un langage de description des polices vectorielles développé dans les années 60 par Donald Knuth, une histoire fascinante de la typographie numérique. Venu des États-Unis, Rich Roat de la fonderie House Industries clôture de fort belle manière cette semaine des amateurs par un show à l’américaine, la culture du goodies et du toujours plus. C’est déjà la dernière nuit. Coup de blues La semaine graphique s’ouvrait par le « coup de bleu », elle se termine par le « coup de blues ». Les derniers lurons échangent sur la semaine, et déjà place à la prochaine édition avec un brainstorming de la prochaine thématique, qui se poursuivra dans le TGV pour Paris. Coup de gris, la montagne reprend ses droits. Pour les joyeux amateurs de #Lure2014, l’attente sera longue. On rebranche quand ? Remerciements chaleureux à l’équipe des Rencontres de Lure pour leur hospitalité légendaire et pour leur organisation tirée au cordeau. Merci à Thibéry Maillard pour les images. En savoir plus : Un très bon article du blog Graphéine sur l’histoire et les secrets des Rencontres de Lure.
Notions
Personnes citées
Objets mentionnés
Médias
Date
décembre 2018
Type
PublicationContexte
Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »
Résumé
Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?
Notions
Personnes citées
Date
décembre 2022
Type
PublicationContexte
Article rédigé pour la revue de recherche Multitudes, no 89, « Design is the answer, but what was the question? », dir. Francesca Cozzolino, Emanuele Quinz, Barbara Szaniecki.
Résumé
Terrain d’étude privilégié des productions industrielles, le design est pointé aujourd’hui comme un champ à reconstruire. Depuis quelques années, il se voit affublé d’une multitude de qualificatifs : « écodesign », « design social », « design éthique », « design inclusif », etc. On peut se demander si cette tendance à le renommer ne met pas en évidence une difficulté à comprendre ce qui pose problème dans le design « tout court » : le design aurait‑il perdu de sa force subversive pour être désormais parfaitement intégré aux forces productives ? Comment situer le rôle ou la tâche du design, pris entre désir et besoin, entre économie et morale ? Existe‑t‑il une responsabilité propre au design ?
Notions
Personnes citées
Objets mentionnés
Résumé
Les humanités numériques, ces pratiques à la croisée de l’informatique et des sciences humaines et sociales, ne se sont que trop peu préoccupées de questions propres au design. Au-delà d’une approche utilitaire, la constitution d’archives et de corpus de connaissances en ligne est pourtant l’occasion de s’interroger sur les rôles que peuvent jouer les designers au sein de ces projets. Dans la situation contemporaine d’une numérisation du monde marquée par une oligarchie des plateformes, les humanités numériques et le design devraient ainsi œuvrer à dérouter la captation des connaissances et les déterminismes technologiques. Des savoirs et pratiques hybrides Les humanités numériques désignent communément un champ de recherche à la croisée de l’informatique et des sciences humaines et sociales (arts, lettres, histoire, géographie, etc.). Initiées dans les années 1950 grâce au traitement électronique de données permettant d’analyser de grands corpus de textes, les humanités numériques ne décollent vraiment qu’avec le développement du Web au début des années 1990 qui ouvre la voie à des collaborations transdisciplinaires et à la mise en ligne des résultats de recherche. De fait, la plupart des projets en humanités numériques s’incarnent dans des jeux de données interopérables (langages Web SQL, TEI/XML, etc.) et des sites Web dédiés (archives en ligne, visualisation de données, etc.). Ce n’est toutefois qu’en 2010, lors de l’événement THAT Camp Paris, que la communauté francophone se fédère via la rédaction du « Manifeste des Digital Humanities » : ce texte collectif prend explicitement position pour une ouverture des connaissances hors des frontières académiques via l’utilisation de licences libres et de processus collaboratifs documentés. Repenser les façons dont les savoirs se constituent et circulent engendre nécessairement des ruptures épistémologiques. La numérisation de documents antérieurs aux technologies numériques (d’encodage par les nombres) ne laisse pas indemnes les éléments de départ. Une fois encodés, les supports de connaissance se prêtent à de multiples utilisations et contextualisations et peuvent « exister dans des versions différentes, éventuellement en nombre illimité. Ce potentiel est une […] conséquence du codage numérique des médias et de [leur] structure modulaire » (Lev Manovich). De façon plus générale, les humanités numériques font vaciller et s’hybrider les délimitations universitaires. Les logiques de programmation propres à l’informatique voisinent avec celles – par exemple – des historiens, qui peuvent eux-mêmes être amenés à intervenir sur l’architecture de l’information. Apparaissent alors des problématiques mettant en jeu les méthodes de ces différents champs, voire des frictions entre la rationalité des langages formels informatiques et l’incertitude propre aux (vieilles) humanités. Le design comme mise en tension du capitalisme Le paradoxe est que les objets issus des projets en humanités numériques ne reflètent que peu, dans leurs formes, ces tensions épistémologiques. Les interfaces des archives en ligne de documents historiques, par exemple, se ressemblent quelque soit leur fonds de départ. De façon plus dérangeante, les logiques propres à l’industrie des programmes ne sont que peu remises en question. La « facture » des interfaces de consultation demeure majoritairement impensée et reflète souvent les choix « par défaut » des environnements de programmation et des systèmes de gestion de contenus (CMS). De même, dans les rares cas où un designer est présent, cela se fait la plupart du temps en aval des prises de décision propres à l’architecture des données. Le risque est alors d’appliquer sans recul critique des méthodologies propres au design UX (User eXperience), dont l’étude de leur histoire montre qu’elles reposent sur des fondements cognitivistes ayant pour revers de réduire l’expérience humaine à une suite de comportements (modélisations des personas, scripts d’utilisation, etc.). Or l’application de ces processus de conception ne va pas sans poser problème dans le champ des humanités numériques, ancrées dans une culture (du) libre s’opposant à la privatisation des savoirs. De façon plus large, le design « centré utilisateur » inquiète la façon dont « nous » pouvons nous situer dans ces expériences : sommes-nous condamnés à n’être que de simples « utilisateurs » ? Que nous dit cette obsession pour le fait de modéliser l’humanité par des encodages numériques ? Les humanités numériques pourraient-elles – au contraire – devenir l’endroit d’une subversion des technologies et processus dominants ? Nous faisons l’hypothèse qu’une implication du design (et non pas une application, comme le sous-entend l’expression d’« arts appliqués ») au sein des humanités numériques pourrait permettre, tout en facilitant l’accès aux productions de recherche (promesse du design dit UX), d’en renouveler l’approche. L’histoire du design est en effet traversée de tensions entre l’économie de marché et la recherche de dimensions échappant à la rentabilité et à l’utilité. Aux débuts de la Révolution Industrielle, l’artiste et écrivain William Morris souligne ainsi l’importance de penser un « art socialiste » qu’il oppose aux « articles manufacturés [qui] ne peuvent avoir aucune prétention à des qualités artistiques » (1891). Le socialiste, dit-il, « voit dans cette absence évidente d’art une maladie propre à la civilisation moderne et nuisible à l’humanité ». Cette articulation de l’existence humaine à l’esthétique est selon lui la seule façon de parvenir à une « communauté d’hommes égaux ». Remplaçons « socialiste » par « designer », et nous retrouverons à presque un siècle d’intervalle cette idée d’un écart du monde des objets avec le capitalisme dans les écrits du designer Victor Papanek (1971), pour qui le bridage des activités créatives fait que « la morale et la qualité de la vie [souffrent] immensément sous notre système actuel de production de masse et de capital privé ». Il en résulte, selon Victor Papanek, que « le designer doit obligatoirement comprendre clairement [tout comme chaque être humain, pourrions-nous ajouter] l’arrière-plan politique, économique et social de ses actes ». Une vingtaine d’années après Victor Papanek, le critique d’art Jonathan Crary dresse l’histoire des « nouvelles constructions institutionnelles d’une subjectivité productive et contrôlée » apparues au XIXe siècle, dont les enjeux résonnent fortement avec la situation contemporaine d’une société numérisée. Dans Techniques de l’observateur (1990), Suspensions of perceptions (2000), puis 24/7 (2013) Jonathan Crary fait émerger la problématique de l’attention, qui « peut [alors] s’imposer comme un enjeu intellectuel, autant que politique » (Maxime Boidy). Le rapport avec les humanités numériques prend alors sens : face à un monde des apps qui ambitionne de réduire au maximum notre temps de sommeil (24/7), ces dernières pourraient au contraire, via leur recul historique et leur inscription dans la recherche, démontrer que d’autres modalités d’être-au-monde sont possibles. Les humanités numériques ne doivent pas seulement viser la numérisation des connaissances mais également les manières dont cet encodage affecte et transforme les êtres humains. Démontrer que l’informatique personnelle, issue des théories cybernétiques de la Guerre Froide, peut être mobilisée dans des directions insoupçonnées permet de lever l’idée d’un déterminisme technologique. La rencontre entre le design et les humanités numériques, si celle-ci n’est pas de l’ordre d’une commande mais d’une recherche commune, pourrait ainsi permettre d’explorer de nouveaux pans de la connaissance en levant les impensés présidant à la construction et à la valorisation des savoirs en milieux numériques. Vers des humanités critiques Au-delà de la numérisation de corpus et de la mise en ligne, de nouveaux défis attendent donc les chercheurs en humanités numériques pour peu que le couple informatique/SHS fasse place au design. Nous proposons en guise de conclusion quelques directions de travail allant dans ce sens. Réduire la barrière technique de l’accès aux données L’open data est partout convoqué, or on constate dans les faits que la mise à disposition des données nécessite des prérequis techniques souvent trop importants pour des non-spécialistes. Le format tabulaire .CSV est le plus accessible pour commencer à travailler, mais ce dernier n’est pas systématiquement proposé, au détriment de méthodes plus lourdes (récupération de flux JSON via des API, etc.). Le workshop « Fabriquer des jeux de données en art » qui s’est tenu en mai 2018 dans le cadre du groupe de travail « Art, design et humanités numériques » de l’association Humanistica (Clarisse Bardiot et Nicolas Thély) a proposé des méthodologies pédagogiques relatives au champ des digital art history : identification et nettoyage de jeux de données, construction de visualisations, etc. Un outil permettant de générer des fichiers CSV à partir du portail Europeana a été développé à cette occasion. Interroger l’idéal d’une sémantique universelle Le modèle du Web sémantique (Tim Berners-Lee, 2001) ambitionne de relier l’éparpillement des connaissances humaines par le recours à des balises et métadonnées insérées dans les codes source des pages Web (« référentiels d’autorité », etc.). D’une utilité évidente pour sortir d’une approche en silo des initiatives scientifiques, ce processus pose pourtant de multiples défis ontologiques et taxonomiques mal connus des chercheurs et des designers. Comment mieux impliquer ces derniers dans l’élaboration de modèles sémantiques ? Faut-il que cette ambition éclipse tous les autres aspects des projets (enjeux formels, collaboratifs, etc.) ? Comment montrer le travail d’encodage sémantique, habituellement recouvert par l’habillage des interfaces ? Explorer les impensés de l’objectivité des données Les jeux de données sont souvent construits sans que leurs processus d’élaboration – et les biais inhérents à toute démarche de ce type – ne soient documentés. Or derrière une apparente objectivité se cachent des enjeux sociaux liés à de multiples prescriptions normatives voire discriminantes (catégories de genre, de « race », de classe, etc.). Comment inclure davantage de voix ? Pourrions-nous, comme nous y invite la chercheuse Catherine D’Ignazio, faire de la visualisation de données de façon collective et inclusive et ainsi permettre des approches dissidentes voire contestataires ? Impliquer des technologies émergentes dans des protocoles de recherche Au-delà de l’effet de mode, des technologies telles que les protocoles blockchain (certification distribuée de transactions) ou l’appellation générique d’« intelligence artificielle » offrent des possibilités de recherche stimulantes pour les chercheurs en humanités numériques. La blockchain peut permettre d’authentifier des documents et des chaînes de transformation de données, de mettre à disposition de la puissance de calcul, de signer les rôles de chaque acteur d’un projet, de générer des smart contracts pour déclencher automatiquement des actions prédéfinies, etc. L’intelligence artificielle, quant à elle, est déjà utilisée par des entreprises comme Google pour la construction automatisée de gammes chromatiques (projet Art Palette), l’identification d’œuvres d’art du MoMa à partir de 30 000 photographies d’exposition ou le repérage (tagging) des contenus de plus de 4 millions de photographies du magazine LIFE. Alors que nous avons en France des pointures internationales dans le domaine de l’IA, est-ce une fatalité que la puissance publique abandonne la « culture logicielle » à des acteurs privés ? Sortir d’une pensée « agnostique » de la forme Beaucoup d’interfaces de projets en humanités numériques se désintéressent des enjeux formels liés à la consultation des documents, ce qui est d’autant plus paradoxal dans l’exemple de documents relatifs à l’histoire de l’art. Jusqu’où cette illusion de neutralité est-elle tenable voire souhaitable ? Est-ce une fatalité que les archives en ligne présentent majoritairement des cadres homogènes ? Quid, sur un autre plan, des relations entre les interfaces de saisie des corpus et la capacité à projeter des modes de consultation ? Citons pour exemple les travaux de Giorgio Caviglia (projet Mapping the Republic of Letters, Stanford) ou de Donato Ricci (Enquête sur les modes d’existence, Sciences Po). Sur d’autres plans, des designers comme LUST, Antony Kolber, l’histoire du net art ou celle des jeux vidéos sont par exemple des sources d’inspiration pouvant intéresser les chercheurs en humanités numériques. Mentionnons également le travail mené à l’Atelier national de recherche en typographie (ANRT Nancy) sous la direction de Thomas Huot-Marchand, où des étudiants en dessin de caractères typographiques se confrontent à des contextes tels que les premières notations du chant, la cartographie, les hiéroglyphes, les inscriptions monétaires, la reconnaissance de caractères, etc. — Ces quelques propositions ont pour objectif d’inciter les chercheurs en humanités numériques à s’intéresser davantage, au-delà du design, à des champs connexes tels que les études visuelles, les media & software studies, ou encore l’archéologie des médias. Une telle visée invite également les designers à envisager d’autres contextes de travail que ceux dans lesquels, au risque d’une saturation de l’offre, ils s’inscrivent habituellement. Les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques.
Notions
Personnes citées
Objets mentionnés
Date
avril 2023
Type
BlogContexte
Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]
Résumé
Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.
Notions
Personnes citées
Objets mentionnés
Médias
Date
mars 2026
Type
BlogContexte
Anthony Masure, « Mise à jour technique du site avec Claude Cowork », blog AnthonyMasure.com, 23 mars 2026
Résumé
Mon premier site Web personnel a été lancé en 2012 sous WordPress, et a migré sous Kirby en 2015 avant d’être entièrement refait en 2016 puis légèrement mis à jour en 2021. En mars 2026, porté par le développement des intelligences artificielles grand public, une refonte technique complète a été menée grâce à l’IA Claude Cowork : migration de Kirby 3.4.4 (2020) vers Kirby 5.3.2 (2026), correctifs de sécurité, optimisation des performances et nettoyage du code JS et CSS. Ce billet documente l’usage de Claude et l’ensemble des changements effectués.
Notions
Objets mentionnés
Date
mai 2012
Type
PublicationContexte
Anthony Masure, « Le numérique dans le design et ses enseignements », texte d’intention rédigé pour la séance « Design et Art », séminaire « Éducation et TIC », laboratoire STEF, ENS Cachan, 10 mai 2012
Résumé
En tant qu’il tient à l’art autant qu’à l’industrie, le design ne cesse de questionner les limites des avancées techniques et technologiques. Comment le design et ses enseignements peuvent-ils prendre en compte la conception de logiciels pour dépasser la simple formation à des outils dont des nouveaux apparaissent chaque jour ? Comment repenser les objets et les environnements dans une époque travaillée par des initiatives multiples visant à ouvrir des systèmes brevetés ou inaccessibles ? Comment penser un enseignement au fait de cette richesse et de ces défis ?
Notions
Personnes citées
Objets mentionnés
Date
janvier 2013
Type
PublicationContexte
Anthony Masure, «Makers : Fable labs ? », Strabic.fr, janvier 2013
Résumé
Après La longue traîne (2006) et Free ! Entrez dans l’économie du gratuit (2009), Chris Anderson revient nous narrer les tendances du futur dans Makers. La nouvelle révolution industrielle (2012). Si ces précédents ouvrages restaient cantonnés au domaine des écrans, celui-ci explore le vaste champ du numérique et des objets « autofabriqués ? ». L’ex-rédacteur en chef du magazine culte Wired est-il convaincant dans son nouveau rôle d’évangéliste des machines de fabrication automatisées ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
mai 2015
Type
PublicationContexte
Emeline Brulé, Anthony Masure, «Le design de la recherche : normes et déplacements du doctorat en design», Paris, PUF, Sciences du Design, no1, mai 2015, p.58-67
Résumé
Prenant acte d’une spécificité du design quant au travail des supports d’expression, cet article se donne comme champ d’étude les formes et formats de thèses dans le contexte de la recherche en design. Nous considérerons ici la thèse comme un «type» de document ayant intégré au fil du temps un certain nombre de conventions qui ne sont que trop rarement interrogées. Nous reviendrons tout d’abord sur son évolution historique et discuterons des conventions et normes des thèses en design à l’heure actuelle. Nous étudierons ensuite la manière dont ces dernières structurent le travail de recherche pour nous demander si la recherche en design se doit d’en créer d’autres, ou si elle doit œuvrer à les déconstruire. Enfin, nous nous demanderons si le design peut être vu comme un «laboratoire» permettant de déplacer les façons de faire de la recherche, au sens large.
Notions
Personnes citées
Objets mentionnés
Médias
Date
septembre 2017
Type
PublicationContexte
Anthony Masure, «Panne des imaginaires technologiques ou design pour un monde réel?», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse – Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017
Résumé
Il est couramment admis que les films de science-fiction, censés incarner l’imaginaire du futur, multipliraient les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.). Ce constat, qui reste à interroger, fait dire au chercheur Nicolas Nova qu’il existerait ainsi une « panne des imaginaires ». Alors qu’il est fréquemment demandé au design d’« innover », nous nous demanderons en quoi certaines séries récentes comme Mr. Robot ou Black Mirror permettraient de contester cette injonction. Il s’agira d’analyser en quoi les croisements entre cinéma et design peuvent recouper des critiques politiques et sociales adressées aux nouvelles technologies (Bernard Stiegler, Evgeny Morozov). Entre les extrême dystopiques (films catastrophe) et utopiques (d’un monde sauvé par la science), qu’est-ce que la science-fiction nous dit du design ? Comment le design pourrait-il à la fois renouveler les imaginaires et agir dans un monde « réel » (Victor Papanek) ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
avril 2021
Type
PublicationContexte
Article coécrit avec Michel Wlassikoff dans le 4e numéro de la revue Back Office intitulé « Suivre le mouvement ».
Résumé
Le spécimen typographique constitue un genre de publication à part, entre document promotionnel et espace d’expression graphique. Il s’incarne aujourd’hui sur le Web à travers des sites de démonstration expérimentaux que l’article propose d’analyser au regard de l’histoire typographique ancienne.
Notions
Personnes citées
Résumé
When I applied to the Cnap research grant (making of here), beyond the production of scientific contents, I wanted to experiments new ways of doing research. It was the first time I planned to visit some archive centers. During my Ph. D, I made some historical inputs, ex. about the history of the design of Apple/Braun devices – but I hadn’t visited an archive at the time, as my corpus was mostly composed of books and projects/objects analysis. So I wondered if it was possible to document not only the productions but the research process itself? I already had some ideas for documentation material: audio/video, interviews, photographs, sketches, and of course blogging. My friend Thibéry Maillard (@EnTroisPoints) has been practicing “live sketching” in recent years (his website is on the way). We have had many discussions about the design of graphical tools that allow people outside an event to relive it as a kind of “living knowledge”. So I asked him if he could do a kind of “live record” of my research tour, in order to record more than audio and pictures elements. I am convinced that in the world of research it would be worthwhile to open up to more varied forms of publications. Perhaps this is one of the goals of design research? — You’ll find below some Thibéry’s works:
Notions
Personnes citées
Date
octobre 2021
Type
ConférenceContexte
Invitation au « Tech+Society Breakfast » (Ethix – Lab for Innovation Ethics + SATW – The Swiss Academy of Engineering Sciences).
Résumé
Nous passons une grande partie de nos journées en utilisant des outils numériques. De Zoom à Zalando aux applications des réseaux sociaux, ces outils sont conçus pour maximiser la facilité d’utilisation tout en maximisant les retours financiers pour leurs concepteurs. À cet effet, des techniques de design sont utilisés pour orienter le comportement des utilisateurs. Quelles conséquences ont ces techniques sur le bien-être des utilisateurs et le fonctionnement de nos sociétés numériques ? Quel standards éthiques devrions-nous adopter dans le design des outils numériques? Et quelle responsabilité portent les designers numériques ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
avril 2022
Type
ConférenceContexte
Intervention dans le podcast « 2031 - Blockchains », épisode 7, « NFT : comment ça fonctionne et quelle place vont-ils prendre ? », La Cantine et Stereolux, avril 2022.
Résumé
Du jeu vidéo à la mode, les NFT (certificats d’authenticité d’un objet virtuel) connaissent un franc succès… qui pourrait être freiné par les nombreux problèmes qu’ils soulèvent.
Notions
Personnes citées
Objets mentionnés
Médias
Date
mars 2023
Type
Contexte
Cet essai a été réalisé dans le cadre du projet de recherche « Design et machine learning : l’automatisation au pouvoir ? », financé par la HES-SO et conduit par Anthony Masure de 2022 à 2023 à la HEAD – Genève avec Alexia Mathieu, Douglas Edric Stanley, Élise Gay et Kévin Donnot. Site Web du projet : www.design-machine-learning.ch.
Résumé
Au début des années 2020, portés par les progrès des « intelligences artificielles », des programmes comme GPT-3, DALL·E, Midjourney ou Disco Diffusion permettent de générer des images à partir d’instructions textuelles. Bien que ces productions ne font souvent qu’imiter des données existantes et manquent de diversité, les débats médiatiques ont tendance à se polariser sur le remplacement des humains par la machine. Ce faisant, ils font écran à la question essentielle : quel est le spectre des implications actuelles et potentielles du machine learning pour les pratiques de design ?
Date
juin 2010
Type
PublicationContexte
Anthony Masure, « iPad et mimesis », journée d’étude à propos de László Moholy-Nagy, laboratoire de recherche CREDE, juin 2010
Résumé
Étude et analyse de l’interface de lecture de l’application iBooks sur iPad : comment sortir d’un modèle mimétique pour proposer une expérience de lecture singulière ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
juin 2011
Type
PublicationContexte
Anthony Masure, « Adobe : le créatif au pouvoir », Strabic.fr, « L’usager au pouvoir », juin 2011
Résumé
« À l’issue de sa présentation, Jean a été félicité par ses collègues. Ils ont même applaudi ! » — Publicité sur Adobe.com, consultée le 7 avril 2011. Jean utilise les « solutions » Adobe pour concevoir des présentations où il associe textes et images. Depuis qu’il se sert de ces outils, cela n’a jamais été aussi simple. La pieuvre Adobe Systems (qui a avalé en 2005 son concurrent Macromedia) déploie à intervalles réguliers ses suites créatives qui font d’un simple employé du secteur tertiaire un créatif en puissance. Lev Manovich, dans Le Langage des Nouveaux Médias 1 Lev Manovich, Le langage des nouveaux médias [2001], trad. de l’anglais par Richard Crevier, Dijon, Les Presses du Réel, 2010., analyse le mode d’existence contemporain des logiciels sous l’angle d’une « logique de la sélection ». Il constate que notre approche des outils de création (et des softwares en général) se fait essentiellement par la « sélection » d’actions à partir de menus prédéfinis. Adobe a précisément bâti son empire sur cette idée, en ajoutant à chaque itération de ses logiciels des lignes supplémentaires dans les menus. La richesse supposée du programme tient à l’accumulation de choix à sélectionner : toujours plus de lignes et de curseurs déplaçables. Les publicités ciblant les habitués de la marque sont orientées dans ce sens, elles ne font la plupart du temps que lister les nouveaux ajouts de menus. La création serait donc fonction d’une suite de choix à régler dans des listes prédéfinies. Ces présaisies ont pour but d’organiser et de simplifier le cheminement de l’utilisateur, dans un souci d’efficacité. La création est vue ici comme un processus sans effort et sans résistance. Adobe entend proposer des « outils familiers » pour les créatifs, destinés à exprimer sans heurts les « idées les plus folles ». Le logiciel de création est conçu pour servir de façon satisfaisante le créatif, que l’on pourrait alors considérer comme un usager, c’est-à-dire quelqu’un qui se sert de quelque chose en vue d’obtenir un résultat déterminé. Il attend que son objet puisse réponde de façon précise à ses attentes 2 Pierre-Damien Huyghe, « Définir l’utile », conférence donnée à l’IFM le 6 avril 2011.. Le logiciel lui en donnerait le pouvoir, c’est-à-dire la condition matérielle d’accomplir une action. Les programmes d’Adobe rendent service quand ils ne s’écartent pas de ce qui était prévu. Ils organisent une « mise à disposition » de la créativité (Pierre-Damien Huyghe). Ils indiquent une disponibilité servile qui font de ces objets nos serviteurs impassibles. L’ordinateur ne se plaint jamais et ne peut pas ne pas servir, sauf dans le cas du bug. Il enclot notre réflexion dans des choix donnés. La dimension de souffrance du travail est évacuée, au profit d’une fluidité « sans écrire de code » (Adobe). Aucune résistance, aucun imprévu ne doit interrompre le flow des créatifs. Pendant naturel des fonctions automatisées, les sources d’inspirations sont aussi organisées en sélections. Ces aides à la création sont facilement disponibles via des sites accumulatifs (Smashing Magazine, Daily Dose of Inspiration, Designer Daily, etc.) Ceux-ci fonctionnent par billets thématiques et rassemblent sur le mode du catalogage une collection de liens sur un même sujet, sans chercher à l’épuiser ou à le problématiser. Les bases (ou images-source) sont indexées de plus en plus finement pour faciliter la recherche via des moteurs généralistes. S’opère ici une économie de la radicalité ou de l’imprévu par la recherche d’un consensus sur un même mot-clé (keyword). Il s’agit de donner l’idée au grand public que la création est quelque chose de facile, par la navigation sans effort parmi des galeries d’images lissées. Dans ce pouvoir nouveau donné aux créatifs se dessine en creux une démocratisation voulue et provoquée par les décideurs. Si le prix du logiciel reste prohibitif pour le grand public, Adobe segmente sa gamme en produits moins chers dit « essentials », tout en laissant faire (voire en favorisant ?) le piratage des versions professionnelles pour habituer à s’en servir ceux qui de toute façon ne les auraient jamais achetées. Il en va souvent de même dans les écoles d’art et de design, où aucune alternative n’est envisagée. Cette hégémonie finement contrôlée déplace le pouvoir de l’usager vers l’entreprise de services, qui dicte tous les ans un rythme de renouvellement de son système. Suite à l’émergence de professions identifiées comme le chef de projet, des programmes dédiés (Adobe Version Cue) se chargent désormais d’organiser le savoir-faire organisationnel. Il devient lui-aussi affaire de systèmes parfaitement réglés. Automatisation des fonctions, travail organisé en « chaîne de production » (Adobe), capitalisation de « l’imagination au pouvoir » de quelques grands groupes… autant de notions qui articulent l’idée d’une production sans accrocs et sans fin, c’est-à-dire une production industrielle. L’organisation croissante au tournant du siècle des systèmes de fabrication a pour but d’achever l’idée d’une réalisation qui irait droit du concept à l’objet. Cette absence de divergence est encouragée et guidée par des méthodes qui deviennent systèmes : taylorisme, fordisme… Ils visent à donner place à chaque outil, étape, personnel de production. Dans cette prise de pouvoir concentrée autour de la production sans accident, le prolétaire perd l’usage de ses savoir-faire, dont il est dépossédé. L’ouvrier devient usager de son outil de production, parfaitement conçu pour effectuer une action précise. Les gestes et temps de travail ne doivent pas diverger de l’organisation mécanisée des structures productives. Dès 1844, dans les Manuscrits Économiques 3 Karl Marx, Manuscrits de 1844, Paris, Garnier Flammarion, 1999 puis dans le chapitre 14 du Capital, Marx pose la question de l’aliénation et de la soumission à la machine. S’il n’insiste pas spécifiquement sur le terme de pouvoir, il nous alerte sur l’ordre nécessairement autoritaire de l’industrie pour contenir les risques d’indiscipline des ouvriers. Le prolétaire est une machine dans son travail, et aucun accomplissement social n’y est possible. Son salaire doit juste lui permettre de subsister dans sa condition ouvrière. Le pouvoir de la manufacture soumet l’ouvrier à un ordre dont il ne peut pas se détourner ou diverger. Si les « créatifs » sont généralement mieux lotis financièrement, une analyse marxiste plus poussée pourrait nous permettre d’envisager des recoupements entre le prolétaire ouvrier et l’assistant de création. Il faudrait alors déplacer les notions d’aliénation et de subsistance vers celles de dépendance et de pensée dans un système prédéfini et difficile à déplacer. S’il serait abusif de faire des logiciels Adobe des outils purement limitatifs, rien n’indique en eux une volonté d’ouverture vers l’imprévu. Concurrence inexistante et faiblesse des solutions libres (The Gimp) contribuent à ce monopole problématique, qui fait encourir un danger de formatage des productions (même constat avec l’éditeur 3D Autodesk, avec l’éloignement de la matière en sus). En faisant l’économie de modèles divergents, Adobe organise les modes de travail en réduisant les possibilités à des dispositifs constitués dans des choix de « sélections » (Lev Manovich). Le passage du réglage à la sélection (il faudrait développer ce point) est celui de l’ouverture des possibles vers un mode de réflexion borné, automatisé comme les modes scènes des appareils numériques contemporains. Il nous enjoint à appliquer des méthodes créatives réalisables sans effort grâce à des outils dédiés (automatisations, filtres), utilisables servilement via des sélections organisées discrètement. En faisant du designer un créatif se servant sans effort d’une suite d’outils, Adobe rabat la dimension d’usage sur l’activité artistique. L’iconographie marketing de ses publicités montre des designers et décideurs envisagés sous l’angle de la rentabilité et de l’efficacité. La pensée doit tracer sa route sans écart pour répondre efficacement aux sollicitations de l’économie de la créativité. Mais qu’économisons-nous quand nous raisonnons ainsi ? Est-il pertinent d’envisager l’activité de création comme une économie d’efforts et de modalités ? Il est d’autres voies possibles, qui feraient place au hasard, à la divergence, aux imprévus, et c’est même ce que nous pourrions nommer « design ». Les objets serviles nous desservent de nos pratiques. Là où Adobe pense en termes de solutions, le designer créé de la divergence dans des systèmes techniques ou réflexifs. C’est paradoxalement en ouvrant et en se jouant de la résistance de l’idée à la forme que le designer peut construire son autonomie. C’est dans cette nécessaire liberté qu’un pouvoir pourrait s’exercer. L’outil numérique serait à envisager comme un champ de possibles qui ne serait pas autoritaire et normé (deux notions habituellement liées au pouvoir). Le dispositif, dont Giorgio Agamben 4 Giorgio Agamben, Qu’est-ce qu’un dispositif ?, Paris, Rivages Poches, 2007. (via Foucault) montre « qu’il s’inscrit toujours dans une relation de pouvoir » manifeste sa volonté de clôture dans une utilisation dictée (voire ordonnée) par des modes d’emploi et habitudes culturelles. L’idée d’un « usage correct » du dispositif est caduque car il n’existe pas de bon usage, ou plutôt que faire usage d’un objet n’a à voir qu’avec des conduites qui n’en n’épuisent pas les possibles (Pierre-Damien Huyghe). Il s’agirait donc de faire varier les attendus serviles des objets, qui s’épuisent dans leur fonction. Ce jeu (liberté de mouvement) serait alors une zone de pouvoir possible, qui ne serait plus orientée en vue d’obtenir un effet déterminé. L’open source (code source libre), sans en faire une lecture naïve de remède anti-autoritaire, serait du côté d’un pouvoir rendu en amont et en aval à l’usager. La conception nécessairement ouverte et partagée du programme implique un pouvoir non concentré, qui met de fait « au pouvoir » les membres de la communauté. Ce pouvoir partagé ne serait pas celui d’une volonté de contrôle mais plutôt un pouvoir décentralisé et diffus. Il existe des degrés d’implication divers dans la conception du programme, qui ne sont pas ceux d’un projet normé et balisé. Même si des roadmaps (feuilles de route) sont nécessaires, des retards et fonctions de dernière minute peuvent apparaître, de même que des forks (fourches) qui sont une bifurcation du programme, redéveloppée par une partie de la communauté des développeurs. Il y a ici une forme de valorisation qui ne passe pas par des logiques de profit, une économie de la connaissance qui fait de l’usager un contributeur (Bernard Stiegler). Alors que les logiciels utilitaires épuisent l’attention dans une simple tâche à effectuer, il y a dans les codes sources ouverts l’idée d’une amélioration possible depuis la base. N’importe qui peut faire remonter des idées ou améliorations (il faudrait détailler ces différents degrés possibles d’interventions). Le programme est aisément reconfigurable pour répondre à des localisations (terme qui désigne à la base la traduction) ou contextes précis, qui ne sont pas forcément ceux qui sont le plus économiquement viables. Le pouvoir de changer librement éloigne ce type de programme des notions de système (pas de ligne figée, ni de concepts inamovibles) et de dispositif (pas d’idée de manipulation ou de rapport de force). Ce passage du logiciel-outil à un champ de possible, cela serait l’appareil. Un appareil s’envisage par sa capacité à ouvrir une disponibilité à partir de « réglages » (Pierre-Damien Huyghe 5 Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, coll. Esthétiques, 2005.). Appareiller un dispositif serait donc œuvrer à sa mise en jeu, ce qui dépasse la logique de fonctions sélectionnables pour réactiver une liberté permettant de nous subjectiver. Reste à envisager ce modèle en action, répondre à ces questions en designer. Le « créatif » devra pour un temps encore se satisfaire d’utilitaires. Des productions intéressantes peuvent bien sûr émerger, à condition de prendre ses distances avec le conditionnement technique et marketing. Question d’attitude et de regard, qui passe aussi par un véritable enseignement de ces domaines afin de dépasser les usages pour en faire des pratiques. « À l’issue de sa contribution, Jean a été félicité par ses collègues. Ils ont même amélioré son code source ! »
Notions
Personnes citées
Objets mentionnés
Médias
Date
avril 2014
Type
PublicationContexte
Anthony Masure, «Graphisme et numérique: entre certitudes et incertitudes», Paris, CNAP, Graphisme en France, no20, p. 65-76
Résumé
« Dans mes moments d’euphorie les plus intenses, c’est comme si le logiciel surgissait des profondeurs de l’ordinateur. Une fois finalisé dans mon esprit, j’avais le sentiment qu’il siégeait dans la machine, n’attendant plus que l’instant de sa libération. Dans cette optique, ne pas fermer l’œil de la nuit me semblait un prix à payer bien dérisoire pour lui donner sa liberté, pour que mes idées prennent forme. — Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000 » Cofondateur de Sun Microsystems 1 Fondée en 1982 et rachetée en 2008 par Oracle, Sun Microsystems a progressivement délaissé la production de serveurs et de postes de travail pour développer Java (un langage de programmation orienté objet), ainsi que M y SQL (un système de gestion de bases de données). et coauteur du langage de programmation Java 2 On appelle «langage de programmation» une bibliothèque d’instructions univoques interprétables par une machine, constituées d’un vocabulaire et d’une syntaxe définis. Le plus ancien est le FORTRAN (1954)., Bill Joy semblait être l’exemple parfait du développeur informatique accompli. C’est pourtant depuis sa pratique des codes sources 3 Le code source désigne l’ensemble des instructions et des fonctions constituant un programme (logiciel, page Web, etc.)., qu’il écrit, au début des années 2000, une mise en garde adressée à ses pairs: «Pourquoi le futur n’a pas besoin de nous 4 Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000..» Rejouant les thèses développées par Günther Anders dès les années 1950 dans L’Obsolescence de l’homme 5 Günther Anders, L’Obsolescence de l’homme (1956), Paris, Ivrea, 2002. (sans les mentionner explicitement), Bill Joy en arrive, par sa pratique de codeur, à prophétiser lui aussi «un monde sans hommes». Comme Günther Anders, il se base sur le traumatisme de la bombe atomique. Bill Joy entrevoit la poursuite de cet évènement paradigmatique dans le développement des ordinateurs, du génie génétique, de la robotique et des nanotechnologies. Selon lui, ces recherches «représentent une menace différente des technologies antérieures» et menacent directement notre survie ici-bas. C’est l’ivresse résultant de la quête du savoir qui aveugle les scientifiques: «Happé dans le vortex d’une transformation, sans doute est-il toujours difficile d’entrevoir le réel impact des choses. […] Le progrès à l’origine de technologies toujours plus innovantes et toujours plus puissantes peut nous échapper et déclencher un processus autonome.» L’émancipation euphorisante permise par les programmes 6 Un programme est généralement conçu pour faire exécuter une tâche précise à une machine (afficher une couleur à l’écran, connecter un ordinateur à une adresse Web, etc.). Un logiciel comprend donc plusieurs programmes permettant de traiter des données. numériques masquerait-elle une catastrophe inéluctable ? À travers l’exemple de Bill Joy, nous pouvons donc distinguer deux attitudes possibles face à la technique: se laisser griser par ses infinies possibilités ou travailler contre elle. L’hypothèse que nous souhaitons étudier ici est que le design ne relève d’aucune des deux. Tel que nous pouvons le soutenir, le design est un processus conscient et inconscient «d’authentification» des techniques nouvelles 7 Sur ces notions rapidement abordées ici, il conviendra de se référer aux travaux de Pierre-Damien Huyghe. Voir par exemple: «L’outil et la méthode», Milieux, n o 33, 1988, p. 64-69.. Le designer travaille dans la marge séparant la certitude de l’incertitude. Il a pour tâche de révéler ce qui, parmi nous, est recouvert de nos habitudes culturelles. Afin de donner forme à ce changement 8 Günther Anders, ibid.: «Il ne suffit pas de changer le monde. Nous le changeons de toute façon. Il change même considérablement sans notre intervention. Nous devons aussi interpréter ce changement pour pouvoir le changer à son tour. Afin que le monde ne continue pas ainsi à changer sans nous. Et que nous ne nous retrouvions pas à la fin dans un monde sans hommes.», le designer ne doit pas se laisser «happer dans le vortex» séparant une époque d’une autre. La vigilance qu’il exerce vis-à-vis des avancées techniques ne va donc pas de soi. Dans le champ du numérique, le graphiste est souvent confiné à n’être qu’un utilisateur des systèmes techniques. Pourtant, il a, tout comme le développeur, un rôle à jouer dans les directions soutenables ou nuisibles que peuvent prendre les programmes. Plus encore, nous pensons que le designer graphique, par sa culture du projet, apporte des éléments de réflexion qui concernent, au sens large, le rapport de l’homme aux inventions techniques. Cet article sera ainsi l’occasion d’examiner quatre situations de controverse autour des rapports entre design graphique et culture numérique. Ces analyses sont dans le prolongement des articles parus ces vingt dernières années au sein de la revue Graphisme en France. Forcément incomplètes, ces lectures croisées explorent des façons de faire du design qui ne présument pas d’avance sur ce qui peut être trouvé, et espèrent ouvrir des «perspectives […] aussi excitantes qu’incertaines 9 Michel Wlassikoff, «Graphisme et informatique, rapide bilan d’une liaison durable», Graphisme en France 1998, Paris, CNAP, 1998.». Révolution informatique / culture numérique Écrit en 1998, l’article «Graphisme et informatique, rapide bilan d’une liaison durable» de l’historien Michel Wlassikoff 10 Michel Wlassikoff est historien du graphisme et de la typographie, diplômé en histoire de l’EHESS. Il enseigne au sein de plusieurs écoles d’art et de design en France et à l’étranger. expose les mutations historiques et esthétiques des logiciels de création. La «décennie prodigieuse» du design graphique déroulée par Wlassikoff nous renseigne à propos de la réception française des technologies dites nouvelles. La conclusion de son texte fait ressortir deux types de rapport à l’ordinateur: la crainte d’une homogénéisation de la création et le développement d’esthétiques nouvelles, «radicalement différentes». Dans son livre Le Monde du computationnel 11 Jean-Michel Salanskis, Le Monde du computationnel, Paris, Les Belles Lettres, 2011., Jean-Michel Salanskis tente de penser le numérique au-delà de la promesse d’une «révolution». Selon lui, le numérique rassemble une multitude d’objets contradictoires, qu’il est délicat d’englober sous une même appellation. En effet, le rapport utilitaire aux objets techniques empêche que cette problématique «révolution» soit tout à fait la nôtre, car ce qu’ils ont d’inédit est souvent parasité par d’anciens modèles de pensée. Le dévoilement de l’ordinateur dans sa puissance de nouveauté commence par le jeu, activité libre et exploratoire. C’est pourquoi il importe que les «systèmes d’exploitation» ne ferment pas à tout jamais la «visite des entrailles 12 Ibid., p. 75.» de nos machines. Grotesk, caractère numérique de Frank Adebiaye pour la fonderie Velvetyne. Première publication sur velvetyne.typepad.com, le 26 juin 2010, sous le nom de Mercandieu, renommé en 2011 en Grotesk, fonte numérique sous licence Open Font License. © F. Adebiaye, 2010-2011, certains droits réservés. Le travail du typographe Frank Adebiaye de la fonderie Velvetyne (VTF) 13 velvetyne.fr va dans ce sens. Distribuées sous la SIL Open Font License (OFL), ses fontes sont accessibles librement 14 VTF, «Manifeste posttypographique, ou l’appel des formidables»: «Nous, VTF, rejetons intrépides de la génération Postscript, nous poursuivons, à la vitesse de l’électron, cet illustre cortège. Tel Spartacus, nous libérons les caractères du joug des règlements iniques et des conventions arbitraires (…).» au designer graphique, au relecteur ou à l’imprimeur, ce qui simplifie le process d’édition. Dans un même registre, Frank Adebiaye poursuit actuellement des recherches autour de la génération automatisée de contenus destinés à l’impression. Référents non référents 15 Frank Adebiaye, Référents non référents, Paris, Forthcome, 2013, coll. «Hoplites», (En ligne), forthcome.fr/hoplites/ref_non_ref/ref_non_ref.html., son dernier livre, est un recueil de textes poétiques écrits entre 2006 et 2013. L’ouvrage est réalisé en XML 16 Le XML est un langage de «balisage» qui facilite l’échange de données complexes par sa grande flexibilité., et interprété par un navigateur Web type Firefox HTML 5 17 Initié en 2009, le langage HTML 5 permet une structuration plus fine des contenus. La gestion des médias est également simplifiée par les balises audio et vidéo.. Le passage du numérique à l’imprimé s’effectue ici par un usage savant des nouvelles possibilités techniques du Web: Responsive Web Design (RWD, site Web adaptable à plusieurs résolutions d’écran), ancres (liens internes) aléatoires, fontes Web hintées (optimisées pour la lecture à l’écran) via le service en ligne Cloud Typography de Hoefler & Frere-Jones 18 typography.com/cloud, etc. Ce type de démarche est partagé par des designers pour qui le travail de la programmation numérique («ce qui ne supporte pas l’inexactitude 19 Ibid., p. 65.») se fait dans l’acceptation d’une certaine marge d’incertitude. Artisanat numérique / conscience industrielle Beaucoup de produits ont pour finalité de disparaître à l’usage. Dans le champ du design graphique, les outils numériques informent directement les pratiques. Il en est ainsi, par exemple, des logiciels propriétaires dits de création, dont les conditionnements pernicieux ont aussi marqué la dernière décennie du design graphique francophone. Ces programmes ne sont pas des interfaces transparentes, mais bien des vecteurs d’idées voire d’idéologies 20 Pour en savoir plus sur ce point, voir Kévin Donnot, «Code = Design», Graphisme en France 2012, Paris, CNAP, 2012, p.5-12. Cela n’empêche pas certains designers de jouer avec les codes de leurs environnements de travail, telle Danielle Aubert, qui compose des tableaux dans le tableur Microsoft Excel 21 Danielle Aubert, 58 Days Worth of Drawing Exercises in Microsoft Excel as Rendered for Web and Animated Daily Excel Drawings, 2005 – 2006, (En ligne), (link: https://danielleaubert.com/print/exceldrawings_book.. Danielle Aubert, Sixteen Months Worth of Drawing Exercises in Microsoft Excel, extrait, 3 avril 2005. © D. Aubert Selon Annick Lantenois, depuis 1990, le développement des programmes a été progressivement confié aux ingénieurs, le designer se retrouvant dès lors relégué au statut de simple usager. Comme le dit Florian Cramer: «Ce modèle impose un retour à un mode de travail artisanal qui exclut les artistes et les designers des évolutions des médias de masse électroniques 22 Annick Lantenois cite Florian Cramer dans: «Ouvrir des chemins», Graphisme en France 2012, Paris, CNAP, 2012, p. 15. […].» Une telle expression réactualise des débats très anciens sur la constitution du design comme champ autonome de l’artisanat. L’histoire d’un mouvement précurseur comme le Deutscher Werkbund 23 Lucius Burckhardt, Le Werkbund: Allemagne, Autriche, Suisse (1977), Paris, Centre d’études et de prévisions, 1981. est ainsi jalonnée de prises de position contradictoires sur le rapport à l’industrie – travail manuel et production de masse. Dans la synthèse qu’en donne Walter Gropius au Bauhaus, il y aurait «design» quand les artistes cessent de s’opposer à l’industrie et travaillent avec elle, en tension – Art et Industrie 24 «Kunst und Technik – eine neue Einheit», Walter Gropius, 1923.. Si la place nous manque pour développer ce dernier point, et pour en revenir aux rapports entre design graphique et culture numérique, nous noterons tout de même qu’elle implique la possibilité d’une «esthétique avec la mécanisation 25 Pierre-Damien Huyghe, Art et Industrie. Philosophie du Bauhaus, Belval, Circé, 1999, p.41.». Le retour au mode de vie médiéval de la communauté artistique avait déjà été expérimenté à l’orée du Bauhaus. Est-ce que le design graphique, dans les conditions techniques actuelles, gagnerait à revenir à un modèle où les notions de production en série et de standardisation ne posaient pas problème ? Ne risquerait-on pas alors, en réaction à des craintes similaires à celles de Bill Joy, de basculer dans une attitude antitechnique ? Superscript 2, affiche pour l’exposition Lettres Type, My Monkey, Nancy, novembre 2011. 80 × 120 cm. © Superscript 2 Superscript 2, Opération Graffiti, affiche réalisée pour le Festival international de l’affiche et du graphisme de Chaumont, 2013. Interprétation graphique d’une opération militaire. 80 × 120 cm. © Superscript 2 À l’opposé de ce retour à une tradition révolue, les travaux du studio Superscript 2 jouent ainsi avec les codes graphiques de la production en série, hésitant ironiquement entre travail manuel et automatisation complète du processus créatif (le «super script»). Ce qui est en jeu ici, c’est la fondamentale marge de liberté qui fait de toute vie authentiquement humaine une singularité non reproductible. L’enjeu du design serait alors de permettre le développement des techniques, sans qu’elles nous portent atteinte. Dire cela ne revient donc pas à accepter toute forme de production en série, mais bien au contraire à la choisir et à la transformer. À la lumière de ces quelques intuitions, nous pouvons relire ce que disait Michel Wlassikoff des «logiciels [qui] se sont ainsi inspirés des habitudes professionnelles et ont pris en compte les propositions des graphistes, ce qui a assuré leur adoption rapide et leur constante adaptation». Ce mélange d’habitudes et de renouvellements définit bien la réalité du designer, pris dans une zone de confort qu’il cherche continuellement à dépasser. Ordonner le monde / donner forme à la technique Dans « Ce que nous pourrions penser», article visionnaire publié dans le contexte de la bombe atomique de 1945, Vannevar Bush 26 Vannevar Bush, «As We May Think», The Atlantic Monthly, volume 176, n o 1, juillet 1945, p. 101-108. Trad. de l’auteur., chef de la recherche scientifique étasunienne, développe l’idée d’un réseau d’informations à échelle mondiale. Plus précisément, il invente sur le papier la notion d’hypertexte, qui ne sera réalisée techniquement qu’une trentaine d’années plus tard. Son concept de «memex» vise à résoudre le problème de la dispersion des articles scientifiques, dont les meilleurs tombent dans l’oubli. Sa visée plus large est d’éviter qu’un nouveau conflit mondial ne se produise. Cet article, écrit comme celui de Bill Joy depuis une pratique des systèmes d’informations, interroge la façon d’organiser le savoir humain à l’époque des calculateurs. Pour Vannevar Bush, il y a un enjeu décisif à choisir ce qui doit être rendu public (partageable) dans une masse d’informations. L’hypertexte ouvre la possibilité de structurer un flux afin d’isoler ce qui est pertinent de ce qui ne l’est pas. Si l’humanité n’est plus en mesure de transformer l’information en connaissance, alors cette indistinction deviendra indigestion, «infobésité», absence de communication, conflit, bombe. L’éthique de l’ingénieur développée par Vannevar Bush est aussi celle du designer: la technique doit servir l’homme pour lutter contre ses insuffisances. Rationalisé et rendu disponible, le savoir humain doit pénétrer toutes les couches de la société pour l’éclairer de ses vertus. Cette pensée se prolonge aujourd’hui, avec d’importantes nuances, dans des systèmes dont l’ambition ne serait plus seulement d’organiser le monde, mais de le recouvrir de leurs ordonnancements. On pourra penser ici à l’ambition de Google «d’organiser toute l’information du monde 27 Larry Page, à propos de Google: «Notre ambition est d’organiser toute l’information du monde, pas juste une partie», Paris, Le Monde, 21 mai 2010.». Par là, on remarque que le monde n’est pour Google qu’une matière dont la finalité serait de produire des éléments signifiants, c’est-à-dire des connaissances pouvant faire l’objet d’un rendement. Dans cette configuration, nul espace n’est supposé échapper à la trame informationnelle 28 Paul N. Edwards, Un monde clos. L’ordinateur, la bombe et le discours politique de la Guerre froide (1996), Paris, B2, coll. Territoires, 2013. qui se tisse autour de nos existences, réduites progressivement à des entités calculables. Avec le recul dont nous disposons désormais, nous pouvons dire que «l’informatique» dont parlait Michel Wlassikoff s’est constituée en culture numérique. On retrouve l’origine française du mot «ordinateur», dans une lettre de 1955 adressée au président d’IBM: «Cher Monsieur, écrivit Jacques Perret, que diriez-vous d’ordinateur ? C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde 29 Éric Hazan, «16 avril 1955: que diriez-vous d’ordinateur ?», Paris, Le Monde, 15 avril 2005..» Cette traduction maximaliste du terme «computer» substitue ainsi à la puissance de calcul l’idéal religieux d’un ordonnancement du monde. Il y a aussi dans l’ordonnancement, au sens testamentaire, l’idée d’instaurer et de prendre des dispositions, c’est-à-dire des décisions. N’est-ce pas aller trop loin, au risque du contresens, que d’attribuer de telles propriétés aux machines à calculer ? Au-delà de ces promesses, un champ de recherche pour les designers graphiques consisterait à faire apparaître les systèmes techniques qui disparaissent habituellement derrière des interfaces «transparentes». Il ne s’agit donc plus simplement d’organiser le monde, mais avant tout de donner à le comprendre 30 «(Notre époque) se raidit pour atteindre l’absolu et l’empire, elle veut transfigurer le monde avant de l’avoir épuisé, l’ordonner avant de l’avoir compris.» Albert Camus, «L’Exil d’Hélène», dans: L’Été, Essais, Paris, La Pléiade, 1963, p. 856.. Dans les projets de design qui nous intéressent, la technique n’est pas abordée dans sa dimension fabuleuse, mais révélée dans sa puissance de nouveauté. Il en est ainsi de l’affiche Specimen de Fanette Mellier, réalisée dans le cadre d’une exposition au pôle graphique de Chaumont en 2009. Ce projet ne cherche pas à «faire image», mais affirme son statut d’objet imprimé, appréciable à une échelle déterminée. Le recto est rempli des trames et gammes colorées servant au calibrage des machines d’impression. Ce motif obsessionnel sature la page d’éléments géométriques non symboliques, faisant de ce qui n’est habituellement pas vu l’endroit d’une expérience sensible. Le verso de l’affiche contient des éléments informatifs conventionnels. Une fois pliée, l’affiche joue du contraste entre ces deux modes d’approche du design graphique: manifester une technique ou délivrer un message. Fanette Mellier, Specimen, affiche pour un programme d’expositions sur le graphisme éditorial, pôle graphisme de Chaumont, 2009. Impression offset recto-verso. 120 × 176 cm. Le titre apparaît avec le pli. © F. Mellier Datavisualisation / transformation de données Les dizaines de millions de fiches individuelles accumulées par John Edgard Hoover au sein du FBI n’auront pas suffit à nous réveiller. Le scandale déclenché par les révélations d’Edward Snowden sur les pratiques de la NSA a de nouveau mis en lumière les liens profonds existants entre les gouvernements occidentaux et les grands groupes de télécommunication. Même si nous pouvions nous en douter, ces preuves à charge jettent le trouble sur un système n’ayant plus grandchose à voir avec des préoccupations citoyennes. Au début des années 2000, le Web 2.0 31 Tim O’Reilly, «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», conférence du 30 septembre 2005. aura été, sous couvert de partage et d’ouverture des possibilités techniques, l’endroit d’un recentrement problématique. La «facebookisation» du Web est celle de sa progressive transformation en télévision. Par exemple, la récente fonction autoplay des vidéos des flux Facebook 32 Josh Constine, «Facebook Puts Its Web Feed In Motion With Auto-Playing Videos», Techcrunch.com, 11 décembre 2013, (En ligne), techcrunch.com/2013/12/11/facebook-autoplay-video vise à réduire le degré d’interaction avec le contenu, pour proposer un modèle de consommation passive. Comme l’écrivait en 1987 le critique de cinéma Serge Daney: «L’affaire Médiamétrie […] et ce qu’on sait sur les techniques à venir du contrôle du téléspectateur vont toutes dans le même sens: l’écran du téléviseur n’est plus une frontière qui – comme tout écran – sépare et réunit des êtres anonymes mais un miroir dans lequel, idéalement, l’émetteur et le récepteur se comptent et se voient 33 Serge Daney, Le Salaire du zappeur, Paris, P.O.L, 1987, p. 11..» Le modèle télévisuel apprend aux gens à vendre leurs expériences – finalité bien éloignée des utopies des pionniers d’Internet 34 Fred Turner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand, un homme d’influence (2006), Caen, C&F, 2012.. Dans cette calculabilité des existences, la multiplication des informations interroge le designer sur son rôle d’organisateur. Le mythe des données «brutes» est battu en brèche par l’étude du «travail des données 35 Hubert Guillaud, «Travail et travailleurs de la donnée», Internet Actu, 13 décembre 2013, (En ligne), internetactu.net/2013/12/13/travail-et-travailleurs-de-la-donnee », qui montre que celles-ci sont toujours biaisées et soumises à interprétation. Dès lors, on comprendra que le rôle du designer graphique est central dans la compréhension des données. Son travail tient davantage de la «transformation 36 Marie Neurath, Robin Kinross, Le Transformateur, Paris, B42, 2013.» que d’une illusoire objectivation. Non seulement les données sont visibles avant le travail du designer graphique, mais celui-ci produit un travail d’interprétation voire de production du sens qu’il serait difficile de nier. Par exemple, en mettant en tension l’impersonnalité des diagrammes à des éléments illustratifs et narratifs, le design du rapport d’activité 2012 du CNAP réalisé par The Shelf Company (Morgane Rébulard et Colin Caradec) se joue ainsi des conventions graphiques. The Shelf Company: Morgane Rébulard et Colin Caradec, Rapport d’activité du CNAP, 2012, p. 63. © The Shelf Company, 2013 Afin de «faire société» dans ce déluge de données «obtenues 37 Bruno Latour, «Que la bataille se livre au moins à armes égales», postface à Controverses climatiques, Sciences et Politiques, Paris, Les Presses de Sciences Po, 2012, p. 6.», le médialab de Sciences Po (initié par Bruno Latour) mène depuis quelques années des recherches autour de leurs modalités de présentation à l’écran. Comme il est possible de faire dire n’importe quoi à des chiffres, il ne suffit pas de démontrer l’ensemble du traitement statistique. Il faut également expliquer comment on est parvenu à l’image finale, en laissant à l’utilisateur la possibilité de remonter dans le processus d’abstraction. Ces interfaces recourent ainsi à ce que l’on pourrait appeler une «chaîne de transformation 38 «(…) la production de savoir est un cheminement, une trajectoire, une chaîne de transformations (…).» Bruno Latour, «La connaissance est-elle un mode d’existence ?», dans: Vie et Expérimentation. Peirce, James, Dewey, Paris, Vrin, 2007, p. 13.», pour désigner la présentation cohérente de l’ensemble du cheminement intellectuel. Comme le dit Bruno Latour: «Propriété essentielle, cette chaîne doit rester réversible. La traçabilité des étapes doit permettre […] de la parcourir dans les deux sens. Qu’on l’interrompe en n’importe quel point et voilà qu’elle cesse de transporter le vrai, de le produire, de le construire, de le conduire 39 Bruno Latour, «Sol amazonien et circulation de la référence» (1993), dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007, p. 74..» En ouvrant des marges entre la collecte et l’abstraction, de telles démarches cherchent à comprendre plus qu’à ordonner 40 Karl Marx, Thèses sur Feuerbach, XI, 1888: «Les philosophes n’ont fait qu’interpréter le monde de différentes manières, ce qui importe, c’est de le transformer.» ; elles laissent de la place à l’autre. Figure de Bruno Latour: «Pour chacune des étapes que traverse la référence, la transformation peut être représentée comme un compromis entre ce qui est gagné [amplification] et ce qui est perdu [réduction] à chaque étape de la production d’information.» Extrait de «Sol amazonien et circulation de la référence» [1993], dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007. Penser en numérique Le développement des logiciels libres 41 Le logiciel «libre» vise à respecter la liberté essentielle de l’utilisateur (liberté d’utiliser, de modifier et de redistribuer des copies d’un programme). L’open source voit dans la mise à disposition du code source la meilleure façon de favoriser l’innovation logicielle. a permis à des machines hétéroclites de dialoguer ensemble. Nous réalisons chaque jour que cette idée est fondamentale, afin que le Web (et le numérique en général) ne se referme pas définitivement. Pour cette raison, il est important que les logiciels libres développent de nouvelles «méthodes d’approche 42 László Moholy-Nagy, «Nouvelle méthode d’approche – Le design pour la vie» (1947), dans: Peinture, photographie, film et autres écrits sur la photographie, Paris, Folio, 2007.», au lieu de se contenter d’imiter des logiques propriétaires. Nous pouvons nous référer ici à la ligne de recherche Design by Numbers, initiée par John Maeda dans les années 1990 43 John Maeda, Design by Numbers, Cambridge, MIT Press, 2001.. Créé par Ben Fry et Casey Reas en 2001, le logiciel Processing 44 processing.org est directement issu de ces explorations. En permettant de tracer et d’animer des formes au moyen d’une syntaxe 45 Dans le contexte du code, la syntaxe permet d’articuler des instructions pour les rendre compréhensibles par la machine. simplifiée, ce type de programme permet de dépasser les interfaces à base d’icônes et de menus déroulants. Plus encore, le succès de Processing nous dit, s’il en était besoin, que l’évolution des supports modifie profondément les champs d’action du design graphique. Les médias animés, sonores, tactiles, etc. font partie de notre quotidien depuis déjà de nombreuses années, et cette réalité doit être prise en compte par les designers. Murmur, du studio Chevalvert 46 m-u-r-m-u-r.me. Projet réalisé en collaboration avec 2R oqs, Polygraphik et Splank. Technologies employées : OpenFrameworks, Javascript, bandes LED. Processing avait été utilisé pour les premiers prototypes de Murmur., incarne cette transversalité des supports, où le projet s’enrichit des expériences passées. Ici, une prothèse architecturale permet la communication entre une personne etun mur sur lequel elle est connectée. Ce type de démarche excède toujours un peu l’idée initiale, les codes sources pouvant être réinvestis dans d’autres contextes et/ou redistribués librement. Murmur, un projet de Chevalvert, 2R oqs, Polygraphik et Splank, vue de la projection dans le cadre de «nuit numérique #10X-L ight», Centre culturel Saint-Exupéry, Reims, 25 mai 2012. ©D.R. Les logiciels sont généralement plus intéressants quand ils sont employés pour des usages qui n’étaient pas prévus initialement. Utilisé dans le projet Murmur, Processing permet aux designers d’inventer de nouveaux environnements de travail. À la recherche d’une esthétique pertinente pour leur «journal de recherche», les designers de NORMALS ont développé dans Processing une interface de création de bande dessinée vectorielle. La forme est directement issue du code, et non d’une logique analogique. Une fonction de leur programme Polyrotor connecte ainsi les nouveaux points placés sur l’écran à ceux qui sont les plus proches 47 «Delineating the Future – an interview with NORMALS», Creative Applications Network, 6 décembre 2013, (En ligne), creativeapplications.net/theory/delineating-the-future-an-interview-with-n-o-r-m-a-l-s. Cette façon de faire du graphisme en numérique invente des formes qui ne sont pas totalement anticipables par l’imagination. Les formes polygonales dessinent un futur où le réalisme de l’image est mis en doute au profit d’hypothèses et de fictions transversales. Sans même connaître les processus de création, le lecteur comprend qu’il a affaire à un dialogue stéréoscopique entre l’homme et la machine. NORMALS: Cédric Flazinksi & Aurélien Michon, programme Polyrotor, capture d’écran, janvier 2014. Cédric Flazinksi, Aurélien Michon, NORMALS, ouvrage autoédité, Paris, mars 2014. Réalisé à l’origine sous Processing, l’interface de création typographique Prototypo 48 Yannick Mathey et Louis-Rémi Babé, prototypo.io, travail en cours de réalisation. Prototypo est désormais développé en HTML5 Angular JS et SVG. Dans le même registre, voir aussi les expérimentations du studio LettError. de Yannick Mathey s’émancipe d’une construction lettre par lettre de la fonte. L’utilisation d’algorithmes permet de manipuler en temps réel des formes dynamiques, les changements formels étant répercutés sur l’ensemble de l’alphabet. Le programme permet également d’indiquer des «limites» aux bonnes règles typographiques, sans que celles-ci ne freinent la création. Depuis des dizaines d’années, les apports du numérique au champ de la typographie ont été fructueux. Il reste beaucoup à apprendre d’initiatives comme l’Unified Font Object ou Metafont 49 David Vallance a présenté, aux Rencontres internationales de Lure 2013, le travail de découverte et d’appropriation du programme Metafont, qu’il a mené dans le cadre de son diplôme national d’Art et technique à l’Ésad Grenoble-Valence.. Yannick Mathey et Louis-Rémi Babé, programme Prototypo, captures d’écran, janvier 2014. © Y. Mathé, L.-R. Babé Désirer l’incertitude À l’issue de ces quelques exemples et relectures croisées, nous pouvons appréhender d’une nouvelle manière les craintes de Bill Joy. Il nous semble périlleux d’envisager a priori les inventions techniques sous l’angle de la «menace», car au nom de quoi critiquerions-nous une nouvelle technique, si ce n’est suivant son rapport à la tradition ? En n’acceptant pas que le monde puisse changer, un tel parti pris se retranche dans ses convictions. Le développement des systèmes de prévision en tous genres (sondages, assurances, contrats, etc.) semble faire de nos existences des entités dociles et réglables, de moins en moins aptes à prendre des décisions. Pour échapper à cette programmatique, il faut que le designer participe à l’élaboration d’une société qui ne fonde pas sa marche sur le calcul. Le fait que les designers graphiques investissent de plus en plus la conception des programmes numériques nous ouvre de nouvelles façons de faire, basées sur la compréhension sensible des spécificités techniques. Le designer peut ainsi choisir de conduire la technique dans des directions qui ne portent pas atteinte à la liberté humaine. Son travail hésite entre certitudes et incertitudes: d’un côté les habitudes professionnelles et culturelles, de l’autre la confrontation à l’inconnu 50 Pierre-Damien Huyghe, Modernes sans modernité. Éloge des mondes sans style, Paris, Lignes, 2009, p. 123. La modernité s’inscrit dans un «mouvement qui ne fait pas de l’émission d’un sens le but unique des conduites techniques […]».. «Apprendre et désapprendre», disait Catherine de Smet 51 Catherine de Smet, «Apprendre et désapprendre», Graphisme en France 2008, Paris, Cnap, 2008.. Afin que la prochaine décennie ne soit pas déjà écrite, à nous de désirer l’incertitude.
Notions
Personnes citées
Objets mentionnés
Médias
Date
janvier 2017
Type
PublicationContexte
Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.
Résumé
AVANT C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! QUELLES SOLUTIONS ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.
Notions
Personnes citées
Objets mentionnés
Date
mai 2018
Type
PublicationContexte
Article coécrit avec Guillaume Helleu dans la revue Multitudes, no 71, dossier « Dériver la finance », été 2018
Résumé
Le protocole Bitcoin (2009) s’inscrit dans le prolongement des utopies crypto-anarchistes visant à développer une monnaie numérique sécurisée et distribuée sur le réseau Internet pour échapper à la centralisation du pouvoir par les banques et les gouvernements. Récupérées en grande partie par la finance spéculative, ces technologies à chaînes de blocs (blockchain) se sont progressivement développées et dépassent désormais largement le champ monétaire (applications distribuées, contrats intelligents, jetons de valeurs, etc.). Malgré la persistance de certains freins sociaux et techniques, les protocoles blockchain pourraient-ils prendre de vitesse la logique destructrice du capitalisme financier ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
janvier 2019
Type
PublicationContexte
Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence »
Résumé
Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes :
1. Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques.
2. La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données.
3. La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.
Notions
Personnes citées
Date
novembre 2021
Type
PublicationContexte
Article rédigé avec Guillaume Helleu pour la revue de recherche Multitudes.
Résumé
Cet article explore les enjeux des technologies blockchain dans le champ de la création (art, design, jeu vidéo, etc.) à travers le développement, depuis 2015, des « Non Fungible Tokens » (NFT) – à savoir la production d’un certificat numérique infalsifiable et décentralisé attaché à une entité numérique ou tangible. Mis en lumière depuis le début de l’année 2021 par une multitude de ventes aux sommes record et par le développement de places de marché spécifiques, les NFT soulèvent des enjeux relatifs à la valeur, à la circulation et à l’exposition des productions artistiques et culturelles.
Notions
Personnes citées
Objets mentionnés
Date
mai 2022
Type
PublicationContexte
Article publié dans ISSUE – Journal of art & Design, revue en ligne de la HEAD – Genève.
Résumé
Le « Calculateur carbone campus », développé depuis novembre 2021 par la HEAD – Genève en partenariat avec la HEG, a pour objectif de sensibiliser le personnel des hautes écoles aux émissions de CO2 de leurs différentes activités (pédagogie, évènements culturels, projets de recherche, mobilité, chauffage des bâtiments, etc.). Actuellement, les outils de ce type sont d’une ergonomie complexe, peu adaptés aux besoins des HES, et sont la plupart du temps propriétaires et onéreux. De façon plus fondamentale, ces logiciels sont conçus pour mesurer a posteriori les émissions de carbone produites par des entreprises ou institutions (dans le cadre de bilans annuels, etc.), ce qui a pour effet d’éloigner le calcul des nuisances de leurs origines. Si l’on définit la notion de responsabilité, en termes juridiques, comme l’« obligation faite à une personne de répondre de ses actes du fait du rôle, des charges qu’elle doit assumer et d’en supporter toutes les conséquences », alors il faut que les personnes concernées puissent être en mesure de comprendre les implications de ce qu’elles font pour que l’imputation des actions puisse avoir du sens – et d’aller ainsi à contre-courant de la tendance à la dilution de la responsabilité. Les captures d’écran reproduites ci-dessous présentent un cas pratique de calcul. L’outil est présenté dans un état de développement intermédiaire, et pourra encore évoluer d’ici à la fin du projet (été 2022). Cas pratique : calcul du CO2 émis par une conférence Talking Heads Le 13 janvier 2022, la HEAD recevait la designer matali crasset dans le cadre de son cycle de conférences Talking Heads. Parmi les différents postes d’émission de CO2, la catégorie achats représentée ci-dessus réunit tout le matériel qui a été employé pour l’évènement comme par exemple, un rétroprojecteur, deux caméras, des micros et d’autres appareils de la régie, de même que les dépenses de communication (affiches, communication digitale). Les chiffres obtenus pour les équipements sont une portion temporelle de l’empreinte globale de chaque appareil en partant de l’idée qu’ils seront employés en moyenne pendant environ cinq ans à l’école. L’impact carbone des appareils dont l’empreinte carbone n’est pas directement quantifiable est dérivé de leur prix d’achat (ratio monétaire). Aux achats s’ajoutent les émissions liées à la maintenance de la salle du Cube pendant la période donnée (chauffage, éclairage, nettoyage), les déplacements de matali crasset, d’Alexandra Midal (TGV Paris-Genève) ainsi que des 60 membres du public (un forfait qui mêle transport public et privé, distance courte et longue). La catégorie fret qui comprend les émissions liées aux transport de marchandises n’est pas concernée. Aucun déchet lié à l’évènement n’a été produit. Dans chaque rubrique, le calculateur propose à l’usager un menu déroulant avec une base de données de matériaux, d’appareils ou de type de transport à rapporter à leur durée d’utilisation, leur poids, leur prix, ou d’autres données permettant de calculer les émissions. Société carbone Le choix du carbone comme une unité de calcul s’explique par son côté facilement transposable. Quand on fait une activité, on peut savoir combien de carbone est produit. Par exemple, 1 kwh électrique produit avec du charbon équivaut à 1 kg. de CO2, alors que 1 kwh produit par l’hydraulique totalise 4 grammes de CO2. Grâce à l’évaluation carbone, il est possible de comparer des activités, des produits, des événements a priori très divers. Le carbone est une molécule trouvée naturellement dans l’atmosphère. Une grande partie a été stockée dans de la biomasse vivante (arbres, végétation) ou morte / fossilisée (pétrole, charbon, entre autres). Par son activité, l’être humain fait sortir ce carbone stocké dans l’atmosphère à un niveau trop haut pour la capacité de résorption du système terre. Dès lors, on a défini une certaine quantité maximale que chaque être humain devrait produire par année (600 kg. /année) en fonction de ce que le système Terre est capable de renouveler. Toutefois, un Européen moyen produit 4500 kg. par année de par ses activités (calcul incluant les infrastructures existantes pour la société telles que les routes, les bâtiments publics, etc.). Certain cas sont complexe. Par exemple, le bois en croissance emmagasine du carbone. En revanche, sa coupe, son transport, son usinage et son utilisation vont en produire. Le bilan global calculé peut s’avérer neutre ou positif. L’intérêt d’identifier ses émissions de CO2 ne concernant pas que les grandes entreprises ou les industries polluantes, chacun·e à son échelle doit être capable de pouvoir estimer son empreinte carbone dans sa vie privée et professionnelle. Pour faire face à ces enjeux, l’outil développé par la HEAD et la HEG a pour objectif de permettre au personnel des HES, quel que soit leur fonction dans l’institution, d’une part d’estimer a priori – et de façon collaborative et didactique – les émissions de CO2 de la façon la plus didactique possible, et d’autre part de mesurer a posteriori ce qui a été produit. Le calculateur campus, en cours de développement à la HEAD, considérera ainsi les 5 aspects transversaux communs aux hautes écoles : les infrastructures (bâtiment), les achats, la mobilité, le fret et les déchets. Cette catégorisation facilitera la mise en place d’un état des lieux, de mesures d’accompagnement, et de réduction d’émission de CO2. Plus précisément, l’outil sera utilisable pour plusieurs niveaux de calcul : bilan carbone annuel du campus, empreinte carbone d’un projet (ex. : projet de recherche), ou encore émissions liées à une seule thématique (ex. : mobilité). À terme, l’outil permettra d’analyser et de comparer les activités des diverses HES de Suisse romande voire d’autres institutions partenaires. La HEG apporte son expertise au projet par la fourniture des catégories et des données : chaque facteur d’émission est relié à une source d’information afin que les formules de calcul puissent être vérifiées voire actualisées. La HEAD, quant à elle, apporte des compétences d’ergonomie, d’interface et de programmation, permettant le développement d’un logiciel agréable d’usage et économe en énergie (utilisation du CMS « statique » Kirby). Dans une optique d’ouverture et de transparence, le code source du calculateur sera placé sous licence libre dans un dépôt GitHub. En terme de design, pour être plus précis, l’enjeu consiste faciliter la saisie et à rendre intelligibles au plus grand nombre des informations abstraites afin de mesurer les conséquences des choix effectués. Graphiquement, l’outil de saisie en ligne comprend ainsi une série de pictogrammes spécifiques et d’infographies visant à faciliter la compréhension des émissions de CO2 – ce qui tranche avec l’ergonomie souvent trop complexe des calculateurs actuellement disponibles. — Crédits du projet Requérants et coordinateurs Anthony Masure (responsable de la recherche à la HEAD – Genève, HES-SO) Yves Corminboeuf (délégué au développement durable à la HEAD – Genève, HES-SO) Laurent Cornaglia (chargé de cours à la HEG, HES-SO) Développement graphique et technique Vincent de Vevey (vacataire en communication visuelle, HEAD – Genève) Nicolas Baldran (assistant pédagogique en Master Media Design, HEAD – Genève) Financement : HEAD – Genève, HEG, HES-SO Genève.
Notions
Personnes citées
Objets mentionnés
Date
novembre 2022
Type
PublicationContexte
Article rédigé avec Alexandre Saint-Jevin pour l’ouvrage collectif Les devenirs numériques des patrimoines, Paris, UDPN, 2022.
Résumé
En déniant à la recherche ses dimensions esthétiques, les chercheur·euses pensent se protéger d’une capitalisation du savoir et de sa spéculation financière. Or l’impensé des enjeux esthétiques de leurs travaux ne fait que renforcer ces problèmes. L’analyse de plusieurs cas d’étude entre design et science met en évidence que la dimension critico-créative que le design apporte aux sciences n’annule pas la dimension critico-discursive que les sciences apportent au design. Ainsi, le format n’a pas pour fatalité de (seulement) formater mais peut aussi « former » les savoirs : il s’agit de dépasser l’idée réductrice d’une « science du design » au profit d’un « design des sciences ».
Notions
Personnes citées
Objets mentionnés
Date
novembre 2021
Type
ConférenceContexte
Participation au panel « Numérisation à la demande et salles de lecture virtuelles » dans le cadre du colloque Infoclio 2021 « Out of office. Travail à distance et sciences historiques ».
Résumé
Home office, smart working, télétravail, distance learning : le travail à distance a connu une croissance sans précédent durant la pandémie de Covid-19. Le colloque annuel infoclio.ch « Out of Office », qui s’est tenu à Berne le 19 novembre 2021, a analysé la massification récente du travail à distance, mis en lumière ses antécédents historiques, et interrogé ses conséquences sur les institutions patrimoniales et sur l’enseignement de l’histoire.
Date
avril 2017 — mars 2018
Type
ProjetContexte
Podcast préparé et animé avec Saul Pandelakis, diffusé sur Radio FMR Toulouse, dans le cadre de l’émission CPU Programme produite par Xavier Mouton-Dubosc aka Dascritch.
Résumé
Le podcast Killed by app analyse les enjeux socio-politiques des applications numériques. Animé avec Saul Pandelakis et réalisé par Dascritch, cette chronique à parution aléatoire est diffusée sur Radio FMR Toulouse dans le cadre de l’émission CPU Programme. Placé sous licence libre, ce podcast est envisagé comme un temps de recherche jouant des décalages de media pour préparer un essai à quatre mains traitant des thématiques qui y sont abordées. — #01 – « Fantômes de la déconnexion » – 06/04/2017 – MP3 — #02 – « Assistants personnels, l’ère de Jarvis » – 15/06/2017 – MP3 — #03 – « Recherche amour informatiquement » – 21/09/2017 – MP3 — #04 – « My other car is a smartphone » – 19/10/2017 – MP3 — #05 – « Mini » – 04/01/2018 – MP3 — #06 – « Maxi » – 01/03/2018 – MP3
Notions
Personnes citées
Date
janvier 2008
Type
ProjetContexte
La revue a été fondée en 2008 par Anaïs Lelièvre, Antoine Lefebvre, Anthony Masure, Alexandre Saint-Jevin et Clélia Barbut. Elle est dirigée depuis 2013 par Alexandre Saint-Jevin.
Résumé
Réel-Virtuel : enjeux du numérique est une revue en ligne pluridisciplinaire, avec une dominante artistique. Afin d’interroger leurs ancrages et spécificités, les thématiques invitent à confronter les nouvelles technologies à des théories et pratiques qui sont également issues d’autres champs.