Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Résister aux boîtes noires. Design et intelligences artificielles

Date

septembre 2018

Type

Conférence

Contexte

Conférence donnée au colloque colloque MCRIDD, Tunis, Institut Supérieur des Arts Multimédia de la Manouba (Isamm)

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes auto-apprenants (deep learning) et potentiellement incontrôlables (black boxes). Ces IA « créatives » investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Sous couvert de rentabilité, le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs (patterns) automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Machines désirantes : des sexbots aux OS amoureux

Date

novembre 2017

Type

Publication

Contexte

Anthony Masure et Saul Pandelakis, «Machines désirantes : des sexbots aux OS amoureux», ReS Futurae, revue d’études sur la science-fiction, no10, «Imaginaire informatique et science-fiction», novembre 2017

Résumé

Nous proposons de rendre compte de l’émergence du désir au cœur de la relation entre un être humain et une machine, tel qu’il est représenté dans les fictions audiovisuelles. Si, dans nos expériences quotidiennes, ce désir s’exprime le plus souvent sur le mode de la frustration, il semble que le cinéma de science-fiction projette d’autres devenirs du désir comme possible horizon de la technologie, notamment au travers du trope du sexbot. Dans la réalité des objets désignés, le sexbot reste encore un jouet passif proche du sextoy. Une figure plus trouble émerge dans les fictions audiovisuelles lorsque que la machine (selon les cas : le robot, l’ordinateur ou l’intelligence artificielle) peut faire de ce désir un sentiment réciproque et devenir alors une « machine désirante ». Des femmes télécommandées de Stepford Wives à l’intelligence sans corps de Her, nous tâcherons de qualifier ces imaginaires de l’informatique sexués et sexuels, et le devenir de ceux-ci dans les processus de conception propres au design.

Notions

Personnes citées

Objets mentionnés

Médias

IA et pédagogie : un état de l’art

Date

avril 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

How Deep is Your Love? How We Spent a Week Chatting with AI Girlfriends, Survived and Wrote About It

Date

janvier 2026

Type

Publication

Contexte

Article de recherche co-écrit avec Saul Pandelakis et Dominika Čupková dans le cadre du projet Fucking Tech! (2024-2027) et publié dans INC Longform (Institute of Network Cultures) en janvier 2026.

Résumé

À partir d’une semaine d’expérimentation avec onze applications d’« AI Girlfriends », ce texte examine ces services comme des artefacts culturels toucahnt aux notions de genre, de plaisir, d’amour et de psychologie. Appliquant une méthode de « recherche hypersituée », les auteurs décrivent leurs interactions avec des chatbots dédiés à la romance et à la sexualité pour en analyser les promesses (personnalisation, disponibilité permanente, absence de censure) et leurs angles morts (consentement automatisé, biais cishetéronormatifs, incohérences entre texte et image générée). Ils concluent sur la nécessité de repenser ces interfaces au-delà des imaginaires normatifs.

Résister aux boîtes noires. Design et intelligence artificielle

Date

décembre 2019

Type

Publication

Contexte

Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notions

Personnes citées

Objets mentionnés

Pour une intelligence de l’artificiel. Le design face aux technologies génératives

Date

juillet 2024

Type

Publication

Contexte

Article publié dans le Bulletin de l’Association Française pour l’Intelligence Artificielle, dir. Samuel Bianchini, no 125, juillet 2024, p. 45-49.

Résumé

Apparues pour le grand public avec le lancement de services tels que DALL·E, Midjourney ou ChatGPT, les technologies du machine learning sont à la base de l’IA dite « générative ». Cet article explore comment dépasser la polarisation humain/machine pour saisir les nuances théoriques, politiques et pratiques que ces technologies soulèvent dans le champ du design.

Panne des imaginaires technologiques ou design pour un monde réel ?

Date

septembre 2017

Type

Publication

Contexte

Anthony Masure, «Panne des imaginaires technologiques ou design pour un monde réel?», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse – Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017

Résumé

Il est couramment admis que les films de science-fiction, censés incarner l’imaginaire du futur, multipliraient les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.). Ce constat, qui reste à interroger, fait dire au chercheur Nicolas Nova qu’il existerait ainsi une « panne des imaginaires ». Alors qu’il est fréquemment demandé au design d’« innover », nous nous demanderons en quoi certaines séries récentes comme Mr. Robot ou Black Mirror permettraient de contester cette injonction. Il s’agira d’analyser en quoi les croisements entre cinéma et design peuvent recouper des critiques politiques et sociales adressées aux nouvelles technologies (Bernard Stiegler, Evgeny Morozov). Entre les extrême dystopiques (films catastrophe) et utopiques (d’un monde sauvé par la science), qu’est-ce que la science-fiction nous dit du design ? Comment le design pourrait-il à la fois renouveler les imaginaires et agir dans un monde « réel » (Victor Papanek) ?

Recherche et culture libre : approche critique de la science à un million de dollars

Date

décembre 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

Manifesto for an Acentric Design

Date

décembre 2019

Type

Publication

Contexte

Version enrichie d’un chapitre de l’essai Design et humanités numériques (2017), traduction du français par Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, « Navigating the Human »

Résumé

Télécharger l’article en PDF Voir l’article [En ligne English version here. «  Là où vous voyez des choses idéales, moi je vois… des choses humaines, hélas  ! trop humaines  ! » […] Un «  esprit libre  » ne signifie pas autre chose qu’un esprit affranchi, un esprit qui a repris possession de lui-même. — Friedrich Nietzsche 1 Friedrich Nietzsche, «  Pourquoi j’écris de si bons livres. Humain, trop humain et deux suites  », dans  : Ecce Homo [1888], trad. de l’allemand par Henri Albert, Paris, Mercure de France, 1908, p.  636-637. Dans ce fragment aux allures autobiographiques, Nietzsche revient sur son livre Humain, trop humain [1876-1878]. Dans les expressions circulant à propos du «  design d’interface  », celles de «  design centré utilisateur  », «  d’expérience utilisateur  », et par extension de «  design d’expérience  » pourraient, à première vue, aller de soi. Le design aurait ainsi pour but de créer des choses «  utiles  », partant des besoins des utilisateurs, «  centrés  » sur eux et sur l’amélioration de leur «  expérience  ». Pourtant, si l’on regarde ces notions de plus près, on peut se demander ce que ces méthodes engagent comme conceptions du design, et plus largement comme compréhension des relations humaines et des relations humains-machines. En effet, il ne va pas sans poser problème de présupposer que «  nous  » serions avant tout des utilisateurs, c’est-à-dire des êtres voués à n’entretenir que des rapports d’utilité. Que penser alors de termes tels que «  user-centered design (UCD) 2  Shawn Lawton Henry, Justin Thorp, «  Notes on User Centered Design Process (UCD) », W3C.org, mars 2004, [En ligne], http://www.w3.org/WAI/redesign/UCD accès  : 1er Juillet, 22:00», « human-centered design (HCD) 3  Ideo, «  Human-Centered Design Toolkit  », 2009, [En ligne], http://www.ideo.com/work/human-centered-design-toolkit», « activity-centered design (ACD) 4 Geraldine Gay, Helene Hembrooke, Cambridge, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems, MIT Press, 2004. » ou encore «  people-centered design (PCD) 5 Hugh Graham, « People Centered-Design », [En ligne], http://hughgrahamcreative.com/people-centered-design » ? Pourquoi le design devrait-il se «  centrer  » sur quelque chose  ? Plus largement, n’y a-t-il pas dans l’existence humaine quantité d’aspects auxquels les «  expériences  » générées par le design ne sauraient se substituer  ? Afin de critiquer l’ingénierisation du design et la réduction du travail des designers à des méthodologies normatives voire quantitatives, nous proposons comme méthode de recherche d’associer une étude historiques des notions à interroger à des analyses techniques et aux discours afférents qui les entourent. Plus précisément, nous pourrions synthétiser la méthode de recherche de ce texte de la façon suivante 6 Nous reprenons ici la formulation établie par le chercheur Alexandre Saint-Jevin dans son compte-rendu de lecture de l’essai Design et humanités numériques : «  Sur la trace de l’humain dans les ‹  objets  › de design  », Non-Fiction, mars 2018, [En ligne], https://www.nonfiction.fr/article-9264-sur-la-trace-de-lhumain-dans-les-objets-de-design.htm: 1 . Analyser la notion déterminant le processus de création des choses de design pour en dégager les concepts philosophiques sous-jacents. 2. Retracer la généalogie de ce concept pour confronter la réalité technique des productions de design aux discours de l’entité (des concepteurs, des entrepreneurs, des communicants, des marketeurs, etc.) à propos des productions concernées. 3. Synthétiser l’histoire et les discours des entités sur les choses du design en général pour en dégager les enjeux philosophiques. 4. Confronter les enjeux philosophiques révélés par l’analyse des discours de l’entité à ceux de la notion de départ pour révéler en quoi ils viennent conditionner et déterminer la réalité technique. À rebours de la volonté de modéliser l’activité du design sous forme de chaînes logiques (diagrammes, schémas, timelines, etc.), cette formalisation ne vise donc pas à dire aux designers ce qu’il convient de faire mais ambitionne de leur fournir, dans leur démarche même, des entrées critiques leur permettant d’analyser ce qui a déjà été fait ou ce qu’ils sont en train d’élaborer. Afin d’activer d’autres façons de faire des interfaces que les scénarisations comportementales du design d’expériences, nous proposons de débuter notre analyse par un retour sur l’histoire des premières interfaces graphiques. Comment les valeurs recouvertes par ces couches techniques infusent-elles voire limitent-elles nos relations à la technique  ? Le «  modèle conceptuel de l’utilisateur  » du Xerox Star L’expression «  d’interface utilisateur  » (user interface) est contemporaine du développement des ordinateurs personnels à la fin de années 60. En 1968, Douglas Engelbart présentait l’aboutissement des recherches menées au sein du Xerox PARC lors d’un évènement rétrospectivement surnommé «  la mère de toute les démos  » (Mother of all demos), où l’on vit pour la première fois la visioconférence, la téléconférence, le courrier électronique, le système de navigation hypertexte et le modèle d’interface de la «  métaphore du bureau  » basé sur des «  fenêtres  » (windows), «  dossiers  » (folders), «  corbeilles  » (trash), etc. Partiellement réalisée dans l’ordinateur Xerox Alto de 1973  7 Seulement 1500 unités furent produites  : 1000 pour les employés de Xerox et le reste pour des universités et institutions publiques., cette première forme d’interface graphique (« GUI » pour graphic user interface) fut reprise dans le Xerox Star de 1981. Ce dernier était de plus accompagné d’un accès au réseau, de la possibilité d’envoyer des mails, d’une souris, et d’un système d’impression WYSIWIG (What You See Is What You Get) assez précis pour faire coïncider ce qui est vu à l’écran avec une impression papier. Afin de préciser l’origine du modèle conceptuel ayant servi de base à un design se revendiquant explicitement des besoins des «  utilisateurs  », il importe de revenir sur les principes fondateurs du Xerox Star. Dans un article datant de 1982, cinq anciens employés de Xerox Corporation expliquent leur compréhension des relations humains-machines, et plus précisément leurs méthodologie de design d’interface  : «  Nous avons appris du Star l’importance de formuler les concepts fondamentaux (le modèle conceptuel de l’utilisateur [the user’s conceptual model] avant que le programme ne soit écrit, plutôt que de faire suivre l’interface utilisateur user interface après. […]Elle a été conçue avant designed before les fonctionnalités du système ne soient entièrement décidées. Elle a même été conçue avant que le matériel informatique n’ai été construit. Nous avons travaillé pendant deux ans avant d’avoir écrit une seule ligne de code du programme du produit réel 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, Eric Harslem, «  Designing the Star user interface », Byte, no   4, 1982, p.  242-282, [En ligne], http://www.GUI debookgallery.org/articles/designingthestaruserinterface. » Une telle importance attribuée au design « avant » que les spécification matérielles ne soient formulées ne manquera pas d’interroger le lecteur contemporain, habitué à ce que le design soit réduit à une action en bout de course, dépendante d’une multitude de paramètres extérieurs. Dans le cas du Star, il était question d’introduire sur le marché des «  concepts radicalement nouveaux 9 Ibid. » bien plus que de chercher à appliquer une «  commande  » venue d’en haut. En dédiant une mémoire à l’affichage écran, les concepteurs du Star furent en mesure de créer une interface visuelle fonctionnant de concert avec la souris (également utilisée sur le Xerox Alto), définie dans le texte de 1982 comme «  un moyen de pointer rapidement un item à l’écran 10 Ibid. » plus efficace que les curseurs activables par le clavier. Il est particulièrement intéressant d’étudier comment les équipes de Xerox mirent au point une méthodologie de projet pouvant être reliée avec ce qui se nomme aujourd’hui «  design centré utilisateur  ». Le développement d’une interface pose en effet de nombreux problèmes  : la compréhension de la variété des langages dans lesquels les utilisateurs expriment leurs commandes à l’ordinateur, le design des représentations à l’écran montrant l’état du système à l’utilisateur, et d’autres problèmes abstraits pouvant affecter la compréhension du comportement du système. Selon les équipes du Star, ces problèmes sont hautement subjectifs, et ne peuvent être résolus qu’au cas par cas. La méthode employée aura donc consisté à se focaliser sur ce qui devrait précéder tout design d’une interface réussie, à savoir «  l’analyse des tâches  » (task analysis) : «  La description de la tâche actuelle avec sa répartition des objets et des méthodes d’information actuellement employées offre un point de départ pour la définition d’un ensemble équivalent d’objets et de méthodes devant être fournies par le système informatique l’ordinateur, ses programmes et ses périphériques]. L’idée derrière cette phase de conception [this phase of design] est de construire un nouvel environnement des tâches utilisateur [a new task environment for the user], dans lequel il puisse travailler pour atteindre les mêmes objectifs [same goals] qu’avant, désormais entourés d’un ensemble différent d’objets, et en employant de nouvelles méthodes 11 Ibid. » Pour Xerox, l’utilisateur est une entité essentiellement vouée à effectuer des tâches en vue d’accomplir des objectifs. On retrouve ici la définition commune d’un algorithme, à savoir un ensemble d’instructions destinées à accomplir une action déterminée. Autrement dit, n’est-ce pas du «  programme  » (un algorithme écrit en langage machine) en tant que modèle de pensée que découle la compréhension de ce qu’est un utilisateur  ? N’est-ce pas étonnant que d’aller de la machine vers les êtres humains afin de comprendre comment améliorer leurs relations  ? En ce sens, ce que l’on appellerait «  utilisateur  » dans le contexte informatique ne serait bien souvent qu’une réduction logique de la subjectivité humaine, capable dès lors de dialoguer avec des programmes «  extra humains 12 J’emprunte cette expression au livre Haunted by algorithms issu de la ligne de recherche Meta Mediums dirigée par Jeff Guess et Gwenola Wagon, à apparaître en 2016 aux Presses du réel. ». De même que certains voient dans le design une discipline susceptible de faire science 13 Voir  : «  Pour une recherche en design sans modèle  », supra., il s’agirait ici de «  modéliser des comportements  » disparates en vue d’améliorer l’efficacité des «  tâches  ». L’étymologie du terme «  tâche  » renvoie à taxer (taxare) pour désigner «  le travail déterminé que l’on a l’obligation de faire, avec une notion de ‹  rétribution  › [voire de] devoir moral 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. ». Le verbe «  tâcher  » exprime quant à lui l’idée de «  faire des efforts pour  », avec parfois l’idée d’une pénibilité voire d’un ordre atténué avec l’impératif «  tâchez de  ». Si l’utilisateur est celui dont les objectifs à réaliser passent nécessairement par une série de tâches à accomplir, cela ferait-il de nous des «  tâcherons  », c’est-à-dire des «  personne effectuant des besognes de commande [nous soulignons], sans grande intelligence » ? 15 Ibid. Dans l’exemple du Xerox Star, les choses sont néanmoins plus complexes. Le fait de partir d’un «  modèle-utilisateur  » constitué d’un petit ensemble de principes de design (design principles) permet d’assurer une cohérence globale, puisque « l’expérience utilisateur acquise dans une des zones du programme peut s’appliquer dans une autre 16 «  Designing the «  Xerox Star user interface », op.  cit : «  The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […]and allow user experience in one area to apply in others. » Nous soulignons. », réduisant ainsi la charge cognitive relative à l’utilisation du système informatique. Un autre aspect discuté dans l’article – relatif à la notion de cohérence – concerne la notion de «  familiarité » (« Familiar User’s Conceptual Model ») : «  Un modèle conceptuel utilisateur [a user’s conceptual model] est l’ensemble des concepts qu’une personne acquiert progressivement pour expliquer le comportement [behavior] d’un système […]. La première tâche d’un concepteur de système est de décider quel modèle est préférable pour les utilisateurs […]. Cette étape extrêmement importante est souvent négligée ou mal faite. Les concepteurs du [Xerox] Star [The Star designers] ont consacré de nombreuses années […]à évoluer vers […]un modèle approprié pour un système d’information bureautique  : la métaphore d’un bureau physique 17 Ibid. » C’est en partant de l’univers actuel des utilisateurs, à savoir le modèle hiérarchique du bureau, que l’interface du Xerox Star a pu être élaborée. Il était important de donner naissance à une interface «  familière  » afin qu’il y ait le moins de frictions (seamless) dans «  l’expérience utilisateur  ». Ce dernier retrouve ainsi dans la machine son organisation habituelle de gestion et de découpage des tâches. Par exemple, les message papier empilés sur le bureau physique de l’utilisateur employé de bureau deviennent, dans son ordinateur, un pictogramme d’enveloppe indiquant quand un nouvel email est reçu. Il est intéressant de préciser que le modèle métaphorique défini avant le développement effectif du programme modifie de fait les fonctions dudit programme  : le design n’est pas abordé comme un simple habillage. Toujours dans l’exemple des emails, la commande d’envoi (send mail) a ainsi pu être évitée en utilisant le déplacement d’icônes. Un dernier aspect important de l’interface du Star concerne la personnalisation de l’interface, les icônes déplaçables permettant de configurer l’environnement de travail. Si l’on résume les grands principes du Xerox Star, ce qui est ici désigné sous le terme d’«  utilisateur  » est en fait une succession de «  tâches  » orientées vers des objectifs à partir desquelles les designers vont élaborer un «  modèle conceptuel  » servant de base au développement du système informatique et assurant sa cohérence métaphorique. En fournissant un environnement «  familier  » et «  amical  » à l’utilisateur, l’interface développée vise donc à accroître son efficacité en développant des «  synergies humains-machines  ». L’interface «  amicale  » (« friendly ») du Xerox Star montre toutefois ses limites sur certaines fonctions où la métaphore du bureau est inopérante  : «  Une des raisons d’être du [Xerox Star] est que Les objets physiques ne donnent pas assez de pouvoir aux gens [do not provide people with enough power] pour gérer la complexité croissante de «  l’ère de l’information  ». Par exemple, nous pouvons tirer avantage de la capacité des ordinateurs à chercher rapidement en mettant en place une fonction de recherche pour les dossiers de fichiers électroniques, aidant ainsi à résoudre le vieux problème des fichiers perdus 18 Ibid. » La fin de l’article de 1982 se conclut de façon intrigante sur le fait qu’il est difficile de choisir entre plusieurs modèles d’interfaces en s’appuyant sur des critères stabilisés (scientifiques) : «  Le design d’interface est encore un art et non une science 19 Ibid. : «  User-interface design is still an art, not a science. » ». Bien que le texte du Xerox Star plaide au final pour l’établissement de «  processus plus rigoureux  » concernant l’élaboration d’interfaces, une telle assertion ne manquera pas d’intriguer le lecteur contemporain. L’émergence des systèmes d’exploitation «  graphiques  » rationalisés Malgré l’échec commercial du Xerox Star, ces méthodes de design vont connaître un succès qui changera définitivement nos rapports aux machines électroniques. Précurseur des recherches menées au Xerox PARC, la thèse en Informatique (computer science) de Jef Raskin, Quick-Draw Graphic System, publiée en 1967 (soit 6 ans avant le Xerox Alto 20 Au début des années 70, le IBM Usability lab ne se préoccupait que d’ergonomie. The Psychology of Computer Programming fut publié par Gerald Marvin Weinberg en 1971, et les travaux de Stuart K. Card, Allen Newell et Thomas P. Moran ne furent connus du grand public qu’après la parution en 1983 de The Psychology of Human-Computer Interaction.), plaidait pour un environnement informatique où l’interface graphique tiendrait une place prépondérante. Une telle idée n’allait pas du tout de soi à la fin des années 1960  : «  Ma déclaration la plus hérétique […]fut de dire que mon travail était basé sur une «  conception [design] et une mise en œuvre philosophique qui plaçaient la généralisation et l’utilisabilité humaine [human usability] devant la vitesse d’exécution et l’efficacité ». Ceci à une époque où le principal objectif des cours d’informatique était de vous apprendre à faire des programmes plus rapides [to make programs run fast] et utilisant le moins de mémoire possible 21 «  Articles from Jef Raskin about the history of the Macintosh  », 1996, [En ligne], https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/. » Après des contacts avec Xerox concernant le développement de la souris, Jef Raskin fut embauché par Apple en 1978. C’est sous son impulsion et celle de Bill Atkinson 22 Le titre de la thèse de Jef Raskin (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) fut repris par Bill Atkinson pour nommer l’environnement graphique (graphics package) du Macintosh. que Steve Jobs et Steve Wozniak prirent connaissance des recherches menées au Xerox PARC sur les interfaces graphiques. La suite de l’histoire est connue. Alors CEO de Apple Inc., Steve Jobs, âgé de 24 ans, visita en 1979 les locaux de Xerox. Dans un documentaire sorti en 1995, il revient sur le choc que constitua pour lui cet événement  : «  Ils [Xerox] me montrèrent […]trois choses. […]. Une des choses qu’ils me montrèrent fut la programmation orientée objet […]. L’autre chose qu’ils me montrèrent était un système informatique [d’une centaine d’ordinateurs] en réseau […]. Je ne le voyais même pas. J’étais totalement aveuglé par la première chose […], à savoir l’interface graphique utilisateur [the graphical user interface]. Je pensais que c’était la meilleure chose que j’ai jamais vue de toute ma vie. Aujourd’hui, je me souviens que c’était très imparfait. […] Mais, à l’époque], au bout de […]dix minutes, il était évident pour moi que tous les ordinateurs fonctionneraient comme cela un jour. C’était évident 23 Steve Jobs, entretien avec Robert X. Cringely, Triumph of the Nerds: The Rise of Accidental Empires, documentaire, 1996, [En ligne], http://www.pbs.org/nerds » Suite à cette présentation obtenue en échange d’actions de l’entreprise Apple Inc., Steve Jobs lança l’ordinateur personnel Apple Lisa en 1982, qui reprenait du Xerox Star les principes de la souris et de l’interface graphique. D’un prix trop élevé (10   000 $ pour l’époque soit 24   000 $ aujourd’hui), le Lisa fut remplacé par le Macintosh sorti en 1984, bien plus accessible financièrement. Si beaucoup pensent encore que Steve Jobs s’est contenté de «  voler  » les principes clés du Xerox Alto, l’histoire est cependant plus complexe. Les dirigeants de Xerox n’avaient pas pris conscience des conséquences décisives de ce qu’ils avaient découvert, abandonnant leur vision prospective aux équipes de ventes et du marketing qui étaient focalisées sur les photocopieurs, le cœur de la marque, et non sur le nouveau marché des ordinateurs 24 Pour un histoire détaillée de l’entreprise Xerox, voir  : Douglas K. Smith, R. C. Alexander, Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, New York, William Morrow & Co, 1988.. Il a fallu que Bill Atkinson réécrive et améliore quantité de fonctions pour que le Lisa puis le Macintosh puissent bénéficier d’une interface graphique «  supérieure  » (ajout des menus déroulants, ouverture des fenêtres en double-clic, icône corbeille, etc.). Aucune ligne de code ne fut, au sens propre, «  copiée/collée 25 Christoph Dernbach, «  Did Steve Jobs steal everything from Xerox PARC? », Mac History, février 2012, [En ligne], http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc ». Afin de développer l’offre logicielle des machines Apple, Steve Jobs invita Microsoft au début des années 1980 à éditer des programmes pour le Macintosh. Malgré la demande faite par Jobs à Bill Gates (alors CEO de Microsoft) de ne pas utiliser d’interface graphiques pilotable à la souris avant que le Macintosh (1984) ne fut en vente depuis un an, Microsoft surprit tout le monde en annonçant en 1983 le système d’exploitation Windows 1.0  26 windows 1.0 n’était pas encore un système d’exploitation complet, mais plutôt une «  couche graphique  » utilisable par des logiciels tiers., dont la sortie officielle n’aura lieu qu’en 1985. Quand Jobs, furieux, accusa Bill Gates de l’avoir trahi, ce dernier lui répondit qu’ils avaient tous les deux volé «  leur riche voisin Xerox 27 Andy Hertzfeld, «  How the Mac was born, and other tales  », entretien avec Scott Ard, CNET, janvier 2005, [En ligne], http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html ». En 1988, la justice américaine classa sans suite le procès intenté par Apple. Don Norman, les limites de «  l’expérience utilisateur  » Après la sortie de Microsoft windows, les méthodes de conception liées au design d’interface se structurent autour de disciplines scientifiques connexes à ce champ.  En plus des expressions d’«  utilisabilité humaine  » (human usability) et d’«  interface utilisateur  » (user interface), celle d’«  expérience utilisateur  » (souvent abrégée en « UX » pour User eXperience) rencontre alors un succès notable. Cette dernière semble apparaître pour la première fois en 1986  28 Pour une chronologie détaillée de l’histoire de ce terme, voir  : Peter Merholz , «  Whither ‹  User Experience  › », novembre 1998, [En ligne], http://www.peterme.com/index112498.html dans un livre codirigé par Donald Norman (chercheur en sciences cognitives) et intitulé User Centered Design: New Perspectives on Human-Computer Interaction (Design des systèmes centrés utilisateur) 29 Donald A. Norman, Stephen W. Draper (dir.), User Centered Design: New Perspectives on Human-Computer Interaction, San Diego, University of California, Hillsdale, Lawrence Erlbaum Associates, 1986. Après un développement sur l’impossibilité de parvenir à un sens univoque par des images normées (pictogrammes), on trouve cette citation  : «  Un engagement direct se produit lorsqu’un utilisateur fait l’expérience d’une interaction directe [a user experiences direct interaction] avec des objets dans un milieu […]plutôt qu’une communication avec un intermédiaire. Ces interactions s’apparentent à interagir avec des objets du monde physique. […]L’]interface et l’ordinateur deviennent invisibles [the interface and the Computer become invisible]. Bien que nous croyons que ce sentiment d’engagement direct soit d’une importance capitale, nous ne savons […]que peu de choses sur les besoins réels nécessaires à sa production 30 Edwin L. Hutchins, James D. Hollan, Donald A. Norman, «  Direct Manipulation Interfaces  », ibid., p.  114. » L’«  expérience utilisateur  » pourrait ainsi être comprise comme un volonté d’élargir le modèle de conception du Xerox Star à d’autres champs que celui des interfaces écran et des ordinateurs qui pourraient disparaître, devenant «  invisibles  ». Fréquemment mentionné comme étant l’inventeur de cette expression, Don Norman la définissait ainsi en 1998  : « J’ai inventé l’expression [d’expérience utilisateur] parce que je pensais que celles d’interface humaine et d’utilisabilité 31 La notion d’«  utilisabilité », que Don Norman juge insuffisante, était abordée par ses zélateurs Jeff Rubin et Dana Chisnell sous ces termes  : «  Quand un produit ou un service est vraiment utilisable, l’utilisateur peut faire ce qu’il […]veut faire de la façon dont il […]espère pouvoir le faire, sans entrave, hésitation, ou questions. » Source  : Jeff Rubin, Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests [1994], Indianapolis, Wiley, 2008, p.  4. étaient trop restreintes [I thought Human Interface and usability were too narrow]: je voulais couvrir tous les aspects de l’expérience d’une personne [the person’s experience] avec un système, incluant le design industriel, le design graphique, l’interface, l’interaction physique et le mode d’emploi 32 Don Norman, cité dans  : Peter Merholz , «  Whither ‹  User Experience  › », op.  cit » Cet aspect plus large de l’«  expérience utilisateur  » fut ensuite précisé dans la version «  canonique  » formulée par Jakob Nielsen et Don Norman  : «  L’expérience utilisateur  » englobe tous les aspects de l’interaction de l’utilisateur final [«User experience  » encompasses all aspects of the end-user’s interaction] avec l’entreprise, ses services et ses produits. La première exigence pour une expérience utilisateur exemplaire est de répondre aux besoins exacts du client [to meet the exact needs of the customer]. […]Nous devons distinguer l’UX [l’expérience utilisateur] et l’utilisabilité [usability]. La définition de l’utilisabilité indique que c’est une qualité de l’UI [interface utilisateur] couvrant le fait qu’un système soit simple à comprendre, efficace à utiliser, plaisant, etc. [L’expérience utilisateur] est un concept bien plus large 33 Jakob Nielsen, Don Norman, «  The Definition of User Experience  », article non daté, Nielsen Norman Group, [En ligne], http://www.nngroup.com/articles/definition-user-experience. » Le «  design d’expérience  » et la fable de l’informatique «  invisible  » Cet intérêt désormais resserré autour de la personne-utilisateur et non plus de l’appareillage technique (l’interface) est encore plus explicite dans la formule «  design centré utilisateur  » (« UCD » pour user-centered design), qui consiste à fonder l’ensemble de la méthodologie de conception sur le point central qu’est l’utilisateur. Cette méthodologie de conception a rencontré un très grand succès peut-être en raison du lien qu’elle permettait d’établir entre les services marketing chargés d’étudier les consommateurs et les équipes chargées du design des produits. Pourtant, de l’aveu même du zélote Don Norman, le terme «  d’utilisateur  » a montré ses limites. Dans un article paru en 2006 et intitulé «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », Don Norman confessait ainsi  : «  Nous dépersonnalisons les individus que nous étudions en les rebaptisant «  utilisateurs  ». Ces termes sont péjoratifs. Ils nous éloignent de notre mission première  : aider les gens [to help people].[…]Les gens sont des êtres complexes et riches. […]Une étiquette telle que client, consommateur ou utilisateur ignore cette […]structure sociale. […]Il est temps de débarrasser notre vocabulaire de termes tels que consommateur, client et utilisateur. Il est temps de parler à des personnes. Le pouvoir au peuple [Time to speak of people. Power to the people] 34 Don Norman, «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », jnd.org, 2006, [En ligne], http://www.jnd.org/dn.mss/words_matter_talk_a.html. » De même, en 2008  : «  Parmi les horribles mots que nous employons, il y a le mot «  utilisateurs  ». Je pars en croisade pour nous débarrasser de ce terme. Je préfère parler de «  personnes  ». […] Nous concevons des produits pour des personnes, pas pour des utilisateurs 35 «  Don Norman at UX Week 2008, Adaptive Path  », YouTube, [En ligne], https://youtu.be/WgJcUHC3qJ8 » Résumons ces différents points. La méthodologie de conception «  centrée sur l’utilisateur  » consiste à traiter par le design chaque être humain comme un utilisateur, comme une personne vouée à n’entretenir avec les entreprises que des rapports «  centrés  » sur ses «  besoins exacts 36 Jakob Nielsen, Don Norman, «  The Definition of User Experience (UX) », op.  cit », avec lesquels il n’aurait ni «  entrave[s], hésitation[s]ou questions 37 Jeff Rubin, Dana Chisnell, Handbook of Usability Testing, op.  cit ». Ce courant de pensée est issu d’une modélisation scientifique des principes ayant présidé à la conception du Xerox Star afin d’en faire une machine «  personnelle  » optimisant les tâches à accomplir par l’utilisateur. Rétrospectivement, les textes performatifs de Don Norman faisant l’éloge de l’étude des «  besoins  » ont conduit, de l’aveu même de l’auteur, à une impasse, en raison du fait que l’être humain ne peut pas être réduit à un rôle déterminé 38 Cette idée a été inscrite dans les normes ISO, qui proposent de changer l’expression d’«  expérience centrée-utilisateur  » en «  conception centrée sur l’opérateur humain  ». Voir  : «  ISO 9241-210:2010. Ergonomie de l’interaction homme-système. Partie 210  : Conception centrée sur l’opérateur humain pour les systèmes interactifs  », Iso.org, mars 2010, [En ligne], https://www.iso.org/obp/ui/fr/#iso:std:iso:9241:-210:ed-1:v1:fr. Il serait possible de se réjouir d’un tel revirement de pensée. Pourtant, à y regarder de plus prêt, ne faudrait-il pas également interpréter ces injonctions contradictoires comme le signe d’un pouvoir qui n’appartiendrait pas au «  peuple  », mais à ceux tenant ces discours  ? Autrement dit, n’est-ce pas contre ceux qui s’enrichissent continuellement (au sens banal du terme) en maîtrisant la circulation des méthodologies de conception qu’il faudrait «  partir en croisade  » ? Davantage qu’un plaidoyer en faveur d’une complexité à prendre en compte dans la conception, cet «  appel à l’humain  » aura été, pour Don Norman, l’occasion d’éliminer progressivement les «  interfaces  » au nom d’une informatique «  invisible 39 Donald A. Norman, Norman, The Invisible Computer. Cambridge, MIT Press, 1998. » dont les produits seraient «  humainement centrés  » (human-centered) 40 Le chapitre 2 du livre The Invisible Computer a pour titre «  Growing up: Moving from technology-centered to human-centered products  ». Cette prédiction d’invisibilité passant à couvert dans un changement de vocabulaire a priori innocent fut si bien intégrée par les entreprises qu’en 2012 Apple en faisait l’objet d’une publicité : «  Nous pensons que la technologie atteint son summum lorsqu’elle devient invisible, quand vous ne pensez qu’à ce que vous faites et non à l’appareil avec lequel vous le faites. […] L’iPad illustre parfaitement cette idée. C’est une fenêtre magique qui peut devenir tout ce que vous voulez qu’elle soit. […]C’est une expérience de la technologie plus intime que ce que le public [people] a connu jusqu’alors 41 «  Official Apple (New) iPad Trailer  », YouTube, mars 2012, [En ligne], https://youtu.be/RQieoqCLWDo. » La prise de recul de Don Norman ne veut pas dire pour autant que son idée d’informatique «  invisible  » soit viable. Le terme qui importe ici est celui d’«  expérience  », qui va de pair avec celui de «  magie  ». Quoi de plus magique, en effet, que de faire l’expérience d’une technologie «  invisible  » ? Olia Lialina (artiste), dans un article critique consacré à l’étude de la notion d’utilisateur, ne s’en laisse pas compter  : «  C’est pour cela que le design d’interfaces a progressivement été rebaptisé design d’expériences – expression dont l’objectif premier est de faire oublier l’existence des ordinateurs et des interfaces auprès des utilisateurs. Le design d’expériences vous laisse seul avec vos émotions à ressentir, vos objectifs à atteindre et vos tâches à effectuer 42 Olia Lialina, «  L’utilisateur Turing-complet  » [2012], trad. de l’anglais par Jean-François Caro, LGRU Reader, 2013, [En ligne], http://reader.lgru.net/texts/lutilisateur-turing-complet. » Pour un design appareillé En conclusion de son article consistant à étudier les limites d’une exclusion du terme d’utilisateur des méthodes de conception d’interface, Olia Lialina propose de revenir à des fondements antérieurs au Xerox Star, à savoir ceux développés par l’informaticien Ted Nelson dans son ouvrage Computer Lib / Dream Machine de 1974  : «  L’INFORMATIQUE A TOUJOURS ÉTÉ PERSONNELLE [COMPUTING HAS ALWAYS BEING PERSONNAL]. Je veux dire par-là que si vous ne vous y plongiez pas intensément, parfois avec chaque cellule de votre cerveau éveillé, vous n’étiez pas en train de faire de l’informatique, vous n’étiez qu’un simple utilisateur [you weren’t doing computers, you were just a user] 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now, auto-édition, 1974, p.  3. » L’argument est fort. L’utilisation «  naïve  » dénoncée Ted Nelson, précise les risques d’une perte de contact avec l’ordinateur, qui du Xerox Star à l’iPad, présuppose que tout ce qui est «  vrai  » (la vraie vie, la créativité, etc.) serait extérieur à la machine. Pourtant, malgré la montée en puissance des interfaces tactiles (sans souris), malgré l’émergence des interfaces gestuelles (sans boutons), des interfaces sonores (sans écran), et malgré le retour des interfaces [En ligne de commande (sans icônes), force est pourtant de constater que les grands principes des interfaces graphiques élaborées au Xerox PARC au début des années 1970 régissent encore majoritairement nos rapports aux machines électroniques – qui ne sont pas encore,  loin s’en faut, «  invisibles  ». En témoignent, par exemple, les « Apple Human Interface GUI delines 44 Voir pour exemple  : « OS X Human Interface GUI delines  », Apple, [En ligne], https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGUI delines  : «  Designing for Yosemite  : […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience. » » (littéralement  : «  Directives Apple d’interfaces humaines  ») et le « Material Design 45  Google, Material Design, première version publiée en juin 2014, [En ligne], https://www.google.com/design/spec/material-design/introduction.html » de Google qui, dans les années 2010, sont des lectures recommandées – à condition d’être critique – pour quiconque s’intéresse au design d’interface. Cette actualité n’empêche pas que le modèle de pensée d’une interface couplée avec une figure utilisateur idéalisée (prise dans un faisceau d’habitudes) ait ses limites. Depuis le texte de Jef Raskin de 1967 associant «  l’utilisabilité humaine  » à l’efficacité de la résolution de tâches 46 Jef Raskin, A Hardware-Independent Computer, 1967, op.  cit, la volonté de créer une interface graphique pour procurer à l’«  utilisateur  » un nouvel environnement de travail et de nouvelles méthodes pour accomplir «  les mêmes objectifs qu’avant 47 «  Designing the Star user interface », op.  cit » aura consisté à envisager les médias électroniques comme des «  résolveurs de problèmes  » plutôt que comme des puissances de transformation et d’invention. Or, comme le note avec acuité le spécialiste des humanités Yves Citton  : «  L’invention des dispositifs techniques de communication […]s’inscrit dans une vaste nébuleuse d’espoirs, d’angoisses, de rêves, de bricolages, de savoirs parallèles, de détournements et de réappropriations, qui traversent de nombreux champs disciplinaires traditionnels […]. Nos médias ne sauraient en effet se réduire à de simples instruments de transmission de formes et de contenus  : il fonctionnent avant tout comme des médiums qui nous fascinent, nous hallucinent, nous hypnotisent et nous stimulent par l’entremise des simulations qu’ils qu’ils font pénétrer à travers nos sens 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques, Paris, Armand Colin, coll. Le temps des idées, 2012, p.  21-22. » Au regard de ces quelques textes fondateurs du design à l’époque du numérique, il est évident que les machines électroniques posent des questions qui n’existaient pas avant elles. Mais peut-être est-ce précisément contre ces nouveautés que se seront élaborées des méthodologies de conception trop inquiètes de préserver les pouvoirs et savoirs en place. Malgré ses indéniables avancées techniques, le Xerox Star n’aura pas bénéficié du plein soutien des dirigeants de l’entreprise, qui préférèrent développer le commerce des photocopieurs, plus en phase avec les «  usages  » de l’époque. Dans cette histoire de «  design centré utilisateur  », expression postérieure au Xerox Star, il est en effet question d’une inquiétude quant à un oubli de «  l’utile  », de l’utilité de l’objet. Mais est-ce vraiment possible dans un monde où les services marketing, par exemple, cherchent sans cesse à anticiper les «  besoins  » des consommateurs par des procédures statistiques couplées à des protocoles d’observation  ? Un autre aspect allant dans le sens d’un design se construisant contre les nouveautés techniques – c’est-à-dire pour les habitudes – est cette histoire de «  centre  », terme qu’il faut à présent examiner. Ce double suffixe accolé à design aurait pu faire l’objet de variations. Pourquoi ne parle-t-on jamais, par exemple, de design «  centré forme  » par exemple, ou bien de design «  centré pratiques  » ? Peut-être est-ce parce que ces deux notions (il pourrait y en avoir d’autres) résistent à l’idée de «  centre  », de délimitation. Si l’on prend la notion de forme, il est notable que celle-ci, historiquement, aura concerné le design – suivant la formule de l’architecte Louis Sullivan suivant laquelle «  de la forme suit de la fonction 49 Traduction proposée par Pierre-Damien Huyghe de la formule « form ever follows function » de 1886. ». Fin observateur d’une histoire qui, parfois, «  piétine  » (où des enjeux sont tantôt occultés, tantôt redécouverts), le philosophe Pierre-Damien Huyghe note que la notion de forme traduit le «  souci artistique  » du design  : «  Il ne s’agissait pas seulement de mettre au monde des objets fonctionnels qui pouvaient servir. Le souci de faire forme aura été absolument essentiel au design. On pourra noter ici que le latin forma peut, a pu se traduire par «  beauté » 50 Pierre-Damien Huyghe, «  On appelle beaucoup trop de choses «  design  », entretien avec Julie Delem, Naja21, avril 2015, [En ligne], http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design » De façon plus générale, c’est bien le design, dans ce qu’il comprend de capacité à transformer le monde, qui ne saurait «  se centrer  » sur quelque chose. Le design n’a de l’intérêt que s’il est emprunt de tensions, de polarités, de contradictions – soit tout le contraire d’un centre. Olia Lialina, en conclusion de son article, refuse également de se laisser réduire à une étiquette  : «  Nous, utilisateurs généralistes – qui ne sommes ni hackers, ni «  personnes  » –, qui interrogeons, consciemment ou non, notre potentiel et celui de l’ordinateur, sommes les participants ultimes de la symbiose de l’homme et de l’ordinateur 51 Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit » Il faut désormais revenir sur le fait que le modèle conceptuel de l’interface du Xerox Star de 1981 ait été décidé «  avant  » que le matériel (hardware) n’existe, «  deux ans avant d’avoir écrit une seule ligne de code 52 «  Designing the Star user interface », op.  cit ». Rétrospectivement, ce récit peut être compris comme celui d’une rencontre manquée avec l’altérité des machines, puisqu’il y est question, en substance, d’assujettir la technique numérique (hardware et software) à un «  modèle  », c’est-à-dire à quelque chose d’anticipé et de stabilisé. Cette mise à distance progressive de la notion d’«  utilisateur généraliste {53; Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit} » (actif et polyvalent) aura rendue possible les expressions de «  design centré-humain  » puis de «  design d’expérience  », qui incarnent la promesse d’un monde où l’on pourrait «  faire ce que l’on veut  », immédiatement, comme par «  magie  ». Mais de quel «  faire  » parle-t-on quand l’invisibilité devient l’idéal des machines  ? Cette fable de l’invisibilité des nouveautés techniques était en fait déjà en germe aux prémices de l’informatique personnelle. Dans un spot publicitaire de 1979 pour le Xerox Alto censé démontrer la puissance du «  bureau du futur  », un cadre commercial (Bill) arrive au travail et salue ses collègues un café à la main. Quand il arrive à son poste, il allume son ordinateur Alto et s’adresse vocalement à lui  : «  Hello, Fred  ». L’ordinateur lui répond «  Bonjour Bill  ». Après une série de tâches facilement résolues par la machine, vient le dialogue final  : Bill (fatigué) : «  Autre chose  ? » Fred  : Un bouquet de fleurs richement détaillé apparaît à l’écran Bill (troublé) : «  Des fleurs  ? Pourquoi des fleurs  ? » Fred  : «  Votre anniversaire est ce soir. » Bill (attristé) : «  Mon anniversaire. J’avais oublié. » Fred  : « Ça va. Nous ne sommes que des humains [It’s ok. We’re only human] 54 Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, op.  cit, p.  20.» Ce que décrivent de telles initiatives est paradoxalement un monde sans expérience, au sens où l’expérience ne peut avoir lieu qu’au sein d’un champ de possibles ouvert à l’incertitude  : «  La puissance économique est bien ce que la socialisation des expériences met en œuvre. Mais d’un autre côté, si cette mise en œuvre nourrit jour après jour l’expérience et la perception communes, elle n’apparaît pas authentiquement. Le plus souvent même, elle emprunte les formes de l’habitude, elle se glisse mimétiquement dans l’expérience 55 Pierre-Damien Huyghe, «  Faire place  », dans :  Richard Conte, Sandrine Morsillo (dir.), Qu’est-ce que l’art domestique  ?, Paris, Publications de la Sorbonne, coll. Arts et monde contemporain, 2006, p.  29.. » Symptomatique d’une époque où les «  appareils 56 L’appareil est défini par Pierre-Damien Huyghe comme «  une modalité technique distincte de l’outil et de la machine qui fait qu’il y a en lui une puissance de perception, une forme particulière de la sensibilité ». Voir  : Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, 2006. » ne sont plus des objets dignes d’intérêt, les relations humains-machines sont de plus en plus marquées (brandées) par les registres de l’utilité, du rendement ou du gain de temps. L’expérience humaine du «  design d’expérience  » se réduit bien souvent à une situation expérimentale, celle d’un rat cherchant sa sortie dans un labyrinthe. Qu’il soit «  amical  » (friendly) voire «  invisible  », ce milieu technique n’en est pas moins un carcan, une situation sous contrôle où tout échange est anticipé et programmé. À force de vouloir nous imiter dans des ordinateur «  humains, trop humains  », c’est nous-mêmes, «  simples personnes  », qui risquons de passer à côté de leurs possibilités complexes et infinies.

The Digital Thesis as a Website: SoftPhD.com, from Graphic Design to Online Tools

Date

mai 2021

Type

Publication

Contexte

Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.

Résumé

How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?

Singulariser le multiple : les NFT artistiques entre spéculation et redistribution

Date

novembre 2021

Type

Publication

Contexte

Article rédigé avec Guillaume Helleu pour la revue de recherche Multitudes.

Résumé

Cet article explore les enjeux des technologies blockchain dans le champ de la création (art, design, jeu vidéo, etc.) à travers le développement, depuis 2015, des « Non Fungible Tokens » (NFT) – à savoir la production d’un certificat numérique infalsifiable et décentralisé attaché à une entité numérique ou tangible. Mis en lumière depuis le début de l’année 2021 par une multitude de ventes aux sommes record et par le développement de places de marché spécifiques, les NFT soulèvent des enjeux relatifs à la valeur, à la circulation et à l’exposition des productions artistiques et culturelles.

Des interfaces graphiques aux IA. Vers un design à sens unique ?

Date

janvier 2024

Type

Publication

Contexte

Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.

Résumé

À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.

Art, design : vers une ère post-numérique ?

Date

septembre 2017

Type

Conférence

Contexte

Participation à la table-ronde « Art, design : vers une ère post-numérique ? » dans le cadre du festival Scopitone, Nantes

Résumé

Modération – Claire Richard (journaliste) Intervenants – Samuel St-Aubin (artiste) – Anthony Masure (MCF Design, université Toulouse – Jean Jaurès) – Dominique Moulon (critique d’art et enseignant) Organisation – Stereolux / Labo Arts & Tech De gauche à droite  : Samuel Augustin, Anthony Masure, Dominique Moulon, Claire Richard — Résumé graphique Prise de notes graphique  : Thibéry Maillard / @entroispoints — Contexte Ce temps d’échange s’inscrit dans une réflexion dont l’objectif est de croiser les expériences, les approches et les points de vue de professionnels et d’experts du numérique – qu’ils soient artistes, chercheurs, critiques, journalistes ou ingénieurs. Il s‘agit de questionner les évolutions scientifiques, philosophiques et sociétales induites par le numérique et mises en exergue par le travail des artistes programmés à Scopitone. Cette table ronde s’intéresse au post-numérique – l’occasion de discuter des incidences de ce terme dans les champs de l’art et du design et, plus généralement, de ce qu’il implique en termes d’évolution sociétale, selon trois axes principaux et en croisant les regards d’artistes, de designers et de théoriciens  : Quelles réalités le terme «  post-numérique  » recouvre-t-il vraiment  ? S’il renvoie généralement à un moment où le numérique n’est plus considéré comme une simple technologie, mais bien comme une composante omniprésente de notre environnement et de nos vies, il peut également traduire la fin d’une certaine fascination exercée par le numérique. En devenant omniprésent, banal même, celui-ci perd son caractère «  magique  » et «  nouveau  », et cesse d’être perçu comme une fin en soi. Quelles sont les incidences du post-numérique dans le champ artistique  ? Cette nouvelle ère est-elle celle de la remise en cause des arts numériques  ? Peut-on identifier des différences et/ou des similitudes entre un art dit «  numérique  » et un art «  post-numérique » ? Quel rapport l’art post-numérique entretient-il avec la technologie  ? Quel rôle le design peut-il tenir dans une société post-numérique  ? Quels sont les enjeux que soulève cette notion de «  post-numérique  » dans le champ du design  ? Nos objets du quotidien intègrent de plus en plus fréquemment des éléments informatiques  ; pour cette raison, leur fonctionnement, comme leurs interactions avec notre environnement peuvent devenir «  opaques  », et leur utilité poser question.

Automatisation ou mécanisation ? Le design à l’ère des intelligences simulées

Date

avril 2021

Type

Conférence

Contexte

Conférence à l’Esad Amiens dans le cadre du séminaire « Le champ du signe » (dir. Simon Renaud) autour des intelligences artificielles et de la création.

Résumé

En raison de leur efficacité et rentabilité, les intelligences artificielles (IA) « neuronales » trouvent leur place dans les industries créatives depuis plusieurs années. Si les technologies du deep learning sont la plupart du temps envisagées sous l’angle de l’automatisation, nous proposons de les considérer également sous l’angle du concept de mécanisation pour souligner la possibilité d’un travail « avec » les machines plutôt qu’un abandon de leurs potentialités aux forces économiques. En quoi le design pourrait-il contribuer à désamorcer la culture dominante de l’IA ? Comment faire en sorte que les technologies du deep learning puissent ouvrir à l’invention et à la curiosité ? En quoi les cursus de design pourraient-ils (ou devraient-ils) faire l’objet de reconfigurations ?

Autres activités

Date

Type

Contexte

Résumé

Travailler l’impensable

Date

mai 2013

Type

Publication

Contexte

Anthony Masure, « Travailler l’impensable », préface du recueil d’articles Secousses, Campus Fonderie de l’Image, Bagnolet, mai 2013

Résumé

«  Tout objet produit par l’homme est la matérialisation d’un pensable-possible  : quelque chose à quoi quelqu’un a pensé et qui peut être réalisé. Le pensable-possible se situe au carrefour des évolutions de la pensée […] et du développement technologique quant aux matériaux disponibles, aux procédés de transformation et aux systèmes de prévision et de contrôle. Cette interaction entre le pensable et le possible, qui se traduit dans ce que nous appelons un projet, est loin d’être simple et linéaire. Le pensable n’est pas un champ ouvert qui devrait rentrer dans les limites du possible, la conscience de ces limites étant déjà un élément constitutif de ce qui peut être pensé. D’autre part, ce qui peut être pensé dépasse la simple acceptation des limites connues. L’acte créateur et inventif se traduit notamment par la capacité de déplacer dans un autre système de références certaines données contraignantes, pour produire ainsi quelque chose de nouveau auquel on n’avait pas encore pensé, et qui pouvait donc sembler impensable 1 Ezio Manzini, introduction à La Matière de l’Invention (1986), Paris, Centre Georges Pompidou, coll. Inventaire, 1989, p.  14.. » Si le graphisme est la «  manière de représenter le langage par l’écriture 2 Définition de 1875. Citée dans  : Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Robert, 2011. », qu’en est-il de l’écriture de cette discipline  ? Des structures éditoriales comme B42 3 http://www.editions-b42.com, Ypsilon 4 http://ypsilonediteur.com ou The Shelf Company 5 http://www.theshelf.fr, des initiatives comme Graphisme en France6 http://www.cnap.graphismeenfrance.fr ou des évènements comme Les Rencontres de Lure 7 http://delure.org témoignent, à l’échelle française, d’un intérêt soutenu pour les enjeux théoriques et techniques du design graphique. Cette «  manie d’écrire 8 Alain Rey, op.  cit. » est-elle pour autant cultivée chez les professionnels de la profession  ? Rien n’est moins sûr. Au-delà de l’inévitable côté «  entre-soi  » des critiques, les contraintes économiques et le temps qui s’y échappe ne favorisent pas l’élargissement des limites de «  ce qui peut être pensé 9 Ezio Manzini, op.  cit. ». Le projet d’un recueil d’articles rédigés par des étudiants en design graphique permet de développer quelques réflexions sur la notion d’école comme lieu de distance critique. Un exercice critique Ce livre est constitué de textes rédigés par des étudiants engagés en première année de «  Mastère Design Graphique  » à La Fonderie de l’Image, une école où le visible est interrogé à chaque strate diplômante. Particularité de cet établissement  : les élèves sont employés «  en alternance  » environ deux semaines sur trois dans des agences de communication (édition, web, vidéo, etc.). Dès lors, il est vain de chercher à imiter des conditions professionnelles. L’exercice critique apparaît comme un contrepoint nécessaire vis-à-vis des réalités des métiers. Emprunté à Catherine de Smet, l’appel «  pour une critique du design graphique 10 Catherine de Smet, Pour une critique du design graphique. Dix-huit essais, Valence, B42, 2012. » vise à prendre conscience de l’importance et de l’urgence d’une pensée de cette discipline aux frontières problématiques. La méthode d’écriture se réinvente à chaque objet d’étude, même si des principes propres à toute recherche peuvent se dégager  : tracer l’histoire des formes, être attentif aux spécificités techniques, comprendre les enjeux commerciaux, articuler des niveaux de discours hétérogènes, construire des liens logiques entre des auteurs d’époques et de disciplines différentes, référencer précisément ses sources, etc. Le style d’écriture, également, peut se designer. Imaginons des articles alternant fictions, analyses historiques, concepts philosophiques, anthropologiques ou psychanalytiques, encarts techniques, entretiens, etc. La critique en design se doit de penser les formes possibles de son expression. L’école comme lieu du commun Ce travail de base sur le langage, la façon dont les projets de design graphique se construisent et se montrent, est essentiel. Dans le langage courant, nous entendons nombre d’expressions qui traduisent, pour peu qu’on les interroge, des réalités problématiques. Il s’agit d’éprouver «  la capacité de déplacer 11 Ezio Manzini, op.  cit. » des formes et des discours installés parmi nous. Comme le souligne Ezio Manzini, le spectre de la pensée est à la fois facteur des données de l’époque et de ce que l’on entreprend pour les dépasser. Travailler le champ du pensable permet de multiplier les possibles. La tâche du designer serait alors de s’affranchir de ses obligations immédiates pour pouvoir «  produire [de] l’impensable  ». Paradoxalement, la retraite de l’économique permettrait de rédimer 12 Du latin redimere : Racheter une faute, s’affranchir d’une obligation. l’activité de projet. L’école peut-elle être l’occasion d’un tel affranchissement  ? Il faut tout d’abord séparer le lieu physique de l’activité de libre pensée (skholê). Cette distinction permet de formuler une échappée à l’administration de nos existences. Libérée des objectifs de rentabilité, l’école, au sens fort, est un temps du recul. Alors que les designers n’investissent que trop rarement les textes relatifs à leurs objets 13 Catherine Geel, «  L’ordre sans qualité. Du décor et de la décoration  », dans  : Fresh Theory, tome 1, Paris, Léo Scheer, 2005, p.  97-113., l’école peut montrer l’exemple afin de combattre, si besoin, les accusations formulées à son encontre – ce supposé éloignement quant à un monde (plus) «  réel  ». Cette inquiétude n’est-elle pas précisément le signe qu’un déplacement a lieu  ? N’est-ce pas le propre de l’école que de produire des situations professionnelles nouvelles, qui ne sont précisément pas celles de l’époque  ? Le travail scolaire se doit d’errer, de questionner, de rater (quel meilleur endroit pour expérimenter l’erreur que l’école  ?). L’injonction à former des êtres immédiatement adaptables ne vise-t-elle pas au fond à nier la possibilité d’un avenir fondamentalement inconnu, au profit d’un devenir prévisible dans tous ses aspects  ? Cet «  impératif utopique 14 Alain Fleischer, L’impératif utopique. Souvenirs d’un pédagogue, Paris, Galaade, coll. Essais, 2012. » se heurte bien entendu à des réalités pratiques. Le texte de Manzini rappelle que le projet, l’activité de projection, se construit à la fois avec et contre les «  systèmes de prévision et de contrôle  ». Pour autant, cette mise à distance ne saurait s’apparenter à un retrait du faire. Comme le rappelle Manzini, «  tout objet produit par l’homme est [une] matérialisation  », entendue au sens physique et mental. Cessons d’opposer la pratique et la théorie  ; la théorie se pratique et une pratique non pensée ne conduit qu’à une «  acceptation des limites [déjà] connues  ». Manifester ces limites, les faire apparaître, c’est déjà faire projet, c’est voir au-delà de ce qui est immédiatement possible. Pour ces raisons, il s’agit moins de penser le temps scolaire en termes de «  formation  » que «  d’instruction  », dont l’étymologie latine (struere) «  munir, outiller, équiper, disposer par couches  » indique l’élaboration d’outils permettant une émancipation de conditions initiales. D’autre part, l’école (cette fois pensée comme un principe d’organisation physique et temporel) peut permettre, lorsque les conditions sont réunies, de produire en commun. L’interaction de systèmes de références différents invite à réfléchir dans des cadres qui ne sont pas initialement les siens. Un objet éditorial ouvert Le titre «  Secousses  », choisi et assumé par les étudiants pour les tables-rondes et le recueil, nous semble recouper l’idée de déplacement indiquée précédemment. Ce «  mouvement en avant  », imprimé avec ardeur, invite à bousculer les idées reçues. Espérons qu’une telle énergie saura se retrouver au sein des différentes entrées du livre, préludes à des questionnements qui pourront être développés dans les mémoires de recherche de deuxième année. La division en cinq chapitres  : «  De l’écriture  », «  De l’imprimé », «  Des écrans  », «  De l’espace public  » et «  Du quotidien  » démontre la diversité des objets d’étude. Si le graphisme est affaire d’écriture, les supports d’activation de ces signes sont multiples et complexes  : des signalétiques de métro aux mèmes numériques, des mutations de l’imprimé aux agrégateurs RSS, des tablettes numériques pour enfants aux gifs animés, des transformations des espaces de vente au graphisme «  engagé », des marronniers du graphisme culturel aux emballages de jeux vidéo et pochettes de disque. Le champ ainsi traversé dessine un paysage graphique qui dit quelque chose des préoccupations de l’époque. La rédaction des articles s’est étalée sur six mois, le temps de relire, corriger et réécrire 15 Les articles ont été suivis par Anthony Masure, Adeline Goyet et Perrine Rousselet.. Ces textes ont été pensés dans le contexte d’une journée de tables-rondes autour du graphisme, qui aura lieu le 1 er juin 2013 à la Fonderie de l’Image en présence de quatre invités aux disciplines diverses 16 La première édition des tables-rondes, organisée par les Mastères Design Graphique deuxième année, a réuni le 9 février 2013 Alexandre Saint-Jevin (psychanalyste), Morgane Rébulard (typographe), Julien Priez (typographe) et Annick Lantenois (critique).. Ce moment d’échange est organisé par les étudiants du début à la fin (choix des intervenants, communication, modération, éditorialisation). Le recueil des articles permet ainsi de créer une base consultable par tous avant les discussions. Chacun pourra l’acheter en ligne (impression à la demande 17 Inspiré en cela du livre Questions/Questions, initié par Charlotte Cheetham et Samuel Bonnet en 2011. Site web du projet  : http://questionsslashquestions.tumblr.com. Ce recueil n’est, à ma connaissance, pas disponible en PDF.) et télécharger librement le PDF (placé sous licence Creative Commons). Une telle démarche peut sembler évidente pour des étudiants en design, au fait des spécificités de circulation des pensées dans les environnements numériques. Pour autant, mis à part certains laboratoires de recherche universitaires, les établissements scolaires français se sont-ils vraiment engagés en faveur d’un partage des travaux à l’intérieur et au-delà de leurs enceintes  ? Il est malheureusement permis d’en douter. Mais pour actualiser les pratiques, nous dit Annick Lantenois, encore «  faut-il que chaque acteur du design graphique accepte de sortir de son statut et de ses certitudes  : s’aventurer dans l’inconnu 18 Annick Lantenois, Le vertige du funambule. Le design graphique, entre économie et morale, Valence, B42, 2010, 4 e de couverture. ».

Le design de la recherche: conventions et déplacements du doctorat en design

Date

mai 2015

Type

Publication

Contexte

Emeline Brulé, Anthony Masure, «Le design de la recherche : normes et déplacements du doctorat en design», Paris, PUF, Sciences du Design, no1, mai 2015, p.58-67

Résumé

Prenant acte d’une spécificité du design quant au travail des supports d’expression, cet article se donne comme champ d’étude les formes et formats de thèses dans le contexte de la recherche en design. Nous considérerons ici la thèse comme un «type» de document ayant intégré au fil du temps un certain nombre de conventions qui ne sont que trop rarement interrogées. Nous reviendrons tout d’abord sur son évolution historique et discuterons des conventions et normes des thèses en design à l’heure actuelle. Nous étudierons ensuite la manière dont ces dernières structurent le travail de recherche pour nous demander si la recherche en design se doit d’en créer d’autres, ou si elle doit œuvrer à les déconstruire. Enfin, nous nous demanderons si le design peut être vu comme un «laboratoire» permettant de déplacer les façons de faire de la recherche, au sens large.

La saisie comme interface

Date

novembre 2016

Type

Publication

Contexte

Anthony Masure, « La saisie comme interface », dans : Sophie Fétro, Anne Ritz-Guilbert (dir.), actes du colloque scientifique « Collecta. Des pratiques antiquaires aux humanités numériques », École du Louvre, 2016

Résumé

Une vision limitée du design des sites Web, et des programmes numériques en général, consiste à ne s’intéresser qu’à ce qui apparaît à l’écran. Pour aller plus loin, cette contribution vise ainsi à démontrer l’importance, pour les designers, de porter attention à la structuration et à l’agencement des codes source informatiques. Dans le domaine des archives en ligne où les interfaces de saisie sont rarement étudiées en tant que telles, ces enjeux interrogent le rôle et de la place du design. Que demande-t-on à ce dernier dans le contexte des «humanités numériques» ? Comment le design, en envisageant la saisie comme une interface, peut-il contribuer à dépasser une vision instrumentale de la technique ?

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

janvier 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

AVANT C’était devenu le règne des boules de neige. Ils disaient  : «  attracteurs  ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du «  buzz  ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif («  web 2.0  ») avait colonisé les dynamiques de «  publics  » avec des comportements de «  foules  » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective  » à propos des essaims. Les nostalgiques parlaient de «  bêtise grégaire  ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres  : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des «  choix  » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient  : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient  : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir  ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux  ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source  : «  unindexed/scripts/query.js  »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines «  Google material  » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face  ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND  ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : «  The Value of Art  ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau  : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS  ? Premiers symptômes  : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul  ? Cupidité autodestructrice  ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION  ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de «  The Value of Art  ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE  ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20   mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES  ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste  : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE  ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus  : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES  ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents  : saturés. Puis simplement introuvables. Disparus  ! QUELLES SOLUTIONS  ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde  ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source  : «  updraftplus/admin.php  »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES  ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES  ? Le procédé était dirimant  : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source  : «  Imagick::addNoiseImage  »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION  ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus  : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS  ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe  : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS  ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source  : «  Amazon-Killer  »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS  ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de «  décongestionner  » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux «  autoroutes de l’information  » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du «  gain  ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS  ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS  ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source  : «  Wordless Web  »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS  ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES  ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES  ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS  ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue  : Le robocopyright «  ContentID  » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en «  AttentionID  », affectant à chaque vidéo un «  coefficent d’accélération  » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking «  AttentionID  », le script «  slow_max_views.js  » avait par exemple étiré à 30h la durée du clip «  Gargantuan style  » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles  ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode «  esthétique  » de circulation s’activant en fonction des trajets planifiés. Les objets «  connectés  » étaient aussi touchés, eux qui demandaient toujours plus de temps et de «  mises à jour  ». Les montres, lampes, chauffages, prothèses et autres gadgets «  intelligents  » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS  ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe «  pollen  » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES  ? Ce qu’on appelait «  l’Histoire  » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance  : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient  : un monde sans histoire, un monde sans mémoire  ! Un monde sans civilisation  ! Un retour à la sauvagerie  ! À l’immédiateté ! Un monde «  post-historique  », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE  ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS  ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media  : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention «  immédiate  » échappait à la lèpre  : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement  ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille «  humaine  » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait «  s’y sentir  » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres  ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

Le design de la transparence : une rhétorique au cœur des interfaces numériques

Date

janvier 2019

Type

Publication

Contexte

Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence »

Résumé

Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes :
1. Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques.
2. La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données.
3. La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.

Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création

Date

mai 2021

Type

Publication

Contexte

Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.

Résumé

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.

Fictions, dissections, spéculations : les prototypes d’objets fictionnels qui interrogent les techno-utopies des corps

Date

septembre 2025

Type

Publication

Contexte

Contribution co-écrite avec Élise Rigot à l’ouvrage collectif L’Encyclopédie des Objets Impossibles, publié en septembre 2025.

Résumé

Ce recueil de notices explore la performativité d’utopies technologiques des corps à l’œuvre dans des projets de design fiction. Ces productions peuvent être considérées comme des « artefacts performatifs » (Suchman, Trigg & Blomberg 2002), au sens où elles construisent une réalité et deviennent les instruments de médiation proches des théories transhumanistes. Six projets sont analysés en trois moments — fiction, dissection et spéculation : The Audio Tooth Implant (James Auger, 2001), La ville des hémisphères (Superstudio, 1971), United Micro Kingdoms (Anthony Dunne et Fiona Raby, 2013), The Modular Body (Floris Kaayk, 2016), Transfigurations (Agi Haines, 2013) et Wanderers (Neri Oxman, 2014-2015).

Productions de recherche

Date

Type

Contexte

Résumé

Le logiciel au pouvoir

Date

décembre 2013

Type

Publication

Contexte

Anthony Masure, « Le logiciel au pouvoir », note de lecture du livre de Lev Manovich Software takes command, Interfaces numériques, no 3, vol. 2, décembre 2013

Résumé

New York, novembre 2013  : Le panel de la conférence #LISA2013 1 Conférence Leaders in Software and Art, panel « DIY start-ups: 3D printing and Hardware Hacking », New-York, 1 er novembre 2013. sur l’impression 3D et le Do It Yourself s’enlise dans les bons sentiments, au risque du cliché. Les intervenants y font l’apologie d’un certain type de «  faire  », mélange d’american dream et de volontarisme dynamique. Bousculant les idées reçues nous enjoignant à agir sans réfléchir, Lev Manovich interpella les orateurs en leur demandant si «  Einstein ne fit que faire  ? » [« So Einstein ‹  just did it  ›? »] Alors que les universitaires sont souvent accusés de «  ne pas faire  », la boutade lancée par Lev Manovich interroge le fait de croire qu’une activité pourrait se passer de réflexion. Dans le domaine numérique, la multiplication des systèmes de conception et de production alimente l’illusion d’une fluidité de la pensée s’incarnant sans difficulté dans des formes et objets  ; mais n’est-ce pas le logiciel qui a pris le pouvoir  ? L’importance des software studies Contrairement aux machines qui ne sont pas renouvelées si fréquemment que cela, les programmes sont depuis quelques années mis à jour dans des flux en temps réel. Alors qu’aucune profession ou activité humaine ne semble échapper à terme à l’usage des logiciels, par quelles disciplines théoriques faut-il passer pour penser ces «  nouveaux  » objets  ? C’est précisément cette question que pose le champ des « software studies », ouvert par Lev Manovich et Matthew Fuller 2 Matthew Fuller, Behind the Blip.  Essays on the Culture of Software, New York, Autonomedia, 2003. au début des années 2000 pour sortir d’une approche centrée sur la fonction et le mode d’emploi. En étudiant les fondements esthétiques, historiques ou idéologiques de programmes tels que Word, Photoshop, ou After Effects, ces auteurs ont renouvelé, voire inventé, l’analyse d’objets essentiels à la compréhension de notre époque. Paru en 2001 (2010   en France), l’ouvrage Le langage des nouveaux médias 3 Lev Manovich, Le langage des nouveaux médias (2001), trad. de l’anglais par Richard Crevier, Dijon, Les Presses du réel, 2010. élabore un lexique et des modes d’articulation (les «  opérations  ») propres aux logiciels dits de création et s’est rapidement imposé comme un ouvrage de référence des théories des nouveaux médias. C’est précisément cette dernière expression qui est au cœur de Software takes command. Tandis que le vingtième siècle aura été marqué par la notion de «  média  », les environnements numériques, selon Lev Manovich la déplacent et la redéfinissent. À rebours des discours économiques ou marketing des éditeurs de logiciels, c’est donc une exploration tant historique que théorique qui nous est ici proposée. Rédéfinir la notion de média Alors que l’on traite trop souvent le numérique comme une imitation d’anciens médias (songeons par exemple aux balbutiements du mal nommé «  livre numérique  »), Lev Manovich montre que le développement des interfaces graphiques portait déjà en lui des caractéristiques nouvelles  : «  Plutôt que de nous concentrer sur les productions amateurs des logiciels, nous devrions nous intéresser aux programmes en eux-mêmes — en tant qu’il permettent de travailler avec les médias de façons jamais vues auparavant. Tandis que le numérique est habituellement abordé comme une opération de «  remédiation  » (représentation) des anciens médias, l’environnement numérique dans lequel ces médias «  vivent  » est très différent. » Lev Manovich s’appuie notamment sur les recherches d’Alan Kay, qui participa, à la fin des années 70, au sein du Xerox PARC, à l’invention de la «  programmation orientée objet  », ainsi qu’au développement des interfaces graphiques, et plus largement à la conceptualisation du computer. Pour Alan Kay, l’ordinateur personnel est un «  métamédium  », c’est à dire un environnement pouvant simuler les anciens médias, et suffisamment malléable pour pouvoir intégrer des médias qui n’existent pas encore 4 Lev Manovich, Software takes command, op.  cit., p.  44. Traduction personnelle.. C’est la nature même des interfaces numériques que de produire une «  remédiation  » des anciens médias. La simulation de la photographie, de la peinture, du cinéma, etc. s’accompagne immédiatement de fonctions nouvelles, telles que le copier/coller, la recherche par mots-clés, ou le changement des modes d’affichage d’un même objet. Une bonne part du livre consiste ainsi à interroger la spécificités de ces techniques 5 Ibid., p.  119  : « Visualization, searchability, findability—these and many other new “media-independent techniques” (i.e. concepts implemented to work across many data types) clearly stand out in the map of the computer metamedium we have drawn because they go against our habitual understanding of media as plural. », selon qu’elles soient propres à certains médias, ou généralisables à tous. Se référant par endroit à la théorie de l’évolution 6 Comme le chapitre « The evolution of media species », p.  233., Lev Manovich étudie comment ces nouvelles possibilités apparaissent, se répandent ou disparaissent. Le principal apport du livre se situe dans ce point faussement évident pour qui travaille la matière numérique, à savoir que la nouveauté des nouveaux médias est celle de toujours pouvoir leur ajouter des propriétés (et ce sans altérer les fichiers source). Pouvoirs du logiciel Le titre du livre est un hommage au livre Mechanization takes command de Siegfried Giedion 7 Siegfried Giedion, La mécanisation au pouvoir (1947), trad. de l’américain par P. Guivarch, Paris, Centre Georges Pompidou, CCI, 1980., pour marquer l’idée d’une « softwarization » de la culture depuis 1960, c’est à dire d’un développement ubiquitaire des logiciels dans toutes les strates de la société. L’ouvrage de Manovich n’a cependant pas l’ambition d’analyser un spectre aussi large, et c’est pourquoi il se focalise sur les logiciels de création (« media softwares »). La thèse de Software takes command est que les médias n’existent désormais qu’à travers les logiciels. Pour comprendre les médias, il nous faut parfois découvrir la nouveauté sous des interfaces anachroniques. Lev Manovich donne ainsi l’exemple d’Adobe Acrobat 8.0, qui est selon lui un modèle d’incohérence de métaphores obsolètes et de fonctions propres au numérique. C’est comme si, dit-il, «  les designers Acrobat avaient voulu donner aux utilisateurs une multitude de façons de naviguer dans les documents 8 Ibid., p.  189 ». On trouvera ainsi au sein du livre des pistes de recherche fructueuses pour élaborer un «  design des programmes  » cohérent et pertinent. Mettant «  en action  » les hypothèses des deux premiers tiers du livre, le chapitre final 9 Chapitre « Software in action », p.  241. étudie le logiciel Adobe After Effects, en montrant en quoi ses spécificités techniques contribuent à changer les façons de faire des vidéos – par exemple en passant d’une interface basée sur le temps à une interface basée sur la composition 10 Ibid., p.  282. On pourra aussi mentionner la couverture de l’édition anglaise, qui déplie sur plusieurs milliers de captures d’écran une partie du jeu vidéo Kingdom Hearts.. Pour comprendre les médias, intéressons-nous aux programmes L’habileté d’une telle démarche est de réussir à intéresser tant les ingénieurs, que les historiens ou les designers. L’écriture est d’une clarté remarquable, l’auteur partant d’une définition minimale du terme de média pour la faire évoluer au fil des chapitres, jusqu’à – fait trop rare – se risquer en conclusion à un résumé en deux pages de l’ensemble de l’ouvrage. Un chapitre bonus, disponible en téléchargement pour ne pas alourdir un texte déjà bien dense, traite des réseaux sociaux – peut-être l’amorce d’un prochain titre  ? Si, comme le dit Lev Manovich, le logiciel est bien l’électricité du 21 e siècle, il nous faut réfléchir à ses tenants et aboutissants au lieu de mettre les doigts dans la prise. Devra-t-on attendre 10 ans, comme son précédent livre, pour avoir une traduction française et tirer les conséquences de ces hypothèses de recherche  ? À nous de prendre les commandes.

Lev Manovich, software guru

Date

septembre 2014

Type

Publication

Contexte

Anthony Masure, Robin de Mourat, «Lev Manovich, software guru», Strabic.fr, septembre 2014

Résumé

Artiste, programmeur, « historien du présent », « théoricien des nouveaux médias », visionnaire des écrans, Lev Manovich est, avec Matthew Fuller, à l’origine des software studies, groupe de recherche qui étudie les rapports des nouvelles technologies avec l’art et la culture. Prenant de la distance avec un certain nombre de discours technologiques dominants et parfois assourdissants provenant de l’industrie informatique, Manovich confronte les formes numériques de notre quotidien à une perspective culturelle plus large, particulièrement informée par l’histoire de l’art et les sciences humaines.

À défaut d’esthétique : plaidoyer pour un design graphique des publications de recherche

Date

novembre 2018

Type

Publication

Contexte

Article publié dans la revue de recherche Sciences du Design, Paris, Puf, no 8, novembre 2018, p. 67-78

Résumé

Selon le philosophe Jacques Derrida, la distinction métaphysique entre l’écriture et la parole (logos) entraîne une dépréciation de l’écriture et interroge par extension la prétention d’une « pure » pensée à exister séparément de sa représentation graphique. Nous proposons de mettre en résonance l’analyse de ce « logocentrisme » avec le champ des publications numériques de recherche, où la forme demeure majoritairement impensée. En montrant au travers de l’étude de deux publications en ligne (GAM3R 7H30RY et Haunted by Algorithms) comment certaines pratiques de design graphique permettent de dépasser l’opposition forme/contenu, nous soutenons que la prise en compte de la dimension esthétique de l’écriture peut contribuer à dérouter et à renouveler les pratiques de recherche communément installées.

Archéologie des notifications numériques

Date

avril 2019

Type

Publication

Contexte

Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)

Résumé

La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?

Personnes citées

Pour un design radicalement circulaire. À propos des « Considérations écologiques » de Vilém Flusser

Date

juillet 2021

Type

Publication

Contexte

Article coécrit avec Victor Petit, contribution au dossier « Flusser et la France » du 31e numéro de la revue Flusser Studies dirigé par Rainer Guldin, Marc Lenot et Anthony Masure.

Résumé

Dans ses « Considérations écologiques », un article inédit rédigé en français en 1984-1985, le théoricien des médias Vilém Flusser montre les limites d’une opposition tranchée entre nature et culture, et soutient l’hypothèse provocante d’une naturalisation de la technique prenant la forme d’une « circularité de la production ». Les notions d’objet et de déchet deviennent les pôles d’une critique de la consommation, que Flusser relie au développement des programmes numériques et des théories de l’information. Examiner ce texte, à près de 40 ans d’écart, permet de prendre du recul sur les débats et controverses relatifs au champ de l’éco-design. Il montre qu’un design radicalement circulaire ne changerait pas seulement la production, ni même la consommation, mais la définition même du design.

Creation Versus Machine Learning

Date

octobre 2023

Type

Publication

Contexte

Texte publié dans le numéro 1083 de Domus, octobre 2023.

Résumé

Des programmes tels que GPT-3, DALL·E, Midjourney et Disco Diffusion permettent de générer des images à partir d’instructions textuelles. Quel est le spectre des implications actuelles et potentielles pour les pratiques du design ?

Le design des programmes

Date

décembre 2014

Type

Conférence

Contexte

Conférence donnée à l’EESAB Rennes autour de la thèse Le design des programmes

Résumé

La plupart des « guides » à destination des concepteurs de programmes numériques visent à établir des listes de normes ou de « bonnes pratiques ». Ces approches nous paraissent insuffisantes, car elles évacuent d’emblée des considérations philosophiques, politiques et morales. Alors que toutes les activités humaines sont progressivement affectées par des programmes parfois menaçants et étouffants, sous quelles conditions le design peut-il faire que les objets techniques deviennent des « appareils » ouverts sur des perspectives émancipatrices d’inventivité individuelle et collective ?

Machines désirantes : des sexbots aux OS amoureux

Date

octobre 2015

Type

Conférence

Contexte

Communication avec Saul Pandelakis dans le cadre du colloque scientifique « Formes contemporaines de l’imaginaire informatique », dir. Cédric Chauvin et Éric Villagordo, université Paul-Valéry, Montpellier

Résumé

La saisie comme interface

Date

avril 2016

Type

Conférence

Contexte

Communication dans le cadre du colloque scientifique « Collecta : des pratiques antiquaires aux humanités numériques », dir. Anne Ritz-Guilbert et Sophie Fétro, École du Louvre / université Paris 1 Panthéon-Sorbonne

Résumé

Stranger Screens : usages et interfaces des écrans non-rectangulaires

Date

janvier 2018

Type

Conférence

Contexte

Introduction et organisation de la journée d’étude « Stranger Screens : usages et interfaces des écrans non-rectangulaires », université Toulouse – Jean Jaurès / Master DTCT

Résumé

Graphisme  : Raphaël Bastide Contexte de la journée d’étude L’histoire des écrans d’informations est celle d’une succession de technologies de calcul (processeurs, cartes graphiques, etc.) allant de pair avec différentes technologies d’affichage (cathodique, plasma, cristaux liquides, plasma, etc.). Alors qu’une diversité de formes et de formats coexistait aux débuts de l’informatique personnelle à la fin des années 1970, les écrans numériques se sont progressivement homogénéisés en rectangles de plus en plus fins et plats. On peut pourtant observer ces dernières années un intérêt pour les écrans non standards, notamment dans les domaines de l’architecture et des objets connectés (circulaires, triangulaires, plans ou en volume, etc.). Des fabricants (Sharp, Samsung, etc.) proposent désormais des surfaces souples, découpables, combinables, etc., dont l’étrangeté se révèle incompatible avec les systèmes d’exploitation (OS) – qui sont pensés pour des trames orthogonales. Dans ce contexte foisonnant, quels usages repenser voire inventer  ? Que peuvent les designers face au poids des habitudes et des normes du numérique  ? — Captations vidéo 9h30 – Anthony Masure, MCF en design, UT2J Introduction, «  Les normes du numérique  » — 10h15 – Marcos Serrano, MCF en IHM, IRIT, équipe Elipse «  Présentation du programme de recherche Free form display » — 11h15 – Pourang Irani, PR en IHM, université du Manitoba, Canada «  Présentation de travaux de recherche en IHM » — 12h – Nolwenn Maudet, docteure en design & IHM, Inria / Ex{Situ} «  Repenser les interfaces des logiciels de création  » — 14h30 – René Speranza, informaticien, fondateur de l’association Silicium «  Une histoire des écrans et des technologies d’affichage  » — 15h15 – Raphaël Bastide, artiste et designer graphique «  Prototyper sur le Web  » NB. : cette conférence n’a pas été filmée pour des questions de format, s’agissant de démos techniques — 16h – Louise Drulhe, artiste et designer graphique «  Le numérique et ses formats  » — Source des vidéos  : Canal-U, université Toulouse – Jean Jaurès

Quand le design participe des humanités numériques

Date

mai 2018

Type

Conférence

Contexte

Invitation par Sylvain Bourmeau à l’émission de radio La Suite dans les idées, France Culture. En compagnie du designer graphique Stéphane Buellet, cofondateur du studio Chelvalvert

Résumé

Écouter l’émission de radio Résumé de l’émission «  Depuis quelques années, à la faveur de la grande mutation numérique, des chercheurs en sciences humaines et sociales et des designers ont pris l’habitude de travailler ensemble, ouvrant de nouveaux univers scientifiques et esthétiques. Et si la mutation numérique offrait l’occasion pour les sciences humaines et sociales, les sciences dites dures et l’art d’enfin se rencontrer. Non pas simplement pour échanger, confronter ou comparer des modes de connaissance différents mais bien plutôt, à la faveur de l’apparition de ce grand terrain de jeu qu’offre le numérique, de travailler ensemble, de produire ensemble – sans oublier de réfléchir ensemble. C’est cet enjeu majeur qui figure au cœur du stimulant essai d’Anthony Masure, Design et humanités numériques. Dans la seconde partie de l’émission, il sera rejoint par Stéphane Buellet, designer, cofondateur de l’agence Chevalvert. » Essai Design et humanités numériques, Paris, B42, collection «  Esthétique des données  », 2017

Le design au risque de l’archive

Date

juin 2018

Type

Conférence

Contexte

Intervention aux journées d’études « Documenter la production artistique : données, outils, usages », Nice, Villa Arson, 4-6 juin 2018. Version retravaillée et augmentée d’une conférence donnée en avril 2016 au colloque « Collecta : des pratiques antiquaires aux humanités numériques », Paris, École du Louvre.

Résumé

Dans son essai Mal d’archive (1995), le philosophe Jacques Derrida mettait en exergue le paradoxe de toute archive : d’un côté la volonté de mettre des marques à l’abri de l’effacement du temps et de l’oubli, et de l’autre côté le fait que ces éléments, une fois stockés, sont dès lors disponible à la reproduction et menacent donc l’idée de stabilité. Cette notion d’archive « vivante », mobile, nous semble d’autant plus prégnante lorsque se pose la question de l’aspect de sa structure et de son fonds, car tout travail de design graphique engage un déplacement quand à l’original. Face à la permanence et au pouvoir de l’arkhè, le design est donc toujours un risque, un « gage d’avenir » (Derrida) et de nouveaux commencements.

Le design contre, tout contre les machines

Date

octobre 2019

Type

Conférence

Contexte

Conférence au colloque international « L’art tout contre la machine », Paris, Collège des Bernardins

Résumé

L’histoire du design est traversée de tensions entre l’économie de marché et la recherche de dimensions échappant à la rentabilité et à l’utilité. Deux voies possibles s’ouvrent au designer : ignorer les mutations techniques et se laisser conduire par elles, ou y prendre part et avérer ces « poussées techniques » (Pierre-Damien Huyghe) dans des directions qui lui sembleront soutenables. Comment penser un rapport à la machine qui ne soit pas seulement de l’ordre du « par » ou du « contre », mais qui invite à « avec » ?

Mystère de la culture et énigme du code

Date

décembre 2019

Type

Conférence

Contexte

Communication au colloque « Le Mystère de la culture », Paris, Ensad.

Résumé

Sous couvert de rationalité, le code informatique recouvre des valeurs voire des idéologies par des couches d’abstraction chaque jour plus complexes à déplier. Si l’on entend sous le nom de culture une part de mystère, d’inexplicable pour la raison humaine, en quoi la rationalité énigmatique du code pourrait-elle menacer la possibilité même de faire culture ? Comment faire pour que l’opacité du code ne se transforme pas en gnose, en entité fermée à toute extériorité – soit donc tout le contraire d’une culture ?

Pas vu pas pris : le code comme entité managériale

Date

février 2020

Type

Conférence

Contexte

Communication au colloque « Vues & Données. De la prise de vue à l’épreuve de la donnée comme histoire matérielle de l’image ». Organisé par l’École nationale supérieure de la photographie. Cette conférence prend la forme d’une performance construite à partir d’une story Instagram « à la une » (story highlight) : les propos ont donc été construits à partir de l’agencement chronologique des images sélectionnées.

Résumé

La démultiplication et la collecte des « données » numériques à grande échelle, sur lesquelles les citoyens n’ont que peu de « prise », prolonge, dans le champ psychique, la vieille utopie de mesurer chaque entité matérielle du monde. L’invisibilisation (la soustraction à la vue) des opérations de calcul et de traduction propre à l’informatique masque les idéologies (politiques, etc.) qui les sous-tendent : comment faire pour que le code informatique n’ait pas pour seule visée le management des êtres humains ?

Automation Takes Command. How to Shape Deep Learning AIs?

Date

mars 2021

Type

Conférence

Contexte

Communication au colloque « Deep City: Climate Crisis, Democracy and the Digital », Lausanne, EPFL, 25 mars 2021

Résumé

Deep learning artificial intelligence (AIs) works by comparing and aligning “raw” or “labeled” data sets. This mimetic paradigm (remix of “data sets”) makes it difficult to discern “generated” copy of original. Therefore, the question of acceptance of a world shaped by AIs arises less in terms of replacement than in terms of recovery: an environment in which one could not distinguish what is produced, or not, with AIs. Another challenge, with the demand of ecological sobriety, is the increase of algorithmic rationality with generated shapes optimized to structural constraints. What about social and aesthetic dimensions of shaping? How can AIs be open to invention and curiosity?

Design and Machine Learning: Automation Takes Command?

Date

octobre 2021

Type

Conférence

Contexte

Conférence dans le cadre du cycle « Design experiences », Prague, Department of Design, FA ČVUT. Version anglaise retravaillée d’une communication donnée à l’Esad Reims en avril 2021.

Résumé

Neural artificial intelligences (AI) have been finding their place in creative industries for several years. While deep learning technologies are most often considered from the perspective of automation, we propose to consider them also from the perspective of the concept of mechanization to emphasize the possibility of working “with” machines rather than surrendering their potentialities to economic forces. How might design contribute to defusing the dominant AI culture? How can we ensure that deep learning technologies can open up to invention and curiosity? How could (or should) design curricula be reconfigured?

Création sous artifices. Mutations du design à l’ère du machine learning

Date

septembre 2022

Type

Conférence

Contexte

Intervention aux journées d’étude « Enjeux éthiques et esthétiques de l’Intelligence Artificielle », Université de Strasbourg, Littératures, éthique & arts – Lethica.

Résumé

Affiche de l’évènement La prochaine École d’Automne de l’ITI Lethica se tiendra du 28 au 30 septembre 2022 autour des enjeux éthiques et esthétiques de l’Intelligence Artificielle. Abordé dans le cadre de l’École d’Automne 2021, ce sujet a été choisi pour son actualité contemporaine, mais également pour son interdisciplinarité et sa proximité avec les quatre thématiques centrales de Lethica  : Révolution morale  : accepterons-nous la présence d’intelligences artificielles dans nos vies  ? Quel statut moral, juridique, philosophique leur accorderons-nous le cas échéant  ? Triage : dès lors que l’intelligence artificielle peut être appelée à faire des choix, comment anticiper sur ces éventuels arbitrages  ? (cas, par exemple, des voitures automatiques). Transparence et secret : La gestion de nos données personnelles peut-elle être confiée à une intelligence artificielle  ? Faut-il avoir peur des big data ? «  Faire cas  » : Une intelligence artificielle peut-elle «  faire cas » ? Peut-elle être chargée de veiller sur les plus faibles (personnes âgées  ; enfants) ? Peut-elle elle-même devenir un «  cas  », c’est-à-dire développer une forme de singularité ? Pour discuter de ces questions, Lethica a choisi de solliciter des spécialistes issus de domaines variés (littératures, éthique, arts, mais aussi informatique et philosophie) : certains invités sont des chercheurs polyvalents, situés à la croisée de plusieurs disciplines  ; d’autres sont engagés dans des pratiques de recherche et de création (ou de recherche-création) ; d’autres encore sont des artistes ou des écrivains bénéficiant d’une reconnaissance nationale et internationale.

Au crépuscule des outils

Date

septembre 2022

Type

Conférence

Contexte

Intervention à la journée d’étude « Post–convivialité — Espaces en commun et enjeux du design », Paris, CondéDesignLab.

Résumé

À rebours des « outils conviviaux » défendus par Illich et de la volonté adjacente de retrouver du « contrôle » et de mettre les objets à notre « service », nous proposons de soutenir la notion d’« appareil » pour inviter à penser positivement une telle situation. Autrement dit : il s’agit moins de reprendre la main que « d’appareiller » des situations techniques – moins de penser des « outils conviviaux » que de pluraliser le monde des choses.

Design sous artifice, présentation au séminaire ArTeC

Date

avril 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice au séminaire ArTeC (Paris), suivie d’une discussion avec Pierre-Damien Huyghe.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles. Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

Design sous artifice, présentation à la journée d’étude CulturIA

Date

mai 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice à la journée d’étude « IA, imaginaires et arts contemporains », ANR CulturIA, Paris, ENS Ulm.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles (prompts). Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

Design sous artifice, présentation aux Webmardi

Date

juin 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice aux Webmardi, Lausanne.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles (prompts). Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

AI as a hatred of democracy? An art and design point of view

Date

septembre 2023

Type

Conférence

Contexte

Communication avec Florie Souday (ENS Paris-Saclay) au colloque international « AI and Education for Democracy », UNESCO EVA Chair, Université Côte d’Azur, Nice.

Résumé

Available from 2021 for as many people as possible, machine learning has created several issues for schools (ie. teaching objectives, exams, etc.). At the same time, these generative technologies are questioning the foundations of democracy, challenging notions of veracity, privacy, ownership and shared values. With its twofold American and Chinese hegemony, AI has become an insidious cultural model for the rest of the world. It doesn’t lend itself well to the development of democracy – if we define this concept as a dynamic principle that “thwarts the normal distribution of power” (Jacques Rancière). What reconfigurations are needed to ensure that AI is not a threat but an opportunity for democracy? How can we redefine education to achieve this objective?

Tables-rondes « Autour du graphisme », 9 février 2013

Date

février 2013

Type

Cours

Contexte

Résumé

Coordination des tables-rondes Choix des invités, répartition et suivi des tâches (invitations, communication, accueil, transports, nourriture, modération, live-tweet, enregistrements vidéo, etc. Organisation menée avec Adeline Goyet. À l’initiative des étudiants de deuxième année du mastère Design graphique, un colloque a eu lieu samedi 9 février 2013 au Campus de la Fonderie de l’Image, réunissant un graphiste, une typographe, un psychanalyste et une historienne de l’art pour débattre «  autour du graphisme  ». Ces tables-rondes, intégralement organisées par les étudiants, ont été pensées dans le but de nourrir les problématiques des mémoires de fin d’année. Alexandre Saint-Jevin et Morgane Rébulard ont ouvert la discussion, suivis l’après-midi par Julien Priez et Annick Lantenois. Design  : Gauthier Duquesnay Les invités  : Alexandre Saint-Jevin, co-fondateur de la revue scientifique Réel  |  Virtuel, enseigne la théorie des arts plastiques et prépare un doctorat de psychanalyse sous la direction de Gérard Wajcman. Par ses différentes formations, il croise psychanalyse, esthétique, linguistique et cultural studies. Il étudie plus particulièrement la théorie de la machine dans l’œuvre de Lacan afin de faire émerger un concept spécifique du virtuel. Sa pratique artistique questionne la dimension incorporelle du corps et l’invisible comme condition de visibilité. Historienne de l’art et enseignante à l’École Régionale des Beaux-Arts de Valence, Annick Lantenois s’est orientée dès le début des années 1990 vers la théorie du design graphique. Outre l’organisation de colloques et de tables rondes, elle a publié des articles dans les revues Azimuts, Back Cover et Livraison. Son ouvrage Le Vertige du funambule. Le design graphique, entre économie et morale constitue la synthèse de recherches menées ces dix dernières années. Diplômée de l’école Estienne et de l’ÉSAD d’Amiens en 2010, Morgane Rébulard a cofondé The Shelf Company avec Colin Caradec. Cette structure se compose d’un atelier graphique, d’une maison d’édition et d’un journal semestriel sur le design éditorial et le graphisme du livre. Du dessin de caractères à la création d’une revue, Morgane Rébulard est aussi la créatrice du caractère Le Polyglotte, outil typogra­phique conçu pour l’édition multilingue. Graphiste, typographe et calligraphe, Julien Priez est diplômé de l’école Estienne (DSAA Design Typographique, 2010). Il a participé à la conception de la typographie La Briqueterie pour le Centre de développement chorégraphique du Val-de-Marne, en association avec l’Atelier Pierre di Sciullo. Le Montreuil, système typographique créé en 2010, vise à signifier la diversité et la mixité socio-culturelle de la ville. Quelques thèmes abordés  : Les espaces de vide, de liberté, et de marginalité. L’incorporalité du corps. Le virtuel, le réel, l’imaginaire et le numérique. Norme et écriture. La typographie comme vecteur de dialogue. L’engagement du designer. Le live-tweet Durant les tables-rondes, le public était invité à interagir via Twitter. Les principales interventions étaient projetées en live sur un « wall tweet », favorisant les réactions et questionnements. L’archive de ces discussions est disponible ci-dessous, retraçant les temps fort de la journée. > Voir le Storify des tables-rondes

CV

Date

Type

Contexte

Résumé

Design et humanités numériques

Date

novembre 2017

Type

Contexte

Ouvrage publié avec le concours de l’université Rennes 2, préface de Nicolas Thély.

Résumé

En étudiant des opérations et des systèmes techniques potentiellement ouverts à la recherche, cet essai interroge le rapport du design aux « humanités numériques » (digital humanities) qui se développent, dans le contexte francophone, depuis le milieu des années 2000. En quoi les environnements numériques contemporains actualisent-ils les modes de production et de transmission des savoirs ? Quelle est la place des designers dans des projets relevant des sciences humaines et sociales ? De la modélisation des connaissances à l’injonction à l’innovation et à la créativité, du design d’expérience aux conditionnements techniques, de l’étude de la rationalité numérique aux reconfigurations de la subjectivité, ce parcours réflexif montre que l’industrie des programmes, chaque jour un peu plus puissante, n’a pas épuisé tout le champ des possibles. En interrogeant et en révélant l’environnement technique dans lequel les humanités numériques opèrent, le travail des techniques numériques par le design montre ainsi qu’il reste de la place pour d’autres modulations, d’autres sensibilités, d’autres cultures.

Design sous artifice : la création au risque du machine learning

Date

mars 2023

Type

Contexte

Cet essai a été réalisé dans le cadre du projet de recherche « Design et machine learning : l’automatisation au pouvoir ? », financé par la HES-SO et conduit par Anthony Masure de 2022 à 2023 à la HEAD – Genève avec Alexia Mathieu, Douglas Edric Stanley, Élise Gay et Kévin Donnot. Site Web du projet : www.design-machine-learning.ch.

Résumé

Au début des années 2020, portés par les progrès des « intelligences artificielles », des programmes comme GPT-3, DALL·E, Midjourney ou Disco Diffusion permettent de générer des images à partir d’instructions textuelles. Bien que ces productions ne font souvent qu’imiter des données existantes et manquent de diversité, les débats médiatiques ont tendance à se polariser sur le remplacement des humains par la machine. Ce faisant, ils font écran à la question essentielle : quel est le spectre des implications actuelles et potentielles du machine learning pour les pratiques de design ?

Angles morts du numérique ubiquitaire – Un glossaire critique et amoureux

Date

janvier 2023

Type

Contexte

Cet ouvrage collectif a été publié suite au colloque éponyme de Cerisy en 2020. Il a été codirigé par Yves Citton, Marie Lechner et Anthony Masure.

Résumé

138 entrées pour explorer les non-dits des nouvelles technologies, intelligences artificielles et autres aspects du numérique, d’algolittérature et asservissement machinique à viralité en passant par capitalisme de plateforme, évangélisme technologique, glitch-féminisme, médiactivisme et technopolice.

Collecta : archive numérique de la collection Gaignières (1642-1715)

Date

novembre 2014 — juin 2016

Type

Projet

Contexte

Résumé

Initié par Sophie Fétro (Université Paris  1 Panthéon-Sorbonne) et Anne Ritz-Guilbert (École du Louvre), le projet «  Collecta  : des pratiques antiquaires aux humanités numériques  » a pour objectif de constituer une archive en ligne de la collection de l’antiquaire François-Roger de Gaignières (1642-1715) constituée de plusieurs milliers de relevés textes et iconographiques relatifs à l’histoire de France (monuments, monarchie, clergé, etc.). Ce projet comprend la mise au point d’un site Web capable de reconstituer la totalité de la collection Gaignières, dispersée et en partie disparue, en restituant son classements et son processus d’élaboration. Une première version du site Web a été présentée lors du colloque international «  Collecta  : des pratiques antiquaires aux humanités numériques  » à l’Ecole du Louvre en avril 2016. Le site sera rendu public fin 2016.

Revue Réel-Virtuel

Date

janvier 2008

Type

Projet

Contexte

La revue a été fondée en 2008 par Anaïs Lelièvre, Antoine Lefebvre, Anthony Masure, Alexandre Saint-Jevin et Clélia Barbut. Elle est dirigée depuis 2013 par Alexandre Saint-Jevin.

Résumé

Réel-Virtuel  : enjeux du numérique est une revue en ligne pluridisciplinaire, avec une dominante artistique. Afin d’interroger leurs ancrages et spécificités, les thématiques invitent à confronter les nouvelles technologies à des théories et pratiques qui sont également issues d’autres champs.

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias