Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Recherche et culture libre : approche critique de la science à un million de dollars

Date

décembre 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique ».

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

Manifesto for an Acentric Design

Date

décembre 2019

Type

Publication

Contexte

Version enrichie d’un chapitre de l’essai Design et humanités numériques (2017), traduction du français par Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, « Navigating the Human »

Résumé

Télécharger l’article en PDF Voir l’article [En ligne English version here. «  Là où vous voyez des choses idéales, moi je vois… des choses humaines, hélas  ! trop humaines  ! » […] Un «  esprit libre  » ne signifie pas autre chose qu’un esprit affranchi, un esprit qui a repris possession de lui-même. — Friedrich Nietzsche 1 Friedrich Nietzsche, «  Pourquoi j’écris de si bons livres. Humain, trop humain et deux suites  », dans  : Ecce Homo [1888], trad. de l’allemand par Henri Albert, Paris, Mercure de France, 1908, p.  636-637. Dans ce fragment aux allures autobiographiques, Nietzsche revient sur son livre Humain, trop humain [1876-1878]. Dans les expressions circulant à propos du «  design d’interface  », celles de «  design centré utilisateur  », «  d’expérience utilisateur  », et par extension de «  design d’expérience  » pourraient, à première vue, aller de soi. Le design aurait ainsi pour but de créer des choses «  utiles  », partant des besoins des utilisateurs, «  centrés  » sur eux et sur l’amélioration de leur «  expérience  ». Pourtant, si l’on regarde ces notions de plus près, on peut se demander ce que ces méthodes engagent comme conceptions du design, et plus largement comme compréhension des relations humaines et des relations humains-machines. En effet, il ne va pas sans poser problème de présupposer que «  nous  » serions avant tout des utilisateurs, c’est-à-dire des êtres voués à n’entretenir que des rapports d’utilité. Que penser alors de termes tels que «  user-centered design (UCD) 2  Shawn Lawton Henry, Justin Thorp, «  Notes on User Centered Design Process (UCD) », W3C.org, mars 2004, [En ligne], http://www.w3.org/WAI/redesign/UCD accès  : 1er Juillet, 22:00», « human-centered design (HCD) 3  Ideo, «  Human-Centered Design Toolkit  », 2009, [En ligne], http://www.ideo.com/work/human-centered-design-toolkit», « activity-centered design (ACD) 4 Geraldine Gay, Helene Hembrooke, Cambridge, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems, MIT Press, 2004. » ou encore «  people-centered design (PCD) 5 Hugh Graham, « People Centered-Design », [En ligne], http://hughgrahamcreative.com/people-centered-design » ? Pourquoi le design devrait-il se «  centrer  » sur quelque chose  ? Plus largement, n’y a-t-il pas dans l’existence humaine quantité d’aspects auxquels les «  expériences  » générées par le design ne sauraient se substituer  ? Afin de critiquer l’ingénierisation du design et la réduction du travail des designers à des méthodologies normatives voire quantitatives, nous proposons comme méthode de recherche d’associer une étude historiques des notions à interroger à des analyses techniques et aux discours afférents qui les entourent. Plus précisément, nous pourrions synthétiser la méthode de recherche de ce texte de la façon suivante 6 Nous reprenons ici la formulation établie par le chercheur Alexandre Saint-Jevin dans son compte-rendu de lecture de l’essai Design et humanités numériques : «  Sur la trace de l’humain dans les ‹  objets  › de design  », Non-Fiction, mars 2018, [En ligne], https://www.nonfiction.fr/article-9264-sur-la-trace-de-lhumain-dans-les-objets-de-design.htm: 1 . Analyser la notion déterminant le processus de création des choses de design pour en dégager les concepts philosophiques sous-jacents. 2. Retracer la généalogie de ce concept pour confronter la réalité technique des productions de design aux discours de l’entité (des concepteurs, des entrepreneurs, des communicants, des marketeurs, etc.) à propos des productions concernées. 3. Synthétiser l’histoire et les discours des entités sur les choses du design en général pour en dégager les enjeux philosophiques. 4. Confronter les enjeux philosophiques révélés par l’analyse des discours de l’entité à ceux de la notion de départ pour révéler en quoi ils viennent conditionner et déterminer la réalité technique. À rebours de la volonté de modéliser l’activité du design sous forme de chaînes logiques (diagrammes, schémas, timelines, etc.), cette formalisation ne vise donc pas à dire aux designers ce qu’il convient de faire mais ambitionne de leur fournir, dans leur démarche même, des entrées critiques leur permettant d’analyser ce qui a déjà été fait ou ce qu’ils sont en train d’élaborer. Afin d’activer d’autres façons de faire des interfaces que les scénarisations comportementales du design d’expériences, nous proposons de débuter notre analyse par un retour sur l’histoire des premières interfaces graphiques. Comment les valeurs recouvertes par ces couches techniques infusent-elles voire limitent-elles nos relations à la technique  ? Le «  modèle conceptuel de l’utilisateur  » du Xerox Star L’expression «  d’interface utilisateur  » (user interface) est contemporaine du développement des ordinateurs personnels à la fin de années 60. En 1968, Douglas Engelbart présentait l’aboutissement des recherches menées au sein du Xerox PARC lors d’un évènement rétrospectivement surnommé «  la mère de toute les démos  » (Mother of all demos), où l’on vit pour la première fois la visioconférence, la téléconférence, le courrier électronique, le système de navigation hypertexte et le modèle d’interface de la «  métaphore du bureau  » basé sur des «  fenêtres  » (windows), «  dossiers  » (folders), «  corbeilles  » (trash), etc. Partiellement réalisée dans l’ordinateur Xerox Alto de 1973  7 Seulement 1500 unités furent produites  : 1000 pour les employés de Xerox et le reste pour des universités et institutions publiques., cette première forme d’interface graphique (« GUI » pour graphic user interface) fut reprise dans le Xerox Star de 1981. Ce dernier était de plus accompagné d’un accès au réseau, de la possibilité d’envoyer des mails, d’une souris, et d’un système d’impression WYSIWIG (What You See Is What You Get) assez précis pour faire coïncider ce qui est vu à l’écran avec une impression papier. Afin de préciser l’origine du modèle conceptuel ayant servi de base à un design se revendiquant explicitement des besoins des «  utilisateurs  », il importe de revenir sur les principes fondateurs du Xerox Star. Dans un article datant de 1982, cinq anciens employés de Xerox Corporation expliquent leur compréhension des relations humains-machines, et plus précisément leurs méthodologie de design d’interface  : «  Nous avons appris du Star l’importance de formuler les concepts fondamentaux (le modèle conceptuel de l’utilisateur [the user’s conceptual model] avant que le programme ne soit écrit, plutôt que de faire suivre l’interface utilisateur user interface après. […]Elle a été conçue avant designed before les fonctionnalités du système ne soient entièrement décidées. Elle a même été conçue avant que le matériel informatique n’ai été construit. Nous avons travaillé pendant deux ans avant d’avoir écrit une seule ligne de code du programme du produit réel 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, Eric Harslem, «  Designing the Star user interface », Byte, no   4, 1982, p.  242-282, [En ligne], http://www.GUI debookgallery.org/articles/designingthestaruserinterface. » Une telle importance attribuée au design « avant » que les spécification matérielles ne soient formulées ne manquera pas d’interroger le lecteur contemporain, habitué à ce que le design soit réduit à une action en bout de course, dépendante d’une multitude de paramètres extérieurs. Dans le cas du Star, il était question d’introduire sur le marché des «  concepts radicalement nouveaux 9 Ibid. » bien plus que de chercher à appliquer une «  commande  » venue d’en haut. En dédiant une mémoire à l’affichage écran, les concepteurs du Star furent en mesure de créer une interface visuelle fonctionnant de concert avec la souris (également utilisée sur le Xerox Alto), définie dans le texte de 1982 comme «  un moyen de pointer rapidement un item à l’écran 10 Ibid. » plus efficace que les curseurs activables par le clavier. Il est particulièrement intéressant d’étudier comment les équipes de Xerox mirent au point une méthodologie de projet pouvant être reliée avec ce qui se nomme aujourd’hui «  design centré utilisateur  ». Le développement d’une interface pose en effet de nombreux problèmes  : la compréhension de la variété des langages dans lesquels les utilisateurs expriment leurs commandes à l’ordinateur, le design des représentations à l’écran montrant l’état du système à l’utilisateur, et d’autres problèmes abstraits pouvant affecter la compréhension du comportement du système. Selon les équipes du Star, ces problèmes sont hautement subjectifs, et ne peuvent être résolus qu’au cas par cas. La méthode employée aura donc consisté à se focaliser sur ce qui devrait précéder tout design d’une interface réussie, à savoir «  l’analyse des tâches  » (task analysis) : «  La description de la tâche actuelle avec sa répartition des objets et des méthodes d’information actuellement employées offre un point de départ pour la définition d’un ensemble équivalent d’objets et de méthodes devant être fournies par le système informatique l’ordinateur, ses programmes et ses périphériques]. L’idée derrière cette phase de conception [this phase of design] est de construire un nouvel environnement des tâches utilisateur [a new task environment for the user], dans lequel il puisse travailler pour atteindre les mêmes objectifs [same goals] qu’avant, désormais entourés d’un ensemble différent d’objets, et en employant de nouvelles méthodes 11 Ibid. » Pour Xerox, l’utilisateur est une entité essentiellement vouée à effectuer des tâches en vue d’accomplir des objectifs. On retrouve ici la définition commune d’un algorithme, à savoir un ensemble d’instructions destinées à accomplir une action déterminée. Autrement dit, n’est-ce pas du «  programme  » (un algorithme écrit en langage machine) en tant que modèle de pensée que découle la compréhension de ce qu’est un utilisateur  ? N’est-ce pas étonnant que d’aller de la machine vers les êtres humains afin de comprendre comment améliorer leurs relations  ? En ce sens, ce que l’on appellerait «  utilisateur  » dans le contexte informatique ne serait bien souvent qu’une réduction logique de la subjectivité humaine, capable dès lors de dialoguer avec des programmes «  extra humains 12 J’emprunte cette expression au livre Haunted by algorithms issu de la ligne de recherche Meta Mediums dirigée par Jeff Guess et Gwenola Wagon, à apparaître en 2016 aux Presses du réel. ». De même que certains voient dans le design une discipline susceptible de faire science 13 Voir  : «  Pour une recherche en design sans modèle  », supra., il s’agirait ici de «  modéliser des comportements  » disparates en vue d’améliorer l’efficacité des «  tâches  ». L’étymologie du terme «  tâche  » renvoie à taxer (taxare) pour désigner «  le travail déterminé que l’on a l’obligation de faire, avec une notion de ‹  rétribution  › [voire de] devoir moral 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. ». Le verbe «  tâcher  » exprime quant à lui l’idée de «  faire des efforts pour  », avec parfois l’idée d’une pénibilité voire d’un ordre atténué avec l’impératif «  tâchez de  ». Si l’utilisateur est celui dont les objectifs à réaliser passent nécessairement par une série de tâches à accomplir, cela ferait-il de nous des «  tâcherons  », c’est-à-dire des «  personne effectuant des besognes de commande [nous soulignons], sans grande intelligence » ? 15 Ibid. Dans l’exemple du Xerox Star, les choses sont néanmoins plus complexes. Le fait de partir d’un «  modèle-utilisateur  » constitué d’un petit ensemble de principes de design (design principles) permet d’assurer une cohérence globale, puisque « l’expérience utilisateur acquise dans une des zones du programme peut s’appliquer dans une autre 16 «  Designing the «  Xerox Star user interface », op.  cit : «  The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […]and allow user experience in one area to apply in others. » Nous soulignons. », réduisant ainsi la charge cognitive relative à l’utilisation du système informatique. Un autre aspect discuté dans l’article – relatif à la notion de cohérence – concerne la notion de «  familiarité » (« Familiar User’s Conceptual Model ») : «  Un modèle conceptuel utilisateur [a user’s conceptual model] est l’ensemble des concepts qu’une personne acquiert progressivement pour expliquer le comportement [behavior] d’un système […]. La première tâche d’un concepteur de système est de décider quel modèle est préférable pour les utilisateurs […]. Cette étape extrêmement importante est souvent négligée ou mal faite. Les concepteurs du [Xerox] Star [The Star designers] ont consacré de nombreuses années […]à évoluer vers […]un modèle approprié pour un système d’information bureautique  : la métaphore d’un bureau physique 17 Ibid. » C’est en partant de l’univers actuel des utilisateurs, à savoir le modèle hiérarchique du bureau, que l’interface du Xerox Star a pu être élaborée. Il était important de donner naissance à une interface «  familière  » afin qu’il y ait le moins de frictions (seamless) dans «  l’expérience utilisateur  ». Ce dernier retrouve ainsi dans la machine son organisation habituelle de gestion et de découpage des tâches. Par exemple, les message papier empilés sur le bureau physique de l’utilisateur employé de bureau deviennent, dans son ordinateur, un pictogramme d’enveloppe indiquant quand un nouvel email est reçu. Il est intéressant de préciser que le modèle métaphorique défini avant le développement effectif du programme modifie de fait les fonctions dudit programme  : le design n’est pas abordé comme un simple habillage. Toujours dans l’exemple des emails, la commande d’envoi (send mail) a ainsi pu être évitée en utilisant le déplacement d’icônes. Un dernier aspect important de l’interface du Star concerne la personnalisation de l’interface, les icônes déplaçables permettant de configurer l’environnement de travail. Si l’on résume les grands principes du Xerox Star, ce qui est ici désigné sous le terme d’«  utilisateur  » est en fait une succession de «  tâches  » orientées vers des objectifs à partir desquelles les designers vont élaborer un «  modèle conceptuel  » servant de base au développement du système informatique et assurant sa cohérence métaphorique. En fournissant un environnement «  familier  » et «  amical  » à l’utilisateur, l’interface développée vise donc à accroître son efficacité en développant des «  synergies humains-machines  ». L’interface «  amicale  » (« friendly ») du Xerox Star montre toutefois ses limites sur certaines fonctions où la métaphore du bureau est inopérante  : «  Une des raisons d’être du [Xerox Star] est que Les objets physiques ne donnent pas assez de pouvoir aux gens [do not provide people with enough power] pour gérer la complexité croissante de «  l’ère de l’information  ». Par exemple, nous pouvons tirer avantage de la capacité des ordinateurs à chercher rapidement en mettant en place une fonction de recherche pour les dossiers de fichiers électroniques, aidant ainsi à résoudre le vieux problème des fichiers perdus 18 Ibid. » La fin de l’article de 1982 se conclut de façon intrigante sur le fait qu’il est difficile de choisir entre plusieurs modèles d’interfaces en s’appuyant sur des critères stabilisés (scientifiques) : «  Le design d’interface est encore un art et non une science 19 Ibid. : «  User-interface design is still an art, not a science. » ». Bien que le texte du Xerox Star plaide au final pour l’établissement de «  processus plus rigoureux  » concernant l’élaboration d’interfaces, une telle assertion ne manquera pas d’intriguer le lecteur contemporain. L’émergence des systèmes d’exploitation «  graphiques  » rationalisés Malgré l’échec commercial du Xerox Star, ces méthodes de design vont connaître un succès qui changera définitivement nos rapports aux machines électroniques. Précurseur des recherches menées au Xerox PARC, la thèse en Informatique (computer science) de Jef Raskin, Quick-Draw Graphic System, publiée en 1967 (soit 6 ans avant le Xerox Alto 20 Au début des années 70, le IBM Usability lab ne se préoccupait que d’ergonomie. The Psychology of Computer Programming fut publié par Gerald Marvin Weinberg en 1971, et les travaux de Stuart K. Card, Allen Newell et Thomas P. Moran ne furent connus du grand public qu’après la parution en 1983 de The Psychology of Human-Computer Interaction.), plaidait pour un environnement informatique où l’interface graphique tiendrait une place prépondérante. Une telle idée n’allait pas du tout de soi à la fin des années 1960  : «  Ma déclaration la plus hérétique […]fut de dire que mon travail était basé sur une «  conception [design] et une mise en œuvre philosophique qui plaçaient la généralisation et l’utilisabilité humaine [human usability] devant la vitesse d’exécution et l’efficacité ». Ceci à une époque où le principal objectif des cours d’informatique était de vous apprendre à faire des programmes plus rapides [to make programs run fast] et utilisant le moins de mémoire possible 21 «  Articles from Jef Raskin about the history of the Macintosh  », 1996, [En ligne], https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/. » Après des contacts avec Xerox concernant le développement de la souris, Jef Raskin fut embauché par Apple en 1978. C’est sous son impulsion et celle de Bill Atkinson 22 Le titre de la thèse de Jef Raskin (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) fut repris par Bill Atkinson pour nommer l’environnement graphique (graphics package) du Macintosh. que Steve Jobs et Steve Wozniak prirent connaissance des recherches menées au Xerox PARC sur les interfaces graphiques. La suite de l’histoire est connue. Alors CEO de Apple Inc., Steve Jobs, âgé de 24 ans, visita en 1979 les locaux de Xerox. Dans un documentaire sorti en 1995, il revient sur le choc que constitua pour lui cet événement  : «  Ils [Xerox] me montrèrent […]trois choses. […]. Une des choses qu’ils me montrèrent fut la programmation orientée objet […]. L’autre chose qu’ils me montrèrent était un système informatique [d’une centaine d’ordinateurs] en réseau […]. Je ne le voyais même pas. J’étais totalement aveuglé par la première chose […], à savoir l’interface graphique utilisateur [the graphical user interface]. Je pensais que c’était la meilleure chose que j’ai jamais vue de toute ma vie. Aujourd’hui, je me souviens que c’était très imparfait. […] Mais, à l’époque], au bout de […]dix minutes, il était évident pour moi que tous les ordinateurs fonctionneraient comme cela un jour. C’était évident 23 Steve Jobs, entretien avec Robert X. Cringely, Triumph of the Nerds: The Rise of Accidental Empires, documentaire, 1996, [En ligne], http://www.pbs.org/nerds » Suite à cette présentation obtenue en échange d’actions de l’entreprise Apple Inc., Steve Jobs lança l’ordinateur personnel Apple Lisa en 1982, qui reprenait du Xerox Star les principes de la souris et de l’interface graphique. D’un prix trop élevé (10   000 $ pour l’époque soit 24   000 $ aujourd’hui), le Lisa fut remplacé par le Macintosh sorti en 1984, bien plus accessible financièrement. Si beaucoup pensent encore que Steve Jobs s’est contenté de «  voler  » les principes clés du Xerox Alto, l’histoire est cependant plus complexe. Les dirigeants de Xerox n’avaient pas pris conscience des conséquences décisives de ce qu’ils avaient découvert, abandonnant leur vision prospective aux équipes de ventes et du marketing qui étaient focalisées sur les photocopieurs, le cœur de la marque, et non sur le nouveau marché des ordinateurs 24 Pour un histoire détaillée de l’entreprise Xerox, voir  : Douglas K. Smith, R. C. Alexander, Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, New York, William Morrow & Co, 1988.. Il a fallu que Bill Atkinson réécrive et améliore quantité de fonctions pour que le Lisa puis le Macintosh puissent bénéficier d’une interface graphique «  supérieure  » (ajout des menus déroulants, ouverture des fenêtres en double-clic, icône corbeille, etc.). Aucune ligne de code ne fut, au sens propre, «  copiée/collée 25 Christoph Dernbach, «  Did Steve Jobs steal everything from Xerox PARC? », Mac History, février 2012, [En ligne], http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc ». Afin de développer l’offre logicielle des machines Apple, Steve Jobs invita Microsoft au début des années 1980 à éditer des programmes pour le Macintosh. Malgré la demande faite par Jobs à Bill Gates (alors CEO de Microsoft) de ne pas utiliser d’interface graphiques pilotable à la souris avant que le Macintosh (1984) ne fut en vente depuis un an, Microsoft surprit tout le monde en annonçant en 1983 le système d’exploitation Windows 1.0  26 windows 1.0 n’était pas encore un système d’exploitation complet, mais plutôt une «  couche graphique  » utilisable par des logiciels tiers., dont la sortie officielle n’aura lieu qu’en 1985. Quand Jobs, furieux, accusa Bill Gates de l’avoir trahi, ce dernier lui répondit qu’ils avaient tous les deux volé «  leur riche voisin Xerox 27 Andy Hertzfeld, «  How the Mac was born, and other tales  », entretien avec Scott Ard, CNET, janvier 2005, [En ligne], http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html ». En 1988, la justice américaine classa sans suite le procès intenté par Apple. Don Norman, les limites de «  l’expérience utilisateur  » Après la sortie de Microsoft windows, les méthodes de conception liées au design d’interface se structurent autour de disciplines scientifiques connexes à ce champ.  En plus des expressions d’«  utilisabilité humaine  » (human usability) et d’«  interface utilisateur  » (user interface), celle d’«  expérience utilisateur  » (souvent abrégée en « UX » pour User eXperience) rencontre alors un succès notable. Cette dernière semble apparaître pour la première fois en 1986  28 Pour une chronologie détaillée de l’histoire de ce terme, voir  : Peter Merholz , «  Whither ‹  User Experience  › », novembre 1998, [En ligne], http://www.peterme.com/index112498.html dans un livre codirigé par Donald Norman (chercheur en sciences cognitives) et intitulé User Centered Design: New Perspectives on Human-Computer Interaction (Design des systèmes centrés utilisateur) 29 Donald A. Norman, Stephen W. Draper (dir.), User Centered Design: New Perspectives on Human-Computer Interaction, San Diego, University of California, Hillsdale, Lawrence Erlbaum Associates, 1986. Après un développement sur l’impossibilité de parvenir à un sens univoque par des images normées (pictogrammes), on trouve cette citation  : «  Un engagement direct se produit lorsqu’un utilisateur fait l’expérience d’une interaction directe [a user experiences direct interaction] avec des objets dans un milieu […]plutôt qu’une communication avec un intermédiaire. Ces interactions s’apparentent à interagir avec des objets du monde physique. […]L’]interface et l’ordinateur deviennent invisibles [the interface and the Computer become invisible]. Bien que nous croyons que ce sentiment d’engagement direct soit d’une importance capitale, nous ne savons […]que peu de choses sur les besoins réels nécessaires à sa production 30 Edwin L. Hutchins, James D. Hollan, Donald A. Norman, «  Direct Manipulation Interfaces  », ibid., p.  114. » L’«  expérience utilisateur  » pourrait ainsi être comprise comme un volonté d’élargir le modèle de conception du Xerox Star à d’autres champs que celui des interfaces écran et des ordinateurs qui pourraient disparaître, devenant «  invisibles  ». Fréquemment mentionné comme étant l’inventeur de cette expression, Don Norman la définissait ainsi en 1998  : « J’ai inventé l’expression [d’expérience utilisateur] parce que je pensais que celles d’interface humaine et d’utilisabilité 31 La notion d’«  utilisabilité », que Don Norman juge insuffisante, était abordée par ses zélateurs Jeff Rubin et Dana Chisnell sous ces termes  : «  Quand un produit ou un service est vraiment utilisable, l’utilisateur peut faire ce qu’il […]veut faire de la façon dont il […]espère pouvoir le faire, sans entrave, hésitation, ou questions. » Source  : Jeff Rubin, Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests [1994], Indianapolis, Wiley, 2008, p.  4. étaient trop restreintes [I thought Human Interface and usability were too narrow]: je voulais couvrir tous les aspects de l’expérience d’une personne [the person’s experience] avec un système, incluant le design industriel, le design graphique, l’interface, l’interaction physique et le mode d’emploi 32 Don Norman, cité dans  : Peter Merholz , «  Whither ‹  User Experience  › », op.  cit » Cet aspect plus large de l’«  expérience utilisateur  » fut ensuite précisé dans la version «  canonique  » formulée par Jakob Nielsen et Don Norman  : «  L’expérience utilisateur  » englobe tous les aspects de l’interaction de l’utilisateur final [«User experience  » encompasses all aspects of the end-user’s interaction] avec l’entreprise, ses services et ses produits. La première exigence pour une expérience utilisateur exemplaire est de répondre aux besoins exacts du client [to meet the exact needs of the customer]. […]Nous devons distinguer l’UX [l’expérience utilisateur] et l’utilisabilité [usability]. La définition de l’utilisabilité indique que c’est une qualité de l’UI [interface utilisateur] couvrant le fait qu’un système soit simple à comprendre, efficace à utiliser, plaisant, etc. [L’expérience utilisateur] est un concept bien plus large 33 Jakob Nielsen, Don Norman, «  The Definition of User Experience  », article non daté, Nielsen Norman Group, [En ligne], http://www.nngroup.com/articles/definition-user-experience. » Le «  design d’expérience  » et la fable de l’informatique «  invisible  » Cet intérêt désormais resserré autour de la personne-utilisateur et non plus de l’appareillage technique (l’interface) est encore plus explicite dans la formule «  design centré utilisateur  » (« UCD » pour user-centered design), qui consiste à fonder l’ensemble de la méthodologie de conception sur le point central qu’est l’utilisateur. Cette méthodologie de conception a rencontré un très grand succès peut-être en raison du lien qu’elle permettait d’établir entre les services marketing chargés d’étudier les consommateurs et les équipes chargées du design des produits. Pourtant, de l’aveu même du zélote Don Norman, le terme «  d’utilisateur  » a montré ses limites. Dans un article paru en 2006 et intitulé «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », Don Norman confessait ainsi  : «  Nous dépersonnalisons les individus que nous étudions en les rebaptisant «  utilisateurs  ». Ces termes sont péjoratifs. Ils nous éloignent de notre mission première  : aider les gens [to help people].[…]Les gens sont des êtres complexes et riches. […]Une étiquette telle que client, consommateur ou utilisateur ignore cette […]structure sociale. […]Il est temps de débarrasser notre vocabulaire de termes tels que consommateur, client et utilisateur. Il est temps de parler à des personnes. Le pouvoir au peuple [Time to speak of people. Power to the people] 34 Don Norman, «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », jnd.org, 2006, [En ligne], http://www.jnd.org/dn.mss/words_matter_talk_a.html. » De même, en 2008  : «  Parmi les horribles mots que nous employons, il y a le mot «  utilisateurs  ». Je pars en croisade pour nous débarrasser de ce terme. Je préfère parler de «  personnes  ». […] Nous concevons des produits pour des personnes, pas pour des utilisateurs 35 «  Don Norman at UX Week 2008, Adaptive Path  », YouTube, [En ligne], https://youtu.be/WgJcUHC3qJ8 » Résumons ces différents points. La méthodologie de conception «  centrée sur l’utilisateur  » consiste à traiter par le design chaque être humain comme un utilisateur, comme une personne vouée à n’entretenir avec les entreprises que des rapports «  centrés  » sur ses «  besoins exacts 36 Jakob Nielsen, Don Norman, «  The Definition of User Experience (UX) », op.  cit », avec lesquels il n’aurait ni «  entrave[s], hésitation[s]ou questions 37 Jeff Rubin, Dana Chisnell, Handbook of Usability Testing, op.  cit ». Ce courant de pensée est issu d’une modélisation scientifique des principes ayant présidé à la conception du Xerox Star afin d’en faire une machine «  personnelle  » optimisant les tâches à accomplir par l’utilisateur. Rétrospectivement, les textes performatifs de Don Norman faisant l’éloge de l’étude des «  besoins  » ont conduit, de l’aveu même de l’auteur, à une impasse, en raison du fait que l’être humain ne peut pas être réduit à un rôle déterminé 38 Cette idée a été inscrite dans les normes ISO, qui proposent de changer l’expression d’«  expérience centrée-utilisateur  » en «  conception centrée sur l’opérateur humain  ». Voir  : «  ISO 9241-210:2010. Ergonomie de l’interaction homme-système. Partie 210  : Conception centrée sur l’opérateur humain pour les systèmes interactifs  », Iso.org, mars 2010, [En ligne], https://www.iso.org/obp/ui/fr/#iso:std:iso:9241:-210:ed-1:v1:fr. Il serait possible de se réjouir d’un tel revirement de pensée. Pourtant, à y regarder de plus prêt, ne faudrait-il pas également interpréter ces injonctions contradictoires comme le signe d’un pouvoir qui n’appartiendrait pas au «  peuple  », mais à ceux tenant ces discours  ? Autrement dit, n’est-ce pas contre ceux qui s’enrichissent continuellement (au sens banal du terme) en maîtrisant la circulation des méthodologies de conception qu’il faudrait «  partir en croisade  » ? Davantage qu’un plaidoyer en faveur d’une complexité à prendre en compte dans la conception, cet «  appel à l’humain  » aura été, pour Don Norman, l’occasion d’éliminer progressivement les «  interfaces  » au nom d’une informatique «  invisible 39 Donald A. Norman, Norman, The Invisible Computer. Cambridge, MIT Press, 1998. » dont les produits seraient «  humainement centrés  » (human-centered) 40 Le chapitre 2 du livre The Invisible Computer a pour titre «  Growing up: Moving from technology-centered to human-centered products  ». Cette prédiction d’invisibilité passant à couvert dans un changement de vocabulaire a priori innocent fut si bien intégrée par les entreprises qu’en 2012 Apple en faisait l’objet d’une publicité : «  Nous pensons que la technologie atteint son summum lorsqu’elle devient invisible, quand vous ne pensez qu’à ce que vous faites et non à l’appareil avec lequel vous le faites. […] L’iPad illustre parfaitement cette idée. C’est une fenêtre magique qui peut devenir tout ce que vous voulez qu’elle soit. […]C’est une expérience de la technologie plus intime que ce que le public [people] a connu jusqu’alors 41 «  Official Apple (New) iPad Trailer  », YouTube, mars 2012, [En ligne], https://youtu.be/RQieoqCLWDo. » La prise de recul de Don Norman ne veut pas dire pour autant que son idée d’informatique «  invisible  » soit viable. Le terme qui importe ici est celui d’«  expérience  », qui va de pair avec celui de «  magie  ». Quoi de plus magique, en effet, que de faire l’expérience d’une technologie «  invisible  » ? Olia Lialina (artiste), dans un article critique consacré à l’étude de la notion d’utilisateur, ne s’en laisse pas compter  : «  C’est pour cela que le design d’interfaces a progressivement été rebaptisé design d’expériences – expression dont l’objectif premier est de faire oublier l’existence des ordinateurs et des interfaces auprès des utilisateurs. Le design d’expériences vous laisse seul avec vos émotions à ressentir, vos objectifs à atteindre et vos tâches à effectuer 42 Olia Lialina, «  L’utilisateur Turing-complet  » [2012], trad. de l’anglais par Jean-François Caro, LGRU Reader, 2013, [En ligne], http://reader.lgru.net/texts/lutilisateur-turing-complet. » Pour un design appareillé En conclusion de son article consistant à étudier les limites d’une exclusion du terme d’utilisateur des méthodes de conception d’interface, Olia Lialina propose de revenir à des fondements antérieurs au Xerox Star, à savoir ceux développés par l’informaticien Ted Nelson dans son ouvrage Computer Lib / Dream Machine de 1974  : «  L’INFORMATIQUE A TOUJOURS ÉTÉ PERSONNELLE [COMPUTING HAS ALWAYS BEING PERSONNAL]. Je veux dire par-là que si vous ne vous y plongiez pas intensément, parfois avec chaque cellule de votre cerveau éveillé, vous n’étiez pas en train de faire de l’informatique, vous n’étiez qu’un simple utilisateur [you weren’t doing computers, you were just a user] 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now, auto-édition, 1974, p.  3. » L’argument est fort. L’utilisation «  naïve  » dénoncée Ted Nelson, précise les risques d’une perte de contact avec l’ordinateur, qui du Xerox Star à l’iPad, présuppose que tout ce qui est «  vrai  » (la vraie vie, la créativité, etc.) serait extérieur à la machine. Pourtant, malgré la montée en puissance des interfaces tactiles (sans souris), malgré l’émergence des interfaces gestuelles (sans boutons), des interfaces sonores (sans écran), et malgré le retour des interfaces [En ligne de commande (sans icônes), force est pourtant de constater que les grands principes des interfaces graphiques élaborées au Xerox PARC au début des années 1970 régissent encore majoritairement nos rapports aux machines électroniques – qui ne sont pas encore,  loin s’en faut, «  invisibles  ». En témoignent, par exemple, les « Apple Human Interface GUI delines 44 Voir pour exemple  : « OS X Human Interface GUI delines  », Apple, [En ligne], https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGUI delines  : «  Designing for Yosemite  : […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience. » » (littéralement  : «  Directives Apple d’interfaces humaines  ») et le « Material Design 45  Google, Material Design, première version publiée en juin 2014, [En ligne], https://www.google.com/design/spec/material-design/introduction.html » de Google qui, dans les années 2010, sont des lectures recommandées – à condition d’être critique – pour quiconque s’intéresse au design d’interface. Cette actualité n’empêche pas que le modèle de pensée d’une interface couplée avec une figure utilisateur idéalisée (prise dans un faisceau d’habitudes) ait ses limites. Depuis le texte de Jef Raskin de 1967 associant «  l’utilisabilité humaine  » à l’efficacité de la résolution de tâches 46 Jef Raskin, A Hardware-Independent Computer, 1967, op.  cit, la volonté de créer une interface graphique pour procurer à l’«  utilisateur  » un nouvel environnement de travail et de nouvelles méthodes pour accomplir «  les mêmes objectifs qu’avant 47 «  Designing the Star user interface », op.  cit » aura consisté à envisager les médias électroniques comme des «  résolveurs de problèmes  » plutôt que comme des puissances de transformation et d’invention. Or, comme le note avec acuité le spécialiste des humanités Yves Citton  : «  L’invention des dispositifs techniques de communication […]s’inscrit dans une vaste nébuleuse d’espoirs, d’angoisses, de rêves, de bricolages, de savoirs parallèles, de détournements et de réappropriations, qui traversent de nombreux champs disciplinaires traditionnels […]. Nos médias ne sauraient en effet se réduire à de simples instruments de transmission de formes et de contenus  : il fonctionnent avant tout comme des médiums qui nous fascinent, nous hallucinent, nous hypnotisent et nous stimulent par l’entremise des simulations qu’ils qu’ils font pénétrer à travers nos sens 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques, Paris, Armand Colin, coll. Le temps des idées, 2012, p.  21-22. » Au regard de ces quelques textes fondateurs du design à l’époque du numérique, il est évident que les machines électroniques posent des questions qui n’existaient pas avant elles. Mais peut-être est-ce précisément contre ces nouveautés que se seront élaborées des méthodologies de conception trop inquiètes de préserver les pouvoirs et savoirs en place. Malgré ses indéniables avancées techniques, le Xerox Star n’aura pas bénéficié du plein soutien des dirigeants de l’entreprise, qui préférèrent développer le commerce des photocopieurs, plus en phase avec les «  usages  » de l’époque. Dans cette histoire de «  design centré utilisateur  », expression postérieure au Xerox Star, il est en effet question d’une inquiétude quant à un oubli de «  l’utile  », de l’utilité de l’objet. Mais est-ce vraiment possible dans un monde où les services marketing, par exemple, cherchent sans cesse à anticiper les «  besoins  » des consommateurs par des procédures statistiques couplées à des protocoles d’observation  ? Un autre aspect allant dans le sens d’un design se construisant contre les nouveautés techniques – c’est-à-dire pour les habitudes – est cette histoire de «  centre  », terme qu’il faut à présent examiner. Ce double suffixe accolé à design aurait pu faire l’objet de variations. Pourquoi ne parle-t-on jamais, par exemple, de design «  centré forme  » par exemple, ou bien de design «  centré pratiques  » ? Peut-être est-ce parce que ces deux notions (il pourrait y en avoir d’autres) résistent à l’idée de «  centre  », de délimitation. Si l’on prend la notion de forme, il est notable que celle-ci, historiquement, aura concerné le design – suivant la formule de l’architecte Louis Sullivan suivant laquelle «  de la forme suit de la fonction 49 Traduction proposée par Pierre-Damien Huyghe de la formule « form ever follows function » de 1886. ». Fin observateur d’une histoire qui, parfois, «  piétine  » (où des enjeux sont tantôt occultés, tantôt redécouverts), le philosophe Pierre-Damien Huyghe note que la notion de forme traduit le «  souci artistique  » du design  : «  Il ne s’agissait pas seulement de mettre au monde des objets fonctionnels qui pouvaient servir. Le souci de faire forme aura été absolument essentiel au design. On pourra noter ici que le latin forma peut, a pu se traduire par «  beauté » 50 Pierre-Damien Huyghe, «  On appelle beaucoup trop de choses «  design  », entretien avec Julie Delem, Naja21, avril 2015, [En ligne], http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design » De façon plus générale, c’est bien le design, dans ce qu’il comprend de capacité à transformer le monde, qui ne saurait «  se centrer  » sur quelque chose. Le design n’a de l’intérêt que s’il est emprunt de tensions, de polarités, de contradictions – soit tout le contraire d’un centre. Olia Lialina, en conclusion de son article, refuse également de se laisser réduire à une étiquette  : «  Nous, utilisateurs généralistes – qui ne sommes ni hackers, ni «  personnes  » –, qui interrogeons, consciemment ou non, notre potentiel et celui de l’ordinateur, sommes les participants ultimes de la symbiose de l’homme et de l’ordinateur 51 Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit » Il faut désormais revenir sur le fait que le modèle conceptuel de l’interface du Xerox Star de 1981 ait été décidé «  avant  » que le matériel (hardware) n’existe, «  deux ans avant d’avoir écrit une seule ligne de code 52 «  Designing the Star user interface », op.  cit ». Rétrospectivement, ce récit peut être compris comme celui d’une rencontre manquée avec l’altérité des machines, puisqu’il y est question, en substance, d’assujettir la technique numérique (hardware et software) à un «  modèle  », c’est-à-dire à quelque chose d’anticipé et de stabilisé. Cette mise à distance progressive de la notion d’«  utilisateur généraliste {53; Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit} » (actif et polyvalent) aura rendue possible les expressions de «  design centré-humain  » puis de «  design d’expérience  », qui incarnent la promesse d’un monde où l’on pourrait «  faire ce que l’on veut  », immédiatement, comme par «  magie  ». Mais de quel «  faire  » parle-t-on quand l’invisibilité devient l’idéal des machines  ? Cette fable de l’invisibilité des nouveautés techniques était en fait déjà en germe aux prémices de l’informatique personnelle. Dans un spot publicitaire de 1979 pour le Xerox Alto censé démontrer la puissance du «  bureau du futur  », un cadre commercial (Bill) arrive au travail et salue ses collègues un café à la main. Quand il arrive à son poste, il allume son ordinateur Alto et s’adresse vocalement à lui  : «  Hello, Fred  ». L’ordinateur lui répond «  Bonjour Bill  ». Après une série de tâches facilement résolues par la machine, vient le dialogue final  : Bill (fatigué) : «  Autre chose  ? » Fred  : Un bouquet de fleurs richement détaillé apparaît à l’écran Bill (troublé) : «  Des fleurs  ? Pourquoi des fleurs  ? » Fred  : «  Votre anniversaire est ce soir. » Bill (attristé) : «  Mon anniversaire. J’avais oublié. » Fred  : « Ça va. Nous ne sommes que des humains [It’s ok. We’re only human] 54 Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, op.  cit, p.  20.» Ce que décrivent de telles initiatives est paradoxalement un monde sans expérience, au sens où l’expérience ne peut avoir lieu qu’au sein d’un champ de possibles ouvert à l’incertitude  : «  La puissance économique est bien ce que la socialisation des expériences met en œuvre. Mais d’un autre côté, si cette mise en œuvre nourrit jour après jour l’expérience et la perception communes, elle n’apparaît pas authentiquement. Le plus souvent même, elle emprunte les formes de l’habitude, elle se glisse mimétiquement dans l’expérience 55 Pierre-Damien Huyghe, «  Faire place  », dans :  Richard Conte, Sandrine Morsillo (dir.), Qu’est-ce que l’art domestique  ?, Paris, Publications de la Sorbonne, coll. Arts et monde contemporain, 2006, p.  29.. » Symptomatique d’une époque où les «  appareils 56 L’appareil est défini par Pierre-Damien Huyghe comme «  une modalité technique distincte de l’outil et de la machine qui fait qu’il y a en lui une puissance de perception, une forme particulière de la sensibilité ». Voir  : Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, 2006. » ne sont plus des objets dignes d’intérêt, les relations humains-machines sont de plus en plus marquées (brandées) par les registres de l’utilité, du rendement ou du gain de temps. L’expérience humaine du «  design d’expérience  » se réduit bien souvent à une situation expérimentale, celle d’un rat cherchant sa sortie dans un labyrinthe. Qu’il soit «  amical  » (friendly) voire «  invisible  », ce milieu technique n’en est pas moins un carcan, une situation sous contrôle où tout échange est anticipé et programmé. À force de vouloir nous imiter dans des ordinateur «  humains, trop humains  », c’est nous-mêmes, «  simples personnes  », qui risquons de passer à côté de leurs possibilités complexes et infinies.

IA et pédagogie : un état de l’art

Date

avril 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

Adobe : le créatif au pouvoir

Date

juin 2011

Type

Publication

Contexte

Anthony Masure, « Adobe : le créatif au pouvoir », Strabic.fr, « L’usager au pouvoir », juin 2011

Résumé

« À l’issue de sa présentation, Jean a été félicité par ses collègues. Ils ont même applaudi  ! » — Publicité sur Adobe.com, consultée le 7 avril 2011. Jean utilise les «  solutions  » Adobe pour concevoir des présentations où il associe textes et images. Depuis qu’il se sert de ces outils, cela n’a jamais été aussi simple. La pieuvre Adobe Systems (qui a avalé en 2005 son concurrent Macromedia) déploie à intervalles réguliers ses suites créatives qui font d’un simple employé du secteur tertiaire un créatif en puissance. Lev Manovich, dans Le Langage des Nouveaux Médias 1 Lev Manovich, Le langage des nouveaux médias [2001], trad. de l’anglais par Richard Crevier, Dijon, Les Presses du Réel, 2010., analyse le mode d’existence contemporain des logiciels sous l’angle d’une «  logique de la sélection  ». Il constate que notre approche des outils de création (et des softwares en général) se fait essentiellement par la «  sélection  » d’actions à partir de menus prédéfinis. Adobe a précisément bâti son empire sur cette idée, en ajoutant à chaque itération de ses logiciels des lignes supplémentaires dans les menus. La richesse supposée du programme tient à l’accumulation de choix à sélectionner  : toujours plus de lignes et de curseurs déplaçables. Les publicités ciblant les habitués de la marque sont orientées dans ce sens, elles ne font la plupart du temps que lister les nouveaux ajouts de menus. La création serait donc fonction d’une suite de choix à régler dans des listes prédéfinies. Ces présaisies ont pour but d’organiser et de simplifier le cheminement de l’utilisateur, dans un souci d’efficacité. La création est vue ici comme un processus sans effort et sans résistance. Adobe entend proposer des «  outils familiers  » pour les créatifs, destinés à exprimer sans heurts les «  idées les plus folles  ». Le logiciel de création est conçu pour servir de façon satisfaisante le créatif, que l’on pourrait alors considérer comme un usager, c’est-à-dire quelqu’un qui se sert de quelque chose en vue d’obtenir un résultat déterminé. Il attend que son objet puisse répondre de façon précise à ses attentes 2 Pierre-Damien Huyghe, «  Définir l’utile  », conférence donnée à l’IFM le 6 avril 2011.. Le logiciel lui en donnerait le pouvoir, c’est-à-dire la condition matérielle d’accomplir une action. Les programmes d’Adobe rendent service quand ils ne s’écartent pas de ce qui était prévu. Ils organisent une «  mise à disposition  » de la créativité (Pierre-Damien Huyghe). Ils indiquent une disponibilité servile qui fait de ces objets nos serviteurs impassibles. L’ordinateur ne se plaint jamais et ne peut pas ne pas servir, sauf dans le cas du bug. Il enclot notre réflexion dans des choix donnés. La dimension de souffrance du travail est évacuée, au profit d’une fluidité «  sans écrire de code  » (Adobe). Aucune résistance, aucun imprévu ne doit interrompre le flow des créatifs. Pendant naturel des fonctions automatisées, les sources d’inspirations sont aussi organisées en sélections. Ces aides à la création sont facilement disponibles via des sites accumulatifs (Smashing Magazine, Daily Dose of Inspiration, Designer Daily, etc.) Ceux-ci fonctionnent par billets thématiques et rassemblent sur le mode du catalogage une collection de liens sur un même sujet, sans chercher à l’épuiser ou à le problématiser. Les bases (ou images-source) sont indexées de plus en plus finement pour faciliter la recherche via des moteurs généralistes. S’opère ici une économie de la radicalité ou de l’imprévu par la recherche d’un consensus sur un même mot-clé (keyword). Il s’agit de donner l’idée au grand public que la création est quelque chose de facile, par la navigation sans effort parmi des galeries d’images lissées. Dans ce pouvoir nouveau donné aux créatifs se dessine en creux une démocratisation voulue et provoquée par les décideurs. Si le prix du logiciel reste prohibitif pour le grand public, Adobe segmente sa gamme en produits moins chers dits «  essentials  », tout en laissant faire (voire en favorisant  ?) le piratage des versions professionnelles pour habituer à s’en servir ceux qui de toute façon ne les auraient jamais achetées. Il en va souvent de même dans les écoles d’art et de design, où aucune alternative n’est envisagée. Cette hégémonie finement contrôlée déplace le pouvoir de l’usager vers l’entreprise de services, qui dicte tous les ans un rythme de renouvellement de son système. Suite à l’émergence de professions identifiées comme le chef de projet, des programmes dédiés (Adobe Version Cue) se chargent désormais d’organiser le savoir-faire organisationnel. Il devient lui-aussi affaire de systèmes parfaitement réglés. Automatisation des fonctions, travail organisé en «  chaîne de production  » (Adobe), capitalisation de «  l’imagination au pouvoir  » de quelques grands groupes… autant de notions qui articulent l’idée d’une production sans accrocs et sans fin, c’est-à-dire une production industrielle. L’organisation croissante au tournant du siècle des systèmes de fabrication a pour but d’achever l’idée d’une réalisation qui irait droit du concept à l’objet. Cette absence de divergence est encouragée et guidée par des méthodes qui deviennent systèmes  : taylorisme, fordisme… Ils visent à donner une place à chaque outil, étape, personnel de production. Dans cette prise de pouvoir concentrée autour de la production sans accident, le prolétaire perd l’usage de ses savoir-faire, dont il est dépossédé. L’ouvrier devient usager de son outil de production, parfaitement conçu pour effectuer une action précise. Les gestes et temps de travail ne doivent pas diverger de l’organisation mécanisée des structures productives. Dès 1844, dans les Manuscrits de 1844 3 Karl Marx, Manuscrits de 1844, Paris, Garnier Flammarion, 1999. puis dans le chapitre 14 du Capital, Marx pose la question de l’aliénation et de la soumission à la machine. S’il n’insiste pas spécifiquement sur le terme de pouvoir, il nous alerte sur l’ordre nécessairement autoritaire de l’industrie pour contenir les risques d’indiscipline des ouvriers. Le prolétaire est une machine dans son travail, et aucun accomplissement social n’y est possible. Son salaire doit juste lui permettre de subsister dans sa condition ouvrière. Le pouvoir de la manufacture soumet l’ouvrier à un ordre dont il ne peut pas se détourner ou diverger. Si les «  créatifs  » sont généralement mieux lotis financièrement, une analyse marxiste plus poussée pourrait nous permettre d’envisager des recoupements entre le prolétaire ouvrier et l’assistant de création. Il faudrait alors déplacer les notions d’aliénation et de subsistance vers celles de dépendance et de pensée dans un système prédéfini et difficile à déplacer. S’il serait abusif de faire des logiciels Adobe des outils purement limitatifs, rien n’indique en eux une volonté d’ouverture vers l’imprévu. Concurrence inexistante et faiblesse des solutions libres (GIMP) contribuent à ce monopole problématique, qui fait encourir un danger de formatage des productions (même constat avec l’éditeur 3D Autodesk, avec l’éloignement de la matière en sus). En faisant l’économie de modèles divergents, Adobe organise les modes de travail en réduisant les possibilités à des dispositifs constitués dans des choix de «  sélections  » (Lev Manovich). Le passage du réglage à la sélection (il faudrait développer ce point) est celui de l’ouverture des possibles vers un mode de réflexion borné, automatisé comme les modes scènes des appareils numériques contemporains. Il nous enjoint à appliquer des méthodes créatives réalisables sans effort grâce à des outils dédiés (automatisations, filtres), utilisables servilement via des sélections organisées discrètement. En faisant du designer un créatif se servant sans effort d’une suite d’outils, Adobe rabat la dimension d’usage sur l’activité artistique. L’iconographie marketing de ses publicités montre des designers et décideurs envisagés sous l’angle de la rentabilité et de l’efficacité. La pensée doit tracer sa route sans écart pour répondre efficacement aux sollicitations de l’économie de la créativité. Mais qu’économisons-nous quand nous raisonnons ainsi  ? Est-il pertinent d’envisager l’activité de création comme une économie d’efforts et de modalités  ? Il est d’autres voies possibles, qui feraient place au hasard, à la divergence, aux imprévus, et c’est même ce que nous pourrions nommer «  design  ». Les objets serviles nous desservent de nos pratiques. Là où Adobe pense en termes de solutions, le designer crée de la divergence dans des systèmes techniques ou réflexifs. C’est paradoxalement en ouvrant et en se jouant de la résistance de l’idée à la forme que le designer peut construire son autonomie. C’est dans cette nécessaire liberté qu’un pouvoir pourrait s’exercer. L’outil numérique serait à envisager comme un champ de possibles qui ne serait pas autoritaire et normé (deux notions habituellement liées au pouvoir). Le dispositif, dont Giorgio Agamben 4 Giorgio Agamben, Qu’est-ce qu’un dispositif  ?, Paris, Rivages Poches, 2007. (via Foucault) montre «  qu’il s’inscrit toujours dans une relation de pouvoir  » manifeste sa volonté de clôture dans une utilisation dictée (voire ordonnée) par des modes d’emploi et habitudes culturelles. L’idée d’un «  usage correct  » du dispositif est caduque car il n’existe pas de bon usage, ou plutôt que faire usage d’un objet n’a à voir qu’avec des conduites qui n’en n’épuisent pas les possibles (Pierre-Damien Huyghe). Il s’agirait donc de faire varier les attendus serviles des objets, qui s’épuisent dans leur fonction. Ce jeu (liberté de mouvement) serait alors une zone de pouvoir possible, qui ne serait plus orientée en vue d’obtenir un effet déterminé. L’open source (code source libre), sans en faire une lecture naïve de remède anti-autoritaire, serait du côté d’un pouvoir rendu en amont et en aval à l’usager. La conception nécessairement ouverte et partagée du programme implique un pouvoir non concentré, qui met de fait «  au pouvoir  » les membres de la communauté. Ce pouvoir partagé ne serait pas celui d’une volonté de contrôle mais plutôt un pouvoir décentralisé et diffus. Il existe des degrés d’implication divers dans la conception du programme, qui ne sont pas ceux d’un projet normé et balisé. Même si des roadmaps (feuilles de route) sont nécessaires, des retards et fonctions de dernière minute peuvent apparaître, de même que des forks (fourches) qui sont une bifurcation du programme, redéveloppée par une partie de la communauté des développeurs. Il y a ici une forme de valorisation qui ne passe pas par des logiques de profit, une économie de la connaissance qui fait de l’usager un contributeur (Bernard Stiegler). Alors que les logiciels utilitaires épuisent l’attention dans une simple tâche à effectuer, il y a dans les codes sources ouverts l’idée d’une amélioration possible depuis la base. N’importe qui peut faire remonter des idées ou améliorations (il faudrait détailler ces différents degrés possibles d’interventions). Le programme est aisément reconfigurable pour répondre à des localisations (terme qui désigne à la base la traduction) ou contextes précis, qui ne sont pas forcément ceux qui sont le plus économiquement viables. Le pouvoir de changer librement éloigne ce type de programme des notions de système (pas de ligne figée, ni de concepts inamovibles) et de dispositif (pas d’idée de manipulation ou de rapport de force). Ce passage du logiciel-outil à un champ de possible, cela serait l’appareil. Un appareil s’envisage par sa capacité à ouvrir une disponibilité à partir de «  réglages  » (Pierre-Damien Huyghe 5 Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, coll. Esthétiques, 2005.). Appareiller un dispositif serait donc œuvrer à sa mise en jeu, ce qui dépasse la logique de fonctions sélectionnables pour réactiver une liberté permettant de nous subjectiver. Reste à envisager ce modèle en action, répondre à ces questions en designer. Le «  créatif  » devra pour un temps encore se satisfaire d’utilitaires. Des productions intéressantes peuvent bien sûr émerger, à condition de prendre ses distances avec le conditionnement technique et marketing. Question d’attitude et de regard, qui passe aussi par un véritable enseignement de ces domaines afin de dépasser les usages pour en faire des pratiques. « À l’issue de sa contribution, Jean a été félicité par ses collègues. Ils ont même amélioré son code source  ! »

Le numérique dans le design et ses enseignements

Date

mai 2012

Type

Publication

Contexte

Anthony Masure, « Le numérique dans le design et ses enseignements », texte d’intention rédigé pour la séance « Design et Art », séminaire « Éducation et TIC », laboratoire STEF, ENS Cachan, 10 mai 2012

Résumé

En tant qu’il tient à l’art autant qu’à l’industrie, le design ne cesse de questionner les limites des avancées techniques et technologiques. Comment le design et ses enseignements peuvent-ils prendre en compte la conception de logiciels pour dépasser la simple formation à des outils dont des nouveaux apparaissent chaque jour ? Comment repenser les objets et les environnements dans une époque travaillée par des initiatives multiples visant à ouvrir des systèmes brevetés ou inaccessibles ? Comment penser un enseignement au fait de cette richesse et de ces défis ?

Entre rejet en bloc et nouvelles chaînes de valeurs : les NFT au-delà du visible

Date

septembre 2022

Type

Publication

Contexte

Article rédigé avec Guillaume Helleu pour la revue AOC.

Résumé

Apparus en 2017, les NFT (« Non Fungible Tokens »), à savoir des certificats numériques infalsifiables et décentralisés, ont été rendus célèbres pour leurs usages dans le monde de l’art. Hautement polémiques, les NFT sont fréquemment accusés d’être spéculatifs, inutiles et polluants. Nous proposons d’y voir plus clair dans ces controverses, fondées pour une bonne part, afin de montrer que d’autres voies sont possibles. En effet, les NFT – dont les applications artistiques ne sont qu’un maillon – ne sauraient se réduire à leur portion visible et engagent des réflexions plus larges sur les systèmes de valeurs, chaînes de distribution et formes de gouvernance.

Vers des organisations décentralisées et collaboratives ?

Date

décembre 2022

Type

Conférence

Contexte

Conférence pour le MasterCard Innovation Forum 2022, Paris, Stade de France.

Résumé

Le déploiement du metavers, l’essor des crypto-monnaies et des NFT dessinent les contours d’un futur disruptif. L’édition 2022 du MasterCard Innovation Forum qui se tiendra le 8 décembre interroge toutes ces dimensions, cherche à cerner les opportunités, dessiner les limites et imaginer les solutions pour qu’émerge un futur responsable.

Notions

Objets mentionnés

Médias

Autres activités

Date

Type

Contexte

Résumé

Design sous artifice : la création au risque du machine learning

Date

mars 2023

Type

Contexte

Cet essai a été réalisé dans le cadre du projet de recherche « Design et machine learning : l’automatisation au pouvoir ? », financé par la HES-SO et conduit par Anthony Masure de 2022 à 2023 à la HEAD – Genève avec Alexia Mathieu, Douglas Edric Stanley, Élise Gay et Kévin Donnot. Site Web du projet : www.design-machine-learning.ch.

Résumé

Au début des années 2020, portés par les progrès des « intelligences artificielles », des programmes comme GPT-3, DALL·E, Midjourney ou Disco Diffusion permettent de générer des images à partir d’instructions textuelles. Bien que ces productions ne font souvent qu’imiter des données existantes et manquent de diversité, les débats médiatiques ont tendance à se polariser sur le remplacement des humains par la machine. Ce faisant, ils font écran à la question essentielle : quel est le spectre des implications actuelles et potentielles du machine learning pour les pratiques de design ?

iPad et mimesis

Date

juin 2010

Type

Publication

Contexte

Anthony Masure, « iPad et mimesis », préparation à une journée d’étude à propos de László Moholy-Nagy, université Paris 1 Panthéon-Sorbonne, juin 2010

Résumé

Étude et analyse de l’interface de lecture de l’application Apple iBooks sur iPad : comment sortir d’un modèle mimétique pour proposer une expérience de lecture singulière ?

Braun/Apple, des survivances paradoxales

Date

avril 2012

Type

Publication

Contexte

Anthony Masure, « Braun/Apple, des survivances paradoxales », Reel-Virtuel.com, no 3, « Archéologie des nouvelles technologies », avril 2012

Résumé

Si les appareils font époque, leur invention précède leur découverte. La nouveauté est recouverte de formes anciennes, qui permettent de faire accepter socialement l’innovation. Nous discuterons ces hypothèses en étudiant le design des objets Apple, qui reprennent les formes élaborées par Dieter Rams chez Braun dès 1950. Comment penser ces survivances paradoxales ? Faut-il y voir un échec des nouvelles technologies à formuler un vocabulaire esthétique singulier ?

Que fait l’amateur ?

Date

mai 2013

Type

Publication

Contexte

Anthony Masure, « Que fait l’amateur ? », Rencontres de Lure, Après\Avant, no 1, mai 2013, p. 52-53

Résumé

À une époque où la figure du consommateur est à la fois contestée et installée de fait, il est possible de penser le succès médiatique de « l’amateur » comme une tentative d’ajustement de l’époque à ses objets techniques. Pris dans les cadences d’un temps écrasé sur lui-même, nous ne serions plus en mesure de réaliser autre chose que du déjà-là. L’accélération des communications réduit le sensible à des informations dont la valeur décroît à mesure qu’augmente le temps de leur réception. De la même façon, les marchandises aux cycles de renouvellement toujours plus rapides ne permettent pas de réaliser autre chose que des comportements, c’est-à-dire des actes soumis à des réflexes.

Des dispositifs aux appareils : l’espacement d’un calcul

Date

septembre 2013

Type

Publication

Contexte

Anthony Masure, «Des dispositifs aux appareils : l’espacement d’un calcul», Reel-Virtuel.com, no 4 : «Du dispositif à l’imprévu», septembre 2013

Résumé

À partir de l’étude du concept de dispositif développé par Michel Foucault, nous envisageons deux rapports à l’objet technique: l’un se situant dans un contrôle des usages, et l’autre ouvrant à des pratiques singulières. Tandis que l’usage et l’emploi rabattent la créativité dans une anticipation constante de ce qui sera produit, il est d’autres façons de faire qui ne limitent pas a priori ce que nous pouvons inventer. Dans le fonctionnement d’un appareil, quelque chose échappe à l’opérateur: il s’y joue de l’imprévu.

Le logiciel au pouvoir

Date

décembre 2013

Type

Publication

Contexte

Anthony Masure, « Le logiciel au pouvoir », note de lecture du livre de Lev Manovich Software takes command, Interfaces numériques, no 3, vol. 2, décembre 2013

Résumé

Lev Manovich, Software Takes Command, New York, Bloomsbury Academic, 2013. New York, novembre 2013  : Le panel de la conférence #LISA2013 1 Conférence Leaders in Software and Art, panel « DIY start-ups: 3D printing and Hardware Hacking », New-York, 1 er novembre 2013. sur l’impression 3D et le Do It Yourself s’enlise dans les bons sentiments, au risque du cliché. Les intervenants y font l’apologie d’un certain type de «  faire  », mélange d’american dream et de volontarisme dynamique. Bousculant les idées reçues nous enjoignant à agir sans réfléchir, Lev Manovich interpella les orateurs en leur demandant si «  Einstein ne fit que faire  ? » [« So Einstein ‹  just did it  ›? »] Alors que les universitaires sont souvent accusés de «  ne pas faire  », la boutade lancée par Lev Manovich interroge le fait de croire qu’une activité pourrait se passer de réflexion. Dans le domaine numérique, la multiplication des systèmes de conception et de production alimente l’illusion d’une fluidité de la pensée s’incarnant sans difficulté dans des formes et objets  ; mais n’est-ce pas le logiciel qui a pris le pouvoir  ? L’importance des software studies Contrairement aux machines qui ne sont pas renouvelées si fréquemment que cela, les programmes sont depuis quelques années mis à jour dans des flux en temps réel. Alors qu’aucune profession ou activité humaine ne semble échapper à terme à l’usage des logiciels, par quelles disciplines théoriques faut-il passer pour penser ces «  nouveaux  » objets  ? C’est précisément cette question que pose le champ des « software studies », ouvert par Lev Manovich et Matthew Fuller 2 Matthew Fuller, Behind the Blip.  Essays on the Culture of Software, New York, Autonomedia, 2003. au début des années 2000 pour sortir d’une approche centrée sur la fonction et le mode d’emploi. En étudiant les fondements esthétiques, historiques ou idéologiques de programmes tels que Word, Photoshop, ou After Effects, ces auteurs ont renouvelé, voire inventé, l’analyse d’objets essentiels à la compréhension de notre époque. Paru en 2001 (2010   en France), l’ouvrage Le langage des nouveaux médias 3 Lev Manovich, Le langage des nouveaux médias [2001], trad. de l’anglais par Richard Crevier, Dijon, Les Presses du réel, 2010. élabore un lexique et des modes d’articulation (les «  opérations  ») propres aux logiciels dits de création et s’est rapidement imposé comme un ouvrage de référence des théories des nouveaux médias. C’est précisément cette dernière expression qui est au cœur de Software takes command. Tandis que le vingtième siècle aura été marqué par la notion de «  média  », les environnements numériques, selon Lev Manovich la déplacent et la redéfinissent. À rebours des discours économiques ou marketing des éditeurs de logiciels, c’est donc une exploration tant historique que théorique qui nous est ici proposée. Redéfinir la notion de média Alors que l’on traite trop souvent le numérique comme une imitation d’anciens médias (songeons par exemple aux balbutiements du mal nommé «  livre numérique  »), Lev Manovich montre que le développement des interfaces graphiques portait déjà en lui des caractéristiques nouvelles  : «  Plutôt que de nous concentrer sur les productions amateurs des logiciels, nous devrions nous intéresser aux programmes en eux-mêmes — en tant qu’il permettent de travailler avec les médias de façons jamais vues auparavant. Tandis que le numérique est habituellement abordé comme une opération de «  remédiation  » (représentation) des anciens médias, l’environnement numérique dans lequel ces médias «  vivent  » est très différent. » Lev Manovich s’appuie notamment sur les recherches d’Alan Kay, qui participa, à la fin des années 70, au sein du Xerox PARC, à l’invention de la «  programmation orientée objet  », ainsi qu’au développement des interfaces graphiques, et plus largement à la conceptualisation du computer. Pour Alan Kay, l’ordinateur personnel est un «  métamédium  », c’est-à-dire un environnement pouvant simuler les anciens médias, et suffisamment malléable pour pouvoir intégrer des médias qui n’existent pas encore 4 Lev Manovich, Software takes command, op.  cit., p.  44. Traduction personnelle.. C’est la nature même des interfaces numériques que de produire une «  remédiation  » des anciens médias. La simulation de la photographie, de la peinture, du cinéma, etc. s’accompagne immédiatement de fonctions nouvelles, telles que le copier/coller, la recherche par mots-clés, ou le changement des modes d’affichage d’un même objet. Une bonne part du livre consiste ainsi à interroger la spécificités de ces techniques 5 Ibid., p.  119  : « Visualization, searchability, findability—these and many other new “media-independent techniques” (i.e. concepts implemented to work across many data types) clearly stand out in the map of the computer metamedium we have drawn because they go against our habitual understanding of media as plural. », selon qu’elles soient propres à certains médias, ou généralisables à tous. Se référant par endroit à la théorie de l’évolution 6 Comme le chapitre « The evolution of media species », p.  233., Lev Manovich étudie comment ces nouvelles possibilités apparaissent, se répandent ou disparaissent. Le principal apport du livre se situe dans ce point faussement évident pour qui travaille la matière numérique, à savoir que la nouveauté des nouveaux médias est celle de toujours pouvoir leur ajouter des propriétés (et ce sans altérer les fichiers source). Pouvoirs du logiciel Le titre du livre est un hommage au livre Mechanization takes command de Siegfried Giedion 7 Siegfried Giedion, La mécanisation au pouvoir [1947], trad. de l’américain par P. Guivarch, Paris, Centre Georges Pompidou, CCI, 1980., pour marquer l’idée d’une « softwarization » de la culture depuis 1960, c’est-à-dire d’un développement ubiquitaire des logiciels dans toutes les strates de la société. L’ouvrage de Manovich n’a cependant pas l’ambition d’analyser un spectre aussi large, et c’est pourquoi il se focalise sur les logiciels de création (« media softwares »). La thèse de Software takes command est que les médias n’existent désormais qu’à travers les logiciels. Pour comprendre les médias, il nous faut parfois découvrir la nouveauté sous des interfaces anachroniques. Lev Manovich donne ainsi l’exemple d’Adobe Acrobat 8.0, qui est selon lui un modèle d’incohérence de métaphores obsolètes et de fonctions propres au numérique. C’est comme si, dit-il, «  les designers Acrobat avaient voulu donner aux utilisateurs une multitude de façons de naviguer dans les documents 8 Ibid., p.  189. ». On trouvera ainsi au sein du livre des pistes de recherche fructueuses pour élaborer un «  design des programmes  » cohérent et pertinent. Mettant «  en action  » les hypothèses des deux premiers tiers du livre, le chapitre final 9 Chapitre « Software in action », p.  241. étudie le logiciel Adobe After Effects, en montrant en quoi ses spécificités techniques contribuent à changer les façons de faire des vidéos – par exemple en passant d’une interface basée sur le temps à une interface basée sur la composition 10 Ibid., p.  282. On pourra aussi mentionner la couverture de l’édition anglaise, qui déplie sur plusieurs milliers de captures d’écran une partie du jeu vidéo Kingdom Hearts.. Pour comprendre les médias, intéressons-nous aux programmes L’habileté d’une telle démarche est de réussir à intéresser tant les ingénieurs, que les historiens ou les designers. L’écriture est d’une clarté remarquable, l’auteur partant d’une définition minimale du terme de média pour la faire évoluer au fil des chapitres, jusqu’à – fait trop rare – se risquer en conclusion à un résumé en deux pages de l’ensemble de l’ouvrage. Un chapitre bonus, disponible en téléchargement pour ne pas alourdir un texte déjà bien dense, traite des réseaux sociaux – peut-être l’amorce d’un prochain titre  ? Si, comme le dit Lev Manovich, le logiciel est bien l’électricité du 21 e siècle, il nous faut réfléchir à ses tenants et aboutissants au lieu de mettre les doigts dans la prise. Devra-t-on attendre 10 ans, comme son précédent livre, pour avoir une traduction française et tirer les conséquences de ces hypothèses de recherche  ? À nous de prendre les commandes.

L’injonction à la créativité dans le design

Date

avril 2016

Type

Publication

Contexte

Anthony Masure, « L’injonction à la créativité dans le design. Des logiciels de création innovants aux programmes inventifs », dans : Anne-France Kogan, Yanita Andonova (dir.), actes du colloque « De l’injonction à la créativité à sa mise en œuvre : quel parallèle entre monde de l’art et monde productif ? » [2015], MSH Nantes, Mines Nantes, université Paris 13, 2016, p. 16-23

Résumé

Il est de plus en plus demandé au design de se placer du côté de la « créativité » et de « l’innovation », comme si cela allait de soi. Que recouvre cette injonction, et comment est-elle mise en œuvre ? Après avoir situé le design dans une tension entre le monde productif et le monde de l’art, nous examinerons quelques logiciels censés « exalter » la créativité des utilisateurs avant de conclure sur une vision du design échappant à cette injonction stérilisante.

Le design de la transparence : une rhétorique au cœur des interfaces numériques

Date

janvier 2019

Type

Publication

Contexte

Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence ».

Résumé

Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes : 1 – Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques ; 2 – La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données ; 3 – La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.

Overall Technology

Date

mars 2019

Type

Publication

Contexte

« Overall Technology  », introduction de section coécrite avec Océane Ragoucy, dans : Catherine Geel, Clément Gaillard (dir.), Extended French Theory & The Design Field… On Nature and Ecology: A Reader, Paris, T&P Work UNiT

Résumé

English version here. Ouvrage publié à l’occasion de réflexions menées dans le cadre de la Section française, De la pensée au visible. Design as large ring, XXIIe Triennale de Milan, Broken Nature, du 1 er mars au 1 er septembre 2019. Dans la pensée commune, l’écologie, comprise comme gestion de ressources naturelles, s’oppose de fait à la technique  : la logique moderniste aurait poussé le progrès technique jusqu’à un point d’achoppement où ce dernier s’effondrerait sous la finitude de sa croissance. La technique comme savoir-faire ou capacité à modifier son environnement est ici comprise dans son acception contemporaine de «  technologie » : une suite d’énoncés techniques (logos) incarnés dans des artefacts consommables. Or les textes qui suivent montrent que l’écologie est multiple, tout comme devrait l’être «  la  » technique. Cette pluralité des cadres de vie, préoccupation au cœur des champs de l’art et du design, recoupe les textes incisifs du philosophe Félix Guattari. Sa notion d’« écosophie  » (d’écologie globale) invite ainsi à ne pas penser l’écologie séparément de l’esthétique  : «  Mettre au jour d’autres mondes que ceux de la pure information abstraite, engendrer des Univers de référence et des Territoires existentiels où la singularité et la finitude soient prises en compte […] et affronter le face-à-face vertigineux avec le Cosmos pour le soumettre à une vie possible, telles sont les voies enchevêtrées de la triple vision écologique [des environnements, des rapports sociaux, et des subjectivités] 1 Félix Guattari, Les trois écologies, (Paris, Galilée, 1989), 70. »  Y voir plus clair dans les relations entre écologie et technique implique aujourd’hui de considérer des textes écrits à partir des années 1970 dans le contexte de la Guerre froide et du développement effectif de l’informatique dite «  personnelle  ». La philosophie des techniques, déjà riche d’une longue histoire, est alors en plein essor à l’échelle internationale depuis une quarantaine d’années. Parce qu’il est articulé aux enjeux esthétiques et écologiques, ce champ trouve en France des relais singuliers que cette sélection de textes se propose d’explorer. Un domaine, l’archéologie des médias, en faisant s’entrechoquer des couches techniques hétérogènes, qu’elles soient historiques, matérielles ou logicielles offre un puissant contre-feu aux promesses d’efficacité – parfois effrayantes – de ces techniques numériques. Précurseur de ce champ, le philosophe nomade Vilém Flusser, dans son essai Vampyroteuthis infernalis 2 Vilém Flusser, Vampyroteuthis infernalis [1981-1987], trans. C. Lucchese, (Bruxelles: Zones sensibles, 2015). dessine un bestiaire dérivé des calmars et des pieuvres révélant en creux les impensés de la prolifération des machines d’information électroniques. Avec différentes approches, les philosophes de la French Theory et leurs héritiers contemporains (Bernard Stiegler, Pierre-Damien Huyghe, Isabelle Stengers, Bruno Latour, Madeleine Akrich, etc.) auront affronté de façon aiguë les profondes conséquences des mutations technologiques. Traversés par l’idée de penser la technique au-delà des acteurs humains et/ou de son assignation à un principe d’efficacité, ces auteurs – bien qu’ils ne se réclament pas forcément de cette notion – interrogent et élargissent une compréhension trop limitée de l’écologie. Alors qu’ils ne sont pas (tous) contemporains de la massification des usages des technologies numériques, le fait que ces écrits soient encore largement étudiés témoigne d’un fait évident  : pour faire de la recherche, les notions de nouveauté et de progrès sont parfois inopérantes. Dans This Progress, une performance participative (Palais de Tokyo, Paris, 2016) 3 This Progress ( Solomon R. Guggenheim Museum, New York, 2006) est rejouée au Palais de Tokyo, (Paris, 12 octobre 2016 – 18 décembre 2016) : «  Carte blanche à Tino Sehgal  », commissariat Rebecca Lamarche-Vadel., l’artiste germano-britannique Tino Sehgal met en branle la notion de progrès en activant ses dimensions  : personnelles, partagées et transgénérationnelles. Un témoignage de visite relate cette surprenante expérience basée sur la voix humaine, le mouvement corporel et l’interaction sociale  : «  En s’avançant seul dans un grand espace libre, un enfant d’une douzaine d’années s’approche de nous en nous demande soudain ‹  qu’est-ce que le progrès  ? ›. Rappelons quelques éléments de cadrage historique  : l’émergence de l’informatique grand public s’est majoritairement basée sur une compréhension cognitiviste du modèle cybernétique 4 Pour une compréhension plus large de la cybernétique, voir  : Norbert Wiener, Cybernétique et société. L’usage humain des êtres humains [1954], trans. P.-Y. Mistoulon, (Paris: Point, 2014).. Ce paradigme de conception, qui imprègne encore largement les interfaces des «  dispositifs 5 Giorgio Agamben, Qu’est-ce qu’un dispositif  ? [2006], trans. M. Rueff, (Paris: Payot & Rivages, 2007). » numériques que nous utilisons tous les jours, s’est développé économiquement de façon dissimulée – recouvert par des vagues d’objets au renouvellement accéléré et installés parmi nous sans négociation ou réflexion citoyenne en amont. Autrement dit  : nous manquons de recul pour comprendre ce que les médias numériques nous font, font avec nous, ou font contre nous. Le collectif d’artistes RYBN met à mal l’idée de progrès ou de neutralité technologique. En hybridant la rationalité informatique avec des modes de pensée basés sur la mythologie ou la croyance, les formes ésotériques de leurs travaux trahissent le caractère «  hanté » des machines électroniques. Leur projet Data Ghost 6 RYBN, Data Ghost 1, installation présentée à l’exposition “Media Mediums”, commissariat Jeff Guess et Gwenola Wagon, Paris, Ygrec, ( 4 avril-31 mai 2014) (galerie Ygrec, Paris, 2014) scanne inlassablement les bruits de fond des flux de données numériques pour y détecter des messages «  fantômes  ». Internet devient alors la chambre d’écho de spectres rétro-inter-actifs. À 30 ans d’écart avec les écrits de Félix Guattari, ces réflexions sur la désubjectivation des individus résonnent avec les dispositifs invisibles (car encodés) qui s’infiltrent dans la plupart des activités humaines. C’est ce que le chercheur Evgeny Morozov appelle «  réglementation algorithmique  » 7 Evgeny Morozov. «  La prise de pouvoir des données et la mort de la politique  ». Trans. P. Jorion, août 2014. https://www.pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique-par-evgeny-morozov/, à savoir une forme pernicieuse de contrôle social opérée par des agents non-humains. Au tournant des années 2010, force est de constater que les filets des toiles d’information n’ont pas créé de «  village global 8 in Marshall McLuhan, Quentin Flore, The Medium is the Massage. Inventory of the Effects (New York  : Bentam books, 1967).». La puissance d’un «  capitalisme des plateformes 9 Nick Srnicek, Capitalisme de plateforme. L’hégémonie de l’économie numérique [2016], trans. P. Blouin, (Montréal: Lux, 2018). » – celle des GAFAM et des BATX – menace plus que jamais la capacité des citoyens à inventer leurs modes d’existence. Captant de la valeur à partir de prises sur les «  données  », les dispositifs numériques sont également de formidables machines à polluer les esprits pour peu que l’on navigue sans filtre. Face à cette partition entre une technologie invasive et la capacité du corps social à organiser ses conditions d’existence, l’écologie prend ici une dimension psychique. La technique étant de fait constitutive de l’humanité, il ne s’agit pas pour autant de revenir à un âge d’or qui n’a en fait jamais existé. En ce sens, le designer Ezio Manzini plaide pour une « écologie de l’environnement artificiel 10 Ezio Manzini, Artefacts. Vers une écologie de l’environnement artificiel [1990], trans. Adriana Pilia, (Paris: Centre Georges Pompidou, CCI, 1991). » – une «  seconde nature  » formée par le tissu technique qui reste largement à inventer. Dès le début des années 1990, ce dernier nous avertissait du risque que le trop-plein d’informations se transforme en «  bruit » : «  Nous vivons au milieu d’une masse croissante de ‹  déchets sémiotiques  ›, autrement dit de messages, de textes et de codes usagés dont nous ne pouvons nous défaire. […] En proliférant de façon incontrôlée, la plus grande variété de formes, de couleurs et de textures peut déboucher sur le plus gris des mondes 11 Ezio Manzini, Artefacts. Vers une écologie de l’environnement artificiel [1990], trans. Adriana Pilia, (Paris: Centre Georges Pompidou, CCI, 1991), 36-37. » À rebours du «  déficit attentionnel  » qu’auraient engendré les boucles de rétroaction comportementales des «  services  » numériques dominants – à savoir l’exploitation économique des comportements, des affects et des désirs –, le chercheur Yves Citton invite ainsi à penser les conditions d’une « écologie de l’attention 12 Yves Citton, Pour une écologie de l’attention, (Paris: Seuil, 2014). » allant de pair avec une réorientation des politiques médiatiques. Le philosophe des techniques Gilbert Simondon notait à la fin des années 1950, pour désigner cette perte d’intelligibilité, que c’est alors «  l’essentiel qui manque, le centre actif de l’opération technique qui reste voilé 13 Gilbert Simondon, Du mode d’existence des objets techniques [1958], (Paris: Aubier, 2012).». Les poussées techniques n’auront eu de cesse d’accentuer cette opacité et de démultiplier les «  boîtes noires  ». Qui, aujourd’hui, comprend vraiment, par exemple, comment fonctionnent les protocoles blockchain ou les codes auto-évolutifs du deep learning ? Dans la vidéo Rare Earthenware (exposée au ZKM à Karlsruhe dans l’exposition Reset Modernity!, (dirigée en 2016 par le sociologue et philosophe Bruno Latour), le studio de design Unknown Field Divisions a documenté la trajectoire de métaux rares nécessaires à la construction de trois objets de télécommunication  : un téléphone portable, un ordinateur portable ultrafin et une puce de batterie de voiture «  intelligente  ». La quantité de déchets toxiques nécessaires à leur production a ensuite été assemblée sous la forme de vases traditionnels Ming. Inséparables de la conception de nombre d’objets technologiques, les «  guerres civiles  » voilent les opérations de minage délétères sur un plan environnemental et humain et rendent invisibles les approvisionnements. Dès lors, l’enjeu d’une écologie des techniques numériques, d’un point de vue psychique, serait aussi d’interroger la prétention des technologies à «  solutionner 14 Evgeny Morozov, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique [2013], trans. M-C. Braud, (Limoges: Fyp, 2014). » tous les problèmes du monde. Non seulement les technologies numériques ne font pas toujours gagner du temps, mais elles font proliférer de nouveaux problèmes. Afin que le numérique puisse profiter au plus grand nombre et pas seulement à une poignée d’investisseurs, il faut prendre de la distance avec l’idée que les problèmes liés aux technologies puissent simplement se résoudre avec davantage de technologie. Nous sommes bien face à deux premières questions écologiques graves  : environnementale et humaine. Une troisième surgit, à l’autre extrémité de la chaîne, qui concerne l’utilisateur, à savoir – au sens large – une disjonction entre un «  milieu technique 15 André Leroi-Gourhan, Évolution et techniques. Milieu et techniques, (Paris: Albin Michel, 1973). » et les «  acteurs 16 La théorie de l’acteur réseau (AnT) a été développée dans les années 1990 par les chercheurs Bruno Latour, Madeleine Akrich ou Michel Callon. » qui y évoluent. Traiter les personnes comme des «  utilisateurs  » revient à introduire une dissymétrie entre les concepteurs (des objets, des programmes numériques, etc.) et celles et ceux qui ne peuvent que les utiliser. On entrouvre alors, via l’écologie, d’autres dimensions que la réduction de la technique à son assignation technologique et numérique  : l’imagination, la spiritualité, la mémoire, etc. Dans le contexte français, par exemple, une généalogie intéressante à étudier parcourt les travaux du paléontologue André Leroi-Gourhan du philosophe des techniques Gilbert Simondon, et des travaux du philosophe Bernard Stiegler autour des mutations numériques. Pour Leroi-Gourhan, la notion d’outil prend un tour quasi biologique. L’outil est ce par quoi l’être vivant accède à l’existence en développant le geste et la parole. Le rapport au milieu est toujours une dynamique, et jamais un acquis que l’on pourrait stabiliser  : l’existence humaine est un détachement progressif et continu de ses conditions initiales. Simondon aborde les objets techniques comme des «  lignées  » pouvant s’apparenter à des configurations et reconfigurations organiques. Ses écrits plus tardifs sur l’imagination et l’invention dans les techniques prennent une direction quasi spirituelle. Le sujet serait à comprendre dans une évolution constante. Plus précisément, l’individuel est pensé à partir d’un «  pré-individuel  » tendant vers un «  transindividuel  ». Ces réflexions sur «  l’individuation  » et la technique seront largement reprises par Bernard Stiegler, qui les replace dans une époque où l’alliage du néolibéralisme et du marketing (via les sciences comportementales) démultiplie le risque d’assujettissement de l’être humain. Pour Stiegler, l’écologie est à comprendre comme la relation des êtres vivants à leurs milieux, relations que menace le capitalisme (industriel, financier, cognitif, etc.). Ainsi, en plus des nécessaires actions et réflexions sur l’écologie des ressources (épuisement des capacités de subsistance), repenser l’écologie de l’esprit (épuisement du psychisme et du désir) apparaît comme une tâche de plus en plus urgente.

Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création

Date

mai 2021

Type

Publication

Contexte

Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.

Résumé

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.

Les économies bricolées du Web3

Date

mai 2023

Type

Publication

Contexte

Anthony Masure, Guillaume Helleu, « Les économies bricolées du Web3 », LSD, no 3, mai 2023, p. 72-83

Résumé

English version here. Apparus en 2017, les NFT (Non Fungible Tokens), à savoir des certificats numériques infalsifiables et décentralisés, ont été rendus célèbres pour leurs usages dans le monde de l’art. Si ces derniers occupent aujourd’hui le devant de la scène médiatique, ils ne représentent pourtant qu’une brique d’un mouvement technologique bien plus large, cristallisé sous le terme aux allures marketing de «  Web3  » 1 Apparu avec Ethereum comme une réponse au Web 2.0 des GAFAM, le Web3 propose un écosysteme tout-en-un: un système monetaire Bitcoin au sein d’un système économique D e F i pour échanger des propriétés numériques NFT, le tout géré par un système de gouvernance DAO utilisant des identités numériques (DID). Le Web3, ou le nouvel ordre du Web Pour comprendre les principes de cette nouvelle itération du Web s’appuyant sur les technologies décentralisées de la blockchain 2 On désigne par le terme blockchain, ou chaîne de blocs, une base de données distribuée permettant de stocker, certifier et partager des informations de manière décentralisée. Les données sont répliquées dans de multiples espaces de stockage, formant ainsi une chaîne publique sécurisée par l’addition des différents noeuds du réseau. Cet ensemble est conçu pour rendre les informations inaltérables et les transactions infalsifiables., il importe de rappeler à quoi il fait suite. Inventé en 1989 par Tim Berners-Lee au Cern, le Web - rétrospectivement qualifié de «  1.0  », malgré l’utopie d’un partage des connaissances scientifiques au niveau mondial via des protocoles de publication simplifiés, s’est révélé trop complexe techniquement pour qu’un public élargi puisse y participer. Ce mode en «  lecture seule  », celui de la simple consultation, résulte également de stratégies commerciales  : les laptops, les smartphones et les «  Box  » Internet qui peuplent notre quotidien ne sont pas pensés pour pouvoir facilement faire office de «  serveurs  », à savoir assurer le stockage et le fonctionnement de sites Web. Ce problème d’accès va être pris en charge par le «  Web 2.0  » des années 2000 avec le développement de plateformes participatives telles que les médias sociaux (Flickr, MySpace, Facebook, Twitter, etc.), où n’importe qui peut créer un compte et partager des informations avec le plus grand nombre. Le problème majeur de cette «  plateformisation  » du Web, dans laquelle nous nous trouvons aujourd’hui encore, réside dans la non-redistribution de la valeur créée par les internautes et dans sa centralisation accrue. En réaction à l’hégémonie des GAFAM 3 Acronyme des initiales des géants de la tech américaine Google (Alphabet),Apple, Facebook (Meta), Amazon et Microsoft. (et de leurs avatars asiatiques), les promesses de décentralisation propres au Web3 pourraient permettre de redonner aux internautes le contrôle et la gestion de leurs données. Celui-ci va se développer autour de cinq principes clés  : 1 — Un système monétaire Bitcoin 4 Bitcoin (฿, 2009) est un protocole numérique décentralisé permettant des transactions de valeurs monétaires indépendamment des institutions financières traditionnelles et des monnaies fiduciaires (FIAT). On doit son invention à une personne, ou un groupe d’anonymes, se présentant sous le pseudonyme de Satoshi Nakamoto. (2009) et les autres cryptomonnaies sont à replacer dans cette optique. 2 — Un système économique La D e F i (Decentralized Finance) peut être définie comme un environnement de transactions financières indépendant des intermédiaires traditionnels tels que les courtiers, bourses ou banques. Déclinée en nombreux protocoles Compound, 2019; Un iswap, 2018, la D e F i autorise des passerelles entre économie traditionnelle et économie décentralisée par l’introduction de stablecoins Tether (2014) Dai (2017) Binance USD (2018), à savoir des tokens 5 Un token, ou jeton d’authentification, est une représentation numérique d’une valeur sécurisée dans la blockchain monnaie, part sociale, oeuvre d’art, etc. de valeurs basés sur les monnaies FIAT 6 La valeur d’une monnaie FIAT est imposée par un État sur un territoire identifié, et sa gestion est confiée à une banque centrale. Par exemple, le cours et la distribution de l’Euro sont assurés par la Banque centrale européenne BCE, tandis que le dollar dépend de la Réserve fédérale des Etats-Unis FED. Le mot fiat est déterministe, il nous vient du latin et signifie, à l’impératif: «  Qu’il soit fait  ».. Ces derniers permettent l’échange de monnaies étatiques sans passer par des protocoles traditionnels SWIFT, et ce de manière quasi instantanée. Fonctionnant jour et nuit et difficilement arrêtable, la D e F i représentait en janvier 2022 un marché de plus de 200 milliards de dollars. 3 — Un système de propriété Les NFT peuvent transformer en marchandise n’importe quelle entité numérique. Dans le champ artistique, l’exemple le plus connu est celui des CryptoPunks, 10   000 fichiers de 24 pixels de côté à l’origine distribués gratuitement sur le réseau Ethereum 7 Ethereum (2015) est une plateforme d’échanges décentralisée et collaborative, initialement imaginée par Vitalik Buterin comme une mise à jour de Bitcoin. Ethereum élargit les principes de Bitcoin pour passer d’une monnaie à un système de valeurs paramétrable, notamment via l’usage des smart contracts.. Grâce à la blockchain, il peut y avoir des milliers de copies viii d’une image d’un même CryptoPunk 8 Les CryptoPunks (2017) sont une célèbre collection de NFT représentant des personnages pixélisés générés par ordinateur., mais un seul d’entre eux sera rattaché a une signature numérique et pourra donc avoir de la valeur. 4 — Un système de gouvernance Apparues en avril 2016 via le projet éponyme The DAO, les DAO (Decentralized Autonomous Organizations) instaurent de nouveaux types de gouvernance où la fraude et la corruption sont rendues impossibles par des règles préalablement définies et exécutées au travers de smart contracts 9 Les contrats intelligents permettent de programmer de la valeur en automatisant le déclenchement d’actions au sein d’une blockchain et en y inscrivant les résultats obtenus.. Si les DAO des processus de gouvernance votations, validations, exécution, etc., elles soulèvent néanmoins de nombreuses questions en raison de leur potentielle substitution aux États et aux instances de régulation traditionnelles justice, associations, syndicats, etc. 5 — Un système d’identité La DID (Decentralized Identifiers) est certainement l’enjeu majeur de ces prochaines décennies. Dans un monde où la notion d’identité n’a jamais été autant questionnée et où le profiling opéré par les GAFAM est aussi prégnant, la refonte de l’identité numérique devient une nécessité. La traditionnelle authentification via email + mot de passe du Web 1.0 a été en partie remplacée par les «  logins sociaux  » (Facebook Connect, 2008; Google Sign In, 2015  ; Sign in with Apple, 2019), qui représentent l’ensemble des problématiques inhérentes au Web 2.0 publicité ciblée, captation des données, dépendance à des acteurs privés, etc.). En réponse à cela, le Web3 offre une nouvelle manière de s’ authentifier en ligne par l’utilisation de portefeuilles (wallets) tels que Metamask 10 MetaMask (2016) est un portefeuille numérique de cryptomonnaies et de tokens permettant d’interagir avec nombre d’applications et environnements décentralisés.(2016). Décentralisé et appartenant à son utilisateur, ce type de protocole propose une meilleure interopérabilité des données tout en laissant à chacun-e le contrôle sur ce qu’il-elle veut bien transmettre. Son intégration possible à lnstagram et Twitter montre que nous sommes dans une phase de transition entre Web 2.0 et Web3 et que rien, à ce stade, ne permet d’ affirmer que les problèmes que le Web3 est censé résoudre ne seront pas remplacés par des risques plus élevés. Vers des économies bricolées  ? Contrairement à l’économie traditionnelle où seuls les États (ou les banques centrales) ont le pouvoir d’émettre de la monnaie, les technologies du Web3 permettent à n’importe qui (en ayant les compétences techniques) de créer non seulement des espèces numériques, mais plus encore  : de programmer des systèmes de valeurs et donc des modèles économiques renouant avec des principes plus anciens tels que les monnaies locales, les Scops (Sociétés coopératives et participatives), ou encore les financements participatifs (crowd funding). Ces derniers se voient actualisés par les NFT, avec des initiatives telles que Stoner Cats (2021) - une série animée dont l’accès aux épisodes est limité aux détenteurs des tokens dédiés-, ou Hamlet Within (2022) - un documentaire du réalisateur avant-gardiste britannique Ken McMullen commercialisé en NFT sur le réseau Cineverse et découpé en plusieurs parties «  uniques  » réservées aux acheteurs. Selon Ken McMullen, «  le modèle artistique [du cinéma] deviendra totalement participatif, ce qui modifiera le vocabulaire esthétique du XXIe siècle dominé par une mentalité du jeu  ». Dans ce registre, le modèle encore instable du play-to-earn, popularisé par des jeux vidéo comme Axie Infinity (2018 ), consiste à redonner aux joueurs la majorité des gains résultant de la vente des items du jeu. De façon plus générale, le Web3 autorise de nouveaux usages et une forme d’inventivité économique voire de legal design 11 Le legal design est une pratique visant à introduire et faciliter la compréhension du droit à toutes et tous. Centré sur l’utilisateur, le legal design est par définition pluridisciplinaire et collaboratif.. Les smart contracts, par exemple, sont des scripts associés aux NFT qui proposent, entre autres, une redistribution automatique d’une partie des gains initiaux et des bénéfices des reventes successives, que ce soit pour l’artiste ou le designer ( actualisation du concept du «  droit de suite  ») ou pour des dons à des institutions (« ONG », mais aussi fondations produisant des logiciels libres, comme activé sur la plateforme de NFT Teia.art). Ces smart contracts peuvent aussi avoir des utilisations plus inattendues, comme la découpe d’un bien en de multiples fragments, le plafonnement des prix de revente, ou la mise en place d’une déflation basée sur le temps ou sur des données externes. On en arrive alors à des propositions à la frontière de l’art, où l’ oeuvre découle de règles régissant les relations entre humains et non-humains: Nouns DAO (2021) - une cagnotte alimentée par les ventes d’un NFT par jour et pouvant financer, par votes, des initiatives très diverses - ou Botto (2021) - un robot-artiste dont le goût est modelé par les votes hebdomadaires de la communauté et qui met automatiquement en vente en NFT les résultats de cet apprentissage semi-automatique. Au vu de ces éléments, gageons que les années à venir seront ainsi propices à l’étude des tensions entre les vieilles logiques capitalistes ( qui n’ont pas tardé à se réapproprier la logique anarchiste de Bitcoin) et de nouvelles « économies bricolées  », potentiellement plus redistributions mais encore minoritaires.

Des interfaces graphiques aux IA. Vers un design à sens unique ?

Date

janvier 2024

Type

Publication

Contexte

Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.

Résumé

À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.

Le designer, la critique et la pédagogie : penser l’appareillage numérique du design

Date

mai 2025

Type

Publication

Contexte

Entretien avec Jérémy Lucas-Boursier et Inès Garmon publié dans Quaderni. Communication, technologies, pouvoir, no 115, « Designer les objets numériques », printemps 2025, p. 13-26.

Résumé

Cet entretien s’intéresse aux enjeux du design face aux dispositifs numériques : la place du logiciel dans la création, la critique des interfaces et des outils d’IA, la pédagogie du design et la médiation des savoirs. Le texte revient sur les recherches d’Anthony Masure autour des notions d’appareil et de dispositif, et sur des projets tels que WYSIWYG, Fucking Tech! et Play-to-Learn.

Fictions, dissections, spéculations : les prototypes d’objets fictionnels qui interrogent les techno-utopies des corps

Date

septembre 2025

Type

Publication

Contexte

Contribution co-écrite avec Élise Rigot à l’ouvrage collectif L’Encyclopédie des Objets Impossibles, publié en septembre 2025.

Résumé

Ce recueil de notices explore la performativité d’utopies technologiques des corps à l’œuvre dans des projets de design fiction. Ces productions peuvent être considérées comme des « artefacts performatifs » (Suchman, Trigg & Blomberg 2002), au sens où elles construisent une réalité et deviennent les instruments de médiation proches des théories transhumanistes. Six projets sont analysés en trois moments — fiction, dissection et spéculation : The Audio Tooth Implant (James Auger, 2001), La ville des hémisphères (Superstudio, 1971), United Micro Kingdoms (Anthony Dunne et Fiona Raby, 2013), The Modular Body (Floris Kaayk, 2016), Transfigurations (Agi Haines, 2013) et Wanderers (Neri Oxman, 2014-2015).

How Deep is Your Love? How We Spent a Week Chatting with AI Girlfriends, Survived and Wrote About It

Date

janvier 2026

Type

Publication

Contexte

Article de recherche co-écrit avec Saul Pandelakis et Dominika Čupková dans le cadre du projet Fucking Tech! (2024-2027) et publié dans INC Longform (Institute of Network Cultures) en janvier 2026.

Résumé

À partir d’une semaine d’expérimentation avec onze applications d’« AI Girlfriends », ce texte examine ces services comme des artefacts culturels toucahnt aux notions de genre, de plaisir, d’amour et de psychologie. Appliquant une méthode de « recherche hypersituée », les auteurs décrivent leurs interactions avec des chatbots dédiés à la romance et à la sexualité pour en analyser les promesses (personnalisation, disponibilité permanente, absence de censure) et leurs angles morts (consentement automatisé, biais cishetéronormatifs, incohérences entre texte et image générée). Ils concluent sur la nécessité de repenser ces interfaces au-delà des imaginaires normatifs.

Post-numérique ou post-politique ? Le cas des objets « connectés »

Date

avril 2017

Type

Conférence

Contexte

Conférence donnée au colloque international de design RAID, « Objet(s) post-numérique(s) », École Supérieure des Sciences et Technologies du Design (Essted), université de la Manouba, Tunis

Résumé

Depuis une dizaine d’années environ, le champ des objets dits « connectés » (à Internet) a fait son chemin dans notre quotidien (domotique, wearables, etc.). Fréquemment qualifiés « d’intelligents », ces derniers se situent à l’intrication du design produit et de la programmation. Pourtant, alors que le vocabulaire de l’intelligence et de la connexion semble impliquer des valeurs d’objectivation et de partage, les objets qui sont désignés sous ce terme se caractérisent trop souvent par le fait que leur « centre de commande » est en fait une « boîte noire » où « l’individu devient seulement le spectateur des résultats du fonctionnement des machines » (Gilbert Simondon). Reliés à des « applications » numériques, les objets « connectés » ne semblent exister que parce qu’il est loisible de les fabriquer.

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias