Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Du denimérique

Date

mars 2022

Type

Conférence

Contexte

Conférence dans le cadre du symposium « Jeansdinge on the Move », HEAD – Genève.

Résumé

To better understand the informational viral dynamics (hashtags, memes, videos, etc.) that characterize the contemporary era, this intervention proposes connecting the denim material’s proliferation with digital technologies. If they appear unrelated at first sight, they have in common that they proliferate in our existence like viruses, that is to say, like hosts that exist only in multitudes and in relation to other entities. How can we sustainably envisage this protean contagion?

Troubler les programmes. Design, cybernétique et biologie moléculaire

Date

octobre 2022

Type

Publication

Contexte

Article rédigé avec Élise Rigot pour l’ouvrage collectif Les écologies du numérique, Orléans, Esad, 2022

Résumé

Dans un monde où presque aucune activité humaine n’échappe aux programmes numériques, ces derniers prennent un caractère existentiel et engendrent un assujettissement du vivant à des logiques d’automatisation. Il en résulte un profond déséquilibre des milieux de vie (théories de l’effondrement, perte de la biodiversité, etc.) et une perte de sens de l’existence. Afin de mieux cerner le concept de programme, nous associons trois champs tendant à converger : le design, l’informatique et la biologie. Ce rapprochement permet de formuler trois perspectives écologiques non binaires – autant de scénarios qui contestent le présupposé d’un design comme plan et qui le redéfinissent comme « art de l’équilibre », « zone de trouble », et « variation d’insignifiant ».

Résister aux boîtes noires. Design et intelligence artificielle

Date

décembre 2019

Type

Publication

Contexte

Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notions

Personnes citées

Objets mentionnés

Recherche et culture libre : approche critique de la science à un million de dollars

Date

décembre 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

Pour un design radicalement circulaire. À propos des « Considérations écologiques » de Vilém Flusser

Date

juillet 2021

Type

Publication

Contexte

Article coécrit avec Victor Petit, contribution au dossier « Flusser et la France » du 31e numéro de la revue Flusser Studies dirigé par Rainer Guldin, Marc Lenot et Anthony Masure.

Résumé

Dans ses « Considérations écologiques », un article inédit rédigé en français en 1984-1985, le théoricien des médias Vilém Flusser montre les limites d’une opposition tranchée entre nature et culture, et soutient l’hypothèse provocante d’une naturalisation de la technique prenant la forme d’une « circularité de la production ». Les notions d’objet et de déchet deviennent les pôles d’une critique de la consommation, que Flusser relie au développement des programmes numériques et des théories de l’information. Examiner ce texte, à près de 40 ans d’écart, permet de prendre du recul sur les débats et controverses relatifs au champ de l’éco-design. Il montre qu’un design radicalement circulaire ne changerait pas seulement la production, ni même la consommation, mais la définition même du design.

Formes, formats, formatage : vers un design des sciences

Date

novembre 2022

Type

Publication

Contexte

Article rédigé avec Alexandre Saint-Jevin pour l’ouvrage collectif Les devenirs numériques des patrimoines, Paris, UDPN, 2022.

Résumé

En déniant à la recherche ses dimensions esthétiques, les chercheur·euses pensent se protéger d’une capitalisation du savoir et de sa spéculation financière. Or l’impensé des enjeux esthétiques de leurs travaux ne fait que renforcer ces problèmes. L’analyse de plusieurs cas d’étude entre design et science met en évidence que la dimension critico-créative que le design apporte aux sciences n’annule pas la dimension critico-discursive que les sciences apportent au design. Ainsi, le format n’a pas pour fatalité de (seulement) formater mais peut aussi « former » les savoirs : il s’agit de dépasser l’idée réductrice d’une « science du design » au profit d’un « design des sciences ».

Archéologie du numérique. Le CCA fait des fouilles

Date

novembre 2013

Type

Publication

Contexte

Anthony Masure, «Archéologie du numérique. Le CCA fait des fouilles», Strabic.fr, novembre 2013

Résumé

Le catalogue de l’exposition Archéologie du numérique édité en 2013 par le Centre canadien d’architecture (CCA) permet de lever le voile sur le passé récent et méconnu de la conception d’édifices par ordinateur. S’inscrivant dans les domaines des media & software studies, cet ouvrage explore quatre projets précurseurs de Frank Gehry, Peter Eisenman, Chuck Hoberman et Shoei Yoh. Les allers-retours entre interviews, notes d’intention, données techniques, maquettes et schémas constituent un matériau de réflexion de premier choix pour qui s’intéresse aux possibilités et limites de la conception numérique.

Entre rejet en bloc et nouvelles chaînes de valeurs : les NFT au-delà du visible

Date

septembre 2022

Type

Publication

Contexte

Article rédigé avec Guillaume Helleu pour la revue AOC.

Résumé

Apparus en 2017, les NFT (« Non Fungible Tokens »), à savoir des certificats numériques infalsifiables et décentralisés, ont été rendus célèbres pour leurs usages dans le monde de l’art. Hautement polémiques, les NFT sont fréquemment accusés d’être spéculatifs, inutiles et polluants. Nous proposons d’y voir plus clair dans ces controverses, fondées pour une bonne part, afin de montrer que d’autres voies sont possibles. En effet, les NFT – dont les applications artistiques ne sont qu’un maillon – ne sauraient se réduire à leur portion visible et engagent des réflexions plus larges sur les systèmes de valeurs, chaînes de distribution et formes de gouvernance.

Design des angles morts (promesses, limites, bifurcations)

Date

janvier 2023

Type

Publication

Contexte

Chapitre publié dans l’ouvrage collectif Angles morts du numérique ubiquitaire. Un glossaire critique et amoureux, Presses universitaires de Paris Nanterre, 2023.

Résumé

Parmi les ritournelles managériales qui rythment les sociétés occidentales, celle de la «  transformation numérique  » implique une vision linéaire et homogène (au singulier) de l’histoire des techniques  : il existerait ainsi un mouvement inéluctable, ou du moins souhaitable, consistant à numériser – c’est-à-dire à quantifier, calculer, mesurer – l’ensemble des activités humaines. Issue du champ économique, la «  transformation numérique  » est définie par le consultant Fred Cavazza comme désignant «  l’évolution du marché et des organisations qui cherchent à adapter leur offre, fonctionnement et pratiques aux enjeux du XXIe siècle  » (2021). Toujours selon lui, «  adapter les pratiques [signifie] mieux tirer parti des données (gouvernance, littératie, conformité, etc.), de l’IA (machine learning, deep learning, etc.) ou de l’automatisation (chatbots, assistants vocaux, RPA, etc.) ». Les «  enjeux du XXIe siècle  », quant à eux, sont «  liés à un quotidien sans contact, à une croissance économique nulle (ou du moins très faible en Europe), aux nombreuses crises et tensions (Gilets jaunes, Cancel Culture [sic.], etc.) » (Cavazza, 2021). Ces discours font apparaître en creux des tensions au sein de «  la  » transformation numérique. L’adhésion aveugle aux «  innovations  », qui se succèdent à un rythme de plus en plus rapide, se heurte à des mutations politiques et sociales qui déstabilisent leurs promesses de linéarité, d’efficacité et de rentabilité. Les technologies numériques, en tant qu’innovations, naissent en quelque sorte «  hors-sol  », sous un mode détaché des contingences et singularités humaines. Autrement dit, les discours économiques ne peuvent pas être transposés sans contradictions dans le champ social – ne serait-ce que pour savoir comment conjuguer transformation numérique et transition écologique. Plus encore, à rebours de l’idée éculée (et pourtant toujours présente) d’un progrès technique pour le plus grand nombre, la diversité des pratiques et l’analyse des discours font surgir des valeurs «  embarquées  » (embedded) au sein des programmes qui mettent en doute cette visée positiviste. Ce décalage entre usages (prescrits) et pratiques (libres) (De Certeau, 1990) est au cœur du design, que nous comprenons ici non pas comme une volonté d’adéquation entre les innovations et le marché, mais comme un «  cheminement dans les qualités formelles, structurelles et fonctionnelles de nos environnements  » (Masure, 2017). À l’époque des IA, l’idée d’une désautomatisation des modes de vie induits par l’industrie des programmes se repose de façon aiguë. Quels sont les angles morts du numérique que le design permet d’éclairer  ? À quels problèmes les technologies numériques sont-elles aveugles  ? En quoi les choix – ou non-choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer  ? L’émergence du design comme résistance à l’économie Pour étudier les angles morts du numérique, il faut tout d’abord préciser quel rôle le design peut jouer pour interroger ce qui semble aller de soi dans les environnements techniques. Nous proposons ici d’entendre sous le nom de design non pas, comme dans l’acception courante, un champ de conception et de production d’objets et de services, mais une mise en tension, voire une suspension, des attendus économiques de nos environnements techniques. Pour étudier ces questions, nous allons tout d’abord recourir à la figure de Karl Marx qui nommait «  la grande industrie » : «  Dans le système de machines, la grande industrie crée un organisme de production complètement objectif ou impersonnel, que l’ouvrier trouve là, dans l’atelier, comme la condition matérielle toute prête de son travail. [Marx, 1963, p.  930-931] » Si le design apparaît de façon conjointe aux différentes révolutions industrielles qui traversent l’Europe à la fin du XIXe siècle, il sera installé dans la modernité en faisant brèche avec l’artisanat, et plus précisément avec son imitation mécanisée et asservissante. Un des moments clés pour mettre en évidence cette visée est celui des Expositions universelles, dont les prouesses techniques sont des vitrines politiques pour les gouvernements. Lors de la première Great Exhibition of the Works of Industry of All Nations à Londres en 1851, l’ingénieur Michel Chevalier note ainsi, lyrique, que «  le grand principe de la division du travail, […] la force motrice de la civilisation, s’étend à toutes les branches de la science, de l’industrie et de l’art. […] Les distances qui séparent les peuples et les contrées de la Terre s’évanouissent chaque jour devant la puissance de l’esprit d’invention  » (1851, p.  36). À cette occasion, un des bâtiments principaux, le Crystal Palace de l’architecte Joseph Paxton, est construit en seulement six mois grâce à l’emploi novateur d’unités modulaires standardisées, préfabriquées en usine et montées sur place. L’édifice est gigantesque  : 563   m de long sur 268   m de large, pour une surface de 92   000   m². Il marque durablement les esprits et préfigure la production d’architecture de métal et de verre et la préfabrication du XXe siècle. «  Association des arts, des sciences et de l’industrie  », le Crystal Palace contraste pourtant avec les objets qui y sont exposés  : les chaises, cruches et autres tapis restent engoncés dans le vieux siècle, comme le fait remarquer l’historienne du design Alexandra Midal  : « [Les organisateurs des expositions universelles espéraient] que la machine permettrait d’alléger le travail, de multiplier les richesses et d’améliorer la vie de tous, d’apporter la paix et la fraternité entre les nations. [Mais] en plus de substituer au style et à l’ornementation artisanale celui de la machine […], les produits standardisés européens favorisent surtout le passé, l’ostentatoire, le goût bourgeois et l’imitation, telle cette cruche à eau ornementée dont l’anse associe une colonnade et des animaux… [2009, p.  37] » Plusieurs intellectuels britanniques, dont Henry Cole, à l’initiative d’une des premières occurrences du mot design (via son Journal of Design and Manufacture, 1849-1852), soutiennent, sans vouloir revenir à l’artisanat, que «  le degré d’industrialisation n’est pas plus une condition de culture que de savoir-vivre  » (Midal, 2009, p.  38). Le design naît d’un écart avec les conséquences d’une mécanisation aveugle  : il est donc erroné de le comprendre comme un simple accroissement des forces productives. Face à l’inertie mentale  : le design pour la vie Près d’un siècle plus tard, l’artiste et photographe László Moholy-Nagy explicite la compréhension d’un travail singulier avec les machines qui diffère de leur usage économique massifié. Moholy-Nagy prend ainsi l’exemple des assiettes faites au tour (dont la forme est peu adaptée aux lave-vaisselle) ou des poignées en plastique (qui reprennent, de façon mimétique, celles en fonte) : «  Beaucoup d’objets anciens sont l’expression directe de leur méthode artisanale de fabrication. Ils sont souvent copiés par les designers industriels, sans aucune raison valable. Il est vrai que plus un artisanat est ancien, plus la forme qu’il produit est difficile à modifier. […] L’expérience montre, cependant, qu’il est assez difficile de se dégager d’habitudes de pensée bien ancrées. [1947, p.  283] » À cette tendance à l’imitation qu’il qualifie d’«  inertie mentale  », Moholy-Nagy oppose une puissance d’invention qui manifeste des ruptures claires avec la tradition, tout en notant qu’il «  ne faut jamais perdre de vue que l’élément humain […] doit rester le critère essentiel d’évaluation du progrès technologique  » (1947, p.  283). Rédigés au tournant de la Seconde Guerre mondiale, ces propos font écho à l’époque contemporaine où les machines, cette fois numériques, placent les humains dans un paysage homogène où la place dédiée à la diversité et l’invention se réduit  : «  La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. [1947, p.  285] » La question se pose alors de savoir comment cette substitution s’articule à une redéfinition de l’humain, et comment les technologies peuvent être pluralisées, désorientées, réorientées dans d’autres directions que celles régies par «  l’inertie morale  ». S’appuyant sur Walter Benjamin et László Moholy-Nagy, le philosophe Pierre-Damien Huyghe défend que l’art et le design peuvent être compris comme des «  puissances de découverte des poussées techniques  » (2014) : le développement économique d’une technique ne suffit pas, loin s’en faut, à en épuiser les possibilités. À ces enjeux esthétiques s’ajoute un souci d’intelligibilité. Plus une technique est puissante et dominante, plus il est difficile de développer d’autres façons de faire, et plus cette technique génère de l’incompréhension et de l’opacité. Le scientifique Karl Sagan note ainsi que «  nous avons arrangé une société basée sur la science et la technologie dans laquelle personne ne comprend rien à la science et à la technologie. Ce mélange combustible d’ignorance et de pouvoir, tôt ou tard, va nous exploser au visage  » (1996). Pour combattre ces emprises, il est nécessaire de mettre en évidence ce à quoi les technologies sont aveugles, et en premier lieu les cécités qu’elles induisent en nous et contre nous. Laissées en attente voire délaissées, les «  nouvelles  » (et désormais déjà vieilles) techniques, celles de la computation, ont besoin d’être activées par ce que nous pourrions appeler un design non pas pour l’économie (qui s’économise, qui se retient), mais «  pour la vie  » (Moholy-Nagy, 1947). Les technologies numériques comme fabrique d’angles morts Tandis que la computation étend son influence à la plupart des activités humaines, la question est de savoir à quels problèmes le numérique est aveugle ou, plus précisément, d’identifier quels sont les angles morts et les limites de la programmation. Le sens de l’expression «  angle mort  », dans l’Encyclopédie de Diderot et D’Alembert (1778) est celui d’un «  angle rentrant, qui n’est point flanqué ou défendu  ». Par extension, l’angle mort renvoie à une «  zone inaccessible au champ de vision  » (Wikipedia). En conduite automobile, c’est une «  zone non couverte par le rétroviseur central et les rétroviseurs latéraux, qui nécessite un contrôle par vision directe (tourner la tête une fraction de seconde) » ou, dans le champ urbain, une «  zone non couverte par les caméras de surveillance  ». Au sens figuré, on dit d’un angle mort qu’il est une «  partie d’une question, d’un problème, pour laquelle l’esprit semble aveugle  ». Un «  design pour la vie  » serait ainsi une expérience de la bifurcation, de l’exploration, et non pas de la réduction ou de la modélisation aveugle. Pierre-Damien Huyghe formule en ce sens une compréhension du design éloignée de sa réduction à des enjeux de rentabilité : «  Je ne proposerai pas d’appeler design ce qui organise d’avance des usages ni ce qui induit des consommations ni ce qui assigne des comportements au règne de la marchandise, mais plutôt certaines recherches et attitudes qui permettent à un système de production d’hésiter. [2006] » Les questions du design pour la vie nous demandent en quoi les choix (ou non-choix) de conception des environnements numériques déterminent une zone dans laquelle il est difficile de bifurquer  : comment ce qui compte vraiment pour nous en tant qu’humain·es, c’est-à-dire ce qui peine à être mesuré, est-il laissé dans l’ombre  ? Quels sont les angles morts du numérique que le design permet d’éclairer  ? En quoi ces angles sont-ils «  morts  », et comment leur donner vie  ? Une méthode d’analyse Pour traiter ces questions et entrer dans des approches plus concrètes, nous proposons une méthode d’analyse des angles morts du numérique structurée autour de trois notions complémentaires  : promesses, limites et bifurcations. Celles-ci font écho à un autre texte dans lequel un des auteur·rices de ces lignes analyse une série de logiciels de création (Masure, 2020) pour faire émerger des chemins de traverse au sein de l’appareil industriel  : dans la lignée de l’archéologie des médias déconstruisant l’idée d’un progrès technique linéaire, il n’est pas dit que les généalogies des technologies basées sur l’efficience fonctionnelle et la rentabilité marchande soient les seules possibles. La notion de promesse, tout d’abord, renvoie aux discours entourant le développement commercial des programmes numériques. L’idéal du progrès technique a toujours ses zélotes  : selon elles et eux, malgré de nombreux accrocs, la technologie serait in fine porteuse de «  transformations  » sociales et économiques positives. Cette approche performative, voire incantatoire, est qualifiée par le chercheur Evgeny Morozov de «  solutionniste  » (2013) pour dénoncer l’absurdité des prétentions visant à réduire la politique à une affaire de «  logiciel » : des problèmes globaux comme l’écologie, la famine ou la pauvreté ne pourront pas être «  réglés  » par la technologie. De plus, les promesses énoncées par les grands groupes technologiques sont souvent utilisées comme paravent pour masquer des entorses au droit du travail, voire à la dignité humaine. Par exemple, l’annonce en 2016 par Amazon d’une division de livraison par drones entraîna de multiples réactions médiatiques et politiques (législatives) et fut rapidement suivie d’un discret désengagement commercial en interne. Pendant ce temps, cette initiative occupait le terrain médiatique et faisait écran à la triste réalité de l’entreprise. Dans un thread Twitter, le journaliste Cory Doctorow explicite cette stratégie  : «  Les entreprises technologiques promettent de réaliser des choses impossibles afin de cultiver une sorte d’aura mystique invoquée pour masquer l’horreur du monde réel. […] C’est le genre de choses que [l’auteur] Riley Quinn appelle le ‹  tintement de clés  › – une distraction pour les personnes peu au fait des technologies (et pour les ingénieurs qui ont la tête plongée dans leurs produits) pendant que les crimes quotidiens des entreprises sont commis sous notre nez. [2021] » Le concept de limite, ensuite, confronte les promesses des technologies à l’expérience du terrain. Les technologies numériques promettent beaucoup en raison du caractère invisible du code et de sa plasticité (capacité à être modifié), mais montrent leurs limites quand elles sont confrontées à la complexité du réel (Klein et al., 2013). Fonctionnant habituellement à partir de règles et de conditions, la programmation ne peut que difficilement «  comprendre  » les ambiguïtés des interactions sociales et la diversité d’un monde multiculturel  : genre, origine, classe sociale, etc. Outre le fait que les technologies reproduisent des discriminations déjà présentes dans la société, celles-ci sont amplifiées par le caractère homogène des développeurs informatiques et designers (masculins, aisés financièrement, etc.) et par des méthodologies de conception (UX et UI Design) fonctionnant à partir de scénarios d’usage et de personas (Masure, 2017, p.  73) – soit une schématisation de l’expérience humaine réduite à une suite de comportements, voire de stéréotypes. Sur un autre plan, il est instructif de comparer les emplois (prescrits) aux usages et pratiques (ouverts, libres, transmissibles). Dans un vocabulaire se rapprochant de celui de Michel de Certeau (1990), le philosophe Bernard Stiegler explicite cette distinction  : «  On ne va plus parler de pratiques des objets, c’est-à-dire de savoir-faire instrumentaux, mais d’usages des objets et d’utilisateurs ou d’usagers, en particulier pour les appareils et pour les services. Or, un objet que l’on pratique ouvre un champ de savoir-faire par lequel le praticien est lui-même transformé : ses savoir-faire, eux-mêmes ouverts de manière indéterminée et singulière, explorent des possibles. [2004] » La question se pose dès lors de savoir comment éclairer ce qui fait limite pour prendre conscience que toute promesse génère des angles morts. Le terme de bifurcation, enfin, renvoie à une compréhension non instrumentale des techniques. Une technique, comprise non pas en tant que moyen mais en tant que culture, peut être réorientée dans des directions plus soutenables que celles visant un rendement productif. Issue du domaine de la biologie, l’expression de bifurcation renvoie à «  la fourche produite par le développement d’une partie sur une autre, soit semblable, soit différente. Ainsi, le bourgeon forme une bifurcation avec le rameau qui le porte, celui-ci en forme une avec la branche qui lui a donné naissance  » (Dictionnaire TFLI). Dans le champ du logiciel libre, un fork (embranchement) désigne un nouveau programme créé à partir du code source d’un programme existant. La pratique du fork permet d’ajouter des fonctions non prévues initialement, de placer le code dans un nouveau contexte, etc. – autant d’adaptations à ce qui n’était pas écrit d’avance (pro-grammé). Dans un sens plus fondamental, la bifurcation peut être comprise comme une expérience existentielle, au sens où une vie ne devient une existence qu’à condition de pouvoir échapper à des conditions données (Huyghe, 2006). Dans un numéro spécial de la revue Multitudes intitulé Abécédaire des bifurcations et rédigé dans le contexte de la pandémie de la Covid-19, les auteur·rices se demandent quels sont «  les bifurcations, les effets de cliquet, les points de non-retour qui empêcheront demain de renaître comme hier  » et où se «  situe le lieu d’où peut s’élaborer l’alchimie de la transformation  » (Cora Novirus, 2020). D’une façon approchante, dans un essai rédigé en réaction à la multiplication des crises engendrées par un «  modèle de développement  » à bout de souffle et pourtant largement dominant, Bernard Stiegler (2020) s’interroge pour savoir comment «  bifurquer  » afin de tordre l’expression thatchérienne selon laquelle «  il n’y a pas d’alternative  » à l’économie capitaliste. Ces considérations permettent d’expliciter l’écart entre technique et économie  : l’absence d’alternative (TINA) n’est valable que pour qui ne croit pas à l’esthétique et pour qui ne fait que l’usage du monde dominant. Or, selon Pierre-Damien Huyghe, nombre d’exemples et contre-exemples dans le champ du design prouvent qu’il peut en aller autrement  : «  La réduction des possibles dans une époque donnée et l’uniformisation résultante des effets n’appartiennent […] pas par principe à la technique, mais à son économie. […] Elle ne va pas sans réserve. C’est justement la quête de cette sorte de réserve, et à son expression formelle, que le design historique s’est voué, quitte à mettre pour cela au monde des produits d’exception déliés des pratiques de masse a contrario recherchées par le mode économique d’exploitation et de domination de la puissance productive. [2013, p.  149-176] » À titre d’exemples, nous allons à présent examiner deux paradoxes mettant en jeu des limites de la programmation. Pour chacun d’entre eux, nous nous attacherons à situer la place qu’occupe le design vis-à-vis des technologies concernées  : vient-il déjouer leurs angles morts ou contribuer à les renforcer  ? En quoi des bifurcations potentielles ou avérées sont-elles souhaitables (et pour qui  ?) afin de ne pas retomber dans d’autres impasses  ? Paradoxe 1. Les templates promettent de la distinction mais ne produisent que du consensus visuel Promesse Un template (gabarit) est un modèle de mise en page de contenus visuels. Influencé par les designers László Moholy-Nagy et Jan Tschichold, Josef Müller-Brockmann comprend la grille comme une méthode universelle de structuration de l’information  : «  Dans mes créations […], la subjectivité est supprimée au profit d’une grille géométrique qui détermine l’arrangement des mots et des images. La grille est un système d’organisation qui rend le message plus facile à lire, cela vous permet d’obtenir un résultat efficace à un coût minimum. Avec une organisation arbitraire, le problème est résolu plus facilement, plus vite et mieux. Cela permet également une uniformité qui va au-delà des frontières nationales. [2017] » Les templates reprennent la logique de la grille, mais à une échelle bien plus vaste  : celle des logiciels, du Web, et des applications. Ils peuvent à la fois être mobilisés pour définir l’ergonomie d’une interface en recourant à des codes visuels éprouvés (placement du logo, des menus, etc.), et/ou être inclus dans des logiciels comme base de travail (par exemple  : gabarits PowerPoint, Word, Photoshop). Grâce aux templates, n’importe qui (grand public, commanditaire, etc.) peut créer à son image, maîtriser le rendu visuel de ses contenus et opérer des mises à jour sans intermédiaire (Mineur, 2007). Limite Avec les templates, remarque le designer Étienne Mineur, «  les graphistes doivent […] abandonner une partie de leur pouvoir et responsabilité au règne du graphisme papier  » (2007) consistant à maîtriser le processus et la forme de A à Z. Selon lui, deux attitudes sont possibles  : refuser de laisser le contrôle formel aux technologies et rester sur les supports imprimés, ou se rapprocher du design industriel pour embrasser la création d’outils et l’ergonomie. Près de quinze ans après ces propos, force est de constater que les programmes sont de moins en moins des outils – de «  simples prolongements d’outils manuels  » (Moholy-Nagy, 1947, p.  285) –, et de plus en plus des dispositifs techniques complexes qui ne laissent que peu de prises aux designers. L’autonomisation des commanditaires par les templates s’est accélérée, et les compétences nécessaires à leur conception échappent pour une grande part aux designers, car la barrière technique et économique est de plus en plus haute. La concentration de la valeur au sein d’un petit nombre d’acteurs, les Gafam et leurs avatars asiatiques, opère un renversement du processus créatif avec lequel le code n’est plus une matière à modeler mais une loi à laquelle se conformer. Le design d’interfaces (UX/UI) ne consiste bien souvent qu’à appliquer des procédures visuelles (Teslert & Espinosa, 1997) : des design systems, comme le Material Design (Google, 2014) ou les Human Interface Guidelines (Apple), régissent les interfaces des applications mobiles, car le non-respect de ces consignes menace leur validation dans les app stores (magasins d’applications distribuées par Apple). Plus largement, la multiplication des systèmes de gestion de contenus (CMS), des terminaux, des formats d’écran et des territoires géographiques (Asie, Amérique du Sud, Afrique, etc.) incite les industriels à penser avant tout en termes de distribution et de standardisation. La promesse de singularité des «  expériences  » bute sur une homogénéisation du réel et engendre une «  globalisation esthétique  » (Masure, 2020) : une même interface peut être indifféremment utilisée pour une campagne médicale, un site de voyage, un musée. Plus inquiétant encore, malgré la pauvreté esthétique des templates, ces derniers, de par leur efficacité, tendent à surpasser beaucoup de designers. Dès les premières années du développement de la «  publication assistée par ordinateur  » (PAO), l’artiste et designer John Maeda entrevoyait les conséquences professionnelles des logiciels dits de création  : «  Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers ne définissent plus la culture  ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media [1991], le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile  : ‹  Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté. › [1995] » Quelle est, dès lors, la valeur de ce dernier  ? Bifurcation Étienne Mineur soutient que les designers peuvent repenser leurs pratiques au profit de compétences plus stratégiques. Une autre voie est possible pour que l’attention humaine puisse s’attacher à du non-prescrit  : il s’agit ici d’avérer les effets de standardisation des environnements et modes de vie pour éclairer ce qui n’entre pas dans ce cadre (les angles morts). Plusieurs initiatives ont mis en évidence les grilles tapies derrière les programmes, tels que les projets Safebook (Grosser, 2018), clickHere (Retzepi, 2020), ou les modules «  par défaut  » des systèmes d’information, avec des initiatives comme Reproduction générale (Jacquet, 2003) ou My%Desktop (Heemskerk & Paesmans/JODI, 2002). Un axe complémentaire consiste à révéler les valeurs embarquées dans les interfaces. Matthew Fuller, chercheur en Cultural Studies, propose ainsi de comprendre les templates sous l’angle de la notion de franchise  : «  Les modèles [templates] et exemples que l’utilisateur peut éditer pour créer ses propres documents – tels que ‹  fax élégant  ›, ‹  fax contemporain  ›, ‹  lettre formelle  › ou ‹  mémo  › – attestent que la falsification est la forme de base du document produit dans les bureaux contemporains. [2000] » À l’époque contemporaine, marquée par les problématiques de circulation et la collecte des données personnelles, les templates prennent un nouveau relief. Sous couvert de neutralité, ces derniers annihilent le sens critique et font passer à couvert des procédures suspectes. La designeuse Kelli Retzepi, dans TheRealFacebook (Retzepi, 2018), propose ainsi un redesign de Facebook en gardant la même interface mais en changeant tous les textes (titres, libellés, etc.) pour les rendre conformes aux «  vrais  » objectifs de Facebook. « Connect with friends and the world around you on Facebook », par exemple, devient « This whole thing started as a website that rated who is a hotter Harvard undergrad », et « Sign up.  It’s free and always will be » est remplacé par « Give us your data. We are definitely using it to profit »1 «  Entrez en connexion avec des amis et avec le monde autour de vous grâce à Facebook  » devient «  Tout ce truc a commencé comme un site web classant qui étaient les étudiant·es les plus sexy de Harvard  ». Ou «  Inscrivez-vous. C’est gratuit et ça le sera toujours  » est remplacé par «  Donnez-nous vos data. Nous comptons bien les mettre à profit  ».. Paradoxe 2. La création par le truchement des IA participe souvent d’une logique réactionnaire Promesse Formulée à la fin de la Seconde Guerre mondiale, l’idée d’une «  intelligence  » machinique susceptible de se substituer au cerveau humain (Turing, 1995) a connu de multiples modalités techniques, que l’on peut résumer en deux courants  : les technologies «  symboliques  » se fondent sur la délimitation de règles préalables, tandis que celles «  connexionnistes  » (neuronales) impliquent des jeux de données (datasets) en entrée et sortie pour que la machine puisse générer un programme permettant d’aboutir au résultat souhaité. Au tournant des années 2010, l’approche neuronale, et plus précisément celle du deep learning, prouve sa supériorité fonctionnelle pour la reconnaissance d’images et pour le tri d’informations (spams, etc.). Les technologies du deep learning investissent depuis quelques années les industries créatives  : l’entreprise Zalando travaille avec Google depuis 2016 pour prédire les tendances de la mode grâce au machine learning, et des services comme TheGrid.io (2016), WixAI (2016) ou Adobe Sensei (2016) visent à faciliter voire à automatiser la mise en page de sites web et la retouche d’images. Grâce au deep learning, la tension entre la conception (l’idéation) et la production n’a plus lieu d’être  : des programmes «  intelligents  » prennent en charge la commande sans aléas humains pour produire la «  solution  » optimale. Limite Les technologies du deep learning prétendent annuler la zone d’incertitude entre conception et production en synthétisant des jeux de données (projets de design, œuvres d’art, etc.) majoritairement agrégées sur le Web. On touche ici à la distinction entre «  création  » (vision romantique d’une mise au monde ex nihilo, dégagée des contingences matérielles) et «  production  » (attention portée aux modalités techniques et rapports sociaux) : «  Au moment où l’Ancien régime se défait, où se déploie la révolution industrielle, les artistes revendiquent […] le terme de ‹  création  › – une notion […] issue du dogme biblique de la genèse – pour signifier leur souveraine sensibilité, leur libre vouloir et établir l’art comme champ autonome parmi les activités humaines. [Menghini, 2021] » À cette tradition s’oppose la pensée «  matérialiste  » développée par des philosophes comme Karl Marx ou Walter Benjamin, pour qui il est crucial d’examiner les médiations permettant à l’art (et par extension au design) d’exister pour mieux saisir son potentiel émancipatoire. Dans son essai L’artiste comme producteur, Walter Benjamin cherche à savoir non pas seulement «  quelle est la position d’une œuvre littéraire à l’égard des rapports de production de l’époque [mais, avant tout,] quelle est sa place dans ces mêmes rapports  ». Il s’agit pour lui d’«  indiquer la différence essentielle qui existe entre le simple approvisionnement d’un appareil de production et sa transformation  » (1969, p.  110, 117). De tels propos sont précieux pour mettre en exergue les limites des technologies du deep learning, dont la séduction tient à leur caractère magique (algorithmique) et tout puissant  : structurellement basées sur des jeux de données (du passé), ces «  intelligences  » ne peuvent qu’approvisionner l’appareil de production sans jamais pouvoir le transformer. Autrement dit, et pour rester dans le vocabulaire de Benjamin, elles sont «  réactionnaires  » et non pas «  révolutionnaires  ». Il est par exemple aisé de comprendre que si une IA peut reproduire (créer) un tableau à la façon de Rembrandt (Microsoft, The Next Rembrandt, 2018) – sans efforts apparents, et sans que la technique ne soit vraiment une question –, elle aura beaucoup plus de difficultés à inventer non pas seulement un paradigme pictorial aussi fort que Rembrandt, mais aussi de nouvelles formes d’expression dépassant les catégories habituelles (peinture à l’huile, musique électronique, interface de site web de e-commerce, etc.). Bifurcation Walter Benjamin nous donne des pistes de travail pour que les technologies du deep learning puissent produire, et pas seulement reproduire. «  La notion de technique représente l’élément dialectique initial à partir duquel l’opposition stérile de la forme et du fond peut être surmontée  » (1969, p.  110). Un des problèmes majeurs de l’implémentation des IA au sein des services mentionnés plus haut (Adobe Sensei, etc.) est que la technique disparaît derrière les interfaces annoncées comme «  conviviales  ». Pour bifurquer de ces logiques, il faut en premier lieu réinvestir la technique – ce qui ne va pas de soi dans le cas du deep learning, qui nécessite de constituer des jeux de données puis de les traiter avec une puissance de calcul importante et avec des programmes à l’élaboration complexe. On pourrait tout d’abord surmonter ces écueils en disséquant les couches techniques logicielles et matérielles des IA, comme l’ont fait les chercheur·es Kate Crawford et Vladan Joler (2018) à propos de l’enceinte connectée Amazon Echo – travail qui mériterait d’être prolongé en analysant les strates pouvant être réinvesties. Une autre approche consiste à ne plus envisager les IA comme des machines de création (détachées symboliquement des contingences matérielles) mais comme des étapes de production. On pourrait par exemple utiliser le deep learning pour analyser des amorces d’idées et les comparer à l’existant, dans une stratégie d’aide à la décision et non pas d’imitation. Il faut aussi garder en tête que le deep learning n’est qu’une facette du champ bien plus vaste des IA, et que plusieurs époques techniques peuvent cohabiter au sein d’un même projet. Un workshop à la HEAD (Haute école d’art et de design de Genève), coordonné par Alexia Mathieu, Jürg Lehni et Douglas Edric Stanley (Thinking Machines, 2020), a ainsi mélangé des procédures neuronales à des règles préétablies pour élaborer un générateur de contes illustrés et imprimés. L’artiste Nicolas Maigret propose pour sa part un Predictive Art Bot décrit comme «  un algorithme qui utilise les discours actuellement tenus sur l’art comme une base de données générant automatiquement des concepts de projets artistiques et, parfois, des prédictions d’absurdes trajectoires futures pour l’art  » (2017). De tels processus laissent entrevoir ce que pourrait être le studio de design du futur  : moins un lieu où élaborer des «  solutions  » et des formes closes qu’un laboratoire où mélanger et faire bifurquer des techniques et des projets. Conclusion. Pour une bifurcation des techniques De l’examen de ces deux paradoxes, nous pouvons à présent esquisser des éléments de réponse à la problématique posée en introduction, à savoir quels sont les angles morts du numérique que le design permet d’éclairer, pour poser que ces derniers sont à chercher dans une compréhension de la technique comme moyen, dans un souci d’efficience et de scalabilité (d’extension à la plus grande échelle possible). Comme nous l’avons vu avec l’exemple des expositions universelles, une lecture des textes et querelles liées à l’émergence du design situe son intérêt non pas comme un gain de productivité, mais comme une bifurcation face à la perte de qualité entraînée par l’automatisation du dispositif industriel. Ce détour par le design permet de mieux comprendre l’articulation des technologies à une quête de rendement productif, puisqu’une bonne partie des productions industrielles (objets, industries des programmes, etc.) participe de cette logique. À ce design des angles morts, nous opposons un design «  pour la vie  », qui travaille pour nous en tant qu’êtres humain·es, c’est-à-dire en tant qu’entités non déterminées d’avance. Autrement dit, un «  design pour la vie  » serait ce qui éclaire les angles morts de l’industrie pour chercher ce qui nécessite d’être investi et réorienté. De façon approchante à Walter Benjamin qui invite à penser l’esthétique comme une façon d’articuler technique et politique, le designer Ezio Manzini, dans un essai sur «  l’écologie de l’artificiel  », ouvre une réflexion sur la «  qualité » (et non pas la quantité) des environnements  : «  Il s’agit de penser la technique comme un système devant lequel il ne faut jamais baisser pavillon et savoir rester critique, mais aussi comme une gigantesque mine de ressources et de potentialités. C’est là qu’il faut puiser pour imaginer de nouvelles qualités. [1991, p.  53] » Finalement, c’est bien en déniant au design sa part esthétique que l’économie des techniques engendre son lot de limites. En réinvestissant la technique comme un questionnement, les limites de la programmation deviennent autant d’occasions de bifurcations.

How Deep is Your Love? How We Spent a Week Chatting with AI Girlfriends, Survived and Wrote About It

Date

janvier 2026

Type

Publication

Contexte

Article de recherche co-écrit avec Saul Pandelakis et Dominika Čupková dans le cadre du projet Fucking Tech! (2024-2027) et publié dans INC Longform (Institute of Network Cultures) en janvier 2026.

Résumé

À partir d’une semaine d’expérimentation avec onze applications d’« AI Girlfriends », ce texte examine ces services comme des artefacts culturels toucahnt aux notions de genre, de plaisir, d’amour et de psychologie. Appliquant une méthode de « recherche hypersituée », les auteurs décrivent leurs interactions avec des chatbots dédiés à la romance et à la sexualité pour en analyser les promesses (personnalisation, disponibilité permanente, absence de censure) et leurs angles morts (consentement automatisé, biais cishetéronormatifs, incohérences entre texte et image générée). Ils concluent sur la nécessité de repenser ces interfaces au-delà des imaginaires normatifs.

Subjectivités computationnelles et consciences appareillées

Date

avril 2016

Type

Publication

Contexte

Anthony Masure, « Subjectivités computationnelles et consciences appareillées », Multitudes, no 62, avril 2016, p. 87-96

Résumé

Cet article revient sur la notion de « subjectivité computationnelle » formulée par David M. Berry visant à développer une approche critique des technologies numériques. Afin de comprendre les implications philosophiques d’un tel rapprochement entre « subjectivation » et « computation », nous reviendrons tout d’abord, via Leibniz et Hannah Arendt, sur l’émergence des sciences modernes qui visent à faire du « sujet » classique une entité calculante. Nous verrons ensuite comment les sciences « comportementales » ont influencé la conception des ordinateurs en substituant à la raison humaine des modélisations rationnelles déléguées à des machines. Pour sortir de l’impasse d’une déshumanisation annoncée dès la fin des années 1970 par des auteurs comme Ivan Illich ou Gilles Deleuze, nous envisagerons enfin la « subjectivation » comme un processus qui ne nécessite pas qu’il y ait sujet. Le concept d’« appareil », tel que le propose Pierre-Damien Huyghe à propos de la photographie et du cinéma, peut ainsi être étendu aux machines computationnelles pour penser de possibles « consciences appareillées ».

Total Record. Les protocoles blockchain face au post-capitalisme

Date

mai 2018

Type

Publication

Contexte

Article coécrit avec Guillaume Helleu dans la revue Multitudes, no 71, dossier « Dériver la finance », été 2018

Résumé

Le protocole Bitcoin (2009) s’inscrit dans le prolongement des utopies crypto-anarchistes visant à développer une monnaie numérique sécurisée et distribuée sur le réseau Internet pour échapper à la centralisation du pouvoir par les banques et les gouvernements. Récupérées en grande partie par la finance spéculative, ces technologies à chaînes de blocs (blockchain) se sont progressivement développées et dépassent désormais largement le champ monétaire (applications distribuées, contrats intelligents, jetons de valeurs, etc.). Malgré la persistance de certains freins sociaux et techniques, les protocoles blockchain pourraient-ils prendre de vitesse la logique destructrice du capitalisme financier ?

Histoire ou archéologie ? Abymes de la post-histoire flusserienne

Date

mars 2019

Type

Publication

Contexte

Introduction à : Vilém Flusser, Post-histoire [1982, version française inédite], propos liminaire de Catherine Geel et postface d’Yves Citton, Paris, T&P Work UNiT

Résumé

Présenter Vilém Flusser en français, au tournant des années 2010, prend un tour archéologique. Quelle puissance recèle encore cet individu inclassable 1 Pour un aperçu général de l’œuvre de Flusser, voir  : Anke Finger, Rainer Guldin, Gustavo Bernardo, Vilém Flusser: An Introduction, University of Minnesota Press, coll. «  Electronic Mediations  », 2011., tour à tour linguiste, philosophe, théoricien des médias, anthropologue, biologiste, etc. ? Comme purent l’être en leur temps Walter Benjamin ou Hannah Arendt, Flusser (1920–1991) aura été un intellectuel migrant (« bodenlos », littéralement «  sans sol ferme  »), écrivant suivant les cas en portugais, allemand, anglais et français dans une logique autocritique, en repensant les concepts dans leur langue d’accueil. Depuis quel lieu, depuis quel fond (Boden, archè) nous parle-t-il toujours, lui qui aura autant traversé – par contrainte – les continents que défié – avec joie et provocation – les frontières de la pensée  ? Autrement dit, à une époque où l’idée d’un assujettissement des subjectivités par des programmes supposément «  intelligents  » fait presque figure de banalité, que peut encore nous dire Flusser, lui qui avait entrevu peut-être comme nul autre les séismes que l’irruption des codes alphanumériques allait provoquer  ? Pour répondre à de telles questions, le titre de cet essai, Post-histoire, doit nous mettre sur la voie. À près de 30 ans d’écart avec sa mort prématurée en 1991 dans un accident de voiture survenu vers sa ville natale de Prague, Flusser ne cesse de déranger et de désorienter. Penser Flusser comme une archive, au sens où l’entend le philosophe Jacques Derrida, c’est-à-dire à une puissance de stockage et de reproduction, permet ainsi d’envisager ce qui, dans ses textes, ne cesse de s’actualiser et d’inquiéter nos certitudes. Si «  l’archive travaille toujours et a priori contre elle-même 2 Jacques Derrida, Mal d’archive. Une impression freudienne, Paris, Galilée, coll. «  Incises  », 1995, p.  26-27. », alors elle s’oppose de fait au concept d’histoire qui, à suivre Flusser, implique plutôt un enchaînement d’actions, de faits et de documents. Ce n’est donc pas un hasard si Vilém Flusser (avec le théoricien des médias Friedrich Kittler) est habituellement considéré comme un précurseur de l’« archéologie des médias  », champ aujourd’hui représenté par des chercheurs comme Wolfgang Ernst, Siegfried Zielinski, Jussi Parikka, Jeffrey Sconce, Emmanuel Guez 3 Emmanuel Guez (dir.), «  Manifeste Médiarchéologiste  », Medium.com, 2016, [En ligne], http://medium.com/@Mediarchaeologist/manifeste-médiarchéologiste38ecf17887b1 ou Erkki Huhtamo. En faisant s’entrechoquer des couches hétérogènes, qu’elles soient historiques, matérielles ou logicielles, l’archéologie des médias s’oppose au mythe de la linéarité du progrès et offre un puissant contre-feu aux promesses d’efficacité des technologies numériques. Un français «  zoulou  » L’archéologie est toutefois une étude des sols et des terrains, dans ce que leurs couches superposées recèlent de pré-histoire (et ici de post-histoire), et il serait dommage d’approcher le phénoménologue bodenlos depuis une interprétation «  hors-sol  ». Post-histoire est riche de son histoire. Fuyant le régime nazi qui décima sa famille, Flusser s’installe au Brésil en 1940. Il quitte le Brésil en juin 1972 pour des raisons politiques et professionnelles. En octobre 1972, il s’installe à Merano dans le Tyrol sud tout en voyageant chaque été. En mai 1975, il s’installe à La Tour d’Aigues en Provence. Dans une lettre datée du 17 décembre 1975, Flusser s’excuse par avance de son «  français zoulou  » qu’il apprend depuis peu. Dans les années 1976-1977, il donne des cours de théorie de la communication à l’école d’architecture de Marseille-Luminy. Il achète une maison dans le village de Robion (Provence-Alpes-Côte d’Azur) en 1980, y fait des travaux, et s’y installe début 1981. Ce volet français reste, faute de publications, largement méconnu. Publié en 2015, le glossaire critique Flusseriana: An Intellectual Toolbox 4 Siegfried Zielinski, Peter Weibel, Daniel Irrgang (dir)., Flusseriana. An Intellectual Toolbox, University of Minnesota Press, Univocal, 2015. comprend 200 entrées rédigées en anglais, allemand et portugais. Chacune des trois langues occupe une colonne du livre. Une quatrième colonne, vide, rend ainsi involontairement compte du manque de réception, en France, de l’amplitude des travaux de Flusser. De façon similaire, le site web FlusserBrasil 5 http://www.flusserbrasil.com comporte un item vide de «  textes en français  » – seuls les textes allemands, anglais et portugais sont en ligne. Enfin, la foisonnante revue Flusser Studies 6 http://www.flusserstudies.net, sur une liste de 210 auteurs, mentionne, comme seuls contributeurs francophones, Louis Bec, Annick Bureaud, Fred Forest, Marc Lenot et Janine Marchessault (Canada). Rassemblées à la mort de Flusser en 1991 par son épouse Edith Flusser, les archives «  nomades  » de Flusser ont tout d’abord été conservées à La Haye à partir de 1992. Elles ont déménagé avec elle à Munich, puis ont été confiées au chercheur Siegfried Zielinski qui les a installées à l’Académie des arts médiatiques de Cologne de 1998 à 2006. Depuis 2007, les originaux sont conservés à Cologne tandis qu’une copie sous forme de fac-similés est consultable publiquement à l’université des Arts de Berlin (UdK 7 Joie de la reproduction technique, une autre instance des fac-similés est consultable depuis 2012 à São Paulo (Brésil), au Center for Interdisciplinary Research in Semiotics of Culture and Media (CISC, rattaché à l’Université Pontificale Catholique de São Paulo) fondé en 1992 sous la direction de Norval Baitello Jr.). Dirigée par Maren Hartmann et gérée par Anita Jóri, l’archive Flusser de Berlin contient également la bibliothèque personnelle de Flusser, des documents audiovisuels, de même que de nombreux travaux réalisés autour de son œuvre. Au-delà de permettre une consultation facile de documents rédigés dans de multiples langues, l’archive a été pensée comme un lieu de travail, un hub de personnes aux nationalités et parcours multiples – une archive vivante et autocritique, à l’image de Flusser. L’histoire de Post-histoire C’est lors de séjours de recherche en 2017-2018 à l’archive Flusser 8 Portant sur la notion de programme, ces recherches ont pu être entreprises grâce au dispositif «  Soutien à la recherche en théorie et critique d’art  » du Cnap (session 2017). que j’ai pris connaissance de l’existence des nombreux documents, dont beaucoup d’inédits en français, qui tranchent avec les traductions que nous connaissons actuellement de ses textes en allemand alors qu’il en avait aussi déjà rédigé une version en français… Travaillant alors sur des textes relatifs aux programmes numériques 9 Une sélection d’articles inédits portant sur la notion de programme et rédigés en français par Flusser est reproduite dans la revue Multitudes, no 74, mars 2019, dossier «  Vivre dans les programmes  » dirigé par Yves Citton et Anthony Masure., j’en suis rapidement venu à échanger avec les ayants droit de Flusser au Brésil qui s’efforcent de faire vivre sa pensée. Dans un échange par mail du 17 août 2018 avec Catherine Geel et moi-même, Rodrigo Maltez-Novaes (artiste, traducteur et éditeur et assistant de Miguel Flusser) mentionne le manuscrit «  complet  » de Post-histoire en sa possession. Tout le monde ignorait l’existence de ce document car seuls sont conservés à Berlin, en français, un ou deux chapitres 10 Cotes dans l’archive Flusser  : 1-PHF-01_2163_LE CIEL NOUS PROTEGE et M21-SGRAFF-01_693_LE SOL AU-DESSOUS DE NOS PIEDS. Indication confirmée par Anita Jóri. de l’essai. Peu de temps après, il apparaît que Marc Partouche, fin connaisseur de Flusser pour l’avoir fréquenté dans le sud de la France et pour avoir dirigé la réédition augmentée des Gestes 11 Vilém Flusser, Gestes, édition dirigée par Marc Partouche, introduction et appareil critique de Sandra Parvu, Marseille / Al Dante et Bruxelles / Aka, 2014. Partouche avait aussi établi le texte de la première édition, coéditée par D’ARTS (Cergy) et Hors Commerce (Paris) en 1999., possède une seconde version du manuscrit de Post-Histoire. C’est en comparant ces deux versions tapées à la machine à écrire (comme la plupart des textes de Flusser) que l’éditeur T&P Work UNit, via Stéphanie Geel, est parvenu à établir la présente version. L’histoire de Post-histoire est révélatrice des difficultés à appréhender la boîte noire des strates flussériennes  : face à l’appareil technique qui menace toujours de nous dévorer, le chercheur (que je suis) doit redoubler de vigilance pour ne pas commettre d’impairs dans l’élaboration d’un appareil critique d’un auteur qui ne s’encombrait pas de notes de bas de page. Dans son avant-propos «  mode d’emploi  », Flusser mentionne que le texte a d’abord été écrit en anglais à partir de courtes conférences données dans divers pays, puis traduit en allemand et en portugais pour être publié en Allemagne et au Brésil. La rédaction française devait, logiquement, être publiée en France. Dans les faits, Pós-história est publié pour la première fois au Brésil, en 1983  12 Vilém Flusser, Pós-história: vinte instantâneos e um modo de usar, São Paulo, Duas Cidades, 1983., suivi par Nachgeschichte en Allemagne en 1990  13 Vilém Flusser, Nachgeschichten. Essays, Vorträge, Glossen, Düsseldorf, Bollman, 1990., peu avant sa disparition. Malgré l’existence du manuscrit en anglais rédigé par Flusser lui-même 14 L’archive Flusser mentionne par exemple la cote suivante  : 1-PHE_2144_POS-HISTORIA ENGLISH., il faudra attendre 2013 pour que Post-history 15 Vilém Flusser, Post-History, traduit du portugais par Rodrigo Maltez Novaes, Minneapolis, Univocal, 2013 soit traduit du portugais par Rodrigo Maltez Novaes. Reste donc à savoir de quand date le manuscrit français, forcément rédigé après la version portugaise, et non mentionné dans le volume Flusseriana 16 Le volume collectif Flusseriana, op.  cit., p.  496-498, mentionne ainsi  : «  In February and March [1980], Flusser gave a series of lectures […] in Marseille. Parallel to this, Flusser worked on the manuscript for Nachgeschichte [Post-History], published in 1990. In December [1980] Flusser completed the Portuguese version of the manuscript. Pós-história was published in Brazil in 1983: the English edition, Post-History, was translated from the Portuguese and appeared in 2013. ». En 1981, date de son installation à Robion, Flusser travaille sur de multiples projets, notamment autour des relations entre le vivant et l’artificiel via ses recherches sur le vampyrotheutis infernalis 17 Vilém Flusser, Vampyroteuthis infernalis [1981-1987], trans. C. Lucchese, (Bruxelles: Zones sensibles, 2015). L’étude de sa correspondance 18 Je remercie vivement le chercheur Marc Lenot de m’avoir signalé ces sources documentaires. Sur (entre autres) Flusser et la photographie, voir son ouvrage  : Jouer contre les appareils. De la photographie expérimentale, Arles, Photosyntheses, 2017. fournit alors des indications décisives. Dans une lettre à l’artiste Hervé Fischer 19 Cote COR-157-FRENCH PUBLISHERS-3 dans les archives Flusser. (proche de Fred Forest) du 12 janvier 1982, Flusser mentionne qu’il a écrit le livre en portugais et en allemand, que Duas Cidades va le publier en mars 1982, et que l’édition allemande sera pour plus tard. Surtout, Flusser dit qu’il a traduit le livre en français avec l’aide d’un voisin à Robion  : «  Je crois qu’on ne peut pas habiter un pays sans y publier  », dit-il. Fischer, à qui Flusser demandait de l’aide pour publier le manuscrit, lui répond  : «  J’ai bien reçu votre lettre et votre manuscrit La Post-histoire que j’ai commencé à lire et que je trouve très intéressant. Je vais essayer de convaincre un éditeur mais vous savez que c’est difficile […]. Je vous promets de faire de mon mieux. C’est tout ce que je peux vous promettre 20 Lettre manuscrite non datée, ibid. ». Dans une autre lettre, Fischer lui dit  : «  J’ai donné votre manuscrit à Stock et il faut être patient. Et pas trop optimiste… La crise est sérieuse aussi pour l’édition 21 Lettre manuscrite non datée, ibid. » Le 21 avril 1982, Flusser remercie Fischer, qui répond deux jours plus tard  : «  J’attends de Stock la réponse. Il ne faut pas être trop optimiste par les temps qui courent. » Parallèlement, Flusser envoie le manuscrit à Marc Partouche qui résidait alors à Marseille. Dans une lettre du 12 mars 1982, Flusser indique ainsi, en joignant son texte  : «  Il ne s’agit pas d’un manuscrit définitif, mais plutôt d’une ébauche de manuscrit. Si vous la jugez intéressante pour une publication, il faudrait la revoir radicalement. » Partouche lui répond dans une lettre du 18 mai 1982, en indiquant, au vu des faibles moyens dont il dispose, des conditions d’édition financières particulières demandant à Flusser d’avancer une partie des frais d’impression. On peut supposer que le projet est abandonné car Flusser est lui aussi peu fortuné : de nombreux éléments de sa correspondance le montrent inquiet du défraiement de ses interventions et des versements des à-valoir. Dans l’abîme de la post-histoire Signe que l’histoire «  linéaire  » peut bifurquer dans un abîme, le bâtiment des archives municipales de la ville de Cologne (Historisches Archiv der Stadt Köln), dans lequel sont conservés les documents originaux de l’archive Flusser de Berlin, s’écroule le 3 mars 2009, «  emporté par un glissement de terrain [dû à des travaux de creusement d’un tunnel de métro], ensevelissant sous plusieurs tonnes de béton 26 kilomètres linéaires de documents 22 Valérie Caniart, «  L’effondrement du bâtiment des archives de la ville de Cologne  : retour d’expérience  », Revue historique des armées, no 259, 2010, [En ligne], http://journals.openedition.org/rha/7002 ». Parmi les rares pièces restées intactes figurent, par miracle, celles de Flusser 23 Anita Jóri, Alexander Schindler, « (Re-)Archiving Flusser  », Flusser Studies, no 24, décembre 2017, [En ligne], http://www.flusserstudies.net/sites/www.flusserstudies.net/files/media/attachments/re-archiving-flusser.pdf. Réunissant ironiquement histoire et archéologie, peut-on trouver meilleure image d’une pensée qui n’aura eu de cesse d’opposer l’art et le jeu aux abîmes de la post-histoire avilissante des appareils  ?

Vilém Flusser : vivre dans les programmes

Date

avril 2019

Type

Publication

Contexte

Introduction et coordination avec Yves Citton du dossier « Vilém Flusser : vivre dans les programmes », Multitudes, no 74.

Résumé

Encore mal connue, l’ampleur des travaux du chercheur Vilém Flusser est pourtant d’une grande importance pour appréhender la situation contemporaine d’un monde numérique risquant d’aboutir à une société automatisée. Analysant la notion de programme depuis des réflexions sur les mutations de la photographie et de l’écriture, Flusser montre, au contraire, comment les artistes pourraient œuvrer au développement d’un « techno-imaginaire » capable de donner du sens à nos « vies artificielles ».

Manifesto for an Acentric Design

Date

décembre 2019

Type

Publication

Contexte

Version enrichie d’un chapitre de l’essai Design et humanités numériques (2017), traduction du français par Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, « Navigating the Human »

Résumé

Télécharger l’article en PDF Voir l’article [En ligne English version here. «  Là où vous voyez des choses idéales, moi je vois… des choses humaines, hélas  ! trop humaines  ! » […] Un «  esprit libre  » ne signifie pas autre chose qu’un esprit affranchi, un esprit qui a repris possession de lui-même. — Friedrich Nietzsche 1 Friedrich Nietzsche, «  Pourquoi j’écris de si bons livres. Humain, trop humain et deux suites  », dans  : Ecce Homo [1888], trad. de l’allemand par Henri Albert, Paris, Mercure de France, 1908, p.  636-637. Dans ce fragment aux allures autobiographiques, Nietzsche revient sur son livre Humain, trop humain [1876-1878]. Dans les expressions circulant à propos du «  design d’interface  », celles de «  design centré utilisateur  », «  d’expérience utilisateur  », et par extension de «  design d’expérience  » pourraient, à première vue, aller de soi. Le design aurait ainsi pour but de créer des choses «  utiles  », partant des besoins des utilisateurs, «  centrés  » sur eux et sur l’amélioration de leur «  expérience  ». Pourtant, si l’on regarde ces notions de plus près, on peut se demander ce que ces méthodes engagent comme conceptions du design, et plus largement comme compréhension des relations humaines et des relations humains-machines. En effet, il ne va pas sans poser problème de présupposer que «  nous  » serions avant tout des utilisateurs, c’est-à-dire des êtres voués à n’entretenir que des rapports d’utilité. Que penser alors de termes tels que «  user-centered design (UCD) 2  Shawn Lawton Henry, Justin Thorp, «  Notes on User Centered Design Process (UCD) », W3C.org, mars 2004, [En ligne], http://www.w3.org/WAI/redesign/UCD accès  : 1er Juillet, 22:00», « human-centered design (HCD) 3  Ideo, «  Human-Centered Design Toolkit  », 2009, [En ligne], http://www.ideo.com/work/human-centered-design-toolkit», « activity-centered design (ACD) 4 Geraldine Gay, Helene Hembrooke, Cambridge, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems, MIT Press, 2004. » ou encore «  people-centered design (PCD) 5 Hugh Graham, « People Centered-Design », [En ligne], http://hughgrahamcreative.com/people-centered-design » ? Pourquoi le design devrait-il se «  centrer  » sur quelque chose  ? Plus largement, n’y a-t-il pas dans l’existence humaine quantité d’aspects auxquels les «  expériences  » générées par le design ne sauraient se substituer  ? Afin de critiquer l’ingénierisation du design et la réduction du travail des designers à des méthodologies normatives voire quantitatives, nous proposons comme méthode de recherche d’associer une étude historiques des notions à interroger à des analyses techniques et aux discours afférents qui les entourent. Plus précisément, nous pourrions synthétiser la méthode de recherche de ce texte de la façon suivante 6 Nous reprenons ici la formulation établie par le chercheur Alexandre Saint-Jevin dans son compte-rendu de lecture de l’essai Design et humanités numériques : «  Sur la trace de l’humain dans les ‹  objets  › de design  », Non-Fiction, mars 2018, [En ligne], https://www.nonfiction.fr/article-9264-sur-la-trace-de-lhumain-dans-les-objets-de-design.htm: 1 . Analyser la notion déterminant le processus de création des choses de design pour en dégager les concepts philosophiques sous-jacents. 2. Retracer la généalogie de ce concept pour confronter la réalité technique des productions de design aux discours de l’entité (des concepteurs, des entrepreneurs, des communicants, des marketeurs, etc.) à propos des productions concernées. 3. Synthétiser l’histoire et les discours des entités sur les choses du design en général pour en dégager les enjeux philosophiques. 4. Confronter les enjeux philosophiques révélés par l’analyse des discours de l’entité à ceux de la notion de départ pour révéler en quoi ils viennent conditionner et déterminer la réalité technique. À rebours de la volonté de modéliser l’activité du design sous forme de chaînes logiques (diagrammes, schémas, timelines, etc.), cette formalisation ne vise donc pas à dire aux designers ce qu’il convient de faire mais ambitionne de leur fournir, dans leur démarche même, des entrées critiques leur permettant d’analyser ce qui a déjà été fait ou ce qu’ils sont en train d’élaborer. Afin d’activer d’autres façons de faire des interfaces que les scénarisations comportementales du design d’expériences, nous proposons de débuter notre analyse par un retour sur l’histoire des premières interfaces graphiques. Comment les valeurs recouvertes par ces couches techniques infusent-elles voire limitent-elles nos relations à la technique  ? Le «  modèle conceptuel de l’utilisateur  » du Xerox Star L’expression «  d’interface utilisateur  » (user interface) est contemporaine du développement des ordinateurs personnels à la fin de années 60. En 1968, Douglas Engelbart présentait l’aboutissement des recherches menées au sein du Xerox PARC lors d’un évènement rétrospectivement surnommé «  la mère de toute les démos  » (Mother of all demos), où l’on vit pour la première fois la visioconférence, la téléconférence, le courrier électronique, le système de navigation hypertexte et le modèle d’interface de la «  métaphore du bureau  » basé sur des «  fenêtres  » (windows), «  dossiers  » (folders), «  corbeilles  » (trash), etc. Partiellement réalisée dans l’ordinateur Xerox Alto de 1973  7 Seulement 1500 unités furent produites  : 1000 pour les employés de Xerox et le reste pour des universités et institutions publiques., cette première forme d’interface graphique (« GUI » pour graphic user interface) fut reprise dans le Xerox Star de 1981. Ce dernier était de plus accompagné d’un accès au réseau, de la possibilité d’envoyer des mails, d’une souris, et d’un système d’impression WYSIWIG (What You See Is What You Get) assez précis pour faire coïncider ce qui est vu à l’écran avec une impression papier. Afin de préciser l’origine du modèle conceptuel ayant servi de base à un design se revendiquant explicitement des besoins des «  utilisateurs  », il importe de revenir sur les principes fondateurs du Xerox Star. Dans un article datant de 1982, cinq anciens employés de Xerox Corporation expliquent leur compréhension des relations humains-machines, et plus précisément leurs méthodologie de design d’interface  : «  Nous avons appris du Star l’importance de formuler les concepts fondamentaux (le modèle conceptuel de l’utilisateur [the user’s conceptual model] avant que le programme ne soit écrit, plutôt que de faire suivre l’interface utilisateur user interface après. […]Elle a été conçue avant designed before les fonctionnalités du système ne soient entièrement décidées. Elle a même été conçue avant que le matériel informatique n’ai été construit. Nous avons travaillé pendant deux ans avant d’avoir écrit une seule ligne de code du programme du produit réel 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, Eric Harslem, «  Designing the Star user interface », Byte, no   4, 1982, p.  242-282, [En ligne], http://www.GUI debookgallery.org/articles/designingthestaruserinterface. » Une telle importance attribuée au design « avant » que les spécification matérielles ne soient formulées ne manquera pas d’interroger le lecteur contemporain, habitué à ce que le design soit réduit à une action en bout de course, dépendante d’une multitude de paramètres extérieurs. Dans le cas du Star, il était question d’introduire sur le marché des «  concepts radicalement nouveaux 9 Ibid. » bien plus que de chercher à appliquer une «  commande  » venue d’en haut. En dédiant une mémoire à l’affichage écran, les concepteurs du Star furent en mesure de créer une interface visuelle fonctionnant de concert avec la souris (également utilisée sur le Xerox Alto), définie dans le texte de 1982 comme «  un moyen de pointer rapidement un item à l’écran 10 Ibid. » plus efficace que les curseurs activables par le clavier. Il est particulièrement intéressant d’étudier comment les équipes de Xerox mirent au point une méthodologie de projet pouvant être reliée avec ce qui se nomme aujourd’hui «  design centré utilisateur  ». Le développement d’une interface pose en effet de nombreux problèmes  : la compréhension de la variété des langages dans lesquels les utilisateurs expriment leurs commandes à l’ordinateur, le design des représentations à l’écran montrant l’état du système à l’utilisateur, et d’autres problèmes abstraits pouvant affecter la compréhension du comportement du système. Selon les équipes du Star, ces problèmes sont hautement subjectifs, et ne peuvent être résolus qu’au cas par cas. La méthode employée aura donc consisté à se focaliser sur ce qui devrait précéder tout design d’une interface réussie, à savoir «  l’analyse des tâches  » (task analysis) : «  La description de la tâche actuelle avec sa répartition des objets et des méthodes d’information actuellement employées offre un point de départ pour la définition d’un ensemble équivalent d’objets et de méthodes devant être fournies par le système informatique l’ordinateur, ses programmes et ses périphériques]. L’idée derrière cette phase de conception [this phase of design] est de construire un nouvel environnement des tâches utilisateur [a new task environment for the user], dans lequel il puisse travailler pour atteindre les mêmes objectifs [same goals] qu’avant, désormais entourés d’un ensemble différent d’objets, et en employant de nouvelles méthodes 11 Ibid. » Pour Xerox, l’utilisateur est une entité essentiellement vouée à effectuer des tâches en vue d’accomplir des objectifs. On retrouve ici la définition commune d’un algorithme, à savoir un ensemble d’instructions destinées à accomplir une action déterminée. Autrement dit, n’est-ce pas du «  programme  » (un algorithme écrit en langage machine) en tant que modèle de pensée que découle la compréhension de ce qu’est un utilisateur  ? N’est-ce pas étonnant que d’aller de la machine vers les êtres humains afin de comprendre comment améliorer leurs relations  ? En ce sens, ce que l’on appellerait «  utilisateur  » dans le contexte informatique ne serait bien souvent qu’une réduction logique de la subjectivité humaine, capable dès lors de dialoguer avec des programmes «  extra humains 12 J’emprunte cette expression au livre Haunted by algorithms issu de la ligne de recherche Meta Mediums dirigée par Jeff Guess et Gwenola Wagon, à apparaître en 2016 aux Presses du réel. ». De même que certains voient dans le design une discipline susceptible de faire science 13 Voir  : «  Pour une recherche en design sans modèle  », supra., il s’agirait ici de «  modéliser des comportements  » disparates en vue d’améliorer l’efficacité des «  tâches  ». L’étymologie du terme «  tâche  » renvoie à taxer (taxare) pour désigner «  le travail déterminé que l’on a l’obligation de faire, avec une notion de ‹  rétribution  › [voire de] devoir moral 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. ». Le verbe «  tâcher  » exprime quant à lui l’idée de «  faire des efforts pour  », avec parfois l’idée d’une pénibilité voire d’un ordre atténué avec l’impératif «  tâchez de  ». Si l’utilisateur est celui dont les objectifs à réaliser passent nécessairement par une série de tâches à accomplir, cela ferait-il de nous des «  tâcherons  », c’est-à-dire des «  personne effectuant des besognes de commande [nous soulignons], sans grande intelligence » ? 15 Ibid. Dans l’exemple du Xerox Star, les choses sont néanmoins plus complexes. Le fait de partir d’un «  modèle-utilisateur  » constitué d’un petit ensemble de principes de design (design principles) permet d’assurer une cohérence globale, puisque « l’expérience utilisateur acquise dans une des zones du programme peut s’appliquer dans une autre 16 «  Designing the «  Xerox Star user interface », op.  cit : «  The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […]and allow user experience in one area to apply in others. » Nous soulignons. », réduisant ainsi la charge cognitive relative à l’utilisation du système informatique. Un autre aspect discuté dans l’article – relatif à la notion de cohérence – concerne la notion de «  familiarité » (« Familiar User’s Conceptual Model ») : «  Un modèle conceptuel utilisateur [a user’s conceptual model] est l’ensemble des concepts qu’une personne acquiert progressivement pour expliquer le comportement [behavior] d’un système […]. La première tâche d’un concepteur de système est de décider quel modèle est préférable pour les utilisateurs […]. Cette étape extrêmement importante est souvent négligée ou mal faite. Les concepteurs du [Xerox] Star [The Star designers] ont consacré de nombreuses années […]à évoluer vers […]un modèle approprié pour un système d’information bureautique  : la métaphore d’un bureau physique 17 Ibid. » C’est en partant de l’univers actuel des utilisateurs, à savoir le modèle hiérarchique du bureau, que l’interface du Xerox Star a pu être élaborée. Il était important de donner naissance à une interface «  familière  » afin qu’il y ait le moins de frictions (seamless) dans «  l’expérience utilisateur  ». Ce dernier retrouve ainsi dans la machine son organisation habituelle de gestion et de découpage des tâches. Par exemple, les message papier empilés sur le bureau physique de l’utilisateur employé de bureau deviennent, dans son ordinateur, un pictogramme d’enveloppe indiquant quand un nouvel email est reçu. Il est intéressant de préciser que le modèle métaphorique défini avant le développement effectif du programme modifie de fait les fonctions dudit programme  : le design n’est pas abordé comme un simple habillage. Toujours dans l’exemple des emails, la commande d’envoi (send mail) a ainsi pu être évitée en utilisant le déplacement d’icônes. Un dernier aspect important de l’interface du Star concerne la personnalisation de l’interface, les icônes déplaçables permettant de configurer l’environnement de travail. Si l’on résume les grands principes du Xerox Star, ce qui est ici désigné sous le terme d’«  utilisateur  » est en fait une succession de «  tâches  » orientées vers des objectifs à partir desquelles les designers vont élaborer un «  modèle conceptuel  » servant de base au développement du système informatique et assurant sa cohérence métaphorique. En fournissant un environnement «  familier  » et «  amical  » à l’utilisateur, l’interface développée vise donc à accroître son efficacité en développant des «  synergies humains-machines  ». L’interface «  amicale  » (« friendly ») du Xerox Star montre toutefois ses limites sur certaines fonctions où la métaphore du bureau est inopérante  : «  Une des raisons d’être du [Xerox Star] est que Les objets physiques ne donnent pas assez de pouvoir aux gens [do not provide people with enough power] pour gérer la complexité croissante de «  l’ère de l’information  ». Par exemple, nous pouvons tirer avantage de la capacité des ordinateurs à chercher rapidement en mettant en place une fonction de recherche pour les dossiers de fichiers électroniques, aidant ainsi à résoudre le vieux problème des fichiers perdus 18 Ibid. » La fin de l’article de 1982 se conclut de façon intrigante sur le fait qu’il est difficile de choisir entre plusieurs modèles d’interfaces en s’appuyant sur des critères stabilisés (scientifiques) : «  Le design d’interface est encore un art et non une science 19 Ibid. : «  User-interface design is still an art, not a science. » ». Bien que le texte du Xerox Star plaide au final pour l’établissement de «  processus plus rigoureux  » concernant l’élaboration d’interfaces, une telle assertion ne manquera pas d’intriguer le lecteur contemporain. L’émergence des systèmes d’exploitation «  graphiques  » rationalisés Malgré l’échec commercial du Xerox Star, ces méthodes de design vont connaître un succès qui changera définitivement nos rapports aux machines électroniques. Précurseur des recherches menées au Xerox PARC, la thèse en Informatique (computer science) de Jef Raskin, Quick-Draw Graphic System, publiée en 1967 (soit 6 ans avant le Xerox Alto 20 Au début des années 70, le IBM Usability lab ne se préoccupait que d’ergonomie. The Psychology of Computer Programming fut publié par Gerald Marvin Weinberg en 1971, et les travaux de Stuart K. Card, Allen Newell et Thomas P. Moran ne furent connus du grand public qu’après la parution en 1983 de The Psychology of Human-Computer Interaction.), plaidait pour un environnement informatique où l’interface graphique tiendrait une place prépondérante. Une telle idée n’allait pas du tout de soi à la fin des années 1960  : «  Ma déclaration la plus hérétique […]fut de dire que mon travail était basé sur une «  conception [design] et une mise en œuvre philosophique qui plaçaient la généralisation et l’utilisabilité humaine [human usability] devant la vitesse d’exécution et l’efficacité ». Ceci à une époque où le principal objectif des cours d’informatique était de vous apprendre à faire des programmes plus rapides [to make programs run fast] et utilisant le moins de mémoire possible 21 «  Articles from Jef Raskin about the history of the Macintosh  », 1996, [En ligne], https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/. » Après des contacts avec Xerox concernant le développement de la souris, Jef Raskin fut embauché par Apple en 1978. C’est sous son impulsion et celle de Bill Atkinson 22 Le titre de la thèse de Jef Raskin (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) fut repris par Bill Atkinson pour nommer l’environnement graphique (graphics package) du Macintosh. que Steve Jobs et Steve Wozniak prirent connaissance des recherches menées au Xerox PARC sur les interfaces graphiques. La suite de l’histoire est connue. Alors CEO de Apple Inc., Steve Jobs, âgé de 24 ans, visita en 1979 les locaux de Xerox. Dans un documentaire sorti en 1995, il revient sur le choc que constitua pour lui cet événement  : «  Ils [Xerox] me montrèrent […]trois choses. […]. Une des choses qu’ils me montrèrent fut la programmation orientée objet […]. L’autre chose qu’ils me montrèrent était un système informatique [d’une centaine d’ordinateurs] en réseau […]. Je ne le voyais même pas. J’étais totalement aveuglé par la première chose […], à savoir l’interface graphique utilisateur [the graphical user interface]. Je pensais que c’était la meilleure chose que j’ai jamais vue de toute ma vie. Aujourd’hui, je me souviens que c’était très imparfait. […] Mais, à l’époque], au bout de […]dix minutes, il était évident pour moi que tous les ordinateurs fonctionneraient comme cela un jour. C’était évident 23 Steve Jobs, entretien avec Robert X. Cringely, Triumph of the Nerds: The Rise of Accidental Empires, documentaire, 1996, [En ligne], http://www.pbs.org/nerds » Suite à cette présentation obtenue en échange d’actions de l’entreprise Apple Inc., Steve Jobs lança l’ordinateur personnel Apple Lisa en 1982, qui reprenait du Xerox Star les principes de la souris et de l’interface graphique. D’un prix trop élevé (10   000 $ pour l’époque soit 24   000 $ aujourd’hui), le Lisa fut remplacé par le Macintosh sorti en 1984, bien plus accessible financièrement. Si beaucoup pensent encore que Steve Jobs s’est contenté de «  voler  » les principes clés du Xerox Alto, l’histoire est cependant plus complexe. Les dirigeants de Xerox n’avaient pas pris conscience des conséquences décisives de ce qu’ils avaient découvert, abandonnant leur vision prospective aux équipes de ventes et du marketing qui étaient focalisées sur les photocopieurs, le cœur de la marque, et non sur le nouveau marché des ordinateurs 24 Pour un histoire détaillée de l’entreprise Xerox, voir  : Douglas K. Smith, R. C. Alexander, Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, New York, William Morrow & Co, 1988.. Il a fallu que Bill Atkinson réécrive et améliore quantité de fonctions pour que le Lisa puis le Macintosh puissent bénéficier d’une interface graphique «  supérieure  » (ajout des menus déroulants, ouverture des fenêtres en double-clic, icône corbeille, etc.). Aucune ligne de code ne fut, au sens propre, «  copiée/collée 25 Christoph Dernbach, «  Did Steve Jobs steal everything from Xerox PARC? », Mac History, février 2012, [En ligne], http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc ». Afin de développer l’offre logicielle des machines Apple, Steve Jobs invita Microsoft au début des années 1980 à éditer des programmes pour le Macintosh. Malgré la demande faite par Jobs à Bill Gates (alors CEO de Microsoft) de ne pas utiliser d’interface graphiques pilotable à la souris avant que le Macintosh (1984) ne fut en vente depuis un an, Microsoft surprit tout le monde en annonçant en 1983 le système d’exploitation Windows 1.0  26 windows 1.0 n’était pas encore un système d’exploitation complet, mais plutôt une «  couche graphique  » utilisable par des logiciels tiers., dont la sortie officielle n’aura lieu qu’en 1985. Quand Jobs, furieux, accusa Bill Gates de l’avoir trahi, ce dernier lui répondit qu’ils avaient tous les deux volé «  leur riche voisin Xerox 27 Andy Hertzfeld, «  How the Mac was born, and other tales  », entretien avec Scott Ard, CNET, janvier 2005, [En ligne], http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html ». En 1988, la justice américaine classa sans suite le procès intenté par Apple. Don Norman, les limites de «  l’expérience utilisateur  » Après la sortie de Microsoft windows, les méthodes de conception liées au design d’interface se structurent autour de disciplines scientifiques connexes à ce champ.  En plus des expressions d’«  utilisabilité humaine  » (human usability) et d’«  interface utilisateur  » (user interface), celle d’«  expérience utilisateur  » (souvent abrégée en « UX » pour User eXperience) rencontre alors un succès notable. Cette dernière semble apparaître pour la première fois en 1986  28 Pour une chronologie détaillée de l’histoire de ce terme, voir  : Peter Merholz , «  Whither ‹  User Experience  › », novembre 1998, [En ligne], http://www.peterme.com/index112498.html dans un livre codirigé par Donald Norman (chercheur en sciences cognitives) et intitulé User Centered Design: New Perspectives on Human-Computer Interaction (Design des systèmes centrés utilisateur) 29 Donald A. Norman, Stephen W. Draper (dir.), User Centered Design: New Perspectives on Human-Computer Interaction, San Diego, University of California, Hillsdale, Lawrence Erlbaum Associates, 1986. Après un développement sur l’impossibilité de parvenir à un sens univoque par des images normées (pictogrammes), on trouve cette citation  : «  Un engagement direct se produit lorsqu’un utilisateur fait l’expérience d’une interaction directe [a user experiences direct interaction] avec des objets dans un milieu […]plutôt qu’une communication avec un intermédiaire. Ces interactions s’apparentent à interagir avec des objets du monde physique. […]L’]interface et l’ordinateur deviennent invisibles [the interface and the Computer become invisible]. Bien que nous croyons que ce sentiment d’engagement direct soit d’une importance capitale, nous ne savons […]que peu de choses sur les besoins réels nécessaires à sa production 30 Edwin L. Hutchins, James D. Hollan, Donald A. Norman, «  Direct Manipulation Interfaces  », ibid., p.  114. » L’«  expérience utilisateur  » pourrait ainsi être comprise comme un volonté d’élargir le modèle de conception du Xerox Star à d’autres champs que celui des interfaces écran et des ordinateurs qui pourraient disparaître, devenant «  invisibles  ». Fréquemment mentionné comme étant l’inventeur de cette expression, Don Norman la définissait ainsi en 1998  : « J’ai inventé l’expression [d’expérience utilisateur] parce que je pensais que celles d’interface humaine et d’utilisabilité 31 La notion d’«  utilisabilité », que Don Norman juge insuffisante, était abordée par ses zélateurs Jeff Rubin et Dana Chisnell sous ces termes  : «  Quand un produit ou un service est vraiment utilisable, l’utilisateur peut faire ce qu’il […]veut faire de la façon dont il […]espère pouvoir le faire, sans entrave, hésitation, ou questions. » Source  : Jeff Rubin, Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests [1994], Indianapolis, Wiley, 2008, p.  4. étaient trop restreintes [I thought Human Interface and usability were too narrow]: je voulais couvrir tous les aspects de l’expérience d’une personne [the person’s experience] avec un système, incluant le design industriel, le design graphique, l’interface, l’interaction physique et le mode d’emploi 32 Don Norman, cité dans  : Peter Merholz , «  Whither ‹  User Experience  › », op.  cit » Cet aspect plus large de l’«  expérience utilisateur  » fut ensuite précisé dans la version «  canonique  » formulée par Jakob Nielsen et Don Norman  : «  L’expérience utilisateur  » englobe tous les aspects de l’interaction de l’utilisateur final [«User experience  » encompasses all aspects of the end-user’s interaction] avec l’entreprise, ses services et ses produits. La première exigence pour une expérience utilisateur exemplaire est de répondre aux besoins exacts du client [to meet the exact needs of the customer]. […]Nous devons distinguer l’UX [l’expérience utilisateur] et l’utilisabilité [usability]. La définition de l’utilisabilité indique que c’est une qualité de l’UI [interface utilisateur] couvrant le fait qu’un système soit simple à comprendre, efficace à utiliser, plaisant, etc. [L’expérience utilisateur] est un concept bien plus large 33 Jakob Nielsen, Don Norman, «  The Definition of User Experience  », article non daté, Nielsen Norman Group, [En ligne], http://www.nngroup.com/articles/definition-user-experience. » Le «  design d’expérience  » et la fable de l’informatique «  invisible  » Cet intérêt désormais resserré autour de la personne-utilisateur et non plus de l’appareillage technique (l’interface) est encore plus explicite dans la formule «  design centré utilisateur  » (« UCD » pour user-centered design), qui consiste à fonder l’ensemble de la méthodologie de conception sur le point central qu’est l’utilisateur. Cette méthodologie de conception a rencontré un très grand succès peut-être en raison du lien qu’elle permettait d’établir entre les services marketing chargés d’étudier les consommateurs et les équipes chargées du design des produits. Pourtant, de l’aveu même du zélote Don Norman, le terme «  d’utilisateur  » a montré ses limites. Dans un article paru en 2006 et intitulé «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », Don Norman confessait ainsi  : «  Nous dépersonnalisons les individus que nous étudions en les rebaptisant «  utilisateurs  ». Ces termes sont péjoratifs. Ils nous éloignent de notre mission première  : aider les gens [to help people].[…]Les gens sont des êtres complexes et riches. […]Une étiquette telle que client, consommateur ou utilisateur ignore cette […]structure sociale. […]Il est temps de débarrasser notre vocabulaire de termes tels que consommateur, client et utilisateur. Il est temps de parler à des personnes. Le pouvoir au peuple [Time to speak of people. Power to the people] 34 Don Norman, «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », jnd.org, 2006, [En ligne], http://www.jnd.org/dn.mss/words_matter_talk_a.html. » De même, en 2008  : «  Parmi les horribles mots que nous employons, il y a le mot «  utilisateurs  ». Je pars en croisade pour nous débarrasser de ce terme. Je préfère parler de «  personnes  ». […] Nous concevons des produits pour des personnes, pas pour des utilisateurs 35 «  Don Norman at UX Week 2008, Adaptive Path  », YouTube, [En ligne], https://youtu.be/WgJcUHC3qJ8 » Résumons ces différents points. La méthodologie de conception «  centrée sur l’utilisateur  » consiste à traiter par le design chaque être humain comme un utilisateur, comme une personne vouée à n’entretenir avec les entreprises que des rapports «  centrés  » sur ses «  besoins exacts 36 Jakob Nielsen, Don Norman, «  The Definition of User Experience (UX) », op.  cit », avec lesquels il n’aurait ni «  entrave[s], hésitation[s]ou questions 37 Jeff Rubin, Dana Chisnell, Handbook of Usability Testing, op.  cit ». Ce courant de pensée est issu d’une modélisation scientifique des principes ayant présidé à la conception du Xerox Star afin d’en faire une machine «  personnelle  » optimisant les tâches à accomplir par l’utilisateur. Rétrospectivement, les textes performatifs de Don Norman faisant l’éloge de l’étude des «  besoins  » ont conduit, de l’aveu même de l’auteur, à une impasse, en raison du fait que l’être humain ne peut pas être réduit à un rôle déterminé 38 Cette idée a été inscrite dans les normes ISO, qui proposent de changer l’expression d’«  expérience centrée-utilisateur  » en «  conception centrée sur l’opérateur humain  ». Voir  : «  ISO 9241-210:2010. Ergonomie de l’interaction homme-système. Partie 210  : Conception centrée sur l’opérateur humain pour les systèmes interactifs  », Iso.org, mars 2010, [En ligne], https://www.iso.org/obp/ui/fr/#iso:std:iso:9241:-210:ed-1:v1:fr. Il serait possible de se réjouir d’un tel revirement de pensée. Pourtant, à y regarder de plus prêt, ne faudrait-il pas également interpréter ces injonctions contradictoires comme le signe d’un pouvoir qui n’appartiendrait pas au «  peuple  », mais à ceux tenant ces discours  ? Autrement dit, n’est-ce pas contre ceux qui s’enrichissent continuellement (au sens banal du terme) en maîtrisant la circulation des méthodologies de conception qu’il faudrait «  partir en croisade  » ? Davantage qu’un plaidoyer en faveur d’une complexité à prendre en compte dans la conception, cet «  appel à l’humain  » aura été, pour Don Norman, l’occasion d’éliminer progressivement les «  interfaces  » au nom d’une informatique «  invisible 39 Donald A. Norman, Norman, The Invisible Computer. Cambridge, MIT Press, 1998. » dont les produits seraient «  humainement centrés  » (human-centered) 40 Le chapitre 2 du livre The Invisible Computer a pour titre «  Growing up: Moving from technology-centered to human-centered products  ». Cette prédiction d’invisibilité passant à couvert dans un changement de vocabulaire a priori innocent fut si bien intégrée par les entreprises qu’en 2012 Apple en faisait l’objet d’une publicité : «  Nous pensons que la technologie atteint son summum lorsqu’elle devient invisible, quand vous ne pensez qu’à ce que vous faites et non à l’appareil avec lequel vous le faites. […] L’iPad illustre parfaitement cette idée. C’est une fenêtre magique qui peut devenir tout ce que vous voulez qu’elle soit. […]C’est une expérience de la technologie plus intime que ce que le public [people] a connu jusqu’alors 41 «  Official Apple (New) iPad Trailer  », YouTube, mars 2012, [En ligne], https://youtu.be/RQieoqCLWDo. » La prise de recul de Don Norman ne veut pas dire pour autant que son idée d’informatique «  invisible  » soit viable. Le terme qui importe ici est celui d’«  expérience  », qui va de pair avec celui de «  magie  ». Quoi de plus magique, en effet, que de faire l’expérience d’une technologie «  invisible  » ? Olia Lialina (artiste), dans un article critique consacré à l’étude de la notion d’utilisateur, ne s’en laisse pas compter  : «  C’est pour cela que le design d’interfaces a progressivement été rebaptisé design d’expériences – expression dont l’objectif premier est de faire oublier l’existence des ordinateurs et des interfaces auprès des utilisateurs. Le design d’expériences vous laisse seul avec vos émotions à ressentir, vos objectifs à atteindre et vos tâches à effectuer 42 Olia Lialina, «  L’utilisateur Turing-complet  » [2012], trad. de l’anglais par Jean-François Caro, LGRU Reader, 2013, [En ligne], http://reader.lgru.net/texts/lutilisateur-turing-complet. » Pour un design appareillé En conclusion de son article consistant à étudier les limites d’une exclusion du terme d’utilisateur des méthodes de conception d’interface, Olia Lialina propose de revenir à des fondements antérieurs au Xerox Star, à savoir ceux développés par l’informaticien Ted Nelson dans son ouvrage Computer Lib / Dream Machine de 1974  : «  L’INFORMATIQUE A TOUJOURS ÉTÉ PERSONNELLE [COMPUTING HAS ALWAYS BEING PERSONNAL]. Je veux dire par-là que si vous ne vous y plongiez pas intensément, parfois avec chaque cellule de votre cerveau éveillé, vous n’étiez pas en train de faire de l’informatique, vous n’étiez qu’un simple utilisateur [you weren’t doing computers, you were just a user] 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now, auto-édition, 1974, p.  3. » L’argument est fort. L’utilisation «  naïve  » dénoncée Ted Nelson, précise les risques d’une perte de contact avec l’ordinateur, qui du Xerox Star à l’iPad, présuppose que tout ce qui est «  vrai  » (la vraie vie, la créativité, etc.) serait extérieur à la machine. Pourtant, malgré la montée en puissance des interfaces tactiles (sans souris), malgré l’émergence des interfaces gestuelles (sans boutons), des interfaces sonores (sans écran), et malgré le retour des interfaces [En ligne de commande (sans icônes), force est pourtant de constater que les grands principes des interfaces graphiques élaborées au Xerox PARC au début des années 1970 régissent encore majoritairement nos rapports aux machines électroniques – qui ne sont pas encore,  loin s’en faut, «  invisibles  ». En témoignent, par exemple, les « Apple Human Interface GUI delines 44 Voir pour exemple  : « OS X Human Interface GUI delines  », Apple, [En ligne], https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGUI delines  : «  Designing for Yosemite  : […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience. » » (littéralement  : «  Directives Apple d’interfaces humaines  ») et le « Material Design 45  Google, Material Design, première version publiée en juin 2014, [En ligne], https://www.google.com/design/spec/material-design/introduction.html » de Google qui, dans les années 2010, sont des lectures recommandées – à condition d’être critique – pour quiconque s’intéresse au design d’interface. Cette actualité n’empêche pas que le modèle de pensée d’une interface couplée avec une figure utilisateur idéalisée (prise dans un faisceau d’habitudes) ait ses limites. Depuis le texte de Jef Raskin de 1967 associant «  l’utilisabilité humaine  » à l’efficacité de la résolution de tâches 46 Jef Raskin, A Hardware-Independent Computer, 1967, op.  cit, la volonté de créer une interface graphique pour procurer à l’«  utilisateur  » un nouvel environnement de travail et de nouvelles méthodes pour accomplir «  les mêmes objectifs qu’avant 47 «  Designing the Star user interface », op.  cit » aura consisté à envisager les médias électroniques comme des «  résolveurs de problèmes  » plutôt que comme des puissances de transformation et d’invention. Or, comme le note avec acuité le spécialiste des humanités Yves Citton  : «  L’invention des dispositifs techniques de communication […]s’inscrit dans une vaste nébuleuse d’espoirs, d’angoisses, de rêves, de bricolages, de savoirs parallèles, de détournements et de réappropriations, qui traversent de nombreux champs disciplinaires traditionnels […]. Nos médias ne sauraient en effet se réduire à de simples instruments de transmission de formes et de contenus  : il fonctionnent avant tout comme des médiums qui nous fascinent, nous hallucinent, nous hypnotisent et nous stimulent par l’entremise des simulations qu’ils qu’ils font pénétrer à travers nos sens 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques, Paris, Armand Colin, coll. Le temps des idées, 2012, p.  21-22. » Au regard de ces quelques textes fondateurs du design à l’époque du numérique, il est évident que les machines électroniques posent des questions qui n’existaient pas avant elles. Mais peut-être est-ce précisément contre ces nouveautés que se seront élaborées des méthodologies de conception trop inquiètes de préserver les pouvoirs et savoirs en place. Malgré ses indéniables avancées techniques, le Xerox Star n’aura pas bénéficié du plein soutien des dirigeants de l’entreprise, qui préférèrent développer le commerce des photocopieurs, plus en phase avec les «  usages  » de l’époque. Dans cette histoire de «  design centré utilisateur  », expression postérieure au Xerox Star, il est en effet question d’une inquiétude quant à un oubli de «  l’utile  », de l’utilité de l’objet. Mais est-ce vraiment possible dans un monde où les services marketing, par exemple, cherchent sans cesse à anticiper les «  besoins  » des consommateurs par des procédures statistiques couplées à des protocoles d’observation  ? Un autre aspect allant dans le sens d’un design se construisant contre les nouveautés techniques – c’est-à-dire pour les habitudes – est cette histoire de «  centre  », terme qu’il faut à présent examiner. Ce double suffixe accolé à design aurait pu faire l’objet de variations. Pourquoi ne parle-t-on jamais, par exemple, de design «  centré forme  » par exemple, ou bien de design «  centré pratiques  » ? Peut-être est-ce parce que ces deux notions (il pourrait y en avoir d’autres) résistent à l’idée de «  centre  », de délimitation. Si l’on prend la notion de forme, il est notable que celle-ci, historiquement, aura concerné le design – suivant la formule de l’architecte Louis Sullivan suivant laquelle «  de la forme suit de la fonction 49 Traduction proposée par Pierre-Damien Huyghe de la formule « form ever follows function » de 1886. ». Fin observateur d’une histoire qui, parfois, «  piétine  » (où des enjeux sont tantôt occultés, tantôt redécouverts), le philosophe Pierre-Damien Huyghe note que la notion de forme traduit le «  souci artistique  » du design  : «  Il ne s’agissait pas seulement de mettre au monde des objets fonctionnels qui pouvaient servir. Le souci de faire forme aura été absolument essentiel au design. On pourra noter ici que le latin forma peut, a pu se traduire par «  beauté » 50 Pierre-Damien Huyghe, «  On appelle beaucoup trop de choses «  design  », entretien avec Julie Delem, Naja21, avril 2015, [En ligne], http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design » De façon plus générale, c’est bien le design, dans ce qu’il comprend de capacité à transformer le monde, qui ne saurait «  se centrer  » sur quelque chose. Le design n’a de l’intérêt que s’il est emprunt de tensions, de polarités, de contradictions – soit tout le contraire d’un centre. Olia Lialina, en conclusion de son article, refuse également de se laisser réduire à une étiquette  : «  Nous, utilisateurs généralistes – qui ne sommes ni hackers, ni «  personnes  » –, qui interrogeons, consciemment ou non, notre potentiel et celui de l’ordinateur, sommes les participants ultimes de la symbiose de l’homme et de l’ordinateur 51 Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit » Il faut désormais revenir sur le fait que le modèle conceptuel de l’interface du Xerox Star de 1981 ait été décidé «  avant  » que le matériel (hardware) n’existe, «  deux ans avant d’avoir écrit une seule ligne de code 52 «  Designing the Star user interface », op.  cit ». Rétrospectivement, ce récit peut être compris comme celui d’une rencontre manquée avec l’altérité des machines, puisqu’il y est question, en substance, d’assujettir la technique numérique (hardware et software) à un «  modèle  », c’est-à-dire à quelque chose d’anticipé et de stabilisé. Cette mise à distance progressive de la notion d’«  utilisateur généraliste {53; Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit} » (actif et polyvalent) aura rendue possible les expressions de «  design centré-humain  » puis de «  design d’expérience  », qui incarnent la promesse d’un monde où l’on pourrait «  faire ce que l’on veut  », immédiatement, comme par «  magie  ». Mais de quel «  faire  » parle-t-on quand l’invisibilité devient l’idéal des machines  ? Cette fable de l’invisibilité des nouveautés techniques était en fait déjà en germe aux prémices de l’informatique personnelle. Dans un spot publicitaire de 1979 pour le Xerox Alto censé démontrer la puissance du «  bureau du futur  », un cadre commercial (Bill) arrive au travail et salue ses collègues un café à la main. Quand il arrive à son poste, il allume son ordinateur Alto et s’adresse vocalement à lui  : «  Hello, Fred  ». L’ordinateur lui répond «  Bonjour Bill  ». Après une série de tâches facilement résolues par la machine, vient le dialogue final  : Bill (fatigué) : «  Autre chose  ? » Fred  : Un bouquet de fleurs richement détaillé apparaît à l’écran Bill (troublé) : «  Des fleurs  ? Pourquoi des fleurs  ? » Fred  : «  Votre anniversaire est ce soir. » Bill (attristé) : «  Mon anniversaire. J’avais oublié. » Fred  : « Ça va. Nous ne sommes que des humains [It’s ok. We’re only human] 54 Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, op.  cit, p.  20.» Ce que décrivent de telles initiatives est paradoxalement un monde sans expérience, au sens où l’expérience ne peut avoir lieu qu’au sein d’un champ de possibles ouvert à l’incertitude  : «  La puissance économique est bien ce que la socialisation des expériences met en œuvre. Mais d’un autre côté, si cette mise en œuvre nourrit jour après jour l’expérience et la perception communes, elle n’apparaît pas authentiquement. Le plus souvent même, elle emprunte les formes de l’habitude, elle se glisse mimétiquement dans l’expérience 55 Pierre-Damien Huyghe, «  Faire place  », dans :  Richard Conte, Sandrine Morsillo (dir.), Qu’est-ce que l’art domestique  ?, Paris, Publications de la Sorbonne, coll. Arts et monde contemporain, 2006, p.  29.. » Symptomatique d’une époque où les «  appareils 56 L’appareil est défini par Pierre-Damien Huyghe comme «  une modalité technique distincte de l’outil et de la machine qui fait qu’il y a en lui une puissance de perception, une forme particulière de la sensibilité ». Voir  : Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, 2006. » ne sont plus des objets dignes d’intérêt, les relations humains-machines sont de plus en plus marquées (brandées) par les registres de l’utilité, du rendement ou du gain de temps. L’expérience humaine du «  design d’expérience  » se réduit bien souvent à une situation expérimentale, celle d’un rat cherchant sa sortie dans un labyrinthe. Qu’il soit «  amical  » (friendly) voire «  invisible  », ce milieu technique n’en est pas moins un carcan, une situation sous contrôle où tout échange est anticipé et programmé. À force de vouloir nous imiter dans des ordinateur «  humains, trop humains  », c’est nous-mêmes, «  simples personnes  », qui risquons de passer à côté de leurs possibilités complexes et infinies.

The Digital Thesis as a Website: SoftPhD.com, from Graphic Design to Online Tools

Date

mai 2021

Type

Publication

Contexte

Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.

Résumé

How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?

Autres activités

Date

Type

Contexte

Résumé

NFT-mania. L’art d’être vu

Date

mai 2022

Type

Publication

Contexte

Entretien avec Sophie Abriat pour la revue Madame Figaro.

Résumé

Les collectionneurs achetaient leur Van Gogh dans le plus grand secret. Aujourd’hui, sur le Web, on adore montrer les œuvres virtuelles qu’on a la richesse de s’offrir. Décryptage du nouveau paraître digital par Sophie Abriat pour la revue Madame Figaro.

Pour une intelligence de l’artificiel. Le design face aux technologies génératives

Date

juillet 2024

Type

Publication

Contexte

Article publié dans le Bulletin de l’Association Française pour l’Intelligence Artificielle, dir. Samuel Bianchini, no 125, juillet 2024, p. 45-49.

Résumé

Apparues pour le grand public avec le lancement de services tels que DALL·E, Midjourney ou ChatGPT, les technologies du machine learning sont à la base de l’IA dite « générative ». Cet article explore comment dépasser la polarisation humain/machine pour saisir les nuances théoriques, politiques et pratiques que ces technologies soulèvent dans le champ du design.

Fictions, dissections, spéculations : les prototypes d’objets fictionnels qui interrogent les techno-utopies des corps

Date

septembre 2025

Type

Publication

Contexte

Contribution co-écrite avec Élise Rigot à l’ouvrage collectif L’Encyclopédie des Objets Impossibles, publié en septembre 2025.

Résumé

Ce recueil de notices explore la performativité d’utopies technologiques des corps à l’œuvre dans des projets de design fiction. Ces productions peuvent être considérées comme des « artefacts performatifs » (Suchman, Trigg & Blomberg 2002), au sens où elles construisent une réalité et deviennent les instruments de médiation proches des théories transhumanistes. Six projets sont analysés en trois moments — fiction, dissection et spéculation : The Audio Tooth Implant (James Auger, 2001), La ville des hémisphères (Superstudio, 1971), United Micro Kingdoms (Anthony Dunne et Fiona Raby, 2013), The Modular Body (Floris Kaayk, 2016), Transfigurations (Agi Haines, 2013) et Wanderers (Neri Oxman, 2014-2015).

IA et pédagogie : un état de l’art

Date

avril 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

Recherche et culture libre

Date

mars 2018

Type

Conférence

Contexte

Conférence à l’Esad Amiens dans le cadre du séminaire « On The Shoulders Of Giants » autour des outils libres et de l’open source dirigé par Mark Webster. Communication reprise à la journée d’étude « PrePostPrint » du 4 avril 2018 à l’EnsadLab Paris. Cette conférence a donné lieu à une publication intitulée « Recherche et culture libre : approche critique de la science à un million de dollars », coécrite avec Alexandre Saint-Jevin et mise en ligne en décembre 2018.

Résumé

Le monde de la recherche est protéiforme et peut renvoyer, suivant les acceptions, à des contextes variés. Dans le champ universitaire, la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre. Des chercheurs peuvent ainsi se voir dépossédés de leurs productions à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des matériaux scientifiques sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la circulation des savoirs ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre aux défis actuels ? Que peut-on mettre en œuvre, concrètement, dans les écoles d’art et de design ?

Art et culture à l’ère numérique : 5 provocations pour penser les temps présents

Date

novembre 2021

Type

Conférence

Contexte

Cycle de conférences UNIGE « Comprendre le numérique », session « Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui », dir. Yaniv Benhamou.

Résumé

«  Les professeurs Yaniv Benhamou, Anthony Masure, Sarah Kenderdine et Françoise Benhamou (de g. à dr.) sur la scène d’Uni Dufour, à Genève. Photo Heidi.news (DR) », UNIGE, 30 novembre 2021 Anthony Masure, participation à la conférence «  Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui  », UNIGE, 30 novembre 2021 Anthony Masure, participation à la conférence «  Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui  », UNIGE, 30 novembre 2021 — « […] Des experts… Ont été conviés à cette conférence: – la professeure Françoise Benhamou, de l’Université Paris XIII et présidente du Cercle des économistes, – la professeure Sarah Kenderdine, directrice du Laboratory for Experimental Museology de l’EPFL, – le professeur Anthony Masure, responsable de l’Institut de recherche en art et en design à la HEAD – Genève / HES-SO. … et des provocations. Anthony Masure, justement, a bousculé l’assistance et les idées reçues en présentant «cinq provocations», comme autant de manières de montrer que le rapport entre culture et numérique peut être envisagé de multiples façons  : – L’histoire du numérique invite à en finir avec la notion d’innovation. Ne serait-ce que parce que cela fait désormais des décennies que les artistes ont intégré le numérique à leur création et qu’il n’y a, en ce sens, plus rien d’innovant. – Les technologies ne sont pas des outils. Tout du moins ne sont pas que des outils au service de l’économie et qu’elles peuvent aussi être utiles à la création. – Il est de plus en plus difficile de distinguer art, pop culture et jeu vidéo. Et de prendre pour exemple le jeu Fortnite, au modèle économique particulier ou encore les CryptoPunks (des collections de NFT s). – Le machine learning ne remplacera que les mauvais artistes. – La blockchain rendra la marche de l’art moins capitaliste. Un comble alors que les cryptomonnaies qui lui sont intimement liées sont principalement décriées pour leur essence spéculative. Que reconnaît Anthony Masure, tout en estimant qu’il est possible d’en faire meilleur usage. […] » — Julien Pralong, «  Le numérique modifie certains paradigmes de l’art  », Heidi News, 30 novembre 2021, https://www.heidi.news/innovation-solutions/le-numerique-modifie-certains-paradigmes-de-l-art

L’architecture d’intérieur à l’époque des métavers

Date

novembre 2021

Type

Conférence

Contexte

Invitation avec Guillaume Helleu au conseil de filière d’architecture d’intérieur de la HEAD – Genève.

Résumé

L’architecture est traditionnellement définie comme l’art du bâti et de l’agencement des espaces de vie. Mais qu’en est-il à l’époque des visioconférences et du retour des métavers (mondes virtuels) ? Comment concevoir des espaces authentiquement numériques ? Tout se passe comme si les paradigmes du jeu vidéo et du Web n’avaient pas modifié les pratiques et l’enseignement de l’architecture, qui court alors le risque de devenir anachronique et de s’exclure des enjeux contemporains liés aux technologies numériques.

Création sous artifices. Mutations du design à l’ère du machine learning

Date

septembre 2022

Type

Conférence

Contexte

Intervention aux journées d’étude « Enjeux éthiques et esthétiques de l’Intelligence Artificielle », Université de Strasbourg, Littératures, éthique & arts – Lethica.

Résumé

Affiche de l’évènement La prochaine École d’Automne de l’ITI Lethica se tiendra du 28 au 30 septembre 2022 autour des enjeux éthiques et esthétiques de l’Intelligence Artificielle. Abordé dans le cadre de l’École d’Automne 2021, ce sujet a été choisi pour son actualité contemporaine, mais également pour son interdisciplinarité et sa proximité avec les quatre thématiques centrales de Lethica  : Révolution morale  : accepterons-nous la présence d’intelligences artificielles dans nos vies  ? Quel statut moral, juridique, philosophique leur accorderons-nous le cas échéant  ? Triage : dès lors que l’intelligence artificielle peut être appelée à faire des choix, comment anticiper sur ces éventuels arbitrages  ? (cas, par exemple, des voitures automatiques). Transparence et secret : La gestion de nos données personnelles peut-elle être confiée à une intelligence artificielle  ? Faut-il avoir peur des big data ? «  Faire cas  » : Une intelligence artificielle peut-elle «  faire cas » ? Peut-elle être chargée de veiller sur les plus faibles (personnes âgées  ; enfants) ? Peut-elle elle-même devenir un «  cas  », c’est-à-dire développer une forme de singularité ? Pour discuter de ces questions, Lethica a choisi de solliciter des spécialistes issus de domaines variés (littératures, éthique, arts, mais aussi informatique et philosophie) : certains invités sont des chercheurs polyvalents, situés à la croisée de plusieurs disciplines  ; d’autres sont engagés dans des pratiques de recherche et de création (ou de recherche-création) ; d’autres encore sont des artistes ou des écrivains bénéficiant d’une reconnaissance nationale et internationale.

Au crépuscule des outils

Date

septembre 2022

Type

Conférence

Contexte

Intervention à la journée d’étude « Post–convivialité — Espaces en commun et enjeux du design », Paris, CondéDesignLab.

Résumé

À rebours des « outils conviviaux » défendus par Illich et de la volonté adjacente de retrouver du « contrôle » et de mettre les objets à notre « service », nous proposons de soutenir la notion d’« appareil » pour inviter à penser positivement une telle situation. Autrement dit : il s’agit moins de reprendre la main que « d’appareiller » des situations techniques – moins de penser des « outils conviviaux » que de pluraliser le monde des choses.

Web3 et métavers : quelle place pour les artistes et designers ?

Date

octobre 2022

Type

Conférence

Contexte

Cycle de conférences UNIGE « Comprendre le numérique », session « Web3 et métavers : qu’est-ce qui nous attend vraiment ? », dir. Yaniv Benhamou.

Résumé

La promesse d’un monde virtuel immersif fusionnant loisir et travail traverse l’histoire de la science-fiction et de l’informatique depuis plusieurs décennies. Remise dans l’actualité par l’entreprise Facebook (Meta) fin 2021, l’idée d’un métavers reste encore floue et convoque différents champs technologiques tels que le Web, le jeu vidéo ou la blockchain. Les univers stéréotypés des grands groupes technologiques ne sauraient éclipser de nombreuses expériences développées par des artistes et des designers, et qui permettent d’étendre la définition de ces espaces vers de nouvelles narrations, interactions et audiences.

Financing culture: 7 proposals for present times

Date

juin 2023

Type

Conférence

Contexte

Communication au World Knowledge Dialogue, « Le futur de la culture : financement et gouvernance à l’ère numérique ».

Résumé

L’objectif du congrès est d’explorer les conséquences des technologies numériques sur la culture, en particulier sur les industries créatives (p.ex. musique, art visuel et jeu vidéo). Plus spécifiquement, il s’agira d’analyser l’impact du numérique sur le financement et la gouvernance de la culture (p.ex. rémunération des artistes sur les plateformes de streaming, nouveaux modèles de financement à travers le Web3 et les NFT) pour accompagner ces mutations de façon soutenable.

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias