Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Machines désirantes : des sexbots aux OS amoureux

Date

novembre 2017

Type

Publication

Contexte

Anthony Masure et Saul Pandelakis, « Machines désirantes : des sexbots aux OS amoureux », ReS Futurae, revue d’études sur la science-fiction, no 10, « Imaginaire informatique et science-fiction », novembre 2017

Résumé

Nous proposons de rendre compte de l’émergence du désir au cœur de la relation entre un être humain et une machine, tel qu’il est représenté dans les fictions audiovisuelles. Si, dans nos expériences quotidiennes, ce désir s’exprime le plus souvent sur le mode de la frustration, il semble que le cinéma de science-fiction projette d’autres devenirs du désir comme possible horizon de la technologie, notamment au travers du trope du sexbot. Dans la réalité des objets désignés, le sexbot reste encore un jouet passif proche du sextoy. Une figure plus trouble émerge dans les fictions audiovisuelles lorsque que la machine (selon les cas : le robot, l’ordinateur ou l’intelligence artificielle) peut faire de ce désir un sentiment réciproque et devenir alors une « machine désirante ». Des femmes télécommandées de Stepford Wives à l’intelligence sans corps de Her, nous tâcherons de qualifier ces imaginaires de l’informatique sexués et sexuels, et le devenir de ceux-ci dans les processus de conception propres au design.

Notions

Personnes citées

Objets mentionnés

Médias

À défaut d’esthétique : plaidoyer pour un design graphique des publications de recherche

Date

novembre 2018

Type

Publication

Contexte

Article publié dans la revue de recherche Sciences du Design, Paris, Puf, no 8, novembre 2018, p. 67-78

Résumé

Selon le philosophe Jacques Derrida, la distinction métaphysique entre l’écriture et la parole (logos) entraîne une dépréciation de l’écriture et interroge par extension la prétention d’une « pure » pensée à exister séparément de sa représentation graphique. Nous proposons de mettre en résonance l’analyse de ce « logocentrisme » avec le champ des publications numériques de recherche, où la forme demeure majoritairement impensée. En montrant au travers de l’étude de deux publications en ligne (GAM3R 7H30RY et Haunted by Algorithms) comment certaines pratiques de design graphique permettent de dépasser l’opposition forme/contenu, nous soutenons que la prise en compte de la dimension esthétique de l’écriture peut contribuer à dérouter et à renouveler les pratiques de recherche communément installées.

Pour un design alternatif de l’IA ?

Date

avril 2020

Type

Publication

Contexte

Interview des designers Douglas Edric Stanley et de Jürg Lehni par Anthony Masure, contribution au dossier « Cultivons nos intelligences artificielles », Multitudes, no 78. Ce texte a été republié dans la revue Issue-Journal de la HEAD – Genève.

Résumé

Mené entre septembre 2019 et janvier 2020 par les designers Jürg Lehni et Douglas Edric Stanley au sein du Master Media Design de la Haute École d’Art & Design de Genève (HEAD – Genève), le workshop « Thinking Machines » prend comme point de départ l’automatisation des métiers de la création et le fantasme de machines « pensantes ». Ce projet examine, avec un brin d’ironie, un avenir où les designers seraient en mesure de cultiver les IA et de s’extraire des fantasmes technologiques. En quoi le design pourrait-il contribuer à une critique de la culture dominante de l’IA ? Comment inventer, par les pratiques de design, des alternatives soutenables ?

Archéologie des « notifications » numériques

Date

juin 2016

Type

Conférence

Contexte

Conférence donnée avec Saul Pandelakis au colloque scientifique « Archéologie des médias et écologies de l’attention », dir. Yves Citton, Emmanuel Guez, Martial Poirson et Gwenola Wagon, Cerisy-la-Salle. Cette conférence a été redifusée sur les sites Web de France Culture et de La Forge Numérique (MRSH de l’université de Caen – Normandie).

Résumé

Nous souhaitons examiner « le passage d’un modèle économique (de l’investissement) au modèle écologique (de la relation au milieu) ». Les programmes numériques peuvent-ils être ou devenir le lieu d’une écologie attentionnelle contribuant à une « écologie [plus large] de l’environnement artificiel » ? Comment concevoir, par le design, la place de l’attention humaine au sein des machines numériques ?

Écologie de l’attention et design des environnements numériques : vers une politique des filtres ?

Date

novembre 2017

Type

Conférence

Contexte

Communication dans le cadre du colloque scientifique « Écologies du numérique », Écolab / ESAD Orléans

Résumé

L’enjeu d’une écologie du numérique, d’un point de vue psychique, serait d’interroger la prétention des technologies à « solutionner » tous les problèmes du monde, alors même que nous faisons face à de multiples crises cognitives liées à la « captation » de l’attention, à savoir l’exploitation économique des comportements, des affects et des désirs. En tant que ces opérations se font en retrait de toute visibilité, il s’agit bien d’une question écologique, à savoir une disjonction entre un « milieu technique » et les acteurs qui y évoluent. Entre attention personnelle et attention collective, il s’agira ici de réfléchir à une pensée « en commun », et dès lors politique, d’une écologie du numérique.

Design sous artifice : la création au risque du machine learning

Date

mars 2023

Type

Contexte

Cet essai a été réalisé dans le cadre du projet de recherche « Design et machine learning : l’automatisation au pouvoir ? », financé par la HES-SO et conduit par Anthony Masure de 2022 à 2023 à la HEAD – Genève avec Alexia Mathieu, Douglas Edric Stanley, Élise Gay et Kévin Donnot. Site Web du projet : www.design-machine-learning.ch.

Résumé

Au début des années 2020, portés par les progrès des « intelligences artificielles », des programmes comme GPT-3, DALL·E, Midjourney ou Disco Diffusion permettent de générer des images à partir d’instructions textuelles. Bien que ces productions ne font souvent qu’imiter des données existantes et manquent de diversité, les débats médiatiques ont tendance à se polariser sur le remplacement des humains par la machine. Ce faisant, ils font écran à la question essentielle : quel est le spectre des implications actuelles et potentielles du machine learning pour les pratiques de design ?

Le design à l’ère des big tech : tactiques de résistance dans un écosystème globalisé

Date

décembre 2024

Type

Publication

Contexte

Entretien avec Florence Jamet-Pinkiewicz publié dans la revue Digital des étudiant·es de l’École Estienne en DSAA DCN, 2025, p. 77-84.

Résumé

Cet entretien revient sur les transformations du design à l’ère des grandes plateformes technologiques : évolution du rapport aux outils et aux IA génératives, enjeux de médiation des savoirs, projets de recherche-création (Play-to-Learn, Fucking Tech!, CryptoKit), et rôle politique et esthétique du design numérique.

Design des angles morts (promesses, limites, bifurcations)

Date

janvier 2023

Type

Publication

Contexte

Chapitre publié dans l’ouvrage collectif Angles morts du numérique ubiquitaire. Un glossaire critique et amoureux, Presses universitaires de Paris Nanterre, 2023.

Résumé

Parmi les ritournelles managériales qui rythment les sociétés occidentales, celle de la «  transformation numérique  » implique une vision linéaire et homogène (au singulier) de l’histoire des techniques  : il existerait ainsi un mouvement inéluctable, ou du moins souhaitable, consistant à numériser – c’est-à-dire à quantifier, calculer, mesurer – l’ensemble des activités humaines. Issue du champ économique, la «  transformation numérique  » est définie par le consultant Fred Cavazza comme désignant «  l’évolution du marché et des organisations qui cherchent à adapter leur offre, fonctionnement et pratiques aux enjeux du XXIe siècle  » (2021). Toujours selon lui, «  adapter les pratiques [signifie] mieux tirer parti des données (gouvernance, littératie, conformité, etc.), de l’IA (machine learning, deep learning, etc.) ou de l’automatisation (chatbots, assistants vocaux, RPA, etc.) ». Les «  enjeux du XXIe siècle  », quant à eux, sont «  liés à un quotidien sans contact, à une croissance économique nulle (ou du moins très faible en Europe), aux nombreuses crises et tensions (Gilets jaunes, Cancel Culture [sic.], etc.) » (Cavazza, 2021). Ces discours font apparaître en creux des tensions au sein de «  la  » transformation numérique. L’adhésion aveugle aux «  innovations  », qui se succèdent à un rythme de plus en plus rapide, se heurte à des mutations politiques et sociales qui déstabilisent leurs promesses de linéarité, d’efficacité et de rentabilité. Les technologies numériques, en tant qu’innovations, naissent en quelque sorte «  hors-sol  », sous un mode détaché des contingences et singularités humaines. Autrement dit, les discours économiques ne peuvent pas être transposés sans contradictions dans le champ social – ne serait-ce que pour savoir comment conjuguer transformation numérique et transition écologique. Plus encore, à rebours de l’idée éculée (et pourtant toujours présente) d’un progrès technique pour le plus grand nombre, la diversité des pratiques et l’analyse des discours font surgir des valeurs «  embarquées  » (embedded) au sein des programmes qui mettent en doute cette visée positiviste. Ce décalage entre usages (prescrits) et pratiques (libres) (De Certeau, 1990) est au cœur du design, que nous comprenons ici non pas comme une volonté d’adéquation entre les innovations et le marché, mais comme un «  cheminement dans les qualités formelles, structurelles et fonctionnelles de nos environnements  » (Masure, 2017). À l’époque des IA, l’idée d’une désautomatisation des modes de vie induits par l’industrie des programmes se repose de façon aiguë. Quels sont les angles morts du numérique que le design permet d’éclairer  ? À quels problèmes les technologies numériques sont-elles aveugles  ? En quoi les choix – ou non-choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer  ? L’émergence du design comme résistance à l’économie Pour étudier les angles morts du numérique, il faut tout d’abord préciser quel rôle le design peut jouer pour interroger ce qui semble aller de soi dans les environnements techniques. Nous proposons ici d’entendre sous le nom de design non pas, comme dans l’acception courante, un champ de conception et de production d’objets et de services, mais une mise en tension, voire une suspension, des attendus économiques de nos environnements techniques. Pour étudier ces questions, nous allons tout d’abord recourir à la figure de Karl Marx qui nommait «  la grande industrie » : «  Dans le système de machines, la grande industrie crée un organisme de production complètement objectif ou impersonnel, que l’ouvrier trouve là, dans l’atelier, comme la condition matérielle toute prête de son travail. [Marx, 1963, p.  930-931] » Si le design apparaît de façon conjointe aux différentes révolutions industrielles qui traversent l’Europe à la fin du XIXe siècle, il sera installé dans la modernité en faisant brèche avec l’artisanat, et plus précisément avec son imitation mécanisée et asservissante. Un des moments clés pour mettre en évidence cette visée est celui des Expositions universelles, dont les prouesses techniques sont des vitrines politiques pour les gouvernements. Lors de la première Great Exhibition of the Works of Industry of All Nations à Londres en 1851, l’ingénieur Michel Chevalier note ainsi, lyrique, que «  le grand principe de la division du travail, […] la force motrice de la civilisation, s’étend à toutes les branches de la science, de l’industrie et de l’art. […] Les distances qui séparent les peuples et les contrées de la Terre s’évanouissent chaque jour devant la puissance de l’esprit d’invention  » (1851, p.  36). À cette occasion, un des bâtiments principaux, le Crystal Palace de l’architecte Joseph Paxton, est construit en seulement six mois grâce à l’emploi novateur d’unités modulaires standardisées, préfabriquées en usine et montées sur place. L’édifice est gigantesque  : 563   m de long sur 268   m de large, pour une surface de 92   000   m². Il marque durablement les esprits et préfigure la production d’architecture de métal et de verre et la préfabrication du XXe siècle. «  Association des arts, des sciences et de l’industrie  », le Crystal Palace contraste pourtant avec les objets qui y sont exposés  : les chaises, cruches et autres tapis restent engoncés dans le vieux siècle, comme le fait remarquer l’historienne du design Alexandra Midal  : « [Les organisateurs des expositions universelles espéraient] que la machine permettrait d’alléger le travail, de multiplier les richesses et d’améliorer la vie de tous, d’apporter la paix et la fraternité entre les nations. [Mais] en plus de substituer au style et à l’ornementation artisanale celui de la machine […], les produits standardisés européens favorisent surtout le passé, l’ostentatoire, le goût bourgeois et l’imitation, telle cette cruche à eau ornementée dont l’anse associe une colonnade et des animaux… [2009, p.  37] » Plusieurs intellectuels britanniques, dont Henry Cole, à l’initiative d’une des premières occurrences du mot design (via son Journal of Design and Manufacture, 1849-1852), soutiennent, sans vouloir revenir à l’artisanat, que «  le degré d’industrialisation n’est pas plus une condition de culture que de savoir-vivre  » (Midal, 2009, p.  38). Le design naît d’un écart avec les conséquences d’une mécanisation aveugle  : il est donc erroné de le comprendre comme un simple accroissement des forces productives. Face à l’inertie mentale  : le design pour la vie Près d’un siècle plus tard, l’artiste et photographe László Moholy-Nagy explicite la compréhension d’un travail singulier avec les machines qui diffère de leur usage économique massifié. Moholy-Nagy prend ainsi l’exemple des assiettes faites au tour (dont la forme est peu adaptée aux lave-vaisselle) ou des poignées en plastique (qui reprennent, de façon mimétique, celles en fonte) : «  Beaucoup d’objets anciens sont l’expression directe de leur méthode artisanale de fabrication. Ils sont souvent copiés par les designers industriels, sans aucune raison valable. Il est vrai que plus un artisanat est ancien, plus la forme qu’il produit est difficile à modifier. […] L’expérience montre, cependant, qu’il est assez difficile de se dégager d’habitudes de pensée bien ancrées. [1947, p.  283] » À cette tendance à l’imitation qu’il qualifie d’«  inertie mentale  », Moholy-Nagy oppose une puissance d’invention qui manifeste des ruptures claires avec la tradition, tout en notant qu’il «  ne faut jamais perdre de vue que l’élément humain […] doit rester le critère essentiel d’évaluation du progrès technologique  » (1947, p.  283). Rédigés au tournant de la Seconde Guerre mondiale, ces propos font écho à l’époque contemporaine où les machines, cette fois numériques, placent les humains dans un paysage homogène où la place dédiée à la diversité et l’invention se réduit  : «  La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. [1947, p.  285] » La question se pose alors de savoir comment cette substitution s’articule à une redéfinition de l’humain, et comment les technologies peuvent être pluralisées, désorientées, réorientées dans d’autres directions que celles régies par «  l’inertie morale  ». S’appuyant sur Walter Benjamin et László Moholy-Nagy, le philosophe Pierre-Damien Huyghe défend que l’art et le design peuvent être compris comme des «  puissances de découverte des poussées techniques  » (2014) : le développement économique d’une technique ne suffit pas, loin s’en faut, à en épuiser les possibilités. À ces enjeux esthétiques s’ajoute un souci d’intelligibilité. Plus une technique est puissante et dominante, plus il est difficile de développer d’autres façons de faire, et plus cette technique génère de l’incompréhension et de l’opacité. Le scientifique Karl Sagan note ainsi que «  nous avons arrangé une société basée sur la science et la technologie dans laquelle personne ne comprend rien à la science et à la technologie. Ce mélange combustible d’ignorance et de pouvoir, tôt ou tard, va nous exploser au visage  » (1996). Pour combattre ces emprises, il est nécessaire de mettre en évidence ce à quoi les technologies sont aveugles, et en premier lieu les cécités qu’elles induisent en nous et contre nous. Laissées en attente voire délaissées, les «  nouvelles  » (et désormais déjà vieilles) techniques, celles de la computation, ont besoin d’être activées par ce que nous pourrions appeler un design non pas pour l’économie (qui s’économise, qui se retient), mais «  pour la vie  » (Moholy-Nagy, 1947). Les technologies numériques comme fabrique d’angles morts Tandis que la computation étend son influence à la plupart des activités humaines, la question est de savoir à quels problèmes le numérique est aveugle ou, plus précisément, d’identifier quels sont les angles morts et les limites de la programmation. Le sens de l’expression «  angle mort  », dans l’Encyclopédie de Diderot et D’Alembert (1778) est celui d’un «  angle rentrant, qui n’est point flanqué ou défendu  ». Par extension, l’angle mort renvoie à une «  zone inaccessible au champ de vision  » (Wikipedia). En conduite automobile, c’est une «  zone non couverte par le rétroviseur central et les rétroviseurs latéraux, qui nécessite un contrôle par vision directe (tourner la tête une fraction de seconde) » ou, dans le champ urbain, une «  zone non couverte par les caméras de surveillance  ». Au sens figuré, on dit d’un angle mort qu’il est une «  partie d’une question, d’un problème, pour laquelle l’esprit semble aveugle  ». Un «  design pour la vie  » serait ainsi une expérience de la bifurcation, de l’exploration, et non pas de la réduction ou de la modélisation aveugle. Pierre-Damien Huyghe formule en ce sens une compréhension du design éloignée de sa réduction à des enjeux de rentabilité : «  Je ne proposerai pas d’appeler design ce qui organise d’avance des usages ni ce qui induit des consommations ni ce qui assigne des comportements au règne de la marchandise, mais plutôt certaines recherches et attitudes qui permettent à un système de production d’hésiter. [2006] » Les questions du design pour la vie nous demandent en quoi les choix (ou non-choix) de conception des environnements numériques déterminent une zone dans laquelle il est difficile de bifurquer  : comment ce qui compte vraiment pour nous en tant qu’humain·es, c’est-à-dire ce qui peine à être mesuré, est-il laissé dans l’ombre  ? Quels sont les angles morts du numérique que le design permet d’éclairer  ? En quoi ces angles sont-ils «  morts  », et comment leur donner vie  ? Une méthode d’analyse Pour traiter ces questions et entrer dans des approches plus concrètes, nous proposons une méthode d’analyse des angles morts du numérique structurée autour de trois notions complémentaires  : promesses, limites et bifurcations. Celles-ci font écho à un autre texte dans lequel un des auteur·rices de ces lignes analyse une série de logiciels de création (Masure, 2020) pour faire émerger des chemins de traverse au sein de l’appareil industriel  : dans la lignée de l’archéologie des médias déconstruisant l’idée d’un progrès technique linéaire, il n’est pas dit que les généalogies des technologies basées sur l’efficience fonctionnelle et la rentabilité marchande soient les seules possibles. La notion de promesse, tout d’abord, renvoie aux discours entourant le développement commercial des programmes numériques. L’idéal du progrès technique a toujours ses zélotes  : selon elles et eux, malgré de nombreux accrocs, la technologie serait in fine porteuse de «  transformations  » sociales et économiques positives. Cette approche performative, voire incantatoire, est qualifiée par le chercheur Evgeny Morozov de «  solutionniste  » (2013) pour dénoncer l’absurdité des prétentions visant à réduire la politique à une affaire de «  logiciel » : des problèmes globaux comme l’écologie, la famine ou la pauvreté ne pourront pas être «  réglés  » par la technologie. De plus, les promesses énoncées par les grands groupes technologiques sont souvent utilisées comme paravent pour masquer des entorses au droit du travail, voire à la dignité humaine. Par exemple, l’annonce en 2016 par Amazon d’une division de livraison par drones entraîna de multiples réactions médiatiques et politiques (législatives) et fut rapidement suivie d’un discret désengagement commercial en interne. Pendant ce temps, cette initiative occupait le terrain médiatique et faisait écran à la triste réalité de l’entreprise. Dans un thread Twitter, le journaliste Cory Doctorow explicite cette stratégie  : «  Les entreprises technologiques promettent de réaliser des choses impossibles afin de cultiver une sorte d’aura mystique invoquée pour masquer l’horreur du monde réel. […] C’est le genre de choses que [l’auteur] Riley Quinn appelle le ‹  tintement de clés  › – une distraction pour les personnes peu au fait des technologies (et pour les ingénieurs qui ont la tête plongée dans leurs produits) pendant que les crimes quotidiens des entreprises sont commis sous notre nez. [2021] » Le concept de limite, ensuite, confronte les promesses des technologies à l’expérience du terrain. Les technologies numériques promettent beaucoup en raison du caractère invisible du code et de sa plasticité (capacité à être modifié), mais montrent leurs limites quand elles sont confrontées à la complexité du réel (Klein et al., 2013). Fonctionnant habituellement à partir de règles et de conditions, la programmation ne peut que difficilement «  comprendre  » les ambiguïtés des interactions sociales et la diversité d’un monde multiculturel  : genre, origine, classe sociale, etc. Outre le fait que les technologies reproduisent des discriminations déjà présentes dans la société, celles-ci sont amplifiées par le caractère homogène des développeurs informatiques et designers (masculins, aisés financièrement, etc.) et par des méthodologies de conception (UX et UI Design) fonctionnant à partir de scénarios d’usage et de personas (Masure, 2017, p.  73) – soit une schématisation de l’expérience humaine réduite à une suite de comportements, voire de stéréotypes. Sur un autre plan, il est instructif de comparer les emplois (prescrits) aux usages et pratiques (ouverts, libres, transmissibles). Dans un vocabulaire se rapprochant de celui de Michel de Certeau (1990), le philosophe Bernard Stiegler explicite cette distinction  : «  On ne va plus parler de pratiques des objets, c’est-à-dire de savoir-faire instrumentaux, mais d’usages des objets et d’utilisateurs ou d’usagers, en particulier pour les appareils et pour les services. Or, un objet que l’on pratique ouvre un champ de savoir-faire par lequel le praticien est lui-même transformé : ses savoir-faire, eux-mêmes ouverts de manière indéterminée et singulière, explorent des possibles. [2004] » La question se pose dès lors de savoir comment éclairer ce qui fait limite pour prendre conscience que toute promesse génère des angles morts. Le terme de bifurcation, enfin, renvoie à une compréhension non instrumentale des techniques. Une technique, comprise non pas en tant que moyen mais en tant que culture, peut être réorientée dans des directions plus soutenables que celles visant un rendement productif. Issue du domaine de la biologie, l’expression de bifurcation renvoie à «  la fourche produite par le développement d’une partie sur une autre, soit semblable, soit différente. Ainsi, le bourgeon forme une bifurcation avec le rameau qui le porte, celui-ci en forme une avec la branche qui lui a donné naissance  » (Dictionnaire TFLI). Dans le champ du logiciel libre, un fork (embranchement) désigne un nouveau programme créé à partir du code source d’un programme existant. La pratique du fork permet d’ajouter des fonctions non prévues initialement, de placer le code dans un nouveau contexte, etc. – autant d’adaptations à ce qui n’était pas écrit d’avance (pro-grammé). Dans un sens plus fondamental, la bifurcation peut être comprise comme une expérience existentielle, au sens où une vie ne devient une existence qu’à condition de pouvoir échapper à des conditions données (Huyghe, 2006). Dans un numéro spécial de la revue Multitudes intitulé Abécédaire des bifurcations et rédigé dans le contexte de la pandémie de la Covid-19, les auteur·rices se demandent quels sont «  les bifurcations, les effets de cliquet, les points de non-retour qui empêcheront demain de renaître comme hier  » et où se «  situe le lieu d’où peut s’élaborer l’alchimie de la transformation  » (Cora Novirus, 2020). D’une façon approchante, dans un essai rédigé en réaction à la multiplication des crises engendrées par un «  modèle de développement  » à bout de souffle et pourtant largement dominant, Bernard Stiegler (2020) s’interroge pour savoir comment «  bifurquer  » afin de tordre l’expression thatchérienne selon laquelle «  il n’y a pas d’alternative  » à l’économie capitaliste. Ces considérations permettent d’expliciter l’écart entre technique et économie  : l’absence d’alternative (TINA) n’est valable que pour qui ne croit pas à l’esthétique et pour qui ne fait que l’usage du monde dominant. Or, selon Pierre-Damien Huyghe, nombre d’exemples et contre-exemples dans le champ du design prouvent qu’il peut en aller autrement  : «  La réduction des possibles dans une époque donnée et l’uniformisation résultante des effets n’appartiennent […] pas par principe à la technique, mais à son économie. […] Elle ne va pas sans réserve. C’est justement la quête de cette sorte de réserve, et à son expression formelle, que le design historique s’est voué, quitte à mettre pour cela au monde des produits d’exception déliés des pratiques de masse a contrario recherchées par le mode économique d’exploitation et de domination de la puissance productive. [2013, p.  149-176] » À titre d’exemples, nous allons à présent examiner deux paradoxes mettant en jeu des limites de la programmation. Pour chacun d’entre eux, nous nous attacherons à situer la place qu’occupe le design vis-à-vis des technologies concernées  : vient-il déjouer leurs angles morts ou contribuer à les renforcer  ? En quoi des bifurcations potentielles ou avérées sont-elles souhaitables (et pour qui  ?) afin de ne pas retomber dans d’autres impasses  ? Paradoxe 1. Les templates promettent de la distinction mais ne produisent que du consensus visuel Promesse Un template (gabarit) est un modèle de mise en page de contenus visuels. Influencé par les designers László Moholy-Nagy et Jan Tschichold, Josef Müller-Brockmann comprend la grille comme une méthode universelle de structuration de l’information  : «  Dans mes créations […], la subjectivité est supprimée au profit d’une grille géométrique qui détermine l’arrangement des mots et des images. La grille est un système d’organisation qui rend le message plus facile à lire, cela vous permet d’obtenir un résultat efficace à un coût minimum. Avec une organisation arbitraire, le problème est résolu plus facilement, plus vite et mieux. Cela permet également une uniformité qui va au-delà des frontières nationales. [2017] » Les templates reprennent la logique de la grille, mais à une échelle bien plus vaste  : celle des logiciels, du Web, et des applications. Ils peuvent à la fois être mobilisés pour définir l’ergonomie d’une interface en recourant à des codes visuels éprouvés (placement du logo, des menus, etc.), et/ou être inclus dans des logiciels comme base de travail (par exemple  : gabarits PowerPoint, Word, Photoshop). Grâce aux templates, n’importe qui (grand public, commanditaire, etc.) peut créer à son image, maîtriser le rendu visuel de ses contenus et opérer des mises à jour sans intermédiaire (Mineur, 2007). Limite Avec les templates, remarque le designer Étienne Mineur, «  les graphistes doivent […] abandonner une partie de leur pouvoir et responsabilité au règne du graphisme papier  » (2007) consistant à maîtriser le processus et la forme de A à Z. Selon lui, deux attitudes sont possibles  : refuser de laisser le contrôle formel aux technologies et rester sur les supports imprimés, ou se rapprocher du design industriel pour embrasser la création d’outils et l’ergonomie. Près de quinze ans après ces propos, force est de constater que les programmes sont de moins en moins des outils – de «  simples prolongements d’outils manuels  » (Moholy-Nagy, 1947, p.  285) –, et de plus en plus des dispositifs techniques complexes qui ne laissent que peu de prises aux designers. L’autonomisation des commanditaires par les templates s’est accélérée, et les compétences nécessaires à leur conception échappent pour une grande part aux designers, car la barrière technique et économique est de plus en plus haute. La concentration de la valeur au sein d’un petit nombre d’acteurs, les Gafam et leurs avatars asiatiques, opère un renversement du processus créatif avec lequel le code n’est plus une matière à modeler mais une loi à laquelle se conformer. Le design d’interfaces (UX/UI) ne consiste bien souvent qu’à appliquer des procédures visuelles (Teslert & Espinosa, 1997) : des design systems, comme le Material Design (Google, 2014) ou les Human Interface Guidelines (Apple), régissent les interfaces des applications mobiles, car le non-respect de ces consignes menace leur validation dans les app stores (magasins d’applications distribuées par Apple). Plus largement, la multiplication des systèmes de gestion de contenus (CMS), des terminaux, des formats d’écran et des territoires géographiques (Asie, Amérique du Sud, Afrique, etc.) incite les industriels à penser avant tout en termes de distribution et de standardisation. La promesse de singularité des «  expériences  » bute sur une homogénéisation du réel et engendre une «  globalisation esthétique  » (Masure, 2020) : une même interface peut être indifféremment utilisée pour une campagne médicale, un site de voyage, un musée. Plus inquiétant encore, malgré la pauvreté esthétique des templates, ces derniers, de par leur efficacité, tendent à surpasser beaucoup de designers. Dès les premières années du développement de la «  publication assistée par ordinateur  » (PAO), l’artiste et designer John Maeda entrevoyait les conséquences professionnelles des logiciels dits de création  : «  Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers ne définissent plus la culture  ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media [1991], le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile  : ‹  Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté. › [1995] » Quelle est, dès lors, la valeur de ce dernier  ? Bifurcation Étienne Mineur soutient que les designers peuvent repenser leurs pratiques au profit de compétences plus stratégiques. Une autre voie est possible pour que l’attention humaine puisse s’attacher à du non-prescrit  : il s’agit ici d’avérer les effets de standardisation des environnements et modes de vie pour éclairer ce qui n’entre pas dans ce cadre (les angles morts). Plusieurs initiatives ont mis en évidence les grilles tapies derrière les programmes, tels que les projets Safebook (Grosser, 2018), clickHere (Retzepi, 2020), ou les modules «  par défaut  » des systèmes d’information, avec des initiatives comme Reproduction générale (Jacquet, 2003) ou My%Desktop (Heemskerk & Paesmans/JODI, 2002). Un axe complémentaire consiste à révéler les valeurs embarquées dans les interfaces. Matthew Fuller, chercheur en Cultural Studies, propose ainsi de comprendre les templates sous l’angle de la notion de franchise  : «  Les modèles [templates] et exemples que l’utilisateur peut éditer pour créer ses propres documents – tels que ‹  fax élégant  ›, ‹  fax contemporain  ›, ‹  lettre formelle  › ou ‹  mémo  › – attestent que la falsification est la forme de base du document produit dans les bureaux contemporains. [2000] » À l’époque contemporaine, marquée par les problématiques de circulation et la collecte des données personnelles, les templates prennent un nouveau relief. Sous couvert de neutralité, ces derniers annihilent le sens critique et font passer à couvert des procédures suspectes. La designeuse Kelli Retzepi, dans TheRealFacebook (Retzepi, 2018), propose ainsi un redesign de Facebook en gardant la même interface mais en changeant tous les textes (titres, libellés, etc.) pour les rendre conformes aux «  vrais  » objectifs de Facebook. « Connect with friends and the world around you on Facebook », par exemple, devient « This whole thing started as a website that rated who is a hotter Harvard undergrad », et « Sign up.  It’s free and always will be » est remplacé par « Give us your data. We are definitely using it to profit »1 «  Entrez en connexion avec des amis et avec le monde autour de vous grâce à Facebook  » devient «  Tout ce truc a commencé comme un site web classant qui étaient les étudiant·es les plus sexy de Harvard  ». Ou «  Inscrivez-vous. C’est gratuit et ça le sera toujours  » est remplacé par «  Donnez-nous vos data. Nous comptons bien les mettre à profit  ».. Paradoxe 2. La création par le truchement des IA participe souvent d’une logique réactionnaire Promesse Formulée à la fin de la Seconde Guerre mondiale, l’idée d’une «  intelligence  » machinique susceptible de se substituer au cerveau humain (Turing, 1995) a connu de multiples modalités techniques, que l’on peut résumer en deux courants  : les technologies «  symboliques  » se fondent sur la délimitation de règles préalables, tandis que celles «  connexionnistes  » (neuronales) impliquent des jeux de données (datasets) en entrée et sortie pour que la machine puisse générer un programme permettant d’aboutir au résultat souhaité. Au tournant des années 2010, l’approche neuronale, et plus précisément celle du deep learning, prouve sa supériorité fonctionnelle pour la reconnaissance d’images et pour le tri d’informations (spams, etc.). Les technologies du deep learning investissent depuis quelques années les industries créatives  : l’entreprise Zalando travaille avec Google depuis 2016 pour prédire les tendances de la mode grâce au machine learning, et des services comme TheGrid.io (2016), WixAI (2016) ou Adobe Sensei (2016) visent à faciliter voire à automatiser la mise en page de sites web et la retouche d’images. Grâce au deep learning, la tension entre la conception (l’idéation) et la production n’a plus lieu d’être  : des programmes «  intelligents  » prennent en charge la commande sans aléas humains pour produire la «  solution  » optimale. Limite Les technologies du deep learning prétendent annuler la zone d’incertitude entre conception et production en synthétisant des jeux de données (projets de design, œuvres d’art, etc.) majoritairement agrégées sur le Web. On touche ici à la distinction entre «  création  » (vision romantique d’une mise au monde ex nihilo, dégagée des contingences matérielles) et «  production  » (attention portée aux modalités techniques et rapports sociaux) : «  Au moment où l’Ancien régime se défait, où se déploie la révolution industrielle, les artistes revendiquent […] le terme de ‹  création  › – une notion […] issue du dogme biblique de la genèse – pour signifier leur souveraine sensibilité, leur libre vouloir et établir l’art comme champ autonome parmi les activités humaines. [Menghini, 2021] » À cette tradition s’oppose la pensée «  matérialiste  » développée par des philosophes comme Karl Marx ou Walter Benjamin, pour qui il est crucial d’examiner les médiations permettant à l’art (et par extension au design) d’exister pour mieux saisir son potentiel émancipatoire. Dans son essai L’artiste comme producteur, Walter Benjamin cherche à savoir non pas seulement «  quelle est la position d’une œuvre littéraire à l’égard des rapports de production de l’époque [mais, avant tout,] quelle est sa place dans ces mêmes rapports  ». Il s’agit pour lui d’«  indiquer la différence essentielle qui existe entre le simple approvisionnement d’un appareil de production et sa transformation  » (1969, p.  110, 117). De tels propos sont précieux pour mettre en exergue les limites des technologies du deep learning, dont la séduction tient à leur caractère magique (algorithmique) et tout puissant  : structurellement basées sur des jeux de données (du passé), ces «  intelligences  » ne peuvent qu’approvisionner l’appareil de production sans jamais pouvoir le transformer. Autrement dit, et pour rester dans le vocabulaire de Benjamin, elles sont «  réactionnaires  » et non pas «  révolutionnaires  ». Il est par exemple aisé de comprendre que si une IA peut reproduire (créer) un tableau à la façon de Rembrandt (Microsoft, The Next Rembrandt, 2018) – sans efforts apparents, et sans que la technique ne soit vraiment une question –, elle aura beaucoup plus de difficultés à inventer non pas seulement un paradigme pictorial aussi fort que Rembrandt, mais aussi de nouvelles formes d’expression dépassant les catégories habituelles (peinture à l’huile, musique électronique, interface de site web de e-commerce, etc.). Bifurcation Walter Benjamin nous donne des pistes de travail pour que les technologies du deep learning puissent produire, et pas seulement reproduire. «  La notion de technique représente l’élément dialectique initial à partir duquel l’opposition stérile de la forme et du fond peut être surmontée  » (1969, p.  110). Un des problèmes majeurs de l’implémentation des IA au sein des services mentionnés plus haut (Adobe Sensei, etc.) est que la technique disparaît derrière les interfaces annoncées comme «  conviviales  ». Pour bifurquer de ces logiques, il faut en premier lieu réinvestir la technique – ce qui ne va pas de soi dans le cas du deep learning, qui nécessite de constituer des jeux de données puis de les traiter avec une puissance de calcul importante et avec des programmes à l’élaboration complexe. On pourrait tout d’abord surmonter ces écueils en disséquant les couches techniques logicielles et matérielles des IA, comme l’ont fait les chercheur·es Kate Crawford et Vladan Joler (2018) à propos de l’enceinte connectée Amazon Echo – travail qui mériterait d’être prolongé en analysant les strates pouvant être réinvesties. Une autre approche consiste à ne plus envisager les IA comme des machines de création (détachées symboliquement des contingences matérielles) mais comme des étapes de production. On pourrait par exemple utiliser le deep learning pour analyser des amorces d’idées et les comparer à l’existant, dans une stratégie d’aide à la décision et non pas d’imitation. Il faut aussi garder en tête que le deep learning n’est qu’une facette du champ bien plus vaste des IA, et que plusieurs époques techniques peuvent cohabiter au sein d’un même projet. Un workshop à la HEAD (Haute école d’art et de design de Genève), coordonné par Alexia Mathieu, Jürg Lehni et Douglas Edric Stanley (Thinking Machines, 2020), a ainsi mélangé des procédures neuronales à des règles préétablies pour élaborer un générateur de contes illustrés et imprimés. L’artiste Nicolas Maigret propose pour sa part un Predictive Art Bot décrit comme «  un algorithme qui utilise les discours actuellement tenus sur l’art comme une base de données générant automatiquement des concepts de projets artistiques et, parfois, des prédictions d’absurdes trajectoires futures pour l’art  » (2017). De tels processus laissent entrevoir ce que pourrait être le studio de design du futur  : moins un lieu où élaborer des «  solutions  » et des formes closes qu’un laboratoire où mélanger et faire bifurquer des techniques et des projets. Conclusion. Pour une bifurcation des techniques De l’examen de ces deux paradoxes, nous pouvons à présent esquisser des éléments de réponse à la problématique posée en introduction, à savoir quels sont les angles morts du numérique que le design permet d’éclairer, pour poser que ces derniers sont à chercher dans une compréhension de la technique comme moyen, dans un souci d’efficience et de scalabilité (d’extension à la plus grande échelle possible). Comme nous l’avons vu avec l’exemple des expositions universelles, une lecture des textes et querelles liées à l’émergence du design situe son intérêt non pas comme un gain de productivité, mais comme une bifurcation face à la perte de qualité entraînée par l’automatisation du dispositif industriel. Ce détour par le design permet de mieux comprendre l’articulation des technologies à une quête de rendement productif, puisqu’une bonne partie des productions industrielles (objets, industries des programmes, etc.) participe de cette logique. À ce design des angles morts, nous opposons un design «  pour la vie  », qui travaille pour nous en tant qu’êtres humain·es, c’est-à-dire en tant qu’entités non déterminées d’avance. Autrement dit, un «  design pour la vie  » serait ce qui éclaire les angles morts de l’industrie pour chercher ce qui nécessite d’être investi et réorienté. De façon approchante à Walter Benjamin qui invite à penser l’esthétique comme une façon d’articuler technique et politique, le designer Ezio Manzini, dans un essai sur «  l’écologie de l’artificiel  », ouvre une réflexion sur la «  qualité » (et non pas la quantité) des environnements  : «  Il s’agit de penser la technique comme un système devant lequel il ne faut jamais baisser pavillon et savoir rester critique, mais aussi comme une gigantesque mine de ressources et de potentialités. C’est là qu’il faut puiser pour imaginer de nouvelles qualités. [1991, p.  53] » Finalement, c’est bien en déniant au design sa part esthétique que l’économie des techniques engendre son lot de limites. En réinvestissant la technique comme un questionnement, les limites de la programmation deviennent autant d’occasions de bifurcations.

La HEAD décrypte le numérique

Date

juin 2023

Type

Publication

Contexte

Anthony Masure, Aurélie Gfeller, « La HEAD décrypte le numérique », Go Out!, no 111, juin 2023, p. 43-45

Résumé

Le numérique est au coeur des entreprises et de notre quotidien. Il se met au service de tous les secteurs d’activités  : la finance, l’industrie, les télécommunications, le commerce, la sécurité mais aussi l’aide à la personne, l’éducation, le sport, la musique, etc. Normal que les formations autour de ces fluctuations digitales fleurissent. Ainsi, dès le 10 juillet prochain, c’est la Haute école d’art et de design (HEAD) qui s’enrichit d’une nouvelle formation continue unique en son genre autour de la transition numérique sous forme de 8 modules courts en dialogue les uns avec les autres. De quoi booster sa carrière et sa créativité ! Tête-à-tête avec deux grands experts de la pédagogie et du numérique, et créateurs de ce nouveau cycle de formation  : Aurélie Gfeller et Anthony Masure. Pourriez-vous nous parler de ce nouveau cycle de formation sur la transition numérique? Pourquoi ce nouveau cursus  ? Anthony Masure (AM) – Avec les récentes vagues de transformations numériques, le monde a changé : on est passé de logiciels plus ou moins spécialisés à des environnements où il est de plus en plus difficile de s’orienter et pour lesquels on a plus que jamais besoin de repères. Les artistes et designers ont toujours été précurseurs des usages et détournements des technologies  ; c’est pourquoi nous pensons que la HEAD – Genève a un rôle à jouer dans la compréhension des mutations contemporaines  ! Aurélie Gfeller (AG) - Dans un monde où l’accélération des changements technologiques entraîne la disparition de certains métiers tout en en créant d’autres, les professionnels, qu’ils soient aguerris ou fraîchement diplômés, doivent constamment renouveler leur palette de connaissances et de compétences. Le temps leur manque cependant pour s’engager dans une formation de longue durée. Avec ces modules de 8 à 10 demi-journées, susceptibles de s’insérer à terme dans un CAS (Certicate of Advanced Studies), nous souhaitions proposer une formule aisément accessible, aussi bien en termes de coût (CHF 1’200.- par formation) que d’investissement personnel. Quelles sont vos fonctions respectives au sein de cette formation, et qu’est-ce qui vous a plus dans cette dernière  ? AM - Je suis responsable de la recherche et professeur associé à la HEAD, avec un focus personnel sur le design et les technologies. Avec Aurélie Gfeller, nous sommes convaincus que le numérique offre un terrain de jeu à même d’intéresser un public élargi. Nous avons imaginé ce cycle de formations comme une initiation à un ensemble de champs qui sont en train de modifier de nombreuses professions. J’interviendrai également dans les modules « Web3 Basics » et « Web-to-Print », avec dans les deux cas une promesse de nouvelles expressions créatives et d’opportunités économiques. AEG - Je suis responsable des études et professeure associée à la HEAD – Genève. À ce titre, je coordonne nos 15 formations Bachelor et Master. À mon entrée en fonction en octobre 2021, il m’est d’emblée apparu évident que la HEAD – Genève avait une carte à jouer au niveau de la formation continue, destinée à des professionnels en emploi. Nos concours d’admission Bachelor et Master étant très sélectifs, la HEAD donne parfois l’impression d’être inaccessible. Nous souhaitions montrer que cette école genevoise, de renommée internationale, pourrait aussi s’ouvrir à un public plus large, basé essentiellement à Genève et en Suisse romande. À qui est-elle destinée  ? AM - Nous avons pour ambition d’intéresser, via les moyens de l’art et du design, un public plus large que les métiers de la création, et qui puisse y trouver une voie d’accès ouverte et prospective. Toute personne concernée par l’avenir des métiers de la culture, au sens large, et ceux de la communication peut ainsi se sentir concernée. Qui sont les intervenants experts sur l’AI conviés à y participer  ? AM - Ce module associe deux enseignants de la HEAD– Genève experts de ces technologies en plein essor  : Etienne Mineur, designer d’interactions et cofondateur de l’entreprise Volumique, et Douglas Edric Stanley, artiste, designer, curateur, développeur et théoricien, qui tous deux travaillent sur ces enjeux depuis déjà plusieurs années. Ensemble, ils couvriront à la fois l’histoire culturelle des IA et aussi leur prise en main pratique, depuis des services grand public comme Chat GPT ou Midjourney jusqu’à des alternatives plus ouvertes. AEG - La thématique mais aussi la notoriété des intervenants ont d’emblée suscité un grand engouement. La session de l’été 2023 sur l’intelligence artificielle a été complète à peine ouverte. Nous prévoyons ainsi de proposer une nouvelle session avec les mêmes intervenants début 2024. Comment sont composés les 8 modules du programme? Y a-t-il des pré-requis à ces derniers  ? AM - Chaque module dure de 4 à 5 jours et la plupart du temps aucun prérequis n’est exigé. Nous accordons une grande place à l’accessibilité des informations transmises, avec un soin particulier porté aux supports de cours et documents fournis, dont certains ont fait l’objet de recherches spécifique – comme pour le module sur la blockchain qui se base sur un guide visuel de ces technologies et qui a été inventé à la HEAD. Qu’y apprend t-on concrètement? Que peut-on attendre à la fin de cette formation  ? AM - Des thématiques comme les intelligences artificielles, les environnements 3D, la blockchain ou le web-to-print sont autant de mutations profondes actuelles et potentielles des métiers de la culture. Avec ce cycle de formation continue, nous permettrons au public d’être acteur des transformations de sa profession plutôt que de subir des vagues d’innovation toujours plus rapides. AEG - Si l’on entre dans le détail de chaque formation, les participants à la formation «  Modélisation d’expositions en 3D » (juillet 2023) – artistes, curateurs, scénographes, régisseurs, monteurs, responsables d’institutions, conservateurs ou encore commissaires d’exposition – apprendront à utiliser un programme (SketchUp) afin de traduire une idée dans un plan 3D ou de modéliser des oeuvres dans différents espaces. Ils deviendront dès lors capables de comprendre la plus-value et les limites de ces modes de représentation et de les utiliser de manière pertinente pour offrir au public une expérience convaincante. La formation « Web3 basics » (septembre-octobre 2023), quant à elle, prend du recul sur la mode des NFT et donne des clés de compréhension aux métiers de la culture pour fédérer de nouvelles communautés et des modèles économiques plus redistributifs.

L’éclaireur des interstices technologiques : hommage à Nicolas Nova (1977-2024)

Date

juin 2025

Type

Publication

Contexte

Article co-écrit avec Alexia Mathieu, publié dans Sciences du Design, no 21, 2025/1, p. 12-22. Reprise d’un texte publié dans les revues ISSUE et AOC.

Résumé

Cet article rend hommage à Nicolas Nova (1977-2024), professeur à la HEAD – Genève (HES-SO), disparu lors d’un trek au Sultanat d’Oman. Précurseur d’études croisant design, sciences sociales et technologies, ce chercheur inclassable explorait les imaginaires, interstices et paradoxes des objets numériques, examinant les tensions entre standardisation industrielle et réappropriations situées. Co-fondateur du Near Future Laboratory, il renouvelait les récits technologiques par la pratique du « design fiction ». Pédagogue inspirant, il transmettait à ses étudiants un regard ethnographique, transformant l’observation du quotidien en levier de création. Le soin accordé à la forme de ses ouvrages incarnait sa capacité à tracer des ponts entre recherche académique, pratiques de design et société civile. Auteur d’une vingtaine d’ouvrages, Nicolas Nova laisse une œuvre protéiforme. Son absence prive la critique technologique d’une voix essentielle, lucide, curieuse et poétique.

Archéologie des notifications numériques

Date

avril 2019

Type

Publication

Contexte

Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)

Résumé

La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?

Personnes citées

Transhumanisme et traces d’humanité

Date

décembre 2020

Type

Publication

Contexte

Propos récoltés par Loven Bensimon pour Conforme Magazine et rédigés par Anthony Masure le 1er avril 2020 à Paris.

Résumé

Conforme Magazine  : Le transhumanisme est-il notre futur ou est-il déjà d’actualité ? Anthony Masure : Le transhumanisme, qui ne se développe vraiment qu’à partir des années 1980, est un mouvement de pensée complexe et aux ramifications multiples. Il y a un écart entre la réparation et l’augmentation, à savoir le développement de facultés qui dépassent les contraintes biologiques. Mais cette distinction peut rapidement être remise en cause, comme par exemple dans le cas du traitement des maladies génétiques, où l’on pourrait facilement imaginer que seul un groupe social aisé aurait les moyens d’être immunisé à certaines pathologies. Mais ce scénario ne ferait que renforcer les actuelles différences d’accès aux soins, à l’éducation, et aux inventions techniques. De façon plus générale, si l’on entend par transhumanisme la volonté de transcender une condition initiale, alors l’humain a toujours été plus qu’humain, pour reprendre le mot de Nietzsche, c’est-à-dire toujours tiré en dehors de lui même. Autrement dit, il n’est pas possible de séparer l’humain du fait technique  ! Comme le note la philosophe Donna Haraway, nous vivons déjà dans une société cyborg 1 Donna Haraway, «  Manifeste Cyborg. Science, technologie et féminisme socialiste à la fin du XXe siècle  » [1985], dans  : Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes [1985–1997], trad. de l’anglais par Denis Petit en collaboration avec Nathalie Magnan, Paris, Exils, 2007. : le cyborg n’est pas une autre ontologie, il est «  notre ontologie  ». Cette figure permet à Haraway de renverser les oppositions homme / femme / machine et les dynamiques capitalistes  : il est possible de réinvestir politiquement le présent pour montrer que ce dernier ne détermine mécaniquement pas le futur. L’enjeu n’est donc pas de s’opposer frontalement au transhumanisme, mais d’explorer des zones de perméabilité, d’en faire un «  système d’information polymorphe  » (Haraway). Lisa Thieffry pour Conforme magazine Conforme Magazine  : L’humain, maître et possesseur de la nature se croit-il tout permis  ? Il y a-t-il des écueils à cet hubris  ? Peut-il y avoir des conséquences néfastes  ? Anthony Masure : Ce n’est pas parce quelque chose est possible qu’il faut à tout pris l’explorer. De la même façon, ce qui est légal n’est pas forcément moral. Se pose alors la question de savoir sur quels critères juger de qui est ou non souhaitable, et à qui cela incombe  : politiques, juristes, designers, scientifiques, société civile, etc. Selon le philosophe Vilém Flusser, la question est épineuse car les technologies numériques (les «  appareils  ») et les biotechnologies font voler en éclat les anciennes catégories de pensée  : «  L’abandon des critères traditionnels implique l’abandon non seulement de la tradition occidentale, mais de tout humanisme. Et cela, nous ne sommes pas prêts à le faire, et nous avons de très bonnes raisons pour le refuser. C’est pourquoi notre faculté critique face à la culture inhumaine émergente est en crise par manque de critères 2 Vilém Flusser, «  Critique, Critères, Crise  » [texte inédit, 1984], reproduit dans  : Multitudes, n o  74, dossier «  Vilém Flusser  : vivre dans les programmes  », dir. Yves Citton et Anthony Masure, avril 2019, p.  216, https://www.cairn.info/revue-multitudes-2019-1-page-212.htm. ». Les conséquences néfastes d’un déploiement toujours plus important du «  programme occidental  » ne pourront être évitées qu’à condition de sortir de la binarité humain / nature et de déployer de nouveaux critères de lecture du monde, ce à quoi nous invite Haraway dans un texte écrit à la même époque que Flusser  : «  Avec les machines de la fin du XXe siècle, les distinctions entre naturel et artificiel, corps et esprit, autodéveloppement et création externe, et tant d’autres qui permettaient d’opposer les organismes aux machines, sont devenues très vagues. Nos machines sont étrangement vivantes, et nous, nous sommes épouvantablement inertes 3 Donna Haraway, op.  cit.. » Conforme Magazine  : Ces progrès technologiques sont-ils à même de venir en aide à nos sociétés (évolutions médicales, création de viande, alternatives énergétiques écologiques, etc.) ? Anthony Masure : Tout dépend ce que l’on entend par «  nos sociétés  » (ce qui sous-entend une réponse orientée vers l’occident) et par «  aide » : que ou qui faut-il aider, et pourquoi  ? Si l’on prend par exemple le cas de la viande «  de synthèse  » produite à partir de protéines végétales, même si le gain énergétique et moral semble probant, on reste tout de même dans une logique de culte symbolique de la viande et dans de la nourriture industrialisée. Il ne faudrait pas que cette étape de transition se transforme en point final  : les repas végétariens ne se réduisent pas à du «  sans viande  », et leur intérêt est justement d’explorer d’autres saveurs. De plus, avec de tels procédés, on rejoue un vieux débat dans l’histoire de l’art et du design, à savoir l’imitation de la tradition (d’anciennes formes) par des inventions techniques. C’était par exemple le cas des débuts de la photographie, où l’enjeu était d’imiter la peinture. Or la photographie comme art n’a pu se développer qu’en s’écartant d’une telle approche. Est-ce qu’avec la viande de synthèse ou avec des énergies «  alternatives  » (et non pas pensées de façon autonome) on n’est pas en train de faire de même  ? Jusqu’à quelle point ces progrès «  béquilles  » ne viennent-ils pas contrecarrer l’émergence d’un nouveau pleinement neuf et de nouvelles saveurs  ? Conforme Magazine  : Le progrès entre de mauvaises mains représente-t-il un danger pour notre démocratie  ? Anthony Masure : Dans les sociétés dites développées, le progrès technique va souvent de pair avec l’automatisation, c’est-à-dire avec la recherche d’un rendement toujours plus efficace. Cette tendance n’est pas forcément à rejeter en bloc, car il y a des tâches qu’il vaut mieux confier à des machines. Mais, à un certain moment, cette décharge de capacités cognitives à des machines engage une perte de la notion de responsabilité : plus personne ne se sent responsable de rien, ce qui entraîne un affaiblissement du sens moral et donc de la démocratie. Mais les démocraties représentatives n’échappent pas à cet écueil  : trop souvent on attend des dirigeant·e·s politiques qu’ils·elles prennent des décisions à notre place, alors que le sens moral doit précisément être partagé. Le «  devenir-fonctionnaire  » des êtres humains (c’est-à-dire la réduction des personnes à des entités ne pouvant que fonctionner et appliquer des ordres) nous guette  : les réponses ne pourront être que collectives. Il me semble de plus en plus urgent de penser ce que pourrait être un «  design de la responsabilité ». Conforme Magazine  : L’intelligence artificielle  : outil démocratique ou dictatorial  ? Anthony Masure : Je ne pense pas que les techniques (et par extensions les technologies) doivent être pensées comme des outils, mais plutôt comme des polarités plus ou moins ouvertes et pouvant faire l’objet de bifurcations (ce qui pourrait être l’enjeu de l’art et du design). Dès lors, il faut moins penser en terme d’intelligences artificielle (IA) au singulier que d’intelligences artificielles au pluriel. En effet, l’histoire de ce champ fait apparaître des profondes controverses entre différentes méthodes, dont ne rend pas compte l’actuelle hégémonie du deep learning («  apprentissage profond  »). Le deep learning ne fonctionne pas sous la forme de règles écrites à l’avance (comme dans la cas de la programmation traditionnelle), mais via élaboration du traitement de l’information par la machine, qui élabore en quelque sorte par elle-même l’écriture du programme. Il en résulte des programmes d’un nouveau type, des «  boîtes noires 4 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, n o  80, «  L’intelligence artificielle  : enjeux éthiques et politiques  », dir. Vanessa Nurock, décembre 2019, p.  31–46. » incompréhensibles par des êtres humains, ce qui renvoie à la perte de responsabilité que j’évoquais précédemment. On voit mal comment faire «  bifurquer  » de tels codes, de la même façon que l’on n’imaginerait pas qu’une centrale nucléaire fonctionne en autogestion, dans une logique de démocratie locale. Il faut donc moins s’inquiéter d’un usage dictatorial des IA que du fait que ce qui est singulier et désarmant avec celles du deep learning, c’est précisément qu’elles n’ont pas d’intentionnalité ! Nous devrons apprendre à composer avec des entités potentiellement autonomes, pour lesquelles les concepts de maîtrise, contrôle, liberté, etc., ne sont pas vraiment signifiants. Laurence Revol Conforme Magazine  : Il y a-t-il des inégalités face au transhumanisme et au progrès technologique  ? Si oui, peuvent-il être pensés comme égalitaires dans une société capitaliste  ? Anthony Masure : Tout progrès technique charrie son lot de nouvelles catastrophes. Comme l’indiquait le philosophe Paul Virilio  : «  Airbus, en inventant un avion de 800 places, créé 800 morts potentiels  » 5 Paul Virilio, «  Le krach actuel représente l’accident intégral par excellence  », propos recueillis par Gérard Courtois et Michel Guerrin, Le Monde, 18 octobre 2008, https://www.lemonde.fr/idees/article/2008/10/18/le-krach-actuel-represente-l-accident-integral-par-excellence_1108473_3232.html. Cela ne veut pas dire qu’il faut tous se réfugier dans le Larzac, mais plutôt d’intégrer que l’« accident intégral  » est au cœur de sociétés capitalistes, dont la logique consiste à concentrer toujours plus de richesses et de pouvoir. Il s’agit donc d’œuvrer à décentrer ces points d’ancrage, de faire de la monoculture technique une «  permaculture  » – qui considère la coexistence de différents écosystèmes comme un préalable à une reconfiguration sociale. Dès lors, un des enjeux du design, dans une dimension critique, serait non pas de renforcer les lieux de pouvoir mais de faire place à d’autres voies et d’autres voix. Si l’on reprend le cas des intelligences artificielles, celles-ci n’ont pas pour fatalité d’être mobilisées sous l’angle de la volonté de puissance. En les considérant dans une optique élargie, au-delà du deep learning, celles-ci peuvent faire l’objet de reconfigurations esthétiques, c’est-à-dire devenir des prismes permettant de révéler et d’activer ce qui était déjà là parmi nous, comme délaissé. C’est quelque chose que nous travaillons à la HEAD – Genève 6 Jürg Lehni, Douglas Edric Stanley, «  Pour un design alternatif de l’IA ? », propos recueillis par Anthony Masure, Multitudes, n o  79, dossier «  Cultivons nos IA », https://www.cairn.info/revue-multitudes-2020-1.htm. Cet article fait suite à un workshop initié par Alexia Mathieu au sein du Master Media Design de la HEAD – Genève au 1er semestre 2019–2020., en hybridant différentes époques techniques des IA et en faisant dialoguer des programmes «  traditionnels  » et auto-apprenants. Le champ du design montre ainsi qu’il est possible de «  cultiver  » les IA et de les emmener dans des directions insoupçonnées. Casser les monopoles capitalistes à l’endroit des logiciels (et donc des méthodes) de création – en l’occurrence Adobe – est un préalable à toute démarche de ce type. Conforme Magazine  : Dans un entretien 7 Hans Jonas, «  Les machines ne pourront jamais avoir une conscience  », entretien avec Norbert Lossau, Die Welt, 29 novembre 1991., le philosophe Hans Jonas affirme  : «  prétendre que, outre l’exécution des tâches, l’automate puisse lui-même devenir vivant, acquérir une âme et qu’il puisse désormais en vertu de sa propre volonté, nous donner du fil à retordre, n’est que pure spéculation  ». Qu’en pensez-vous  ? Une machine peut-elle penser  ? Anthony Masure : Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Publié en 1945 par l’ingénieur Vannevar Bush, l’article propédeutique «  As we may think 8 Vannevar Bush, «  Comme nous pourrions penser  » [«  As we may think  », The Atlantic Monthly, vol.  176, n o  1, juillet 1945, p.  101–108], trad. de l’anglais (États-Unis) par Anthony Masure, dans  : Le design des programmes, des façons de faire du numérique, doctorat en esthétique (spécialité design) sous la direction de Pierre-Damien Huyghe, université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques et Sciences de l’Art, 2014, http://www.softphd.com/these/traduction/vannevar-bush-as-we-may-think.php. » («  Comme nous pourrions penser  ») envisage que les appareils de calcul puissent augmenter les capacités intellectuelles afin d’éviter que l’humanité ne replonge dans un conflit meurtrier  : l’informatique balbutiante pourrait servir à partager les connaissances, et non pas développer l’économie. Dans cette optique, la délégation d’opérations intellectuelles aux machines n’a pas vocation de remplacer mécaniquement les humains, mais pourrait permettre – à extrapoler Vannevar Bush – de les «  déprogrammer  » de tâches fastidieuses. En associant la notion de création aux processus de sélection et non pas au traitement répétitif d’informations, Bush s’écarte de la vision du mathématicien Alan Turing. Selon Turing, la pensée humaine, et plus précisément sa part d’intelligence, serait susceptible d’être non pas augmentée, mais «  imitée  » par une machine 9 Alan M. Turing, «  Théorie des nombres calculables, suivie d’une application au problème de la décision  » [«  On Computable Numbers, with an Application to the Entscheidungsproblem  », 1936], trad. de l’anglais par Julien Basch et Patrice Blanchard dans  : La Machine de Turing, édition dirigée par Jean-Yves Girard, Paris, Seuil, coll. «  Sciences  », 1995.. On voit ici se dessiner deux angles d’approches pour les IA : imiter la pensée humaine, ou lui permettre de franchir des seuils. Si une machine donne l’illusion de penser, est-ce une preuve d’intelligence – si l’on entend sous ce mot la capacité à reformuler des situations imprévues  ? Penser, est-ce seulement atteindre des objectifs et résoudre des tâches  ? On comprendra que l’intérêt est moins de savoir si une machine peut penser à la façon d’un humain que de se demander en quoi ces formes de pensée machinique modifient, altèrent, augmentent son psychisme. Si les machines sont très performantes pour reproduire, elles le sont beaucoup moins pour créer. Conforme Magazine  : Est-on proche d’une mort de la mort  ? Anthony Masure : L’actuelle pandémie de Covid-19 rappelle avec violence à quel point les humains sont fragiles et comment, malgré toute l’habileté des technosciences à établir des prédictions, de l’imprévu finit toujours par surgir. Derrière la volonté de certains transhumanistes à surmonter la mort, je ne peux m’empêcher de penser à ce que disait Flusser, qu’une fois libéré de tout (travail, responsabilités, morale, etc.) il ne restera plus rien à l’humain sinon l’ennui, et que cet ennui sera bien plus douloureux que la mort. La perspective de la mort est précisément cette chance d’échapper à l’ennui.

Design & machine learning

Date

novembre 2021

Type

Conférence

Contexte

Intervention à la « commission interparlementaire de contrôle HES-SO », en présence d’une cinquantaine de député·es de Suisse romande et de la rectrice.

Résumé

L’intelligence artificielle, ou plutôt le machine learning, est de plus intégré et masqué dans des programmes et objets du quotidien.

Création sous artifices. Mutations du design à l’ère du machine learning

Date

septembre 2022

Type

Conférence

Contexte

Intervention aux journées d’étude « Enjeux éthiques et esthétiques de l’Intelligence Artificielle », Université de Strasbourg, Littératures, éthique & arts – Lethica.

Résumé

Affiche de l’évènement La prochaine École d’Automne de l’ITI Lethica se tiendra du 28 au 30 septembre 2022 autour des enjeux éthiques et esthétiques de l’Intelligence Artificielle. Abordé dans le cadre de l’École d’Automne 2021, ce sujet a été choisi pour son actualité contemporaine, mais également pour son interdisciplinarité et sa proximité avec les quatre thématiques centrales de Lethica  : Révolution morale  : accepterons-nous la présence d’intelligences artificielles dans nos vies  ? Quel statut moral, juridique, philosophique leur accorderons-nous le cas échéant  ? Triage : dès lors que l’intelligence artificielle peut être appelée à faire des choix, comment anticiper sur ces éventuels arbitrages  ? (cas, par exemple, des voitures automatiques). Transparence et secret : La gestion de nos données personnelles peut-elle être confiée à une intelligence artificielle  ? Faut-il avoir peur des big data ? «  Faire cas  » : Une intelligence artificielle peut-elle «  faire cas » ? Peut-elle être chargée de veiller sur les plus faibles (personnes âgées  ; enfants) ? Peut-elle elle-même devenir un «  cas  », c’est-à-dire développer une forme de singularité ? Pour discuter de ces questions, Lethica a choisi de solliciter des spécialistes issus de domaines variés (littératures, éthique, arts, mais aussi informatique et philosophie) : certains invités sont des chercheurs polyvalents, situés à la croisée de plusieurs disciplines  ; d’autres sont engagés dans des pratiques de recherche et de création (ou de recherche-création) ; d’autres encore sont des artistes ou des écrivains bénéficiant d’une reconnaissance nationale et internationale.

Design sous artifice, présentation au séminaire ArTeC

Date

avril 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice au séminaire ArTeC (Paris), suivie d’une discussion avec Pierre-Damien Huyghe.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles. Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

Design sous artifice, présentation à la journée d’étude CulturIA

Date

mai 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice à la journée d’étude « IA, imaginaires et arts contemporains », ANR CulturIA, Paris, ENS Ulm.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles (prompts). Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

Design sous artifice, présentation aux Webmardi

Date

juin 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice aux Webmardi, Lausanne.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles (prompts). Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

Discipline and prescribe: ethics by design in the AI era

Date

juin 2023

Type

Conférence

Contexte

Communication aux journées d’étude « Éthique by design en intelligence artificielle : perspectives théoriques et pratiques », Paris, Unesco EVA Chair on AI.

Résumé

Released at the turn of the 2010s, deep learning technologies (a subfamily of machine learning) are based on opaque architectures. As they automate more and more tasks, these black boxes, that are not understandable to humans, overcome the usual ethical and moral categories. Faced with these challenges, some people want to “take back control.” However, if machines (through a mirror effect) reveal the “inhuman” part of humanity, does the human/machine separation still make sense? On the other hand, embedding ethics in a computer program (“by design”) requires making them explicit and fixed—which is the opposite of a dialogical dynamic. To overcome AI challenges, we must therefore “normative ethics” (prescription) and “capability ethics” (potentiation).

CV

Date

Type

Contexte

Résumé

Productions de recherche

Date

Type

Contexte

Résumé

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias