Date
décembre 2020
Type
PublicationContexte
Introduction à l’ouvrage Rechercher la Mode, dir. Bertrand Maréchal, HEAD – Genève, 2020.
Résumé
Dirigé par Bertrand Maréchal (professeur en design de mode à la HEAD – Genève), cet ouvrage collectif élabore, à partir d’entretiens, un lexique relatif à l’enseignement du design de mode dans le contexte des hautes écoles spécialisées (HES) suisses et des écoles d’art et de design européennes. Rechercher la mode s’ancre dans les travaux menés au sein de l’Irad (Institut de Recherche en Art et Design de la HEAD – Genève), qui s’efforcent de faire valoir la spécificité et l’importance de la recherche-création. Cet ouvrage peut ainsi être vu comme un manuel critique au service des étudiant·e·s et des acteurs.actrices de la mode. Il s’inscrit dans le prolongement d’autres initiatives portées par la HEAD – Genève visant à rapprocher enseignement et recherche, et dont nous pouvons mentionner quelques exemples. À la suite d’un MOOC (cours en ligne) consacré à l’apprentissage de la bande dessinée, le projet de recherche « La BD à l’origine d’un nouvel imaginaire visuel. Un essai documentaire sur la narration séquentielle chez Rodolphe Töpffer 1 Rechercher la Mode et les projets mentionnés ici sont financés par le fonds stratégique de la HES-SO via le réseau de compétences Design et Arts visuels (RCDAV). » (dir. Benjamin Stroun, 2019–2020) propose ainsi de réaliser un essai-vidéo documentaire expérimental pouvant servir de support à l’enseignement. Dans d’autres projets de recherche tels que « Design viral, méthodologie pour un buzz citoyen » (dir. Jérôme Baratelli, 2017–2020) ou « Renouveler la ville depuis l’intérieur » (dir. Line Fontana, 2017–2020), ce sont les étudiant·e·s qui sont directement mis à contribution sous la forme d’ateliers pratiques (workshops). Une autre approche réside dans la création d’outils, comme dans le projet « TheKnitGeekResearch » (dir. Valentine Ebner, 2018–2020) qui vise réaliser des machines à tricoter open source permettant de repenser la production de petites séries de vêtements et d’accessoires. Les nouvelles logiques pédagogiques et conceptuelles propres aux écoles de mode (et, par extension, aux écoles d’art et de design) ne sont pas toujours bien identifiées et conceptualisées, créant ainsi un hiatus entre les politiques de formation (régionales, fédérales et européennes) et la réalité des enseignements. Ce sont ces approches que ce lexique se propose de répertorier et de questionner. En apportant des ancrages conceptuels à la portée des étudiants, il s’agit ainsi de contribuer à la clarification du vocabulaire de mise en œuvre du processus créatif. Comme enseigner n’est pas seulement une transmission d’informations mais bien une co-construction entre un·e enseignant·e, une entité institutionnelle et des apprenant·e·s, questionner ce qui est du principe d’une discipline, « former à la mode », n’est donc pas simplement transmettre des savoir-faire techniques, mais engage de se poser la question de ce qu’est la mode. L’ouvrage a été pensé dans un souci de bannir « l’explication », au sens pédagogique et politique du terme. Dans son essai Le maître ignorant 2 Jacques Rancière, Le maître ignorant, Paris, Fayard, 1987, p. 17–18. (1987), le philosophe Jacques Rancière reprend l’expérience pédagogique du personnage de Joseph Jacotot (1770–1840). Dès le début de l’ouvrage, Rancière déconstruit la prétendue nécessité de l’explication au sein de la relation pédagogique, ce qu’il appelle « l’ordre explicateur ». Parmi toutes les explications, ou les explications de plus en plus précises, le maître décide quelle est la bonne et là où il n’y a pas besoin de plus d’explication. Pour éviter les écueils de la séparation sociale entre ceux qui possèdent et ceux qui doivent se soumettre aux possédant·e·s, l’enjeu est d’interroger l’ordre social des apprenant·e·s. Qui suis-je par rapport à l’apprentissage ? Comment est-ce que j’apprends ? En quoi l’apprentissage me constitue ? Suivant cette critique acerbe de la dimension politique de l’explication, Rechercher la mode propose à son lecteur, non pas des « explications », mais des possibles renvois, des « agencements » (Deleuze & Guattari 3 Gilles Deleuze, Félix Guattari, Capitalisme et schizophrénie, tome 2, Mille plateaux, Paris, Minuit, 1980, p. 163.). Un agencement est une entité à double face, non de deux formes, mais de variations discursives et non discursives qui le traversent et définissent en lui des coefficients de stabilisations et ou de devenir 4 Igor Krtolica, « Diagramme et agencement chez Gilles Deleuze. L’élaboration du concept de diagramme au contact de Foucault », Filozofija i drustvo, vol. 20, n o 3, 2009, p. 97–124.. Un agencement n’est donc pas statique, mais établit des variations faisant écho à l’approche sensible des métiers de la création. Les différents niveaux d’information réunis dans Rechercher la mode (lexique, entretiens, textes théoriques) permettent au lecteur « d’agencer » par lui-même son mode d’approche intellectuel, c’est-à-dire de devenir sujet de sa création. Conclusion et aboutissement de cet ouvrage, le lexique des termes de la mode n’est donc pas une explication « verticale », mais un outil critique conçu pour être réapproprié. Cette grille de lecture fait dialoguer différents niveaux de définition avec des propos recueillis auprès de différents acteurs majeurs de la mode (designers, journalistes, critiques, entrepreneurs, enseignants, etc.). Les séries d’entretiens – des témoignages de premier plan – constituent un inventaire non exhaustif, sensible et dialogique, de différentes approches créatives pédagogiques et professionnelles. Ce chevauchement entre des pratiques (les entretiens) et des temps de recul (les introductions de chaque chapitre) fait écho aux mutations de la structure linéaire du livre. Pour introduire sa série de fascicules regroupés sous le titre À quoi tient le design, le philosophe Pierre-Damien Huyghe se demande « Qu’est-ce que lire aujourd’hui ? ». Il ne s’agit pas pour lui d’expliquer, mais de réfléchir à ce que pourrait être la lecture à l’époque du Web, et surtout de poser la question de l’unité du texte, qui n’est plus seulement celle du livre : « une possibilité technique […] jusqu’alors inédite est venue autoriser ce qui était difficile à effectuer au temps du seul mode livresque : bifurquer dans la lecture, passer soudainement à un autre site énonciatif que celui qu’on fréquentait 5 Pierre-Damien Huyghe, Sociétés, services, utilités. À quoi tient le design [2015], Cherbourg, De l’Incidence, 2018, p. 11.. » L’intérêt de Rechercher la mode réside dans la possibilité de construire son propre parcours de lecture, redoublé une version numérique prenant la forme d’un site Web dédié 6 Le site Web dédié est disponible à l’adresse : http://www.hesge.ch/head. Ce trajet favorisant les singularités fait écho au nécessaire détachement d’une approche pédagogique strictement technique, afin d’établir des enjeux théoriques depuis des notions et savoir-faire. Dans le champ des enseignements artistiques, la mode ne s’est intéressée que tardivement à l’articulation théorico-pratique 7 À la suite de la revue de recherche Fashion Theory. The Journal of Dress, Body and Culture fondée par Valerie Steele (Fashion Institute of Technology, NYC en 1997 s’est créée en 2009 la revue Fashion Practice, qui édite des textes scientifiques sur la pratique du design de mode, faisant ainsi une distinction entre le champ théorique sur la mode et le champ théorique sur la pratique de la mode. des arts plastiques, qui s’est instituée dans la majorité des formations en arts appliqués 8 Alexandre Saint-Jevin, « Essai pour une analyse plastique du vidéoludique. Vers une approche esthético-psychanalytique des jeux vidéo ? », Conserveries mémorielles, n o 23, 2018, http://journals.openedition.org/cm/3213. Comme le dit Elizabeth Fischer (professeure associée, responsable du département « Design bijoux et accessoires » à la HEAD – Genève) : « Le défi du projet théorique est de jeter un pont entre la mode et la théorie de mode, de faire entrer tout un bagage socioculturel, historique, économique et symbolique afin qu’il fasse sens pour le programme pratique qui occupe la majeure partie du temps des étudiantes et des étudiants, plongés dans leurs projets de création 9 Voir supra, p. 166.. » Bien que les projets de création soient au centre du développement d’un·e étudiant·e en design de mode, cette dimension (aussi intellectuelle qu’appliquée) du penser et du faire est souvent reléguée à une zone de subjectivité qui laisse le.la designer de mode en devenir découvrir par ses propres moyens l’ensemble de ses ressources esthétiques, émotionnelles et méthodologiques. Un corpus de mots clairement répertoriés – objectif de cet ouvrage – pourrait soutenir cette mise en œuvre créative. Le positionnement esthétique, la signature et le vocabulaire stylistique d’un·e designer de mode jouent un rôle de premier plan dans les étapes de développement d’une collection. Le vocabulaire n’est pas qu’une question de communication ou de vision. C’est aussi une manière d’agencer ses connaissances, ses perceptions, son ressenti, ses représentations afin de structurer son processus créatif, sa poïesis. Comme l’ont montré depuis bien longtemps la linguistique et la psychologie cognitive (notamment l’école « constructiviste » de Palo Alto reprenant les théories, les schèmes conceptuels et les concepts philosophique de la phénoménologie), il n’y a pas de perception sans représentation. Conceptualiser sa pratique ce n’est pas seulement communiquer, c’est aussi créer. Trois notions essentielles à la compréhension des enjeux actuels des métiers, de la création et de l’enseignement de la mode structurent cet ouvrage : le système de la mode, la création, la pédagogie. La première, le « système de la mode », est un hommage au livre éponyme du sémiologue français Roland Barthes, publié en 1967. Cette notion recoupe les métiers, les enjeux et les techniques de la mode en train de se faire. Dans cette partie, il s’agit de se demander si la mode forme une discipline en soi, et quelle est sa place dans le paysage du design. Nous proposons ainsi d’orienter la définition de la mode vers une méthode venant problématiser, par la création, les approches des sciences humains et sociales. La mode dans son sens premier, renvoie à une conformité, à ce qui construit un ensemble ; c’est la forme d’expression d’une esthétique à travers des caractéristiques formelles. Ainsi, la mode, en se souciant du « comment », vient paradoxalement rendre conforme, voire même uniformiser 10 Ce point est développé dans l’introduction de la première partie de cet ouvrage.. Ce questionnement permet de revenir sur la notion même de « système de la mode » et de la manière dont Roland Barthes pense la mode comme une structure linguistique en rapprochant le vêtement de la langue et le costume du langage. Cette analyse des systèmes de la mode permet, dans la deuxième partie de cet ouvrage, de comprendre comment le processus de création de la mode est constitutif, influencé, déterminé, construit par ces systèmes ou en lien avec eux. Dans ce chapitre portant sur la notion de création, Hayley Edwards-Dujardin (historienne de l’art et de la mode) rappelle l’intérêt d’étudier le processus de travail des designers de mode : « Malgré tout, tout comme la pratique esthétique de l’artiste est supposée être liée à sa propre connaissance et à sa propre sensibilité, le goût, l’instinct et le statut des créateurs de mode deviennent des ressources stratégiques, indispensables et valorisées pour créer, et ce malgré la subjectivité d’un tel processus 11 Voir supra, p. 84.. » Autrement dit, la création dans la mode n’est pas seulement une question d’histoire des techniques, mais aussi de la manière dont le social, le marché, les médias et les technologies numérique vont modifier le processus créatif. Hayley Edwards-Dujardin voit chez le couturier Charles Frédéric Worth (1825–1895) – autoproclamé « artiste en robe » et qui refusait que ce soit la cour qui dicte le goût – l’origine du passage du couturier artisan au designer de mode, à savoir le début du mythe du « créateur ». Comme elle l’explique, à la manière de l’artiste de la Renaissance, le créateur de mode devient un producteur d’œuvres singulières. Le designer de mode nourrit une marque de sa singularité, et cette dernière participe à créer son aura. En effet, avec le prêt-à-porter, le designer de mode n’est plus seulement un créateur, mais aussi une célébrité. Créer de la mode n’est donc plus seulement produire des singularités, mais aussi se construire un personnage singulier. Le designer de mode se met en scène : sa personnalité et sa vie doivent être une continuité de son art. Dans cette perspective, les réseaux numériques ne sont plus seulement une manière de communiquer, mais une base pour la création, une veille professionnelle, aussi bien sur les créateurs, que sur ce que l’on appelle « la rue », ce que l’esthéticien Nicolas Thély appelle le régime « basse déf 12 Nicolas Thély (dir.), Search terms : basse déf., Paris, B42, 2012. ». Ce changement de paradigme explique pourquoi les entretiens portant sur le processus créatifs des stylistes incluent aussi des photographes de mode et des professionnels des médias. Dans la troisième partie, portant sur la pédagogie, Elizabeth Fischer part du constat de l’importance des images dans la création de mode. Elle reprend Roland Barthes pour affirmer que « cette mutation du domaine mode en une industrie créative aux activités devenues transversales – tant il touche aujourd’hui de nombreux secteurs – a eu un impact sur la filière de formation qui s’est adaptée en réponse à cette évolution 13 Voir supra, p. 159. ». Ainsi, les compétences des designers de mode ont changé, nécessitant une modification de la formation des étudiants. Ces formations doivent leur permettre de saisir les nouveaux enjeux de création vus dans la deuxième partie de notre ouvrage. Elle propose comme axes de réflexion de s’intéresser aux études de genre, aux défis environnementaux, au développement durable, aux wearables, à l’inclusion d’accessoires, à la diversité culturelle, aux marchés émergents, à l’instrumentalisation du passé et à la médiatisation. Ces enjeux actuels lui permettent de revenir sur l’histoire de l’enseignement de la mode à la HEAD – Genève et de montrer leurs liens avec le défi qu’a constitué la refondation de la formation en design mode comme champ théorique et de création, de la même manière qu’une réflexion pédagogique est à la fois une action et une pensée de la mode. Comme le dit Elizabeth Fischer dans sa vision du « design de mode » et non du « stylisme », la théorie du design et ses méthodes d’articulation théorico-pratique doivent pousser à repenser la place de la théorie. La théorie n’est pas un « second temps ». Elle ouvre à une compréhension, une interrogation et une transformation des pratiques. Grâce à Elizabeth Fischer, le lecteur comprend que l’appropriation des théories et des méthodes du design au sein de la mode n’est pas une mince affaire, puisque la mode, et c’est ce qui en fait son statut particulier au sein du design, a un lien spécifique avec l’artisanat – contrairement à l’industrie du vêtement qui peut s’intégrer bien plus aisément aux théories canoniques du design. Pendant longtemps, et c’est encore le cas aujourd’hui, l’habillement se rapprochait du design alors que la mode se rapprochait des beaux-arts. Dans cette opposition, grâce aux parallèles qu’elle établit entre l’histoire de la mode et l’histoire des formations, elle permet au lecteur de saisir les enjeux des entretiens (de consultants, d’enseignants, d’anciens élèves, etc.) qui suivent son texte. Nous espérons que ces trois ensembles – système de la mode, création, pédagogie –, mis en cohérence par Bertrand Maréchal, permettront aux lecteur·trices, à leur tour, de « rechercher la mode ».
Notions
Personnes citées
Objets mentionnés
Date
décembre 2020
Type
PublicationContexte
Propos récoltés par Loven Bensimon pour Conforme Magazine et rédigés par Anthony Masure le 1er avril 2020 à Paris.
Résumé
Conforme Magazine : Le transhumanisme est-il notre futur ou est-il déjà d’actualité ? Anthony Masure : Le transhumanisme, qui ne se développe vraiment qu’à partir des années 1980, est un mouvement de pensée complexe et aux ramifications multiples. Il y a un écart entre la réparation et l’augmentation, à savoir le développement de facultés qui dépassent les contraintes biologiques. Mais cette distinction peut rapidement être remise en cause, comme par exemple dans le cas du traitement des maladies génétiques, où l’on pourrait facilement imaginer que seul un groupe social aisé aurait les moyens d’être immunisé à certaines pathologies. Mais ce scénario ne ferait que renforcer les actuelles différences d’accès aux soins, à l’éducation, et aux inventions techniques. De façon plus générale, si l’on entend par transhumanisme la volonté de transcender une condition initiale, alors l’humain a toujours été plus qu’humain, pour reprendre le mot de Nietzsche, c’est-à-dire toujours tiré en dehors de lui même. Autrement dit, il n’est pas possible de séparer l’humain du fait technique ! Comme le note la philosophe Donna Haraway, nous vivons déjà dans une société cyborg 1 Donna Haraway, « Manifeste Cyborg. Science, technologie et féminisme socialiste à la fin du XXe siècle » [1985], dans : Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes [1985–1997], trad. de l’anglais par Denis Petit en collaboration avec Nathalie Magnan, Paris, Exils, 2007. : le cyborg n’est pas une autre ontologie, il est « notre ontologie ». Cette figure permet à Haraway de renverser les oppositions homme / femme / machine et les dynamiques capitalistes : il est possible de réinvestir politiquement le présent pour montrer que ce dernier ne détermine mécaniquement pas le futur. L’enjeu n’est donc pas de s’opposer frontalement au transhumanisme, mais d’explorer des zones de perméabilité, d’en faire un « système d’information polymorphe » (Haraway). Lisa Thieffry pour Conforme magazine Conforme Magazine : L’humain, maître et possesseur de la nature se croit-il tout permis ? Il y a-t-il des écueils à cet hubris ? Peut-il y avoir des conséquences néfastes ? Anthony Masure : Ce n’est pas parce quelque chose est possible qu’il faut à tout pris l’explorer. De la même façon, ce qui est légal n’est pas forcément moral. Se pose alors la question de savoir sur quels critères juger de qui est ou non souhaitable, et à qui cela incombe : politiques, juristes, designers, scientifiques, société civile, etc. Selon le philosophe Vilém Flusser, la question est épineuse car les technologies numériques (les « appareils ») et les biotechnologies font voler en éclat les anciennes catégories de pensée : « L’abandon des critères traditionnels implique l’abandon non seulement de la tradition occidentale, mais de tout humanisme. Et cela, nous ne sommes pas prêts à le faire, et nous avons de très bonnes raisons pour le refuser. C’est pourquoi notre faculté critique face à la culture inhumaine émergente est en crise par manque de critères 2 Vilém Flusser, « Critique, Critères, Crise » [texte inédit, 1984], reproduit dans : Multitudes, n o 74, dossier « Vilém Flusser : vivre dans les programmes », dir. Yves Citton et Anthony Masure, avril 2019, p. 216, https://www.cairn.info/revue-multitudes-2019-1-page-212.htm. ». Les conséquences néfastes d’un déploiement toujours plus important du « programme occidental » ne pourront être évitées qu’à condition de sortir de la binarité humain / nature et de déployer de nouveaux critères de lecture du monde, ce à quoi nous invite Haraway dans un texte écrit à la même époque que Flusser : « Avec les machines de la fin du XXe siècle, les distinctions entre naturel et artificiel, corps et esprit, autodéveloppement et création externe, et tant d’autres qui permettaient d’opposer les organismes aux machines, sont devenues très vagues. Nos machines sont étrangement vivantes, et nous, nous sommes épouvantablement inertes 3 Donna Haraway, op. cit.. » Conforme Magazine : Ces progrès technologiques sont-ils à même de venir en aide à nos sociétés (évolutions médicales, création de viande, alternatives énergétiques écologiques, etc.) ? Anthony Masure : Tout dépend ce que l’on entend par « nos sociétés » (ce qui sous-entend une réponse orientée vers l’occident) et par « aide » : que ou qui faut-il aider, et pourquoi ? Si l’on prend par exemple le cas de la viande « de synthèse » produite à partir de protéines végétales, même si le gain énergétique et moral semble probant, on reste tout de même dans une logique de culte symbolique de la viande et dans de la nourriture industrialisée. Il ne faudrait pas que cette étape de transition se transforme en point final : les repas végétariens ne se réduisent pas à du « sans viande », et leur intérêt est justement d’explorer d’autres saveurs. De plus, avec de tels procédés, on rejoue un vieux débat dans l’histoire de l’art et du design, à savoir l’imitation de la tradition (d’anciennes formes) par des inventions techniques. C’était par exemple le cas des débuts de la photographie, où l’enjeu était d’imiter la peinture. Or la photographie comme art n’a pu se développer qu’en s’écartant d’une telle approche. Est-ce qu’avec la viande de synthèse ou avec des énergies « alternatives » (et non pas pensées de façon autonome) on n’est pas en train de faire de même ? Jusqu’à quelle point ces progrès « béquilles » ne viennent-ils pas contrecarrer l’émergence d’un nouveau pleinement neuf et de nouvelles saveurs ? Conforme Magazine : Le progrès entre de mauvaises mains représente-t-il un danger pour notre démocratie ? Anthony Masure : Dans les sociétés dites développées, le progrès technique va souvent de pair avec l’automatisation, c’est-à-dire avec la recherche d’un rendement toujours plus efficace. Cette tendance n’est pas forcément à rejeter en bloc, car il y a des tâches qu’il vaut mieux confier à des machines. Mais, à un certain moment, cette décharge de capacités cognitives à des machines engage une perte de la notion de responsabilité : plus personne ne se sent responsable de rien, ce qui entraîne un affaiblissement du sens moral et donc de la démocratie. Mais les démocraties représentatives n’échappent pas à cet écueil : trop souvent on attend des dirigeant·e·s politiques qu’ils·elles prennent des décisions à notre place, alors que le sens moral doit précisément être partagé. Le « devenir-fonctionnaire » des êtres humains (c’est-à-dire la réduction des personnes à des entités ne pouvant que fonctionner et appliquer des ordres) nous guette : les réponses ne pourront être que collectives. Il me semble de plus en plus urgent de penser ce que pourrait être un « design de la responsabilité ». Conforme Magazine : L’intelligence artificielle : outil démocratique ou dictatorial ? Anthony Masure : Je ne pense pas que les techniques (et par extensions les technologies) doivent être pensées comme des outils, mais plutôt comme des polarités plus ou moins ouvertes et pouvant faire l’objet de bifurcations (ce qui pourrait être l’enjeu de l’art et du design). Dès lors, il faut moins penser en terme d’intelligences artificielle (IA) au singulier que d’intelligences artificielles au pluriel. En effet, l’histoire de ce champ fait apparaître des profondes controverses entre différentes méthodes, dont ne rend pas compte l’actuelle hégémonie du deep learning (« apprentissage profond »). Le deep learning ne fonctionne pas sous la forme de règles écrites à l’avance (comme dans la cas de la programmation traditionnelle), mais via élaboration du traitement de l’information par la machine, qui élabore en quelque sorte par elle-même l’écriture du programme. Il en résulte des programmes d’un nouveau type, des « boîtes noires 4 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, n o 80, « L’intelligence artificielle : enjeux éthiques et politiques », dir. Vanessa Nurock, décembre 2019, p. 31–46. » incompréhensibles par des êtres humains, ce qui renvoie à la perte de responsabilité que j’évoquais précédemment. On voit mal comment faire « bifurquer » de tels codes, de la même façon que l’on n’imaginerait pas qu’une centrale nucléaire fonctionne en autogestion, dans une logique de démocratie locale. Il faut donc moins s’inquiéter d’un usage dictatorial des IA que du fait que ce qui est singulier et désarmant avec celles du deep learning, c’est précisément qu’elles n’ont pas d’intentionnalité ! Nous devrons apprendre à composer avec des entités potentiellement autonomes, pour lesquelles les concepts de maîtrise, contrôle, liberté, etc., ne sont pas vraiment signifiants. Laurence Revol Conforme Magazine : Il y a-t-il des inégalités face au transhumanisme et au progrès technologique ? Si oui, peuvent-il être pensés comme égalitaires dans une société capitaliste ? Anthony Masure : Tout progrès technique charrie son lot de nouvelles catastrophes. Comme l’indiquait le philosophe Paul Virilio : « Airbus, en inventant un avion de 800 places, créé 800 morts potentiels » 5 Paul Virilio, « Le krach actuel représente l’accident intégral par excellence », propos recueillis par Gérard Courtois et Michel Guerrin, Le Monde, 18 octobre 2008, https://www.lemonde.fr/idees/article/2008/10/18/le-krach-actuel-represente-l-accident-integral-par-excellence_1108473_3232.html. Cela ne veut pas dire qu’il faut tous se réfugier dans le Larzac, mais plutôt d’intégrer que l’« accident intégral » est au cœur de sociétés capitalistes, dont la logique consiste à concentrer toujours plus de richesses et de pouvoir. Il s’agit donc d’œuvrer à décentrer ces points d’ancrage, de faire de la monoculture technique une « permaculture » – qui considère la coexistence de différents écosystèmes comme un préalable à une reconfiguration sociale. Dès lors, un des enjeux du design, dans une dimension critique, serait non pas de renforcer les lieux de pouvoir mais de faire place à d’autres voies et d’autres voix. Si l’on reprend le cas des intelligences artificielles, celles-ci n’ont pas pour fatalité d’être mobilisées sous l’angle de la volonté de puissance. En les considérant dans une optique élargie, au-delà du deep learning, celles-ci peuvent faire l’objet de reconfigurations esthétiques, c’est-à-dire devenir des prismes permettant de révéler et d’activer ce qui était déjà là parmi nous, comme délaissé. C’est quelque chose que nous travaillons à la HEAD – Genève 6 Jürg Lehni, Douglas Edric Stanley, « Pour un design alternatif de l’IA ? », propos recueillis par Anthony Masure, Multitudes, n o 79, dossier « Cultivons nos IA », https://www.cairn.info/revue-multitudes-2020-1.htm. Cet article fait suite à un workshop initié par Alexia Mathieu au sein du Master Media Design de la HEAD – Genève au 1er semestre 2019–2020., en hybridant différentes époques techniques des IA et en faisant dialoguer des programmes « traditionnels » et auto-apprenants. Le champ du design montre ainsi qu’il est possible de « cultiver » les IA et de les emmener dans des directions insoupçonnées. Casser les monopoles capitalistes à l’endroit des logiciels (et donc des méthodes) de création – en l’occurrence Adobe – est un préalable à toute démarche de ce type. Conforme Magazine : Dans un entretien 7 Hans Jonas, « Les machines ne pourront jamais avoir une conscience », entretien avec Norbert Lossau, Die Welt, 29 novembre 1991., le philosophe Hans Jonas affirme : « prétendre que, outre l’exécution des tâches, l’automate puisse lui-même devenir vivant, acquérir une âme et qu’il puisse désormais en vertu de sa propre volonté, nous donner du fil à retordre, n’est que pure spéculation ». Qu’en pensez-vous ? Une machine peut-elle penser ? Anthony Masure : Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Publié en 1945 par l’ingénieur Vannevar Bush, l’article propédeutique « As we may think 8 Vannevar Bush, « Comme nous pourrions penser » [« As we may think », The Atlantic Monthly, vol. 176, n o 1, juillet 1945, p. 101–108], trad. de l’anglais (États-Unis) par Anthony Masure, dans : Le design des programmes, des façons de faire du numérique, doctorat en esthétique (spécialité design) sous la direction de Pierre-Damien Huyghe, université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques et Sciences de l’Art, 2014, http://www.softphd.com/these/traduction/vannevar-bush-as-we-may-think.php. » (« Comme nous pourrions penser ») envisage que les appareils de calcul puissent augmenter les capacités intellectuelles afin d’éviter que l’humanité ne replonge dans un conflit meurtrier : l’informatique balbutiante pourrait servir à partager les connaissances, et non pas développer l’économie. Dans cette optique, la délégation d’opérations intellectuelles aux machines n’a pas vocation de remplacer mécaniquement les humains, mais pourrait permettre – à extrapoler Vannevar Bush – de les « déprogrammer » de tâches fastidieuses. En associant la notion de création aux processus de sélection et non pas au traitement répétitif d’informations, Bush s’écarte de la vision du mathématicien Alan Turing. Selon Turing, la pensée humaine, et plus précisément sa part d’intelligence, serait susceptible d’être non pas augmentée, mais « imitée » par une machine 9 Alan M. Turing, « Théorie des nombres calculables, suivie d’une application au problème de la décision » [« On Computable Numbers, with an Application to the Entscheidungsproblem », 1936], trad. de l’anglais par Julien Basch et Patrice Blanchard dans : La Machine de Turing, édition dirigée par Jean-Yves Girard, Paris, Seuil, coll. « Sciences », 1995.. On voit ici se dessiner deux angles d’approches pour les IA : imiter la pensée humaine, ou lui permettre de franchir des seuils. Si une machine donne l’illusion de penser, est-ce une preuve d’intelligence – si l’on entend sous ce mot la capacité à reformuler des situations imprévues ? Penser, est-ce seulement atteindre des objectifs et résoudre des tâches ? On comprendra que l’intérêt est moins de savoir si une machine peut penser à la façon d’un humain que de se demander en quoi ces formes de pensée machinique modifient, altèrent, augmentent son psychisme. Si les machines sont très performantes pour reproduire, elles le sont beaucoup moins pour créer. Conforme Magazine : Est-on proche d’une mort de la mort ? Anthony Masure : L’actuelle pandémie de Covid-19 rappelle avec violence à quel point les humains sont fragiles et comment, malgré toute l’habileté des technosciences à établir des prédictions, de l’imprévu finit toujours par surgir. Derrière la volonté de certains transhumanistes à surmonter la mort, je ne peux m’empêcher de penser à ce que disait Flusser, qu’une fois libéré de tout (travail, responsabilités, morale, etc.) il ne restera plus rien à l’humain sinon l’ennui, et que cet ennui sera bien plus douloureux que la mort. La perspective de la mort est précisément cette chance d’échapper à l’ennui.
Notions
Personnes citées
Objets mentionnés
Médias
Date
janvier 2017
Type
PublicationContexte
Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.
Résumé
AVANT C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! QUELLES SOLUTIONS ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.
Notions
Personnes citées
Objets mentionnés