Date
July 2021
Type
PublicationContexte
Article coécrit avec Victor Petit, contribution au dossier « Flusser et la France » du 31e numéro de la revue Flusser Studies dirigé par Rainer Guldin, Marc Lenot et Anthony Masure.
Résumé
Dans ses « Considérations écologiques », un article inédit rédigé en français en 1984-1985, le théoricien des médias Vilém Flusser montre les limites d’une opposition tranchée entre nature et culture, et soutient l’hypothèse provocante d’une naturalisation de la technique prenant la forme d’une « circularité de la production ». Les notions d’objet et de déchet deviennent les pôles d’une critique de la consommation, que Flusser relie au développement des programmes numériques et des théories de l’information. Examiner ce texte, à près de 40 ans d’écart, permet de prendre du recul sur les débats et controverses relatifs au champ de l’éco-design. Il montre qu’un design radicalement circulaire ne changerait pas seulement la production, ni même la consommation, mais la définition même du design.
Notions
Personnes citées
Objets mentionnés
Médias
Date
June 2016
Type
ConférenceContexte
Conférence donnée avec Saul Pandelakis au colloque scientifique « Archéologie des médias et écologies de l’attention », dir. Yves Citton, Emmanuel Guez, Martial Poirson et Gwenola Wagon, Cerisy-la-Salle. Cette conférence a été redifusée sur les sites Web de France Culture et de La Forge Numérique (MRSH de l’université de Caen – Normandie).
Résumé
Nous souhaitons examiner « le passage d’un modèle économique (de l’investissement) au modèle écologique (de la relation au milieu) ». Les programmes numériques peuvent-ils être ou devenir le lieu d’une écologie attentionnelle contribuant à une « écologie [plus large] de l’environnement artificiel » ? Comment concevoir, par le design, la place de l’attention humaine au sein des machines numériques ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
April 2019
Type
PublicationContexte
Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)
Résumé
La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?
Personnes citées
Date
January 2021
Type
PublicationContexte
Contribution à l’ouvrage Colloque Vues & Données – De la prise de vue à l’épreuve de la donnée comme histoire matérielle de l’image, dir. Fabien Vallos, Arles, ENSP, Dijon, Les presses du réel.
Résumé
La collecte des « données » numériques à grande échelle, sur lesquelles les citoyens n’ont que peu de « prise », prolonge la vieille utopie de mesurer chaque entité matérielle du monde. L’invisibilisation (la soustraction à la vue) des opérations de calcul et de traduction propre aux technologies numériques masque les idéologies (politiques, etc.) qui les sous-tendent : comment faire pour que le code informatique n’ait pas pour seule visée le management des êtres humains ? Pour proposer des réorientations soutenables permettant de desserrer l’emprise des données numériques, il est nécessaire d’aller à rebours des discours inscrivant l’informatique dans une évolution voire dans une révolution. Une étude resituant la notion de donnée depuis l’apparition des « appareils » photographiques fait ainsi apparaître des disjonctions entre ce qu’on pensait être nouveau et ce qui était déjà là parmi nous, en latence.
Notions
Personnes citées
Objets mentionnés
Date
April 2016
Type
PublicationContexte
Anthony Masure, « Subjectivités computationnelles et consciences appareillées », Multitudes, no 62, avril 2016, p. 87-96
Résumé
Cet article revient sur la notion de « subjectivité computationnelle » formulée par David M. Berry visant à développer une approche critique des technologies numériques. Afin de comprendre les implications philosophiques d’un tel rapprochement entre « subjectivation » et « computation », nous reviendrons tout d’abord, via Leibniz et Hannah Arendt, sur l’émergence des sciences modernes qui visent à faire du « sujet » classique une entité calculante. Nous verrons ensuite comment les sciences « comportementales » ont influencé la conception des ordinateurs en substituant à la raison humaine des modélisations rationnelles déléguées à des machines. Pour sortir de l’impasse d’une déshumanisation annoncée dès la fin des années 1970 par des auteurs comme Ivan Illich ou Gilles Deleuze, nous envisagerons enfin la « subjectivation » comme un processus qui ne nécessite pas qu’il y ait sujet. Le concept d’« appareil », tel que le propose Pierre-Damien Huyghe à propos de la photographie et du cinéma, peut ainsi être étendu aux machines computationnelles pour penser de possibles « consciences appareillées ».
Notions
Personnes citées
Objets mentionnés
Date
April 2016
Type
PublicationContexte
Anthony Masure, « L’injonction à la créativité dans le design. Des logiciels de création innovants aux programmes inventifs », dans : Anne-France Kogan, Yanita Andonova (dir.), actes du colloque « De l’injonction à la créativité à sa mise en œuvre : quel parallèle entre monde de l’art et monde productif ? » [2015], MSH Nantes, Mines Nantes, université Paris 13, 2016, p. 16-23
Résumé
Il est de plus en plus demandé au design de se placer du côté de la « créativité » et de « l’innovation », comme si cela allait de soi. Que recouvre cette injonction, et comment est-elle mise en œuvre ? Après avoir situé le design dans une tension entre le monde productif et le monde de l’art, nous examinerons quelques logiciels censés « exalter » la créativité des utilisateurs avant de conclure sur une vision du design échappant à cette injonction stérilisante.
Notions
Personnes citées
Objets mentionnés
Date
June 2017
Type
PublicationContexte
Anthony Masure, « Peut-on encore ne pas travailler ? », Cité du Design / ESADSE, Azimuts, no 47, juin 2017, p. 20-35
Résumé
Tandis que le travail, en crise, est de plus en plus recherché, mince est la limite entre des emplois salariés, pour lesquels il faut en faire toujours plus, et une myriade de micro-tâches non rémunérées, qui donnent l’impression de travailler jour et nuit. Autrement dit : peut-on encore ne pas travailler ? Afin de traiter ce paradoxe, nous examinerons tout d’abord le passage du métier à des professions employées à faire croître le capital. Ensuite, après avoir vu en quoi l’époque contemporaine pourrait signer une possible « mort de l’emploi », nous analyserons en quoi le développement du « labeur numérique » (digital labor) et des objets supposément « intelligents » (smart) brouille la distinction entre le temps libre et le temps travaillé. Afin de sortir de ces impasses, nous nous demanderons si le design, en tant que travail de « qualités » inutiles, pourrait permettre d’envisager de nouveaux rapports au temps.
Notions
Personnes citées
Objets mentionnés
Médias
Date
April 2019
Type
PublicationContexte
Introduction et coordination avec Yves Citton du dossier « Vilém Flusser : vivre dans les programmes », Multitudes, no 74.
Résumé
Encore mal connue, l’ampleur des travaux du chercheur Vilém Flusser est pourtant d’une grande importance pour appréhender la situation contemporaine d’un monde numérique risquant d’aboutir à une société automatisée. Analysant la notion de programme depuis des réflexions sur les mutations de la photographie et de l’écriture, Flusser montre, au contraire, comment les artistes pourraient œuvrer au développement d’un « techno-imaginaire » capable de donner du sens à nos « vies artificielles ».
Notions
Personnes citées
Objets mentionnés
Date
October 2021
Type
PublicationContexte
Entretien avec Sylvain Ménetrey dans ISSUE – Journal of art & design, HEAD – Genève, Focus no 10, « Faut-il institutionnaliser la recherche artistique ? Réactions et contre-propositions à la Déclaration de Vienne ».
Résumé
En juin 2020, des organisations européennes de tutelles de l’enseignement supérieur en art se sont regroupées pour produire un document intitulé la Déclaration de Vienne sur la recherche artistique. L’objectif de cette démarche est d’offrir un cadre à la recherche en art tant sur le plan des objectifs que des aboutissements. Ce texte rappelle et poursuit le travail engagé par la Déclaration de Bologne de 1999 qui a conduit à l’harmonisation de l’enseignement académique en Europe à travers la mise en place du système LMD (Licence/Bachelor, Master, Doctorat). Jugée réductrice et néo-libérale par Nienke Terpsma et Florian Cramer, la Déclaration de Vienne s’est développée sans consultation des principaux et principales concerné·es : les artistes.
Notions
Personnes citées
Objets mentionnés
Date
October 2022
Type
PublicationContexte
Article rédigé avec Élise Rigot pour l’ouvrage collectif Les écologies du numérique, Orléans, Esad, 2022
Résumé
Dans un monde où presque aucune activité humaine n’échappe aux programmes numériques, ces derniers prennent un caractère existentiel et engendrent un assujettissement du vivant à des logiques d’automatisation. Il en résulte un profond déséquilibre des milieux de vie (théories de l’effondrement, perte de la biodiversité, etc.) et une perte de sens de l’existence. Afin de mieux cerner le concept de programme, nous associons trois champs tendant à converger : le design, l’informatique et la biologie. Ce rapprochement permet de formuler trois perspectives écologiques non binaires – autant de scénarios qui contestent le présupposé d’un design comme plan et qui le redéfinissent comme « art de l’équilibre », « zone de trouble », et « variation d’insignifiant ».
Notions
Personnes citées
Objets mentionnés
Date
November 2017
Type
ConférenceContexte
Communication dans le cadre du colloque scientifique « Écologies du numérique », Écolab / ESAD Orléans
Résumé
L’enjeu d’une écologie du numérique, d’un point de vue psychique, serait d’interroger la prétention des technologies à « solutionner » tous les problèmes du monde, alors même que nous faisons face à de multiples crises cognitives liées à la « captation » de l’attention, à savoir l’exploitation économique des comportements, des affects et des désirs. En tant que ces opérations se font en retrait de toute visibilité, il s’agit bien d’une question écologique, à savoir une disjonction entre un « milieu technique » et les acteurs qui y évoluent. Entre attention personnelle et attention collective, il s’agira ici de réfléchir à une pensée « en commun », et dès lors politique, d’une écologie du numérique.
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2017
Type
PublicationContexte
Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.
Résumé
Avant C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. Hantologie Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? Après Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. Entre-deux Un hack. Pardon : LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. Au commencement Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let’s be clever and use SETNX. client.multi() .set([“times_indexed”, n]) .del(“content”) .del(“comments”) .setnx([“destroyed_at”, (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log(“*** Error updating redis!”); process.exit(1); } console.log(“-> Set times_indexed to ” + n + “:\t\t” + replies[0]); console.log(“-> Did we just destroy content?:\t” + replies[1]); console.log(“-> Did we just destroy comments?:\t” + replies[2]); console.log(“-> Did we initialize destroyed_at?:\t” + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) Où ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] Quand ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] Quels effets ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. Quelle occasion ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… Par quelle voie ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. Quels mécanismes ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. Quel principe ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. Quelles conséquences ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! Quelles solutions ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); […] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __(“Failed”, ‘updraftplus’).”: “; foreach ($this->storage->get_error_messages() as $key => $msg) { echo “$msg\n”; } die; } […] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) Quelles causes ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. Quels remèdes ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header(“Content-Type: image/jpg”); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) Quelle progression ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. Quelles régressions ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. Quels antécédents ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require(‘sdk/ui/button/action’); var tabs = require(“sdk/tabs”); var data = require(“sdk/self”).data; var pageMod = require(“sdk/page-mod”); var ISBN; var button = buttons.ActionButton({ id: “mozilla-link”, label: “Amazon killer”, […] function handleClick(state) { tabs.open(“http://www.placedeslibraires.fr/dlivre.php?gencod=” + ISBN + “&rid=”); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) Quelles circulations ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. Quels renversements ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. Quelles suspensions ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { “use strict”; […] window.wlw.hideWords = function(jQuery) { window. wlw.getTextNodesIn(jQuery, jQuery(‘body’)).remove(); jQuery(‘iframe’).css(‘opacity’,0); jQuery(‘input’).val(”).attr(‘placeholder’,”); jQuery(‘textarea’).val(”).attr(‘placeholder’,”); jQuery(‘object’).remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) Quelles extinctions ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu : ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. Quelles renaissances ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. Quelles écritures ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). Quelles mutations ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). Quels financements ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. Quelles pertes ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. Quel nouveau monde ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. Quelles médiations ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. Hantologie (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.
Notions
Personnes citées
Objets mentionnés
Date
December 2019
Type
PublicationContexte
Version enriched with a chapter of the essay Design and digital humanities (2017), translation from French by Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, “Navigating the Human”
Résumé
Télécharger l’article en PDF Voir l’article [En ligne « Human, All Too Human is the monument to a crisis. It calls itself a book for free spirits: almost every sentence is the manifestation of a victory – I used it to liberate myself from things that did not belong to my nature. Idealism is one of them: the title says “where you see ideal things, I see – human, oh, only all too human!”… I know people better. The term “free spirit” does not want to be understood in any other way: a spirit that has become free, that has taken hold of itself again. — Friedrich Nietzsche 1 Friedrich Nietzsche, Ecce Homo [1888], in: The Anti-Christ, Ecce Homo, Twilight of the Idols: And Other Writings, ed. Aaron Ridley and Judith Norman (Cambridge, England 2005), pp. 115–116. In this seemingly autobiographical fragment, Nietzsche refers back to his book Human, All Too Human [1876-1878]. In current discussions of “interface design,” catchphrases such as “user-centered design,” “the user experience,” and by extension, “experience design” might not, at first glance, seem to draw scrutiny. After all, isn’t the purpose of design to create ‘useful’ things based on the users’ needs, ‘centered’ on them and on the improvement of their ‘experience’? However, if one looks at these concepts more closely, one might wonder what these methods engage as conceptions of design, and more broadly as an understanding of human relations and human-machine relations. Indeed, it is not unproblematic to presuppose that “we” are users first and foremost, i.e. beings solely concerned with relations of utility. What are we to think, then, of terms such as “user-centered design (UCD) 2 Shawn Lawton Henry, Justin Thorp, Notes on User Centered Design Process (UCD). W3C.org (March 2004), http://www.w3.org/WAI/redesign/ucd, access: July, 1, 10:00pm., ” “human-centered design (HCD) 3 Human-Centered Design Toolkit. Ideo (2009), http://www.ideo.com/work/human-centered-design-toolkit, access: July, 1, 10:00pm.,” “activity-centered design (ACD)4 See Geraldine Gay, Helene Hembrooke, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems (Cambridge, MA 2004).,” or “people-centered design (PCD)5 Hugh Graham, People-Centered Design. hughgrahamcreative.com, http://hughgrahamcreative.com/people-centered-design, access: July, 1, 10:00pm.”? Why must design be “centered” on something? More broadly, aren’t there some aspects of human life that can’t be replaced by the “experiences” generated by “user-centered” design? In order to critique the engineering of design and the reduction of the designer’s task to normative and even quantitative methodologies, I propose, as a research method, to bring together an historical study of the concepts to be questioned with technical analyses and the related discourses surrounding them. More precisely, I could synthesize this text’s research method in the following way 6 Here, I borrow the useful summary provided by Alexandre Saint-Jevin in his review of the essay Design et humanités numérique s: Alexandre Saint-Jevin, Sur la trace de l’humain dans les « objets » de design. Non-Fiction (2018),: 1 . To analyze the concept determining the process by which design issues were constructed in order to draw out the underlying philosophical concepts. 2 . To retrace the genealogy of this concept, connecting the technical reality of the products of design with the discourses of all entities being at the origin of the project (originators, designers, contractors, communicators, marketers, etc.) regarding these products. 3 . To synthesize the history and the discourses of these entities concerning matters of design more broadly in order to draw out the philosophical issues entailed in them. 4 . To connect the philosophical issues revealed by the analysis of the discourses of the entities with those of the original concept to show how these come to condition and determine the technical reality. This is thus not a matter of constructing a model of design activity in the form of logical sequences (diagrams, schemata, timelines, etc): rather than trying to tell designers what they should do, this analysis is intended to provide them with critical tools allowing them to analyze, in their own process, what they have already made or are still working on. In order to open up possibilities for making interfaces other than the behavioral scripts of experiential design, I will begin my analysis by turning back to the history of the first graphic interfaces. How do the values embedded within these technological strata infuse and even limit our relations to technology? Xerox Star’s “conceptual model of the user” The expression “user interface” correlates temporally with the development of microcomputers at the end of the 1960s. In 1968, Douglas Engelbart presented the result of the research undertaken at Xerox PARC at the time of an event retrospectively called the “mother of all demos”, where were first showcased videoconferencing, teleconferencing, email, the hypertext navigation system, and the interface modeled on the “office metaphor” based on “windows,” “folders,” the “trash,” etc. Partially realized in the 1973 Xerox Alto 7 Only 1500 units were produced: 1000 for employees of Xerox and the remainder for universities and public institutions. computer, this first form of graphic user interface (GUI) was included in the 1981 Xerox Star. Moreover, the latter was accompanied by network access, email capabilities, a mouse, and a WYSIWIG (What You See Is What You Get) printing system precise enough to make what is seen on the screen coincide with a paper output. In order to specify the origin of the conceptual model used as a basis for a design explicitly asserting needs of “users,” it is important to reconsider the founding principles of the Xerox Star. In an article dating from 1982, five former employees of Xerox Corporation explain their comprehension of the human-machine relations, and more precisely their methodology of interface design: “We have learned from Star the importance of formulating the fundamental concepts (the user’s conceptual model) before software is written, rather than tacking on a user interface afterward. […] It was designed before the functionality of the system was fully decided. It was even designed before the computer hardware was built. We worked for two years before we wrote a single line of actual product software.” 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p. 246. Reprinted online: Contemporary readers, used to design being relegated to the end of a process, dependent on a multitude of external parameters, will certainly wonder at the attribution of such importance to design “before” the material specifications are even formulated. In the case of the Star, it was much more a question of introducing the market to “radically new concepts”9 Ibid.p. 242. than of seeking to apply an “order” issued from above. By dedicating a quantity of memory to the screen display, the originators of the Star were able to create a visual interface functioning in tandem with the mouse (also used on Xerox Alto), defined in the 1982 text as “a way to quickly point to items on the screen 10 Ibid. p. 246.” more effective than the cursors activated by the keyboard. It is particularly interesting to study how the Xerox teams developed a project methodology linked to what is today called “user-centered design.” The development of an interface poses many problems indeed: taking into account the variety of languages in which the users address their commands to the computer, the design of on-screen representations displaying the state of the system to the user, and other abstract problems that can affect the understanding of the system’s behavior. According to the Star teams, these problems are highly subjective, and can be solved only on a case-by-case basis. The method employed thus consisted in focusing on what should precede any design of a successful interface, namely “task analysis”: ” The current task description, with its breakdown of the information objects and methods presently employed, offers a starting point for the definition of a corresponding set of objects and methods to be provided by the computer system [including programs and peripherals]. The idea behind this phase of design is to build up a new task environment for the user, in which he can work to accomplish the same goals as before, surrounded now by a different set of objects, and employing new methods.11 Ibid.p. 248. “ For Xerox, the user is an entity centrally dedicated to carrying out tasks in order to achieve objectives. One finds here the common definition of an algorithm, namely, a set of instructions intended to accomplish a given action. In other words, isn’t this understanding of what a user is derived from the “program” (an algorithm written in machine language) as a model of thought? Isn’t it odd that, in order to improve human-machine relations, human beings are to be imagined on the model of the machines? In this sense, what one would call a “user” in the data-processing context would often be merely a logical reduction of human subjectivity, consequently able to hold a dialogue with “extra-human” programs 12 I borrow this expression from the exhibition Haunted By Algorithms, a research project directed by Jeff Guess and Gwenola Wagon, Paris, ENSAPC / YGREC, January 21, 2017 – March 5, 2017.. Just as some see design as a discipline capable of becoming a science 13 See Anthony Masure, Pour une recherche en design sans modèle, in: Design et humanités numériques, ed. Anthony Masure (Paris 2, here it is a matter of constructing “models of behavior” in order to improve the effectiveness of the “tasks.” The etymology of the French noun “tâche” (“task”) can be traced back to the Latin verb “taxare” (“to tax»), indicating “a determinate work that one is obliged to perform, together with a concept of ‘remuneration’ [or] moral duty 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. p. 9620–9621.”. The French verb “tâcher” (“to try to do”), in turn, expresses the idea of striving, sometimes accompanied by the idea of a degree of painful exertion in order to comply with the imperative to “try to do” something. If the user is a being whose objectives, to be realized, necessarily pass by a series of tasks to achieve, wouldn’t this make us “tâcherons” (“drudges”), i.e. “person[s] performing work on command [emphasis by the author/s] without much intelligence”? 15 Ibid.p. 248–249. In the case of the Xerox Star, nevertheless, things are more complicated. The fact of starting from a “user-model” comprised of a small set of design principles makes it possible to ensure an overall coherence, since “the user experience [acquired in] in one area… [can] apply in others 16 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p. 242: “The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […] and allow user experience in one area to apply in others.” Emphasis mine.,” thus reducing the cognitive load involved in the use of the computer system. Another aspect discussed in the article – connected with the concept of coherence – pertains to the concept of “familiarity” (the “Familiar User’s Conceptual Model”): “A user’s conceptual model is the set of concepts a person gradually acquires to explain the behavior of a system […] The first task for a system designer is to decide what model is preferable for users […]. This extremely important step is often neglected or done poorly. The [Xerox] Star designers devoted several work-years […] [to] evolving […] an appropriate model for an office information system: the metaphor of a physical office.”17 Ibid.p. 252. The Xerox Star interface was thus constructed on the basis of the users’ current universe, namely, the hierarchical model of the office. It was important to produce a “familiar” interface in order to reduce sources of friction, making the “user experience” seamless. Thus, users find in the machine their customary division, organization, and management of tasks. For example, the pile of paper messages on the physical desk of office-worker users is translated, in their computer, into a pictogram of an envelope indicating when a new email has been received. It is interesting to specify that the metaphorical model defined in advance of the actual development of the program de facto modifies the functions of this program: the design is not approached as a matter of mere presentation. Taking the example of the emails once again, typing a “send mail” command can thus be avoided by manipulating the icons. A last important aspect of the Star interface pertains to the personalization of the interface, as the movable icons make it possible to configure the work environment. Summarizing the overall principles of the Xerox Star, what is indicated here by the term “user” is in fact a succession of goal-directed “tasks” from which the designers construct a “conceptual model” as a basis for the developing of the computer system and ensuring its metaphorical coherence. By providing users with a “familiar” and “friendly” environment, the interface thus developed is intended to increase their productivity by developing “human-machine synergism.” However, the Xerox Star’s “friendly” interface reveals its limitations in certain functions where the office metaphor is inoperative: “One of the raisons d’être for Star is that physical objects do not provide people with enough power to manage the increasing complexity of the “information age.” For example, we can take advantage of the computer’s ability to search rapidly by providing a search function for its electronic file drawers, thus helping to solve the long-standing problem of lost files.” 18 Ibid.p. 282. The 1982 article concludes on an intriguing note, observing that it is difficult to choose between several models of interfaces while relying on stable (scientific) criteria: “User-interface design is still an art, not a science.” 19 Ibid. : « User-interface design is still an art, not a science. » Although the Xerox Star text ultimately pleads for the establishment of a “more rigorous process” for the development of interfaces, such an assertion must elicit the contemporary reader’s curiosity. The emergence of “rationalized” graphic operating systems In spite of the commercial failure of Xerox Star, these design methods will be a success, definitively changing our relations with electronic machines. A precursor of the research conducted to Xerox PARC, Jef Raskin’s thesis in computer science, Quick-Draw Graphic System, published in 1967 (i.e., 6 years before the Xerox Alto 20 At the beginning of the Seventies, the IBM Usability lab was solely concerned with ergonomics. The Psychology of Computer Programming was published by Gerald Marvin Weinberg in 1971, and the work of Stuart K. Card, Allen Newell and Thomas P. Moran was only made known to the general public after the publication of The Psychology of Human-Computer Interaction in 1983.), argued for a data-processing environment in which the graphic interface would hold a dominant place. Such an idea was not at all self-evident at the end of the 1960s: “The most heretical statement I made […] was that my work was based on a “design and implementation philosophy which demanded generality and human usability over execution speed and efficiency.” This at a time when the main aim of computer science courses was to teach you to make programs run fast and use as little memory as possible.” 21 Dr. Bob, Articles from Jef Raskin about the history of the Macintosh. Dr Bob Tech Blog (2013), https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/, access: July, 1, 10:00pm. After contacts with Xerox concerning the development of the mouse, Jef Raskin was hired by Apple in 1978. It is under his impetus and that of Bill Atkinson 22 The title of Jef Raskin’s thesis (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) was echoed when Bill Atkinson named the Macintosh’s graphics package. that Steve Jobs and Steve Wozniak took note of the research conducted by Xerox PARC on graphic interfaces. Everyone of us knows the rest of the story. In 1979, the CEO of Apple Inc., Steve Jobs, age 24, visited the Xerox facility. In a 1995 documentary, he recalls the shock which this event constituted for him: “They [Xerox] showed me […] three things. […]. One of the things they showed me was object orienting programming […]. The other one they showed me was a networked computer system [of a hundred computers] […]. I didn’t even see that. I was so blinded by the first thing […] which was the graphical user interface. I thought it was the best thing I’d ever seen in my life. Now remember it was very flawed, what we saw was incomplete […] [But, at the time,] within […] ten minutes it was obvious to me that all computers would work like this some day.” 23 Steve Jobs, Triumph of the Nerds: The Rise of Accidental Empires. Documentation. PBS.org (1996), http://www.pbs.org/nerds, access: July, 1, 10:00pm. Following this presentation, obtained in exchange for shares in Apple Inc., Steve Jobs launched the Apple LISA micro-computer, which took the principles of the mouse and the graphic interface from Xerox Star, in 1982. With a price that was too high ($10,000 at the time, or $24,000 today), the LISA was replaced by the much more financially accessible Macintosh, released in 1984. While many still think that Steve Jobs did little more than “steal” the key principles of the Xerox Alto, the history is more complicated than that. The leaders of Xerox had not yet recognized the decisive consequences of what they had discovered, leaving their prospective vision in the hands of the sales and marketing teams, which were focused on photocopiers, the core of the brand, and not on the new market for computers 24 For a detailed history of the Xerox company, see: Douglas K. Smith and Robert C. Alexander, Fumbling the Future: How Xerox Invented, then Ignored, the First Personal Computer (New York 1988).. Bill Atkinson would have to rewrite and improve the quantity of functions in order for the LISA, and then the Macintosh, to take advantage of a “superior” graphic interface (with the addition of scrolling menus, the opening of windows with a double-click, the trash icon, etc). No line of code was “copied and pasted,” strictly speaking 25 Christoph Dernbach, Did Steve Jobs steal everything from Xerox PARC? Mac History (February 2012), http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc, access: July, 1, 10:00pm.. In order to bolster the supply of software for Apple machines, at the beginning of the 1980s, Steve Jobs invited Microsoft to publish programs for the Macintosh. In spite of Jobs’ request to Bill Gates (then CEO of Microsoft) not to use a mouse-controlled graphic interface before the Macintosh (1984) had been on sale for a year, Microsoft surprised everyone by announcing the operating system Windows 1.0 in 1983 26 Windows 1.0 was not yet a complete operating system, but rather a “graphic shell” that could be used by third-party software. , although it would only make its official debut in 1985. When Jobs, furious, accused Bill Gates of having betrayed him, Gates replied that they had both stolen from their “rich neighbor, Xerox.”27 Andy Hertzfeld, A Rich Neighbor Named Xerox. Folklore.org (November 1983), https://www.folklore.org/StoryView.py?story=A_Rich_Neighbor_Named_Xerox.txt, access: July, 1, 10:00pm. See also : Andy Hertzfeld, How the Mac was born, and other tales. Conversation with Scott Ard. CNET (January 2005), http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html, access: July, 1, 10:00pm.. The suit brought against Microsoft by Apple in 1988 was unsuccessful in the courts. Don Norman: the limits of the “user experience” After the release of Microsoft Windows, the design methods used in interface design were structured around scientific disciplines connected with this field. In addition to the expressions “human usability” and “user interface,” that of “user experience” (often shortened to “UX”) then achieved a notable success. The latter seems to appear for the first time in 1986 28 For a detailed chronology of the history of this term, see: Peter Merholz, Whither “User Experience”? Peterme.com (November 1998), http://www.peterme.com/index112498.html, access: July, 1, 10:00pm. in a book co-edited with Donald Norman (a cognitive science researcher), titled User Centered System Design: New Perspectives on Human-Computer Interaction 29 Donald A. Norman and Stephen W. Draper, User Centered System Design: New Perspectives on Human-Computer Interaction (San Diego 1986).. After a consideration of the impossibility of arriving at a univocal meaning by means of standardized images (pictograms), this quotation follows: “Direct Engagement occurs when a user experiences direct interaction with the objects in a domain. Here, there is a feeling of involvement directly with a world of objects rather than of communicating with an intermediary. The interactions are much like interacting with objects in the physical world. […] [T]he interface and the computer become invisible. Although we believe this feeling of direct engagement to be of critical importance […] we know little about the actual requirements for producing it.”30 Edwin L. Hutchins, James D. Hollan, and Donald A. Norman, Direct Manipulation Interfaces, in: User Centered System Design: New Perspectives on Human-Computer Interaction, ed. Donald A. Norman and Stephen W. Draper (San Diego 1986), pp. 114-115. “User experience” can thus be understood as a will to export the Xerox Star design model to fields other than that of screen interfaces and computers which can disappear, becoming “invisible.” Frequently cited as the originator of this expression, Don Norman defined it as follows in 1998: “I invented the term [user experience] because I thought Human Interface and usability 31 The concept of “usability” that Don Norman judges insufficient, was addressed by its proponents, Jeff Rubin and Dana Chisnell, in these terms: “when a product or service is truly usable, the user can do what he or she wants to do the way he or she expects to be able to do it, without hindrance, hesitation, or questions.” Source: Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests (Indianapolis 2008 [1994]), p. 4. were too narrow: I wanted to cover all aspects of the person’s experience with a system, including industrial design, graphics, the interface, the physical interaction, and the manual.” 32 Don Norman, quoted in: Peter Merholz, Whither ‘User Experience’? This broader aspect of “user experience” was then refined in the “canonical” version formulated by Jakob Nielsen and Don Norman: “User experience” encompasses all aspects of the end-user’s interaction with the company, its services, and its products. The first requirement for an exemplary user experience is to meet the exact needs of the customer […]. We should also distinguish UX and usability: According to the definition of usability, it is a quality attribute of the UI, covering whether the system is easy to learn, efficient to use, pleasant, and so forth. Again, this is very important, and again total user experience is an even broader concept.” 33 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. “Experience design” and the myth of “invisible” data processing This interest, from then on focusing on the user rather than the technological apparatus (the interface), is even more explicit in the phrase “user-centered design” (“UCD”), which consists in basing the whole methodology of design on the central point that is the user. This design methodology enjoyed considerable success, perhaps because of the bond it helped establish between the marketing services tasked with studying consumers and the teams tasked with designing the products. However, by the admission of its own proponent, Don Norman, the term “user” has shown its limitations. In a 2006 article titled “Words Matter. Talk About People: Not Customers, Not Consumers, Not Users,” Don Norman admitted: “We depersonalize the people we study by calling them “users.” Both terms are derogatory. They take us away from our primary mission: to help people. […] People are rich, complex beings. […] A label such as customer, consumer or user ignores [their] […] social structures. […] It is time to wipe words such as consumer, customer, and user from our vocabulary. Time to speak of people. Power to the people.”34 Don Norman, Words Matter. Talk About People: Not Customers, Not Consumers, Not Users. jnd.org (2008), http://www.jnd.org/dn.mss/words_matter_talk_a.html, access: July, 1, 10:00pm. In the same way, in 2008: “One of the horrible words we use is “users.” I am on a crusade to get rid of the word “users.” I would prefer to call them “people.” […] We design for people, we don’t design for users.” 35 Don Norman at UX Week 2008, Adaptive Path. YouTube, https://youtu.be/WgJcUHC3qJ8, access: July, 1, 10:00pm. Let us summarize these points. The methodology of “user-centered design” consists in designing so as to treat each human being as a user, as a person dedicated to maintaining with companies only relations “centered” on his or her “exact needs,”36 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. concerning which there should be no “hindrance[s], hesitation[s], or questions.”37 Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. How to Plan, Design, and Conduct Effective Tests (New York 2008), p. 4. This current of thought results from a scientific modeling of the principles that governed the design of the Xerox Star in order to make it a “personal” machine, optimizing the tasks to be performed by the user. Retrospectively, the performative texts of Don Norman speaking in praise of the study of “needs,” by the admission of their author, led to a dead end, because the human being cannot be reduced to a specific role 38 This idea was inscribed within the ISO standards, which propose replacing the expression “user-centered experience” with “human-centred design.” See: ISO 9241-210: 2010. Ergonomics of human-system interaction — Part 210: Human-centred design for interactive systems. Iso.org (March 2010), https://www.iso.org/obp/ui/en/#iso:std:iso:9241:-210:ed-1:v1:en, access: July, 1, 10:00pm.. Such a reversal of thought might be amusing. However, on closer inspection, wouldn’t one also have to interpret these contradictory injunctions as the sign of a power belonging not to the “people,” but to those who make these speeches? In other words, isn’t this an indictment of those who are constantly getting richer (in the banal sense of the term) by controlling the circulation of the design methodologies that are to be gotten rid of by this “crusade”? More than a plea in favor of taking complexity into account in design, this “appeal to the human,” for Don Norman, provides a rationale for gradually eliminating “interfaces” in the name of an “invisible” computing 39 Donald A. Norman, The Invisible Computer. Why Good Products Can Fail, the Personal Computer Is So Complex, and Information Appliances Are the Solution (Cambridge MA, 1998)., the products of which would be “human-centered.”40 Chapter 2 of The Invisible Computer is titled “Growing up: Moving from technology-centered to human-centered products.” This prediction of invisibility, passing under the guise of a change in vocabulary, a priori innocent, was so absorbed so thoroughly by the corporations that in 2012, Apple made it into a selling point: “We believe technology is at its very best when it’s invisible, when you’re conscious only of what you’re doing, not the device you’re doing it with. An iPad is the perfect expression of that idea. It’s just this magical pane of glass. It can become anything you want it to be […] It’s a more personal experience with technology than people have ever had.” 41 Official Apple (New) iPad Trailer. YouTube (March 2012), https://youtu.be/RQieoqCLWDo , access: July, 1, 10:00pm. However, Don Norman’s big picture does not mean that his idea of “invisible” computing is viable. The important term here is “experience,” which goes hand in hand with that of “magic.” What could be more magical, indeed, than experiencing an “invisible” technology? The artist Olia Lialina, in a critical article on the study of the concept of user, does not join in the chorus: “This is why Interface Design starts to rename itself to Experience Design — whose primary goal is to make users forget that computers and interfaces exist. With Experience Design there is only you and your emotions to feel, goals to achieve, tasks to complete. ” 42 Olia Lialina, Turing Complete User (2012), http://contemporary-home-computing.org/turing-complete-user/, access: July, 1, 10:00pm. A world without experience In the conclusion of her article studying the limitations of an exclusion of the term user of the methods of interface design, Olia Lialina proposes to return to foundations predating the Xerox Star, namely those developed by the computer scientist Ted Nelson in his 1974 work Computer Lib/Dream Machine: “COMPUTING HAS ALWAYS BEEN PERSONAL. By this I mean that if you weren’t intensely involved in it, sometimes with every fiber in your mind atwitch, you weren’t doing computers, you were just a user. If you get involved, it involves all of you: your heart and mind and way of doing things and your image of yourself. A whole way of life.” 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now (self-published, revised edition 1987 [1974]), p. 3. The argument is strong. Nelson’s denunciation of a “naïve” use points to the risk of a loss of contact with the computer, which, from Xerox Star to the iPad, presupposes that everything “real” (real life, creativity, etc) is external to the machine. However, in spite of the ascendancy of tactile interfaces (without mouses), in spite of the emergence of gestural interfaces (without buttons) and sound interfaces (without screens), and in spite of the return of command-line interfaces (without icons), it is clear that the great principles of the graphic interfaces created at Xerox PARC at the beginning of the 1970s are still the main ones governing our relations with electronic machines – which are not yet “invisible,” far from it. Take, for example, the “Apple Human Interface Guidelines” 44 See for example: “Designing for Yosemite: […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience.” Human Interface Guidelines, developer.apple.com, https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGuidelines, access: July, 1, 10:00pm. and Google’s “Material Design,” 45 Google Material Design, material.io (first version published June 2014), https://www.google.com/design/spec/material-design/introduction.html, access: July, 1, 10:00pm. which, in the 2010s, are the recommended readings – with the proviso of reading critically – for anyone interested in interface design. In spite of its widespread acceptance, the cognitive model of an interface coupled with an idealized user (understood as a bundle of habits) has its limitations. Since Jef Raskin’s 1967 text associating “human usability” with efficient task completion 46 See Jef Raskin, A Hardware-Independent Computer Using List-Structured Modeling: The Quick-Draw Graphics System (Pennsylvania, 1967)., the will to create a graphic interface to procure for the “user” a new work environment and new methods “to accomplish the same goals as before” 47 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p. 248. has consisted in envisaging electronic media as “problem solvers” rather than as powers of transformation and invention. However, as the humanities specialist Yves Citton perceptively notes: “The invention of communication technologies […] takes place within a vast nebula of hopes, anxieties, dreams, tinkerings, parallel knowledges, subversive appropriations and reappropriations, crossing many traditional disciplinary fields […]. Indeed, our media cannot be reduced to mere instruments for the transmission of forms and contents: it functions, first and foremost, in just the same way as the mediums who fascinate us, delude us, hypnotize us and stimulate us via simulations that penetrate our senses.” 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques (Paris, 2012), pp. 21–22. Taking into consideration these foundational design texts of the computer age, it is obvious that electronic machines raise questions that did not exist before. But perhaps it is precisely against these innovations that methodologies of design were themselves designed with an eye to preserving the powers and knowledges already in place. In spite of its undeniably advanced technology, the Xerox Star did not have the full support of the corporate leaders, who preferred to focus on the photocopier business, more in phase with the “uses” of the time. In this history of “user-centered design,” an expression originating after the Xerox Star, it is indeed a matter of a concern about forgetting the “useful,” the utility of the object. But is this really possible in a world in which marketing services, for example, constantly seek to anticipate consumers’ “needs ” by statistical processes linked to observation protocols? Another factor suggesting a design constructing against technological innovations – i.e., for habits – is this history of the “center,” a term which should now be examined. This twofold suffix coupled with design could have been the subject of variations. Why does one never speak, for example, of “form-centered” design, for example, or of “practice-centered” design? Perhaps is this because these two concepts (there could be others) resist the idea of a “center,” of delimitation. If one considers the concept of form, it is notable that this, historically, was related to design – according to the formula of the architect Louis Sullivan, according to which “form ever follows function.” As a canny observer of a history that sometimes “tramples” (in which the issues are sometimes obscured, sometimes rediscovered), the philosopher Pierre-Damien Huyghe notes that the concept of form expresses the “artistic interest” of design: “It was not only a question of creating potentially functional objects. The concern for making form is absolutely essential to the design. We may note here that the Latin forma can be translated as “beauty.””49 Pierre-Damien Huyghe, On appelle beaucoup trop de choses ‘design’. Interview with Julie Delem. Naja21 (April 2015), http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design, access: July, 1, 10:00pm. In a more general way, design, in so far as it encompasses the capacity to transform the world, cannot “center” on anything. Design is only of any interest if it is derived from tensions, polarities, contradictions – in other words, the opposite of a center. Olia Lialina, in the conclusion of her article, also refuses to let herself be reduced to a label: “We, general purpose users — not hackers and not people — who are challenging, consciously or subconsciously, what we can do and what computers can do, are the ultimate participants of man-computer symbiosis.” 50 Olia Lialina, Turing Complete User. One must then reconsider the fact that the conceptual model of the 1981 Xerox Star interface was decided “before” the material (hardware) existed, “two years before we wrote a single line of actual product software.” 51 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p. 246. Retrospectively, this account can be understood as that of a missed encounter with the otherness of the machines, since it is, in effect, a matter of subordinating the digital technology (hardware and software) to a “model,” i.e., to something anticipated and stabilized. This progressive distancing of the concept of the “General Purpose User” 52 Olia Lialina, Turing Complete User.op. cit (active and polyvalent) has made possible the expressions “human-centered design” and “experience design”, which incarnate the promise of a world in which one could “do whatever one wishes,” immediately, as if by “magic.” But which kind of “doing” are we talking about when invisibility becomes the ideal for the machines? This myth of the invisibility of technological innovations in fact already existed in a nascent form at the dawn of personal computing. In a 1979 commercial for the Xerox Alto intended to demonstrate the power of the “office of the future,” an office worker (Bill) arrives at work and greets his colleagues, coffee in hand. When he arrives at his station, he turns on his Alto computer and addresses it verbally: “Hello, Fred.” The computer answers him: “Hello, Bill.” After a series of tasks, easily solved by the machine, comes the final dialogue: Bill (tired): “Anything else?” Fred: A richly detailed bouquet of daisies spreads across the screen. Bill (puzzled): “Flowers? What flowers?” Fred: “Your anniversary is tonight.” Bill (chagrined): “My anniversary. I forgot.” Fred: “It’s okay. We’re only human.” 53 Douglas K. Smith and Robert C. Alexander, Fumbling the Future, (Indiana, 1999), p. 20. What such initiatives describe, paradoxically, is a world without experience [un monde sans expérience] 54 The French word expérience can mean “experience” or “experiment.” (Translator’s note.), in the sense in which experience/experimentation can take place only within a field of possibilities open to uncertainty: Economic power is what the socialization of experiences implements. However, if this implementation augments shared experience and perception day by day, it does not appear authentically. Most often, it borrows the forms of habit, it slips mimetically into experience. 55 Pierre-Damien Huyghe, Faire place, in: Qu’est-ce que l’art domestique ?, ed. Richard Conte and Sandrine Morsillo (Paris, 2006), p. 29. Symptomatic of an era when “apparatuses” 56 The apparatus is defined by Pierre-Damien Huyghe as “a technological method distinct from the tool and the machine [which produces] within us a power of perception, a particular form of sensibility.” See: Pierre-Damien Huyghe, Introduction au dossier “Temps et appareils”. Plastik 3 (2003), p. 4. are no longer objects worthy of interest, human-machine relations are increasingly marked (branded) by the registers of utility, output, or time-saving. The human experience of “experience design” is often reduced to an experimental situation, that of a rat seeking the way out of a labyrinth. Even if it is “friendly” or “invisible,” this technological medium is no less a straightjacket, a controlled situation in which any exchange is anticipated and preprogrammed. When we are mirrored in the form of the “human, all too human” computer, we “ordinary people” are the ones who stand to lose sight of our complex and infinite possibilities.
Notions
Personnes citées
Date
May 2021
Type
PublicationContexte
Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.
Résumé
À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.
Notions
Personnes citées
Objets mentionnés
Résumé
Rencontre autour du philosophe et théoricien des médias Vilém Flusser (1920-1991) avec les contributrices et contributeurs de deux publications récentes : Post-histoire (copublication T&P Work UNiT & Cité du Design de Saint-Étienne) et le numéro 74 de la revue Multitudes.
Personnes citées
Objets mentionnés
Date
October 2021
Type
ConférenceContexte
Invitation au « Tech+Society Breakfast » (Ethix – Lab for Innovation Ethics + SATW – The Swiss Academy of Engineering Sciences).
Résumé
Nous passons une grande partie de nos journées en utilisant des outils numériques. De Zoom à Zalando aux applications des réseaux sociaux, ces outils sont conçus pour maximiser la facilité d’utilisation tout en maximisant les retours financiers pour leurs concepteurs. À cet effet, des techniques de design sont utilisés pour orienter le comportement des utilisateurs. Quelles conséquences ont ces techniques sur le bien-être des utilisateurs et le fonctionnement de nos sociétés numériques ? Quel standards éthiques devrions-nous adopter dans le design des outils numériques? Et quelle responsabilité portent les designers numériques ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
September 2018
Type
ConférenceContexte
Conférence donnée au colloque colloque MCRIDD, Tunis, Institut Supérieur des Arts Multimédia de la Manouba (Isamm)
Résumé
Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes auto-apprenants (deep learning) et potentiellement incontrôlables (black boxes). Ces IA « créatives » investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Sous couvert de rentabilité, le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs (patterns) automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?
Notions
Personnes citées
Objets mentionnés
Date
May 2019
Type
ConférenceContexte
Communication dans le cadre de la chaire de philosophie à l’hôpital, séminaire « Design with Care », dir. Cynthia Fleury et Antoine Fenoglio (Les Sismo), Paris, Cnam
Résumé
Alors que nous manquons encore de recul pour comprendre ce que les média, flux et interactions numériques nous font, font avec nous, ou font contre nous, quels autres modes de conception et modèles économiques peut-on inventer ? Comment une compréhension plus fine des différentes théories psychologiques pourrait-elle permettre de déjouer une certaine approche neurocognitiviste assimilant le psychisme humain à une commutation de circuits ? Pourrait-on permettre au plus grand nombre de comprendre et d’accéder aux paramètres façonnant l’attention en contexte numérique ? Le design pourrait-il devenir, à rebours de l’exploitation de nos vulnérabilités psychiques, l’endroit d’une possible « écologie de l’attention » ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
December 2018
Type
PublicationContexte
Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique ».
Résumé
Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?
Notions
Personnes citées
Objets mentionnés
Date
March 2019
Type
PublicationContexte
Introduction à : Vilém Flusser, Post-histoire [1982, version française inédite], propos liminaire de Catherine Geel et postface d’Yves Citton, Paris, T&P Work UNiT
Résumé
Présenter Vilém Flusser en français, au tournant des années 2010, prend un tour archéologique. Quelle puissance recèle encore cet individu inclassable 1 Pour un aperçu général de l’œuvre de Flusser, voir : Anke Finger, Rainer Guldin, Gustavo Bernardo, Vilém Flusser: An Introduction, University of Minnesota Press, coll. « Electronic Mediations », 2011., tour à tour linguiste, philosophe, théoricien des médias, anthropologue, biologiste, etc. ? Comme purent l’être en leur temps Walter Benjamin ou Hannah Arendt, Flusser (1920–1991) aura été un intellectuel migrant (« bodenlos », littéralement « sans sol ferme »), écrivant suivant les cas en portugais, allemand, anglais et français dans une logique autocritique, en repensant les concepts dans leur langue d’accueil. Depuis quel lieu, depuis quel fond (Boden, archè) nous parle-t-il toujours, lui qui aura autant traversé – par contrainte – les continents que défié – avec joie et provocation – les frontières de la pensée ? Autrement dit, à une époque où l’idée d’un assujettissement des subjectivités par des programmes supposément « intelligents » fait presque figure de banalité, que peut encore nous dire Flusser, lui qui avait entrevu peut-être comme nul autre les séismes que l’irruption des codes alphanumériques allait provoquer ? Pour répondre à de telles questions, le titre de cet essai, Post-histoire, doit nous mettre sur la voie. À près de 30 ans d’écart avec sa mort prématurée en 1991 dans un accident de voiture survenu vers sa ville natale de Prague, Flusser ne cesse de déranger et de désorienter. Penser Flusser comme une archive, au sens où l’entend le philosophe Jacques Derrida, c’est-à-dire à une puissance de stockage et de reproduction, permet ainsi d’envisager ce qui, dans ses textes, ne cesse de s’actualiser et d’inquiéter nos certitudes. Si « l’archive travaille toujours et a priori contre elle-même 2 Jacques Derrida, Mal d’archive. Une impression freudienne, Paris, Galilée, coll. « Incises », 1995, p. 26-27. », alors elle s’oppose de fait au concept d’histoire qui, à suivre Flusser, implique plutôt un enchaînement d’actions, de faits et de documents. Ce n’est donc pas un hasard si Vilém Flusser (avec le théoricien des médias Friedrich Kittler) est habituellement considéré comme un précurseur de l’« archéologie des médias », champ aujourd’hui représenté par des chercheurs comme Wolfgang Ernst, Siegfried Zielinski, Jussi Parikka, Jeffrey Sconce, Emmanuel Guez 3 Emmanuel Guez (dir.), « Manifeste Médiarchéologiste », Medium.com, 2016, [En ligne], http://medium.com/@Mediarchaeologist/manifeste-médiarchéologiste38ecf17887b1 ou Erkki Huhtamo. En faisant s’entrechoquer des couches hétérogènes, qu’elles soient historiques, matérielles ou logicielles, l’archéologie des médias s’oppose au mythe de la linéarité du progrès et offre un puissant contre-feu aux promesses d’efficacité des technologies numériques. Un français « zoulou » L’archéologie est toutefois une étude des sols et des terrains, dans ce que leurs couches superposées recèlent de pré-histoire (et ici de post-histoire), et il serait dommage d’approcher le phénoménologue bodenlos depuis une interprétation « hors-sol ». Post-histoire est riche de son histoire. Fuyant le régime nazi qui décima sa famille, Flusser s’installe au Brésil en 1940. Il quitte le Brésil en juin 1972 pour des raisons politiques et professionnelles. En octobre 1972, il s’installe à Merano dans le Tyrol sud tout en voyageant chaque été. En mai 1975, il s’installe à La Tour d’Aigues en Provence. Dans une lettre datée du 17 décembre 1975, Flusser s’excuse par avance de son « français zoulou » qu’il apprend depuis peu. Dans les années 1976-1977, il donne des cours de théorie de la communication à l’école d’architecture de Marseille-Luminy. Il achète une maison dans le village de Robion (Provence-Alpes-Côte d’Azur) en 1980, y fait des travaux, et s’y installe début 1981. Ce volet français reste, faute de publications, largement méconnu. Publié en 2015, le glossaire critique Flusseriana: An Intellectual Toolbox 4 Siegfried Zielinski, Peter Weibel, Daniel Irrgang (dir)., Flusseriana. An Intellectual Toolbox, University of Minnesota Press, Univocal, 2015. comprend 200 entrées rédigées en anglais, allemand et portugais. Chacune des trois langues occupe une colonne du livre. Une quatrième colonne, vide, rend ainsi involontairement compte du manque de réception, en France, de l’amplitude des travaux de Flusser. De façon similaire, le site web FlusserBrasil 5 http://www.flusserbrasil.com comporte un item vide de « textes en français » – seuls les textes allemands, anglais et portugais sont en ligne. Enfin, la foisonnante revue Flusser Studies 6 http://www.flusserstudies.net, sur une liste de 210 auteurs, mentionne, comme seuls contributeurs francophones, Louis Bec, Annick Bureaud, Fred Forest, Marc Lenot et Janine Marchessault (Canada). Rassemblées à la mort de Flusser en 1991 par son épouse Edith Flusser, les archives « nomades » de Flusser ont tout d’abord été conservées à La Haye à partir de 1992. Elles ont déménagé avec elle à Munich, puis ont été confiées au chercheur Siegfried Zielinski qui les a installées à l’Académie des arts médiatiques de Cologne de 1998 à 2006. Depuis 2007, les originaux sont conservés à Cologne tandis qu’une copie sous forme de fac-similés est consultable publiquement à l’université des Arts de Berlin (UdK 7 Joie de la reproduction technique, une autre instance des fac-similés est consultable depuis 2012 à São Paulo (Brésil), au Center for Interdisciplinary Research in Semiotics of Culture and Media (CISC, rattaché à l’Université Pontificale Catholique de São Paulo) fondé en 1992 sous la direction de Norval Baitello Jr.). Dirigée par Maren Hartmann et gérée par Anita Jóri, l’archive Flusser de Berlin contient également la bibliothèque personnelle de Flusser, des documents audiovisuels, de même que de nombreux travaux réalisés autour de son œuvre. Au-delà de permettre une consultation facile de documents rédigés dans de multiples langues, l’archive a été pensée comme un lieu de travail, un hub de personnes aux nationalités et parcours multiples – une archive vivante et autocritique, à l’image de Flusser. L’histoire de Post-histoire C’est lors de séjours de recherche en 2017-2018 à l’archive Flusser 8 Portant sur la notion de programme, ces recherches ont pu être entreprises grâce au dispositif « Soutien à la recherche en théorie et critique d’art » du Cnap (session 2017). que j’ai pris connaissance de l’existence des nombreux documents, dont beaucoup d’inédits en français, qui tranchent avec les traductions que nous connaissons actuellement de ses textes en allemand alors qu’il en avait aussi déjà rédigé une version en français… Travaillant alors sur des textes relatifs aux programmes numériques 9 Une sélection d’articles inédits portant sur la notion de programme et rédigés en français par Flusser est reproduite dans la revue Multitudes, no 74, mars 2019, dossier « Vivre dans les programmes » dirigé par Yves Citton et Anthony Masure., j’en suis rapidement venu à échanger avec les ayants droit de Flusser au Brésil qui s’efforcent de faire vivre sa pensée. Dans un échange par mail du 17 août 2018 avec Catherine Geel et moi-même, Rodrigo Maltez-Novaes (artiste, traducteur et éditeur et assistant de Miguel Flusser) mentionne le manuscrit « complet » de Post-histoire en sa possession. Tout le monde ignorait l’existence de ce document car seuls sont conservés à Berlin, en français, un ou deux chapitres 10 Cotes dans l’archive Flusser : 1-PHF-01_2163_LE CIEL NOUS PROTEGE et M21-SGRAFF-01_693_LE SOL AU-DESSOUS DE NOS PIEDS. Indication confirmée par Anita Jóri. de l’essai. Peu de temps après, il apparaît que Marc Partouche, fin connaisseur de Flusser pour l’avoir fréquenté dans le sud de la France et pour avoir dirigé la réédition augmentée des Gestes 11 Vilém Flusser, Gestes, édition dirigée par Marc Partouche, introduction et appareil critique de Sandra Parvu, Marseille / Al Dante et Bruxelles / Aka, 2014. Partouche avait aussi établi le texte de la première édition, coéditée par D’ARTS (Cergy) et Hors Commerce (Paris) en 1999., possède une seconde version du manuscrit de Post-Histoire. C’est en comparant ces deux versions tapées à la machine à écrire (comme la plupart des textes de Flusser) que l’éditeur T&P Work UNit, via Stéphanie Geel, est parvenu à établir la présente version. L’histoire de Post-histoire est révélatrice des difficultés à appréhender la boîte noire des strates flussériennes : face à l’appareil technique qui menace toujours de nous dévorer, le chercheur (que je suis) doit redoubler de vigilance pour ne pas commettre d’impairs dans l’élaboration d’un appareil critique d’un auteur qui ne s’encombrait pas de notes de bas de page. Dans son avant-propos « mode d’emploi », Flusser mentionne que le texte a d’abord été écrit en anglais à partir de courtes conférences données dans divers pays, puis traduit en allemand et en portugais pour être publié en Allemagne et au Brésil. La rédaction française devait, logiquement, être publiée en France. Dans les faits, Pós-história est publié pour la première fois au Brésil, en 1983 12 Vilém Flusser, Pós-história: vinte instantâneos e um modo de usar, São Paulo, Duas Cidades, 1983., suivi par Nachgeschichte en Allemagne en 1990 13 Vilém Flusser, Nachgeschichten. Essays, Vorträge, Glossen, Düsseldorf, Bollman, 1990., peu avant sa disparition. Malgré l’existence du manuscrit en anglais rédigé par Flusser lui-même 14 L’archive Flusser mentionne par exemple la cote suivante : 1-PHE_2144_POS-HISTORIA ENGLISH., il faudra attendre 2013 pour que Post-history 15 Vilém Flusser, Post-History, traduit du portugais par Rodrigo Maltez Novaes, Minneapolis, Univocal, 2013 soit traduit du portugais par Rodrigo Maltez Novaes. Reste donc à savoir de quand date le manuscrit français, forcément rédigé après la version portugaise, et non mentionné dans le volume Flusseriana 16 Le volume collectif Flusseriana, op. cit., p. 496-498, mentionne ainsi : « In February and March [1980], Flusser gave a series of lectures […] in Marseille. Parallel to this, Flusser worked on the manuscript for Nachgeschichte [Post-History], published in 1990. In December [1980] Flusser completed the Portuguese version of the manuscript. Pós-história was published in Brazil in 1983: the English edition, Post-History, was translated from the Portuguese and appeared in 2013. ». En 1981, date de son installation à Robion, Flusser travaille sur de multiples projets, notamment autour des relations entre le vivant et l’artificiel via ses recherches sur le vampyrotheutis infernalis 17 Vilém Flusser, Vampyroteuthis infernalis [1981-1987], trans. C. Lucchese, (Bruxelles: Zones sensibles, 2015). L’étude de sa correspondance 18 Je remercie vivement le chercheur Marc Lenot de m’avoir signalé ces sources documentaires. Sur (entre autres) Flusser et la photographie, voir son ouvrage : Jouer contre les appareils. De la photographie expérimentale, Arles, Photosyntheses, 2017. fournit alors des indications décisives. Dans une lettre à l’artiste Hervé Fischer 19 Cote COR-157-FRENCH PUBLISHERS-3 dans les archives Flusser. (proche de Fred Forest) du 12 janvier 1982, Flusser mentionne qu’il a écrit le livre en portugais et en allemand, que Duas Cidades va le publier en mars 1982, et que l’édition allemande sera pour plus tard. Surtout, Flusser dit qu’il a traduit le livre en français avec l’aide d’un voisin à Robion : « Je crois qu’on ne peut pas habiter un pays sans y publier », dit-il. Fischer, à qui Flusser demandait de l’aide pour publier le manuscrit, lui répond : « J’ai bien reçu votre lettre et votre manuscrit La Post-histoire que j’ai commencé à lire et que je trouve très intéressant. Je vais essayer de convaincre un éditeur mais vous savez que c’est difficile […]. Je vous promets de faire de mon mieux. C’est tout ce que je peux vous promettre 20 Lettre manuscrite non datée, ibid. ». Dans une autre lettre, Fischer lui dit : « J’ai donné votre manuscrit à Stock et il faut être patient. Et pas trop optimiste… La crise est sérieuse aussi pour l’édition 21 Lettre manuscrite non datée, ibid. » Le 21 avril 1982, Flusser remercie Fischer, qui répond deux jours plus tard : « J’attends de Stock la réponse. Il ne faut pas être trop optimiste par les temps qui courent. » Parallèlement, Flusser envoie le manuscrit à Marc Partouche qui résidait alors à Marseille. Dans une lettre du 12 mars 1982, Flusser indique ainsi, en joignant son texte : « Il ne s’agit pas d’un manuscrit définitif, mais plutôt d’une ébauche de manuscrit. Si vous la jugez intéressante pour une publication, il faudrait la revoir radicalement. » Partouche lui répond dans une lettre du 18 mai 1982, en indiquant, au vu des faibles moyens dont il dispose, des conditions d’édition financières particulières demandant à Flusser d’avancer une partie des frais d’impression. On peut supposer que le projet est abandonné car Flusser est lui aussi peu fortuné : de nombreux éléments de sa correspondance le montrent inquiet du défraiement de ses interventions et des versements des à-valoir. Dans l’abîme de la post-histoire Signe que l’histoire « linéaire » peut bifurquer dans un abîme, le bâtiment des archives municipales de la ville de Cologne (Historisches Archiv der Stadt Köln), dans lequel sont conservés les documents originaux de l’archive Flusser de Berlin, s’écroule le 3 mars 2009, « emporté par un glissement de terrain [dû à des travaux de creusement d’un tunnel de métro], ensevelissant sous plusieurs tonnes de béton 26 kilomètres linéaires de documents 22 Valérie Caniart, « L’effondrement du bâtiment des archives de la ville de Cologne : retour d’expérience », Revue historique des armées, no 259, 2010, [En ligne], http://journals.openedition.org/rha/7002 ». Parmi les rares pièces restées intactes figurent, par miracle, celles de Flusser 23 Anita Jóri, Alexander Schindler, « (Re-)Archiving Flusser », Flusser Studies, no 24, décembre 2017, [En ligne], http://www.flusserstudies.net/sites/www.flusserstudies.net/files/media/attachments/re-archiving-flusser.pdf. Réunissant ironiquement histoire et archéologie, peut-on trouver meilleure image d’une pensée qui n’aura eu de cesse d’opposer l’art et le jeu aux abîmes de la post-histoire avilissante des appareils ?
Date
November 2021
Type
PublicationContexte
Paper written with Guillaume Helleu for the research journal Multitudes, which appeared in November 2021. Translated from French by Aviva Cashmira Kakar.
Résumé
This paper explores the issues concerning blockchain technologies within the realm of the creative (art, design, video games, etc.), which have arisen since the development of non-fungible tokens (or NFTs) in 2015. NFTs are essentially the production of a decentralized digital certificate that is impossible to forge, which is then linked to a numerical or tangible entity. NFTs have emerged into the mainstream since the beginning of 2021 due to a massive surge in sales and the development of specified marketplaces. NFTs have brought to the fore a variety of issues concerning value, circulation, and the exposure of artistic and cultural productions.
Notions
Date
January 2023
Type
Contexte
Cet ouvrage collectif a été publié suite au colloque éponyme de Cerisy en 2020. Il a été codirigé par Yves Citton, Marie Lechner et Anthony Masure.
Résumé
138 entrées pour explorer les non-dits des nouvelles technologies, intelligences artificielles et autres aspects du numérique, d’algolittérature et asservissement machinique à viralité en passant par capitalisme de plateforme, évangélisme technologique, glitch-féminisme, médiactivisme et technopolice.
Résumé
Les humanités numériques, ces pratiques à la croisée de l’informatique et des sciences humaines et sociales, ne se sont que trop peu préoccupées de questions propres au design. Au-delà d’une approche utilitaire, la constitution d’archives et de corpus de connaissances en ligne est pourtant l’occasion de s’interroger sur les rôles que peuvent jouer les designers au sein de ces projets. Dans la situation contemporaine d’une numérisation du monde marquée par une oligarchie des plateformes, les humanités numériques et le design devraient ainsi œuvrer à dérouter la captation des connaissances et les déterminismes technologiques. Des savoirs et pratiques hybrides Les humanités numériques désignent communément un champ de recherche à la croisée de l’informatique et des sciences humaines et sociales (arts, lettres, histoire, géographie, etc.). Initiées dans les années 1950 grâce au traitement électronique de données permettant d’analyser de grands corpus de textes, les humanités numériques ne décollent vraiment qu’avec le développement du Web au début des années 1990 qui ouvre la voie à des collaborations transdisciplinaires et à la mise en ligne des résultats de recherche. De fait, la plupart des projets en humanités numériques s’incarnent dans des jeux de données interopérables (langages Web SQL, TEI/XML, etc.) et des sites Web dédiés (archives en ligne, visualisation de données, etc.). Ce n’est toutefois qu’en 2010, lors de l’événement THAT Camp Paris, que la communauté francophone se fédère via la rédaction du « Manifeste des Digital Humanities » : ce texte collectif prend explicitement position pour une ouverture des connaissances hors des frontières académiques via l’utilisation de licences libres et de processus collaboratifs documentés. Repenser les façons dont les savoirs se constituent et circulent engendre nécessairement des ruptures épistémologiques. La numérisation de documents antérieurs aux technologies numériques (d’encodage par les nombres) ne laisse pas indemnes les éléments de départ. Une fois encodés, les supports de connaissance se prêtent à de multiples utilisations et contextualisations et peuvent « exister dans des versions différentes, éventuellement en nombre illimité. Ce potentiel est une […] conséquence du codage numérique des médias et de [leur] structure modulaire » (Lev Manovich). De façon plus générale, les humanités numériques font vaciller et s’hybrider les délimitations universitaires. Les logiques de programmation propres à l’informatique voisinent avec celles – par exemple – des historiens, qui peuvent eux-mêmes être amenés à intervenir sur l’architecture de l’information. Apparaissent alors des problématiques mettant en jeu les méthodes de ces différents champs, voire des frictions entre la rationalité des langages formels informatiques et l’incertitude propre aux (vieilles) humanités. Le design comme mise en tension du capitalisme Le paradoxe est que les objets issus des projets en humanités numériques ne reflètent que peu, dans leurs formes, ces tensions épistémologiques. Les interfaces des archives en ligne de documents historiques, par exemple, se ressemblent quelque soit leur fonds de départ. De façon plus dérangeante, les logiques propres à l’industrie des programmes ne sont que peu remises en question. La « facture » des interfaces de consultation demeure majoritairement impensée et reflète souvent les choix « par défaut » des environnements de programmation et des systèmes de gestion de contenus (CMS). De même, dans les rares cas où un designer est présent, cela se fait la plupart du temps en aval des prises de décision propres à l’architecture des données. Le risque est alors d’appliquer sans recul critique des méthodologies propres au design UX (User eXperience), dont l’étude de leur histoire montre qu’elles reposent sur des fondements cognitivistes ayant pour revers de réduire l’expérience humaine à une suite de comportements (modélisations des personas, scripts d’utilisation, etc.). Or l’application de ces processus de conception ne va pas sans poser problème dans le champ des humanités numériques, ancrées dans une culture (du) libre s’opposant à la privatisation des savoirs. De façon plus large, le design « centré utilisateur » inquiète la façon dont « nous » pouvons nous situer dans ces expériences : sommes-nous condamnés à n’être que de simples « utilisateurs » ? Que nous dit cette obsession pour le fait de modéliser l’humanité par des encodages numériques ? Les humanités numériques pourraient-elles – au contraire – devenir l’endroit d’une subversion des technologies et processus dominants ? Nous faisons l’hypothèse qu’une implication du design (et non pas une application, comme le sous-entend l’expression d’« arts appliqués ») au sein des humanités numériques pourrait permettre, tout en facilitant l’accès aux productions de recherche (promesse du design dit UX), d’en renouveler l’approche. L’histoire du design est en effet traversée de tensions entre l’économie de marché et la recherche de dimensions échappant à la rentabilité et à l’utilité. Aux débuts de la Révolution Industrielle, l’artiste et écrivain William Morris souligne ainsi l’importance de penser un « art socialiste » qu’il oppose aux « articles manufacturés [qui] ne peuvent avoir aucune prétention à des qualités artistiques » (1891). Le socialiste, dit-il, « voit dans cette absence évidente d’art une maladie propre à la civilisation moderne et nuisible à l’humanité ». Cette articulation de l’existence humaine à l’esthétique est selon lui la seule façon de parvenir à une « communauté d’hommes égaux ». Remplaçons « socialiste » par « designer », et nous retrouverons à presque un siècle d’intervalle cette idée d’un écart du monde des objets avec le capitalisme dans les écrits du designer Victor Papanek (1971), pour qui le bridage des activités créatives fait que « la morale et la qualité de la vie [souffrent] immensément sous notre système actuel de production de masse et de capital privé ». Il en résulte, selon Victor Papanek, que « le designer doit obligatoirement comprendre clairement [tout comme chaque être humain, pourrions-nous ajouter] l’arrière-plan politique, économique et social de ses actes ». Une vingtaine d’années après Victor Papanek, le critique d’art Jonathan Crary dresse l’histoire des « nouvelles constructions institutionnelles d’une subjectivité productive et contrôlée » apparues au XIXe siècle, dont les enjeux résonnent fortement avec la situation contemporaine d’une société numérisée. Dans Techniques de l’observateur (1990), Suspensions of perceptions (2000), puis 24/7 (2013) Jonathan Crary fait émerger la problématique de l’attention, qui « peut [alors] s’imposer comme un enjeu intellectuel, autant que politique » (Maxime Boidy). Le rapport avec les humanités numériques prend alors sens : face à un monde des apps qui ambitionne de réduire au maximum notre temps de sommeil (24/7), ces dernières pourraient au contraire, via leur recul historique et leur inscription dans la recherche, démontrer que d’autres modalités d’être-au-monde sont possibles. Les humanités numériques ne doivent pas seulement viser la numérisation des connaissances mais également les manières dont cet encodage affecte et transforme les êtres humains. Démontrer que l’informatique personnelle, issue des théories cybernétiques de la Guerre Froide, peut être mobilisée dans des directions insoupçonnées permet de lever l’idée d’un déterminisme technologique. La rencontre entre le design et les humanités numériques, si celle-ci n’est pas de l’ordre d’une commande mais d’une recherche commune, pourrait ainsi permettre d’explorer de nouveaux pans de la connaissance en levant les impensés présidant à la construction et à la valorisation des savoirs en milieux numériques. Vers des humanités critiques Au-delà de la numérisation de corpus et de la mise en ligne, de nouveaux défis attendent donc les chercheurs en humanités numériques pour peu que le couple informatique/SHS fasse place au design. Nous proposons en guise de conclusion quelques directions de travail allant dans ce sens. Réduire la barrière technique de l’accès aux données L’open data est partout convoqué, or on constate dans les faits que la mise à disposition des données nécessite des prérequis techniques souvent trop importants pour des non-spécialistes. Le format tabulaire .CSV est le plus accessible pour commencer à travailler, mais ce dernier n’est pas systématiquement proposé, au détriment de méthodes plus lourdes (récupération de flux JSON via des API, etc.). Le workshop « Fabriquer des jeux de données en art » qui s’est tenu en mai 2018 dans le cadre du groupe de travail « Art, design et humanités numériques » de l’association Humanistica (Clarisse Bardiot et Nicolas Thély) a proposé des méthodologies pédagogiques relatives au champ des digital art history : identification et nettoyage de jeux de données, construction de visualisations, etc. Un outil permettant de générer des fichiers CSV à partir du portail Europeana a été développé à cette occasion. Interroger l’idéal d’une sémantique universelle Le modèle du Web sémantique (Tim Berners-Lee, 2001) ambitionne de relier l’éparpillement des connaissances humaines par le recours à des balises et métadonnées insérées dans les codes source des pages Web (« référentiels d’autorité », etc.). D’une utilité évidente pour sortir d’une approche en silo des initiatives scientifiques, ce processus pose pourtant de multiples défis ontologiques et taxonomiques mal connus des chercheurs et des designers. Comment mieux impliquer ces derniers dans l’élaboration de modèles sémantiques ? Faut-il que cette ambition éclipse tous les autres aspects des projets (enjeux formels, collaboratifs, etc.) ? Comment montrer le travail d’encodage sémantique, habituellement recouvert par l’habillage des interfaces ? Explorer les impensés de l’objectivité des données Les jeux de données sont souvent construits sans que leurs processus d’élaboration – et les biais inhérents à toute démarche de ce type – ne soient documentés. Or derrière une apparente objectivité se cachent des enjeux sociaux liés à de multiples prescriptions normatives voire discriminantes (catégories de genre, de « race », de classe, etc.). Comment inclure davantage de voix ? Pourrions-nous, comme nous y invite la chercheuse Catherine D’Ignazio, faire de la visualisation de données de façon collective et inclusive et ainsi permettre des approches dissidentes voire contestataires ? Impliquer des technologies émergentes dans des protocoles de recherche Au-delà de l’effet de mode, des technologies telles que les protocoles blockchain (certification distribuée de transactions) ou l’appellation générique d’« intelligence artificielle » offrent des possibilités de recherche stimulantes pour les chercheurs en humanités numériques. La blockchain peut permettre d’authentifier des documents et des chaînes de transformation de données, de mettre à disposition de la puissance de calcul, de signer les rôles de chaque acteur d’un projet, de générer des smart contracts pour déclencher automatiquement des actions prédéfinies, etc. L’intelligence artificielle, quant à elle, est déjà utilisée par des entreprises comme Google pour la construction automatisée de gammes chromatiques (projet Art Palette), l’identification d’œuvres d’art du MoMa à partir de 30 000 photographies d’exposition ou le repérage (tagging) des contenus de plus de 4 millions de photographies du magazine LIFE. Alors que nous avons en France des pointures internationales dans le domaine de l’IA, est-ce une fatalité que la puissance publique abandonne la « culture logicielle » à des acteurs privés ? Sortir d’une pensée « agnostique » de la forme Beaucoup d’interfaces de projets en humanités numériques se désintéressent des enjeux formels liés à la consultation des documents, ce qui est d’autant plus paradoxal dans l’exemple de documents relatifs à l’histoire de l’art. Jusqu’où cette illusion de neutralité est-elle tenable voire souhaitable ? Est-ce une fatalité que les archives en ligne présentent majoritairement des cadres homogènes ? Quid, sur un autre plan, des relations entre les interfaces de saisie des corpus et la capacité à projeter des modes de consultation ? Citons pour exemple les travaux de Giorgio Caviglia (projet Mapping the Republic of Letters, Stanford) ou de Donato Ricci (Enquête sur les modes d’existence, Sciences Po). Sur d’autres plans, des designers comme LUST, Antony Kolber, l’histoire du net art ou celle des jeux vidéos sont par exemple des sources d’inspiration pouvant intéresser les chercheurs en humanités numériques. Mentionnons également le travail mené à l’Atelier national de recherche en typographie (ANRT Nancy) sous la direction de Thomas Huot-Marchand, où des étudiants en dessin de caractères typographiques se confrontent à des contextes tels que les premières notations du chant, la cartographie, les hiéroglyphes, les inscriptions monétaires, la reconnaissance de caractères, etc. Ces quelques propositions ont pour objectif d’inciter les chercheurs en humanités numériques à s’intéresser davantage, au-delà du design, à des champs connexes tels que les études visuelles, les media & software studies, ou encore l’archéologie des médias. Une telle visée invite également les designers à envisager d’autres contextes de travail que ceux dans lesquels, au risque d’une saturation de l’offre, ils s’inscrivent habituellement. Les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques.
Notions
Personnes citées
Objets mentionnés
Date
March 2019
Type
PublicationContexte
« Overall Technology », introduction de section coécrite avec Océane Ragoucy, dans : Catherine Geel, Clément Gaillard (dir.), Extended French Theory & The Design Field… On Nature and Ecology: A Reader, Paris, T&P Work UNiT
Résumé
Book published on the occasion of reflections adapted within the framework of the French Section, From thought to the visible. Design as large ring, XXIIth Milan Triennale, Broken Nature, March 1 st to March 1 st sup > september 2019. In the common vision of things, ecology, understood as the management of natural resources, is de facto opposed to technique: it is assumed that modernist logic has pushed technological progress to a crisis point where that progress would collapse under the finite nature of its growth. Technique as know-how or the capacity to change one’s environment is understood here, then, in its contemporary sense of “technology”: a series of technical articulations (logos) embodied in consumable artefacts. Now, the texts that follow show that ecology is multiple, just as technique should be. This plurality of life environments, a concern at the heart of the fields of art and design, dovetails with some incisive texts by the philosopher Félix Guattari. His notion of “ecosophy” (global ecology) also encourages us not to think about ecology separately from aesthetics: « To bring into being other worlds beyond those of purely abstract information, to engender Universes of reference and existential Territories where singularity and finitude are taken into consideration […] to confront the vertiginous Cosmos so as to make it inhabitable; these are the tangled paths of the tri-ecological vision [of environments, social relations and subjectivities]. 1 Félix Guattari, The three ecologies, (Paris, Galilée, 1989), 70.. » Today, gaining a clearer idea of the relations between ecology and technique implies taking a look at texts written from the 1970s onwards in the context of the Cold War and the effective development of so-called “personal” computing. The philosophy of technique, or technics, which already had a rich history, had been enjoying a tremendous period of international growth for some forty years. Because it is articulated with aesthetic and ecological issues, in France this field has been echoed in some singular ways. That is what this selection of texts sets out to explore. There is one domain, the archaeology of media, which offers a powerful counterweight to the sometimes-frightening promises of effectiveness made by these digital technologies. It does so by jolting together heterogeneous technical layers, whether of history, hardware, or software. A precursor of this field is the nomadic philosopher Vilém Flusser, whose essay Vampyroteuthis infernalis 2 Vilém Flusser, Vampyroteuthis infernalis [1981-1987], trans. C. Lucchese, (Bruxelles: Zones sensibles, 2015). sets out a bestiary derived from squids and octopuses implicitly revealing the unthought implications of the proliferation of electronic information machines. Taking different approaches, the philosophers of French Theory and their contemporary heirs (Bernard Stiegler, Pierre-Damien Huyghe, Isabelle Stengers, Bruno Latour, Madeleine Akrich, etc.) have engaged acutely with the profound consequences of technological mutations. Inspired by the idea of thinking about technique beyond human actors and/or its subservience to principle of efficacy, these authors – although they do not necessarily invoke this notion – interrogate an overly limited understanding of ecology. While they are not (all) contemporaries of the massification of the use of digital technologies, the fact that these writings are still widely studied bears witness to an obvious fact: in research, there are times when notions of novelty and progress simply do not apply. In This Progress, a participative performance (Palais de Tokyo, Paris, 2016) 3 This Progress* ( Solomon R. Guggenheim Museum, New York, 2006) is replayed at the Palais de Tokyo, (Paris, October 12, 2016 – December 18, 2016): “Carte blanche to Tino Sehgal”, curated by Rebecca Lamarche Vadel., the German-British artist Tino Sehgal shakes up the notion of progress by activating its dimensions: personal, shared and trans-generational. One visitor’s account relates this surprising experience based on the human voice, bodily movement and social interaction: “As we moved forward alone into a big empty space, a twelve year-old child came up to us and suddenly asked, ‘What is progress?’” Let us recall elements of the historical context: the emergence of mass-market computers was to a major extent based on a cognitivist understanding of the cybernetic model. 4 For a broader understanding of cybernetics, see: Norbert Wiener, Cybernetics and society. The human use of human beings [1954], trans. P.-Y. Mistoulon, (Paris: Point, 2014).. This paradigm of understanding, which still informs to a large extent the interfaces of the digital apparatus (dispositifs) 5 Giorgio Agamben, Qu’est-ce qu’un dispositif ? [2006], trans. M. Rueff, (Paris: Payot & Rivages, 2007). » that we use every day, developed, economically, in a hidden way – covered by waves of objects renewed at a quick rate and installed among us without negotiation and unprepared by any civic reflection. In other words: we lack perspective for understanding what the digital media are doing to us, doing with us, or doing against us. The artists’ collective RYBN undermines the idea of progress and technological neutrality. By hybridising computer rationality with modes of thought based on mythology or belief, the esoteric forms of their work betray the “haunted” character of electronic machines. Their Data Ghost project 6 RYBN, Data Ghost 1, installation presented at the “Media Mediums” exhibition, curated by Jeff Guess and Gwenola Wagon, Paris, Ygrec, (April 4-May 31, 2014) (galerie Ygrec, Paris, 2014) tirelessly scans the background noises of digital data flows and detects “phantom” messages there. The internet then becomes the echo chamber of retro-inter-active ghostsspectres. Some thirty years since the writings of Félix Guattari, these reflections on the desubjectification of individuals resonate with dispositifs that are invisible (because encoded) and yet infiltrate most human activities. This is what researcher Evgeny Morozov calls “algorithmic regulation”, 7 Evgeny Morozov. “The power of data and the death of politics”. Trans. P. Jorion, August 2014. https://www.pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique -by-evgeny-morozov/, that is, a pernicious form of social control effected by non-human agents. At the turn of the 2010s, there was no avoiding the realisation that information networks had not created a global village”. The power of “platform capitalism” 9 Nick Srnicek, Platform Capitalism. The hegemony of the digital economy [2016], trans. P. Blouin, (Montreal: Lux, 2018). – that of GAFAM and BATX – is increasingly a threat to citizens’ capacity to invent their own way of lifemodes of existence. Amassing value from the sampling of “data”, digital devices are also redoubtable machines for polluting the mind, the moment one starts to surf without a filter. In this opposition between an invasive technology and the capacity of the social body to organise its conditions of existence, ecology here acquires a psychic dimension. Since technique is constitutive of humanity, however, there can be no question of going back to a golden age that never existed. In this sense, designer Ezio Manzini pleads for an “ecology of the artificial environment” 10 Ezio Manzini, Artifacts. Towards an ecology of the artificial environment [1990], trans. Adriana Pilia, (Paris: Center Georges Pompidou, CCI, 1991). » – a “second nature” formed by the technical tissue, which to a large extent still has to be invented. As of the early 1990s, he warned of the risk that information overload would turn into “noise”: “We are living amidst a growing mass of ‘semiotic waste’ – in other words, messages, texts and used codes that we cannot get rid of. […] By their uncontrolled proliferation, the greatest variety of forms, colours and textures can result in the greyest of worlds.” 11 Ezio Manzini, Artifacts. Towards an ecology of the artificial environment [1990], trans. Adriana Pilia, (Paris: Center Georges Pompidou, CCI, 1991), 36-37. ), 36-37. ». Counter to the “attention deficit” supposedly engendered by the behavioural retroaction loops of the dominant digital “services” – that is, the economic exploitation of behaviours, affects and desires – researcher Yves Citton thus invites us to imagine the conditions of an “ecology of attention” 12 Yves Citton, For an ecology of attention, (Paris: Seuil, 2014). » going hand in hand with a reorientation of media policies. The philosopher of technologies Gilbert Simondon noted at the end of the 1950s, when reflecting on this loss of intelligibility, that “what is missing is the essential; the active centre of the technical operation remains veiled.” 13 Gilbert Simondon, Du mode d’existence des objets techniques [1958], (Paris: Aubier, 2012).». Technical advances have continually heightened this opacity and multiplied the “black boxes”. Who today really understands, for example, how blockchain protocols work, or the self-developing codes of deep learning ? In the video Rare Earthenware (exhibited at ZKM in Karlsruhe as part of the Reset Modernity! exhibition (2016, directed by sociologist and philosopher Bruno Latour), the design studio Unknown Field Divisions documented the trajectory of the rare metals needed to construct three telecommunications objects: a mobile phone, an ultra-thin laptop computer and a chip for an “intelligent” car battery. The quantity of toxic waste required to produce them was then assembled in the form of traditional Ming vases. Inseparable from the conception of many technological objects, “civil wars” cast a veil over the environmentally and humanly damaging nature of mining operations and make the supply process invisible. At stake in an ecology of digital techniques, from a psychic point of view, would be interrogating the claim of technologies to “solve” 14 Evgeny Morozov, To solve everything, click here. The aberration of technological solutionism [2013], trans. M-C. Braud, (Limoges: Fyp, 2014). » all the world’s problems. Not only do digital technologies not always save time, but they cause a proliferation of new problems. In order for the digital to benefit the masses and not just a handful of investors, we need to stand back from the idea that problems linked to technologies can simply be solved with more technology. We are indeed confronted with two gave ecological questions: environmental and human. There is, now, a third, at the other end of the chain. It concerns the user and is – in the broad sense — a disjunction between a “technical milieu” 15 André Leroi-Gourhan, Évolution et techniques. Milieu et techniques, (Paris: Albin Michel, 1973). » and the “actors” 16 Actor network theory (AnT) was developed in the 1990s by researchers Bruno Latour, Madeleine Akrich and Michel Callon. » inhabiting it. To treat persons as “users” comes down to introducing a dissymmetry between the conceivers of objects, of digital programmes, etc., and those who can only use them. Via ecology, then, we can prise open other dimensions than the reduction of technique to its technological and digital assignation: imagination, spirituality, memory, etc. In the French context, for example, it is interesting to study a genealogy that runs through the work of palaeontologist André Leroi-Gourhan, of the philosopher of technology Gilbert Simondon, and of philosopher Bernard Stiegler on digital mutations. For Leroi-Gourhan, the notion of the tool takes an almost biological turn. The tool is that whereby a living being accedes to existence by developing gesture and speech. The relation to the milieu is always a dynamic, and never something that is acquired for good and could be stabilised: human existence is a progressive and continuous detachment from its initial conditions. Simondon approaches technical objects as “lineages” that can be compared to organic configurations and reconfigurations. His later writings on imagination and invention in techniques take an almost spiritual direction. The subject is to be understood within a constant evolution. More precisely, the individual is conceived in relation to a “pre-individual” tending towards a “transindividual”. These reflections on “individuation” and technique have been extensively taken up by Bernard Stiegler, who places them in the context of a period when the combination of neoliberalism and marketing (via behavioural sciences) is massively heightening the risk of the subjection of human beings. For Stiegler, ecology is to be understood as living beings’ relation to their milieu, relations that are threatened by capitalism (industrial, financial, cognitive, etc.). Thus, in addition to necessary actions and reflections on the ecology of resources (the exhaustion of capacities of subsistence), rethinking the ecology of the spirit (exhaustion of the psyche and of desire) is emerging as an increasingly urgent task.
Date
December 2019
Type
PublicationContexte
Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.
Résumé
Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?
Notions
Personnes citées
Objets mentionnés
Date
January 2023
Type
PublicationContexte
Chapitre publié dans l’ouvrage collectif Angles morts du numérique ubiquitaire. Un glossaire critique et amoureux, Presses universitaires de Paris Nanterre, 2023.
Résumé
Parmi les ritournelles managériales qui rythment les sociétés occidentales, celle de la « transformation numérique » implique une vision linéaire et homogène (au singulier) de l’histoire des techniques : il existerait ainsi un mouvement inéluctable, ou du moins souhaitable, consistant à numériser – c’est-à-dire à quantifier, calculer, mesurer – l’ensemble des activités humaines. Issue du champ économique, la « transformation numérique » est définie par le consultant Fred Cavazza comme désignant « l’évolution du marché et des organisations qui cherchent à adapter leur offre, fonctionnement et pratiques aux enjeux du XXIe siècle » (2021). Toujours selon lui, « adapter les pratiques [signifie] mieux tirer parti des données (gouvernance, littératie, conformité, etc.), de l’IA (machine learning, deep learning, etc.) ou de l’automatisation (chatbots, assistants vocaux, RPA, etc.) ». Les « enjeux du XXIe siècle », quant à eux, sont « liés à un quotidien sans contact, à une croissance économique nulle (ou du moins très faible en Europe), aux nombreuses crises et tensions (Gilets jaunes, Cancel Culture [sic.], etc.) » (Cavazza, 2021). Ces discours font apparaître en creux des tensions au sein de « la » transformation numérique. L’adhésion aveugle aux « innovations », qui se succèdent à un rythme de plus en plus rapide, se heurte à des mutations politiques et sociales qui déstabilisent leurs promesses de linéarité, d’efficacité et de rentabilité. Les technologies numériques, en tant qu’innovations, naissent en quelque sorte « hors-sol », sous un mode détaché des contingences et singularités humaines. Autrement dit, les discours économiques ne peuvent pas être transposés sans contradictions dans le champ social – ne serait-ce que pour savoir comment conjuguer transformation numérique et transition écologique. Plus encore, à rebours de l’idée éculée (et pourtant toujours présente) d’un progrès technique pour le plus grand nombre, la diversité des pratiques et l’analyse des discours font surgir des valeurs « embarquées » (embedded) au sein des programmes qui mettent en doute cette visée positiviste. Ce décalage entre usages (prescrits) et pratiques (libres) (De Certeau, 1990) est au cœur du design, que nous comprenons ici non pas comme une volonté d’adéquation entre les innovations et le marché, mais comme un « cheminement dans les qualités formelles, structurelles et fonctionnelles de nos environnements » (Masure, 2017). À l’époque des IA, l’idée d’une désautomatisation des modes de vie induits par l’industrie des programmes se repose de façon aiguë. Quels sont les angles morts du numérique que le design permet d’éclairer ? À quels problèmes les technologies numériques sont-elles aveugles ? En quoi les choix – ou non-choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer ? L’émergence du design comme résistance à l’économie Pour étudier les angles morts du numérique, il faut tout d’abord préciser quel rôle le design peut jouer pour interroger ce qui semble aller de soi dans les environnements techniques. Nous proposons ici d’entendre sous le nom de design non pas, comme dans l’acception courante, un champ de conception et de production d’objets et de services, mais une mise en tension, voire une suspension, des attendus économiques de nos environnements techniques. Pour étudier ces questions, nous allons tout d’abord recourir à la figure de Karl Marx qui nommait « la grande industrie » : « Dans le système de machines, la grande industrie crée un organisme de production complètement objectif ou impersonnel, que l’ouvrier trouve là, dans l’atelier, comme la condition matérielle toute prête de son travail. [Marx, 1963, p. 930-931] » Si le design apparaît de façon conjointe aux différentes révolutions industrielles qui traversent l’Europe à la fin du XIXe siècle, il sera installé dans la modernité en faisant brèche avec l’artisanat, et plus précisément avec son imitation mécanisée et asservissante. Un des moments clés pour mettre en évidence cette visée est celui des Expositions universelles, dont les prouesses techniques sont des vitrines politiques pour les gouvernements. Lors de la première Great Exhibition of the Works of Industry of All Nations à Londres en 1851, l’ingénieur Michel Chevalier note ainsi, lyrique, que « le grand principe de la division du travail, […] la force motrice de la civilisation, s’étend à toutes les branches de la science, de l’industrie et de l’art. […] Les distances qui séparent les peuples et les contrées de la Terre s’évanouissent chaque jour devant la puissance de l’esprit d’invention » (1851, p. 36). À cette occasion, un des bâtiments principaux, le Crystal Palace de l’architecte Joseph Paxton, est construit en seulement six mois grâce à l’emploi novateur d’unités modulaires standardisées, préfabriquées en usine et montées sur place. L’édifice est gigantesque : 563 m de long sur 268 m de large, pour une surface de 92 000 m². Il marque durablement les esprits et préfigure la production d’architecture de métal et de verre et la préfabrication du XXe siècle. « Association des arts, des sciences et de l’industrie », le Crystal Palace contraste pourtant avec les objets qui y sont exposés : les chaises, cruches et autres tapis restent engoncés dans le vieux siècle, comme le fait remarquer l’historienne du design Alexandra Midal : « [Les organisateurs des expositions universelles espéraient] que la machine permettrait d’alléger le travail, de multiplier les richesses et d’améliorer la vie de tous, d’apporter la paix et la fraternité entre les nations. [Mais] en plus de substituer au style et à l’ornementation artisanale celui de la machine […], les produits standardisés européens favorisent surtout le passé, l’ostentatoire, le goût bourgeois et l’imitation, telle cette cruche à eau ornementée dont l’anse associe une colonnade et des animaux… [2009, p. 37] » Plusieurs intellectuels britanniques, dont Henry Cole, à l’initiative d’une des premières occurrences du mot design (via son Journal of Design and Manufacture, 1849-1852), soutiennent, sans vouloir revenir à l’artisanat, que « le degré d’industrialisation n’est pas plus une condition de culture que de savoir-vivre » (Midal, 2009, p. 38). Le design naît d’un écart avec les conséquences d’une mécanisation aveugle : il est donc erroné de le comprendre comme un simple accroissement des forces productives. Face à l’inertie mentale : le design pour la vie Près d’un siècle plus tard, l’artiste et photographe László Moholy-Nagy explicite la compréhension d’un travail singulier avec les machines qui diffère de leur usage économique massifié. Moholy-Nagy prend ainsi l’exemple des assiettes faites au tour (dont la forme est peu adaptée aux lave-vaisselle) ou des poignées en plastique (qui reprennent, de façon mimétique, celles en fonte) : « Beaucoup d’objets anciens sont l’expression directe de leur méthode artisanale de fabrication. Ils sont souvent copiés par les designers industriels, sans aucune raison valable. Il est vrai que plus un artisanat est ancien, plus la forme qu’il produit est difficile à modifier. […] L’expérience montre, cependant, qu’il est assez difficile de se dégager d’habitudes de pensée bien ancrées. [1947, p. 283] » À cette tendance à l’imitation qu’il qualifie d’« inertie mentale », Moholy-Nagy oppose une puissance d’invention qui manifeste des ruptures claires avec la tradition, tout en notant qu’il « ne faut jamais perdre de vue que l’élément humain […] doit rester le critère essentiel d’évaluation du progrès technologique » (1947, p. 283). Rédigés au tournant de la Seconde Guerre mondiale, ces propos font écho à l’époque contemporaine où les machines, cette fois numériques, placent les humains dans un paysage homogène où la place dédiée à la diversité et l’invention se réduit : « La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. [1947, p. 285] » La question se pose alors de savoir comment cette substitution s’articule à une redéfinition de l’humain, et comment les technologies peuvent être pluralisées, désorientées, réorientées dans d’autres directions que celles régies par « l’inertie morale ». S’appuyant sur Walter Benjamin et László Moholy-Nagy, le philosophe Pierre-Damien Huyghe défend que l’art et le design peuvent être compris comme des « puissances de découverte des poussées techniques » (2014) : le développement économique d’une technique ne suffit pas, loin s’en faut, à en épuiser les possibilités. À ces enjeux esthétiques s’ajoute un souci d’intelligibilité. Plus une technique est puissante et dominante, plus il est difficile de développer d’autres façons de faire, et plus cette technique génère de l’incompréhension et de l’opacité. Le scientifique Karl Sagan note ainsi que « nous avons arrangé une société basée sur la science et la technologie dans laquelle personne ne comprend rien à la science et à la technologie. Ce mélange combustible d’ignorance et de pouvoir, tôt ou tard, va nous exploser au visage » (1996). Pour combattre ces emprises, il est nécessaire de mettre en évidence ce à quoi les technologies sont aveugles, et en premier lieu les cécités qu’elles induisent en nous et contre nous. Laissées en attente voire délaissées, les « nouvelles » (et désormais déjà vieilles) techniques, celles de la computation, ont besoin d’être activées par ce que nous pourrions appeler un design non pas pour l’économie (qui s’économise, qui se retient), mais « pour la vie » (Moholy-Nagy, 1947). Les technologies numériques comme fabrique d’angles morts Tandis que la computation étend son influence à la plupart des activités humaines, la question est de savoir à quels problèmes le numérique est aveugle ou, plus précisément, d’identifier quels sont les angles morts et les limites de la programmation. Le sens de l’expression « angle mort », dans l’Encyclopédie de Diderot et D’Alembert (1778) est celui d’un « angle rentrant, qui n’est point flanqué ou défendu ». Par extension, l’angle mort renvoie à une « zone inaccessible au champ de vision » (Wikipedia). En conduite automobile, c’est une « zone non couverte par le rétroviseur central et les rétroviseurs latéraux, qui nécessite un contrôle par vision directe (tourner la tête une fraction de seconde) » ou, dans le champ urbain, une « zone non couverte par les caméras de surveillance ». Au sens figuré, on dit d’un angle mort qu’il est une « partie d’une question, d’un problème, pour laquelle l’esprit semble aveugle ». Un « design pour la vie » serait ainsi une expérience de la bifurcation, de l’exploration, et non pas de la réduction ou de la modélisation aveugle. Pierre-Damien Huyghe formule en ce sens une compréhension du design éloignée de sa réduction à des enjeux de rentabilité : « Je ne proposerai pas d’appeler design ce qui organise d’avance des usages ni ce qui induit des consommations ni ce qui assigne des comportements au règne de la marchandise, mais plutôt certaines recherches et attitudes qui permettent à un système de production d’hésiter. [2006] » Les questions du design pour la vie nous demandent en quoi les choix (ou non-choix) de conception des environnements numériques déterminent une zone dans laquelle il est difficile de bifurquer : comment ce qui compte vraiment pour nous en tant qu’humain·es, c’est-à-dire ce qui peine à être mesuré, est-il laissé dans l’ombre ? Quels sont les angles morts du numérique que le design permet d’éclairer ? En quoi ces angles sont-ils « morts », et comment leur donner vie ? Une méthode d’analyse Pour traiter ces questions et entrer dans des approches plus concrètes, nous proposons une méthode d’analyse des angles morts du numérique structurée autour de trois notions complémentaires : promesses, limites et bifurcations. Celles-ci font écho à un autre texte dans lequel un des auteur·rices de ces lignes analyse une série de logiciels de création (Masure, 2020) pour faire émerger des chemins de traverse au sein de l’appareil industriel : dans la lignée de l’archéologie des médias déconstruisant l’idée d’un progrès technique linéaire, il n’est pas dit que les généalogies des technologies basées sur l’efficience fonctionnelle et la rentabilité marchande soient les seules possibles. La notion de promesse, tout d’abord, renvoie aux discours entourant le développement commercial des programmes numériques. L’idéal du progrès technique a toujours ses zélotes : selon elles et eux, malgré de nombreux accrocs, la technologie serait in fine porteuse de « transformations » sociales et économiques positives. Cette approche performative, voire incantatoire, est qualifiée par le chercheur Evgeny Morozov de « solutionniste » (2013) pour dénoncer l’absurdité des prétentions visant à réduire la politique à une affaire de « logiciel » : des problèmes globaux comme l’écologie, la famine ou la pauvreté ne pourront pas être « réglés » par la technologie. De plus, les promesses énoncées par les grands groupes technologiques sont souvent utilisées comme paravent pour masquer des entorses au droit du travail, voire à la dignité humaine. Par exemple, l’annonce en 2016 par Amazon d’une division de livraison par drones entraîna de multiples réactions médiatiques et politiques (législatives) et fut rapidement suivie d’un discret désengagement commercial en interne. Pendant ce temps, cette initiative occupait le terrain médiatique et faisait écran à la triste réalité de l’entreprise. Dans un thread Twitter, le journaliste Cory Doctorow explicite cette stratégie : « Les entreprises technologiques promettent de réaliser des choses impossibles afin de cultiver une sorte d’aura mystique invoquée pour masquer l’horreur du monde réel. […] C’est le genre de choses que [l’auteur] Riley Quinn appelle le ‹ tintement de clés › – une distraction pour les personnes peu au fait des technologies (et pour les ingénieurs qui ont la tête plongée dans leurs produits) pendant que les crimes quotidiens des entreprises sont commis sous notre nez. [2021] » Le concept de limite, ensuite, confronte les promesses des technologies à l’expérience du terrain. Les technologies numériques promettent beaucoup en raison du caractère invisible du code et de sa plasticité (capacité à être modifié), mais montrent leurs limites quand elles sont confrontées à la complexité du réel (Klein et al., 2013). Fonctionnant habituellement à partir de règles et de conditions, la programmation ne peut que difficilement « comprendre » les ambiguïtés des interactions sociales et la diversité d’un monde multiculturel : genre, origine, classe sociale, etc. Outre le fait que les technologies reproduisent des discriminations déjà présentes dans la société, celles-ci sont amplifiées par le caractère homogène des développeurs informatiques et designers (masculins, aisés financièrement, etc.) et par des méthodologies de conception (UX et UI Design) fonctionnant à partir de scénarios d’usage et de personas (Masure, 2017, p. 73) – soit une schématisation de l’expérience humaine réduite à une suite de comportements, voire de stéréotypes. Sur un autre plan, il est instructif de comparer les emplois (prescrits) aux usages et pratiques (ouverts, libres, transmissibles). Dans un vocabulaire se rapprochant de celui de Michel de Certeau (1990), le philosophe Bernard Stiegler explicite cette distinction : « On ne va plus parler de pratiques des objets, c’est-à-dire de savoir-faire instrumentaux, mais d’usages des objets et d’utilisateurs ou d’usagers, en particulier pour les appareils et pour les services. Or, un objet que l’on pratique ouvre un champ de savoir-faire par lequel le praticien est lui-même transformé : ses savoir-faire, eux-mêmes ouverts de manière indéterminée et singulière, explorent des possibles. [2004] » La question se pose dès lors de savoir comment éclairer ce qui fait limite pour prendre conscience que toute promesse génère des angles morts. Le terme de bifurcation, enfin, renvoie à une compréhension non instrumentale des techniques. Une technique, comprise non pas en tant que moyen mais en tant que culture, peut être réorientée dans des directions plus soutenables que celles visant un rendement productif. Issue du domaine de la biologie, l’expression de bifurcation renvoie à « la fourche produite par le développement d’une partie sur une autre, soit semblable, soit différente. Ainsi, le bourgeon forme une bifurcation avec le rameau qui le porte, celui-ci en forme une avec la branche qui lui a donné naissance » (Dictionnaire TFLI). Dans le champ du logiciel libre, un fork (embranchement) désigne un nouveau programme créé à partir du code source d’un programme existant. La pratique du fork permet d’ajouter des fonctions non prévues initialement, de placer le code dans un nouveau contexte, etc. – autant d’adaptations à ce qui n’était pas écrit d’avance (pro-grammé). Dans un sens plus fondamental, la bifurcation peut être comprise comme une expérience existentielle, au sens où une vie ne devient une existence qu’à condition de pouvoir échapper à des conditions données (Huyghe, 2006). Dans un numéro spécial de la revue Multitudes intitulé Abécédaire des bifurcations et rédigé dans le contexte de la pandémie de la Covid-19, les auteur·rices se demandent quels sont « les bifurcations, les effets de cliquet, les points de non-retour qui empêcheront demain de renaître comme hier » et où se « situe le lieu d’où peut s’élaborer l’alchimie de la transformation » (Cora Novirus, 2020). D’une façon approchante, dans un essai rédigé en réaction à la multiplication des crises engendrées par un « modèle de développement » à bout de souffle et pourtant largement dominant, Bernard Stiegler (2020) s’interroge pour savoir comment « bifurquer » afin de tordre l’expression thatchérienne selon laquelle « il n’y a pas d’alternative » à l’économie capitaliste. Ces considérations permettent d’expliciter l’écart entre technique et économie : l’absence d’alternative (TINA) n’est valable que pour qui ne croit pas à l’esthétique et pour qui ne fait que l’usage du monde dominant. Or, selon Pierre-Damien Huyghe, nombre d’exemples et contre-exemples dans le champ du design prouvent qu’il peut en aller autrement : « La réduction des possibles dans une époque donnée et l’uniformisation résultante des effets n’appartiennent […] pas par principe à la technique, mais à son économie. […] Elle ne va pas sans réserve. C’est justement la quête de cette sorte de réserve, et à son expression formelle, que le design historique s’est voué, quitte à mettre pour cela au monde des produits d’exception déliés des pratiques de masse a contrario recherchées par le mode économique d’exploitation et de domination de la puissance productive. [2013, p. 149-176] » À titre d’exemples, nous allons à présent examiner deux paradoxes mettant en jeu des limites de la programmation. Pour chacun d’entre eux, nous nous attacherons à situer la place qu’occupe le design vis-à-vis des technologies concernées : vient-il déjouer leurs angles morts ou contribuer à les renforcer ? En quoi des bifurcations potentielles ou avérées sont-elles souhaitables (et pour qui ?) afin de ne pas retomber dans d’autres impasses ? Paradoxe 1. Les templates promettent de la distinction mais ne produisent que du consensus visuel Promesse Un template (gabarit) est un modèle de mise en page de contenus visuels. Influencé par les designers László Moholy-Nagy et Jan Tschichold, Josef Müller-Brockmann comprend la grille comme une méthode universelle de structuration de l’information : « Dans mes créations […], la subjectivité est supprimée au profit d’une grille géométrique qui détermine l’arrangement des mots et des images. La grille est un système d’organisation qui rend le message plus facile à lire, cela vous permet d’obtenir un résultat efficace à un coût minimum. Avec une organisation arbitraire, le problème est résolu plus facilement, plus vite et mieux. Cela permet également une uniformité qui va au-delà des frontières nationales. [2017] » Les templates reprennent la logique de la grille, mais à une échelle bien plus vaste : celle des logiciels, du Web, et des applications. Ils peuvent à la fois être mobilisés pour définir l’ergonomie d’une interface en recourant à des codes visuels éprouvés (placement du logo, des menus, etc.), et/ou être inclus dans des logiciels comme base de travail (par exemple : gabarits PowerPoint, Word, Photoshop). Grâce aux templates, n’importe qui (grand public, commanditaire, etc.) peut créer à son image, maîtriser le rendu visuel de ses contenus et opérer des mises à jour sans intermédiaire (Mineur, 2007). Limite Avec les templates, remarque le designer Étienne Mineur, « les graphistes doivent […] abandonner une partie de leur pouvoir et responsabilité au règne du graphisme papier » (2007) consistant à maîtriser le processus et la forme de A à Z. Selon lui, deux attitudes sont possibles : refuser de laisser le contrôle formel aux technologies et rester sur les supports imprimés, ou se rapprocher du design industriel pour embrasser la création d’outils et l’ergonomie. Près de quinze ans après ces propos, force est de constater que les programmes sont de moins en moins des outils – de « simples prolongements d’outils manuels » (Moholy-Nagy, 1947, p. 285) –, et de plus en plus des dispositifs techniques complexes qui ne laissent que peu de prises aux designers. L’autonomisation des commanditaires par les templates s’est accélérée, et les compétences nécessaires à leur conception échappent pour une grande part aux designers, car la barrière technique et économique est de plus en plus haute. La concentration de la valeur au sein d’un petit nombre d’acteurs, les Gafam et leurs avatars asiatiques, opère un renversement du processus créatif avec lequel le code n’est plus une matière à modeler mais une loi à laquelle se conformer. Le design d’interfaces (UX/UI) ne consiste bien souvent qu’à appliquer des procédures visuelles (Teslert & Espinosa, 1997) : des design systems, comme le Material Design (Google, 2014) ou les Human Interface Guidelines (Apple), régissent les interfaces des applications mobiles, car le non-respect de ces consignes menace leur validation dans les app stores (magasins d’applications distribuées par Apple). Plus largement, la multiplication des systèmes de gestion de contenus (CMS), des terminaux, des formats d’écran et des territoires géographiques (Asie, Amérique du Sud, Afrique, etc.) incite les industriels à penser avant tout en termes de distribution et de standardisation. La promesse de singularité des « expériences » bute sur une homogénéisation du réel et engendre une « globalisation esthétique » (Masure, 2020) : une même interface peut être indifféremment utilisée pour une campagne médicale, un site de voyage, un musée. Plus inquiétant encore, malgré la pauvreté esthétique des templates, ces derniers, de par leur efficacité, tendent à surpasser beaucoup de designers. Dès les premières années du développement de la « publication assistée par ordinateur » (PAO), l’artiste et designer John Maeda entrevoyait les conséquences professionnelles des logiciels dits de création : « Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers ne définissent plus la culture ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media [1991], le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile : ‹ Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté. › [1995] » Quelle est, dès lors, la valeur de ce dernier ? Bifurcation Étienne Mineur soutient que les designers peuvent repenser leurs pratiques au profit de compétences plus stratégiques. Une autre voie est possible pour que l’attention humaine puisse s’attacher à du non-prescrit : il s’agit ici d’avérer les effets de standardisation des environnements et modes de vie pour éclairer ce qui n’entre pas dans ce cadre (les angles morts). Plusieurs initiatives ont mis en évidence les grilles tapies derrière les programmes, tels que les projets Safebook (Grosser, 2018), clickHere (Retzepi, 2020), ou les modules « par défaut » des systèmes d’information, avec des initiatives comme Reproduction générale (Jacquet, 2003) ou My%Desktop (Heemskerk & Paesmans/JODI, 2002). Un axe complémentaire consiste à révéler les valeurs embarquées dans les interfaces. Matthew Fuller, chercheur en Cultural Studies, propose ainsi de comprendre les templates sous l’angle de la notion de franchise : « Les modèles [templates] et exemples que l’utilisateur peut éditer pour créer ses propres documents – tels que ‹ fax élégant ›, ‹ fax contemporain ›, ‹ lettre formelle › ou ‹ mémo › – attestent que la falsification est la forme de base du document produit dans les bureaux contemporains. [2000] » À l’époque contemporaine, marquée par les problématiques de circulation et la collecte des données personnelles, les templates prennent un nouveau relief. Sous couvert de neutralité, ces derniers annihilent le sens critique et font passer à couvert des procédures suspectes. La designeuse Kelli Retzepi, dans TheRealFacebook (Retzepi, 2018), propose ainsi un redesign de Facebook en gardant la même interface mais en changeant tous les textes (titres, libellés, etc.) pour les rendre conformes aux « vrais » objectifs de Facebook. « Connect with friends and the world around you on Facebook », par exemple, devient « This whole thing started as a website that rated who is a hotter Harvard undergrad », et « Sign up. It’s free and always will be » est remplacé par « Give us your data. We are definitely using it to profit »1 « Entrez en connexion avec des amis et avec le monde autour de vous grâce à Facebook » devient « Tout ce truc a commencé comme un site web classant qui étaient les étudiant·es les plus sexy de Harvard ». Ou « Inscrivez-vous. C’est gratuit et ça le sera toujours » est remplacé par « Donnez-nous vos data. Nous comptons bien les mettre à profit ».. Paradoxe 2. La création par le truchement des IA participe souvent d’une logique réactionnaire Promesse Formulée à la fin de la Seconde Guerre mondiale, l’idée d’une « intelligence » machinique susceptible de se substituer au cerveau humain (Turing, 1995) a connu de multiples modalités techniques, que l’on peut résumer en deux courants : les technologies « symboliques » se fondent sur la délimitation de règles préalables, tandis que celles « connexionnistes » (neuronales) impliquent des jeux de données (datasets) en entrée et sortie pour que la machine puisse générer un programme permettant d’aboutir au résultat souhaité. Au tournant des années 2010, l’approche neuronale, et plus précisément celle du deep learning, prouve sa supériorité fonctionnelle pour la reconnaissance d’images et pour le tri d’informations (spams, etc.). Les technologies du deep learning investissent depuis quelques années les industries créatives : l’entreprise Zalando travaille avec Google depuis 2016 pour prédire les tendances de la mode grâce au machine learning, et des services comme TheGrid.io (2016), WixAI (2016) ou Adobe Sensei (2016) visent à faciliter voire à automatiser la mise en page de sites web et la retouche d’images. Grâce au deep learning, la tension entre la conception (l’idéation) et la production n’a plus lieu d’être : des programmes « intelligents » prennent en charge la commande sans aléas humains pour produire la « solution » optimale. Limite Les technologies du deep learning prétendent annuler la zone d’incertitude entre conception et production en synthétisant des jeux de données (projets de design, œuvres d’art, etc.) majoritairement agrégées sur le Web. On touche ici à la distinction entre « création » (vision romantique d’une mise au monde ex nihilo, dégagée des contingences matérielles) et « production » (attention portée aux modalités techniques et rapports sociaux) : « Au moment où l’Ancien régime se défait, où se déploie la révolution industrielle, les artistes revendiquent […] le terme de ‹ création › – une notion […] issue du dogme biblique de la genèse – pour signifier leur souveraine sensibilité, leur libre vouloir et établir l’art comme champ autonome parmi les activités humaines. [Menghini, 2021] » À cette tradition s’oppose la pensée « matérialiste » développée par des philosophes comme Karl Marx ou Walter Benjamin, pour qui il est crucial d’examiner les médiations permettant à l’art (et par extension au design) d’exister pour mieux saisir son potentiel émancipatoire. Dans son essai L’artiste comme producteur, Walter Benjamin cherche à savoir non pas seulement « quelle est la position d’une œuvre littéraire à l’égard des rapports de production de l’époque [mais, avant tout,] quelle est sa place dans ces mêmes rapports ». Il s’agit pour lui d’« indiquer la différence essentielle qui existe entre le simple approvisionnement d’un appareil de production et sa transformation » (1969, p. 110, 117). De tels propos sont précieux pour mettre en exergue les limites des technologies du deep learning, dont la séduction tient à leur caractère magique (algorithmique) et tout puissant : structurellement basées sur des jeux de données (du passé), ces « intelligences » ne peuvent qu’approvisionner l’appareil de production sans jamais pouvoir le transformer. Autrement dit, et pour rester dans le vocabulaire de Benjamin, elles sont « réactionnaires » et non pas « révolutionnaires ». Il est par exemple aisé de comprendre que si une IA peut reproduire (créer) un tableau à la façon de Rembrandt (Microsoft, The Next Rembrandt, 2018) – sans efforts apparents, et sans que la technique ne soit vraiment une question –, elle aura beaucoup plus de difficultés à inventer non pas seulement un paradigme pictorial aussi fort que Rembrandt, mais aussi de nouvelles formes d’expression dépassant les catégories habituelles (peinture à l’huile, musique électronique, interface de site web de e-commerce, etc.). Bifurcation Walter Benjamin nous donne des pistes de travail pour que les technologies du deep learning puissent produire, et pas seulement reproduire. « La notion de technique représente l’élément dialectique initial à partir duquel l’opposition stérile de la forme et du fond peut être surmontée » (1969, p. 110). Un des problèmes majeurs de l’implémentation des IA au sein des services mentionnés plus haut (Adobe Sensei, etc.) est que la technique disparaît derrière les interfaces annoncées comme « conviviales ». Pour bifurquer de ces logiques, il faut en premier lieu réinvestir la technique – ce qui ne va pas de soi dans le cas du deep learning, qui nécessite de constituer des jeux de données puis de les traiter avec une puissance de calcul importante et avec des programmes à l’élaboration complexe. On pourrait tout d’abord surmonter ces écueils en disséquant les couches techniques logicielles et matérielles des IA, comme l’ont fait les chercheur·es Kate Crawford et Vladan Joler (2018) à propos de l’enceinte connectée Amazon Echo – travail qui mériterait d’être prolongé en analysant les strates pouvant être réinvesties. Une autre approche consiste à ne plus envisager les IA comme des machines de création (détachées symboliquement des contingences matérielles) mais comme des étapes de production. On pourrait par exemple utiliser le deep learning pour analyser des amorces d’idées et les comparer à l’existant, dans une stratégie d’aide à la décision et non pas d’imitation. Il faut aussi garder en tête que le deep learning n’est qu’une facette du champ bien plus vaste des IA, et que plusieurs époques techniques peuvent cohabiter au sein d’un même projet. Un workshop à la HEAD (Haute école d’art et de design de Genève), coordonné par Alexia Mathieu, Jürg Lehni et Douglas Edric Stanley (Thinking Machines, 2020), a ainsi mélangé des procédures neuronales à des règles préétablies pour élaborer un générateur de contes illustrés et imprimés. L’artiste Nicolas Maigret propose pour sa part un Predictive Art Bot décrit comme « un algorithme qui utilise les discours actuellement tenus sur l’art comme une base de données générant automatiquement des concepts de projets artistiques et, parfois, des prédictions d’absurdes trajectoires futures pour l’art » (2017). De tels processus laissent entrevoir ce que pourrait être le studio de design du futur : moins un lieu où élaborer des « solutions » et des formes closes qu’un laboratoire où mélanger et faire bifurquer des techniques et des projets. Conclusion. Pour une bifurcation des techniques De l’examen de ces deux paradoxes, nous pouvons à présent esquisser des éléments de réponse à la problématique posée en introduction, à savoir quels sont les angles morts du numérique que le design permet d’éclairer, pour poser que ces derniers sont à chercher dans une compréhension de la technique comme moyen, dans un souci d’efficience et de scalabilité (d’extension à la plus grande échelle possible). Comme nous l’avons vu avec l’exemple des expositions universelles, une lecture des textes et querelles liées à l’émergence du design situe son intérêt non pas comme un gain de productivité, mais comme une bifurcation face à la perte de qualité entraînée par l’automatisation du dispositif industriel. Ce détour par le design permet de mieux comprendre l’articulation des technologies à une quête de rendement productif, puisqu’une bonne partie des productions industrielles (objets, industries des programmes, etc.) participe de cette logique. À ce design des angles morts, nous opposons un design « pour la vie », qui travaille pour nous en tant qu’êtres humain·es, c’est-à-dire en tant qu’entités non déterminées d’avance. Autrement dit, un « design pour la vie » serait ce qui éclaire les angles morts de l’industrie pour chercher ce qui nécessite d’être investi et réorienté. De façon approchante à Walter Benjamin qui invite à penser l’esthétique comme une façon d’articuler technique et politique, le designer Ezio Manzini, dans un essai sur « l’écologie de l’artificiel », ouvre une réflexion sur la « qualité » (et non pas la quantité) des environnements : « Il s’agit de penser la technique comme un système devant lequel il ne faut jamais baisser pavillon et savoir rester critique, mais aussi comme une gigantesque mine de ressources et de potentialités. C’est là qu’il faut puiser pour imaginer de nouvelles qualités. [1991, p. 53] » Finalement, c’est bien en déniant au design sa part esthétique que l’économie des techniques engendre son lot de limites. En réinvestissant la technique comme un questionnement, les limites de la programmation deviennent autant d’occasions de bifurcations.
Notions
Personnes citées
Objets mentionnés
Date
September 2019
Type
ConférenceContexte
Communication dans le cadre du colloque « Humanités numériques et computationnelles », université Côte d’Azur, Académie d’Excellence « Homme, Idées et Milieux », Nice, Centre Universitaire Méditerranéen
Résumé
Prenant de l’ampleur au tournant des années 2010, les modalités d’intelligences artificielles dites d’« apprentissage profond » (deep learning) reposent sur une architecture technique structurellement opaque : le programme informatique n’est plus modélisé en amont mais résulte, par rétroaction, du couplage entre des entrées (inputs) et des sorties (outputs) « étiquetées ». En automatisant de plus en plus de tâches – y compris dans les champs de l’art et du design –, ces boîtes noires (black boxes) échappant à l’entendement humain bousculent les actuelles catégories éthiques ou morales. Mais si l’on considère que les machines, par effet de miroir, révèlent la part « inhumaine » de l’humanité, la partition humain/machine a-t-elle encore un sens ? S’inscrivant dans le dépassement de cette opposition, le travail critique des technologies du deep learning par l’art et le design montre comment des capacités considérées comme « humaines » peuvent en fait relever d’un caractère machinique. Dès lors, cela ne conduirait-il pas à remettre en cause l’expression même d’« humanités numériques » ?
Notions
Personnes citées
Objets mentionnés
Date
September 2008 — November 2014
Type
Contexte
Thèse en esthétique dirigée par Pierre-Damien Huyghe à l’université Paris 1 Panthéon-Sorbonne, UFR Arts plastiques et Sciences de l’art
Résumé
Résumé Cette thèse interroge le design depuis les pratiques de programmation en montrant qu’elles ne se réduisent pas à une industrie des programmes, qui empêche les inventions de naître tout à fait. Pour cela, elle confronte au sein d’une lecture non linéaire cinq moments de l’histoire du numérique (depuis Vannevar Bush en 1945, dont une traduction inédite est proposée en appendice, jusqu’aux usages contemporains du site web G it H ub) à quatre formulations conceptuelles issues d’un corpus philosophique. Le choix d’auteurs qui n’ont pas directement voué leurs réflexions au design (comme Jacques Derrida, Hannah Arendt ou Walter Benjamin) permet de déconstruire un certain nombre de discours entourant la réception des technologies dites nouvelles. Critiquant nombre d’usages faits des notions de conception et de projet et s’appuyant finalement sur Gilbert Simondon, cette thèse s’intéresse à ce qui n’est pas prévisible dans les programmes. Elle soutient cinq axes ou directions pour une recherche dans le champ concerné : décentrer, authentifier, appareiller, traduire et désarticuler. La plausibilité de ces façons de faire du numérique, encore à l’état d’ébauche dans les productions contemporaines, peut intéresser les designers au-delà des spécialistes. Elle est avérée en fin d’ouvrage dans la description d’une fiction curatoriale. Jury de soutenance M. Yves Citton, Professeur des universités, Université Stendhal-Grenoble 3 (pré-rapporteur). M. Pierre-Damien Huyghe, Professeur des universités, Université Paris 1 Panthéon-Sorbonne (directeur de thèse). M. Nicolas Taffin, Designer d’applications, Professeur associé à l’Université de Caen Basse-Normandie. M. Nicolas Thély, Professeur des universités, Université Rennes 2 (président de jury).
Notions
Date
December 2019
Type
ConférenceContexte
Communication au colloque « Le Mystère de la culture », Paris, Ensad.
Résumé
Sous couvert de rationalité, le code informatique recouvre des valeurs voire des idéologies par des couches d’abstraction chaque jour plus complexes à déplier. Si l’on entend sous le nom de culture une part de mystère, d’inexplicable pour la raison humaine, en quoi la rationalité énigmatique du code pourrait-elle menacer la possibilité même de faire culture ? Comment faire pour que l’opacité du code ne se transforme pas en gnose, en entité fermée à toute extériorité – soit donc tout le contraire d’une culture ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
December 2022
Type
PublicationContexte
Article rédigé pour la revue de recherche Multitudes, no 89, « Design is the answer, but what was the question? », dir. Francesca Cozzolino, Emanuele Quinz, Barbara Szaniecki.
Résumé
Terrain d’étude privilégié des productions industrielles, le design est pointé aujourd’hui comme un champ à reconstruire. Depuis quelques années, il se voit affublé d’une multitude de qualificatifs : « écodesign », « design social », « design éthique », « design inclusif », etc. On peut se demander si cette tendance à le renommer ne met pas en évidence une difficulté à comprendre ce qui pose problème dans le design « tout court » : le design aurait‑il perdu de sa force subversive pour être désormais parfaitement intégré aux forces productives ? Comment situer le rôle ou la tâche du design, pris entre désir et besoin, entre économie et morale ? Existe‑t‑il une responsabilité propre au design ?
Notions
Personnes citées
Objets mentionnés
Résumé
It’s been a few years since I wanted to apply for a French research grant from the Cnap – Centre national des arts plastiques. The funding aims to help researchers in the art and design fields to conduct free projects. The grant (between 4000-8000€) is directly awarded to the researcher, which is great as it avoids any administrative mishap. The project must be achieved within 18 months, and be summarized in a short written document. So what is my topic about? Well, since my Design Ph.D. defended in November 2013, I haven’t stopped to investigate the relationships between design and digital. The last chapter of my Ph.D. was a little bit prospective about the implications of the digital in the fields of interaction and graphic design (type design, OS design, etc.). Then, after my Ph.D., I started to teach undergraduate graphic and web design classes near Paris. I made a small focus on the culture and the history of the digital by asking my students to design a small website (their first website) about the book From Counterculture to Cyberculture from Fred Turner (2006), translated in French in 2012 by C&F editions. It was one of the only good books available at that time about digital culture. The student productions were good, but we lacked time to go further. In fact, I couldn’t advise any reads in French about the relationships between graphic design and digital practices. There were indeed some technical resources/manuals or online news blogs, but none of this was relevant to the understanding of the digital and its consequences. As the Canadian Center for Architecture (CCA, Montreal, QC) recently said: not only what, but “when is the digital?” In 2015, I started to analyze this subject as we launched Back Office, a research journal, dedicated to these topics. Then, with the great help of my colleagues Kévin Donnot and Élise Gay (E+K), we released the first issue in February 2017 – but that’s another story! During my Design Ph.D., I’ve explored the English field of the “software studies” (Lev Manovich, Matthew Fuller, etc.), but I didn’t know much, at the time, about digital humanities and media archæology. Thanks to the mentoring of French researcher Yves Citton, I started browsing a broader corpus of English books that I tried to connect with some French theory (Jacques Derrida, Michel Foucault, etc.). Apart from Back Office, I wrote a book titled Design and Digital humanities between 2015 and 2016, that will be published before the end of 2017. So, when I applied for the research grant from the Cnap, it was evident for me to think about something deeply connected to my research fields. I gave a lecture in 2016 in Strasbourg (France) about the evolutions of graphical user interfaces (GUI), which tend to be “invisible” (such as voice controlled smart objects). On the other hand, I wanted to go further into the history of digital graphic design. How and when did graphic designers start using computers? The last step to complete the grant application was to find some archive/research centers to open my investigations outside of the french settings. I was lucky to discover the Herb Lubalin Study Center (NYC) in 2013, which holds a great collection of famous graphic designers, such as Herb Lubalin, Otl Aicher, Karl Gerstner, etc. – so it was a no-brainer to go back there. The CCA (Montreal) can also be seen as a hotspot for the reasons explained above. Another interesting place I’m planning to visit is the Vilém Flusser Archive (Berlin), which owns numerous papers, books, etc. of the Czech-born philosopher (1920-1991). With these places in mind, I tried to elaborate a kind of “multi-cultural” research- studying how the digital was received and defined in various contexts, both historical and geographical. A good example is the book French Theory. Foucault, Derrida, Deleuze et Cie et les mutations de la vie intellectuelle aux États-Unis (2003) of the American studies professor François Cusset. In that book, Cusset analyzed the links between the new continental French philosophy, and its reception both inside and outside its homeland. Would it be possible to connect this methodology to design studies? I applied to the grant in late 2016, and received a positive response in March 2017 for an amount of 6000€ (mostly for travel costs). Here is the summary of my project: Shapes of the invisible. Graphic archæology of digital design By studying the progressive merging of graphic design practices with the emergence of personal computing in the early 1980s, and by linking them with contemporary works, this research project studies different ways of working with the “invisible” nature of the digital. For a decade, design dealt with the rise of algorithmic and automatic creative processes (shapes, layout, colorimetry, etc.). Which lessons can we learn from pioneering approaches today? If the digital was born out of computation, how can graphic design help making these invisible operations visible? The full application project, in French, can be found there.
Résumé
Entre une recherche comprise comme une façon d’ouvrir des questions et une recherche à visée opérationnelle (R&D) visant à résoudre des problèmes par une «injonction à l’innovation et à la créativité», où situer le champ d’action du design? Quel rapport à la technique entretenir avec des environnements numériques aux finalités multiples et contradictoires?
Notions
Personnes citées
Objets mentionnés
Date
May 2018
Type
ConférenceContexte
Invitation par Sylvain Bourmeau à l’émission de radio La Suite dans les idées, France Culture. En compagnie du designer graphique Stéphane Buellet, cofondateur du studio Chelvalvert
Résumé
Écouter l’émission de radio Résumé de l’émission « Depuis quelques années, à la faveur de la grande mutation numérique, des chercheurs en sciences humaines et sociales et des designers ont pris l’habitude de travailler ensemble, ouvrant de nouveaux univers scientifiques et esthétiques. Et si la mutation numérique offrait l’occasion pour les sciences humaines et sociales, les sciences dites dures et l’art d’enfin se rencontrer. Non pas simplement pour échanger, confronter ou comparer des modes de connaissance différents mais bien plutôt, à la faveur de l’apparition de ce grand terrain de jeu qu’offre le numérique, de travailler ensemble, de produire ensemble – sans oublier de réfléchir ensemble. C’est cet enjeu majeur qui figure au cœur du stimulant essai d’Anthony Masure, Design et humanités numériques. Dans la seconde partie de l’émission, il sera rejoint par Stéphane Buellet, designer, cofondateur de l’agence Chevalvert. » Essai Design et humanités numériques, Paris, B42, collection « Esthétique des données », 2017
Notions
Personnes citées
Objets mentionnés
Date
April 2019
Type
ConférenceContexte
Communication à la journée d’étude « Sonder les dispositifs numériques. Pratiques archéologiques en art et en design », dir. Vincent Ciciliato, Julie Martin, Anthony Masure, Carole Nosella, Saint-Étienne, université Jean Monnet, laboratoires CIEREC & LLA-CRÉATIS
Résumé
L’archéologie est une étude des sols et des terrains, dans ce que leurs couches superposées recèlent de pré-histoire et de post-histoire. En nous appuyant sur des recherches personnelles menées dans les archives du théoricien des médias Vilém Flusser, nous montrerons en quoi ses travaux sur les « appareils » (version dystopique des « dispositifs » du philosophe Giorgio Agamben), à plus de quarante ans d’écart, concernent plus que jamais l’époque contemporaine où l’idée d’un assujettissement des subjectivités par des programmes fait presque figure de banalité. Que peut encore nous dire Flusser, lui qui avait entrevu, peut-être comme nul autre, les séismes que l’irruption des codes numériques allait provoquer ? Comment vivre dans un monde de plus en plus programmé ?
Notions
Personnes citées
Objets mentionnés
Date
October 2019
Type
ConférenceContexte
Conférence avec Élise Rigot donnée à la journée d’étude « Sonder les dispositifs numériques. Pratiques archéologiques en art et en design », dir. Vincent Ciciliato, Julie Martin, Anthony Masure, Carole Nosella, université Toulouse – Jean Jaurès
Résumé
Vilém Flusser écrit l’essai Vampyroteuthis Infernalis au début des années 1980, en cadeau à son ami artiste Louis Bec. Cet étrange récit philosophique s’organise autour de la figure du « vampire des abysses », animal marin découvert en 1898. L’ouvrage est publié pour la première fois en aux éditions Immatrix, en allemand, accompagné d’une quinzaine d’illustrations de Louis Bec. L’animal devient le miroir inversé de l’humanité, un modèle d’altérité, voire même une façon de repenser nos relations aux médias numériques. À travers une conférenceperformance, mélange de recherches en archive et d’extrapolations, nous vous proposons de sonder avec nous les abysses des dispositifs numériques. Afin de suivre en images le récit qui sera proposé, un site Web mobile, créé pour l’occasion, était accessible pendant la conférence. Cette proposition fait suite à une lecture donnée en août 2019 au festival du Poulpe à Marseille.
Notions
Personnes citées
Objets mentionnés
Médias
Date
September 2020
Type
ConférenceContexte
Interview pour le podcast « Design MasterClass », no 10, « Design & attention : captation des esprits ».
Résumé
Podcast « Design MasterClass », n o 10, « Design & attention : captation des esprits », 7 septembre 2020 « L’attention est une faculté naturelle indispensable à la survie. Pourtant, il est facile d’oublier à quel point on ne la maitrise pas. L’essor et l’accélération des technologies d’information et de communication ont donné naissance à un capitalisme cognitif dont l’ingrédient est notre attention. Aujourd’hui, l’attention que nous consacrons aux choses à une valeur marchande. Elle est constamment chassée, captée et monétisée dans ce qu’on peut appeler l’économie de l’attention. Le design, en tant que force créatrice de l’environnement attentionnel, joue un rôle primordial dans cette économie. Sylvia Fredriksson, Anthony Masure, Mellie La Roque et Lénaïc Faure sont nos invité•es pour examiner la place du design, des designers et designeuses dans cette économie de l’attention. Cet épisode à été enregistré à distance durant la période de confinement, il se compose de 3 chapitres : – 01:30 • Chapitre 1 : Le capitalisme cognitif – 13:40 • Chapitre 2 : Le design attentionnel – 40:03 • Chapitre 3 : L’éthique et la responsabilité dans le design – 56:48 • Conclusion Vous souhaitez approfondir et mieux comprendre ce sujet ? Nous avons compilé une liste de ressources que vous pouvez retrouver ici 👉 http://bit.ly/dmc-10-ressources. Cet épisode à été réalisé et monté par Alex Mohebbi avec l’aide de Anthony Adam. Les voix-off sont de Anaïs Texier. »
Notions
Personnes citées
Objets mentionnés
Médias
Date
September 2020
Type
ConférenceContexte
Communication au colloque « Angles morts du numérique. Limites de la programmation », dir. Yves Citton, Francis Jutand, Marie Lechner, Anthony Masure, Vanessa Nurock, Olivier Lecointe, Cerisy-la-Salle.
Résumé
Quels sont les angles morts du numérique que le design permet d’éclairer ? À quels problèmes les technologies numériques sont-elles aveugles ? En quoi les choix – ou non choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
March 2022
Type
ConférenceContexte
Conférence dans le cadre du symposium « Jeansdinge on the Move », HEAD – Genève.
Résumé
To better understand the informational viral dynamics (hashtags, memes, videos, etc.) that characterize the contemporary era, this intervention proposes connecting the denim material’s proliferation with digital technologies. If they appear unrelated at first sight, they have in common that they proliferate in our existence like viruses, that is to say, like hosts that exist only in multitudes and in relation to other entities. How can we sustainably envisage this protean contagion?
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2023
Type
ConférenceContexte
Conférence donnée dans le cadre du cycle de conférences sur le design dirigé par Catherine Chomarat-Ruiz, session « Contribution du design et des technologies numériques pour la recherche sur le patrimoine scientifique » à l’initiative de Anne-Lyse Renon, Paris, Université Paris 1 Panthéon-Sorbonne.
Résumé
Le projet DESIGNSHS, financé par l’Agence Nationale de la Recherche (2021-2025), réalise la première étude d’envergure portant sur les relations entre design graphique et recherche en sciences humaines et sociales, des années 1950 à nos jours. Le Laboratoire de graphique de Jacques Bertin a été un acteur historique majeur de ce mouvement au croisement de l’innovation graphique numérique et des sciences humaines et sociales, en France notamment dans la deuxième moitié du XXe siècle. Nous présenterons les enjeux méthodologiques et scientifiques du projet et la manière dont le design et les humanités numériques y répondent. Nous explorerons aussi les rayonnements de ce projet tant sur le plan historique qu’épistémologique.
Notions
Personnes citées
Objets mentionnés
Médias
Résumé
Le projet de recherche CryptoKit propose une cartographie visuelle des technologies blockchain et des protocoles Web3 afin de les rendre accessibles à un large public. Il comprend notamment une police de caractères libre de droits de plus de 200 pictogrammes représentant les termes clés des technologies blockchain. Ces symboles peuvent être composés en diagrammes didactiques grâce à un outil dédié disponible sur www.cryptokit.ch.
Notions
Personnes citées
Objets mentionnés
Médias
Date
September 2013
Type
PublicationContexte
Anthony Masure, «Rencontres de Lure 2013 : amateurs et typothèses», Strabic.fr, septembre 2013
Résumé
D’abord cercle d’amis fondé dans les années 50, élargi en «école» (au sens de lieu d’autoformation et non de chapelle), l’association des Rencontres de Lure s’est ouverte depuis une trentaine d’années à tous les curieux de la chose graphique. Aujourd’hui, après 61 années d’existence, elle regroupe un public hétérogène et passionné qui se réunit chaque été dans ce lieu retiré des Alpes de Haute-Provence. « J’ai en esprit une phrase de Plotin – à propos de l’Un, me semble-t-il, mais je ne sais plus où, ni si je la cite correctement : « Personne n’y marcherait en terre étrangère » 1 Yves Bonnefoy, L’arrière-pays, Paris, Flammarion, coll. Les sentiers de la création, 1992, p. 7.. » Le visiteur qui revient des Rencontres de Lure est confronté à un double embarras : l’impossibilité de rendre compte de l’esprit du lieu, et la longue attente de la prochaine édition. Les Rencontres sont nées autour de 1950, de l’amitié de Jean Giono et du typographe Maximilien Vox. Subjugué par la beauté des montagnes, Vox achètera et reconstruira plusieurs maisons du village de Lurs-en-Provence, alors en ruine. Vox en profitera pour y initier des « retraites graphiques », au ton monacal. Reste de cette époque l’exigence de la réflexion, le temps du recul, l’esprit des lieux où de nombreuses pierres portent une histoire toujours vivante. Volontairement discrètes, les Rencontres de Lure accueillent chaque année autour de 80 personnes (un peu plus pour le cru 2013, qui a battu les records de fréquentation!). Nicolas Taffin préside depuis 2006 l’association (les conférences sont payantes pour couvrir les frais de fonctionnement). Cette fine équipe pratique une éthique de l’ouverture et s’efforce de mélanger les générations et disciplines. Après/Avant, une revue de culture graphique rouge et bleue C’est dans l’ignorance de cette histoire très dense que j’ai été invité par Adeline Goyet à rédiger un article dans la nouvelle revue Après\Avant. Particularité graphique, cet objet éditorial joue comme portfolio de la création contemporaine typographique. Un appel à contribution a été lancé, avec grand succès puisque la revue comporte au final une cinquantaine de polices de caractères différentes, toutes créditées ! L’habile et cauchemardesque maquette (réalisée par Sandra Chamaret et Julien Gineste) permet d’unifier tous les contenus par le recours à une bichromie rouge et bleue. La revue donne à lire des points de vue sur les conférences de l’édition précédente et s’écarte ainsi de la volonté de retranscrire fidèlement les paroles exactes, qui resteront à Lurs. Le deuxième temps de lecture initie la prochaine thématique, en l’occurrence : « l’amateur ». L’imprévu des programmes Afin de clarifier mes réticences quant à ce thème, j’ai proposé un court article intitulé « Que fait l’amateur ? ». Si l’on considère que l’amateur (de amator : celui qui aime) redonne du temps à ses objets d’étude, il est dans le même temps pris dans des logiques de récupération et de captation de ses productions. Dès lors, la responsabilité du designer serait de créer des objet qui « font faire », afin de permettre aux amateurs, que nous sommes peut-être tous, de pouvoir adopter l’altérité du monde. Amateur de rencontres, j’ai naturellement accepté l’invitation lursienne pour me permettre de développer ces premières idées. J’ai effectué une sélection de quelques points clés de ma thèse 2 Anthony Masure, Le design des programmes, thèse en cours de rédaction sous la direction de Pierre-Damien Huyghe, Université Paris 1 Panthéon-Sorbonne, UFR Arts plastiques et sciences de l’art., pour discuter l’idée que certains programmes « conditionnent » la création numérique, tandis que d’autres sont moins de l’ordre d’une planification. Il est donc important pour les amateurs et designers de déplacer leurs systèmes de références afin de faire place à l’imprévu. Me voilà donc parti dans la montagne. Le coup de bleu Je débarque donc le dimanche 25 août 2013 en gare de La Brillane-Oraison en compagnie d’autres amateurs de rencontres. De là, nous sommes conduits en haut de la montagne, où je prends place dans le superbe gîte-dortoir communal, qui sera vite rebaptisé Gîte-Hub. La vue sur la vallée et les vieilles pierres installent d’emblée une ambiance de recul, je pressens que la semaine ne ressemblera pas à ce que je connais, et que c’est bien moi qui ferai l’expérience de « l’imprévu des programmes », titre de mon intervention. Ma première tâche consiste à préparer la salle des repas, installer les tables et chaises pour une centaine de convives. Mes acolytes-ouvriers procèdent alors à une réflexion sur la grille pour aligner consciencieusement le mobilier, dont les nappes seront recouvertes pendant la semaine de recherches typographiques diverses. N’importe quelle scène du quotidien peut devenir l’endroit de jeux de mots et déplacements improbables. La salle étant rangée, nous voici donc en marche sur la crête de la montagne pour le traditionnel « coup de bleu », un apéritif improvisé à la lumière particulière du paysage à la tombée de la nuit. Je reconnais ça et là des visages familiers de Twitter, ou des noms dont le souvenir m’échappe parfois. La nuit tombe sur Lurs, ma peau passe du bleu au rouge. Une bande d’activistes Lundi matin, début des conférences à 9h30. L’amateur est évidemment au centre des débats, Nicolas Taffin ouvre la semaine, suivi rapidement de Frank Adebiaye, qui animera chaque matin un feuilleton décalé et savant traitant des figures de l’amateur. J’écoute avec grande attention l’intervention d’André Gunthert (EHESS), qui propose dès 10h à l’assemblée d’en finir avec le terme d’amateur : la semaine vient à peine de commencer que la thématique est détruite ! Pour Gunthert, l’amateur est l’œuvre des institutions et experts qui « sabotent » tout ce qui n’est pas de leur sein en disqualifiant ce qui leur est extérieur. « Ne parlons plus des amateurs » car plus personne ne croît aux récits héroïques d’émancipation. On confond démocratisation et extension, refusant souvent de prendre en compte dans nos analyses les personnes et facteurs hostiles aux changements, les « saboteurs ». Il nous faut réinventer la possibilité de créer des œuvres collectives et anonymes, ce qu’on savait faire avant la Renaissance. Gunthert propose pour finir de remplacer « amateurs » par « activistes », pour mieux qualifier la dimension subversive de ce que fait l’amateur aux productions culturelles. Deuxième coup de bleu, me voilà donc faisant partie d’un groupe d’activistes. Typothèses de recherche Les autres interventions de la première journée traiteront du Comic Sans (« le doudou de la typo »), de l’application Vine, du « tout le monde est graphiste », et la journée se conclura par le défilé des loufoques créations « typonoclastes » de Jean-Jacques Tachdjian, dont la police Hermetica serait parfaite pour ma thèse. Il est déjà l’heure d’aller déranger la grille de la salle des repas. Heureusement, personne ne ronfle dans le Gîte-Hub. Mardi matin, c’est donc à moi de commencer la journée. Les questions du public sont variées, de l’exemple de IA Writer pour désencombrer nos interfaces, à André Gunthert qui me titille sur les conditionnements culturels, qui sont aussi importants que ceux de la technique. Je peux aller me rasseoir et continuer mon live-tweet en réseau Edge (la foudre a cassé le boitier ADSL deux jours avant le début des Rencontres). Je capture ce que je peux de l’intervention de Jean Alessandrini, qui n’avait plus mis les pieds à Lurs depuis 35 ans pour des querelles portant sur sa classification typographique concurrentielle de celle de Maximilien Vox. Son retour en grâce fut mis en scène par Olivier Nineuil, qui organisa la présentation des travaux autour d’une carte mentale de pas moins de 530 images ; grand moment pour certains et mal de mer pour d’autres. Les discussions continueront toute la semaine au « Buffalo grid » et ailleurs, mon intention de venir à Lurs pour discuter d’hypothèses de recherche en cours est pleinement réalisée. J’accapare André Gunthert pour discuter de Walter Benjamin et de l’histoire de la photo. C’est passionnant de rencontrer des activistes, finalement. Baignade et colliers de PERL Mercredi, tout le monde part en car à Marseille pour une journée off, une vraie colonie pour adultes ! Activités au choix : baignade, musée ou visites urbaines. Jeudi, reprise des hostilités. Naviguant des tampons à l’archivage du web, je retiendrai surtout la réédition par Alexandre Laumonier (fondateur de la maison d’édition Zones Sensibles du Dictionnaire historique et critique de Pierre Bayle de 1702. Après avoir fait le tour des principaux enjeux historiques, philosophiques et économiques que pose le projet de rééditer aujourd’hui un livre qui fait à l’origine 4000 pages (le correcteur a mis un an à traiter 1% du contenu !), Alexandre Laumonier pose très justement le fait que rééditer ces pages sans conserver la mise en page d’origine n’a aucun sens. Il s’agit donc de trouver des procédés techniques pour relier les notes de notes de notes entre elles, géniales compositions page par page qui donneraient des cauchemars à n’importe quel maquettiste d’aujourd’hui. Tous les nerds luriens de la salle ont senti leur cœur se nouer quand fut faite la démonstration de requêtes GREP InDesign servant entre autres à gérer de la micro typographie, ainsi que d’un script PERL pour extraire des statistiques de composition de n’importe quelle page du document, qui fut repris depuis le début de très nombreuses fois ; plus de 10 années de travail. Meta nights Après une nuit où la place du village improvisée en sound system aurait pu générer une nouvelle affaire Dominici, nous revoilà vaillants pour écouter Joe la pompe himself en cagoule, pour protéger son identité des « pompeurs de pubs ». Je découvre l’œuvre et les archives de Gérard Blanchard, typographe, dont les écrits ont de quoi occuper des générations de transcripteurs. Les codeurs de la salle en reprennent un coup, avec David Vallance qui nous présente son projet de DNAT tournant autour de Metafont, un langage de description des polices vectorielles développé dans les années 60 par Donald Knuth, une histoire fascinante de la typographie numérique. Venu des États-Unis, Rich Roat de la fonderie House Industries clôture de fort belle manière cette semaine des amateurs par un show à l’américaine, la culture du goodies et du toujours plus. C’est déjà la dernière nuit. Coup de blues La semaine graphique s’ouvrait par le « coup de bleu », elle se termine par le « coup de blues ». Les derniers lurons échangent sur la semaine, et déjà place à la prochaine édition avec un brainstorming de la prochaine thématique, qui se poursuivra dans le TGV pour Paris. Coup de gris, la montagne reprend ses droits. Pour les joyeux amateurs de #Lure2014, l’attente sera longue. On rebranche quand ? Remerciements chaleureux à l’équipe des Rencontres de Lure pour leur hospitalité légendaire et pour leur organisation tirée au cordeau. Merci à Thibéry Maillard pour les images. En savoir plus : Un très bon article du blog Graphéine sur l’histoire et les secrets des Rencontres de Lure.
Notions
Personnes citées
Objets mentionnés
Médias
Date
December 2020
Type
PublicationContexte
Article coécrit avec Alexandre Saint-Jevin, introduction au chapitre « Système de mode », dans : Bertand Maréchal (dir.), Rechercher la Mode, HEAD – Genève, 2020.
Résumé
Les entretiens reproduits dans ce chapitre, réalisés par Bertrand Maréchal et Mathieu Buard, étudient les rapports entre art et « système de la mode » en interrogeant des professionnels de ce secteur. Pierre Bergé parle de la situation de la mode et du rapport à une possible histoire de la mode, Gilles Lasbordes de la recherche privée dans le monde de la mode, Cyrille Cabellos s’intéresse au rapport de l’identité d’une entreprise de mode au marché de la mode, Olivier Saillard échange à propos de la muséographie de la mode et du passage d’une marchandise, à une archive et à une œuvre d’art, Clément Corraze témoigne des spécificités du support numérique pour un magazine de mode, et Raphaèle Billé revient sur l’atelier textile du Bauhaus. De l’origine du terme à des définitions hétéronomes Le mot féminin mode vient du latin modus qui, d’après le Gaffiot, définit soit une mesure (étendue, rythme en musique et danse), soit une limite, une borne, une règle, une méthode, soit une façon, une manière, un genre 1 Félix Gaffiot, Dictionnaire Latin-Français [1934], Paris, Hachette, 2001, p. 987.. Il viendrait lui-même du grec mêdos (μῆδος), qui d’après le Bailly signifie « soin, souci, préoccupation dont on est l’objet », venant lui-même de mêdomai (μήδομαι), « méditer, penser à…, songer à…, imaginer, inventer, tramer, machiner, travailler, préparer, se préoccuper, s’occuper de 2 Anatole Bailly, Dictionnaire Grec-Français [1895], Paris, Hachette, 2000, p. 1275.… ». Son étymologie montre le souci apporté à quelque chose ou à quelqu’un, dans le sens de « réfléchir sur comment on se préoccupe, on fait, on pense ». D’après le Littré, le mot « mode » au féminin est attesté depuis 1393, où il désignait une « manière collective de vivre, de penser propre à un pays, à une époque 3 Si les définitions n’ont pas de référence c’est qu’elles sont issues du lexique placé à la fin de l’ouvrage Rechercher la mode. ». L’Encyclopædia Universalis ajoute que c’est au XIVe siècle, en France, que le vêtement va être pensé comme quelque chose de signifiant : « Il est communément admis que le costume ou la coutume – deux termes d’acception proche que l’on a longtemps confondus – deviennent ‹ objets de la mode › en France, au milieu du XIVe siècle, c’est-à-dire qu’ils se dotent d’une grammaire spécifique ordonnée selon un temps, désormais cyclique, fait de périodes plus ou moins longues (de cinq à dix ans environ). » D’après Le Trésor de la Langue Française informatisé (TLF i), la mode renvoie aussi à une manière pouvant être déterminée culturellement (en 1619, dans l’expression « neveu à la mode de Bretagne », et en 1651 avec « bœuf à la mode »). Le mot « mode » renvoie aussi à l’éphémère, ce que nous appellerions aujourd’hui une tendance (1549 : « goûts collectifs, manières passagères de vivre, de penser, de sentir »). On comprend que la mode, en général, est une « manière », une « façon », comme cela est attesté dès 1452. Ainsi, ce terme n’est pas utilisé que pour la manière de s’habiller (dès 1480, la mode désigne une « manière de s’habiller », mais ne deviendra un adjectif qu’en 1849). Au XVIIe siècle, la mode va désigner les « vêtements féminins » puis, tout au long du XIXe siècle, intégrer aussi bien les « chapeaux féminins » que le « commerce de la toilette féminine ». En ce sens, la mode renvoie de manière générale à ce « qui est conforme au goût, au besoin du moment et reçoit la faveur du public », et plus spécifiquement l’« ensemble d’habitudes passagères, conformes au modèle esthétique reçu par la société à laquelle on appartient ». Le mot « fashion » n’est intégré à la langue anglaise qu’au milieu du XVIIe siècle. Fashion est la traduction du mot français « façon », entendu comme « artisanat, façon de faire, maniérisme 4 Ici la traduction pose problème. En effet, le « maniérisme » est un terme anachronique inventé au XVIIIe siècle par l’historien Luigi Lanzi. Il semble que le passage à la langue anglaise du mot « façon » renvoie davantage à la maniera (l’exaltation de l’ornementation, des agréments, dans le style rococo) qu’au maniérisme. » prenant une connotation de « confection », de « coutume » ou de « tendance », et non du mot « mode », qui existait pourtant déjà au sens de fashion. La mode renvoie non pas au vêtement en tant qu’objet mais en tant que charge symbolique, autrement dit de pouvoir : « En France, ‹ à la mode › désigne alors une personne portant des vêtements de cour, chargés d’une signification d’autorité et de pouvoir absolu. Sous Louis XIV, souverain ‹ à la mode ›, la France devient le centre européen de la mode. » La mode, dans son sens premier, renvoie donc à une conformité, à ce qui vient faire un ensemble : c’est la forme d’expression d’une esthétique à travers des caractéristiques formelles. Ainsi, Le Grand Robert définit la mode comme les « habitudes collectives et passagères en matière d’habillement » en citant son usage, qualifié de vieilli, de « manière collective de vivre, de penser, de juger propre à une époque, à un pays, à un milieu ». Wikipedia propose une synthèse, calquée sur les usages contemporains occidentaux, en la définissant comme « la manière de se vêtir, propre à une époque ou à une région en fonction des tendances de saison ». Cette conception de la mode est loin de faire consensus. Le lecteur pourra se rendre compte que les définitions actuelles de la mode ne viennent pas du monde de la mode, sans doute car la mode renvoie à des enjeux qui la dépassent. En effet, dès L’Encyclopédie (1751–1772) de Diderot et d’Alembert, il est explicitement dit que la mode n’est pas qu’affaire de superficialité, mais qu’elle engage une dimension politique et philosophique : « […] MODE (Arts), coutume, usage, manière de s’habiller, de s’ajuster, en un mot, tout ce qui sert à la parure et au luxe ; ainsi la mode peut être considérée politiquement et philosophiquement. […] Quoique l’envie de plaire plus que les autres ait établi les parures, et que l’envie de plaire plus que soi-même ait établi les modes, quoiqu’elles naissent encore de la frivolité de l’esprit, elles font un objet important, dont un état de luxe peut augmenter sans cesse les branches de son commerce. » Dans la confusion qui existait avec les merciers, L’Encyclopédie précise que la mode concerne plus précisément les ajustements, la parure, les ornements et les agréments. D’ores et déjà, comme cela se retrouvera dans de nombreuses définition, il est indiqué que la France occupe une place privilégiée dans la mode. Ce qui nous intéresse ici, c’est que la mode, en lien avec la notion de pouvoir, renvoie à des questions philosophiques. D’après le Dictionnaire de philosophie, la mode est la manière individuelle de faire, un style éphémère réglant la forme du mobilier et des vêtements, une habitude commune, un goût collectif. Ce serait la coutume des sociétés sans coutume. Selon le sociologue et psychologue Gabriel Tarde (1843–1904), la coutume serait caractérisée par l’imitation des prédécesseurs, alors que la mode serait caractérisée par l’imitation des contemporains. De plus, la mode présupposerait la division de la société en classes particularisées et en individus atomisés. En effet, le philosophe et sociologue Georges Simmel (1858–1918) y reconnaît une synthèse entre l’individualisme et la communauté, la volonté de se singulariser et le conformisme. Ainsi, les philosophes soulignent le paradoxe de la mode d’être muée par une volonté de singularisation et d’être en même temps un modèle, soit un ensemble de règles de ce qui doit, et surtout de comment ça doit être. La mode en se souciant du « comment ? », en conférant un sens au processus de singularisation, vient paradoxalement rendre conforme, voire même uniformiser. Le « système de la mode » de Roland Barthes En plus de son ouvrage Système de la mode (1967), le sémiologue Roland Barthes a publié plusieurs articles et donné des entretiens montrant son intérêt pour la mode comme sujet de recherche : « Le vêtement est l’un de ces objets de communication, comme la nourriture, les gestes, les comportements, la conversation, que j’ai toujours eu une joie profonde à interroger parce que, d’une part, ils possèdent une existence quotidienne et représentent pour moi une possibilité de connaissance de moi-même au niveau le plus immédiat car je m’y investis dans ma vie propre, et parce que, d’autre part, ils possèdent une existence intellectuelle et s’offrent à une analyse systématique par des moyens formels 5 Olivier Burgelin, « Barthes et le vêtement », Communication, n o 63, 1966, p. 81–100.. » En reprenant les textes de Barthes sur la mode allant de 1957 à 1969, le chercheur Olivier Burgelin identifie trois temps dans sa pensée (basés sur la lecture du livre de Jane Kroeber et Alfred Richardson, intitulé Three Centuries of Women’s Dress Fashion de 1940). Dans un premier temps, Barthes essaie d’analyser le vêtement au niveau formel et tel qu’il est porté. Dans le second, il s’intéresse aux manières dont le vêtement est décrit dans les discours sur la mode. Dans le troisième, il propose de séparer trois systèmes de la mode : le vêtement réel, les images de la mode, les mots sur la mode. Selon Barthes, La mode n’existe qu’à travers le discours sur elle. La mode n’est pas un contenu « naturel » : c’est pourquoi il critique cette conception en raison de la manière dont la bourgeoisie utilise cette notion de naturel pour maintenir et légitimer sa domination : « On peut attaquer le monde, et l’aliénation idéologique de notre monde quotidien, à bien des niveaux : Système de la Mode contient aussi une affirmation éthique sur le monde, la même d’ailleurs que dans les Mythologies, à savoir qu’il y a un mal, un mal social, idéologique, attaché aux systèmes de signes qui ne s’avouent pas franchement comme systèmes de signes. Au lieu de reconnaître que la culture est un système immotivé de significations, la société bourgeoise donne toujours des signes comme justifiés par la nature ou la raison 6 Roland Barthes, « Le système de la Mode », propos recueillis par Cécile Delanghe, dans : France-Forum, n o 5, juin 1967, p. 67. Reproduit dans : Roland Barthes, Œuvres complètes, tome 2, (1966–1973), Paris, Seuil, 1994.. » La théorie de la mode ne s’ouvre donc pas sous de bons auspices quand on sait, comme l’explique clairement Olivier Burgelin, que l’intention principale de la mode comme objet de recherche est pour Barthes de montrer comment les êtres humains font du sens avec presque rien. La futilité de la mode, selon lui, montre que l’on peut construire un objet intellectuel avec peu de chose. Barthes critique ainsi les recensions d’habits consistant à simplement coupler un état anthropologique à un système vestimentaire. Il soulève un problème disciplinaire, que l’on peut retrouver de nos jours dans les différentes manières d’étudier la mode, ne prenant que très rarement en compte les questions du processus de création pour se focaliser sur celles de la réception des productions. En effet, les productions de la mode sont souvent réduites à des archives. Mécène et compagnon d’Yves Saint Laurent, Pierre Bergé, lors d’un entretien pour cet ouvrage dit « que la mode n’est pas un art, parce que ça ne s’accroche pas au mur comme un tableau, mais que la mode a besoin d’artistes 7 Voir supra, p. 50. ». Il nous semble pourtant que les vêtements du passé perdent leur valeur esthétique intrinsèque au profit de leur historicité, c’est-à-dire leur capacité à expliquer une maison, une tendance, un styliste, une technique, et des usages sociaux. C’est ce que montre l’entretien avec Olivier Saillard (reproduit dans cet ouvrage), commissaire de la rétrospective consacrée au couturier Azzedine Alaïa (1935–2017) en 2013 au Palais Galliera : « L’exposition a néanmoins été très critiquée. L’absence d’images, de vidéos ou de contexte nous a surtout été reprochée. C’est surprenant car, lorsqu’on se confronte au plus grand couturier de sa génération, qui continue de signer des collections d’exigence, il n’y a pas à justifier une œuvre avec des écrans de contrôle de tous les côtés 8 Voir supra, p. 52.. » Roland Barthes, en critiquant la manière dont les approches de la mode se contentent d’historiser le costume, c’est-à-dire d’en faire seulement l’illustration de la grande histoire, en vient à dire que : « Sur le plan de la différence interne, aucune histoire du costume ne s’est encore préoccupée de définir ce que pourrait être, à un moment donné, un système vestimentaire, l’ensemble axiologique (contraintes, interdictions, tolérances, aberrations, fantaisie, congruences et exclusions) qui le constituent 9 Olivier Burgelin, op. cit.. » Cependant, Barthes critique aussi le formalisme consistant à comparer une forme de vêtement à de l’architecture ou à d’autres arts pour en faire émerger l’esprit de l’époque – ce qui, pour lui, relèvent de l’arbitraire. Le vêtement est soit réduit à un fait historique, soit à un fait anthropologique. Pour Franz Kiener auteur de l’essai « Kleidung, Mode und Mensch 10 Roland Barthes, comptes-rendus de lecture de Franz Kiener, « Le vêtement, la mode et l’Homme, essai d’interprétation psychologique », et de John Carl Flügel, The Psychology of Clothes, dans : Annales. Economies, sociétés, civilisations, n o 2, 1960, p. 404–407, https://www.persee.fr/doc/ahess_0395-2649_1960_num_15_2_420651_t1_0404_0000_4 » (1956), qui inspira beaucoup Roland Barthes, l’histoire du vêtement est une histoire du renversement. Comme l’a montré la linguistique, on ne peut pas étudier une réalité sans en modifier l’idée de fait (c’est-à-dire qu’en étudiant la langue on change la langue), contrairement à ces approches de la mode ne venant pas penser la manière dont elle change la mode en en faisant un fait, un objet d’étude, en l’objectivant. Barthes s’appuie aussi sur l’ouvrage Psychology of clothes 11 John Carl Flügel, Le Rêveur Nu. De la Parure vestimentaire [1930], trad. de l’anglais par Jean-Michel Denis, Paris, Aubier Montaigne, 1982. (1930) de John Carl Flügel, le père de la sémiologie du vêtement, qui le détache de son explication « fonctionnelle » de protection et parure, pour l’élever au rang de signe ; c’est un « valant-pour », à la manière du structuralisme saussurien. Reprenant aussi les travaux en phonologie de Nikolaï Sergueïevitch Troubetskoï (le véritable fondateur de la sémiologie du vêtement), Barthes différencie le costume de l’habillement et pose la triade langage-vêtement, langue-costume, parole-habillement. Il y a les « faits de vêtement », qui sont directement observables, et les « faits de costume », qui sont abstraits. Ces faits forment un concept bicéphale, à la manière dont fonctionne le « signe » pour le linguiste Ferdinand de Saussure. Cette méthode d’étude du vêtement, qui analyse ces faits pour en révéler les structures abstraites – autrement dit les « systèmes » –, amène Barthes à opposer la mode au dandysme. Le dandysme croit en la possibilité que la lecture du sens du vêtement soit donnée pour soi, ce qui permettrait au dandy de créer sa tenue par une technique qui lui est propre. Le principe de la mode est donc de faire disparaître le dandysme. Autrement dit, Barthes ne se saisit pas du paradoxe propre à la mode, mis en avant par les philosophes, d’à la fois singulariser et uniformiser, alors que dans le dandysme la singularisation de la mode est réduite à l’uniformisation. La question se pose alors de savoir si la mode se réduit-elle à la sémiologie, à l’étude de ses systèmes, ou si elle doit fonder sa propre discipline et ses propres méthodes. Vers une discipline ? Le sociologue Frédéric Godart synthétise les recherches en sociologie sur la mode selon deux conceptions : « Tout d’abord, [la mode] peut se définir comme l’industrie de l’habillement et du luxe (auxquels on peut ajouter les cosmétiques) dans laquelle de multiples acteurs, par exemple des professionnels et des entreprises, développent des carrières ou des stratégies 12 Frédéric Godart, « Introduction. La mode, un ‹ fait social total › ? », dans : Sociologie de la mode, Paris, La Découverte, 2010, p. 3–11, disponible à l’adresse : https://www.cairn.info/sociologie-de-la-mode—9782707157621-page-3.htm » « Ensuite, la mode peut se définir comme un type de changement social spécifique, régulier et non cumulatif, et se déployant dans de multiples domaines de la vie sociale au-delà de l’habillement 13 Ibid.. » Comme il l’explique, ces deux définitions sont liées en ce que la mode, dans sa dimension industrielle, produit des styles caractérisés par ce qu’il appelle des « changements réguliers et non cumulatifs ». Cependant, comme il le souligne, on voit que la « haute » mode (du stylisme et de l’industrie du vêtement) est débordée par des questions de style qui ne se limitent pas aux vêtements et la manière dont ils sont portés, mais qui intègrent la coiffure, le maquillage, la pilosité, etc. Les défilés de mode prennent en compte ces dimensions, qui sont pensées dans l’esthétique globale des collections. De plus, les questionnements de la mode ne sont pas tous constitutifs d’un changement régulier ou cyclique, comme c’est le cas par exemple pour ce qui à trait aux techniques de production des textiles 14 Ibid.. Enfin, la mode ne saurait se limiter à la sémiologie de Barthes, à savoir une analyse des systèmes. Comme l’explique la sociologue italienne Nicoletta Giusti 15 Ibid., des recherches interdisciplinaires sur la mode émergent depuis les années 1990, qui tentent de mettre en place des méthodes et de délimiter un objet propre rassemblées sous le terme de « fashion studies » (« études de [la] mode ») ou de fashion-ology (« modologie »), comme l’appelle Yunya Kawamura 16 Ibid.. La « modologie » est la rencontre entre les sciences sociales s’intéressant à la mode et ce que le sociologue Frédéric Godart appelle « une tentative de réconciliation entre le temps de la mode, celui du renouveau permanent, et le temps de la science, celui de l’analyse des faits et de la construction des théories 17 Ibid. ». L’intérêt des fashion studies – qui ne font pas directement l’objet de cet ouvrage, plus spécifiquement centré sur l’aire francophone 18 En complément, voir : Odile Blanc, « Histoire du costume, quelques observations méthodologiques », Histoire de l’art, n o 48, « Parure, costume et vêtement », juin 2001, p. 153–163. – est de répondre aux limites des approches uniquement sociologiques, et plus particulièrement à celles de Pierre Bourdieu 19 Agnes Rocamura, « Fields of Fashion: Critical insights into Bourdieu’s sociology of culture », Journal of Consumer Culture, vol. 2, n o 3, p. 341–362, disponible à l’adresse : https://doi.org/10.1177/146954050200200303. Pierre Bourdieu et Yvette Delsaut 20 Frédéric Godart, op. cit., écrivent ainsi que la mode produit des objets « magiques » venant signifier le statut et de distinction sociale, d’un sens exprimé par une couleur, une forme ou un logo, etc. Dans l’optique de cette sociologie française, la mode n’est pas davantage pensée sur le modèle de la haute couture que sur les théories du design. Se pose alors la question de savoir si la sociologie ne vient pas réduire la mode à un objet sociologique, et plus largement si chaque discipline des sciences humaines et sociales ne vient pas penser la mode seulement sous une de ses dimensions – ce qui justifie la volonté d’autonomie des fashion studies. Pour cette raison, nous proposons non pas de rompre avec les sciences humaines et sociales, mais de déconstruire la manière dont elles problématisent le design : « Notre hypothèse de recherche est que le rapprochement des problématiques propres au design avec les recherches plus récentes dans le champ des humanités numériques [et, par extension, des SHS,] indique moins une évidence qu’une question qu’il s’agit de déconstruire 21 Anthony Masure, Design et humanités numériques, Paris, B42, 2017, p. 13.. » Si l’histoire du design émerge théoriquement à partir des arts appliqués, pour autant la mode a un statut particulier dans cette émergence. En effet, le créateur de mode est plus rarement désigné comme « designer » que comme « styliste » ou « grand-couturier » (comme dans l’exemple de Azzedine Alaïa évoqué plus haut). En France, berceau de la haute-couture, la mode, (comme l’architecture) a ce statut particulier d’être pensée dans le design, mais sans que les créateurs ne soient des designers : ce sont des stylistes ou des grands couturiers. Notons, même si tel n’est pas le propos de cet ouvrage, que ces enjeux ne sont pas les mêmes partout en Europe. Par exemple, contrairement aux réseaux de manufactures familiales en France et en Italie, l’Angleterre s’appuie sur le lien entre l’industrialisation précoce du textile (liée à la colonisation) et le métier de tailleur pour homme. Aux États-Unis, le prêt-à-porter naît après la Seconde Guerre mondiale en rupture avec Paris, alors capitale mondiale de la mode 22 Ces différences expliquent pourquoi les fashion studies se sont développées dans le champ anglo-saxon, et manquent encore d’écho en France.. Pour en revenir au cas français, si l’appellation de grand couturier et de petite couturière ont cédé la place au « créateur » des années 1980, le terme de « styliste », qui désigne en anglais le styliste photo des rédactions de magazines, n’a pas encore encore été vraiment remplacé par celui de « designer » (de mode), généralement associé au design industriel. C’est ce que l’historienne de l’art Hayley Edwards-Dujardin décrit dans cet ouvrage en parlant d’un flou sémantique : « Le changement de termes employés depuis les origines de la mode pour désigner le créateur entraîne inévitablement un flou sémantique. Cet ouvrage a choisi de privilégier le terme en usage au sein des écoles de mode internationales : de ‹ fashion designer ›, de ‹ designer de mode ›, ou de ‹ designer › – désignation épicène pour le designer femme comme le designer homme –, alors que la presse parle indifféremment de ‹ styliste ›, de ‹ créateur de mode ›, et plus récemment de ‹ designer › 23 Voir supra, p. 74.. » Ce débat souligne le pont restant à faire, ou du moins à préciser, entre les théories du design et la scène contemporaine de la mode 24 Alexandra Midal en conversation avec Bertrand Maréchal, HEAD – Genève, 12 juillet 2017.. Hayley Edwards-Dujardin montre d’ailleurs l’intérêt de l’expression « designer de mode », en questionnant notamment le rapport entre la création et l’image (au sens bidimensionnel) au sein de la mode. Selon elle, les relations de la mode aux technologies numérique et ses rapprochement avec le travail du commissaire d’exposition (art curator) remettent en question les notions de styliste et de grand-couturier. De plus, comme l’explique Cyril Cabellos, lors d’un entretien reproduit dans cet ouvrage, il s’agit de design et non pas de beaux-arts car la mode pense les enjeux financiers comme une partie de la démarche de création. Nous pouvons donc facilement affirmer que les notions de la mode ne peuvent pas se réduire à des termes techniques ou plastiques. « Dans le cas concret de [la holding de luxe] Kering, un travail de recherche d’identité classique se permet d’énoncer en priorité les activités mercantiles. Ensuite entre en jeu la notion de ‹ valeurs ›, qui permet de promouvoir le groupe et son activité propre ainsi que celle des marques qu’il possède. La personnalité du patron devient donc centrale, ainsi que les valeurs politiques et sociales 25 Voir supra, p. 63.. » Hayley Edwards-Dujardin explique que ce flou notionnel est propre à la mode et à la relation complexe entre la haute couture et l’industrie du vêtement. Ce problème de définition est renforcé au niveau des formations de mode, par le fait que la haute-couture a tendance à se rapprocher des formations des beaux-arts, alors que l’industrie du vêtement, comme le dit Elizabeth Fischer, se situe plutôt dans les écoles d’arts appliqués. La haute-couture entretient un lien particulier avec l’artisanat, auquel elle fait notamment appel pour produire des pièces uniques. À ceci s’ajoute le fait que le design naît avec l’industrie, en tension avec elle, comme l’exprime László Moholy-Nagy, dans son article « Nouvelle méthode d’approche. Le design pour la vie » (1947) 26 László Moholy-Nagy, « Nouvelle méthode d’approche. Le design pour la vie » [1947], dans : Peinture Photographie Film et autres écrits sur la photographie [1993], trad. de l’allemand par Catherine Wermester et de l’anglais par Jean Kempf et Gérard Dallez, Paris, Folio, 2007.. Il est en effet coutume de donner comme acte de naissance du design – c’est-à-dire comme réaction à la révolution industrielle {Voir : Alexandra Midal, Design. Introduction à l’histoire d’une discipline, Paris, Pocket, 2009, et Annick Lantenois, Le vertige du funambule. Le design graphique, entre économie et morale, Paris, B42, 2010.} – l’Exposition universelle de 1851 à Londres (The Great Exhibition of the Works of Industry of All Nations). Il est facilement compréhensible que ces deux séries – grand couturier / haute-couture / beaux-arts / artisanat d’un côté, et designer / prêt-à-porter / écoles d’arts appliqués / industrie de l’autre – vont créer un flou pour penser la mode dans et par les théories du design. La peur que le système français de la haute couture se dissolve dans l’industrie du vêtement 28 « Remise du rapport d’Olivier Saillard sur le patrimoine et la mode », Paris, Ministère de la Culture, avril 2017, https://www.culture.gouv.fr/Presse/Archives-Presse/Archives-Communiques-de-presse-2012-2018/Annee-2017/Remise-du-rapport-d-Olivier-Saillard-sur-le-patrimoine-et-la-mode s’exprime dans certains entretiens menés dans cet ouvrage. En tout cas, ces difficultés notionnelles viennent remettre en question la continuité entre arts appliqués et design. Il nous semble pourtant que l’histoire récente de la mode, qui prend en compte le processus créateur et non pas seulement la réception des productions, montre une autre manière d’aborder les rapports entre art et design que l’opposition grand couturier / designer. Un bref historique des pratiques permet de pointer l’évolution du processus de création du vaste domaine défini aujourd’hui par la mode. Tout au long du XXe siècle, le principe de conception associé à la haute couture repose principalement sur l’imaginaire du grand couturier, dont les idées sont traduites en vêtements par un atelier hautement qualifié. Il faut attendre Yves Saint Laurent (1936–2008) pour que l’imaginaire biographique d’un couturier et le rapprochement avec les esthétiques de la rue s’expriment à travers un même vêtement. En France, deux histoires de la mode se rejoignent alors, avec d’une part la suprématie des grands couturiers sur la mode occidentale entre 1860 et 1968, et d’autre part la mode spontanée de la rue, phénomène hautement hétérogène et miroir des mutations sociales tout autant que marqueur générationnel. Si la mode est dominée au début du XXe siècle par la haute couture et la transmission d’une créativité définie par la lente évolution du vêtement occidental, les années 1980 voient émerger d’autres cultures et processus créatifs avec les designers japonais Rei Kawakubo ou Yohji Yamamoto, dont les esthétiques et les pratiques, se rapprochant des questionnement du design et de l’art contemporain, vont progressivement réformer l’approche et l’enseignement des universités de mode. Ce nouveau langage rompt avec la tradition parisienne en positionnant l’imaginaire, les esthétiques contemporaines et la relation au corps, au centre du questionnement sur le vêtement et son processus créatif. Cette valorisation du processus créatif dans la mode a rapproché designers et artistes : Takashi Murakami chez Louis Vuitton et, de manière plus impliquée, l’architecte Rem Koolhaas et Miuccia Prada dans la conception des boutiques et la scénographie des défilés de la marque Prada. Ces exemples ont ouvert un débat dans les années 2000 sur la légitimité de l’association entre l’art et la mode, interrogeant par-là la dimension artistique de la mode. Au tournant du XXIe siècle, la généralisation du Web repositionne le secteur de la haute couture, qui se définissait jusque-là par le principe dominant du luxe et de l’exclusion : la communication en ligne et les médias sociaux deviennent ainsi des éléments centraux à étudier pour quiconque s’intéresse à la mode. La démultiplication des communications va de pair avec la globalisation des échanges commerciaux et des canaux de distribution. On peut citer en exemple l’industrie du denim, qui compte ses propres réseaux et salons commerciaux, avec un fonctionnement aussi complexe que celui des marques de luxe, mais aussi le sportswear et la production de masse comme le japonais Uniqlo, l’espagnol Zara, le suédois COS qui à leur tour influencent les pratiques de la représentation et la perception de la mode via leur forte présence en ligne.
Notions
Personnes citées
Objets mentionnés
Date
December 2020
Type
PublicationContexte
Propos récoltés par Loven Bensimon pour Conforme Magazine et rédigés par Anthony Masure le 1er avril 2020 à Paris.
Résumé
Conforme Magazine : Le transhumanisme est-il notre futur ou est-il déjà d’actualité ? Anthony Masure : Le transhumanisme, qui ne se développe vraiment qu’à partir des années 1980, est un mouvement de pensée complexe et aux ramifications multiples. Il y a un écart entre la réparation et l’augmentation, à savoir le développement de facultés qui dépassent les contraintes biologiques. Mais cette distinction peut rapidement être remise en cause, comme par exemple dans le cas du traitement des maladies génétiques, où l’on pourrait facilement imaginer que seul un groupe social aisé aurait les moyens d’être immunisé à certaines pathologies. Mais ce scénario ne ferait que renforcer les actuelles différences d’accès aux soins, à l’éducation, et aux inventions techniques. De façon plus générale, si l’on entend par transhumanisme la volonté de transcender une condition initiale, alors l’humain a toujours été plus qu’humain, pour reprendre le mot de Nietzsche, c’est-à-dire toujours tiré en dehors de lui même. Autrement dit, il n’est pas possible de séparer l’humain du fait technique ! Comme le note la philosophe Donna Haraway, nous vivons déjà dans une société cyborg 1 Donna Haraway, « Manifeste Cyborg. Science, technologie et féminisme socialiste à la fin du XXe siècle » [1985], dans : Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes [1985–1997], trad. de l’anglais par Denis Petit en collaboration avec Nathalie Magnan, Paris, Exils, 2007. : le cyborg n’est pas une autre ontologie, il est « notre ontologie ». Cette figure permet à Haraway de renverser les oppositions homme / femme / machine et les dynamiques capitalistes : il est possible de réinvestir politiquement le présent pour montrer que ce dernier ne détermine mécaniquement pas le futur. L’enjeu n’est donc pas de s’opposer frontalement au transhumanisme, mais d’explorer des zones de perméabilité, d’en faire un « système d’information polymorphe » (Haraway). Lisa Thieffry pour Conforme magazine Conforme Magazine : L’humain, maître et possesseur de la nature se croit-il tout permis ? Il y a-t-il des écueils à cet hubris ? Peut-il y avoir des conséquences néfastes ? Anthony Masure : Ce n’est pas parce quelque chose est possible qu’il faut à tout pris l’explorer. De la même façon, ce qui est légal n’est pas forcément moral. Se pose alors la question de savoir sur quels critères juger de qui est ou non souhaitable, et à qui cela incombe : politiques, juristes, designers, scientifiques, société civile, etc. Selon le philosophe Vilém Flusser, la question est épineuse car les technologies numériques (les « appareils ») et les biotechnologies font voler en éclat les anciennes catégories de pensée : « L’abandon des critères traditionnels implique l’abandon non seulement de la tradition occidentale, mais de tout humanisme. Et cela, nous ne sommes pas prêts à le faire, et nous avons de très bonnes raisons pour le refuser. C’est pourquoi notre faculté critique face à la culture inhumaine émergente est en crise par manque de critères 2 Vilém Flusser, « Critique, Critères, Crise » [texte inédit, 1984], reproduit dans : Multitudes, n o 74, dossier « Vilém Flusser : vivre dans les programmes », dir. Yves Citton et Anthony Masure, avril 2019, p. 216, https://www.cairn.info/revue-multitudes-2019-1-page-212.htm. ». Les conséquences néfastes d’un déploiement toujours plus important du « programme occidental » ne pourront être évitées qu’à condition de sortir de la binarité humain / nature et de déployer de nouveaux critères de lecture du monde, ce à quoi nous invite Haraway dans un texte écrit à la même époque que Flusser : « Avec les machines de la fin du XXe siècle, les distinctions entre naturel et artificiel, corps et esprit, autodéveloppement et création externe, et tant d’autres qui permettaient d’opposer les organismes aux machines, sont devenues très vagues. Nos machines sont étrangement vivantes, et nous, nous sommes épouvantablement inertes 3 Donna Haraway, op. cit.. » Conforme Magazine : Ces progrès technologiques sont-ils à même de venir en aide à nos sociétés (évolutions médicales, création de viande, alternatives énergétiques écologiques, etc.) ? Anthony Masure : Tout dépend ce que l’on entend par « nos sociétés » (ce qui sous-entend une réponse orientée vers l’occident) et par « aide » : que ou qui faut-il aider, et pourquoi ? Si l’on prend par exemple le cas de la viande « de synthèse » produite à partir de protéines végétales, même si le gain énergétique et moral semble probant, on reste tout de même dans une logique de culte symbolique de la viande et dans de la nourriture industrialisée. Il ne faudrait pas que cette étape de transition se transforme en point final : les repas végétariens ne se réduisent pas à du « sans viande », et leur intérêt est justement d’explorer d’autres saveurs. De plus, avec de tels procédés, on rejoue un vieux débat dans l’histoire de l’art et du design, à savoir l’imitation de la tradition (d’anciennes formes) par des inventions techniques. C’était par exemple le cas des débuts de la photographie, où l’enjeu était d’imiter la peinture. Or la photographie comme art n’a pu se développer qu’en s’écartant d’une telle approche. Est-ce qu’avec la viande de synthèse ou avec des énergies « alternatives » (et non pas pensées de façon autonome) on n’est pas en train de faire de même ? Jusqu’à quelle point ces progrès « béquilles » ne viennent-ils pas contrecarrer l’émergence d’un nouveau pleinement neuf et de nouvelles saveurs ? Conforme Magazine : Le progrès entre de mauvaises mains représente-t-il un danger pour notre démocratie ? Anthony Masure : Dans les sociétés dites développées, le progrès technique va souvent de pair avec l’automatisation, c’est-à-dire avec la recherche d’un rendement toujours plus efficace. Cette tendance n’est pas forcément à rejeter en bloc, car il y a des tâches qu’il vaut mieux confier à des machines. Mais, à un certain moment, cette décharge de capacités cognitives à des machines engage une perte de la notion de responsabilité : plus personne ne se sent responsable de rien, ce qui entraîne un affaiblissement du sens moral et donc de la démocratie. Mais les démocraties représentatives n’échappent pas à cet écueil : trop souvent on attend des dirigeant·e·s politiques qu’ils·elles prennent des décisions à notre place, alors que le sens moral doit précisément être partagé. Le « devenir-fonctionnaire » des êtres humains (c’est-à-dire la réduction des personnes à des entités ne pouvant que fonctionner et appliquer des ordres) nous guette : les réponses ne pourront être que collectives. Il me semble de plus en plus urgent de penser ce que pourrait être un « design de la responsabilité ». Conforme Magazine : L’intelligence artificielle : outil démocratique ou dictatorial ? Anthony Masure : Je ne pense pas que les techniques (et par extensions les technologies) doivent être pensées comme des outils, mais plutôt comme des polarités plus ou moins ouvertes et pouvant faire l’objet de bifurcations (ce qui pourrait être l’enjeu de l’art et du design). Dès lors, il faut moins penser en terme d’intelligences artificielle (IA) au singulier que d’intelligences artificielles au pluriel. En effet, l’histoire de ce champ fait apparaître des profondes controverses entre différentes méthodes, dont ne rend pas compte l’actuelle hégémonie du deep learning (« apprentissage profond »). Le deep learning ne fonctionne pas sous la forme de règles écrites à l’avance (comme dans la cas de la programmation traditionnelle), mais via élaboration du traitement de l’information par la machine, qui élabore en quelque sorte par elle-même l’écriture du programme. Il en résulte des programmes d’un nouveau type, des « boîtes noires 4 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, n o 80, « L’intelligence artificielle : enjeux éthiques et politiques », dir. Vanessa Nurock, décembre 2019, p. 31–46. » incompréhensibles par des êtres humains, ce qui renvoie à la perte de responsabilité que j’évoquais précédemment. On voit mal comment faire « bifurquer » de tels codes, de la même façon que l’on n’imaginerait pas qu’une centrale nucléaire fonctionne en autogestion, dans une logique de démocratie locale. Il faut donc moins s’inquiéter d’un usage dictatorial des IA que du fait que ce qui est singulier et désarmant avec celles du deep learning, c’est précisément qu’elles n’ont pas d’intentionnalité ! Nous devrons apprendre à composer avec des entités potentiellement autonomes, pour lesquelles les concepts de maîtrise, contrôle, liberté, etc., ne sont pas vraiment signifiants. Laurence Revol Conforme Magazine : Il y a-t-il des inégalités face au transhumanisme et au progrès technologique ? Si oui, peuvent-il être pensés comme égalitaires dans une société capitaliste ? Anthony Masure : Tout progrès technique charrie son lot de nouvelles catastrophes. Comme l’indiquait le philosophe Paul Virilio : « Airbus, en inventant un avion de 800 places, créé 800 morts potentiels » 5 Paul Virilio, « Le krach actuel représente l’accident intégral par excellence », propos recueillis par Gérard Courtois et Michel Guerrin, Le Monde, 18 octobre 2008, https://www.lemonde.fr/idees/article/2008/10/18/le-krach-actuel-represente-l-accident-integral-par-excellence_1108473_3232.html. Cela ne veut pas dire qu’il faut tous se réfugier dans le Larzac, mais plutôt d’intégrer que l’« accident intégral » est au cœur de sociétés capitalistes, dont la logique consiste à concentrer toujours plus de richesses et de pouvoir. Il s’agit donc d’œuvrer à décentrer ces points d’ancrage, de faire de la monoculture technique une « permaculture » – qui considère la coexistence de différents écosystèmes comme un préalable à une reconfiguration sociale. Dès lors, un des enjeux du design, dans une dimension critique, serait non pas de renforcer les lieux de pouvoir mais de faire place à d’autres voies et d’autres voix. Si l’on reprend le cas des intelligences artificielles, celles-ci n’ont pas pour fatalité d’être mobilisées sous l’angle de la volonté de puissance. En les considérant dans une optique élargie, au-delà du deep learning, celles-ci peuvent faire l’objet de reconfigurations esthétiques, c’est-à-dire devenir des prismes permettant de révéler et d’activer ce qui était déjà là parmi nous, comme délaissé. C’est quelque chose que nous travaillons à la HEAD – Genève 6 Jürg Lehni, Douglas Edric Stanley, « Pour un design alternatif de l’IA ? », propos recueillis par Anthony Masure, Multitudes, n o 79, dossier « Cultivons nos IA », https://www.cairn.info/revue-multitudes-2020-1.htm. Cet article fait suite à un workshop initié par Alexia Mathieu au sein du Master Media Design de la HEAD – Genève au 1er semestre 2019–2020., en hybridant différentes époques techniques des IA et en faisant dialoguer des programmes « traditionnels » et auto-apprenants. Le champ du design montre ainsi qu’il est possible de « cultiver » les IA et de les emmener dans des directions insoupçonnées. Casser les monopoles capitalistes à l’endroit des logiciels (et donc des méthodes) de création – en l’occurrence Adobe – est un préalable à toute démarche de ce type. Conforme Magazine : Dans un entretien 7 Hans Jonas, « Les machines ne pourront jamais avoir une conscience », entretien avec Norbert Lossau, Die Welt, 29 novembre 1991., le philosophe Hans Jonas affirme : « prétendre que, outre l’exécution des tâches, l’automate puisse lui-même devenir vivant, acquérir une âme et qu’il puisse désormais en vertu de sa propre volonté, nous donner du fil à retordre, n’est que pure spéculation ». Qu’en pensez-vous ? Une machine peut-elle penser ? Anthony Masure : Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Publié en 1945 par l’ingénieur Vannevar Bush, l’article propédeutique « As we may think 8 Vannevar Bush, « Comme nous pourrions penser » [« As we may think », The Atlantic Monthly, vol. 176, n o 1, juillet 1945, p. 101–108], trad. de l’anglais (États-Unis) par Anthony Masure, dans : Le design des programmes, des façons de faire du numérique, doctorat en esthétique (spécialité design) sous la direction de Pierre-Damien Huyghe, université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques et Sciences de l’Art, 2014, http://www.softphd.com/these/traduction/vannevar-bush-as-we-may-think.php. » (« Comme nous pourrions penser ») envisage que les appareils de calcul puissent augmenter les capacités intellectuelles afin d’éviter que l’humanité ne replonge dans un conflit meurtrier : l’informatique balbutiante pourrait servir à partager les connaissances, et non pas développer l’économie. Dans cette optique, la délégation d’opérations intellectuelles aux machines n’a pas vocation de remplacer mécaniquement les humains, mais pourrait permettre – à extrapoler Vannevar Bush – de les « déprogrammer » de tâches fastidieuses. En associant la notion de création aux processus de sélection et non pas au traitement répétitif d’informations, Bush s’écarte de la vision du mathématicien Alan Turing. Selon Turing, la pensée humaine, et plus précisément sa part d’intelligence, serait susceptible d’être non pas augmentée, mais « imitée » par une machine 9 Alan M. Turing, « Théorie des nombres calculables, suivie d’une application au problème de la décision » [« On Computable Numbers, with an Application to the Entscheidungsproblem », 1936], trad. de l’anglais par Julien Basch et Patrice Blanchard dans : La Machine de Turing, édition dirigée par Jean-Yves Girard, Paris, Seuil, coll. « Sciences », 1995.. On voit ici se dessiner deux angles d’approches pour les IA : imiter la pensée humaine, ou lui permettre de franchir des seuils. Si une machine donne l’illusion de penser, est-ce une preuve d’intelligence – si l’on entend sous ce mot la capacité à reformuler des situations imprévues ? Penser, est-ce seulement atteindre des objectifs et résoudre des tâches ? On comprendra que l’intérêt est moins de savoir si une machine peut penser à la façon d’un humain que de se demander en quoi ces formes de pensée machinique modifient, altèrent, augmentent son psychisme. Si les machines sont très performantes pour reproduire, elles le sont beaucoup moins pour créer. Conforme Magazine : Est-on proche d’une mort de la mort ? Anthony Masure : L’actuelle pandémie de Covid-19 rappelle avec violence à quel point les humains sont fragiles et comment, malgré toute l’habileté des technosciences à établir des prédictions, de l’imprévu finit toujours par surgir. Derrière la volonté de certains transhumanistes à surmonter la mort, je ne peux m’empêcher de penser à ce que disait Flusser, qu’une fois libéré de tout (travail, responsabilités, morale, etc.) il ne restera plus rien à l’humain sinon l’ennui, et que cet ennui sera bien plus douloureux que la mort. La perspective de la mort est précisément cette chance d’échapper à l’ennui.
Notions
Personnes citées
Objets mentionnés
Médias
Date
May 2022
Type
PublicationContexte
Article publié dans ISSUE – Journal of art & Design, revue en ligne de la HEAD – Genève.
Résumé
Le « Calculateur carbone campus », développé depuis novembre 2021 par la HEAD – Genève en partenariat avec la HEG, a pour objectif de sensibiliser le personnel des hautes écoles aux émissions de CO2 de leurs différentes activités (pédagogie, évènements culturels, projets de recherche, mobilité, chauffage des bâtiments, etc.). Actuellement, les outils de ce type sont d’une ergonomie complexe, peu adaptés aux besoins des HES, et sont la plupart du temps propriétaires et onéreux. De façon plus fondamentale, ces logiciels sont conçus pour mesurer a posteriori les émissions de carbone produites par des entreprises ou institutions (dans le cadre de bilans annuels, etc.), ce qui a pour effet d’éloigner le calcul des nuisances de leurs origines. Si l’on définit la notion de responsabilité, en termes juridiques, comme l’« obligation faite à une personne de répondre de ses actes du fait du rôle, des charges qu’elle doit assumer et d’en supporter toutes les conséquences », alors il faut que les personnes concernées puissent être en mesure de comprendre les implications de ce qu’elles font pour que l’imputation des actions puisse avoir du sens – et d’aller ainsi à contre-courant de la tendance à la dilution de la responsabilité. Les captures d’écran reproduites ci-dessous présentent un cas pratique de calcul. L’outil est présenté dans un état de développement intermédiaire, et pourra encore évoluer d’ici à la fin du projet (été 2022). Cas pratique : calcul du CO2 émis par une conférence Talking Heads Le 13 janvier 2022, la HEAD recevait la designer matali crasset dans le cadre de son cycle de conférences Talking Heads. Parmi les différents postes d’émission de CO2, la catégorie achats représentée ci-dessus réunit tout le matériel qui a été employé pour l’évènement comme par exemple, un rétroprojecteur, deux caméras, des micros et d’autres appareils de la régie, de même que les dépenses de communication (affiches, communication digitale). Les chiffres obtenus pour les équipements sont une portion temporelle de l’empreinte globale de chaque appareil en partant de l’idée qu’ils seront employés en moyenne pendant environ cinq ans à l’école. L’impact carbone des appareils dont l’empreinte carbone n’est pas directement quantifiable est dérivé de leur prix d’achat (ratio monétaire). Aux achats s’ajoutent les émissions liées à la maintenance de la salle du Cube pendant la période donnée (chauffage, éclairage, nettoyage), les déplacements de matali crasset, d’Alexandra Midal (TGV Paris-Genève) ainsi que des 60 membres du public (un forfait qui mêle transport public et privé, distance courte et longue). La catégorie fret qui comprend les émissions liées aux transport de marchandises n’est pas concernée. Aucun déchet lié à l’évènement n’a été produit. Dans chaque rubrique, le calculateur propose à l’usager un menu déroulant avec une base de données de matériaux, d’appareils ou de type de transport à rapporter à leur durée d’utilisation, leur poids, leur prix, ou d’autres données permettant de calculer les émissions. Société carbone Le choix du carbone comme une unité de calcul s’explique par son côté facilement transposable. Quand on fait une activité, on peut savoir combien de carbone est produit. Par exemple, 1 kwh électrique produit avec du charbon équivaut à 1 kg. de CO2, alors que 1 kwh produit par l’hydraulique totalise 4 grammes de CO2. Grâce à l’évaluation carbone, il est possible de comparer des activités, des produits, des événements a priori très divers. Le carbone est une molécule trouvée naturellement dans l’atmosphère. Une grande partie a été stockée dans de la biomasse vivante (arbres, végétation) ou morte / fossilisée (pétrole, charbon, entre autres). Par son activité, l’être humain fait sortir ce carbone stocké dans l’atmosphère à un niveau trop haut pour la capacité de résorption du système terre. Dès lors, on a défini une certaine quantité maximale que chaque être humain devrait produire par année (600 kg. /année) en fonction de ce que le système Terre est capable de renouveler. Toutefois, un Européen moyen produit 4500 kg. par année de par ses activités (calcul incluant les infrastructures existantes pour la société telles que les routes, les bâtiments publics, etc.). Certain cas sont complexe. Par exemple, le bois en croissance emmagasine du carbone. En revanche, sa coupe, son transport, son usinage et son utilisation vont en produire. Le bilan global calculé peut s’avérer neutre ou positif. L’intérêt d’identifier ses émissions de CO2 ne concernant pas que les grandes entreprises ou les industries polluantes, chacun·e à son échelle doit être capable de pouvoir estimer son empreinte carbone dans sa vie privée et professionnelle. Pour faire face à ces enjeux, l’outil développé par la HEAD et la HEG a pour objectif de permettre au personnel des HES, quel que soit leur fonction dans l’institution, d’une part d’estimer a priori – et de façon collaborative et didactique – les émissions de CO2 de la façon la plus didactique possible, et d’autre part de mesurer a posteriori ce qui a été produit. Le calculateur campus, en cours de développement à la HEAD, considérera ainsi les 5 aspects transversaux communs aux hautes écoles : les infrastructures (bâtiment), les achats, la mobilité, le fret et les déchets. Cette catégorisation facilitera la mise en place d’un état des lieux, de mesures d’accompagnement, et de réduction d’émission de CO2. Plus précisément, l’outil sera utilisable pour plusieurs niveaux de calcul : bilan carbone annuel du campus, empreinte carbone d’un projet (ex. : projet de recherche), ou encore émissions liées à une seule thématique (ex. : mobilité). À terme, l’outil permettra d’analyser et de comparer les activités des diverses HES de Suisse romande voire d’autres institutions partenaires. La HEG apporte son expertise au projet par la fourniture des catégories et des données : chaque facteur d’émission est relié à une source d’information afin que les formules de calcul puissent être vérifiées voire actualisées. La HEAD, quant à elle, apporte des compétences d’ergonomie, d’interface et de programmation, permettant le développement d’un logiciel agréable d’usage et économe en énergie (utilisation du CMS « statique » Kirby). Dans une optique d’ouverture et de transparence, le code source du calculateur sera placé sous licence libre dans un dépôt GitHub. En terme de design, pour être plus précis, l’enjeu consiste faciliter la saisie et à rendre intelligibles au plus grand nombre des informations abstraites afin de mesurer les conséquences des choix effectués. Graphiquement, l’outil de saisie en ligne comprend ainsi une série de pictogrammes spécifiques et d’infographies visant à faciliter la compréhension des émissions de CO2 – ce qui tranche avec l’ergonomie souvent trop complexe des calculateurs actuellement disponibles. — Crédits du projet Requérants et coordinateurs Anthony Masure (responsable de la recherche à la HEAD – Genève, HES-SO) Yves Corminboeuf (délégué au développement durable à la HEAD – Genève, HES-SO) Laurent Cornaglia (chargé de cours à la HEG, HES-SO) Développement graphique et technique Vincent de Vevey (vacataire en communication visuelle, HEAD – Genève) Nicolas Baldran (assistant pédagogique en Master Media Design, HEAD – Genève) Financement : HEAD – Genève, HEG, HES-SO Genève.
Notions
Personnes citées
Objets mentionnés
Date
January 2024
Type
PublicationContexte
Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.
Résumé
À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.
Notions
Personnes citées
Objets mentionnés
Date
November 2017
Type
PublicationContexte
Anthony Masure et Saul Pandelakis, « Machines désirantes : des sexbots aux OS amoureux », ReS Futurae, revue d’études sur la science-fiction, no 10, « Imaginaire informatique et science-fiction », novembre 2017
Résumé
Nous proposons de rendre compte de l’émergence du désir au cœur de la relation entre un être humain et une machine, tel qu’il est représenté dans les fictions audiovisuelles. Si, dans nos expériences quotidiennes, ce désir s’exprime le plus souvent sur le mode de la frustration, il semble que le cinéma de science-fiction projette d’autres devenirs du désir comme possible horizon de la technologie, notamment au travers du trope du sexbot. Dans la réalité des objets désignés, le sexbot reste encore un jouet passif proche du sextoy. Une figure plus trouble émerge dans les fictions audiovisuelles lorsque que la machine (selon les cas : le robot, l’ordinateur ou l’intelligence artificielle) peut faire de ce désir un sentiment réciproque et devenir alors une « machine désirante ». Des femmes télécommandées de Stepford Wives à l’intelligence sans corps de Her, nous tâcherons de qualifier ces imaginaires de l’informatique sexués et sexuels, et le devenir de ceux-ci dans les processus de conception propres au design.
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2019
Type
PublicationContexte
Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence ».
Résumé
Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes : 1 – Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques ; 2 – La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données ; 3 – La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.
Notions
Personnes citées
Objets mentionnés
Date
December 2022
Type
PublicationContexte
Texte pour un ouvrage d’hommage à Lysianne Léchot Hirt, Genève, MétisPresses.
Résumé
On doit à Lysianne Léchot Hirt d’avoir initié l’analyse des caractéristiques de la « recherche-création » en design dans le paysage franco-suisse à une époque, dès 2007, où celle-ci ne faisait guère l’objet de débats et de tentatives de modélisation qu’au Canada ou au Royaume-Uni. Financée sur 18 mois par le fonds stratégique (RCDAV) de la HES-SO, cette étude, intitulée « CreaSearch 1 Équipe de recherche HEAD – Genève et Ecal (Lausanne) : Magdalena Gerber, Lysianne Léchot Hirt, Florence Marguerat, Manon Mello, Laurent Soldini. », avait pour objectif « l’élaboration de méthodologies et de modèles pour une activité de recherche basée sur les processus de création en design et en art ». Réunies dans un un ouvrage-bilan publié en 2010 2 Lysianne Léchot Hirt (dir.), Recherche-création en design. Modèles pour une pratique expérimentale, Genève, MétisPresses, 2010. et reprenant dans son sous-titre l’idée des « sciences expérimentales » (où les résultats découlent d’une série d’expérimentations explicitée en amont et en aval), les conclusions de ce projet permettent d’éclairer un certain nombre de questions toujours pertinentes à plus de dix ans d’écart. S’attachant à partir de pratiques notamment développées dans les écoles d’art et de design en Suisse (HES) suite aux Accords de Bologne (1999) 3 Acté par le processus de Bologne en 1999, le lissage des cursus académiques à l’échelle européenne (LMD pour Licence, Master, Doctorat) a eu pour effet leur mise en concurrence à l’échelle internationale., Lysianne Léchot Hirt démontre que la recherche-création ne saurait se réduire au romantisme d’une création sans méthode, mais qu’il est possible, et souhaitable, d’en tracer une modélisation non normative pour exercer un jugement critique sur les projets se réclamant de cette appellation.
Notions
Personnes citées
Objets mentionnés
Date
March 2013
Type
ConférenceContexte
Propos recueillis par Clio Meyer pour l’application-audioguide Sonosphères de la Biennale de Design de Saint-Étienne 2013. Exposition « Traits-d’union », commissariat Elium Studio.
Résumé
Qui façonne qui ? Espace infini Freebox Revolution, par Philippe Starck Lytro, appareil photo à technologie plénoptique Bracelet Jawbone, par Yves Béhar Nike ID
Date
February 2020
Type
ConférenceContexte
Communication au colloque « Vues & Données. De la prise de vue à l’épreuve de la donnée comme histoire matérielle de l’image ». Organisé par l’École nationale supérieure de la photographie. Cette conférence prend la forme d’une performance construite à partir d’une story Instagram « à la une » (story highlight) : les propos ont donc été construits à partir de l’agencement chronologique des images sélectionnées.
Résumé
La démultiplication et la collecte des « données » numériques à grande échelle, sur lesquelles les citoyens n’ont que peu de « prise », prolonge, dans le champ psychique, la vieille utopie de mesurer chaque entité matérielle du monde. L’invisibilisation (la soustraction à la vue) des opérations de calcul et de traduction propre à l’informatique masque les idéologies (politiques, etc.) qui les sous-tendent : comment faire pour que le code informatique n’ait pas pour seule visée le management des êtres humains ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
February 2026
Type
PublicationContexte
Text written for the Bourses déliées 2026. Hanieh Rashid is the 2025 recipient of the Cantonal Fund for Contemporary Art grants for HEAD–Geneva graduates. Co-published by FCAC & HEAD–Geneva. English translation: Yves-Alexandre Jaquier. Graphic design: Onlab.
Résumé
With her project Grandma Eternal, Hanieh Rashid takes due note of the choices and renunciations implied in the preservation of memories. Grandma Eternal creates a special time to experience a relationship that’s been translated, subtitled, negotiated — with a focus more on the connection than the illusion.
Notions
Personnes citées
Objets mentionnés
Date
September 2016
Type
ConférenceContexte
Entretien avec Rémy Sénégas pour le site Web LePetitBanc.fr, qui réalise des entretiens filmés avec des chercheurs issus de displines variées
Résumé
Face aux défis du monde contemporain le petit banc propose d’engager et de partager des conversations autour des questions sociales et économiques. Nous souhaitons, en proposant et en construisant cet espace de conversation, travailler à l’émergence de pensées propres à notre temps pour se prémunir de toutes facilités accommodantes et conservatrices. Pour cela nous nous efforcerons d’initier des échanges transversaux et pluridisciplinaires car nous cherchons à croiser et à compléter différents points de vue. Nous pourrions dire aussi que nous croyons d’abord en ce que porte chacun d’entre nous et donc que nous recherchons avant tout des rencontres, des Hommes pour réfléchir les enjeux de notre époque dans un mouvement de pensée plus « collégial ». Partie 1 : à propos de la thèse Le design des programmes Partie 2 : revue Back Office
Notions
Personnes citées
Objets mentionnés