Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Au crépuscule des outils

Date

septembre 2022

Type

Conférence

Contexte

Intervention à la journée d’étude « Post–convivialité — Espaces en commun et enjeux du design », Paris, CondéDesignLab.

Résumé

À rebours des « outils conviviaux » défendus par Illich et de la volonté adjacente de retrouver du « contrôle » et de mettre les objets à notre « service », nous proposons de soutenir la notion d’« appareil » pour inviter à penser positivement une telle situation. Autrement dit : il s’agit moins de reprendre la main que « d’appareiller » des situations techniques – moins de penser des « outils conviviaux » que de pluraliser le monde des choses.

Adrien Gonauer
Epreuves de la tradition. Le numérique comme outil de narration dans les contes

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Légende, fable, fiction, récit d’événements imaginaires, le conte remplit un double objectif : plaire et éduquer. Les approches analytiques ont souligné son caractère d’universalité, et mis en lumière son rôle pédagogique. Générateur d’espace transitionnel, il permet à l’enfant d’initier son apprentissage de la société et des règles qui la régissent. Avec l’avènement du numérique et l’apparition des interfaces graphiques, un nouvel avenir se propose aux contes. Comment modeler la « matière numérique » afin qu’elle serve la narration ? Comment conserver la fonction de tremplin vers l’imaginaire ? Pour que le passage de l’écrit au numérique puisse s’effectuer au bénéfice du conte, il est nécessaire d’être conscient des enjeux graphiques mais aussi éthiques qui en découlent.

Antoine Cadoret
Usage et autonomie. Le smartphone comme outil de mobilité

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Ce mémoire a pour volonté de démontrer que l’usage du numérique grand public a changé avec les terminaux mobiles connectés : nouveau rapport à la communication (disponibilité), façon de penser (accès instantané à l’information). Mais aussi qu’ils ont apporté de nouveaux codes d’utilisation (gestes, ergonomie), spécificités graphiques (format, utilisation du doigt). Dans un second temps il sera abordé la notion d’accessibilité numérique. L’accessibilité est connu de tous mais elle est encore peu mise en pratique en France. « On ne peut pas concevoir un objet qui desservirait », il est en effet difficile d’admettre qu’une équipe de conception ferait exprès d’entraver l’utilisation de leur appareil aux utilisateurs handicapés. Ce n’est pas une volonté de rendre inaccessible un smartphone mais plutôt un manque d’implication concernant leurs usagers. C’est pourquoi, de plus en plus, les entreprises doivent rendre leurs contenus accessibles. Mais pour qu’elles le fassent un effet d’inertie doit être lancé. Et ce doit être aux institutions de montrer l’exemple.

Médias

IA et pédagogie : un état de l’art

Date

avril 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

Dérive décodée sur le logiciel

Date

octobre 2019

Type

Publication

Contexte

Entretien avec Joanne Pouzenc, Plan Libre, hors-série

Résumé

À quoi ressemblent les pratiques contemporaines en architecture aujourd’hui ? À quoi ressembleront-elles demain ? Depuis le début des années 1980, la démocratisation de l’informatique et l’accélération des progrès technologiques transforment la profession à vitesse grand V. Si la conception est laissée à la machine devenue intelligente, que reste-il à l’architecte ?

Recherche et culture libre : approche critique de la science à un million de dollars

Date

décembre 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

Visual Culture. Open Source Publishing, Git et le design graphique

Date

novembre 2014

Type

Publication

Contexte

Anthony Masure, «Visual Culture. Open Source Publishing, Git et le design graphique», Strabic.fr, novembre 2014

Résumé

Le collectif Open Source Publishing (OSP) propose aux designers graphiques de s’inspirer des méthodes de programmation informatique en vigueur depuis de nombreuses années, notamment dans le logiciel libre. Placé en financement collaboratif (crowdfunding) en novembre 2014 sur la plateforme Kiss Kiss Bank Bank, leur projet « Visual culture, un outil pour le design collaboratif (avec Git) » nous donne ainsi une parfaite occasion d’envisager des façons de faire du graphisme qui ne soient pas marquées par les logiques dominantes type Adobe.

De l’influence des interfaces

Date

octobre 2019

Type

Publication

Contexte

Entretien avec Clément Thomas, Thomas Riollet et Arthur Doublet Susini (étudiants de l’école Camondo), édité par Paul Emilieu et Marin Schaffner

Résumé

Avec l’essor du numérique, nos apprentissages comme nos communications sont de plus en plus médiés par des interfaces, des programmes et des machines. Si cela ouvre de nouvelles possibilités, notamment pour l’acquisition et l’échange des savoirs, nous questionnons encore trop peu les contraintes invisibles qui en découlent. Sommes-nous conditionné·e·s par nos interfaces ? Quelle liberté d’usage en avons-nous ? Et comment cela modifie-t-il notre rapport au monde ? Dans cet entretien, Anthony Masure invite à penser les implications socio-politiques et pédagogiques de l’utilisation généralisée d’objets techniques.

Le numérique dans le design et ses enseignements

Date

mai 2012

Type

Publication

Contexte

Anthony Masure, « Le numérique dans le design et ses enseignements », texte d’intention rédigé pour la séance « Design et Art », séminaire « Éducation et TIC », laboratoire STEF, ENS Cachan, 10 mai 2012

Résumé

En tant qu’il tient à l’art autant qu’à l’industrie, le design ne cesse de questionner les limites des avancées techniques et technologiques. Comment le design et ses enseignements peuvent-ils prendre en compte la conception de logiciels pour dépasser la simple formation à des outils dont des nouveaux apparaissent chaque jour ? Comment repenser les objets et les environnements dans une époque travaillée par des initiatives multiples visant à ouvrir des systèmes brevetés ou inaccessibles ? Comment penser un enseignement au fait de cette richesse et de ces défis ?

Adobe : le créatif au pouvoir

Date

juin 2011

Type

Publication

Contexte

Anthony Masure, « Adobe : le créatif au pouvoir », Strabic.fr, « L’usager au pouvoir », juin 2011

Résumé

« À l’issue de sa présentation, Jean a été félicité par ses collègues. Ils ont même applaudi  ! » — Publicité sur Adobe.com, consultée le 7 avril 2011. Jean utilise les «  solutions  » Adobe pour concevoir des présentations où il associe textes et images. Depuis qu’il se sert de ces outils, cela n’a jamais été aussi simple. La pieuvre Adobe Systems (qui a avalé en 2005 son concurrent Macromedia) déploie à intervalles réguliers ses suites créatives qui font d’un simple employé du secteur tertiaire un créatif en puissance. Lev Manovich, dans Le Langage des Nouveaux Médias 1 Lev Manovich, Le langage des nouveaux médias [2001], trad. de l’anglais par Richard Crevier, Dijon, Les Presses du Réel, 2010., analyse le mode d’existence contemporain des logiciels sous l’angle d’une «  logique de la sélection  ». Il constate que notre approche des outils de création (et des softwares en général) se fait essentiellement par la «  sélection  » d’actions à partir de menus prédéfinis. Adobe a précisément bâti son empire sur cette idée, en ajoutant à chaque itération de ses logiciels des lignes supplémentaires dans les menus. La richesse supposée du programme tient à l’accumulation de choix à sélectionner  : toujours plus de lignes et de curseurs déplaçables. Les publicités ciblant les habitués de la marque sont orientées dans ce sens, elles ne font la plupart du temps que lister les nouveaux ajouts de menus. La création serait donc fonction d’une suite de choix à régler dans des listes prédéfinies. Ces présaisies ont pour but d’organiser et de simplifier le cheminement de l’utilisateur, dans un souci d’efficacité. La création est vue ici comme un processus sans effort et sans résistance. Adobe entend proposer des «  outils familiers  » pour les créatifs, destinés à exprimer sans heurts les «  idées les plus folles  ». Le logiciel de création est conçu pour servir de façon satisfaisante le créatif, que l’on pourrait alors considérer comme un usager, c’est-à-dire quelqu’un qui se sert de quelque chose en vue d’obtenir un résultat déterminé. Il attend que son objet puisse réponde de façon précise à ses attentes 2 Pierre-Damien Huyghe, «  Définir l’utile  », conférence donnée à l’IFM le 6 avril 2011.. Le logiciel lui en donnerait le pouvoir, c’est-à-dire la condition matérielle d’accomplir une action. Les programmes d’Adobe rendent service quand ils ne s’écartent pas de ce qui était prévu. Ils organisent une «  mise à disposition  » de la créativité (Pierre-Damien Huyghe). Ils indiquent une disponibilité servile qui font de ces objets nos serviteurs impassibles. L’ordinateur ne se plaint jamais et ne peut pas ne pas servir, sauf dans le cas du bug. Il enclot notre réflexion dans des choix donnés. La dimension de souffrance du travail est évacuée, au profit d’une fluidité «  sans écrire de code  » (Adobe). Aucune résistance, aucun imprévu ne doit interrompre le flow des créatifs. Pendant naturel des fonctions automatisées, les sources d’inspirations sont aussi organisées en sélections. Ces aides à la création sont facilement disponibles via des sites accumulatifs (Smashing Magazine, Daily Dose of Inspiration, Designer Daily, etc.) Ceux-ci fonctionnent par billets thématiques et rassemblent sur le mode du catalogage une collection de liens sur un même sujet, sans chercher à l’épuiser ou à le problématiser. Les bases (ou images-source) sont indexées de plus en plus finement pour faciliter la recherche via des moteurs généralistes. S’opère ici une économie de la radicalité ou de l’imprévu par la recherche d’un consensus sur un même mot-clé (keyword). Il s’agit de donner l’idée au grand public que la création est quelque chose de facile, par la navigation sans effort parmi des galeries d’images lissées. Dans ce pouvoir nouveau donné aux créatifs se dessine en creux une démocratisation voulue et provoquée par les décideurs. Si le prix du logiciel reste prohibitif pour le grand public, Adobe segmente sa gamme en produits moins chers dit «  essentials  », tout en laissant faire (voire en favorisant  ?) le piratage des versions professionnelles pour habituer à s’en servir ceux qui de toute façon ne les auraient jamais achetées. Il en va souvent de même dans les écoles d’art et de design, où aucune alternative n’est envisagée. Cette hégémonie finement contrôlée déplace le pouvoir de l’usager vers l’entreprise de services, qui dicte tous les ans un rythme de renouvellement de son système. Suite à l’émergence de professions identifiées comme le chef de projet, des programmes dédiés (Adobe Version Cue) se chargent désormais d’organiser le savoir-faire organisationnel. Il devient lui-aussi affaire de systèmes parfaitement réglés. Automatisation des fonctions, travail organisé en «  chaîne de production  » (Adobe), capitalisation de «  l’imagination au pouvoir  » de quelques grands groupes… autant de notions qui articulent l’idée d’une production sans accrocs et sans fin, c’est-à-dire une production industrielle. L’organisation croissante au tournant du siècle des systèmes de fabrication a pour but d’achever l’idée d’une réalisation qui irait droit du concept à l’objet. Cette absence de divergence est encouragée et guidée par des méthodes qui deviennent systèmes  : taylorisme, fordisme… Ils visent à donner place à chaque outil, étape, personnel de production. Dans cette prise de pouvoir concentrée autour de la production sans accident, le prolétaire perd l’usage de ses savoir-faire, dont il est dépossédé. L’ouvrier devient usager de son outil de production, parfaitement conçu pour effectuer une action précise. Les gestes et temps de travail ne doivent pas diverger de l’organisation mécanisée des structures productives. Dès 1844, dans les Manuscrits Économiques 3 Karl Marx, Manuscrits de 1844, Paris, Garnier Flammarion, 1999 puis dans le chapitre 14 du Capital, Marx pose la question de l’aliénation et de la soumission à la machine. S’il n’insiste pas spécifiquement sur le terme de pouvoir, il nous alerte sur l’ordre nécessairement autoritaire de l’industrie pour contenir les risques d’indiscipline des ouvriers. Le prolétaire est une machine dans son travail, et aucun accomplissement social n’y est possible. Son salaire doit juste lui permettre de subsister dans sa condition ouvrière. Le pouvoir de la manufacture soumet l’ouvrier à un ordre dont il ne peut pas se détourner ou diverger. Si les «  créatifs  » sont généralement mieux lotis financièrement, une analyse marxiste plus poussée pourrait nous permettre d’envisager des recoupements entre le prolétaire ouvrier et l’assistant de création. Il faudrait alors déplacer les notions d’aliénation et de subsistance vers celles de dépendance et de pensée dans un système prédéfini et difficile à déplacer. S’il serait abusif de faire des logiciels Adobe des outils purement limitatifs, rien n’indique en eux une volonté d’ouverture vers l’imprévu. Concurrence inexistante et faiblesse des solutions libres (The Gimp) contribuent à ce monopole problématique, qui fait encourir un danger de formatage des productions (même constat avec l’éditeur 3D Autodesk, avec l’éloignement de la matière en sus). En faisant l’économie de modèles divergents, Adobe organise les modes de travail en réduisant les possibilités à des dispositifs constitués dans des choix de «  sélections  » (Lev Manovich). Le passage du réglage à la sélection (il faudrait développer ce point) est celui de l’ouverture des possibles vers un mode de réflexion borné, automatisé comme les modes scènes des appareils numériques contemporains. Il nous enjoint à appliquer des méthodes créatives réalisables sans effort grâce à des outils dédiés (automatisations, filtres), utilisables servilement via des sélections organisées discrètement. En faisant du designer un créatif se servant sans effort d’une suite d’outils, Adobe rabat la dimension d’usage sur l’activité artistique. L’iconographie marketing de ses publicités montre des designers et décideurs envisagés sous l’angle de la rentabilité et de l’efficacité. La pensée doit tracer sa route sans écart pour répondre efficacement aux sollicitations de l’économie de la créativité. Mais qu’économisons-nous quand nous raisonnons ainsi  ? Est-il pertinent d’envisager l’activité de création comme une économie d’efforts et de modalités  ? Il est d’autres voies possibles, qui feraient place au hasard, à la divergence, aux imprévus, et c’est même ce que nous pourrions nommer «  design  ». Les objets serviles nous desservent de nos pratiques. Là où Adobe pense en termes de solutions, le designer créé de la divergence dans des systèmes techniques ou réflexifs. C’est paradoxalement en ouvrant et en se jouant de la résistance de l’idée à la forme que le designer peut construire son autonomie. C’est dans cette nécessaire liberté qu’un pouvoir pourrait s’exercer. L’outil numérique serait à envisager comme un champ de possibles qui ne serait pas autoritaire et normé (deux notions habituellement liées au pouvoir). Le dispositif, dont Giorgio Agamben 4 Giorgio Agamben, Qu’est-ce qu’un dispositif  ?, Paris, Rivages Poches, 2007. (via Foucault) montre «  qu’il s’inscrit toujours dans une relation de pouvoir  » manifeste sa volonté de clôture dans une utilisation dictée (voire ordonnée) par des modes d’emploi et habitudes culturelles. L’idée d’un «  usage correct  » du dispositif est caduque car il n’existe pas de bon usage, ou plutôt que faire usage d’un objet n’a à voir qu’avec des conduites qui n’en n’épuisent pas les possibles (Pierre-Damien Huyghe). Il s’agirait donc de faire varier les attendus serviles des objets, qui s’épuisent dans leur fonction. Ce jeu (liberté de mouvement) serait alors une zone de pouvoir possible, qui ne serait plus orientée en vue d’obtenir un effet déterminé. L’open source (code source libre), sans en faire une lecture naïve de remède anti-autoritaire, serait du côté d’un pouvoir rendu en amont et en aval à l’usager. La conception nécessairement ouverte et partagée du programme implique un pouvoir non concentré, qui met de fait «  au pouvoir  » les membres de la communauté. Ce pouvoir partagé ne serait pas celui d’une volonté de contrôle mais plutôt un pouvoir décentralisé et diffus. Il existe des degrés d’implication divers dans la conception du programme, qui ne sont pas ceux d’un projet normé et balisé. Même si des roadmaps (feuilles de route) sont nécessaires, des retards et fonctions de dernière minute peuvent apparaître, de même que des forks (fourches) qui sont une bifurcation du programme, redéveloppée par une partie de la communauté des développeurs. Il y a ici une forme de valorisation qui ne passe pas par des logiques de profit, une économie de la connaissance qui fait de l’usager un contributeur (Bernard Stiegler). Alors que les logiciels utilitaires épuisent l’attention dans une simple tâche à effectuer, il y a dans les codes sources ouverts l’idée d’une amélioration possible depuis la base. N’importe qui peut faire remonter des idées ou améliorations (il faudrait détailler ces différents degrés possibles d’interventions). Le programme est aisément reconfigurable pour répondre à des localisations (terme qui désigne à la base la traduction) ou contextes précis, qui ne sont pas forcément ceux qui sont le plus économiquement viables. Le pouvoir de changer librement éloigne ce type de programme des notions de système (pas de ligne figée, ni de concepts inamovibles) et de dispositif (pas d’idée de manipulation ou de rapport de force). Ce passage du logiciel-outil à un champ de possible, cela serait l’appareil. Un appareil s’envisage par sa capacité à ouvrir une disponibilité à partir de «  réglages  » (Pierre-Damien Huyghe 5 Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, coll. Esthétiques, 2005.). Appareiller un dispositif serait donc œuvrer à sa mise en jeu, ce qui dépasse la logique de fonctions sélectionnables pour réactiver une liberté permettant de nous subjectiver. Reste à envisager ce modèle en action, répondre à ces questions en designer. Le «  créatif  » devra pour un temps encore se satisfaire d’utilitaires. Des productions intéressantes peuvent bien sûr émerger, à condition de prendre ses distances avec le conditionnement technique et marketing. Question d’attitude et de regard, qui passe aussi par un véritable enseignement de ces domaines afin de dépasser les usages pour en faire des pratiques. « À l’issue de sa contribution, Jean a été félicité par ses collègues. Ils ont même amélioré son code source  ! »

La saisie comme interface

Date

novembre 2016

Type

Publication

Contexte

Anthony Masure, « La saisie comme interface », dans : Sophie Fétro, Anne Ritz-Guilbert (dir.), actes du colloque scientifique « Collecta. Des pratiques antiquaires aux humanités numériques », École du Louvre, 2016

Résumé

Une vision limitée du design des sites Web, et des programmes numériques en général, consiste à ne s’intéresser qu’à ce qui apparaît à l’écran. Pour aller plus loin, cette contribution vise ainsi à démontrer l’importance, pour les designers, de porter attention à la structuration et à l’agencement des codes source informatiques. Dans le domaine des archives en ligne où les interfaces de saisie sont rarement étudiées en tant que telles, ces enjeux interrogent le rôle et de la place du design. Que demande-t-on à ce dernier dans le contexte des «humanités numériques» ? Comment le design, en envisageant la saisie comme une interface, peut-il contribuer à dépasser une vision instrumentale de la technique ?

Combien une Haute école émet-elle de CO2 ? L’exemple d’une conférence du cycle Talking Heads

Date

mai 2022

Type

Publication

Contexte

Article publié dans ISSUE – Journal of art & Design, revue en ligne de la HEAD – Genève.

Résumé

Le «  Calculateur carbone campus  », développé depuis novembre 2021 par la HEAD – Genève en partenariat avec la HEG, a pour objectif de sensibiliser le personnel des hautes écoles aux émissions de CO2 de leurs différentes activités (pédagogie, évènements culturels, projets de recherche, mobilité, chauffage des bâtiments, etc.). Actuellement, les outils de ce type sont d’une ergonomie complexe, peu adaptés aux besoins des HES, et sont la plupart du temps propriétaires et onéreux. De façon plus fondamentale, ces logiciels sont conçus pour mesurer a posteriori les émissions de carbone produites par des entreprises ou institutions (dans le cadre de bilans annuels, etc.), ce qui a pour effet d’éloigner le calcul des nuisances de leurs origines. Si l’on définit la notion de responsabilité, en termes juridiques, comme l’« obligation faite à une personne de répondre de ses actes du fait du rôle, des charges qu’elle doit assumer et d’en supporter toutes les conséquences  », alors il faut que les personnes concernées puissent être en mesure de comprendre les implications de ce qu’elles font pour que l’imputation des actions puisse avoir du sens – et d’aller ainsi à contre-courant de la tendance à la dilution de la responsabilité. Les captures d’écran reproduites ci-dessous présentent un cas pratique de calcul. L’outil est présenté dans un état de développement intermédiaire, et pourra encore évoluer d’ici à la fin du projet (été 2022). Cas pratique  : calcul du CO2 émis par une conférence Talking Heads Le 13 janvier 2022, la HEAD recevait la designer matali crasset dans le cadre de son cycle de conférences Talking Heads. Parmi les différents postes d’émission de CO2, la catégorie achats représentée ci-dessus réunit tout le matériel qui a été employé pour l’évènement comme par exemple, un rétroprojecteur, deux caméras, des micros et d’autres appareils de la régie, de même que les dépenses de communication (affiches, communication digitale). Les chiffres obtenus pour les équipements sont une portion temporelle de l’empreinte globale de chaque appareil en partant de l’idée qu’ils seront employés en moyenne pendant environ cinq ans à l’école. L’impact carbone des appareils dont l’empreinte carbone n’est pas directement quantifiable est dérivé de leur prix d’achat (ratio monétaire). Aux achats s’ajoutent les émissions liées à la maintenance de la salle du Cube pendant la période donnée (chauffage, éclairage, nettoyage), les déplacements de matali crasset, d’Alexandra Midal (TGV Paris-Genève) ainsi que des 60 membres du public (un forfait qui mêle transport public et privé, distance courte et longue). La catégorie fret qui comprend les émissions liées aux transport de marchandises n’est pas concernée. Aucun déchet lié à l’évènement n’a été produit. Dans chaque rubrique, le calculateur propose à l’usager un menu déroulant avec une base de données de matériaux, d’appareils ou de type de transport à rapporter à leur durée d’utilisation, leur poids, leur prix, ou d’autres données permettant de calculer les émissions. Société carbone Le choix du carbone comme une unité de calcul s’explique par son côté facilement transposable. Quand on fait une activité, on peut savoir combien de carbone est produit. Par exemple, 1 kwh électrique produit avec du charbon équivaut à 1   kg. de CO2, alors que 1 kwh produit par l’hydraulique totalise 4 grammes de CO2. Grâce à l’évaluation carbone, il est possible de comparer des activités, des produits, des événements a priori très divers. Le carbone est une molécule trouvée naturellement dans l’atmosphère. Une grande partie a été stockée dans de la biomasse vivante (arbres, végétation) ou morte / fossilisée (pétrole, charbon, entre autres). Par son activité, l’être humain fait sortir ce carbone stocké dans l’atmosphère à un niveau trop haut pour la capacité de résorption du système terre. Dès lors, on a défini une certaine quantité maximale que chaque être humain devrait produire par année (600   kg. /année) en fonction de ce que le système Terre est capable de renouveler. Toutefois, un Européen moyen produit 4500   kg. par année de par ses activités (calcul incluant les infrastructures existantes pour la société telles que les routes, les bâtiments publics, etc.). Certain cas sont complexe. Par exemple, le bois en croissance emmagasine du carbone. En revanche, sa coupe, son transport, son usinage et son utilisation vont en produire. Le bilan global calculé peut s’avérer neutre ou positif. L’intérêt d’identifier ses émissions de CO2 ne concernant pas que les grandes entreprises ou les industries polluantes, chacun·e à son échelle doit être capable de pouvoir estimer son empreinte carbone dans sa vie privée et professionnelle. Pour faire face à ces enjeux, l’outil développé par la HEAD et la HEG a pour objectif de permettre au personnel des HES, quel que soit leur fonction dans l’institution, d’une part d’estimer a priori – et de façon collaborative et didactique – les émissions de CO2 de la façon la plus didactique possible, et d’autre part de mesurer a posteriori ce qui a été produit. Le calculateur campus, en cours de développement à la HEAD, considérera ainsi les 5 aspects transversaux communs aux hautes écoles  : les infrastructures (bâtiment), les achats, la mobilité, le fret et les déchets. Cette catégorisation facilitera la mise en place d’un état des lieux, de mesures d’accompagnement, et de réduction d’émission de CO2. Plus précisément, l’outil sera utilisable pour plusieurs niveaux de calcul  : bilan carbone annuel du campus, empreinte carbone d’un projet (ex. : projet de recherche), ou encore émissions liées à une seule thématique (ex. : mobilité). À terme, l’outil permettra d’analyser et de comparer les activités des diverses HES de Suisse romande voire d’autres institutions partenaires. La HEG apporte son expertise au projet par la fourniture des catégories et des données  : chaque facteur d’émission est relié à une source d’information afin que les formules de calcul puissent être vérifiées voire actualisées. La HEAD, quant à elle, apporte des compétences d’ergonomie, d’interface et de programmation, permettant le développement d’un logiciel agréable d’usage et économe en énergie (utilisation du CMS «  statique  » Kirby). Dans une optique d’ouverture et de transparence, le code source du calculateur sera placé sous licence libre dans un dépôt GitHub. En terme de design, pour être plus précis, l’enjeu consiste faciliter la saisie et à rendre intelligibles au plus grand nombre des informations abstraites afin de mesurer les conséquences des choix effectués. Graphiquement, l’outil de saisie en ligne comprend ainsi une série de pictogrammes spécifiques et d’infographies visant à faciliter la compréhension des émissions de CO2 – ce qui tranche avec l’ergonomie souvent trop complexe des calculateurs actuellement disponibles. — Crédits du projet Requérants et coordinateurs Anthony Masure (responsable de la recherche à la HEAD – Genève, HES-SO) Yves Corminboeuf (délégué au développement durable à la HEAD – Genève, HES-SO) Laurent Cornaglia (chargé de cours à la HEG, HES-SO) Développement graphique et technique Vincent de Vevey (vacataire en communication visuelle, HEAD – Genève) Nicolas Baldran (assistant pédagogique en Master Media Design, HEAD – Genève) Financement : HEAD – Genève, HEG, HES-SO Genève.

Le design au risque de l’archive

Date

juin 2018

Type

Conférence

Contexte

Intervention aux journées d’études « Documenter la production artistique : données, outils, usages », Nice, Villa Arson, 4-6 juin 2018. Version retravaillée et augmentée d’une conférence donnée en avril 2016 au colloque « Collecta : des pratiques antiquaires aux humanités numériques », Paris, École du Louvre.

Résumé

Dans son essai Mal d’archive (1995), le philosophe Jacques Derrida mettait en exergue le paradoxe de toute archive : d’un côté la volonté de mettre des marques à l’abri de l’effacement du temps et de l’oubli, et de l’autre côté le fait que ces éléments, une fois stockés, sont dès lors disponible à la reproduction et menacent donc l’idée de stabilité. Cette notion d’archive « vivante », mobile, nous semble d’autant plus prégnante lorsque se pose la question de l’aspect de sa structure et de son fonds, car tout travail de design graphique engage un déplacement quand à l’original. Face à la permanence et au pouvoir de l’arkhè, le design est donc toujours un risque, un « gage d’avenir » (Derrida) et de nouveaux commencements.

Makers : Fable labs ?

Date

janvier 2013

Type

Publication

Contexte

Anthony Masure, «Makers : Fable labs ? », Strabic.fr, janvier 2013

Résumé

Après La longue traîne (2006) et Free ! Entrez dans l’économie du gratuit (2009), Chris Anderson revient nous narrer les tendances du futur dans Makers. La nouvelle révolution industrielle (2012). Si ces précédents ouvrages restaient cantonnés au domaine des écrans, celui-ci explore le vaste champ du numérique et des objets « autofabriqués ? ». L’ex-rédacteur en chef du magazine culte Wired est-il convaincant dans son nouveau rôle d’évangéliste des machines de fabrication automatisées ?

Graphisme en numérique: entre certitudes et incertitudes

Date

avril 2014

Type

Publication

Contexte

Anthony Masure, «Graphisme et numérique: entre certitudes et incertitudes», Paris, CNAP, Graphisme en France, no20, p. 65-76

Résumé

«  Dans mes moments d’euphorie les plus intenses, c’est comme si le logiciel surgissait des profondeurs de l’ordinateur. Une fois finalisé dans mon esprit, j’avais le sentiment qu’il siégeait dans la machine, n’attendant plus que l’instant de sa libération. Dans cette optique, ne pas fermer l’œil de la nuit me semblait un prix à payer bien dérisoire pour lui donner sa liberté, pour que mes idées prennent forme. — Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000  » Cofondateur de Sun Microsystems 1 Fondée en 1982 et rachetée en 2008 par Oracle, Sun Microsystems a progressivement délaissé la production de serveurs et de postes de travail pour développer Java (un langage de programmation orienté objet), ainsi que M y SQL (un système de gestion de bases de données). et coauteur du langage de programmation Java 2 On appelle «langage de programmation» une bibliothèque d’instructions univoques interprétables par une machine, constituées d’un vocabulaire et d’une syntaxe définis. Le plus ancien est le FORTRAN (1954)., Bill Joy semblait être l’exemple parfait du développeur informatique accompli. C’est pourtant depuis sa pratique des codes sources 3 Le code source désigne l’ensemble des instructions et des fonctions constituant un programme (logiciel, page Web, etc.)., qu’il écrit, au début des années 2000, une mise en garde adressée à ses pairs: «Pourquoi le futur n’a pas besoin de nous 4 Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000..» Rejouant les thèses développées par Günther Anders dès les années 1950 dans L’Obsolescence de l’homme 5 Günther Anders, L’Obsolescence de l’homme (1956), Paris, Ivrea, 2002. (sans les mentionner explicitement), Bill Joy en arrive, par sa pratique de codeur, à prophétiser lui aussi «un monde sans hommes». Comme Günther Anders, il se base sur le traumatisme de la bombe atomique. Bill Joy entrevoit la poursuite de cet évènement paradigmatique dans le développement des ordinateurs, du génie génétique, de la robotique et des nanotechnologies. Selon lui, ces recherches «représentent une menace différente des technologies antérieures» et menacent directement notre survie ici-bas. C’est l’ivresse résultant de la quête du savoir qui aveugle les scientifiques: «Happé dans le vortex d’une transformation, sans doute est-il toujours difficile d’entrevoir le réel impact des choses. […] Le progrès à l’origine de technologies toujours plus innovantes et toujours plus puissantes peut nous échapper et déclencher un processus autonome.» L’émancipation euphorisante permise par les programmes 6 Un programme est généralement conçu pour faire exécuter une tâche précise à une machine (afficher une couleur à l’écran, connecter un ordinateur à une adresse Web, etc.). Un logiciel comprend donc plusieurs programmes permettant de traiter des données. numériques masquerait-elle une catastrophe inéluctable  ? À travers l’exemple de Bill Joy, nous pouvons donc distinguer deux attitudes possibles face à la technique: se laisser griser par ses infinies possibilités ou travailler contre elle. L’hypothèse que nous souhaitons étudier ici est que le design ne relève d’aucune des deux. Tel que nous pouvons le soutenir, le design est un processus conscient et inconscient «d’authentification» des techniques nouvelles 7 Sur ces notions rapidement abordées ici, il conviendra de se référer aux travaux de Pierre-Damien Huyghe. Voir par exemple: «L’outil et la méthode», Milieux, n o  33, 1988, p.  64-69.. Le designer travaille dans la marge séparant la certitude de l’incertitude. Il a pour tâche de révéler ce qui, parmi nous, est recouvert de nos habitudes culturelles. Afin de donner forme à ce changement 8 Günther Anders, ibid.: «Il ne suffit pas de changer le monde. Nous le changeons de toute façon. Il change même considérablement sans notre intervention. Nous devons aussi interpréter ce changement pour pouvoir le changer à son tour. Afin que le monde ne continue pas ainsi à changer sans nous. Et que nous ne nous retrouvions pas à la fin dans un monde sans hommes.», le designer ne doit pas se laisser «happer dans le vortex» séparant une époque d’une autre. La vigilance qu’il exerce vis-à-vis des avancées techniques ne va donc pas de soi. Dans le champ du numérique, le graphiste est souvent confiné à n’être qu’un utilisateur des systèmes techniques. Pourtant, il a, tout comme le développeur, un rôle à jouer dans les directions soutenables ou nuisibles que peuvent prendre les programmes. Plus encore, nous pensons que le designer graphique, par sa culture du projet, apporte des éléments de réflexion qui concernent, au sens large, le rapport de l’homme aux inventions techniques. Cet article sera ainsi l’occasion d’examiner quatre situations de controverse autour des rapports entre design graphique et culture numérique. Ces analyses sont dans le prolongement des articles parus ces vingt dernières années au sein de la revue Graphisme en France. Forcément incomplètes, ces lectures croisées explorent des façons de faire du design qui ne présument pas d’avance sur ce qui peut être trouvé, et espèrent ouvrir des «perspectives […] aussi excitantes qu’incertaines 9 Michel Wlassikoff, «Graphisme et informatique, rapide bilan d’une liaison durable», Graphisme en France 1998, Paris, CNAP, 1998.». Révolution informatique / culture numérique Écrit en 1998, l’article «Graphisme et informatique, rapide bilan d’une liaison durable» de l’historien Michel Wlassikoff 10 Michel Wlassikoff est historien du graphisme et de la typographie, diplômé en histoire de l’EHESS. Il enseigne au sein de plusieurs écoles d’art et de design en France et à l’étranger. expose les mutations historiques et esthétiques des logiciels de création. La «décennie prodigieuse» du design graphique déroulée par Wlassikoff nous renseigne à propos de la réception française des technologies dites nouvelles. La conclusion de son texte fait ressortir deux types de rapport à l’ordinateur: la crainte d’une homogénéisation de la création et le développement d’esthétiques nouvelles, «radicalement différentes». Dans son livre Le Monde du computationnel 11 Jean-Michel Salanskis, Le Monde du computationnel, Paris, Les Belles Lettres, 2011., Jean-Michel Salanskis tente de penser le numérique au-delà de la promesse d’une «révolution». Selon lui, le numérique rassemble une multitude d’objets contradictoires, qu’il est délicat d’englober sous une même appellation. En effet, le rapport utilitaire aux objets techniques empêche que cette problématique «révolution» soit tout à fait la nôtre, car ce qu’ils ont d’inédit est souvent parasité par d’anciens modèles de pensée. Le dévoilement de l’ordinateur dans sa puissance de nouveauté commence par le jeu, activité libre et exploratoire. C’est pourquoi il importe que les «systèmes d’exploitation» ne ferment pas à tout jamais la «visite des entrailles 12 Ibid., p.  75.» de nos machines. Grotesk, caractère numérique de Frank Adebiaye pour la fonderie Velvetyne. Première publication sur velvetyne.typepad.com, le 26 juin 2010, sous le nom de Mercandieu, renommé en 2011   en Grotesk, fonte numérique sous licence Open Font License. © F. Adebiaye, 2010-2011, certains droits réservés. Le travail du typographe Frank Adebiaye de la fonderie Velvetyne (VTF) 13 velvetyne.fr va dans ce sens. Distribuées sous la SIL Open Font License (OFL), ses fontes sont accessibles librement 14 VTF, «Manifeste posttypographique, ou l’appel des formidables»: «Nous, VTF, rejetons intrépides de la génération Postscript, nous poursuivons, à la vitesse de l’électron, cet illustre cortège. Tel Spartacus, nous libérons les caractères du joug des règlements iniques et des conventions arbitraires (…).» au designer graphique, au relecteur ou à l’imprimeur, ce qui simplifie le process d’édition. Dans un même registre, Frank Adebiaye poursuit actuellement des recherches autour de la génération automatisée de contenus destinés à l’impression. Référents non référents 15 Frank Adebiaye, Référents non référents, Paris, Forthcome, 2013, coll. «Hoplites», (En ligne), forthcome.fr/hoplites/ref_non_ref/ref_non_ref.html., son dernier livre, est un recueil de textes poétiques écrits entre 2006 et 2013. L’ouvrage est réalisé en XML 16 Le XML est un langage de «balisage» qui facilite l’échange de données complexes par sa grande flexibilité., et interprété par un navigateur Web type Firefox HTML 5 17 Initié en 2009, le langage HTML 5 permet une structuration plus fine des contenus. La gestion des médias est également simplifiée par les balises audio et vidéo.. Le passage du numérique à l’imprimé s’effectue ici par un usage savant des nouvelles possibilités techniques du Web: Responsive Web Design (RWD, site Web adaptable à plusieurs résolutions d’écran), ancres (liens internes) aléatoires, fontes Web hintées (optimisées pour la lecture à l’écran) via le service en ligne Cloud Typography de Hoefler & Frere-Jones 18 typography.com/cloud, etc. Ce type de démarche est partagé par des designers pour qui le travail de la programmation numérique («ce qui ne supporte pas l’inexactitude 19 Ibid., p.  65.») se fait dans l’acceptation d’une certaine marge d’incertitude. Artisanat numérique / conscience industrielle Beaucoup de produits ont pour finalité de disparaître à l’usage. Dans le champ du design graphique, les outils numériques informent directement les pratiques. Il en est ainsi, par exemple, des logiciels propriétaires dits de création, dont les conditionnements pernicieux ont aussi marqué la dernière décennie du design graphique francophone. Ces programmes ne sont pas des interfaces transparentes, mais bien des vecteurs d’idées voire d’idéologies 20 Pour en savoir plus sur ce point, voir Kévin Donnot, «Code = Design», Graphisme en France 2012, Paris, CNAP, 2012, p.5-12. Cela n’empêche pas certains designers de jouer avec les codes de leurs environnements de travail, telle Danielle Aubert, qui compose des tableaux dans le tableur Microsoft Excel 21 Danielle Aubert, 58 Days Worth of Drawing Exercises in Microsoft Excel as Rendered for Web and Animated Daily Excel Drawings, 2005 – 2006, (En ligne), (link: https://danielleaubert.com/print/exceldrawings_book.. Danielle Aubert, Sixteen Months Worth of Drawing Exercises in Microsoft Excel, extrait, 3 avril 2005. © D. Aubert Selon Annick Lantenois, depuis 1990, le développement des programmes a été progressivement confié aux ingénieurs, le designer se retrouvant dès lors relégué au statut de simple usager. Comme le dit Florian Cramer: «Ce modèle impose un retour à un mode de travail artisanal qui exclut les artistes et les designers des évolutions des médias de masse électroniques 22 Annick Lantenois cite Florian Cramer dans: «Ouvrir des chemins», Graphisme en France 2012, Paris, CNAP, 2012, p.  15. […].» Une telle expression réactualise des débats très anciens sur la constitution du design comme champ autonome de l’artisanat. L’histoire d’un mouvement précurseur comme le Deutscher Werkbund 23 Lucius Burckhardt, Le Werkbund: Allemagne, Autriche, Suisse (1977), Paris, Centre d’études et de prévisions, 1981. est ainsi jalonnée de prises de position contradictoires sur le rapport à l’industrie – travail manuel et production de masse. Dans la synthèse qu’en donne Walter Gropius au Bauhaus, il y aurait «design» quand les artistes cessent de s’opposer à l’industrie et travaillent avec elle, en tension – Art et Industrie 24 «Kunst und Technik – eine neue Einheit», Walter Gropius, 1923.. Si la place nous manque pour développer ce dernier point, et pour en revenir aux rapports entre design graphique et culture numérique, nous noterons tout de même qu’elle implique la possibilité d’une «esthétique avec la mécanisation 25 Pierre-Damien Huyghe, Art et Industrie. Philosophie du Bauhaus, Belval, Circé, 1999, p.41.». Le retour au mode de vie médiéval de la communauté artistique avait déjà été expérimenté à l’orée du Bauhaus. Est-ce que le design graphique, dans les conditions techniques actuelles, gagnerait à revenir à un modèle où les notions de production en série et de standardisation ne posaient pas problème  ? Ne risquerait-on pas alors, en réaction à des craintes similaires à celles de Bill Joy, de basculer dans une attitude antitechnique ? Superscript 2, affiche pour l’exposition Lettres Type, My Monkey, Nancy, novembre 2011. 80 × 120   cm. © Superscript 2 Superscript 2, Opération Graffiti, affiche réalisée pour le Festival international de l’affiche et du graphisme de Chaumont, 2013. Interprétation graphique d’une opération militaire. 80 × 120   cm. © Superscript 2 À l’opposé de ce retour à une tradition révolue, les travaux du studio Superscript 2 jouent ainsi avec les codes graphiques de la production en série, hésitant ironiquement entre travail manuel et automatisation complète du processus créatif (le «super script»). Ce qui est en jeu ici, c’est la fondamentale marge de liberté qui fait de toute vie authentiquement humaine une singularité non reproductible. L’enjeu du design serait alors de permettre le développement des techniques, sans qu’elles nous portent atteinte. Dire cela ne revient donc pas à accepter toute forme de production en série, mais bien au contraire à la choisir et à la transformer. À la lumière de ces quelques intuitions, nous pouvons relire ce que disait Michel Wlassikoff des «logiciels [qui] se sont ainsi inspirés des habitudes professionnelles et ont pris en compte les propositions des graphistes, ce qui a assuré leur adoption rapide et leur constante adaptation». Ce mélange d’habitudes et de renouvellements définit bien la réalité du designer, pris dans une zone de confort qu’il cherche continuellement à dépasser. Ordonner le monde / donner forme à la technique Dans «  Ce que nous pourrions penser», article visionnaire publié dans le contexte de la bombe atomique de 1945, Vannevar Bush 26 Vannevar Bush, «As We May Think», The Atlantic Monthly, volume 176, n o  1, juillet 1945, p.  101-108. Trad. de l’auteur., chef de la recherche scientifique étasunienne, développe l’idée d’un réseau d’informations à échelle mondiale. Plus précisément, il invente sur le papier la notion d’hypertexte, qui ne sera réalisée techniquement qu’une trentaine d’années plus tard. Son concept de «memex» vise à résoudre le problème de la dispersion des articles scientifiques, dont les meilleurs tombent dans l’oubli. Sa visée plus large est d’éviter qu’un nouveau conflit mondial ne se produise. Cet article, écrit comme celui de Bill Joy depuis une pratique des systèmes d’informations, interroge la façon d’organiser le savoir humain à l’époque des calculateurs. Pour Vannevar Bush, il y a un enjeu décisif à choisir ce qui doit être rendu public (partageable) dans une masse d’informations. L’hypertexte ouvre la possibilité de structurer un flux afin d’isoler ce qui est pertinent de ce qui ne l’est pas. Si l’humanité n’est plus en mesure de transformer l’information en connaissance, alors cette indistinction deviendra indigestion, «infobésité», absence de communication, conflit, bombe. L’éthique de l’ingénieur développée par Vannevar Bush est aussi celle du designer: la technique doit servir l’homme pour lutter contre ses insuffisances. Rationalisé et rendu disponible, le savoir humain doit pénétrer toutes les couches de la société pour l’éclairer de ses vertus. Cette pensée se prolonge aujourd’hui, avec d’importantes nuances, dans des systèmes dont l’ambition ne serait plus seulement d’organiser le monde, mais de le recouvrir de leurs ordonnancements. On pourra penser ici à l’ambition de Google «d’organiser toute l’information du monde 27 Larry Page, à propos de Google: «Notre ambition est d’organiser toute l’information du monde, pas juste une partie», Paris, Le Monde, 21 mai 2010.». Par là, on remarque que le monde n’est pour Google qu’une matière dont la finalité serait de produire des éléments signifiants, c’est-à-dire des connaissances pouvant faire l’objet d’un rendement. Dans cette configuration, nul espace n’est supposé échapper à la trame informationnelle 28 Paul N. Edwards, Un monde clos. L’ordinateur, la bombe et le discours politique de la Guerre froide (1996), Paris, B2, coll. Territoires, 2013. qui se tisse autour de nos existences, réduites progressivement à des entités calculables. Avec le recul dont nous disposons désormais, nous pouvons dire que «l’informatique» dont parlait Michel Wlassikoff s’est constituée en culture numérique. On retrouve l’origine française du mot «ordinateur», dans une lettre de 1955 adressée au président d’IBM: «Cher Monsieur, écrivit Jacques Perret, que diriez-vous d’ordinateur  ? C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde 29 Éric Hazan, «16 avril 1955: que diriez-vous d’ordinateur  ?», Paris, Le Monde, 15 avril 2005..» Cette traduction maximaliste du terme «computer» substitue ainsi à la puissance de calcul l’idéal religieux d’un ordonnancement du monde. Il y a aussi dans l’ordonnancement, au sens testamentaire, l’idée d’instaurer et de prendre des dispositions, c’est-à-dire des décisions. N’est-ce pas aller trop loin, au risque du contresens, que d’attribuer de telles propriétés aux machines à calculer  ? Au-delà de ces promesses, un champ de recherche pour les designers graphiques consisterait à faire apparaître les systèmes techniques qui disparaissent habituellement derrière des interfaces «transparentes». Il ne s’agit donc plus simplement d’organiser le monde, mais avant tout de donner à le comprendre 30 «(Notre époque) se raidit pour atteindre l’absolu et l’empire, elle veut transfigurer le monde avant de l’avoir épuisé, l’ordonner avant de l’avoir compris.» Albert Camus, «L’Exil d’Hélène», dans: L’Été, Essais, Paris, La Pléiade, 1963, p.  856.. Dans les projets de design qui nous intéressent, la technique n’est pas abordée dans sa dimension fabuleuse, mais révélée dans sa puissance de nouveauté. Il en est ainsi de l’affiche Specimen de Fanette Mellier, réalisée dans le cadre d’une exposition au pôle graphique de Chaumont en 2009. Ce projet ne cherche pas à «faire image», mais affirme son statut d’objet imprimé, appréciable à une échelle déterminée. Le recto est rempli des trames et gammes colorées servant au calibrage des machines d’impression. Ce motif obsessionnel sature la page d’éléments géométriques non symboliques, faisant de ce qui n’est habituellement pas vu l’endroit d’une expérience sensible. Le verso de l’affiche contient des éléments informatifs conventionnels. Une fois pliée, l’affiche joue du contraste entre ces deux modes d’approche du design graphique: manifester une technique ou délivrer un message. Fanette Mellier, Specimen, affiche pour un programme d’expositions sur le graphisme éditorial, pôle graphisme de Chaumont, 2009. Impression offset recto-verso. 120 × 176   cm. Le titre apparaît avec le pli. © F. Mellier Datavisualisation / transformation de données Les dizaines de millions de fiches individuelles accumulées par John Edgard Hoover au sein du FBI n’auront pas suffit à nous réveiller. Le scandale déclenché par les révélations d’Edward Snowden sur les pratiques de la NSA a de nouveau mis en lumière les liens profonds existants entre les gouvernements occidentaux et les grands groupes de télécommunication. Même si nous pouvions nous en douter, ces preuves à charge jettent le trouble sur un système n’ayant plus grandchose à voir avec des préoccupations citoyennes. Au début des années 2000, le Web 2.0  31 Tim O’Reilly, «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», conférence du 30 septembre 2005. aura été, sous couvert de partage et d’ouverture des possibilités techniques, l’endroit d’un recentrement problématique. La «facebookisation» du Web est celle de sa progressive transformation en télévision. Par exemple, la récente fonction autoplay des vidéos des flux Facebook 32 Josh Constine, «Facebook Puts Its Web Feed In Motion With Auto-Playing Videos», Techcrunch.com, 11 décembre 2013, (En ligne), techcrunch.com/2013/12/11/facebook-autoplay-video vise à réduire le degré d’interaction avec le contenu, pour proposer un modèle de consommation passive. Comme l’écrivait en 1987 le critique de cinéma Serge Daney: «L’affaire Médiamétrie […] et ce qu’on sait sur les techniques à venir du contrôle du téléspectateur vont toutes dans le même sens: l’écran du téléviseur n’est plus une frontière qui – comme tout écran – sépare et réunit des êtres anonymes mais un miroir dans lequel, idéalement, l’émetteur et le récepteur se comptent et se voient 33 Serge Daney, Le Salaire du zappeur, Paris, P.O.L, 1987, p.  11..» Le modèle télévisuel apprend aux gens à vendre leurs expériences – finalité bien éloignée des utopies des pionniers d’Internet 34 Fred Turner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand, un homme d’influence (2006), Caen, C&F, 2012.. Dans cette calculabilité des existences, la multiplication des informations interroge le designer sur son rôle d’organisateur. Le mythe des données «brutes» est battu en brèche par l’étude du «travail des données 35 Hubert Guillaud, «Travail et travailleurs de la donnée», Internet Actu, 13 décembre 2013, (En ligne), internetactu.net/2013/12/13/travail-et-travailleurs-de-la-donnee », qui montre que celles-ci sont toujours biaisées et soumises à interprétation. Dès lors, on comprendra que le rôle du designer graphique est central dans la compréhension des données. Son travail tient davantage de la «transformation 36 Marie Neurath, Robin Kinross, Le Transformateur, Paris, B42, 2013.» que d’une illusoire objectivation. Non seulement les données sont visibles avant le travail du designer graphique, mais celui-ci produit un travail d’interprétation voire de production du sens qu’il serait difficile de nier. Par exemple, en mettant en tension l’impersonnalité des diagrammes à des éléments illustratifs et narratifs, le design du rapport d’activité 2012 du CNAP réalisé par The Shelf Company (Morgane Rébulard et Colin Caradec) se joue ainsi des conventions graphiques. The Shelf Company: Morgane Rébulard et Colin Caradec, Rapport d’activité du CNAP, 2012, p.  63. © The Shelf Company, 2013 Afin de «faire société» dans ce déluge de données «obtenues 37 Bruno Latour, «Que la bataille se livre au moins à armes égales», postface à Controverses climatiques, Sciences et Politiques, Paris, Les Presses de Sciences Po, 2012, p.  6.», le médialab de Sciences Po (initié par Bruno Latour) mène depuis quelques années des recherches autour de leurs modalités de présentation à l’écran. Comme il est possible de faire dire n’importe quoi à des chiffres, il ne suffit pas de démontrer l’ensemble du traitement statistique. Il faut également expliquer comment on est parvenu à l’image finale, en laissant à l’utilisateur la possibilité de remonter dans le processus d’abstraction. Ces interfaces recourent ainsi à ce que l’on pourrait appeler une «chaîne de transformation 38 «(…) la production de savoir est un cheminement, une trajectoire, une chaîne de transformations (…).» Bruno Latour, «La connaissance est-elle un mode d’existence  ?», dans: Vie et Expérimentation. Peirce, James, Dewey, Paris, Vrin, 2007, p.  13.», pour désigner la présentation cohérente de l’ensemble du cheminement intellectuel. Comme le dit Bruno Latour: «Propriété essentielle, cette chaîne doit rester réversible. La traçabilité des étapes doit permettre […] de la parcourir dans les deux sens. Qu’on l’interrompe en n’importe quel point et voilà qu’elle cesse de transporter le vrai, de le produire, de le construire, de le conduire 39 Bruno Latour, «Sol amazonien et circulation de la référence» (1993), dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007, p.  74..» En ouvrant des marges entre la collecte et l’abstraction, de telles démarches cherchent à comprendre plus qu’à ordonner 40 Karl Marx, Thèses sur Feuerbach, XI, 1888: «Les philosophes n’ont fait qu’interpréter le monde de différentes manières, ce qui importe, c’est de le transformer.» ; elles laissent de la place à l’autre. Figure de Bruno Latour: «Pour chacune des étapes que traverse la référence, la transformation peut être représentée comme un compromis entre ce qui est gagné [amplification] et ce qui est perdu [réduction] à chaque étape de la production d’information.» Extrait de «Sol amazonien et circulation de la référence» [1993], dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007. Penser en numérique Le développement des logiciels libres 41 Le logiciel «libre» vise à respecter la liberté essentielle de l’utilisateur (liberté d’utiliser, de modifier et de redistribuer des copies d’un programme). L’open source voit dans la mise à disposition du code source la meilleure façon de favoriser l’innovation logicielle. a permis à des machines hétéroclites de dialoguer ensemble. Nous réalisons chaque jour que cette idée est fondamentale, afin que le Web (et le numérique en général) ne se referme pas définitivement. Pour cette raison, il est important que les logiciels libres développent de nouvelles «méthodes d’approche 42 László Moholy-Nagy, «Nouvelle méthode d’approche – Le design pour la vie» (1947), dans: Peinture, photographie, film et autres écrits sur la photographie, Paris, Folio, 2007.», au lieu de se contenter d’imiter des logiques propriétaires. Nous pouvons nous référer ici à la ligne de recherche Design by Numbers, initiée par John Maeda dans les années 1990  43 John Maeda, Design by Numbers, Cambridge, MIT Press, 2001.. Créé par Ben Fry et Casey Reas en 2001, le logiciel Processing 44 processing.org est directement issu de ces explorations. En permettant de tracer et d’animer des formes au moyen d’une syntaxe 45 Dans le contexte du code, la syntaxe permet d’articuler des instructions pour les rendre compréhensibles par la machine. simplifiée, ce type de programme permet de dépasser les interfaces à base d’icônes et de menus déroulants. Plus encore, le succès de Processing nous dit, s’il en était besoin, que l’évolution des supports modifie profondément les champs d’action du design graphique. Les médias animés, sonores, tactiles, etc. font partie de notre quotidien depuis déjà de nombreuses années, et cette réalité doit être prise en compte par les designers. Murmur, du studio Chevalvert 46 m-u-r-m-u-r.me. Projet réalisé en collaboration avec 2R oqs, Polygraphik et Splank. Technologies employées  : OpenFrameworks, Javascript, bandes LED. Processing avait été utilisé pour les premiers prototypes de Murmur., incarne cette transversalité des supports, où le projet s’enrichit des expériences passées. Ici, une prothèse architecturale permet la communication entre une personne etun mur sur lequel elle est connectée. Ce type de démarche excède toujours un peu l’idée initiale, les codes sources pouvant être réinvestis dans d’autres contextes et/ou redistribués librement. Murmur, un projet de Chevalvert, 2R oqs, Polygraphik et Splank, vue de la projection dans le cadre de «nuit numérique #10X-L ight», Centre culturel Saint-Exupéry, Reims, 25 mai 2012. ©D.R. Les logiciels sont généralement plus intéressants quand ils sont employés pour des usages qui n’étaient pas prévus initialement. Utilisé dans le projet Murmur, Processing permet aux designers d’inventer de nouveaux environnements de travail. À la recherche d’une esthétique pertinente pour leur «journal de recherche», les designers de NORMALS ont développé dans Processing une interface de création de bande dessinée vectorielle. La forme est directement issue du code, et non d’une logique analogique. Une fonction de leur programme Polyrotor connecte ainsi les nouveaux points placés sur l’écran à ceux qui sont les plus proches 47 «Delineating the Future – an interview with NORMALS», Creative Applications Network, 6 décembre 2013, (En ligne), creativeapplications.net/theory/delineating-the-future-an-interview-with-n-o-r-m-a-l-s. Cette façon de faire du graphisme en numérique invente des formes qui ne sont pas totalement anticipables par l’imagination. Les formes polygonales dessinent un futur où le réalisme de l’image est mis en doute au profit d’hypothèses et de fictions transversales. Sans même connaître les processus de création, le lecteur comprend qu’il a affaire à un dialogue stéréoscopique entre l’homme et la machine. NORMALS: Cédric Flazinksi & Aurélien Michon, programme Polyrotor, capture d’écran, janvier 2014. Cédric Flazinksi, Aurélien Michon, NORMALS, ouvrage autoédité, Paris, mars 2014. Réalisé à l’origine sous Processing, l’interface de création typographique Prototypo 48 Yannick Mathey et Louis-Rémi Babé, prototypo.io, travail en cours de réalisation. Prototypo est désormais développé en HTML5 Angular JS et SVG. Dans le même registre, voir aussi les expérimentations du studio LettError. de Yannick Mathey s’émancipe d’une construction lettre par lettre de la fonte. L’utilisation d’algorithmes permet de manipuler en temps réel des formes dynamiques, les changements formels étant répercutés sur l’ensemble de l’alphabet. Le programme permet également d’indiquer des «limites» aux bonnes règles typographiques, sans que celles-ci ne freinent la création. Depuis des dizaines d’années, les apports du numérique au champ de la typographie ont été fructueux. Il reste beaucoup à apprendre d’initiatives comme l’Unified Font Object ou Metafont 49 David Vallance a présenté, aux Rencontres internationales de Lure 2013, le travail de découverte et d’appropriation du programme Metafont, qu’il a mené dans le cadre de son diplôme national d’Art et technique à l’Ésad Grenoble-Valence.. Yannick Mathey et Louis-Rémi Babé, programme Prototypo, captures d’écran, janvier 2014. © Y. Mathé, L.-R. Babé Désirer l’incertitude À l’issue de ces quelques exemples et relectures croisées, nous pouvons appréhender d’une nouvelle manière les craintes de Bill Joy. Il nous semble périlleux d’envisager a priori les inventions techniques sous l’angle de la «menace», car au nom de quoi critiquerions-nous une nouvelle technique, si ce n’est suivant son rapport à la tradition  ? En n’acceptant pas que le monde puisse changer, un tel parti pris se retranche dans ses convictions. Le développement des systèmes de prévision en tous genres (sondages, assurances, contrats, etc.) semble faire de nos existences des entités dociles et réglables, de moins en moins aptes à prendre des décisions. Pour échapper à cette programmatique, il faut que le designer participe à l’élaboration d’une société qui ne fonde pas sa marche sur le calcul. Le fait que les designers graphiques investissent de plus en plus la conception des programmes numériques nous ouvre de nouvelles façons de faire, basées sur la compréhension sensible des spécificités techniques. Le designer peut ainsi choisir de conduire la technique dans des directions qui ne portent pas atteinte à la liberté humaine. Son travail hésite entre certitudes et incertitudes: d’un côté les habitudes professionnelles et culturelles, de l’autre la confrontation à l’inconnu 50 Pierre-Damien Huyghe, Modernes sans modernité. Éloge des mondes sans style, Paris, Lignes, 2009, p.  123. La modernité s’inscrit dans un «mouvement qui ne fait pas de l’émission d’un sens le but unique des conduites techniques […]».. «Apprendre et désapprendre», disait Catherine de Smet 51 Catherine de Smet, «Apprendre et désapprendre», Graphisme en France 2008, Paris, Cnap, 2008.. Afin que la prochaine décennie ne soit pas déjà écrite, à nous de désirer l’incertitude.

Notions

Personnes citées

Objets mentionnés

Médias

Autres activités

Date

Type

Contexte

Résumé

Le design de la recherche: conventions et déplacements du doctorat en design

Date

mai 2015

Type

Publication

Contexte

Emeline Brulé, Anthony Masure, «Le design de la recherche : normes et déplacements du doctorat en design», Paris, PUF, Sciences du Design, no1, mai 2015, p.58-67

Résumé

Prenant acte d’une spécificité du design quant au travail des supports d’expression, cet article se donne comme champ d’étude les formes et formats de thèses dans le contexte de la recherche en design. Nous considérerons ici la thèse comme un «type» de document ayant intégré au fil du temps un certain nombre de conventions qui ne sont que trop rarement interrogées. Nous reviendrons tout d’abord sur son évolution historique et discuterons des conventions et normes des thèses en design à l’heure actuelle. Nous étudierons ensuite la manière dont ces dernières structurent le travail de recherche pour nous demander si la recherche en design se doit d’en créer d’autres, ou si elle doit œuvrer à les déconstruire. Enfin, nous nous demanderons si le design peut être vu comme un «laboratoire» permettant de déplacer les façons de faire de la recherche, au sens large.

L’injonction à la créativité dans le design

Date

avril 2016

Type

Publication

Contexte

Anthony Masure, « L’injonction à la créativité dans le design. Des logiciels de création innovants aux programmes inventifs », dans : Anne-France Kogan, Yanita Andonova (dir.), actes du colloque « De l’injonction à la créativité à sa mise en œuvre : quel parallèle entre monde de l’art et monde productif ? » [2015], MSH Nantes, Mines Nantes, université Paris 13, 2016, p. 16-23

Résumé

Il est de plus en plus demandé au design de se placer du côté de la « créativité » et de « l’innovation », comme si cela allait de soi. Que recouvre cette injonction, et comment est-elle mise en œuvre ? Après avoir situé le design dans une tension entre le monde productif et le monde de l’art, nous examinerons quelques logiciels sensés « exalter » la créativité des utilisateurs avant de conclure sur une vision du design échappant à cette injonction stérilisante.

Peut-on encore ne pas travailler ?

Date

juin 2017

Type

Publication

Contexte

Anthony Masure, «Peut-on encore ne pas travailler?», Cité du Design / ESADSE, Azimuts, no47, juin 2017, p.20-35

Résumé

Tandis que le travail, en crise, est de plus en plus recherché, mince est la limite entre des emplois salariés, pour lesquels il faut en faire toujours plus, et une myriade de micro-tâches non rémunérées, qui donnent l’impression de travailler jour et nuit. Autrement dit : peut-on encore ne pas travailler ? Afin de traiter ce paradoxe, nous examinerons tout d’abord le passage du métier à des professions employées à faire croître le capital. Ensuite, après avoir vu en quoi l’époque contemporaine pourrait signer une possible « mort de l’emploi », nous analyserons en quoi le développement du « labeur numérique » (digital labor) et des objets supposément « intelligents » (smart) brouille la distinction entre le temps libre et le temps travaillé. Afin de sortir de ces impasses, nous nous demanderons si le design, en tant que travail de « qualités » inutiles, pourrait permettre d’envisager de nouveaux rapports au temps.

Machines désirantes : des sexbots aux OS amoureux

Date

novembre 2017

Type

Publication

Contexte

Anthony Masure et Saul Pandelakis, «Machines désirantes : des sexbots aux OS amoureux», ReS Futurae, revue d’études sur la science-fiction, no10, «Imaginaire informatique et science-fiction», novembre 2017

Résumé

Nous proposons de rendre compte de l’émergence du désir au cœur de la relation entre un être humain et une machine, tel qu’il est représenté dans les fictions audiovisuelles. Si, dans nos expériences quotidiennes, ce désir s’exprime le plus souvent sur le mode de la frustration, il semble que le cinéma de science-fiction projette d’autres devenirs du désir comme possible horizon de la technologie, notamment au travers du trope du sexbot. Dans la réalité des objets désignés, le sexbot reste encore un jouet passif proche du sextoy. Une figure plus trouble émerge dans les fictions audiovisuelles lorsque que la machine (selon les cas : le robot, l’ordinateur ou l’intelligence artificielle) peut faire de ce désir un sentiment réciproque et devenir alors une « machine désirante ». Des femmes télécommandées de Stepford Wives à l’intelligence sans corps de Her, nous tâcherons de qualifier ces imaginaires de l’informatique sexués et sexuels, et le devenir de ceux-ci dans les processus de conception propres au design.

Notions

Personnes citées

Objets mentionnés

Médias

Manifesto for an Acentric Design

Date

décembre 2019

Type

Publication

Contexte

Version enrichie d’un chapitre de l’essai Design et humanités numériques (2017), traduction du français par Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, « Navigating the Human »

Résumé

Télécharger l’article en PDF Voir l’article [En ligne English version here. «  Là où vous voyez des choses idéales, moi je vois… des choses humaines, hélas  ! trop humaines  ! » […] Un «  esprit libre  » ne signifie pas autre chose qu’un esprit affranchi, un esprit qui a repris possession de lui-même. — Friedrich Nietzsche 1 Friedrich Nietzsche, «  Pourquoi j’écris de si bons livres. Humain, trop humain et deux suites  », dans  : Ecce Homo [1888], trad. de l’allemand par Henri Albert, Paris, Mercure de France, 1908, p.  636-637. Dans ce fragment aux allures autobiographiques, Nietzsche revient sur son livre Humain, trop humain [1876-1878]. Dans les expressions circulant à propos du «  design d’interface  », celles de «  design centré utilisateur  », «  d’expérience utilisateur  », et par extension de «  design d’expérience  » pourraient, à première vue, aller de soi. Le design aurait ainsi pour but de créer des choses «  utiles  », partant des besoins des utilisateurs, «  centrés  » sur eux et sur l’amélioration de leur «  expérience  ». Pourtant, si l’on regarde ces notions de plus près, on peut se demander ce que ces méthodes engagent comme conceptions du design, et plus largement comme compréhension des relations humaines et des relations humains-machines. En effet, il ne va pas sans poser problème de présupposer que «  nous  » serions avant tout des utilisateurs, c’est-à-dire des êtres voués à n’entretenir que des rapports d’utilité. Que penser alors de termes tels que «  user-centered design (UCD) 2  Shawn Lawton Henry, Justin Thorp, «  Notes on User Centered Design Process (UCD) », W3C.org, mars 2004, [En ligne], http://www.w3.org/WAI/redesign/UCD accès  : 1er Juillet, 22:00», « human-centered design (HCD) 3  Ideo, «  Human-Centered Design Toolkit  », 2009, [En ligne], http://www.ideo.com/work/human-centered-design-toolkit», « activity-centered design (ACD) 4 Geraldine Gay, Helene Hembrooke, Cambridge, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems, MIT Press, 2004. » ou encore «  people-centered design (PCD) 5 Hugh Graham, « People Centered-Design », [En ligne], http://hughgrahamcreative.com/people-centered-design » ? Pourquoi le design devrait-il se «  centrer  » sur quelque chose  ? Plus largement, n’y a-t-il pas dans l’existence humaine quantité d’aspects auxquels les «  expériences  » générées par le design ne sauraient se substituer  ? Afin de critiquer l’ingénierisation du design et la réduction du travail des designers à des méthodologies normatives voire quantitatives, nous proposons comme méthode de recherche d’associer une étude historiques des notions à interroger à des analyses techniques et aux discours afférents qui les entourent. Plus précisément, nous pourrions synthétiser la méthode de recherche de ce texte de la façon suivante 6 Nous reprenons ici la formulation établie par le chercheur Alexandre Saint-Jevin dans son compte-rendu de lecture de l’essai Design et humanités numériques : «  Sur la trace de l’humain dans les ‹  objets  › de design  », Non-Fiction, mars 2018, [En ligne], https://www.nonfiction.fr/article-9264-sur-la-trace-de-lhumain-dans-les-objets-de-design.htm: 1 . Analyser la notion déterminant le processus de création des choses de design pour en dégager les concepts philosophiques sous-jacents. 2. Retracer la généalogie de ce concept pour confronter la réalité technique des productions de design aux discours de l’entité (des concepteurs, des entrepreneurs, des communicants, des marketeurs, etc.) à propos des productions concernées. 3. Synthétiser l’histoire et les discours des entités sur les choses du design en général pour en dégager les enjeux philosophiques. 4. Confronter les enjeux philosophiques révélés par l’analyse des discours de l’entité à ceux de la notion de départ pour révéler en quoi ils viennent conditionner et déterminer la réalité technique. À rebours de la volonté de modéliser l’activité du design sous forme de chaînes logiques (diagrammes, schémas, timelines, etc.), cette formalisation ne vise donc pas à dire aux designers ce qu’il convient de faire mais ambitionne de leur fournir, dans leur démarche même, des entrées critiques leur permettant d’analyser ce qui a déjà été fait ou ce qu’ils sont en train d’élaborer. Afin d’activer d’autres façons de faire des interfaces que les scénarisations comportementales du design d’expériences, nous proposons de débuter notre analyse par un retour sur l’histoire des premières interfaces graphiques. Comment les valeurs recouvertes par ces couches techniques infusent-elles voire limitent-elles nos relations à la technique  ? Le «  modèle conceptuel de l’utilisateur  » du Xerox Star L’expression «  d’interface utilisateur  » (user interface) est contemporaine du développement des ordinateurs personnels à la fin de années 60. En 1968, Douglas Engelbart présentait l’aboutissement des recherches menées au sein du Xerox PARC lors d’un évènement rétrospectivement surnommé «  la mère de toute les démos  » (Mother of all demos), où l’on vit pour la première fois la visioconférence, la téléconférence, le courrier électronique, le système de navigation hypertexte et le modèle d’interface de la «  métaphore du bureau  » basé sur des «  fenêtres  » (windows), «  dossiers  » (folders), «  corbeilles  » (trash), etc. Partiellement réalisée dans l’ordinateur Xerox Alto de 1973  7 Seulement 1500 unités furent produites  : 1000 pour les employés de Xerox et le reste pour des universités et institutions publiques., cette première forme d’interface graphique (« GUI » pour graphic user interface) fut reprise dans le Xerox Star de 1981. Ce dernier était de plus accompagné d’un accès au réseau, de la possibilité d’envoyer des mails, d’une souris, et d’un système d’impression WYSIWIG (What You See Is What You Get) assez précis pour faire coïncider ce qui est vu à l’écran avec une impression papier. Afin de préciser l’origine du modèle conceptuel ayant servi de base à un design se revendiquant explicitement des besoins des «  utilisateurs  », il importe de revenir sur les principes fondateurs du Xerox Star. Dans un article datant de 1982, cinq anciens employés de Xerox Corporation expliquent leur compréhension des relations humains-machines, et plus précisément leurs méthodologie de design d’interface  : «  Nous avons appris du Star l’importance de formuler les concepts fondamentaux (le modèle conceptuel de l’utilisateur [the user’s conceptual model] avant que le programme ne soit écrit, plutôt que de faire suivre l’interface utilisateur user interface après. […]Elle a été conçue avant designed before les fonctionnalités du système ne soient entièrement décidées. Elle a même été conçue avant que le matériel informatique n’ai été construit. Nous avons travaillé pendant deux ans avant d’avoir écrit une seule ligne de code du programme du produit réel 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, Eric Harslem, «  Designing the Star user interface », Byte, no   4, 1982, p.  242-282, [En ligne], http://www.GUI debookgallery.org/articles/designingthestaruserinterface. » Une telle importance attribuée au design « avant » que les spécification matérielles ne soient formulées ne manquera pas d’interroger le lecteur contemporain, habitué à ce que le design soit réduit à une action en bout de course, dépendante d’une multitude de paramètres extérieurs. Dans le cas du Star, il était question d’introduire sur le marché des «  concepts radicalement nouveaux 9 Ibid. » bien plus que de chercher à appliquer une «  commande  » venue d’en haut. En dédiant une mémoire à l’affichage écran, les concepteurs du Star furent en mesure de créer une interface visuelle fonctionnant de concert avec la souris (également utilisée sur le Xerox Alto), définie dans le texte de 1982 comme «  un moyen de pointer rapidement un item à l’écran 10 Ibid. » plus efficace que les curseurs activables par le clavier. Il est particulièrement intéressant d’étudier comment les équipes de Xerox mirent au point une méthodologie de projet pouvant être reliée avec ce qui se nomme aujourd’hui «  design centré utilisateur  ». Le développement d’une interface pose en effet de nombreux problèmes  : la compréhension de la variété des langages dans lesquels les utilisateurs expriment leurs commandes à l’ordinateur, le design des représentations à l’écran montrant l’état du système à l’utilisateur, et d’autres problèmes abstraits pouvant affecter la compréhension du comportement du système. Selon les équipes du Star, ces problèmes sont hautement subjectifs, et ne peuvent être résolus qu’au cas par cas. La méthode employée aura donc consisté à se focaliser sur ce qui devrait précéder tout design d’une interface réussie, à savoir «  l’analyse des tâches  » (task analysis) : «  La description de la tâche actuelle avec sa répartition des objets et des méthodes d’information actuellement employées offre un point de départ pour la définition d’un ensemble équivalent d’objets et de méthodes devant être fournies par le système informatique l’ordinateur, ses programmes et ses périphériques]. L’idée derrière cette phase de conception [this phase of design] est de construire un nouvel environnement des tâches utilisateur [a new task environment for the user], dans lequel il puisse travailler pour atteindre les mêmes objectifs [same goals] qu’avant, désormais entourés d’un ensemble différent d’objets, et en employant de nouvelles méthodes 11 Ibid. » Pour Xerox, l’utilisateur est une entité essentiellement vouée à effectuer des tâches en vue d’accomplir des objectifs. On retrouve ici la définition commune d’un algorithme, à savoir un ensemble d’instructions destinées à accomplir une action déterminée. Autrement dit, n’est-ce pas du «  programme  » (un algorithme écrit en langage machine) en tant que modèle de pensée que découle la compréhension de ce qu’est un utilisateur  ? N’est-ce pas étonnant que d’aller de la machine vers les êtres humains afin de comprendre comment améliorer leurs relations  ? En ce sens, ce que l’on appellerait «  utilisateur  » dans le contexte informatique ne serait bien souvent qu’une réduction logique de la subjectivité humaine, capable dès lors de dialoguer avec des programmes «  extra humains 12 J’emprunte cette expression au livre Haunted by algorithms issu de la ligne de recherche Meta Mediums dirigée par Jeff Guess et Gwenola Wagon, à apparaître en 2016 aux Presses du réel. ». De même que certains voient dans le design une discipline susceptible de faire science 13 Voir  : «  Pour une recherche en design sans modèle  », supra., il s’agirait ici de «  modéliser des comportements  » disparates en vue d’améliorer l’efficacité des «  tâches  ». L’étymologie du terme «  tâche  » renvoie à taxer (taxare) pour désigner «  le travail déterminé que l’on a l’obligation de faire, avec une notion de ‹  rétribution  › [voire de] devoir moral 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. ». Le verbe «  tâcher  » exprime quant à lui l’idée de «  faire des efforts pour  », avec parfois l’idée d’une pénibilité voire d’un ordre atténué avec l’impératif «  tâchez de  ». Si l’utilisateur est celui dont les objectifs à réaliser passent nécessairement par une série de tâches à accomplir, cela ferait-il de nous des «  tâcherons  », c’est-à-dire des «  personne effectuant des besognes de commande [nous soulignons], sans grande intelligence » ? 15 Ibid. Dans l’exemple du Xerox Star, les choses sont néanmoins plus complexes. Le fait de partir d’un «  modèle-utilisateur  » constitué d’un petit ensemble de principes de design (design principles) permet d’assurer une cohérence globale, puisque « l’expérience utilisateur acquise dans une des zones du programme peut s’appliquer dans une autre 16 «  Designing the «  Xerox Star user interface », op.  cit : «  The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […]and allow user experience in one area to apply in others. » Nous soulignons. », réduisant ainsi la charge cognitive relative à l’utilisation du système informatique. Un autre aspect discuté dans l’article – relatif à la notion de cohérence – concerne la notion de «  familiarité » (« Familiar User’s Conceptual Model ») : «  Un modèle conceptuel utilisateur [a user’s conceptual model] est l’ensemble des concepts qu’une personne acquiert progressivement pour expliquer le comportement [behavior] d’un système […]. La première tâche d’un concepteur de système est de décider quel modèle est préférable pour les utilisateurs […]. Cette étape extrêmement importante est souvent négligée ou mal faite. Les concepteurs du [Xerox] Star [The Star designers] ont consacré de nombreuses années […]à évoluer vers […]un modèle approprié pour un système d’information bureautique  : la métaphore d’un bureau physique 17 Ibid. » C’est en partant de l’univers actuel des utilisateurs, à savoir le modèle hiérarchique du bureau, que l’interface du Xerox Star a pu être élaborée. Il était important de donner naissance à une interface «  familière  » afin qu’il y ait le moins de frictions (seamless) dans «  l’expérience utilisateur  ». Ce dernier retrouve ainsi dans la machine son organisation habituelle de gestion et de découpage des tâches. Par exemple, les message papier empilés sur le bureau physique de l’utilisateur employé de bureau deviennent, dans son ordinateur, un pictogramme d’enveloppe indiquant quand un nouvel email est reçu. Il est intéressant de préciser que le modèle métaphorique défini avant le développement effectif du programme modifie de fait les fonctions dudit programme  : le design n’est pas abordé comme un simple habillage. Toujours dans l’exemple des emails, la commande d’envoi (send mail) a ainsi pu être évitée en utilisant le déplacement d’icônes. Un dernier aspect important de l’interface du Star concerne la personnalisation de l’interface, les icônes déplaçables permettant de configurer l’environnement de travail. Si l’on résume les grands principes du Xerox Star, ce qui est ici désigné sous le terme d’«  utilisateur  » est en fait une succession de «  tâches  » orientées vers des objectifs à partir desquelles les designers vont élaborer un «  modèle conceptuel  » servant de base au développement du système informatique et assurant sa cohérence métaphorique. En fournissant un environnement «  familier  » et «  amical  » à l’utilisateur, l’interface développée vise donc à accroître son efficacité en développant des «  synergies humains-machines  ». L’interface «  amicale  » (« friendly ») du Xerox Star montre toutefois ses limites sur certaines fonctions où la métaphore du bureau est inopérante  : «  Une des raisons d’être du [Xerox Star] est que Les objets physiques ne donnent pas assez de pouvoir aux gens [do not provide people with enough power] pour gérer la complexité croissante de «  l’ère de l’information  ». Par exemple, nous pouvons tirer avantage de la capacité des ordinateurs à chercher rapidement en mettant en place une fonction de recherche pour les dossiers de fichiers électroniques, aidant ainsi à résoudre le vieux problème des fichiers perdus 18 Ibid. » La fin de l’article de 1982 se conclut de façon intrigante sur le fait qu’il est difficile de choisir entre plusieurs modèles d’interfaces en s’appuyant sur des critères stabilisés (scientifiques) : «  Le design d’interface est encore un art et non une science 19 Ibid. : «  User-interface design is still an art, not a science. » ». Bien que le texte du Xerox Star plaide au final pour l’établissement de «  processus plus rigoureux  » concernant l’élaboration d’interfaces, une telle assertion ne manquera pas d’intriguer le lecteur contemporain. L’émergence des systèmes d’exploitation «  graphiques  » rationalisés Malgré l’échec commercial du Xerox Star, ces méthodes de design vont connaître un succès qui changera définitivement nos rapports aux machines électroniques. Précurseur des recherches menées au Xerox PARC, la thèse en Informatique (computer science) de Jef Raskin, Quick-Draw Graphic System, publiée en 1967 (soit 6 ans avant le Xerox Alto 20 Au début des années 70, le IBM Usability lab ne se préoccupait que d’ergonomie. The Psychology of Computer Programming fut publié par Gerald Marvin Weinberg en 1971, et les travaux de Stuart K. Card, Allen Newell et Thomas P. Moran ne furent connus du grand public qu’après la parution en 1983 de The Psychology of Human-Computer Interaction.), plaidait pour un environnement informatique où l’interface graphique tiendrait une place prépondérante. Une telle idée n’allait pas du tout de soi à la fin des années 1960  : «  Ma déclaration la plus hérétique […]fut de dire que mon travail était basé sur une «  conception [design] et une mise en œuvre philosophique qui plaçaient la généralisation et l’utilisabilité humaine [human usability] devant la vitesse d’exécution et l’efficacité ». Ceci à une époque où le principal objectif des cours d’informatique était de vous apprendre à faire des programmes plus rapides [to make programs run fast] et utilisant le moins de mémoire possible 21 «  Articles from Jef Raskin about the history of the Macintosh  », 1996, [En ligne], https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/. » Après des contacts avec Xerox concernant le développement de la souris, Jef Raskin fut embauché par Apple en 1978. C’est sous son impulsion et celle de Bill Atkinson 22 Le titre de la thèse de Jef Raskin (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) fut repris par Bill Atkinson pour nommer l’environnement graphique (graphics package) du Macintosh. que Steve Jobs et Steve Wozniak prirent connaissance des recherches menées au Xerox PARC sur les interfaces graphiques. La suite de l’histoire est connue. Alors CEO de Apple Inc., Steve Jobs, âgé de 24 ans, visita en 1979 les locaux de Xerox. Dans un documentaire sorti en 1995, il revient sur le choc que constitua pour lui cet événement  : «  Ils [Xerox] me montrèrent […]trois choses. […]. Une des choses qu’ils me montrèrent fut la programmation orientée objet […]. L’autre chose qu’ils me montrèrent était un système informatique [d’une centaine d’ordinateurs] en réseau […]. Je ne le voyais même pas. J’étais totalement aveuglé par la première chose […], à savoir l’interface graphique utilisateur [the graphical user interface]. Je pensais que c’était la meilleure chose que j’ai jamais vue de toute ma vie. Aujourd’hui, je me souviens que c’était très imparfait. […] Mais, à l’époque], au bout de […]dix minutes, il était évident pour moi que tous les ordinateurs fonctionneraient comme cela un jour. C’était évident 23 Steve Jobs, entretien avec Robert X. Cringely, Triumph of the Nerds: The Rise of Accidental Empires, documentaire, 1996, [En ligne], http://www.pbs.org/nerds » Suite à cette présentation obtenue en échange d’actions de l’entreprise Apple Inc., Steve Jobs lança l’ordinateur personnel Apple Lisa en 1982, qui reprenait du Xerox Star les principes de la souris et de l’interface graphique. D’un prix trop élevé (10   000 $ pour l’époque soit 24   000 $ aujourd’hui), le Lisa fut remplacé par le Macintosh sorti en 1984, bien plus accessible financièrement. Si beaucoup pensent encore que Steve Jobs s’est contenté de «  voler  » les principes clés du Xerox Alto, l’histoire est cependant plus complexe. Les dirigeants de Xerox n’avaient pas pris conscience des conséquences décisives de ce qu’ils avaient découvert, abandonnant leur vision prospective aux équipes de ventes et du marketing qui étaient focalisées sur les photocopieurs, le cœur de la marque, et non sur le nouveau marché des ordinateurs 24 Pour un histoire détaillée de l’entreprise Xerox, voir  : Douglas K. Smith, R. C. Alexander, Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, New York, William Morrow & Co, 1988.. Il a fallu que Bill Atkinson réécrive et améliore quantité de fonctions pour que le Lisa puis le Macintosh puissent bénéficier d’une interface graphique «  supérieure  » (ajout des menus déroulants, ouverture des fenêtres en double-clic, icône corbeille, etc.). Aucune ligne de code ne fut, au sens propre, «  copiée/collée 25 Christoph Dernbach, «  Did Steve Jobs steal everything from Xerox PARC? », Mac History, février 2012, [En ligne], http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc ». Afin de développer l’offre logicielle des machines Apple, Steve Jobs invita Microsoft au début des années 1980 à éditer des programmes pour le Macintosh. Malgré la demande faite par Jobs à Bill Gates (alors CEO de Microsoft) de ne pas utiliser d’interface graphiques pilotable à la souris avant que le Macintosh (1984) ne fut en vente depuis un an, Microsoft surprit tout le monde en annonçant en 1983 le système d’exploitation Windows 1.0  26 windows 1.0 n’était pas encore un système d’exploitation complet, mais plutôt une «  couche graphique  » utilisable par des logiciels tiers., dont la sortie officielle n’aura lieu qu’en 1985. Quand Jobs, furieux, accusa Bill Gates de l’avoir trahi, ce dernier lui répondit qu’ils avaient tous les deux volé «  leur riche voisin Xerox 27 Andy Hertzfeld, «  How the Mac was born, and other tales  », entretien avec Scott Ard, CNET, janvier 2005, [En ligne], http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html ». En 1988, la justice américaine classa sans suite le procès intenté par Apple. Don Norman, les limites de «  l’expérience utilisateur  » Après la sortie de Microsoft windows, les méthodes de conception liées au design d’interface se structurent autour de disciplines scientifiques connexes à ce champ.  En plus des expressions d’«  utilisabilité humaine  » (human usability) et d’«  interface utilisateur  » (user interface), celle d’«  expérience utilisateur  » (souvent abrégée en « UX » pour User eXperience) rencontre alors un succès notable. Cette dernière semble apparaître pour la première fois en 1986  28 Pour une chronologie détaillée de l’histoire de ce terme, voir  : Peter Merholz , «  Whither ‹  User Experience  › », novembre 1998, [En ligne], http://www.peterme.com/index112498.html dans un livre codirigé par Donald Norman (chercheur en sciences cognitives) et intitulé User Centered Design: New Perspectives on Human-Computer Interaction (Design des systèmes centrés utilisateur) 29 Donald A. Norman, Stephen W. Draper (dir.), User Centered Design: New Perspectives on Human-Computer Interaction, San Diego, University of California, Hillsdale, Lawrence Erlbaum Associates, 1986. Après un développement sur l’impossibilité de parvenir à un sens univoque par des images normées (pictogrammes), on trouve cette citation  : «  Un engagement direct se produit lorsqu’un utilisateur fait l’expérience d’une interaction directe [a user experiences direct interaction] avec des objets dans un milieu […]plutôt qu’une communication avec un intermédiaire. Ces interactions s’apparentent à interagir avec des objets du monde physique. […]L’]interface et l’ordinateur deviennent invisibles [the interface and the Computer become invisible]. Bien que nous croyons que ce sentiment d’engagement direct soit d’une importance capitale, nous ne savons […]que peu de choses sur les besoins réels nécessaires à sa production 30 Edwin L. Hutchins, James D. Hollan, Donald A. Norman, «  Direct Manipulation Interfaces  », ibid., p.  114. » L’«  expérience utilisateur  » pourrait ainsi être comprise comme un volonté d’élargir le modèle de conception du Xerox Star à d’autres champs que celui des interfaces écran et des ordinateurs qui pourraient disparaître, devenant «  invisibles  ». Fréquemment mentionné comme étant l’inventeur de cette expression, Don Norman la définissait ainsi en 1998  : « J’ai inventé l’expression [d’expérience utilisateur] parce que je pensais que celles d’interface humaine et d’utilisabilité 31 La notion d’«  utilisabilité », que Don Norman juge insuffisante, était abordée par ses zélateurs Jeff Rubin et Dana Chisnell sous ces termes  : «  Quand un produit ou un service est vraiment utilisable, l’utilisateur peut faire ce qu’il […]veut faire de la façon dont il […]espère pouvoir le faire, sans entrave, hésitation, ou questions. » Source  : Jeff Rubin, Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests [1994], Indianapolis, Wiley, 2008, p.  4. étaient trop restreintes [I thought Human Interface and usability were too narrow]: je voulais couvrir tous les aspects de l’expérience d’une personne [the person’s experience] avec un système, incluant le design industriel, le design graphique, l’interface, l’interaction physique et le mode d’emploi 32 Don Norman, cité dans  : Peter Merholz , «  Whither ‹  User Experience  › », op.  cit » Cet aspect plus large de l’«  expérience utilisateur  » fut ensuite précisé dans la version «  canonique  » formulée par Jakob Nielsen et Don Norman  : «  L’expérience utilisateur  » englobe tous les aspects de l’interaction de l’utilisateur final [«User experience  » encompasses all aspects of the end-user’s interaction] avec l’entreprise, ses services et ses produits. La première exigence pour une expérience utilisateur exemplaire est de répondre aux besoins exacts du client [to meet the exact needs of the customer]. […]Nous devons distinguer l’UX [l’expérience utilisateur] et l’utilisabilité [usability]. La définition de l’utilisabilité indique que c’est une qualité de l’UI [interface utilisateur] couvrant le fait qu’un système soit simple à comprendre, efficace à utiliser, plaisant, etc. [L’expérience utilisateur] est un concept bien plus large 33 Jakob Nielsen, Don Norman, «  The Definition of User Experience  », article non daté, Nielsen Norman Group, [En ligne], http://www.nngroup.com/articles/definition-user-experience. » Le «  design d’expérience  » et la fable de l’informatique «  invisible  » Cet intérêt désormais resserré autour de la personne-utilisateur et non plus de l’appareillage technique (l’interface) est encore plus explicite dans la formule «  design centré utilisateur  » (« UCD » pour user-centered design), qui consiste à fonder l’ensemble de la méthodologie de conception sur le point central qu’est l’utilisateur. Cette méthodologie de conception a rencontré un très grand succès peut-être en raison du lien qu’elle permettait d’établir entre les services marketing chargés d’étudier les consommateurs et les équipes chargées du design des produits. Pourtant, de l’aveu même du zélote Don Norman, le terme «  d’utilisateur  » a montré ses limites. Dans un article paru en 2006 et intitulé «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », Don Norman confessait ainsi  : «  Nous dépersonnalisons les individus que nous étudions en les rebaptisant «  utilisateurs  ». Ces termes sont péjoratifs. Ils nous éloignent de notre mission première  : aider les gens [to help people].[…]Les gens sont des êtres complexes et riches. […]Une étiquette telle que client, consommateur ou utilisateur ignore cette […]structure sociale. […]Il est temps de débarrasser notre vocabulaire de termes tels que consommateur, client et utilisateur. Il est temps de parler à des personnes. Le pouvoir au peuple [Time to speak of people. Power to the people] 34 Don Norman, «  Words Matter. Talk About People: Not Customers, Not Consumers, Not Users  », jnd.org, 2006, [En ligne], http://www.jnd.org/dn.mss/words_matter_talk_a.html. » De même, en 2008  : «  Parmi les horribles mots que nous employons, il y a le mot «  utilisateurs  ». Je pars en croisade pour nous débarrasser de ce terme. Je préfère parler de «  personnes  ». […] Nous concevons des produits pour des personnes, pas pour des utilisateurs 35 «  Don Norman at UX Week 2008, Adaptive Path  », YouTube, [En ligne], https://youtu.be/WgJcUHC3qJ8 » Résumons ces différents points. La méthodologie de conception «  centrée sur l’utilisateur  » consiste à traiter par le design chaque être humain comme un utilisateur, comme une personne vouée à n’entretenir avec les entreprises que des rapports «  centrés  » sur ses «  besoins exacts 36 Jakob Nielsen, Don Norman, «  The Definition of User Experience (UX) », op.  cit », avec lesquels il n’aurait ni «  entrave[s], hésitation[s]ou questions 37 Jeff Rubin, Dana Chisnell, Handbook of Usability Testing, op.  cit ». Ce courant de pensée est issu d’une modélisation scientifique des principes ayant présidé à la conception du Xerox Star afin d’en faire une machine «  personnelle  » optimisant les tâches à accomplir par l’utilisateur. Rétrospectivement, les textes performatifs de Don Norman faisant l’éloge de l’étude des «  besoins  » ont conduit, de l’aveu même de l’auteur, à une impasse, en raison du fait que l’être humain ne peut pas être réduit à un rôle déterminé 38 Cette idée a été inscrite dans les normes ISO, qui proposent de changer l’expression d’«  expérience centrée-utilisateur  » en «  conception centrée sur l’opérateur humain  ». Voir  : «  ISO 9241-210:2010. Ergonomie de l’interaction homme-système. Partie 210  : Conception centrée sur l’opérateur humain pour les systèmes interactifs  », Iso.org, mars 2010, [En ligne], https://www.iso.org/obp/ui/fr/#iso:std:iso:9241:-210:ed-1:v1:fr. Il serait possible de se réjouir d’un tel revirement de pensée. Pourtant, à y regarder de plus prêt, ne faudrait-il pas également interpréter ces injonctions contradictoires comme le signe d’un pouvoir qui n’appartiendrait pas au «  peuple  », mais à ceux tenant ces discours  ? Autrement dit, n’est-ce pas contre ceux qui s’enrichissent continuellement (au sens banal du terme) en maîtrisant la circulation des méthodologies de conception qu’il faudrait «  partir en croisade  » ? Davantage qu’un plaidoyer en faveur d’une complexité à prendre en compte dans la conception, cet «  appel à l’humain  » aura été, pour Don Norman, l’occasion d’éliminer progressivement les «  interfaces  » au nom d’une informatique «  invisible 39 Donald A. Norman, Norman, The Invisible Computer. Cambridge, MIT Press, 1998. » dont les produits seraient «  humainement centrés  » (human-centered) 40 Le chapitre 2 du livre The Invisible Computer a pour titre «  Growing up: Moving from technology-centered to human-centered products  ». Cette prédiction d’invisibilité passant à couvert dans un changement de vocabulaire a priori innocent fut si bien intégrée par les entreprises qu’en 2012 Apple en faisait l’objet d’une publicité : «  Nous pensons que la technologie atteint son summum lorsqu’elle devient invisible, quand vous ne pensez qu’à ce que vous faites et non à l’appareil avec lequel vous le faites. […] L’iPad illustre parfaitement cette idée. C’est une fenêtre magique qui peut devenir tout ce que vous voulez qu’elle soit. […]C’est une expérience de la technologie plus intime que ce que le public [people] a connu jusqu’alors 41 «  Official Apple (New) iPad Trailer  », YouTube, mars 2012, [En ligne], https://youtu.be/RQieoqCLWDo. » La prise de recul de Don Norman ne veut pas dire pour autant que son idée d’informatique «  invisible  » soit viable. Le terme qui importe ici est celui d’«  expérience  », qui va de pair avec celui de «  magie  ». Quoi de plus magique, en effet, que de faire l’expérience d’une technologie «  invisible  » ? Olia Lialina (artiste), dans un article critique consacré à l’étude de la notion d’utilisateur, ne s’en laisse pas compter  : «  C’est pour cela que le design d’interfaces a progressivement été rebaptisé design d’expériences – expression dont l’objectif premier est de faire oublier l’existence des ordinateurs et des interfaces auprès des utilisateurs. Le design d’expériences vous laisse seul avec vos émotions à ressentir, vos objectifs à atteindre et vos tâches à effectuer 42 Olia Lialina, «  L’utilisateur Turing-complet  » [2012], trad. de l’anglais par Jean-François Caro, LGRU Reader, 2013, [En ligne], http://reader.lgru.net/texts/lutilisateur-turing-complet. » Pour un design appareillé En conclusion de son article consistant à étudier les limites d’une exclusion du terme d’utilisateur des méthodes de conception d’interface, Olia Lialina propose de revenir à des fondements antérieurs au Xerox Star, à savoir ceux développés par l’informaticien Ted Nelson dans son ouvrage Computer Lib / Dream Machine de 1974  : «  L’INFORMATIQUE A TOUJOURS ÉTÉ PERSONNELLE [COMPUTING HAS ALWAYS BEING PERSONNAL]. Je veux dire par-là que si vous ne vous y plongiez pas intensément, parfois avec chaque cellule de votre cerveau éveillé, vous n’étiez pas en train de faire de l’informatique, vous n’étiez qu’un simple utilisateur [you weren’t doing computers, you were just a user] 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now, auto-édition, 1974, p.  3. » L’argument est fort. L’utilisation «  naïve  » dénoncée Ted Nelson, précise les risques d’une perte de contact avec l’ordinateur, qui du Xerox Star à l’iPad, présuppose que tout ce qui est «  vrai  » (la vraie vie, la créativité, etc.) serait extérieur à la machine. Pourtant, malgré la montée en puissance des interfaces tactiles (sans souris), malgré l’émergence des interfaces gestuelles (sans boutons), des interfaces sonores (sans écran), et malgré le retour des interfaces [En ligne de commande (sans icônes), force est pourtant de constater que les grands principes des interfaces graphiques élaborées au Xerox PARC au début des années 1970 régissent encore majoritairement nos rapports aux machines électroniques – qui ne sont pas encore,  loin s’en faut, «  invisibles  ». En témoignent, par exemple, les « Apple Human Interface GUI delines 44 Voir pour exemple  : « OS X Human Interface GUI delines  », Apple, [En ligne], https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGUI delines  : «  Designing for Yosemite  : […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience. » » (littéralement  : «  Directives Apple d’interfaces humaines  ») et le « Material Design 45  Google, Material Design, première version publiée en juin 2014, [En ligne], https://www.google.com/design/spec/material-design/introduction.html » de Google qui, dans les années 2010, sont des lectures recommandées – à condition d’être critique – pour quiconque s’intéresse au design d’interface. Cette actualité n’empêche pas que le modèle de pensée d’une interface couplée avec une figure utilisateur idéalisée (prise dans un faisceau d’habitudes) ait ses limites. Depuis le texte de Jef Raskin de 1967 associant «  l’utilisabilité humaine  » à l’efficacité de la résolution de tâches 46 Jef Raskin, A Hardware-Independent Computer, 1967, op.  cit, la volonté de créer une interface graphique pour procurer à l’«  utilisateur  » un nouvel environnement de travail et de nouvelles méthodes pour accomplir «  les mêmes objectifs qu’avant 47 «  Designing the Star user interface », op.  cit » aura consisté à envisager les médias électroniques comme des «  résolveurs de problèmes  » plutôt que comme des puissances de transformation et d’invention. Or, comme le note avec acuité le spécialiste des humanités Yves Citton  : «  L’invention des dispositifs techniques de communication […]s’inscrit dans une vaste nébuleuse d’espoirs, d’angoisses, de rêves, de bricolages, de savoirs parallèles, de détournements et de réappropriations, qui traversent de nombreux champs disciplinaires traditionnels […]. Nos médias ne sauraient en effet se réduire à de simples instruments de transmission de formes et de contenus  : il fonctionnent avant tout comme des médiums qui nous fascinent, nous hallucinent, nous hypnotisent et nous stimulent par l’entremise des simulations qu’ils qu’ils font pénétrer à travers nos sens 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques, Paris, Armand Colin, coll. Le temps des idées, 2012, p.  21-22. » Au regard de ces quelques textes fondateurs du design à l’époque du numérique, il est évident que les machines électroniques posent des questions qui n’existaient pas avant elles. Mais peut-être est-ce précisément contre ces nouveautés que se seront élaborées des méthodologies de conception trop inquiètes de préserver les pouvoirs et savoirs en place. Malgré ses indéniables avancées techniques, le Xerox Star n’aura pas bénéficié du plein soutien des dirigeants de l’entreprise, qui préférèrent développer le commerce des photocopieurs, plus en phase avec les «  usages  » de l’époque. Dans cette histoire de «  design centré utilisateur  », expression postérieure au Xerox Star, il est en effet question d’une inquiétude quant à un oubli de «  l’utile  », de l’utilité de l’objet. Mais est-ce vraiment possible dans un monde où les services marketing, par exemple, cherchent sans cesse à anticiper les «  besoins  » des consommateurs par des procédures statistiques couplées à des protocoles d’observation  ? Un autre aspect allant dans le sens d’un design se construisant contre les nouveautés techniques – c’est-à-dire pour les habitudes – est cette histoire de «  centre  », terme qu’il faut à présent examiner. Ce double suffixe accolé à design aurait pu faire l’objet de variations. Pourquoi ne parle-t-on jamais, par exemple, de design «  centré forme  » par exemple, ou bien de design «  centré pratiques  » ? Peut-être est-ce parce que ces deux notions (il pourrait y en avoir d’autres) résistent à l’idée de «  centre  », de délimitation. Si l’on prend la notion de forme, il est notable que celle-ci, historiquement, aura concerné le design – suivant la formule de l’architecte Louis Sullivan suivant laquelle «  de la forme suit de la fonction 49 Traduction proposée par Pierre-Damien Huyghe de la formule « form ever follows function » de 1886. ». Fin observateur d’une histoire qui, parfois, «  piétine  » (où des enjeux sont tantôt occultés, tantôt redécouverts), le philosophe Pierre-Damien Huyghe note que la notion de forme traduit le «  souci artistique  » du design  : «  Il ne s’agissait pas seulement de mettre au monde des objets fonctionnels qui pouvaient servir. Le souci de faire forme aura été absolument essentiel au design. On pourra noter ici que le latin forma peut, a pu se traduire par «  beauté » 50 Pierre-Damien Huyghe, «  On appelle beaucoup trop de choses «  design  », entretien avec Julie Delem, Naja21, avril 2015, [En ligne], http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design » De façon plus générale, c’est bien le design, dans ce qu’il comprend de capacité à transformer le monde, qui ne saurait «  se centrer  » sur quelque chose. Le design n’a de l’intérêt que s’il est emprunt de tensions, de polarités, de contradictions – soit tout le contraire d’un centre. Olia Lialina, en conclusion de son article, refuse également de se laisser réduire à une étiquette  : «  Nous, utilisateurs généralistes – qui ne sommes ni hackers, ni «  personnes  » –, qui interrogeons, consciemment ou non, notre potentiel et celui de l’ordinateur, sommes les participants ultimes de la symbiose de l’homme et de l’ordinateur 51 Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit » Il faut désormais revenir sur le fait que le modèle conceptuel de l’interface du Xerox Star de 1981 ait été décidé «  avant  » que le matériel (hardware) n’existe, «  deux ans avant d’avoir écrit une seule ligne de code 52 «  Designing the Star user interface », op.  cit ». Rétrospectivement, ce récit peut être compris comme celui d’une rencontre manquée avec l’altérité des machines, puisqu’il y est question, en substance, d’assujettir la technique numérique (hardware et software) à un «  modèle  », c’est-à-dire à quelque chose d’anticipé et de stabilisé. Cette mise à distance progressive de la notion d’«  utilisateur généraliste {53; Olia Lialina, «  L’utilisateur Turing-complet  », op.  cit} » (actif et polyvalent) aura rendue possible les expressions de «  design centré-humain  » puis de «  design d’expérience  », qui incarnent la promesse d’un monde où l’on pourrait «  faire ce que l’on veut  », immédiatement, comme par «  magie  ». Mais de quel «  faire  » parle-t-on quand l’invisibilité devient l’idéal des machines  ? Cette fable de l’invisibilité des nouveautés techniques était en fait déjà en germe aux prémices de l’informatique personnelle. Dans un spot publicitaire de 1979 pour le Xerox Alto censé démontrer la puissance du «  bureau du futur  », un cadre commercial (Bill) arrive au travail et salue ses collègues un café à la main. Quand il arrive à son poste, il allume son ordinateur Alto et s’adresse vocalement à lui  : «  Hello, Fred  ». L’ordinateur lui répond «  Bonjour Bill  ». Après une série de tâches facilement résolues par la machine, vient le dialogue final  : Bill (fatigué) : «  Autre chose  ? » Fred  : Un bouquet de fleurs richement détaillé apparaît à l’écran Bill (troublé) : «  Des fleurs  ? Pourquoi des fleurs  ? » Fred  : «  Votre anniversaire est ce soir. » Bill (attristé) : «  Mon anniversaire. J’avais oublié. » Fred  : « Ça va. Nous ne sommes que des humains [It’s ok. We’re only human] 54 Fumbling the Future. How Xerox invented, then Ignored, the first personal computer, op.  cit, p.  20.» Ce que décrivent de telles initiatives est paradoxalement un monde sans expérience, au sens où l’expérience ne peut avoir lieu qu’au sein d’un champ de possibles ouvert à l’incertitude  : «  La puissance économique est bien ce que la socialisation des expériences met en œuvre. Mais d’un autre côté, si cette mise en œuvre nourrit jour après jour l’expérience et la perception communes, elle n’apparaît pas authentiquement. Le plus souvent même, elle emprunte les formes de l’habitude, elle se glisse mimétiquement dans l’expérience 55 Pierre-Damien Huyghe, «  Faire place  », dans :  Richard Conte, Sandrine Morsillo (dir.), Qu’est-ce que l’art domestique  ?, Paris, Publications de la Sorbonne, coll. Arts et monde contemporain, 2006, p.  29.. » Symptomatique d’une époque où les «  appareils 56 L’appareil est défini par Pierre-Damien Huyghe comme «  une modalité technique distincte de l’outil et de la machine qui fait qu’il y a en lui une puissance de perception, une forme particulière de la sensibilité ». Voir  : Pierre-Damien Huyghe (dir.), L’art au temps des appareils, Paris, L’Harmattan, 2006. » ne sont plus des objets dignes d’intérêt, les relations humains-machines sont de plus en plus marquées (brandées) par les registres de l’utilité, du rendement ou du gain de temps. L’expérience humaine du «  design d’expérience  » se réduit bien souvent à une situation expérimentale, celle d’un rat cherchant sa sortie dans un labyrinthe. Qu’il soit «  amical  » (friendly) voire «  invisible  », ce milieu technique n’en est pas moins un carcan, une situation sous contrôle où tout échange est anticipé et programmé. À force de vouloir nous imiter dans des ordinateur «  humains, trop humains  », c’est nous-mêmes, «  simples personnes  », qui risquons de passer à côté de leurs possibilités complexes et infinies.

Le design des programmes

Date

décembre 2014

Type

Conférence

Contexte

Conférence donnée à l’EESAB Rennes autour de la thèse Le design des programmes

Résumé

La plupart des « guides » à destination des concepteurs de programmes numériques visent à établir des listes de normes ou de « bonnes pratiques ». Ces approches nous paraissent insuffisantes, car elles évacuent d’emblée des considérations philosophiques, politiques et morales. Alors que toutes les activités humaines sont progressivement affectées par des programmes parfois menaçants et étouffants, sous quelles conditions le design peut-il faire que les objets techniques deviennent des « appareils » ouverts sur des perspectives émancipatrices d’inventivité individuelle et collective ?

Recherche et culture libre

Date

mars 2018

Type

Conférence

Contexte

Conférence à l’Esad Amiens dans le cadre du séminaire « On The Shoulders Of Giants » autour des outils libres et de l’open source dirigé par Mark Webster. Communication reprise à la journée d’étude « PrePostPrint » du 4 avril 2018 à l’EnsadLab Paris. Cette conférence a donné lieu à une publication intitulée « Recherche et culture libre : approche critique de la science à un million de dollars », coécrite avec Alexandre Saint-Jevin et mise en ligne en décembre 2018.

Résumé

Le monde de la recherche est protéiforme et peut renvoyer, suivant les acceptions, à des contextes variés. Dans le champ universitaire, la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre. Des chercheurs peuvent ainsi se voir dépossédés de leurs productions à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des matériaux scientifiques sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la circulation des savoirs ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre aux défis actuels ? Que peut-on mettre en œuvre, concrètement, dans les écoles d’art et de design ?

Lev Manovich, software guru

Date

septembre 2014

Type

Publication

Contexte

Anthony Masure, Robin de Mourat, «Lev Manovich, software guru», Strabic.fr, septembre 2014

Résumé

Artiste, programmeur, « historien du présent », « théoricien des nouveaux médias », visionnaire des écrans, Lev Manovich est, avec Matthew Fuller, à l’origine des software studies, groupe de recherche qui étudie les rapports des nouvelles technologies avec l’art et la culture. Prenant de la distance avec un certain nombre de discours technologiques dominants et parfois assourdissants provenant de l’industrie informatique, Manovich confronte les formes numériques de notre quotidien à une perspective culturelle plus large, particulièrement informée par l’histoire de l’art et les sciences humaines.

Design numérique : entre facilité d’utilisation et manipulation

Date

octobre 2021

Type

Conférence

Contexte

Invitation au « Tech+Society Breakfast » (Ethix – Lab for Innovation Ethics + SATW – The Swiss Academy of Engineering Sciences).

Résumé

Nous passons une grande partie de nos journées en utilisant des outils numériques. De Zoom à Zalando aux applications des réseaux sociaux, ces outils sont conçus pour maximiser la facilité d’utilisation tout en maximisant les retours financiers pour leurs concepteurs. À cet effet, des techniques de design sont utilisés pour orienter le comportement des utilisateurs. Quelles conséquences ont ces techniques sur le bien-être des utilisateurs et le fonctionnement de nos sociétés numériques ? Quel standards éthiques devrions-nous adopter dans le design des outils numériques? Et quelle responsabilité portent les designers numériques ?

iPad et mimesis

Date

juin 2010

Type

Publication

Contexte

Anthony Masure, « iPad et mimesis », journée d’étude à propos de László Moholy-Nagy, laboratoire de recherche CREDE, juin 2010

Résumé

Étude et analyse de l’interface de lecture de l’application iBooks sur iPad : comment sortir d’un modèle mimétique pour proposer une expérience de lecture singulière ?

Travailler l’impensable

Date

mai 2013

Type

Publication

Contexte

Anthony Masure, «Travailler l’impensable », préface du recueil d’articles Secousses, Campus Fonderie de l’Image, Bagnolet, mai 2013

Résumé

«  Tout objet produit par l’homme est la matérialisation d’un pensable-possible  : quelque chose à quoi quelqu’un a pensé et qui peut être réalisé. Le pensable-possible se situe au carrefour des évolutions de la pensée […] et du développement technologique quant aux matériaux disponibles, aux procédés de transformation et aux systèmes de prévision et de contrôle. Cette interaction entre le pensable et le possible, qui se traduit dans ce que nous appelons un projet, est loin d’être simple et linéaire. Le pensable n’est pas un champ ouvert qui devrait rentrer dans les limites du possible, la conscience de ces limites étant déjà un élément constitutif de ce qui peut être pensé. D’autre part, ce qui peut être pensé dépasse la simple acceptation des limites connues. L’acte créateur et inventif se traduit notamment par la capacité de déplacer dans un autre système de références certaines données contraignantes, pour produire ainsi quelque chose de nouveau auquel on n’avait pas encore pensé, et qui pouvait donc sembler impensable 1Ezio Manzini, introduction à La Matière de l’Invention (1986), Paris, Centre Georges Pompidou, coll. Inventaire, 1989, p.  14.. » Si le graphisme est la «  manière de représenter le langage par l’écriture 2 Définition de 1875. Citée dans  : Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Robert, 2011. », qu’en est-il de l’écriture de cette discipline  ? Des structures éditoriales comme B42, Ypsilon ou The Shelf Company, des initiatives comme Graphisme en France ou des évènements comme Les Rencontres de Lure témoignent, à l’échelle française, d’un intérêt soutenu pour les enjeux théoriques et techniques du design graphique. Cette «  manie d’écrire 3 Alain Rey, op.  cit. » est-elle pour autant cultivée chez les professionnels de la profession  ? Rien n’est moins sûr. Au-delà de l’inévitable côté «  entre-soi  » des critiques, les contraintes économiques et le temps qui s’y échappe ne favorisent pas l’élargissement des limites de «  ce qui peut être pensé 4 Ezio Manzini, op.  cit. ». Le projet d’un recueil d’articles rédigés par des étudiants en design graphique permet de développer quelques réflexions sur la notion d’école comme lieu de distance critique. Un exercice critique Ce livre est constitué de textes rédigés par des étudiants engagés en première année de «  Mastère Design Graphique  » à La Fonderie de l’Image, une école où le visible est interrogé à chaque strate diplômante. Particularité de cet établissement  : les élèves sont employés «  en alternance  » environ deux semaine sur trois dans des agences de communication (édition, web, vidéo, etc.). Dès lors, il est vain de chercher à imiter des conditions professionnelles. L’exercice critique apparaît comme un contrepoint nécessaire vis-à-vis des réalités des métiers. Emprunté à Catherine de Smet, l’appel «  pour une critique du design graphique 5 Catherine de Smet, Pour une critique du design graphique. Dix-huit essais, Valence, B42, 2012. » vise à prendre conscience de l’importance et de l’urgence d’une pensée de cette discipline aux frontières problématiques. La méthode d’écriture se réinvente à chaque objet d’étude, même si des principes propres à toute recherche peuvent se dégager  : tracer l’histoire des formes, être attentif aux spécificités techniques, comprendre les enjeux commerciaux, articuler des niveaux de discours hétérogènes, construire des liens logiques entre des auteurs d’époques et de disciplines différentes, référencer précisément ses sources, etc. Le style d’écriture, également, peut se designer. Imaginons des articles alternant fictions, analyses historiques, concepts philosophiques, anthropologiques ou psychanalytiques, encarts techniques, entretiens, etc. La critique en design se doit de penser les formes possibles de son expression. L’école comme lieu du commun Ce travail de base sur le langage, la façon dont les projets de design graphique se construisent et se montrent, est essentiel. Dans le langage courant, nous entendons nombre d’expressions qui traduisent, pour peu qu’on les interroge, des réalités problématiques. Il s’agit d’éprouver «  la capacité de déplacer 6 Ezio Manzini, op.  cit. » des formes et des discours installés parmi nous. Comme le souligne Ezio Manzini, le spectre de la pensée est à la fois facteur des données de l’époque et de ce que l’on entreprend pour les dépasser. Travailler le champ du pensable permet de multiplier les possibles. La tâche du designer serait alors de s’affranchir de ses obligations immédiates pour pouvoir «  produire [de] l’impensable  ». Paradoxalement, la retraite de l’économique permettrait de rédimer 7 Du latin redimere : Racheter une faute, s’affranchir d’une obligation. l’activité de projet. L’école peut-elle être l’occasion d’un tel affranchissement  ? Il faut tout d’abord séparer le lieu physique de l’activité de libre pensée (skholê). Cette distinction permet de formuler une échappée à l’administration de nos existences. Libérée des objectifs de rentabilité, l’école, au sens fort, est un temps du recul. Alors que les designers n’investissent que trop rarement les textes relatifs à leurs objets 8 Catherine Geel, «  L’ordre sans qualité. Du décor et de la décoration  », dans  : Fresh Theory, tome 1, Paris, Léo Scheer, 2005, p.  97-113., l’école peut montrer l’exemple afin de combattre, si besoin, les accusations formulées à son encontre – ce supposé éloignement quant à un monde (plus) «  réel  ». Cette inquiétude n’est-elle pas précisément le signe qu’un déplacement a lieu  ? N’est-ce pas le propre de l’école que de produire des situations professionnelles nouvelles, qui ne sont précisément pas celles de l’époque  ? Le travail scolaire se doit d’errer, de questionner, de rater (quel meilleur endroit pour expérimenter l’erreur que l’école  ?). L’injonction à former des êtres immédiatement adaptables ne vise-t-elle pas au fond à nier la possibilité d’un avenir fondamentalement inconnu, au profit d’un devenir prévisible dans tous ses aspects  ? Cet «  impératif utopique 9 Alain Fleischer, L’impératif utopique. Souvenirs d’un pédagogue, Paris, Galaade, coll. Essais, 2012. » se heurte bien entendu à des réalités pratiques. Le texte de Manzini rappelle que le projet, l’activité de projection, se construit à la fois avec et contre les «  systèmes de prévision et de contrôle  ». Pour autant, cette mise à distance ne saurait s’apparenter à un retrait du faire. Comme le rappelle Manzini, «  tout objet produit par l’homme est [une] matérialisation  », entendue au sens physique et mental. Cessons d’opposer la pratique et la théorie  ; la théorie se pratique et une pratique non pensée ne conduit qu’à une «  acceptation des limites [déjà] connues  ». Manifester ces limites, les faire apparaître, c’est déjà faire projet, c’est voir au delà de ce qui est immédiatement possible. Pour ces raisons, il s’agit moins de penser le temps scolaire en terme de «  formation  » que «  d’instruction  », dont l’étymologie latine (struere) «  munir, outiller, équiper, disposer par couches  » indique l’élaboration d’outils permettant une émancipation de conditions initiales. D’autre part, l’école (cette fois pensée comme un principe d’organisation physique et temporel) peut permettre, lorsque les conditions sont réunies, de produire en commun. L’interaction de systèmes de références différents invite à réfléchir dans des cadres qui ne sont pas initialement les siens. Un objet éditorial ouvert Le titre «  Secousses  », choisi et assumé par les étudiants pour les tables-rondes et le recueil, nous semble recouper l’idée de déplacement indiquée précédemment. Ce «  mouvement en avant  », imprimé avec ardeur, invite à bousculer les idées reçues. Espérons qu’une telle énergie saura se retrouver au sein des différentes entrées du livre, préludes à des questionnements qui pourront être développés dans les mémoires de recherche de deuxième année. La division en cinq chapitres  : «  De l’écriture  », «  De l’imprimé », «  Des écrans  », «  De l’espace public  » et «  Du quotidien  » démontre la diversité des objets d’étude. Si le graphisme est affaire d’écriture, les supports d’activation de ces signes sont multiples et complexes  : des signalétiques de métro aux mèmes numériques, des mutations de l’imprimé aux agrégateurs RSS, des tablettes numériques pour enfants aux gifs animés, des transformations des espaces de vente au graphisme «  engagé », des marronniers du graphisme culturel aux emballages de jeux vidéo et pochettes de disque. Le champ ainsi traversé dessine un paysage graphique qui dit quelque chose des préoccupations de l’époque. La rédaction des articles s’est étalée sur six mois, le temps de relire, corriger et réécrire 10 Les articles ont été suivis par Anthony Masure, Adeline Goyet et Perrine Rousselet.. Ces textes ont été pensés dans le contexte d’une journée de tables-rondes autour du graphisme, qui aura lieu le 1 er juin 2013 à la Fonderie de l’Image en présence de quatre invités aux disciplines diverses 11 La première édition des tables-rondes, organisée par les Mastères Design Graphique deuxième année, a réuni le 9 février 2013 Alexandre Saint-Jevin (psychanalyste) Morgane Rébulard (typographe), Julien Priez (typographe) et Annick Lantenois (critique).. Ce moment d’échange est organisé par les étudiants du début à la fin (choix des intervenants, communication, modération, éditorialisation). Le recueil des articles permet ainsi de créer une base consultable par tous avant les discussions. Chacun pourra l’acheter en ligne (impression à la demande 12 Inspiré en cela du livre Questions/Questions, initié par Charlotte Cheetham et Samuel Bonnet en 2011. Site web du projet  : questionsslashquestions.tumblr.com. Ce recueil n’est, à ma connaissance, pas disponible en PDF.) et télécharger librement le PDF (placé sous licence Creative Commons). Une telle démarche peut sembler évidente pour des étudiants en design, au fait des spécificités de circulation des pensées dans les environnements numériques. Pour autant, mis à part certains laboratoires de recherche universitaires, les établissements scolaires français se sont-ils vraiment engagés en faveur d’un partage des travaux à l’intérieur et au-delà de leurs enceintes  ? Il est malheureusement permis d’en douter. Mais pour actualiser les pratiques, nous dit Annick Lantenois, encore «  faut-il que chaque acteur du design graphique accepte de sortir de son statut et de ses certitudes  : s’aventurer dans l’inconnu 13 Annick Lantenois, Le vertige du funambule. Le design graphique, entre économie et morale, Paris, B42, 2010, 4 e de couverture. ».

La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires

Date

septembre 2017

Type

Publication

Contexte

Irène Dunyach, Anthony Masure, Saul Pandelakis, «La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse - Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017

Résumé

Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Les événements scientifiques qui réunissent des chercheur/se/s et des praticien/ne/s, notamment au sein des universités, donnent lieu à un grand nombre de publications: actes de journées d’études, actes de colloques, anthologies, revues retraçant des séminaires, mais aussi affiches, plaquettes, sites Web, etc. Les temporalités qui relient les différentes étapes de la vie d’un projet de recherche se retrouvent donc étirées par le temps, variable, qui sépare un événement de sa mise en livre ou en revue, et qui se compte habituellement en années. Ces délais sont en grande partie dus à des protocoles éditoriaux fastidieux: comités de sélection, comités de relecture, partenariats avec des éditeur/trice/s dont les calendriers sont prévus longtemps à l’avance, impression et fabrication auprès d’imprimeur/se/s partenaires, pour finalement atteindre la diffusion, sans parler de la communication des productions. Pour autant, ces processus sont aussi majoritairement perçus, dans le monde de la recherche, comme des choix méthodologiques garants de la rigueur scientifique indispensable à un travail de qualité universitaire. Cependant, les chercheur/se/s admettent souvent souffrir des durées élastiques de conception marquées par les nombreuses étapes de relectures, réécritures, lissages, validations, et lourdeurs administratives que des protocoles fragmentés entraînent inévitablement. Ces écarts temporels entre l’expérience et sa retranscription, qui peuvent facilement dépasser deux années, génèrent des décrochages, voire des désengagements de la part des auteur/e/s et du lectorat, sans parler de l’obsolescence qui atténue parfois la qualité d’un ouvrage qui, paraissant bien trop longtemps après l’événement dont il est issu, ne prend pas en compte les avancées récentes du domaine dans lequel il s’inscrit. Cela est particulièrement le cas dans la recherche en design, champ où les avancées techniques et technologiques se succèdent, et où les usages ne cessent de se transformer: un ouvrage scientifique perd de sa valeur à mesure que se creuse le gouffre qui éloigne son point de départ à sa diffusion éditoriale. Le sentiment le plus cruel de cet écart se mesure souvent dans le temps de l’enseignement, lorsque l’enseignant/e-chercheur/se souhaite partager ses recherches les plus actuelles avec ses étudiant/e/s et doit souvent (parfois en hésitant) communiquer l’article à paraître, qui devient du coup référencé dans un mémoire qui sera, lui, rapidement rendu disponible. Les durées propres à la publication universitaire existent donc à plusieurs niveaux, en asynchronie avec les pratiques pédagogiques qui sont l’horizon du texte de recherche. Dès lors, comment répondre à ces enjeux, et quelles tactiques adopter? À partir de l’étude d’un cas concret, la publication imprimée et numérique des actes de la journée d’études «  CinéDesign, pour une convergence disciplinaire du cinéma et du design 1 Voir la publication de l’événement en ligne  : cinema-design.fr et univ-tlse2.fr» qui s’est tenue à l’Université Toulouse – Jean Jaurès les 6 et 7 octobre 2016, cette contribution se propose d’esquisser de nouvelles façons d’envisager l’édition scientifique. Faisant écho à des réflexions sur les pratiques éditoriales «  marginales» qui traversent simultanément nos recherches (Irène Dunyach, Anthony Masure et Saul Pandelakis), les actes CinéDesign ont été pensés comme l’expérimentation d’une approche décalée du processus de publication scientifique traditionnel. Nous qualifions ici cette démarche de publication «  buissonnière», dans le sens où notre ouvrage, parce qu’il s’affranchit des processus habituels, c’est-à-dire anonymes de la revue par les pairs (souvent connue dans sa traduction anglaise de peer review) s’affirme comme une réponse délibérément «  indisciplinée». Il ne s’agit pas cependant de rejeter toute méthodologie universitaire — celle-ci reste le fondement de nos formations et de nos activités de recherche. Pour autant, face au rythme interne d’un projet de recherche dont l’échelle temporelle est plutôt le mois que l’année, nous avons décidé d’enjamber quelques règles choisies, avec la pleine conscience que ces libertés nous demanderaient par ailleurs une plus grande rigueur, ainsi qu’un plus grand engagement personnel. Il apparaît que des formes plus fluides et plus légères de protocoles éditoriaux sont à tester, inventer et démocratiser. En ce sens, et pour cette publication, nous avons cherché à tirer avantage des outils numériques en ligne: les étapes de relectures, d’écritures des textes introductifs et conclusifs, et les discussions qui accompagnent ces étapes se sont déployées sur des documents partagés, où les différent/e/s organisateur/trice/s pouvaient commenter, transformer et modifier les textes simultanément. Cette dynamique collaborative a également été mise en avant pour les phases de relectures: nous avons décidé de ne pas constituer de comité scientifique, mais de demander à la place aux différent/e/s participant/e/s locaux/ales de la journée d’études et de la publication de se relire entre eux/elles, dans une gymnastique croisée. Ainsi, les auteur/e/s ont relu leurs collègues, qui les ont relu/e/s en retour. En plus de permettre l’émulation d’une pensée interne et de créer de nouveaux croisements entre les réflexions grâce aux dialogues qui ont émergé de cette mécanique transversale (suggestions de références, de compléments et de précisions directement issus des autres contributions), ce dispositif a permis une remise à plat des différent/e/s participant/e/s, sans qu’une hiérarchie ne se constitue et ne devienne écrasante. Au contraire, ceci a favorisé la prise d’initiative de la part des auteur/e/s, qui ont été parties prenantes dans le processus éditorial. Cette démarche nous semble participer d’un positionnement mobile et mouvant face à la recherche en design, positionnement qui tend à favoriser les échanges et à mettre en retrait les différences dans les statuts des différent/e/s participant/e/s pour se consacrer aux convergences de leurs pensées — comme cela a été mis en avant dans la mise en forme du programme de la journée d’études CinéDesign, où seuls les noms des structures de rattachement accompagnaient ceux des communicant/e/s. Cela se traduit également par une volonté d’intégrer autant que possible des designers et des cinéastes aux futurs événements de CinéDesign, pour encourager les entrelacements entre la théorie, la pratique, et l’analyse de cette pratique. La méthodologie adoptée pour la publication des actes a été la suivante: • Les chapitres des contributeur/trice/s, dès réception par mail en février 2017, ont été versés sur une plateforme de stockage de fichiers synchronisée, Google Docs. Le choix d’une solution propriétaire nous a donné des regrets, mais les temps compressés de publication nous ont incité/e/s à utiliser les outils sur lesquels nous sommes les plus agiles. L’ergonomie des logiciels libres, et plus largement l’attention portée à leur design, fait (malheureusement) encore débat dans les relations entre designers et développeur/se/s (Dubedout, 2017), ce qui ralentit indirectement le développement de programmes pleinement «  travaillables» spécifiques au champ de la recherche scientifique 2 Citons comme exemple d’exception le programme Peritext développé par Robin de Mourat  : https://github.com/peritext. • Les chapitres ont tous été relus par au moins deux contributeur/trice/s durant le mois d’avril 2017. Le panel se composait des personnes organisatrices du projet (Irène Dunyach, Saul Pandelakis) et des membres fondateurs du groupe (les sus-cité*es, Mélanie Boissonneau, Anthony Masure), ainsi que d’enseignant/e/s en design de l’Université Toulouse – Jean Jaurès ayant rejoint le projet lors de la journée d’études (Fabienne Denoual, Brice Genre). à l’exception de Mélanie Boissonneau, toutes les personnes mentionnées sont amenées à se voir physiquement sur leur lieu de travail (le campus de l’université, situé au Mirail), ce qui constitue un atout majeur pour la coordination. Une grande partie du travail a cependant été effectuée de manière «  dématérialisée», ce qui correspond aux emplois du temps asynchrones et aux sollicitations diverses des un/e/s et des autres à l’extérieur de l’université. • Suite à la première relecture, les articles ont été renvoyés aux contributeur/trice/s en mai et juin 2016 pour qu’ils/elles valident les corrections effectuées et qu’ils/elles reprennent le propos de manière plus approfondie quand nécessaire. • Irène Dunyach, Anthony Masure et Saul Pandelakis ont ensuite relu l’ensemble des articles et ont effectué de concert les dernières corrections nécessaires. • La maquette de l’ouvrage a été réalisée par Irène Dunyach et Saul Pandelakis en juin-juillet 2017   en partant de contraintes économiques strictes. Il était prévu de financer la publication des actes CinéDesign grâce à une bourse iDex 3 Ladite bourse a été obtenue par Saul Pandelakis lors de son recrutement en 2015   en tant que maître de conférences. Ce dispositif, dit des nouveaux entrants, lui a permis de bénéficier de 14   000 euros pour financer ses recherches et un ¾ temps en 2015-16., comme cela avait été le cas pour la journée d’études. Le système des achats piloté par l’université nous a cependant contraint/e/s à renoncer à cette solution, la bourse devant être dépensée avant une date butoir (le 15 juin 2017). Ajouter Blurb.fr à la liste des partenaires commerciaux de l’université aurait pris trop de temps et aurait signifié la perte du reliquat de la bourse. Saul Pandelakis a ainsi jugé que l’obtention de la bourse en 2015 constituait une compensation satisfaisante, lui ayant permis de nombreuses économies sur les années universitaires 2015-16 et 2016-17. El a pour ces raisons décidé de financer l’ouvrage sur fonds propres. Dans ce contexte, nous avons opté pour un folio noir & blanc, autopublié sur Blurb.fr, ce qui induit un choix de format et de papier spécifique à cette plateforme. Blurb propose des services dont la qualité, le coût et le délai de fabrication sont en accord avec nos exigences, et offre par ailleurs la possibilité d’une impression à la demande (vente en ligne automatisée, ce qui permet d’une part de faire face à un éventuel épuisement du premier tirage, et de permettre à des personnes extérieures à l’événement de commander facilement l’ouvrage, sans gestion de la part de l’université). Par ailleurs, Anthony Masure avait déjà expérimenté ce service dans le cadre du Master Design graphique du Campus de la Fonderie de l’Image (Bagnolet), pour rendre disponibles des articles de recherche d’étudiant/e/s (Masure, 2013). • Sur le plan graphique, toujours pour des questions d’efficacité, la mise en page a été réalisée sur le logiciel propriétaire Adobe InDesign, dédié à la conception de médias imprimés. Ces dispositifs nous ont permis de jouir d’une totale autonomie sur la question des choix graphiques, tout en réduisant considérablement les délais évoqués plus haut: la journée d’études s’est tenue au mois d’octobre 2016 et ces actes ont été achevés en août 2017, soit dix mois plus tard. Les derniers points, relatifs au processus de conception, font résonner la place du design dans le contexte éditorial de la publication scientifique. En effet, un grand nombre d’ouvrages et de revues semblent révéler un intérêt «  limité» pour la mise en forme, et plus largement pour le design graphique: on constate bien souvent une uniformité et, par conséquent, une pauvreté au niveau des langages visuels déployés. Cette situation peut s’expliquer par les partenariats exclusifs qui sont établis entre les universités et leurs maisons d’édition rattachées, qui très souvent sous-traitent les mises en page et proposent des couvertures réalisées sur un même modèle très sommaire: une image, un bloc de couleur, un titre, un logo — la relation entre les éléments étant le plus souvent fortuite et peu maîtrisée. Les questionnements liés aux choix typographiques, aux marges, aux grilles éditoriales et aux vocabulaires visuels ne sont que rarement pris en compte, et les «  styles» se répètent d’un ouvrage à l’autre dans une ressemblance monotone. Les dispositifs éditoriaux qui régissent les publications scientifiques ne se font pas le reflet des dynamiques de recherche, et nous semblent façonner une image parfois défraîchie de la recherche à l’université — et ce d’autant plus quand les publications se réclament des champs de l’art et du design, directement en prise avec la notion de forme. Ceci fait écho à l’article d’Émeline Brulé et Anthony Masure (2015) à propos du design de l’« objet thèse» qui clôt une recherche de doctorat, et qui est donc le premier objet graphique que tout/e chercheur/se réalise au début de sa carrière. Comme les deux auteur/e/s le soulignent, cet «  objet thèse» reste encore enfermé dans des contraintes formelles qui empêchent toute liberté créative, ce qui semble dénaturer, voire parasiter, le propos d’une recherche en art ou en design. La thèse marquerait donc la première étape d’un processus de normalisation du langage visuel des supports éditoriaux de la recherche, qui devraient pourtant être les émissaires graphiques d’une pensée dynamique et innovante. Car le milieu de la recherche tend à valoriser une énergie sans cesse renouvelée qui nourrit les pensées et propulse les avancées, autant théoriques que pratiques. Des exceptions allant dans ce sens existent: citons notamment la maison d’édition Zones Sensibles 4 Voir aussi les démarches, malheureusement isolées, des éditions B42, Nouveau Document, B2, ou encore de la revue Carnets de Science du CNRS. pour qui « si, d’après certains pleureurs, les livres de sciences humaines ne se vendent plus, c’est moins […] parce que le lectorat manque qu’en raison de la pauvreté graphique de la plupart des livres» (Baratin, 2017). Le design graphique ne se résume pas ici à une question d’embellissement, mais doit se comprendre comme un travail du rapport entre le sens et la forme, ou encore, comme le définit Annick Lantenois, comme «[…] l’un des instruments de l’organisation des conditions du lisible et du visible […]. Traiter visuellement les informations, les savoirs et les fictions, c’est donc concevoir graphiquement leur organisation, leur hiérarchie, c’est concevoir une syntaxe scripto-visuelle dont les partis pris graphiques orientent les regards, les lectures» (Lantenois, 2010, 11). Cette attention portée au regard, à la lisibilité, à la hiérarchie de l’information, aux rapport texte/image, à la fabrication de l’objet, etc. participe pleinement, selon nous, d’un travail devant faire l’objet d’une réflexion spécifique – et ce d’autant plus lorsque la publication a vocation à aborder des enjeux liés au design. Nous préconisons ainsi aux chercheur/se/s, aux éditeur/trice/s et aux directeur/trice/s de laboratoires de se saisir de ces enjeux et de les discuter avec des designers graphiques 5 Notons que le Centre national des arts plastiques (Cnap) organisera fin 2017 un «  salon graphique  » (journée d’échanges professionnels) intitulé «  Publier la recherche  », afin de sensibiliser les commanditaires et designers graphiques à ces enjeux., pour qui le champ des publications de la recherche reste encore majoritairement une terra incognita. De plus, la pauvreté visuelle des publications universitaires n’est pas seulement graphique mais aussi bien souvent iconographique. Les auteur/e/s de ce texte ont eu l’occasion de publier dans des revues où la sélection d’images était excellente, mais cela était le plus souvent permis par l’adossement du projet à un éditeur de poids, possédant les moyens humains et financiers de négocier les droits ad hoc. Les publications plus modestes doivent la plupart du temps se contenter d’images de piètre qualité, voire renoncer tout simplement à inclure des visuels — ce qui, autant en design qu’en cinéma est très problématique. En effet, comme le note André Gunthert, contrairement aux textes, « la restriction de citation [des matériaux audiovisuels est] cause de censure. Les contraintes définies pour éviter de porter préjudice aux industries culturelles ont des conséquences particulièrement graves en matière scientifique. Outre l’alourdissement des budgets de la recherche spécialisée, elles interdisent un exercice indépendant de la réflexion et de la critique» (Gunthert, 2013). Pour contourner cette question des droits, nous avons puisé dans notre réservoir de compétences. Irène Dunyach et Saul Pandelakis pratiquant l’illustration en plus du design graphique, il a été décidé de dessiner les images de projets et photogrammes de films 6 Des cas précédents existent, comme par exemple l’ouvrage de culture visuelle L’homme et ses signes de André Frutiger (1978), où toute l’iconographie a été conçue par l’auteur.. Ce choix a desserré nos obligations légales, tout en renforçant notre prise sur l’identité visuelle de la publication finale. L’exercice du re-dessin s’inscrit par ailleurs tout à fait dans une approche de recherche, puisqu’elle croise la pratique de la captation graphique (lors d’événements universitaires) pratiquée par Saul Pandelakis depuis environ deux ans. Bien que la publication n’ait pas été réalisée grâce à des logiciels libres, les auteur/e/s souhaitent s’inscrire autant que possible dans la logique du libre et sa philosophie. Les textes sont ainsi placés sous licence libre Creative Commons CC BY-SA 7 Cette licence autorise à «  partager  » (copier, distribuer et communiquer le matériel par tous moyens et sous tous formats) et à «  adapter  » (remixer, transformer et créer à partir du matériel) le contenu pour toute utilisation, y compris commerciale, à condition de «  créditer» la source et de la «  redistribuer  » sous les mêmes conditions. afin de favoriser le partage des connaissances. La question des licences d’utilisation des polices a également fait l’objet d’une attention spécifique, spécialement dans le cadre de publications (potentiellement) multisupports, tant les modalités contractuelles sont diverses et difficile à comprendre (Adebiaye, 2017): le choix de polices de caractères libres de droits (SIL Open Font License), dans un projet au budget réduit, est alors une évidence. Les polices utilisées dans les actes CinéDesign, référencées dans l’ours, sont Lil Grotesk (Bastien Sozeau), Lora (Olga Karpushina & Alexei Vanyashin) et Logisoso (Mathieu Gabiot). Les chapitres seront rendus disponibles, à terme, sur le site Web du projet cinema-design.fr) afin d’augmenter leur visibilité. Bien que les directeur/trice/s de publication des actes CinéDesign aient toujours souhaité que ceux-ci existent sous une forme imprimée, ce choix n’a jamais été fait à l’encontre, ou par opposition à une possible publication numérique. Une fois l’imprimé réalisé s’ouvrira un temps de conversion des textes pour une lecture sur écran et sur le Web. L’aspect multi-supports est donc réel, même si à l’heure où ces lignes sont écrites, la publication existe d’abord, en théorie, comme un objet papier. L’éthique du libre affecte également ces méthodologies. Il est notre souhait de voir d’autres chercheur/se/s s’emparer de cette première expérimentation, pour en tester les limites et en éprouver les contours. D’autres approches restent bien sûr à découvrir, l’idée générale étant de voir se raréfier les expressions de surprise (certes joyeuses) du/de la chercheur/se qui se rappelle d’un texte cinq ans après son écriture, en raison d’une publication qu’il/elle n’espérait plus. Considérant les conditions de ce «  sprint» éditorial, il apparaîtra sans nulle doute des coquilles, erreurs, imprécisions. Nous les assumons et souhaitons que cette publication, plutôt que de couronner notre journée d’études, en soit le témoignage instantané, vivant, et serve de laboratoire d’expérimentation à nos projets futurs — tel le colloque CinéDesign à venir en 2018, qui ne manquera pas de s’appuyer sur cette publication. Nous ne sommes pas tant un comité de lecture qu’un commité, au sens du « commit» proposé par le protocole technique contributif Git, c’est-à-dire d’un choix qui ne se fait jamais sans la validation des pair/e/s, immédiate, agile, dans un temps partagé. Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017

Overall Technology

Date

mars 2019

Type

Publication

Contexte

« Overall Technology  », introduction de section coécrite avec Océane Ragoucy, dans : Catherine Geel, Clément Gaillard (dir.), Extended French Theory & The Design Field… On Nature and Ecology: A Reader, Paris, T&P Work UNiT

Résumé

English version here. Ouvrage publié à l’occasion de réflexions menées dans le cadre de la Section française, De la pensée au visible. Design as large ring, XXIIe Triennale de Milan, Broken Nature, du 1 er mars au 1 er septembre 2019. Dans la pensée commune, l’écologie, comprise comme gestion de ressources naturelles, s’oppose de fait à la technique  : la logique moderniste aurait poussé le progrès technique jusqu’à un point d’achoppement où ce dernier s’effondrerait sous la finitude de sa croissance. La technique comme savoir-faire ou capacité à modifier son environnement est ici comprise dans son acception contemporaine de «  technologie » : une suite d’énoncés techniques (logos) incarnés dans des artefacts consommables. Or les textes qui suivent montrent que l’écologie est multiple, tout comme devrait l’être «  la  » technique. Cette pluralité des cadres de vie, préoccupation au cœur des champs de l’art et du design, recoupe les textes incisifs du philosophe Félix Guattari. Sa notion d’« écosophie  » (d’écologie globale) invite ainsi à ne pas penser l’écologie séparément de l’esthétique  : «  Mettre au jour d’autres mondes que ceux de la pure information abstraite, engendrer des Univers de référence et des Territoires existentiels où la singularité et la finitude soient prises en compte […] et affronter le face-à-face vertigineux avec le Cosmos pour le soumettre à une vie possible, telles sont les voies enchevêtrées de la triple vision écologique [des environnements, des rapports sociaux, et des subjectivités] 1 Félix Guattari, Les trois écologies, (Paris, Galilée, 1989), 70. »  Y voir plus clair dans les relations entre écologie et technique implique aujourd’hui de considérer des textes écrits à partir des années 1970 dans le contexte de la Guerre froide et du développement effectif de l’informatique dite «  personnelle  ». La philosophie des techniques, déjà riche d’une longue histoire, est alors en plein essor à l’échelle internationale depuis une quarantaine d’années. Parce qu’il est articulé aux enjeux esthétiques et écologiques, ce champ trouve en France des relais singuliers que cette sélection de textes se propose d’explorer. Un domaine, l’archéologie des médias, en faisant s’entrechoquer des couches techniques hétérogènes, qu’elles soient historiques, matérielles ou logicielles offre un puissant contre-feu aux promesses d’efficacité – parfois effrayantes – de ces techniques numériques. Précurseur de ce champ, le philosophe nomade Vilém Flusser, dans son essai Vampyroteuthis infernalis 2 Vilém Flusser, Vampyroteuthis infernalis [1981-1987], trans. C. Lucchese, (Bruxelles: Zones sensibles, 2015). dessine un bestiaire dérivé des calmars et des pieuvres révélant en creux les impensés de la prolifération des machines d’information électroniques. Avec différentes approches, les philosophes de la French Theory et leurs héritiers contemporains (Bernard Stiegler, Pierre-Damien Huyghe, Isabelle Stengers, Bruno Latour, Madeleine Akrich, etc.) auront affronté de façon aiguë les profondes conséquences des mutations technologiques. Traversés par l’idée de penser la technique au-delà des acteurs humains et/ou de son assignation à un principe d’efficacité, ces auteurs – bien qu’ils ne se réclament pas forcément de cette notion – interrogent et élargissent une compréhension trop limitée de l’écologie. Alors qu’ils ne sont pas (tous) contemporains de la massification des usages des technologies numériques, le fait que ces écrits soient encore largement étudiés témoigne d’un fait évident  : pour faire de la recherche, les notions de nouveauté et de progrès sont parfois inopérantes. Dans This Progress, une performance participative (Palais de Tokyo, Paris, 2016) 3 This Progress ( Solomon R. Guggenheim Museum, New York, 2006) est rejouée au Palais de Tokyo, (Paris, 12 octobre 2016 – 18 décembre 2016) : «  Carte blanche à Tino Sehgal  », commissariat Rebecca Lamarche-Vadel., l’artiste germano-britannique Tino Sehgal met en branle la notion de progrès en activant ses dimensions  : personnelles, partagées et transgénérationnelles. Un témoignage de visite relate cette surprenante expérience basée sur la voix humaine, le mouvement corporel et l’interaction sociale  : «  En s’avançant seul dans un grand espace libre, un enfant d’une douzaine d’années s’approche de nous en nous demande soudain ‹  qu’est-ce que le progrès  ? ›. Rappelons quelques éléments de cadrage historique  : l’émergence de l’informatique grand public s’est majoritairement basée sur une compréhension cognitiviste du modèle cybernétique 4 Pour une compréhension plus large de la cybernétique, voir  : Norbert Wiener, Cybernétique et société. L’usage humain des êtres humains [1954], trans. P.-Y. Mistoulon, (Paris: Point, 2014).. Ce paradigme de conception, qui imprègne encore largement les interfaces des «  dispositifs 5 Giorgio Agamben, Qu’est-ce qu’un dispositif  ? [2006], trans. M. Rueff, (Paris: Payot & Rivages, 2007). » numériques que nous utilisons tous les jours, s’est développé économiquement de façon dissimulée – recouvert par des vagues d’objets au renouvellement accéléré et installés parmi nous sans négociation ou réflexion citoyenne en amont. Autrement dit  : nous manquons de recul pour comprendre ce que les médias numériques nous font, font avec nous, ou font contre nous. Le collectif d’artistes RYBN met à mal l’idée de progrès ou de neutralité technologique. En hybridant la rationalité informatique avec des modes de pensée basés sur la mythologie ou la croyance, les formes ésotériques de leurs travaux trahissent le caractère «  hanté » des machines électroniques. Leur projet Data Ghost 6 RYBN, Data Ghost 1, installation présentée à l’exposition “Media Mediums”, commissariat Jeff Guess et Gwenola Wagon, Paris, Ygrec, ( 4 avril-31 mai 2014) (galerie Ygrec, Paris, 2014) scanne inlassablement les bruits de fond des flux de données numériques pour y détecter des messages «  fantômes  ». Internet devient alors la chambre d’écho de spectres rétro-inter-actifs. À 30 ans d’écart avec les écrits de Félix Guattari, ces réflexions sur la désubjectivation des individus résonnent avec les dispositifs invisibles (car encodés) qui s’infiltrent dans la plupart des activités humaines. C’est ce que le chercheur Evgeny Morozov appelle «  réglementation algorithmique  » 7 Evgeny Morozov. «  La prise de pouvoir des données et la mort de la politique  ». Trans. P. Jorion, août 2014. https://www.pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique-par-evgeny-morozov/, à savoir une forme pernicieuse de contrôle social opérée par des agents non-humains. Au tournant des années 2010, force est de constater que les filets des toiles d’information n’ont pas créé de «  village global 8 in Marshall McLuhan, Quentin Flore, The Medium is the Massage. Inventory of the Effects (New York  : Bentam books, 1967).». La puissance d’un «  capitalisme des plateformes 9 Nick Srnicek, Capitalisme de plateforme. L’hégémonie de l’économie numérique [2016], trans. P. Blouin, (Montréal: Lux, 2018). » – celle des GAFAM et des BATX – menace plus que jamais la capacité des citoyens à inventer leurs modes d’existence. Captant de la valeur à partir de prises sur les «  données  », les dispositifs numériques sont également de formidables machines à polluer les esprits pour peu que l’on navigue sans filtre. Face à cette partition entre une technologie invasive et la capacité du corps social à organiser ses conditions d’existence, l’écologie prend ici une dimension psychique. La technique étant de fait constitutive de l’humanité, il ne s’agit pas pour autant de revenir à un âge d’or qui n’a en fait jamais existé. En ce sens, le designer Ezio Manzini plaide pour une « écologie de l’environnement artificiel 10 Ezio Manzini, Artefacts. Vers une écologie de l’environnement artificiel [1990], trans. Adriana Pilia, (Paris: Centre Georges Pompidou, CCI, 1991). » – une «  seconde nature  » formée par le tissu technique qui reste largement à inventer. Dès le début des années 1990, ce dernier nous avertissait du risque que le trop-plein d’informations se transforme en «  bruit » : «  Nous vivons au milieu d’une masse croissante de ‹  déchets sémiotiques  ›, autrement dit de messages, de textes et de codes usagés dont nous ne pouvons nous défaire. […] En proliférant de façon incontrôlée, la plus grande variété de formes, de couleurs et de textures peut déboucher sur le plus gris des mondes 11 Ezio Manzini, Artefacts. Vers une écologie de l’environnement artificiel [1990], trans. Adriana Pilia, (Paris: Centre Georges Pompidou, CCI, 1991), 36-37. » À rebours du «  déficit attentionnel  » qu’auraient engendré les boucles de rétroaction comportementales des «  services  » numériques dominants – à savoir l’exploitation économique des comportements, des affects et des désirs –, le chercheur Yves Citton invite ainsi à penser les conditions d’une « écologie de l’attention 12 Yves Citton, Pour une écologie de l’attention, (Paris: Seuil, 2014). » allant de pair avec une réorientation des politiques médiatiques. Le philosophe des techniques Gilbert Simondon notait à la fin des années 1950, pour désigner cette perte d’intelligibilité, que c’est alors «  l’essentiel qui manque, le centre actif de l’opération technique qui reste voilé 13 Gilbert Simondon, Du mode d’existence des objets techniques [1958], (Paris: Aubier, 2012).». Les poussées techniques n’auront eu de cesse d’accentuer cette opacité et de démultiplier les «  boîtes noires  ». Qui, aujourd’hui, comprend vraiment, par exemple, comment fonctionnent les protocoles blockchain ou les codes auto-évolutifs du deep learning ? Dans la vidéo Rare Earthenware (exposée au ZKM à Karlsruhe dans l’exposition Reset Modernity!, (dirigée en 2016 par le sociologue et philosophe Bruno Latour), le studio de design Unknown Field Divisions a documenté la trajectoire de métaux rares nécessaires à la construction de trois objets de télécommunication  : un téléphone portable, un ordinateur portable ultrafin et une puce de batterie de voiture «  intelligente  ». La quantité de déchets toxiques nécessaires à leur production a ensuite été assemblée sous la forme de vases traditionnels Ming. Inséparables de la conception de nombre d’objets technologiques, les «  guerres civiles  » voilent les opérations de minage délétères sur un plan environnemental et humain et rendent invisibles les approvisionnements. Dès lors, l’enjeu d’une écologie des techniques numériques, d’un point de vue psychique, serait aussi d’interroger la prétention des technologies à «  solutionner 14 Evgeny Morozov, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique [2013], trans. M-C. Braud, (Limoges: Fyp, 2014). » tous les problèmes du monde. Non seulement les technologies numériques ne font pas toujours gagner du temps, mais elles font proliférer de nouveaux problèmes. Afin que le numérique puisse profiter au plus grand nombre et pas seulement à une poignée d’investisseurs, il faut prendre de la distance avec l’idée que les problèmes liés aux technologies puissent simplement se résoudre avec davantage de technologie. Nous sommes bien face à deux premières questions écologiques graves  : environnementale et humaine. Une troisième surgit, à l’autre extrémité de la chaîne, qui concerne l’utilisateur, à savoir – au sens large – une disjonction entre un «  milieu technique 15 André Leroi-Gourhan, Évolution et techniques. Milieu et techniques, (Paris: Albin Michel, 1973). » et les «  acteurs 16 La théorie de l’acteur réseau (AnT) a été développée dans les années 1990 par les chercheurs Bruno Latour, Madeleine Akrich ou Michel Callon. » qui y évoluent. Traiter les personnes comme des «  utilisateurs  » revient à introduire une dissymétrie entre les concepteurs (des objets, des programmes numériques, etc.) et celles et ceux qui ne peuvent que les utiliser. On entrouvre alors, via l’écologie, d’autres dimensions que la réduction de la technique à son assignation technologique et numérique  : l’imagination, la spiritualité, la mémoire, etc. Dans le contexte français, par exemple, une généalogie intéressante à étudier parcourt les travaux du paléontologue André Leroi-Gourhan du philosophe des techniques Gilbert Simondon, et des travaux du philosophe Bernard Stiegler autour des mutations numériques. Pour Leroi-Gourhan, la notion d’outil prend un tour quasi biologique. L’outil est ce par quoi l’être vivant accède à l’existence en développant le geste et la parole. Le rapport au milieu est toujours une dynamique, et jamais un acquis que l’on pourrait stabiliser  : l’existence humaine est un détachement progressif et continu de ses conditions initiales. Simondon aborde les objets techniques comme des «  lignées  » pouvant s’apparenter à des configurations et reconfigurations organiques. Ses écrits plus tardifs sur l’imagination et l’invention dans les techniques prennent une direction quasi spirituelle. Le sujet serait à comprendre dans une évolution constante. Plus précisément, l’individuel est pensé à partir d’un «  pré-individuel  » tendant vers un «  transindividuel  ». Ces réflexions sur «  l’individuation  » et la technique seront largement reprises par Bernard Stiegler, qui les replace dans une époque où l’alliage du néolibéralisme et du marketing (via les sciences comportementales) démultiplie le risque d’assujettissement de l’être humain. Pour Stiegler, l’écologie est à comprendre comme la relation des êtres vivants à leurs milieux, relations que menace le capitalisme (industriel, financier, cognitif, etc.). Ainsi, en plus des nécessaires actions et réflexions sur l’écologie des ressources (épuisement des capacités de subsistance), repenser l’écologie de l’esprit (épuisement du psychisme et du désir) apparaît comme une tâche de plus en plus urgente.

Archéologie des notifications numériques

Date

avril 2019

Type

Publication

Contexte

Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)

Résumé

La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?

Personnes citées

Système de la mode, création, pédagogie

Date

décembre 2020

Type

Publication

Contexte

Introduction à l’ouvrage Rechercher la Mode, dir. Bertrand Maréchal, HEAD – Genève, 2020.

Résumé

Dirigé par Bertrand Maréchal (professeur en design de mode à la HEAD – Genève), cet ouvrage collectif élabore, à partir d’entretiens, un lexique relatif à l’enseignement du design de mode dans le contexte des hautes écoles spécialisées (HES) suisses et des écoles d’art et de design européennes. Rechercher la mode s’ancre dans les travaux menés au sein de l’Irad (Institut de Recherche en Art et Design de la HEAD – Genève), qui s’efforcent de faire valoir la spécificité et l’importance de la recherche-création. Cet ouvrage peut ainsi être vu comme un manuel critique au service des étudiant·e·s et des acteurs.actrices de la mode. Il s’inscrit dans le prolongement d’autres initiatives portées par la HEAD – Genève visant à rapprocher enseignement et recherche, et dont nous pouvons mentionner quelques exemples. À la suite d’un MOOC (cours en ligne) consacré à l’apprentissage de la bande dessinée, le projet de recherche «  La BD à l’origine d’un nouvel imaginaire visuel. Un essai documentaire sur la narration séquentielle chez Rodolphe Töpffer 1 Rechercher la Mode et les projets mentionnés ici sont financés par le fonds stratégique de la HES-SO via le réseau de compétences Design et Arts visuels (RCDAV). » (dir. Benjamin Stroun, 2019–2020) propose ainsi de réaliser un essai-vidéo documentaire expérimental pouvant servir de support à l’enseignement. Dans d’autres projets de recherche tels que «  Design viral, méthodologie pour un buzz citoyen  » (dir. Jérôme Baratelli, 2017–2020) ou «  Renouveler la ville depuis l’intérieur  » (dir. Line Fontana, 2017–2020), ce sont les étudiant·e·s qui sont directement mis à contribution sous la forme d’ateliers pratiques (workshops). Une autre approche réside dans la création d’outils, comme dans le projet «  TheKnitGeekResearch  » (dir. Valentine Ebner, 2018–2020) qui vise réaliser des machines à tricoter open source permettant de repenser la production de petites séries de vêtements et d’accessoires. Les nouvelles logiques pédagogiques et conceptuelles propres aux écoles de mode (et, par extension, aux écoles d’art et de design) ne sont pas toujours bien identifiées et conceptualisées, créant ainsi un hiatus entre les politiques de formation (régionales, fédérales et européennes) et la réalité des enseignements. Ce sont ces approches que ce lexique se propose de répertorier et de questionner. En apportant des ancrages conceptuels à la portée des étudiants, il s’agit ainsi de contribuer à la clarification du vocabulaire de mise en œuvre du processus créatif. Comme enseigner n’est pas seulement une transmission d’informations mais bien une co-construction entre un·e enseignant·e, une entité institutionnelle et des apprenant·e·s, questionner ce qui est du principe d’une discipline, «  former à la mode  », n’est donc pas simplement transmettre des savoir-faire techniques, mais engage de se poser la question de ce qu’est la mode. L’ouvrage a été pensé dans un souci de bannir «  l’explication  », au sens pédagogique et politique du terme. Dans son essai Le maître ignorant 2 Jacques Rancière, Le maître ignorant, Paris, Fayard, 1987, p.  17–18. (1987), le philosophe Jacques Rancière reprend l’expérience pédagogique du personnage de Joseph Jacotot (1770–1840). Dès le début de l’ouvrage, Rancière déconstruit la prétendue nécessité de l’explication au sein de la relation pédagogique, ce qu’il appelle «  l’ordre explicateur  ». Parmi toutes les explications, ou les explications de plus en plus précises, le maître décide quelle est la bonne et là où il n’y a pas besoin de plus d’explication. Pour éviter les écueils de la séparation sociale entre ceux qui possèdent et ceux qui doivent se soumettre aux possédant·e·s, l’enjeu est d’interroger l’ordre social des apprenant·e·s. Qui suis-je par rapport à l’apprentissage  ? Comment est-ce que j’apprends  ? En quoi l’apprentissage me constitue  ? Suivant cette critique acerbe de la dimension politique de l’explication, Rechercher la mode propose à son lecteur, non pas des «  explications  », mais des possibles renvois, des «  agencements  » (Deleuze & Guattari 3 Gilles Deleuze, Félix Guattari, Capitalisme et schizophrénie, tome 2, Mille plateaux, Paris, Minuit, 1980, p.  163.). Un agencement est une entité à double face, non de deux formes, mais de variations discursives et non discursives qui le traversent et définissent en lui des coefficients de stabilisations et ou de devenir 4 Igor Krtolica, «  Diagramme et agencement chez Gilles Deleuze. L’élaboration du concept de diagramme au contact de Foucault  », Filozofija i drustvo, vol.  20, n o  3, 2009, p.  97–124.. Un agencement n’est donc pas statique, mais établit des variations faisant écho à l’approche sensible des métiers de la création. Les différents niveaux d’information réunis dans Rechercher la mode (lexique, entretiens, textes théoriques) permettent au lecteur «  d’agencer  » par lui-même son mode d’approche intellectuel, c’est-à-dire de devenir sujet de sa création. Conclusion et aboutissement de cet ouvrage, le lexique des termes de la mode n’est donc pas une explication «  verticale  », mais un outil critique conçu pour être réapproprié. Cette grille de lecture fait dialoguer différents niveaux de définition avec des propos recueillis auprès de différents acteurs majeurs de la mode (designers, journalistes, critiques, entrepreneurs, enseignants, etc.). Les séries d’entretiens – des témoignages de premier plan – constituent un inventaire non exhaustif, sensible et dialogique, de différentes approches créatives pédagogiques et professionnelles. Ce chevauchement entre des pratiques (les entretiens) et des temps de recul (les introductions de chaque chapitre) fait écho aux mutations de la structure linéaire du livre. Pour introduire sa série de fascicules regroupés sous le titre À quoi tient le design, le philosophe Pierre-Damien Huyghe se demande «  Qu’est-ce que lire aujourd’hui  ? ». Il ne s’agit pas pour lui d’expliquer, mais de réfléchir à ce que pourrait être la lecture à l’époque du Web, et surtout de poser la question de l’unité du texte, qui n’est plus seulement celle du livre  : «  une possibilité technique […] jusqu’alors inédite est venue autoriser ce qui était difficile à effectuer au temps du seul mode livresque  : bifurquer dans la lecture, passer soudainement à un autre site énonciatif que celui qu’on fréquentait 5 Pierre-Damien Huyghe, Sociétés, services, utilités. À quoi tient le design [2015], Cherbourg, De l’Incidence, 2018, p.  11.. » L’intérêt de Rechercher la mode réside dans la possibilité de construire son propre parcours de lecture, redoublé une version numérique prenant la forme d’un site Web dédié 6 Le site Web dédié est disponible à l’adresse  : http://www.hesge.ch/head. Ce trajet favorisant les singularités fait écho au nécessaire détachement d’une approche pédagogique strictement technique, afin d’établir des enjeux théoriques depuis des notions et savoir-faire. Dans le champ des enseignements artistiques, la mode ne s’est intéressée que tardivement à l’articulation théorico-pratique 7 À la suite de la revue de recherche Fashion Theory. The Journal of Dress, Body and Culture fondée par Valerie Steele (Fashion Institute of Technology, NYC en 1997   s’est créée en 2009 la revue Fashion Practice, qui édite des textes scientifiques sur la pratique du design de mode, faisant ainsi une distinction entre le champ théorique sur la mode et le champ théorique sur la pratique de la mode. des arts plastiques, qui s’est instituée dans la majorité des formations en arts appliqués 8 Alexandre Saint-Jevin, «  Essai pour une analyse plastique du vidéoludique. Vers une approche esthético-psychanalytique des jeux vidéo  ? », Conserveries mémorielles, n o  23, 2018, http://journals.openedition.org/cm/3213. Comme le dit Elizabeth Fischer (professeure associée, responsable du département «  Design bijoux et accessoires  » à la HEAD – Genève) : «  Le défi du projet théorique est de jeter un pont entre la mode et la théorie de mode, de faire entrer tout un bagage socioculturel, historique, économique et symbolique afin qu’il fasse sens pour le programme pratique qui occupe la majeure partie du temps des étudiantes et des étudiants, plongés dans leurs projets de création 9 Voir supra, p.  166.. » Bien que les projets de création soient au centre du développement d’un·e étudiant·e en design de mode, cette dimension (aussi intellectuelle qu’appliquée) du penser et du faire est souvent reléguée à une zone de subjectivité qui laisse le.la designer de mode en devenir découvrir par ses propres moyens l’ensemble de ses ressources esthétiques, émotionnelles et méthodologiques. Un corpus de mots clairement répertoriés – objectif de cet ouvrage – pourrait soutenir cette mise en œuvre créative. Le positionnement esthétique, la signature et le vocabulaire stylistique d’un·e designer de mode jouent un rôle de premier plan dans les étapes de développement d’une collection. Le vocabulaire n’est pas qu’une question de communication ou de vision. C’est aussi une manière d’agencer ses connaissances, ses perceptions, son ressenti, ses représentations afin de structurer son processus créatif, sa poïesis. Comme l’ont montré depuis bien longtemps la linguistique et la psychologie cognitive (notamment l’école «  constructiviste  » de Palo Alto reprenant les théories, les schèmes conceptuels et les concepts philosophique de la phénoménologie), il n’y a pas de perception sans représentation. Conceptualiser sa pratique ce n’est pas seulement communiquer, c’est aussi créer. Trois notions essentielles à la compréhension des enjeux actuels des métiers, de la création et de l’enseignement de la mode structurent cet ouvrage  : le système de la mode, la création, la pédagogie. La première, le «  système de la mode  », est un hommage au livre éponyme du sémiologue français Roland Barthes, publié en 1967. Cette notion recoupe les métiers, les enjeux et les techniques de la mode en train de se faire. Dans cette partie, il s’agit de se demander si la mode forme une discipline en soi, et quelle est sa place dans le paysage du design. Nous proposons ainsi d’orienter la définition de la mode vers une méthode venant problématiser, par la création, les approches des sciences humains et sociales. La mode dans son sens premier, renvoie à une conformité, à ce qui construit un ensemble  ; c’est la forme d’expression d’une esthétique à travers des caractéristiques formelles. Ainsi, la mode, en se souciant du «  comment  », vient paradoxalement rendre conforme, voire même uniformiser 10 Ce point est développé dans l’introduction de la première partie de cet ouvrage.. Ce questionnement permet de revenir sur la notion même de «  système de la mode  » et de la manière dont Roland Barthes pense la mode comme une structure linguistique en rapprochant le vêtement de la langue et le costume du langage. Cette analyse des systèmes de la mode permet, dans la deuxième partie de cet ouvrage, de comprendre comment le processus de création de la mode est constitutif, influencé, déterminé, construit par ces systèmes ou en lien avec eux. Dans ce chapitre portant sur la notion de création, Hayley Edwards-Dujardin (historienne de l’art et de la mode) rappelle l’intérêt d’étudier le processus de travail des designers de mode  : «  Malgré tout, tout comme la pratique esthétique de l’artiste est supposée être liée à sa propre connaissance et à sa propre sensibilité, le goût, l’instinct et le statut des créateurs de mode deviennent des ressources stratégiques, indispensables et valorisées pour créer, et ce malgré la subjectivité d’un tel processus 11 Voir supra, p.  84.. » Autrement dit, la création dans la mode n’est pas seulement une question d’histoire des techniques, mais aussi de la manière dont le social, le marché, les médias et les technologies numérique vont modifier le processus créatif. Hayley Edwards-Dujardin voit chez le couturier Charles Frédéric Worth (1825–1895) – autoproclamé «  artiste en robe  » et qui refusait que ce soit la cour qui dicte le goût – l’origine du passage du couturier artisan au designer de mode, à savoir le début du mythe du «  créateur  ». Comme elle l’explique, à la manière de l’artiste de la Renaissance, le créateur de mode devient un producteur d’œuvres singulières. Le designer de mode nourrit une marque de sa singularité, et cette dernière participe à créer son aura. En effet, avec le prêt-à-porter, le designer de mode n’est plus seulement un créateur, mais aussi une célébrité. Créer de la mode n’est donc plus seulement produire des singularités, mais aussi se construire un personnage singulier. Le designer de mode se met en scène  : sa personnalité et sa vie doivent être une continuité de son art. Dans cette perspective, les réseaux numériques ne sont plus seulement une manière de communiquer, mais une base pour la création, une veille professionnelle, aussi bien sur les créateurs, que sur ce que l’on appelle «  la rue  », ce que l’esthéticien Nicolas Thély appelle le régime «  basse déf 12 Nicolas Thély (dir.), Search terms  : basse déf., Paris, B42, 2012. ». Ce changement de paradigme explique pourquoi les entretiens portant sur le processus créatifs des stylistes incluent aussi des photographes de mode et des professionnels des médias. Dans la troisième partie, portant sur la pédagogie, Elizabeth Fischer part du constat de l’importance des images dans la création de mode. Elle reprend Roland Barthes pour affirmer que «  cette mutation du domaine mode en une industrie créative aux activités devenues transversales – tant il touche aujourd’hui de nombreux secteurs – a eu un impact sur la filière de formation qui s’est adaptée en réponse à cette évolution 13 Voir supra, p.  159. ». Ainsi, les compétences des designers de mode ont changé, nécessitant une modification de la formation des étudiants. Ces formations doivent leur permettre de saisir les nouveaux enjeux de création vus dans la deuxième partie de notre ouvrage. Elle propose comme axes de réflexion de s’intéresser aux études de genre, aux défis environnementaux, au développement durable, aux wearables, à l’inclusion d’accessoires, à la diversité culturelle, aux marchés émergents, à l’instrumentalisation du passé et à la médiatisation. Ces enjeux actuels lui permettent de revenir sur l’histoire de l’enseignement de la mode à la HEAD – Genève et de montrer leurs liens avec le défi qu’a constitué la refondation de la formation en design mode comme champ théorique et de création, de la même manière qu’une réflexion pédagogique est à la fois une action et une pensée de la mode. Comme le dit Elizabeth Fischer dans sa vision du «  design de mode  » et non du «  stylisme  », la théorie du design et ses méthodes d’articulation théorico-pratique doivent pousser à repenser la place de la théorie. La théorie n’est pas un «  second temps  ». Elle ouvre à une compréhension, une interrogation et une transformation des pratiques. Grâce à Elizabeth Fischer, le lecteur comprend que l’appropriation des théories et des méthodes du design au sein de la mode n’est pas une mince affaire, puisque la mode, et c’est ce qui en fait son statut particulier au sein du design, a un lien spécifique avec l’artisanat – contrairement à l’industrie du vêtement qui peut s’intégrer bien plus aisément aux théories canoniques du design. Pendant longtemps, et c’est encore le cas aujourd’hui, l’habillement se rapprochait du design alors que la mode se rapprochait des beaux-arts. Dans cette opposition, grâce aux parallèles qu’elle établit entre l’histoire de la mode et l’histoire des formations, elle permet au lecteur de saisir les enjeux des entretiens (de consultants, d’enseignants, d’anciens élèves, etc.) qui suivent son texte. Nous espérons que ces trois ensembles – système de la mode, création, pédagogie –, mis en cohérence par Bertrand Maréchal, permettront aux lecteur·trices, à leur tour, de «  rechercher la mode  ».

Transhumanisme et traces d’humanité

Date

décembre 2020

Type

Publication

Contexte

Propos récoltés par Loven Bensimon pour Conforme Magazine et rédigés par Anthony Masure le 1er avril 2020 à Paris.

Résumé

Conforme Magazine  : Le transhumanisme est-il notre futur ou est-il déjà d’actualité ? Anthony Masure : Le transhumanisme, qui ne se développe vraiment qu’à partir des années 1980, est un mouvement de pensée complexe et aux ramifications multiples. Il y a un écart entre la réparation et l’augmentation, à savoir le développement de facultés qui dépassent les contraintes biologiques. Mais cette distinction peut rapidement être remise en cause, comme par exemple dans le cas du traitement des maladies génétiques, où l’on pourrait facilement imaginer que seul un groupe social aisé aurait les moyens d’être immunisé à certaines pathologies. Mais ce scénario ne ferait que renforcer les actuelles différences d’accès aux soins, à l’éducation, et aux inventions techniques. De façon plus générale, si l’on entend par transhumanisme la volonté de transcender une condition initiale, alors l’humain a toujours été plus qu’humain, pour reprendre le mot de Nietzsche, c’est-à-dire toujours tiré en dehors de lui même. Autrement dit, il n’est pas possible de séparer l’humain du fait technique  ! Comme le note la philosophe Donna Haraway, nous vivons déjà dans une société cyborg 1 Donna Haraway, «  Manifeste Cyborg. Science, technologie et féminisme socialiste à la fin du XXe siècle  » [1985], dans  : Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes [1985–1997], trad. de l’anglais par Denis Petit en collaboration avec Nathalie Magnan, Paris, Exils, 2007. : le cyborg n’est pas une autre ontologie, il est «  notre ontologie  ». Cette figure permet à Haraway de renverser les oppositions homme / femme / machine et les dynamiques capitalistes  : il est possible de réinvestir politiquement le présent pour montrer que ce dernier ne détermine mécaniquement pas le futur. L’enjeu n’est donc pas de s’opposer frontalement au transhumanisme, mais d’explorer des zones de perméabilité, d’en faire un «  système d’information polymorphe  » (Haraway). Lisa Thieffry pour Conforme magazine Conforme Magazine  : L’humain, maître et possesseur de la nature se croit-il tout permis  ? Il y a-t-il des écueils à cet hubris  ? Peut-il y avoir des conséquences néfastes  ? Anthony Masure : Ce n’est pas parce quelque chose est possible qu’il faut à tout pris l’explorer. De la même façon, ce qui est légal n’est pas forcément moral. Se pose alors la question de savoir sur quels critères juger de qui est ou non souhaitable, et à qui cela incombe  : politiques, juristes, designers, scientifiques, société civile, etc. Selon le philosophe Vilém Flusser, la question est épineuse car les technologies numériques (les «  appareils  ») et les biotechnologies font voler en éclat les anciennes catégories de pensée  : «  L’abandon des critères traditionnels implique l’abandon non seulement de la tradition occidentale, mais de tout humanisme. Et cela, nous ne sommes pas prêts à le faire, et nous avons de très bonnes raisons pour le refuser. C’est pourquoi notre faculté critique face à la culture inhumaine émergente est en crise par manque de critères 2 Vilém Flusser, «  Critique, Critères, Crise  » [texte inédit, 1984], reproduit dans  : Multitudes, n o  74, dossier «  Vilém Flusser  : vivre dans les programmes  », dir. Yves Citton et Anthony Masure, avril 2019, p.  216, https://www.cairn.info/revue-multitudes-2019-1-page-212.htm. ». Les conséquences néfastes d’un déploiement toujours plus important du «  programme occidental  » ne pourront être évitées qu’à condition de sortir de la binarité humain / nature et de déployer de nouveaux critères de lecture du monde, ce à quoi nous invite Haraway dans un texte écrit à la même époque que Flusser  : «  Avec les machines de la fin du XXe siècle, les distinctions entre naturel et artificiel, corps et esprit, autodéveloppement et création externe, et tant d’autres qui permettaient d’opposer les organismes aux machines, sont devenues très vagues. Nos machines sont étrangement vivantes, et nous, nous sommes épouvantablement inertes 3 Donna Haraway, op.  cit.. » Conforme Magazine  : Ces progrès technologiques sont-ils à même de venir en aide à nos sociétés (évolutions médicales, création de viande, alternatives énergétiques écologiques, etc.) ? Anthony Masure : Tout dépend ce que l’on entend par «  nos sociétés  » (ce qui sous-entend une réponse orientée vers l’occident) et par «  aide » : que ou qui faut-il aider, et pourquoi  ? Si l’on prend par exemple le cas de la viande «  de synthèse  » produite à partir de protéines végétales, même si le gain énergétique et moral semble probant, on reste tout de même dans une logique de culte symbolique de la viande et dans de la nourriture industrialisée. Il ne faudrait pas que cette étape de transition se transforme en point final  : les repas végétariens ne se réduisent pas à du «  sans viande  », et leur intérêt est justement d’explorer d’autres saveurs. De plus, avec de tels procédés, on rejoue un vieux débat dans l’histoire de l’art et du design, à savoir l’imitation de la tradition (d’anciennes formes) par des inventions techniques. C’était par exemple le cas des débuts de la photographie, où l’enjeu était d’imiter la peinture. Or la photographie comme art n’a pu se développer qu’en s’écartant d’une telle approche. Est-ce qu’avec la viande de synthèse ou avec des énergies «  alternatives  » (et non pas pensées de façon autonome) on n’est pas en train de faire de même  ? Jusqu’à quelle point ces progrès «  béquilles  » ne viennent-ils pas contrecarrer l’émergence d’un nouveau pleinement neuf et de nouvelles saveurs  ? Conforme Magazine  : Le progrès entre de mauvaises mains représente-t-il un danger pour notre démocratie  ? Anthony Masure : Dans les sociétés dites développées, le progrès technique va souvent de pair avec l’automatisation, c’est-à-dire avec la recherche d’un rendement toujours plus efficace. Cette tendance n’est pas forcément à rejeter en bloc, car il y a des tâches qu’il vaut mieux confier à des machines. Mais, à un certain moment, cette décharge de capacités cognitives à des machines engage une perte de la notion de responsabilité : plus personne ne se sent responsable de rien, ce qui entraîne un affaiblissement du sens moral et donc de la démocratie. Mais les démocraties représentatives n’échappent pas à cet écueil  : trop souvent on attend des dirigeant·e·s politiques qu’ils·elles prennent des décisions à notre place, alors que le sens moral doit précisément être partagé. Le «  devenir-fonctionnaire  » des êtres humains (c’est-à-dire la réduction des personnes à des entités ne pouvant que fonctionner et appliquer des ordres) nous guette  : les réponses ne pourront être que collectives. Il me semble de plus en plus urgent de penser ce que pourrait être un «  design de la responsabilité ». Conforme Magazine  : L’intelligence artificielle  : outil démocratique ou dictatorial  ? Anthony Masure : Je ne pense pas que les techniques (et par extensions les technologies) doivent être pensées comme des outils, mais plutôt comme des polarités plus ou moins ouvertes et pouvant faire l’objet de bifurcations (ce qui pourrait être l’enjeu de l’art et du design). Dès lors, il faut moins penser en terme d’intelligences artificielle (IA) au singulier que d’intelligences artificielles au pluriel. En effet, l’histoire de ce champ fait apparaître des profondes controverses entre différentes méthodes, dont ne rend pas compte l’actuelle hégémonie du deep learning («  apprentissage profond  »). Le deep learning ne fonctionne pas sous la forme de règles écrites à l’avance (comme dans la cas de la programmation traditionnelle), mais via élaboration du traitement de l’information par la machine, qui élabore en quelque sorte par elle-même l’écriture du programme. Il en résulte des programmes d’un nouveau type, des «  boîtes noires 4 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, n o  80, «  L’intelligence artificielle  : enjeux éthiques et politiques  », dir. Vanessa Nurock, décembre 2019, p.  31–46. » incompréhensibles par des êtres humains, ce qui renvoie à la perte de responsabilité que j’évoquais précédemment. On voit mal comment faire «  bifurquer  » de tels codes, de la même façon que l’on n’imaginerait pas qu’une centrale nucléaire fonctionne en autogestion, dans une logique de démocratie locale. Il faut donc moins s’inquiéter d’un usage dictatorial des IA que du fait que ce qui est singulier et désarmant avec celles du deep learning, c’est précisément qu’elles n’ont pas d’intentionnalité ! Nous devrons apprendre à composer avec des entités potentiellement autonomes, pour lesquelles les concepts de maîtrise, contrôle, liberté, etc., ne sont pas vraiment signifiants. Laurence Revol Conforme Magazine  : Il y a-t-il des inégalités face au transhumanisme et au progrès technologique  ? Si oui, peuvent-il être pensés comme égalitaires dans une société capitaliste  ? Anthony Masure : Tout progrès technique charrie son lot de nouvelles catastrophes. Comme l’indiquait le philosophe Paul Virilio  : «  Airbus, en inventant un avion de 800 places, créé 800 morts potentiels  » 5 Paul Virilio, «  Le krach actuel représente l’accident intégral par excellence  », propos recueillis par Gérard Courtois et Michel Guerrin, Le Monde, 18 octobre 2008, https://www.lemonde.fr/idees/article/2008/10/18/le-krach-actuel-represente-l-accident-integral-par-excellence_1108473_3232.html. Cela ne veut pas dire qu’il faut tous se réfugier dans le Larzac, mais plutôt d’intégrer que l’« accident intégral  » est au cœur de sociétés capitalistes, dont la logique consiste à concentrer toujours plus de richesses et de pouvoir. Il s’agit donc d’œuvrer à décentrer ces points d’ancrage, de faire de la monoculture technique une «  permaculture  » – qui considère la coexistence de différents écosystèmes comme un préalable à une reconfiguration sociale. Dès lors, un des enjeux du design, dans une dimension critique, serait non pas de renforcer les lieux de pouvoir mais de faire place à d’autres voies et d’autres voix. Si l’on reprend le cas des intelligences artificielles, celles-ci n’ont pas pour fatalité d’être mobilisées sous l’angle de la volonté de puissance. En les considérant dans une optique élargie, au-delà du deep learning, celles-ci peuvent faire l’objet de reconfigurations esthétiques, c’est-à-dire devenir des prismes permettant de révéler et d’activer ce qui était déjà là parmi nous, comme délaissé. C’est quelque chose que nous travaillons à la HEAD – Genève 6 Jürg Lehni, Douglas Edric Stanley, «  Pour un design alternatif de l’IA ? », propos recueillis par Anthony Masure, Multitudes, n o  79, dossier «  Cultivons nos IA », https://www.cairn.info/revue-multitudes-2020-1.htm. Cet article fait suite à un workshop initié par Alexia Mathieu au sein du Master Media Design de la HEAD – Genève au 1er semestre 2019–2020., en hybridant différentes époques techniques des IA et en faisant dialoguer des programmes «  traditionnels  » et auto-apprenants. Le champ du design montre ainsi qu’il est possible de «  cultiver  » les IA et de les emmener dans des directions insoupçonnées. Casser les monopoles capitalistes à l’endroit des logiciels (et donc des méthodes) de création – en l’occurrence Adobe – est un préalable à toute démarche de ce type. Conforme Magazine  : Dans un entretien 7 Hans Jonas, «  Les machines ne pourront jamais avoir une conscience  », entretien avec Norbert Lossau, Die Welt, 29 novembre 1991., le philosophe Hans Jonas affirme  : «  prétendre que, outre l’exécution des tâches, l’automate puisse lui-même devenir vivant, acquérir une âme et qu’il puisse désormais en vertu de sa propre volonté, nous donner du fil à retordre, n’est que pure spéculation  ». Qu’en pensez-vous  ? Une machine peut-elle penser  ? Anthony Masure : Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Publié en 1945 par l’ingénieur Vannevar Bush, l’article propédeutique «  As we may think 8 Vannevar Bush, «  Comme nous pourrions penser  » [«  As we may think  », The Atlantic Monthly, vol.  176, n o  1, juillet 1945, p.  101–108], trad. de l’anglais (États-Unis) par Anthony Masure, dans  : Le design des programmes, des façons de faire du numérique, doctorat en esthétique (spécialité design) sous la direction de Pierre-Damien Huyghe, université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques et Sciences de l’Art, 2014, http://www.softphd.com/these/traduction/vannevar-bush-as-we-may-think.php. » («  Comme nous pourrions penser  ») envisage que les appareils de calcul puissent augmenter les capacités intellectuelles afin d’éviter que l’humanité ne replonge dans un conflit meurtrier  : l’informatique balbutiante pourrait servir à partager les connaissances, et non pas développer l’économie. Dans cette optique, la délégation d’opérations intellectuelles aux machines n’a pas vocation de remplacer mécaniquement les humains, mais pourrait permettre – à extrapoler Vannevar Bush – de les «  déprogrammer  » de tâches fastidieuses. En associant la notion de création aux processus de sélection et non pas au traitement répétitif d’informations, Bush s’écarte de la vision du mathématicien Alan Turing. Selon Turing, la pensée humaine, et plus précisément sa part d’intelligence, serait susceptible d’être non pas augmentée, mais «  imitée  » par une machine 9 Alan M. Turing, «  Théorie des nombres calculables, suivie d’une application au problème de la décision  » [«  On Computable Numbers, with an Application to the Entscheidungsproblem  », 1936], trad. de l’anglais par Julien Basch et Patrice Blanchard dans  : La Machine de Turing, édition dirigée par Jean-Yves Girard, Paris, Seuil, coll. «  Sciences  », 1995.. On voit ici se dessiner deux angles d’approches pour les IA : imiter la pensée humaine, ou lui permettre de franchir des seuils. Si une machine donne l’illusion de penser, est-ce une preuve d’intelligence – si l’on entend sous ce mot la capacité à reformuler des situations imprévues  ? Penser, est-ce seulement atteindre des objectifs et résoudre des tâches  ? On comprendra que l’intérêt est moins de savoir si une machine peut penser à la façon d’un humain que de se demander en quoi ces formes de pensée machinique modifient, altèrent, augmentent son psychisme. Si les machines sont très performantes pour reproduire, elles le sont beaucoup moins pour créer. Conforme Magazine  : Est-on proche d’une mort de la mort  ? Anthony Masure : L’actuelle pandémie de Covid-19 rappelle avec violence à quel point les humains sont fragiles et comment, malgré toute l’habileté des technosciences à établir des prédictions, de l’imprévu finit toujours par surgir. Derrière la volonté de certains transhumanistes à surmonter la mort, je ne peux m’empêcher de penser à ce que disait Flusser, qu’une fois libéré de tout (travail, responsabilités, morale, etc.) il ne restera plus rien à l’humain sinon l’ennui, et que cet ennui sera bien plus douloureux que la mort. La perspective de la mort est précisément cette chance d’échapper à l’ennui.

Divertissements typographiques : des épreuves de caractères aux spécimens animés

Date

avril 2021

Type

Publication

Contexte

Article coécrit avec Michel Wlassikoff dans le 4e numéro de la revue Back Office intitulé « Suivre le mouvement ».

Résumé

Le spécimen typographique constitue un genre de publication à part, entre document promotionnel et espace d’expression graphique. Il s’incarne aujourd’hui sur le Web à travers des sites de démonstration expérimentaux que l’article propose d’analyser au regard de l’histoire typographique ancienne.

Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création

Date

mai 2021

Type

Publication

Contexte

Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.

Résumé

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.

Ouvrir le livre. HEAD – Publishing, une cellule éditoriale engagée dans la dissémination des savoirs

Date

septembre 2021

Type

Publication

Contexte

Article rédigé pour le catalogue de la Biennale internationale de design graphique de Chaumont 2021.

Résumé

La pandémie du Covid-19, avec la fermeture des librairies et des bibliothèques en 2020, a mis en évidence la nécessité d’accéder aux livres en versions numériques. De nombreux·euses éditeur·trices, pourtant peu friand·es des publications en ligne, ont rendu disponibles des ouvrages pour garder le lien avec leur public. Les institutions culturelles ont renforcé les actions de médiation en ligne. De son côté, avec le Covid, le milieu de la recherche s’est davantage engagé dans l’open access, en mettant en œuvre l’obligation, pour les projets financés sur fonds publics 1 C’est par exemple le cas des projets financés par les bailleurs de fonds ANR (France) et FNS (Suisse)., de livrer les résultats rédigés sous une forme consultable gratuitement en ligne. Mais qu’entend-on par «  livre numérique » ? Il faut reconnaître que les frontières de ce dernier sont difficiles à baliser. L’expression de livre numérique peut renvoyer à des formats de fichiers (e P ub, HTML, PDF), à des pratiques de lecture (navigation par hyperliens, consultation sur plusieurs terminaux), ou à des modèles économiques (circuits de distribution spécifiques). Pour aller plus loin, il faut examiner ce qui, dans la forme culturelle du livre tel que nous la connaissons depuis plusieurs siècles, empêche l’émergence d’autres façons de faire. La notion de livre reste en effet attachée à celle du livre imprimé, comme si le livre numérique ne pouvait être qu’un calque «  dématérialisé ». Or changer de processus de travail n’est pas seulement une affaire de compétences techniques et de moyens, mais engage une redéfinition de l’écriture et de la lecture en milieux numériques. Autrement dit  : comment imprimer une culture numérique dans des institutions où domine encore le paradigme traditionnel du livre  ? Difficultés à penser des livres «  vraiment  » numériques Pour apporter quelques éléments de réponse, il faut tout d’abord examiner une série de problèmes liés aux livres numériques tels que nous les connaissons habituellement  : – Le paradigme de la page reste le modèle de référence pour les interfaces de lecture, notamment via l’usage massif du format PDF (Portable Document Format, 1992). Un PDF est un ensemble de coordonnées géométriques permettant d’assurer un rendu imprimé fidèle à ce qu’on voit à l’écran afin de faciliter le processus de travail avec les imprimeurs. S’il facilite les citations via les numéros de page 2 Arthur Perret, «  L’impensé des formats  : réflexion autour du PDF », blog de l’auteur, 7 mars 2021, https://www.arthurperret.fr/impense-des-formats-reflexion-autour-du-pdf, le PDF a pour défaut de ne pas être «  sémantique  » 3 Sauf dans le cas de solutions expérimentales telles que le «  Liquid Mode  » de Adobe Acrobat (septembre 2020)., (les données ne sont pas structurées de façon logique), et n’est donc n’est pas accessible aux personnes malvoyantes. Il ne peut pas être remis en page dynamiquement (responsive), et est donc inadapté à la diversité des formats d’écrans. De plus, il est mal indexé par les moteurs de recherche, qui obligent à charger tout le fichier pour trouver le contenu désiré. – Les multiples formats de lecture (e P ub, HTML, PDF, apps, etc.) et types de terminaux entraînent une barrière technique qui entrave la réalisation de livres numériques. Ces derniers nécessitent de maîtriser les langages de programmation (Web notamment), mais aussi d’acquérir une culture des interfaces, à savoir une fréquentation d’objets numériques dans toute leur diversité (sites Web, applications, jeux vidéos, motion design, etc.) – l’analyse de ces productions nécessitant l’élaboration de nouvelles méthodologies 4 Alexandre Saint-Jevin, «  Essai pour une méthode d’analyse plastique du vidéoludique  », Conserveries mémorielles, n o  23, 2018, http://journals.openedition.org/cm/3213. – Les usages et modèles économiques sont encore fragiles, ce qui freine les développements. Le format e P ub, par exemple, n’a guère percé car il ne fait que dupliquer les technologies Web «  standard  », qui évoluent en permanence au contraire des systèmes d’exploitation des liseuses type Kobo ou Kindle. De plus, la multiplication des formats de lecture en ligne (articles, podcasts, vidéos, sites Web, etc.), de même que la possibilité de faire des hyperliens et de commenter les contenus, mettent à mal la compréhension du livre comme une unité close. – Les pratiques du design graphique liées aux livres imprimés impliquent une attention soutenue à la fabrication de l’objet, de même qu’aux notions de grille et de micro-typographie. Or les environnements numériques sont par défaut «  variables  », non stabilisés, et le rendu du texte ne peut jamais être totalement maîtrisé. Les démarches de design graphique «  d’auteur  » peuvent entrer en conflit avec la standardisation des logiciels et environnement de travail (frameworks) numériques, qui entraînent un risque de «  globalisation esthétique 5 Anthony Masure, «  Copier/Varier. Standards, critiques et contre-emplois des logiciels de création  », dans  : David Christoffel et Nathalie Blanc, Multitudes, n o  79, dossier «  Globalisations esthétiques  ». ». «  Manifestes » : une collection d’ouvrages multi-supports et libres et droits Voyons à présent un cas d’étude mettant en évidence la difficulté à passer du modèle de l’imprimé à une démarche multi-supports. Souhaitant internaliser la production de ses ouvrages et les déployer dans une multiplicité de formats, la Haute école d’art et de design de Genève (HEAD – Genève, HES-SO) s’est engagée depuis 2020 dans une restructuration de ses publications via la création du label HEAD – Publishing, une cellule éditoriale multi-supports destinée à valoriser les actions pratiques, théoriques et critiques de l’école genevoise à l’initiative de Julie Enckell Julliard (responsable du développement culturel et des publications), Anthony Masure (responsable de la recherche) et Dimitri Broquard (responsable du département Communication visuelle). Un site Web dédié (https://head-publishing.ch), développé par Juan Gomez (alumnus Master Media Design), met en valeur les précédentes publications de l’institution en montrant les différentes proportions des ouvrages imprimés (dimensions et épaisseur) et en faisant le lien avec la revue de l’école (ISSUE 6 https://issue-journal.ch). La première initiative de HEAD – Publishing est le lancement, en avril 2021, d’une nouvelle collection d’ouvrages intitulée «  Manifestes  » (coordination éditoriale  : Sylvain Menétrey), qui réunit des textes courts portant un regard incisif sur les champs d’action et d’étude de la HEAD – Genève. Les essais, qui se font le reflet de recherches en cours, affirment des parti pris méthodologiques, proposent une vision spéculative de l’art et du design, et positionnent les filières et leurs acteur·trices de l’école dans les débats du monde contemporain. Pour cette collection, nous souhaitions avoir une dissémination des savoirs la plus large possible. Les Manifestes sont disponibles en deux langues (français/anglais), et les textes sont mis à disposition sous licence libre CC BY-SA pour dépasser la notion de gratuité associée au mal nommé open access. Conçue par Dimitri Broquard, l’identité visuelle décline les Manifestes en version imprimée offset distribuée en librairies (17 × 10,5   cm, 80 pages, 12€), en version Print on Demand (Lulu.com) à prix plus faible pour les pays non couverts par les distributeurs, et en divers formats numériques accessibles librement sur le site Web HEAD – Publishing  : HTML responsive, e P ub et PDF. La version Web (HTML) a fait l’objet d’un soin particulier, avec une interface en trois colonnes pour séparer le texte courant des notes et des figures. La production des textes des Manifestes a été réalisée via Editoria 7 https://editoria.pub (Coko Fondation), une plateforme d’édition collaborative et libre de droits dédiée aux ouvrages scientifiques. La gestion des rôles nous a évité l’envoi par mail de multiples fichiers Word, le texte étant finalisé en ligne à un seul endroit. Les versions numériques HTML et e P ub des Manifestes ont été exportées (générées) depuis Editoria. Souhaitant avoir un environnement de travail totalement libre de droits, nous voulions utiliser la bibliothèque de code Paged.js 8 https://www.pagedjs.org (Coko Fondation) pour mettre en page les Manifestes en Web to Print (maquettage via des feuilles de style CSS). Ce workflow s’est cependant révélé plus compliqué que prévu, notamment en raison de difficultés liées à la gestion des césures en CSS, à la résolution des images, et à nos choix de maquette relatifs aux notes de bas de pages, placement des visuels et appels de figures – ce qui a conduit à finaliser la maquette offset des trois premiers Manifestes dans Adobe InDesign. Nous espérons toutefois revoir cela pour de futurs opus, et pensons également à produire des versions sonores pour élargir la diffusion. Manifeste pour des environnements rugueux Le cas pratique de HEAD – Publishing met en évidence la complexité d’établir un flux de travail unifié (single source publishing) : bien qu’en grand progrès, les outils de Web to Print ne permettent pas encore d’obtenir une précision graphique comparable aux logiciels de PAO type Adobe InDesign. Ce constat doit toutefois être nuancé par la très mauvaise gestion par InDesign des formats numériques «  non PDF » (e P ub et HTML). De plus, étant libre de droits, Paged.js bénéficie d’améliorations constantes de la communauté, comme par exemple une potentielle gestion manuelle des drapeaux via une interface de prévisualisation dans le navigateur 9 Julie Blanc, «  A paged.js hackathon at EnsadLab  », blog de Paged.js, 18 mars 2021, [https://www.pagedjs.org/posts/2021-03-hackathon. Le Web to Print doit davantage être compris comme un appel à inventer de nouvelles formes de livres, voire de nouveaux types de designers, plutôt que comme une façon plus efficace de produire des ouvrages. Mais, plus fondamentalement, c’est le rapport aux technologies qui est changé. Dans la culture des logiciels libres, il est hasardeux de penser en termes de simples «  outils  » ou de «  solutions » : n’étant pas gérés par des entreprises avec des objectifs de rentabilité, les environnements de travail libres de droits nécessitent une compréhension des valeurs du partage et de la contribution 10 Lauren Lee McCarthy (@laurenleemack), tweet du 2 avril 2021, https://twitter.com/laurenleemack/status/1378020279545331723, et une implication dans le design des protocoles. Les logiciels libres sont souvent rugueux voire contre-intuitifs 11 Marcello Vitali-Rosati, «  Ce qui pourrait être autrement  : éloge du non fonctionnement  », blog de l’auteur, 18 mars 2021, http://blog.sens-public.org/marcellovitalirosati/cequipourrait/fonctionnement.html, et mettent à mal l’assignation de n’être que des «  usager·ères  » 12 Pierre-Damien Huyghe, À quoi tient le design. Sociétés, services, utilités, Grenoble, De L’Incidence, 2018.. Peut-être est-ce là leur plus grand mérite  : contrecarrer le jargon dépolitisant du design «  d’expérience  » et du design «  d’interfaces utilisateurs  ». Manifestes HEAD – Publishing, 2021

Formes, formats, formatage : vers un design des sciences

Date

novembre 2022

Type

Publication

Contexte

Article rédigé avec Alexandre Saint-Jevin pour l’ouvrage collectif Les devenirs numériques des patrimoines, Paris, UDPN, 2022.

Résumé

En déniant à la recherche ses dimensions esthétiques, les chercheur·euses pensent se protéger d’une capitalisation du savoir et de sa spéculation financière. Or l’impensé des enjeux esthétiques de leurs travaux ne fait que renforcer ces problèmes. L’analyse de plusieurs cas d’étude entre design et science met en évidence que la dimension critico-créative que le design apporte aux sciences n’annule pas la dimension critico-discursive que les sciences apportent au design. Ainsi, le format n’a pas pour fatalité de (seulement) formater mais peut aussi « former » les savoirs : il s’agit de dépasser l’idée réductrice d’une « science du design » au profit d’un « design des sciences ».

Art et culture à l’ère numérique : 5 provocations pour penser les temps présents

Date

novembre 2021

Type

Conférence

Contexte

Cycle de conférences UNIGE « Comprendre le numérique », session « Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui », dir. Yaniv Benhamou.

Résumé

«  Les professeurs Yaniv Benhamou, Anthony Masure, Sarah Kenderdine et Françoise Benhamou (de g. à dr.) sur la scène d’Uni Dufour, à Genève. Photo Heidi.news (DR) », UNIGE, 30 novembre 2021 Anthony Masure, participation à la conférence «  Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui  », UNIGE, 30 novembre 2021 Anthony Masure, participation à la conférence «  Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui  », UNIGE, 30 novembre 2021 — « […] Des experts… Ont été conviés à cette conférence: – la professeure Françoise Benhamou, de l’Université Paris XIII et présidente du Cercle des économistes, – la professeure Sarah Kenderdine, directrice du Laboratory for Experimental Museology de l’EPFL, – le professeur Anthony Masure, responsable de l’Institut de recherche en art et en design à la HEAD – Genève / HES-SO. … et des provocations. Anthony Masure, justement, a bousculé l’assistance et les idées reçues en présentant «cinq provocations», comme autant de manières de montrer que le rapport entre culture et numérique peut être envisagé de multiples façons  : – L’histoire du numérique invite à en finir avec la notion d’innovation. Ne serait-ce que parce que cela fait désormais des décennies que les artistes ont intégré le numérique à leur création et qu’il n’y a, en ce sens, plus rien d’innovant. – Les technologies ne sont pas des outils. Tout du moins ne sont pas que des outils au service de l’économie et qu’elles peuvent aussi être utiles à la création. – Il est de plus en plus difficile de distinguer art, pop culture et jeu vidéo. Et de prendre pour exemple le jeu Fortnite, au modèle économique particulier ou encore les CryptoPunks (des collections de NFT s). – Le machine learning ne remplacera que les mauvais artistes. – La blockchain rendra la marche de l’art moins capitaliste. Un comble alors que les cryptomonnaies qui lui sont intimement liées sont principalement décriées pour leur essence spéculative. Que reconnaît Anthony Masure, tout en estimant qu’il est possible d’en faire meilleur usage. […] » — Julien Pralong, «  Le numérique modifie certains paradigmes de l’art  », Heidi News, 30 novembre 2021, https://www.heidi.news/innovation-solutions/le-numerique-modifie-certains-paradigmes-de-l-art

Braun/Apple, des survivances paradoxales

Date

avril 2012

Type

Publication

Contexte

Anthony Masure, « Braun/Apple, des survivances paradoxales », Reel-Virtuel.com, no 3, « Archéologie des nouvelles technologies », avril 2012

Résumé

Si les appareils font époque, leur invention précède leur découverte. La nouveauté est recouverte de formes anciennes, qui permettent de faire accepter socialement l’innovation. Nous discuterons ces hypothèses en étudiant le design des objets Apple, qui reprennent les formes élaborées par Dieter Rams chez Braun dès 1950. Comment penser ces survivances paradoxales ? Faut-il y voir un échec des nouvelles technologies à formuler un vocabulaire esthétique singulier ?

Des dispositifs aux appareils : l’espacement d’un calcul

Date

septembre 2013

Type

Publication

Contexte

Anthony Masure, «Des dispositifs aux appareils: l’espacement d’un calcul», Reel-Virtuel.com, no4: «Du dispositif à l’imprévu», septembre 2013

Résumé

À partir de l’étude du concept de dispositif développé par Michel Foucault, nous envisageons deux rapports à l’objet technique: l’un se situant dans un contrôle des usages, et l’autre ouvrant à des pratiques singulières. Tandis que l’usage et l’emploi rabattent la créativité dans une anticipation constante de ce qui sera produit, il est d’autres façons de faire qui ne limitent pas a priori ce que nous pouvons inventer. Dans le fonctionnement d’un appareil, quelque chose échappe à l’opérateur: il s’y joue de l’imprévu.

Subjectivités computationnelles et consciences appareillées

Date

avril 2016

Type

Publication

Contexte

Anthony Masure, « Subjectivités computationnelles et consciences appareillées », Multitudes, no 62, avril 2016, p. 87-96

Résumé

Cet article revient sur la notion de « subjectivité computationnelle » formulée par David M. Berry visant à développer une approche critique des technologies numériques. Afin de comprendre les implications philosophiques d’un tel rapprochement entre « subjectivation » et « computation », nous reviendrons tout d’abord, via Leibniz et Hannah Arendt, sur l’émergence des sciences modernes qui visent à faire du « sujet » classique une entité calculante. Nous verrons ensuite comment les sciences « comportementales » ont influencé la conception des ordinateurs en substituant à la raison humaine des modélisations rationnelles déléguées à des machines. Pour sortir de l’impasse d’une déshumanisation annoncée dès la fin des années 1970 par des auteurs comme Ivan Illich ou Gilles Deleuze, nous envisagerons enfin la « subjectivation » comme un processus qui ne nécessite pas qu’il y ait sujet. Le concept d’« appareil », tel que le propose Pierre-Damien Huyghe à propos de la photographie et du cinéma, peut ainsi être étendu aux machines computationnelles pour penser de possibles « consciences appareillées ».

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

janvier 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

AVANT C’était devenu le règne des boules de neige. Ils disaient  : «  attracteurs  ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du «  buzz  ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif («  web 2.0  ») avait colonisé les dynamiques de «  publics  » avec des comportements de «  foules  » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective  » à propos des essaims. Les nostalgiques parlaient de «  bêtise grégaire  ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres  : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des «  choix  » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient  : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient  : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir  ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux  ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source  : «  unindexed/scripts/query.js  »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines «  Google material  » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face  ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND  ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : «  The Value of Art  ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau  : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS  ? Premiers symptômes  : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul  ? Cupidité autodestructrice  ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION  ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de «  The Value of Art  ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE  ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20   mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES  ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste  : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE  ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus  : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES  ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents  : saturés. Puis simplement introuvables. Disparus  ! QUELLES SOLUTIONS  ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde  ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source  : «  updraftplus/admin.php  »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES  ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES  ? Le procédé était dirimant  : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source  : «  Imagick::addNoiseImage  »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION  ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus  : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS  ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe  : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS  ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source  : «  Amazon-Killer  »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS  ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de «  décongestionner  » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux «  autoroutes de l’information  » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du «  gain  ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS  ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS  ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source  : «  Wordless Web  »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS  ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES  ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES  ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS  ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue  : Le robocopyright «  ContentID  » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en «  AttentionID  », affectant à chaque vidéo un «  coefficent d’accélération  » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking «  AttentionID  », le script «  slow_max_views.js  » avait par exemple étiré à 30h la durée du clip «  Gargantuan style  » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles  ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode «  esthétique  » de circulation s’activant en fonction des trajets planifiés. Les objets «  connectés  » étaient aussi touchés, eux qui demandaient toujours plus de temps et de «  mises à jour  ». Les montres, lampes, chauffages, prothèses et autres gadgets «  intelligents  » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS  ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe «  pollen  » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES  ? Ce qu’on appelait «  l’Histoire  » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance  : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient  : un monde sans histoire, un monde sans mémoire  ! Un monde sans civilisation  ! Un retour à la sauvagerie  ! À l’immédiateté ! Un monde «  post-historique  », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE  ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS  ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media  : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention «  immédiate  » échappait à la lèpre  : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement  ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille «  humaine  » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait «  s’y sentir  » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres  ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

L’intelligence en défaut des smart cities

Date

janvier 2017

Type

Publication

Contexte

Anthony Masure, «L’intelligence en défaut des smart cities», Sur-Mesure, no 1, «Villes, usages et numériques», janvier 2017

Résumé

Supports d’« innovations » technologiques, les smart cities n’en sont pas pas moins porteuses d’enjeux socio-politiques: les dispositifs invisibles ou opaques des applications numériques, en déplaçant les frontières entre domaine privé et domaine public, entre libertés individuelles et contrôle social, posent en creux cette question: «quelle nouvelle forme donner à l’intelligence collective?»

Vers des humanités numériques « critiques »

Date

juillet 2018

Type

Publication

Contexte

Article publié dans le quotidien d’idées AOC

Résumé

Les humanités numériques, ces pratiques à la croisée de l’informatique et des sciences humaines et sociales, ne se sont que trop peu préoccupées de questions propres au design. Au-delà d’une approche utilitaire, la constitution d’archives et de corpus de connaissances en ligne est pourtant l’occasion de s’interroger sur les rôles que peuvent jouer les designers au sein de ces projets. Dans la situation contemporaine d’une numérisation du monde marquée par une oligarchie des plateformes, les humanités numériques et le design devraient ainsi œuvrer à dérouter la captation des connaissances et les déterminismes technologiques. Des savoirs et pratiques hybrides Les humanités numériques désignent communément un champ de recherche à la croisée de l’informatique et des sciences humaines et sociales (arts, lettres, histoire, géographie, etc.). Initiées dans les années 1950 grâce au traitement électronique de données permettant d’analyser de grands corpus de textes, les humanités numériques ne décollent vraiment qu’avec le développement du Web au début des années 1990 qui ouvre la voie à des collaborations transdisciplinaires et à la mise en ligne des résultats de recherche. De fait, la plupart des projets en humanités numériques s’incarnent dans des jeux de données interopérables (langages Web SQL, TEI/XML, etc.) et des sites Web dédiés (archives en ligne, visualisation de données, etc.). Ce n’est toutefois qu’en 2010, lors de l’événement THAT Camp Paris, que la communauté francophone se fédère via la rédaction du « Manifeste des Digital Humanities » : ce texte collectif prend explicitement position pour une ouverture des connaissances hors des frontières académiques via l’utilisation de licences libres et de processus collaboratifs documentés. Repenser les façons dont les savoirs se constituent et circulent engendre nécessairement des ruptures épistémologiques. La numérisation de documents antérieurs aux technologies numériques (d’encodage par les nombres) ne laisse pas indemnes les éléments de départ. Une fois encodés, les supports de connaissance se prêtent à de multiples utilisations et contextualisations et peuvent «  exister dans des versions différentes, éventuellement en nombre illimité. Ce potentiel est une […] conséquence du codage numérique des médias et de [leur] structure modulaire  » (Lev Manovich). De façon plus générale, les humanités numériques font vaciller et s’hybrider les délimitations universitaires. Les logiques de programmation propres à l’informatique voisinent avec celles – par exemple – des historiens, qui peuvent eux-mêmes être amenés à intervenir sur l’architecture de l’information. Apparaissent alors des problématiques mettant en jeu les méthodes de ces différents champs, voire des frictions entre la rationalité des langages formels informatiques et l’incertitude propre aux (vieilles) humanités. Le design comme mise en tension du capitalisme Le paradoxe est que les objets issus des projets en humanités numériques ne reflètent que peu, dans leurs formes, ces tensions épistémologiques. Les interfaces des archives en ligne de documents historiques, par exemple, se ressemblent quelque soit leur fonds de départ. De façon plus dérangeante, les logiques propres à l’industrie des programmes ne sont que peu remises en question. La « facture » des interfaces de consultation demeure majoritairement impensée et reflète souvent les choix «  par défaut  » des environnements de programmation et des systèmes de gestion de contenus (CMS). De même, dans les rares cas où un designer est présent, cela se fait la plupart du temps en aval des prises de décision propres à l’architecture des données. Le risque est alors d’appliquer sans recul critique des méthodologies propres au design UX (User eXperience), dont l’étude de leur histoire montre qu’elles reposent sur des fondements cognitivistes ayant pour revers de réduire l’expérience humaine à une suite de comportements (modélisations des personas, scripts d’utilisation, etc.). Or l’application de ces processus de conception ne va pas sans poser problème dans le champ des humanités numériques, ancrées dans une culture (du) libre s’opposant à la privatisation des savoirs. De façon plus large, le design «  centré utilisateur  » inquiète la façon dont «  nous  » pouvons nous situer dans ces expériences  : sommes-nous condamnés à n’être que de simples « utilisateurs » ? Que nous dit cette obsession pour le fait de modéliser l’humanité par des encodages numériques  ? Les humanités numériques pourraient-elles – au contraire – devenir l’endroit d’une subversion des technologies et processus dominants ? Nous faisons l’hypothèse qu’une implication du design (et non pas une application, comme le sous-entend l’expression d’« arts appliqués  ») au sein des humanités numériques pourrait permettre, tout en facilitant l’accès aux productions de recherche (promesse du design dit UX), d’en renouveler l’approche. L’histoire du design est en effet traversée de tensions entre l’économie de marché et la recherche de dimensions échappant à la rentabilité et à l’utilité. Aux débuts de la Révolution Industrielle, l’artiste et écrivain William Morris souligne ainsi l’importance de penser un «  art socialiste  » qu’il oppose aux «  articles manufacturés [qui] ne peuvent avoir aucune prétention à des qualités artistiques  » (1891). Le socialiste, dit-il, «  voit dans cette absence évidente d’art une maladie propre à la civilisation moderne et nuisible à l’humanité ». Cette articulation de l’existence humaine à l’esthétique est selon lui la seule façon de parvenir à une «  communauté d’hommes égaux  ». Remplaçons «  socialiste  » par «  designer  », et nous retrouverons à presque un siècle d’intervalle cette idée d’un écart du monde des objets avec le capitalisme dans les écrits du designer Victor Papanek (1971), pour qui le bridage des activités créatives fait que «  la morale et la qualité de la vie [souffrent] immensément sous notre système actuel de production de masse et de capital privé ». Il en résulte, selon Victor Papanek, que «  le designer doit obligatoirement comprendre clairement [tout comme chaque être humain, pourrions-nous ajouter] l’arrière-plan politique, économique et social de ses actes  ». Une vingtaine d’années après Victor Papanek, le critique d’art Jonathan Crary dresse l’histoire des «  nouvelles constructions institutionnelles d’une subjectivité productive et contrôlée  » apparues au XIXe siècle, dont les enjeux résonnent fortement avec la situation contemporaine d’une société numérisée. Dans Techniques de l’observateur (1990), Suspensions of perceptions (2000), puis 24/7 (2013) Jonathan Crary fait émerger la problématique de l’attention, qui «  peut [alors] s’imposer comme un enjeu intellectuel, autant que politique  » (Maxime Boidy). Le rapport avec les humanités numériques prend alors sens  : face à un monde des apps qui ambitionne de réduire au maximum notre temps de sommeil (24/7), ces dernières pourraient au contraire, via leur recul historique et leur inscription dans la recherche, démontrer que d’autres modalités d’être-au-monde sont possibles. Les humanités numériques ne doivent pas seulement viser la numérisation des connaissances mais également les manières dont cet encodage affecte et transforme les êtres humains. Démontrer que l’informatique personnelle, issue des théories cybernétiques de la Guerre Froide, peut être mobilisée dans des directions insoupçonnées permet de lever l’idée d’un déterminisme technologique. La rencontre entre le design et les humanités numériques, si celle-ci n’est pas de l’ordre d’une commande mais d’une recherche commune, pourrait ainsi permettre d’explorer de nouveaux pans de la connaissance en levant les impensés présidant à la construction et à la valorisation des savoirs en milieux numériques. Vers des humanités critiques Au-delà de la numérisation de corpus et de la mise en ligne, de nouveaux défis attendent donc les chercheurs en humanités numériques pour peu que le couple informatique/SHS fasse place au design. Nous proposons en guise de conclusion quelques directions de travail allant dans ce sens. Réduire la barrière technique de l’accès aux données L’open data est partout convoqué, or on constate dans les faits que la mise à disposition des données nécessite des prérequis techniques souvent trop importants pour des non-spécialistes. Le format tabulaire .CSV est le plus accessible pour commencer à travailler, mais ce dernier n’est pas systématiquement proposé, au détriment de méthodes plus lourdes (récupération de flux JSON via des API, etc.). Le workshop « Fabriquer des jeux de données en art » qui s’est tenu en mai 2018 dans le cadre du groupe de travail «  Art, design et humanités numériques  » de l’association Humanistica (Clarisse Bardiot et Nicolas Thély) a proposé des méthodologies pédagogiques relatives au champ des digital art history : identification et nettoyage de jeux de données, construction de visualisations, etc. Un outil permettant de générer des fichiers CSV à partir du portail Europeana a été développé à cette occasion. Interroger l’idéal d’une sémantique universelle Le modèle du Web sémantique (Tim Berners-Lee, 2001) ambitionne de relier l’éparpillement des connaissances humaines par le recours à des balises et métadonnées insérées dans les codes source des pages Web («  référentiels d’autorité », etc.). D’une utilité évidente pour sortir d’une approche en silo des initiatives scientifiques, ce processus pose pourtant de multiples défis ontologiques et taxonomiques mal connus des chercheurs et des designers. Comment mieux impliquer ces derniers dans l’élaboration de modèles sémantiques  ? Faut-il que cette ambition éclipse tous les autres aspects des projets (enjeux formels, collaboratifs, etc.) ? Comment montrer le travail d’encodage sémantique, habituellement recouvert par l’habillage des interfaces  ? Explorer les impensés de l’objectivité des données Les jeux de données sont souvent construits sans que leurs processus d’élaboration – et les biais inhérents à toute démarche de ce type – ne soient documentés. Or derrière une apparente objectivité se cachent des enjeux sociaux liés à de multiples prescriptions normatives voire discriminantes (catégories de genre, de «  race  », de classe, etc.). Comment inclure davantage de voix  ? Pourrions-nous, comme nous y invite la chercheuse Catherine D’Ignazio, faire de la visualisation de données de façon collective et inclusive et ainsi permettre des approches dissidentes voire contestataires  ? Impliquer des technologies émergentes dans des protocoles de recherche Au-delà de l’effet de mode, des technologies telles que les protocoles blockchain (certification distribuée de transactions) ou l’appellation générique d’« intelligence artificielle  » offrent des possibilités de recherche stimulantes pour les chercheurs en humanités numériques. La blockchain peut permettre d’authentifier des documents et des chaînes de transformation de données, de mettre à disposition de la puissance de calcul, de signer les rôles de chaque acteur d’un projet, de générer des smart contracts pour déclencher automatiquement des actions prédéfinies, etc. L’intelligence artificielle, quant à elle, est déjà utilisée par des entreprises comme Google pour la construction automatisée de gammes chromatiques (projet Art Palette), l’identification d’œuvres d’art du MoMa à partir de 30   000 photographies d’exposition ou le repérage (tagging) des contenus de plus de 4 millions de photographies du magazine LIFE. Alors que nous avons en France des pointures internationales dans le domaine de l’IA, est-ce une fatalité que la puissance publique abandonne la « culture logicielle » à des acteurs privés  ? Sortir d’une pensée «  agnostique  » de la forme Beaucoup d’interfaces de projets en humanités numériques se désintéressent des enjeux formels liés à la consultation des documents, ce qui est d’autant plus paradoxal dans l’exemple de documents relatifs à l’histoire de l’art. Jusqu’où cette illusion de neutralité est-elle tenable voire souhaitable  ? Est-ce une fatalité que les archives en ligne présentent majoritairement des cadres homogènes  ? Quid, sur un autre plan, des relations entre les interfaces de saisie des corpus et la capacité à projeter des modes de consultation  ? Citons pour exemple les travaux de Giorgio Caviglia (projet Mapping the Republic of Letters, Stanford) ou de Donato Ricci (Enquête sur les modes d’existence, Sciences Po). Sur d’autres plans, des designers comme LUST, Antony Kolber, l’histoire du net art ou celle des jeux vidéos sont par exemple des sources d’inspiration pouvant intéresser les chercheurs en humanités numériques. Mentionnons également le travail mené à l’Atelier national de recherche en typographie (ANRT Nancy) sous la direction de Thomas Huot-Marchand, où des étudiants en dessin de caractères typographiques se confrontent à des contextes tels que les premières notations du chant, la cartographie, les hiéroglyphes, les inscriptions monétaires, la reconnaissance de caractères, etc. — Ces quelques propositions ont pour objectif d’inciter les chercheurs en humanités numériques à s’intéresser davantage, au-delà du design, à des champs connexes tels que les études visuelles, les media & software studies, ou encore l’archéologie des médias. Une telle visée invite également les designers à envisager d’autres contextes de travail que ceux dans lesquels, au risque d’une saturation de l’offre, ils s’inscrivent habituellement. Les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques.

À défaut d’esthétique : plaidoyer pour un design graphique des publications de recherche

Date

novembre 2018

Type

Publication

Contexte

Article publié dans la revue de recherche Sciences du Design, Paris, Puf, no 8, novembre 2018, p. 67-78

Résumé

Selon le philosophe Jacques Derrida, la distinction métaphysique entre l’écriture et la parole (logos) entraîne une dépréciation de l’écriture et interroge par extension la prétention d’une « pure » pensée à exister séparément de sa représentation graphique. Nous proposons de mettre en résonance l’analyse de ce « logocentrisme » avec le champ des publications numériques de recherche, où la forme demeure majoritairement impensée. En montrant au travers de l’étude de deux publications en ligne (GAM3R 7H30RY et Haunted by Algorithms) comment certaines pratiques de design graphique permettent de dépasser l’opposition forme/contenu, nous soutenons que la prise en compte de la dimension esthétique de l’écriture peut contribuer à dérouter et à renouveler les pratiques de recherche communément installées.

Pour un design alternatif de l’IA ?

Date

avril 2020

Type

Publication

Contexte

Interview des designers Douglas Edric Stanley et de Jürg Lehni par Anthony Masure, contribution au dossier « Cultivons nos intelligences artificielles », Multitudes, no 78. Ce texte a été republié dans la revue Issue-Journal de la HEAD – Genève.

Résumé

Mené entre septembre 2019 et janvier 2020 par les designers Jürg Lehni et Douglas Edric Stanley au sein du Master Media Design de la Haute École d’Art & Design de Genève (HEAD – Genève), le workshop « Thinking Machines » prend comme point de départ l’automatisation des métiers de la création et le fantasme de machines « pensantes ». Ce projet examine, avec un brin d’ironie, un avenir où les designers seraient en mesure de cultiver les IA et de s’extraire des fantasmes technologiques. En quoi le design pourrait-il contribuer à une critique de la culture dominante de l’IA ? Comment inventer, par les pratiques de design, des alternatives soutenables ?

The Digital Thesis as a Website: SoftPhD.com, from Graphic Design to Online Tools

Date

mai 2021

Type

Publication

Contexte

Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.

Résumé

How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?

Singulariser le multiple : les NFT artistiques entre spéculation et redistribution

Date

novembre 2021

Type

Publication

Contexte

Article rédigé avec Guillaume Helleu pour la revue de recherche Multitudes.

Résumé

Cet article explore les enjeux des technologies blockchain dans le champ de la création (art, design, jeu vidéo, etc.) à travers le développement, depuis 2015, des « Non Fungible Tokens » (NFT) – à savoir la production d’un certificat numérique infalsifiable et décentralisé attaché à une entité numérique ou tangible. Mis en lumière depuis le début de l’année 2021 par une multitude de ventes aux sommes record et par le développement de places de marché spécifiques, les NFT soulèvent des enjeux relatifs à la valeur, à la circulation et à l’exposition des productions artistiques et culturelles.

Play-to-Earn : quand jouer devient un job à temps plein

Date

février 2022

Type

Publication

Contexte

Entretien avec Marine Protais pour la revue L’ADN.

Résumé

Vous voulez comprendre ce qu’est le Web3 ? Découvrez les jeux Axie Infinity, Valhalla Battle Arena ou Sorare… Leur modèle est la meilleure illustration de ce que devient Internet. Interview d’Anthony Masure, spécialiste du sujet.

Formes de l’invisible. Archéologies graphiques du design avec le numérique

Date

août 2017

Type

Blog

Contexte

Résumé

Here is the full application (in French) I wrote late 2016 for the Cnap research grant. You can read more about the background of this project here. Résumé du projet En étudiant des pratiques de design graphique concomitantes à l’émergence de l’informatique personnelle au début des années 1980, et en les mettant en relation avec des démarches de création contemporaines, ce projet propose d’examiner différentes façons de travailler avec l’invisible de la matière numérique. Tandis que le design est confronté depuis une dizaine d’années à une montée en puissance de procédés algorithmiques visant à automatiser la mise en forme d’objets (mise en page, colorimétrie, etc.), quels enseignements pouvons-nous tirer de démarches pionnières pour éclairer le présent  ? Alors que le numérique n’a affaire qu’à des contenus calculés, comment le design graphique peut-il contribuer à rendre intelligibles des opérations techniques intangibles  ? Contexte historique Défini comme un « metamedium » par l’ingénieur Alan Kay en 1977, l’ordinateur est à la fois capable de simuler les anciens médias et d’en créer des nouveaux. Dès le départ, mince est la frontière entre le design des objets informatiques (les machines et leurs interfaces  : le travail de Ettore Sottsass jr. pour Olivetti dès 1958, l’invention de la métaphore du bureau du Xerox PARC au début des années 1970, l’ordinateur Apple Lisa en 1983, etc.) et le design avec les technologies numériques (les objets conçus via des programmes  : la modélisation 3D de la théière Melitta par Martin Newell en 1975, les logiciels développés par Frank Gehry Technologies dès le début des années 1990, etc.). Plus proches de nous, des démarches comme le développement des objets «  connectés  », les interfaces aux contenus générés par les utilisateurs, l’empilement de «  fonctions  » informatiques déportées à de multiples endroits, etc. brouillent la distinction entre les procédés de conception et les productions réalisées  : la donnée (data) est partout et infiltre tous les objets et relations sociales. Contexte théorique La possibilité de «  programmer l’invisible  » (Edmond Couchot) propre au numérique ouvre de nouvelles partitions entre le visible et l’invisible. Or cette distinction, à la base de toute culture, ne doit pas être abandonnée à une technoscience instrumentale qui déciderait pour nous de ce qui doit ou ne doit pas être vu. En effet, si l’espace visible permettant aux êtres humains de vivre en commun venait à manquer, alors c’est tout le domaine public (défini par la philosophe Hannah Arendt comme le fait de pouvoir être vu et entendu de tous) voire même la «  certitude de la réalité du monde  » (Arendt) qui risquerait de faire défaut. Mais comment rendre lisible ce qui se construit et se déconstruit en permanence  ? C’est bien en tant qu’il est «  un des instruments de l’organisation des conditions du lisible et du visible  » (Annick Lantenois) que le design graphique est un acteur privilégié de la façon dont les signes se constituent et forment des mondes. En effet, le design ne tient pas seulement dans la réponse à des besoins, mais articule des savoirs, des usages et des relations sociales – ce que l’historien Lucius Burckhardt appelle un «  design au-delà du visible  ». Enjeux pour le design Habitués à travailler avec des contenus préexistants (textes, images, etc.) mis en forme sur supports imprimés par des «  outils  », les designers graphiques, dans le cadre de productions conçues sur (ou destinées aux) écrans, ont affaire à une matière mouvante où les moyens et les fins se confondent. Dès lors, comment les designers graphiques peuvent-ils contribuer à faire paraître le «  milieu technique  » (Gilbert Simondon) dans lequel nous évoluons  ? Si le design d’information et les démarches de didactique visuelle peuvent bien sûr aider à comprendre des systèmes complexes, nous nous attacherons plutôt, dans nos recherches, à enquêter sur les façons plurielles dont les designers graphiques rendent compte de procédés de conception et de fabrication en prise permanente avec le visible. Ce projet de recherche se propose ainsi d’examiner comment les designers graphiques travaillent et ont travaillé avec ou contre le numérique, rendant ainsi compte, fût-ce malgré eux, des nouvelles possibilités intrinsèques à ces techniques  : détournements de logiciels, cocréation de programmes, place du code dans des documents imprimés, recours à des bases de données, utilisation d’agents de création non humains, etc. En précisant ces catégories et en les éclairant du recul propre à l’histoire de l’informatique personnelle et à sa réception sur divers territoires géographiques, il s’agira ainsi de défendre le fait que les designers puissent se faire interprètes et traducteurs des techniques. Histoire et archéologie des médias numériques Le numérique est fréquemment associé à des promesses d’un futur meilleur, où seraient résolus les problèmes de nos sociétés. Face à ce «  solutionnisme technologique  » (Evgeny Morozov), une approche concernant des enjeux de design serait d’étudier non pas ce que le numérique permettrait, mais de l’envisager plutôt comme «  une chose concrète, avec des limites et des influences, [et] de commencer à écrire son histoire et sa théorie  » (Frank Gehry). Nous étudierons ainsi en quoi l’histoire d’un travail avec le numérique par des designers graphiques peut être est riche d’enseignements pour l’époque contemporaine, marquée par la multiplication de nouveaux types de techniques «  invisibles  » (agents de conversation type Siri, réseaux de neurones, etc.). Étant donné que l’informatique personnelle s’est inventée aux États-Unis, un aspect essentiel de cette recherche sera d’interroger des stratégies de réception à différentes époques et territoires géographiques, tant des technologies que des démarches de design afférentes. Cette approche des technologies numériques recoupe ainsi le champ de «  l’archéologie des médias  » (Jussi Parikka), qui consiste à envisager la généalogie des techniques non pas dans une logique de progression linéaire, mais comme un examen des impasses, des similarités et des divergences de développements techniques réalisés ou non. Production envisagées et méthodologie de recherche Ce projet de recherche s’articule autour de trois enquêtes menées dans des centres d’archives. Ces déplacements dans trois contextes historiques et géographiques distincts seront complétés d’entretiens avec des designers, ingénieurs et chercheurs. Les productions envisagées, majoritairement textuelles, seront organisées sous forme d’articles/notes de recherche pouvant se lire ensemble ou séparément. Nous accorderons une grande place à l’iconographie, qu’elle soit directement issue des documents trouvés en archive, numérisée par mes soins, ou produite ad hoc (schémas, dessins, etc.). Dans la mesure du possible, nous favorisons une traduction français/anglais des contenus produits et/ou consultés. Valorisation de la recherche Afin d’encourager le partage des idées et de valoriser ces recherches, l’ensemble des contenus produits grâce au soutien du Cnap (textes, etc.) sera placé sous licence libre creative commons et consultable en ligne (Open Access). Le design de cette restitution fera l’objet d’un soin particulier, prolongeant en cela mon travail de thèse qui faisait déjà l’objet d’une réflexion sur sa mise en forme. Partenaires Les partenaires envisagés pour ce projet sont des centres d’archive choisis pour leur complémentarité, tant dans leurs types de fonds que dans leur situations géographiques. The Herb Lubalin Study Center of Design and Typography (Cooper Union) – New York City Fondé en 1985, ce centre d’archives reste méconnu en France. Il abrite pourtant une collection singulière de documents produits à partir des années 1950 jusqu’aux années 1990, et notamment des travaux de designers graphiques comme Otl Aicher, Karl Gerstner et Herb Lubalin. De ce fait, ce fonds constitue un endroit privilégié pour étudier les mutations des pratiques des designers graphiques au contact des technologies numériques. Centre Canadien d’Architecture (CCA) – Montréal Le CCA a amorcé depuis 2013 un cycle de recherche autour des rapports entre l’architecture et le numérique ayant donné lieu à plusieurs expositions et publications. Cette démarche archéologique, qui fait place à l’étude de démarches pionnières, est riche d’enseignements pour d’autres champs d’activité. À partir de l’étude de documents historiques conservés au CCA, il s’agira donc d’identifier des transferts méthodologiques entre architecture et design graphique. Vilém Flusser Archiv – Berlin Chercheur protéiforme, encore partiellement traduit en français, Vilém Flusser est notamment connu pour ses travaux sur la culture médiatique. Il a perçu de façon prémonitoire les menaces d’un monde automatisé par la technique. Au sein de la Vilém Flusser Archiv de Berlin, il s’agira d’examiner spécifiquement les travaux portant sur la photographie et le design, riches d’enseignement sur les environnements technologiques contemporains. Utilisation de l’aide financière du Cnap Le soutien à la recherche du Cnap couvre principalement des frais relatifs aux déplacements dans des centres d’archive (transport et hébergement) ainsi que le temps nécessaire à la rédaction des contenus. Elle servira également à prendre en charge des ressources humaines liées à la traduction, à la relecture de contenus, ainsi qu’à la finalisation d’entretiens audio/filmés. Un dernier poste de dépense, plus mineur, consiste en l’achat de ressources documentaires et d’impressions.

La fable des techniques invisibles

Date

mars 2016

Type

Conférence

Contexte

Anthony Masure, « La fable des techniques invisibles », conférence dans le cadre du cycle « Graphisme / Technè », université de Strasbourg & HEAR Strasbourg, dir. Vivien Philizot

Résumé

Cette communication interroge, dans le contexte du design, les relations qu’entretiennent entre les notions de technique et de visibilité. Si le design prend sens en raison d’un travail des techniques dans une finalité qui n’est pas donnée d’avance, que dire de la tendance contemporaine qui consiste à faire du design l’instrument de techniques invisibles ? Autrement dit, comment et pourquoi, depuis un certain nombre d’années, une tendance à rendre les techniques invisibles s’est-elle développée ? Que recouvre cette intention ? À travers la critique de cette idéologie de la transparence appliquée aux objets numériques, il s’agira de démontrer qu’une des tâches du design serait de dévoiler la technique, et non pas de l’occulter en la rendant invisible.

Entretien avec Rémy Sénégas

Date

septembre 2016

Type

Conférence

Contexte

Entretien avec Rémy Sénégas pour le site Web LePetitBanc.fr, qui réalise des entretiens filmés avec des chercheurs issus de displines variées

Résumé

Face aux défis du monde contemporain le petit banc propose d’engager et de partager des conversations autour des questions sociales et économiques. Nous souhaitons, en proposant et en construisant cet espace de conversation, travailler à l’émergence de pensées propres à notre temps pour se prémunir de toutes facilités accommodantes et conservatrices. Pour cela nous nous efforcerons d’initier des échanges transversaux et pluridisciplinaires car nous cherchons à croiser et à compléter différents points de vue. Nous pourrions dire aussi que nous croyons d’abord en ce que porte chacun d’entre nous et donc que nous recherchons avant tout des rencontres, des Hommes pour réfléchir les enjeux de notre époque dans un mouvement de pensée plus «  collégial  ». Partie 1  : à propos de la thèse Le design des programmes Partie 2  : revue Back Office

Du travail et de ses enjeux dans les cursus de design

Date

janvier 2018

Type

Conférence

Contexte

Introduction et organisation (avec Caroline Datchary) de la journée d’étude « Le travail au prisme du design et des sciences sociales. Enjeux et méthodes de leurs collaborations », université Toulouse – Jean Jaurès, LLA-CRÉATIS, master DTCT, LISST, ComuniTIC, labex SMS

Résumé

Graphisme  : Anthony Masure Contexte de la journée d’étude Le travail connaît actuellement de profondes transformations, au niveau des espaces de travail mais aussi des équipements numériques. Pour penser ces bouleversements, le design et les sciences sociales possèdent des cadres analytiques et des outils méthodologiques pertinents, mais qui souvent coexistent séparément. Le design et les sciences sociales ont connu ces dix dernières années de nombreux changements structurels en termes d’enseignement et de recherche. Certains peuvent être tentés de faire du design une science, pour le légitimer en termes académiques. De leur côté, bon nombre de recherches en sciences sociales négligent encore le rôle des objets et de l’espace, et de ce fait du design, pour comprendre et analyser les activités sociales, ce qui constitue un angle mort pour le moins problématique. Si des récents rapprochements voient le jour, rares sont encore ceux qui travaillent à rapprocher ces deux champs dans leurs fondements méthodologiques voire de composer des méthodologies et synergies communes. Cette journée d’étude entend ainsi favoriser cette démarche à travers l’examen de travaux pédagogiques et professionnels associant design et sciences sociales. Programme 9h – Anthony Masure (MCF en design, UT2J / LLA-CRÉATIS) «  Introduction  » 9h30 – Caroline Datchary (sociologue, UT2J / LISST) «  Le travail à l’épreuve du numérique  » 10h30 – Séverine Marguin (sociologue, Humboldt University Berlin) & Friedrich Schmidgall (designer d’interactions, Humboldt University Berlin) «  Les espaces des pratiques de recherche  » 14h – Anne-Lyse Renon (membre associée LIAS / IMM, EHESS / CNRS) «  Peut-on penser l’engagement ethnographique comme un studio de design  ? » 15h – Hanika Perez (designer, enseignante ISDAT-Beaux-Arts) & Brice Genre (designer, MCF en design, UT2J / LLA-CRÉATIS) «  Les méthodologies d’analyse en sociologie au sein des projets de design  » Les vidéos des conférences sont consultables ici

Au-delà du Bitcoin : usages et pratiques des technologies blockchain

Date

février 2018

Type

Conférence

Contexte

Communication avec Guillaume Helleu dans le cadre de la journée d’étude « Monnaie Humanum Est », dir. Brice Genre, université Toulouse – Jean Jaurès, master DTCT

Résumé

Schéma du fonctionnement technique du protocole Bitcoin, par Guillaume Helleu Contexte de la journée d’étude La monnaie en tant qu’objet culturel traverse l’histoire de nombreuses civilisations prenant des formes et des enjeux divers. Son existence ancienne et quasi universelle lui confère de multiples qualités notamment celle de prendre des formes très variables mais signi!antes des échanges entre êtres humains. Toujours en tant qu’objet culturel, elle a également une place importante dans les sociétés contemporaines fondées sur une économie de marché. Si l’objet monnaie intéresse les sciences économiques, l’anthropologie, la sociologie, la psychologie, elle est une typologie des artefacts, un sujet, très peu traité dans le champs du design. Elle se présente dés lors comme tout autre phénomène sociétal comme un objet culturel et politique au coeur des imaginaires, des pensées, et des activités humaines que souhaite embrasser et questionner le design. En 2017, on dénombre environ une trentaine de monnaies complémentaires en activité sur le territoire français (le Sol, l’Eusko, L’Abeille) et environ 5000 à l’échelle mondiale (le Wir en Suisse, le Bitcoin, le Liberty dollar aux E.U.) quand nous pouvions en compter seulement 300   en 1990. D’après Bernard Lietaer (2009) (économiste belge, professeur à l’université de Berkeley et co-fondateur de l’Euro) l’augmentation signi!cative du nombre de ces monnaies est en lien avec la crise bancaire et  !nancière qui débute en 2007 au Etats-Unis pour devenir une crise économique mondiale à partir de 2008. Selon lui «  l’apport des monnaies complémentaires peut permettre de résoudre les causes systémiques des crises monétaires et  !nancières  » et d’autre part, d’être une réponse aux «  problèmes très divers auxquels nous devons faire face aujourd’hui, depuis la gestion des conséquences économiques du vieillissement de la population, ou les problèmes de développement durable  ». La monnaie plus qu’un socle des systèmes financiers ou économiques est un élément fondamental des relations humaines quelles qu’elles soient dans le sens où elle caractérise le principe d’échange  : fondement des sociétés humaines. Ainsi, la monnaie est envisagée par nombres d’économistes et autres spécialistes comme un outil majeur capable de redé!nir la notion de richesse (Celina Whitaker et Patrick Viveret, cofondateurs du Collectif Richesses) mais aussi et surtout de remodeler nos sociétés industrielles prises dans un ensemble complexe de problématiques climatiques, sociales, sanitaires, industrielles, etc. Dés lors, il semblerait que le design, tenu originellement par un contrat moral humaniste et en tant que discipline du projet puisse accompagner l’éclosion et la pratique de ses dispositifs monétaires alternatifs. Le design peut peut également imaginer d’autres dispositifs, afin de soutenir par exemple, comme nous le dit Celina Whithaker (2015) «  l’expérimentation d’une monnaie sociale incitatrice de comportements civiques, solidaires et écologiquement responsables  ». L’enjeux de cette journée d’étude est de présenter un panorama certes non exhaustif mais pluriel, des idées, des qualités, des principes, des subtilités, des aspects de la monnaie, prise sous l’angle de plusieurs intervenants appartenants à des disciplines et des cultures différentes. Enrichi par les multiples savoirs et regards apportés par les autres disciplines, le design semble à même de questionner cet objet culturel spécifique qu’est la monnaie.

Les environnements numériques d’écriture

Date

mai 2018

Type

Conférence

Contexte

Intervention à l’occasion du vernissage de l’exposition #Ironème #Ironèmes, dir. Étienne Candel, Paris, Le Tank

Résumé

Apparus à la fin des années 1970, les premiers logiciels de traitement de textes ne se développent vraiment qu’avec l’ajout des interfaces graphiques au milieu des années 1980. Ces nouveaux environnements techniques reconfigurent de fait la rédaction des textes : le contenu en est nécessairement informé. Loin de l’idée d’« outils » neutres que l’on pourrait manier à sa guise, les logiciels d’écriture, et par extension le Web et les médias sociaux, sont en réalité des couches techniques de programmes dont l’utilisateur ne perçoit que la surface. Dès lors, que peuvent l’art et le design pour déjouer ces conditionnements ?

Notions

Personnes citées

Objets mentionnés

De la sémiologie graphique aux Cultural Analytics, les failles de la mathématisation du visible

Date

décembre 2018

Type

Conférence

Contexte

Communication dans le cadre des journées d’étude « Objectivité et design graphique : l’interdisciplinarité entre art, image et science », dir. Anne-Lyse Renon et Catherine Allamel-Raffin, université de Strasbourg.

Résumé

Cette communication propose de resituer dans l’histoire de la cartographie topographique du 18e siècle l’émergence, au 19e siècle, de l’objectivité scientifique. Prolongée efficacement au 20e siècle dans la « sémiologie graphique » de Jacques Bertin, cette rationalité du visible influencera largement le champ de la visualisation de données. Cette prise de recul nous permettra d’analyser le récent domaine des Cultural Analytics, qui ambitionne de modéliser les productions culturelles humaines par l’analyse de grands jeux de données. Nous nous demanderons ainsi jusqu’où cette volonté de mathématisation du visible est-elle tenable.

Formes ou formulaires ? Matérialiser les cadres de la recherche-création

Date

mai 2021

Type

Conférence

Contexte

Participation au 88e congrès de l’Acfas (réseau francophone privilégié de la communauté scientifique), Québec, session « Art, architecture, design : penser la recherche dans le champ politique de l’enseignement supérieur. Matérialiser ‹ les cadres › de la recherche », dir. Eric le Coguiec et Céline Bodard.

Résumé

Pour les disciplines du projet (art, architecture, design), les définitions de la recherche se sont multipliées, et les formats de thèse ont fortement évolué depuis plusieurs décennies. Pourtant, les discussions ont surtout jusqu’à présent porté sur les enjeux épistémologiques et méthodologiques, soulevés par les différents types de recherche (fondamentale, appliquée ou plus récemment research by design, recherche-projet ou recherche-création) et moins sur les questions d’ordre institutionnel et plus largement politique. L’enjeu est donc de pouvoir poursuivre ces réflexions épistémologiques tout en les reliant au caractère politique de la recherche universitaire : comment les recherches en art, en architecture et en design interagissent-elles avec les formes institutionnelles qui les conditionnent ?

Notions

Personnes citées

Objets mentionnés

Chercher, archiver, exposer

Date

octobre 2021

Type

Conférence

Contexte

Participation à la journée de lancement du projet ANR DESIGNSHS – « Design graphique, recherche et patrimoine des sciences sociales. Le Laboratoire de graphique de Jacques Bertin », Archives Nationales, 14 octobre 2021. Slides reprises d’une communication précédemment donnée à Bordeaux en février 2021.

Résumé

Le Laboratoire de graphique que Jacques Bertin crée et dirige de 1954 à 1985 à l’École pratique des hautes études puis à l’École des hautes études en sciences sociales articule de manière inédite production d’images, visualisation de données et recherche scientifique, souvent en collaboration avec des chercheurs en sciences humaines et sociales. Au travers des nombreux travaux et publications, dont le traité majeur que Bertin publie en 1967, Sémiologie graphique, le Laboratoire a eu une influence majeure sur les pratiques cartographiques ; il est considéré aujourd’hui comme précurseur des recherches sur la data visualisation.

Appareiller les plateformes de partage du savoir

Date

mai 2023

Type

Conférence

Contexte

Conférence donnée dans le cadre du séminaire « Design graphique et sciences sociales », session « Visual analytics et humanités numériques », dir. Charlotte Bigg, Paris, EHESS.

Résumé

Cette communication traitera des enjeux des interfaces de partage du savoir. Si l’on comprend la recherche comme la production de nouvelles connaissances, qu’en est-il de la façon dont celles-ci sont « formées » visuellement ? Autrement dit, que gagnerait-on à ne pas opposer production et communication mais à les étudier de façon entrelacée ? Suffit-il de produire des connaissances pour qu’elles soient opérantes ? Nous proposons d’aborder ces questions sous l’angle des plateformes scientifiques d’archivage et de consultation de documents historiques afin de situer le livrable principal du projet ANR #DesignSHS dans un écosystème plus large : comprendre ces plateformes non pas comme des « outils » mais comme des appareillages de savoirs.

Archiver et valoriser les données de la recherche-création

Date

mai 2023

Type

Conférence

Contexte

Communication aux journées Open Science de la HES-SO, Yverdon-Les-Bains, HEIG-VD.

Résumé

Les données de projets de « recherche-création » en art et design se présentent sous une grande diversité de formats et concernent la préparation des requêtes, le déroulé des projets, les livrables et leur valorisation. Clarifier la typologie de ces données est nécessaire pour être en cohérence avec les exigences open data et assurer leur pérennisation à long terme. Une telle démarche vise aussi à assurer une valorisation des projets par un meilleur archivage de ce qui a été réalisé. Ce sont ces enjeux qu’un projet mené conjointement par la HEAD et la HEM, avec l’appui de la HEG, vise à traiter. Il s’agit, à terme, de créer des outils novateurs prenant en compte les spécificités des formats de restitution de la recherche en art et en design, tout ayant pour soucis de les insérer dans les standards internationaux de diffusion et d’évaluation des savoirs produits.

CryptoKit, une cartographie visuelle des technologies blockchain

Date

mai 2023

Type

Conférence

Contexte

Conférence « Agora » au Campus Artem, Nancy.

Résumé

Le projet de recherche CryptoKit propose une cartographie visuelle des technologies blockchain et des protocoles Web3 afin de les rendre accessibles à un large public. Il comprend notamment une police de caractères libre de droits de plus de 200 pictogrammes représentant les termes clés des technologies blockchain. Ces symboles peuvent être composés en diagrammes didactiques grâce à un outil dédié disponible sur www.cryptokit.ch.

Écriture multimédia : le bug

Date

septembre 2011 — décembre 2011

Type

Cours

Contexte

Résumé

2011-2012 (1 er semestre) Le cours « Écriture Multimédia  » est envisagé comme un lieu d’expérimentations d’écritures sur supports numériques. La formation articule une sensibilisation aux théories des nouveaux médias à une pratique ouverte et curieuse des outils de création numérique. «  It’s not a bug, it’s an undocumented feature  »Contre une société du prévisible. Surveillance, sondages, profilage, statistiques, prospective, cahiers de tendance, contrats de mariage, modes d’emploi, tests de montage, tests utilisateurs, relectures, corrections , modélisation, sérialisation, assurances, service après-vente, etc. L’époque vit dans la peur de ce qui échappe au contrôle, tout est fait pour prévoir, anticiper, maîtriser. Les produits s’imitent, les commerces étendent leurs franchises dans toutes les grandes villes, faisant fi de l’expérience du divers. L’opinion remplace la connaissance, l’analyse, le jugement critique. Les moteurs de recherche et les réseaux sociaux nous confrontent en priorité à des idées qui sont déjà les nôtres. Et malgré tout demeure, irréductible, la possibilité imprévisible et spontanée d’une altérité dysfonctionnante. C’est précisément cette «  différance  » (Jacques Derrida) que nous appelons ici sous le diminutif explicite de «  Bug  ».

Audrey Lorel
Images de la guerre | Guerre des images

Date

juin 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Il y a un peu plus de soixante ans, l’humanité a été libérée du nazisme. Au lendemain de la guerre, une seule justification : « On ne savait pas ». Aujourd’hui, on a en notre possession l’expérience de l’horreur et l’ensemble des outils pour que plus jamais cela ne se reproduise. Pourtant, pour la première fois depuis longtemps, la France s’est trouvée cette année engagée dans quatre guerres à la fois, sans parler des conflits largement passés sous silence dans la presse nationale. Mais ce sont toutes les aberrations du quotidien qui altèrent chaque jour un peu plus la frontière entre indignation et voyeurisme, entre information et divertissement. Pourtant, « on en a marre de toutes ces images de guerres ». De quelles manières les faiseurs d’images peuvent-ils éduquer le regard des gens et influer sur leur perception de l’actualité ? Comment le graphisme peut-il rétablir le poids des événements ?

Tables-rondes « Autour du graphisme », 9 février 2013

Date

février 2013

Type

Cours

Contexte

Résumé

Coordination des tables-rondes Choix des invités, répartition et suivi des tâches (invitations, communication, accueil, transports, nourriture, modération, live-tweet, enregistrements vidéo, etc. Organisation menée avec Adeline Goyet. À l’initiative des étudiants de deuxième année du mastère Design graphique, un colloque a eu lieu samedi 9 février 2013 au Campus de la Fonderie de l’Image, réunissant un graphiste, une typographe, un psychanalyste et une historienne de l’art pour débattre «  autour du graphisme  ». Ces tables-rondes, intégralement organisées par les étudiants, ont été pensées dans le but de nourrir les problématiques des mémoires de fin d’année. Alexandre Saint-Jevin et Morgane Rébulard ont ouvert la discussion, suivis l’après-midi par Julien Priez et Annick Lantenois. Design  : Gauthier Duquesnay Les invités  : Alexandre Saint-Jevin, co-fondateur de la revue scientifique Réel  |  Virtuel, enseigne la théorie des arts plastiques et prépare un doctorat de psychanalyse sous la direction de Gérard Wajcman. Par ses différentes formations, il croise psychanalyse, esthétique, linguistique et cultural studies. Il étudie plus particulièrement la théorie de la machine dans l’œuvre de Lacan afin de faire émerger un concept spécifique du virtuel. Sa pratique artistique questionne la dimension incorporelle du corps et l’invisible comme condition de visibilité. Historienne de l’art et enseignante à l’École Régionale des Beaux-Arts de Valence, Annick Lantenois s’est orientée dès le début des années 1990 vers la théorie du design graphique. Outre l’organisation de colloques et de tables rondes, elle a publié des articles dans les revues Azimuts, Back Cover et Livraison. Son ouvrage Le Vertige du funambule. Le design graphique, entre économie et morale constitue la synthèse de recherches menées ces dix dernières années. Diplômée de l’école Estienne et de l’ÉSAD d’Amiens en 2010, Morgane Rébulard a cofondé The Shelf Company avec Colin Caradec. Cette structure se compose d’un atelier graphique, d’une maison d’édition et d’un journal semestriel sur le design éditorial et le graphisme du livre. Du dessin de caractères à la création d’une revue, Morgane Rébulard est aussi la créatrice du caractère Le Polyglotte, outil typogra­phique conçu pour l’édition multilingue. Graphiste, typographe et calligraphe, Julien Priez est diplômé de l’école Estienne (DSAA Design Typographique, 2010). Il a participé à la conception de la typographie La Briqueterie pour le Centre de développement chorégraphique du Val-de-Marne, en association avec l’Atelier Pierre di Sciullo. Le Montreuil, système typographique créé en 2010, vise à signifier la diversité et la mixité socio-culturelle de la ville. Quelques thèmes abordés  : Les espaces de vide, de liberté, et de marginalité. L’incorporalité du corps. Le virtuel, le réel, l’imaginaire et le numérique. Norme et écriture. La typographie comme vecteur de dialogue. L’engagement du designer. Le live-tweet Durant les tables-rondes, le public était invité à interagir via Twitter. Les principales interventions étaient projetées en live sur un « wall tweet », favorisant les réactions et questionnements. L’archive de ces discussions est disponible ci-dessous, retraçant les temps fort de la journée. > Voir le Storify des tables-rondes

CV

Date

Type

Contexte

Résumé

Productions de recherche

Date

Type

Contexte

Résumé

Revue Back Office

Date

décembre 2015 — juin 2023

Type

Projet

Contexte

La revue a été cofondée en 2017 par Kévin Donnot, Élise Gay et Anthony Masure. Elle est coéditée par les éditions B42 et Fork éditions.

Résumé

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias