Anthony Masure

chercheur en design

Recherche

Résultats de recherche

iPad et mimesis

Date

June 2010

Type

Publication

Contexte

Anthony Masure, « iPad et mimesis », journée d’étude à propos de László Moholy-Nagy, laboratoire de recherche CREDE, juin 2010

Résumé

Étude et analyse de l’interface de lecture de l’application iBooks sur iPad : comment sortir d’un modèle mimétique pour proposer une expérience de lecture singulière ?

Archéologie des notifications numériques

Date

April 2019

Type

Publication

Contexte

Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)

Résumé

La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?

Personnes citées

IA et pédagogie : un état de l’art

Date

April 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

Divertissements typographiques : des épreuves de caractères aux spécimens animés

Date

April 2021

Type

Publication

Contexte

Article coécrit avec Michel Wlassikoff dans le 4e numéro de la revue Back Office intitulé « Suivre le mouvement ».

Résumé

Le spécimen typographique constitue un genre de publication à part, entre document promotionnel et espace d’expression graphique. Il s’incarne aujourd’hui sur le Web à travers des sites de démonstration expérimentaux que l’article propose d’analyser au regard de l’histoire typographique ancienne.

Podcast Killed by App

Date

April 2017 — March 2018

Type

Projet

Contexte

Podcast préparé et animé avec Saul Pandelakis, diffusé sur Radio FMR Toulouse, dans le cadre de l’émission CPU Programme produite par Xavier Mouton-Dubosc aka Dascritch.

Résumé

Le podcast Killed by app analyse les enjeux socio-politiques des applications numériques. Animé avec Saul Pandelakis et réalisé par Dascritch, cette chronique à parution aléatoire est diffusée sur Radio FMR Toulouse dans le cadre de l’émission CPU Programme. Placé sous licence libre, ce podcast est envisagé comme un temps de recherche jouant des décalages de media pour préparer un essai à quatre mains traitant des thématiques qui y sont abordées. — #01 – «  Fantômes de la déconnexion  » – 06/04/2017 – MP3 — #02 – «  Assistants personnels, l’ère de Jarvis  » – 15/06/2017 – MP3 — #03 – «  Recherche amour informatiquement  » – 21/09/2017 – MP3 — #04 – «  My other car is a smartphone  » – 19/10/2017 – MP3 — #05 – «  Mini  » – 04/01/2018 – MP3 — #06 – «  Maxi  » – 01/03/2018 – MP3

Subjectivités computationnelles et consciences appareillées

Date

April 2016

Type

Publication

Contexte

Anthony Masure, « Subjectivités computationnelles et consciences appareillées », Multitudes, no 62, avril 2016, p. 87-96

Résumé

Cet article revient sur la notion de « subjectivité computationnelle » formulée par David M. Berry visant à développer une approche critique des technologies numériques. Afin de comprendre les implications philosophiques d’un tel rapprochement entre « subjectivation » et « computation », nous reviendrons tout d’abord, via Leibniz et Hannah Arendt, sur l’émergence des sciences modernes qui visent à faire du « sujet » classique une entité calculante. Nous verrons ensuite comment les sciences « comportementales » ont influencé la conception des ordinateurs en substituant à la raison humaine des modélisations rationnelles déléguées à des machines. Pour sortir de l’impasse d’une déshumanisation annoncée dès la fin des années 1970 par des auteurs comme Ivan Illich ou Gilles Deleuze, nous envisagerons enfin la « subjectivation » comme un processus qui ne nécessite pas qu’il y ait sujet. Le concept d’« appareil », tel que le propose Pierre-Damien Huyghe à propos de la photographie et du cinéma, peut ainsi être étendu aux machines computationnelles pour penser de possibles « consciences appareillées ».

Total Record. Les protocoles blockchain face au post-capitalisme

Date

May 2018

Type

Publication

Contexte

Article coécrit avec Guillaume Helleu dans la revue Multitudes, no 71, dossier « Dériver la finance », été 2018

Résumé

Le protocole Bitcoin (2009) s’inscrit dans le prolongement des utopies crypto-anarchistes visant à développer une monnaie numérique sécurisée et distribuée sur le réseau Internet pour échapper à la centralisation du pouvoir par les banques et les gouvernements. Récupérées en grande partie par la finance spéculative, ces technologies à chaînes de blocs (blockchain) se sont progressivement développées et dépassent désormais largement le champ monétaire (applications distribuées, contrats intelligents, jetons de valeurs, etc.). Malgré la persistance de certains freins sociaux et techniques, les protocoles blockchain pourraient-ils prendre de vitesse la logique destructrice du capitalisme financier ?

Des interfaces graphiques aux IA. Vers un design à sens unique ?

Date

January 2024

Type

Publication

Contexte

Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.

Résumé

À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.

NFTs Beyond the Visible: Poised Between En Bloc Rejection and New Chains of Value

Date

September 2022

Type

Publication

Contexte

Paper written with Guillaume Helleu for the journal AOC, which appeared in September 2022. Translated from French by Aviva Cashmira Kakar.

Résumé

NFTs (non-fungible tokens) appeared in 2017. They are tamper-proof decentralized digital certificates which have gained fame because of their appropriation by the art world. NFTs have attracted a great deal of controversy, and are frequently accused of being speculative, useless and polluting. We propose to examine these polemics, founded for the most part, in order to show that other approaches are possible. In fact, artistic applications are merely one link in the chain, and NFTs cannot be reduced to their mere visible aspect, they require a wider examination of their value systems, distribution chains, and methods of governance.

Notions

Personnes citées

Troubler les programmes. Design, cybernétique et biologie moléculaire

Date

October 2022

Type

Publication

Contexte

Article rédigé avec Élise Rigot pour l’ouvrage collectif Les écologies du numérique, Orléans, Esad, 2022

Résumé

Dans un monde où presque aucune activité humaine n’échappe aux programmes numériques, ces derniers prennent un caractère existentiel et engendrent un assujettissement du vivant à des logiques d’automatisation. Il en résulte un profond déséquilibre des milieux de vie (théories de l’effondrement, perte de la biodiversité, etc.) et une perte de sens de l’existence. Afin de mieux cerner le concept de programme, nous associons trois champs tendant à converger : le design, l’informatique et la biologie. Ce rapprochement permet de formuler trois perspectives écologiques non binaires – autant de scénarios qui contestent le présupposé d’un design comme plan et qui le redéfinissent comme « art de l’équilibre », « zone de trouble », et « variation d’insignifiant ».

Graphisme en numérique: entre certitudes et incertitudes

Date

April 2014

Type

Publication

Contexte

Anthony Masure, «Graphisme et numérique: entre certitudes et incertitudes», Paris, CNAP, Graphisme en France, no20, p. 65-76

Résumé

« Dans mes moments d’euphorie les plus intenses, c’est comme si le logiciel surgissait des profondeurs de l’ordinateur. Une fois finalisé dans mon esprit, j’avais le sentiment qu’il siégeait dans la machine, n’attendant plus que l’instant de sa libération. Dans cette optique, ne pas fermer l’œil de la nuit me semblait un prix à payer bien dérisoire pour lui donner sa liberté, pour que mes idées prennent forme. — Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000 » Cofondateur de Sun Microsystems 1 Fondée en 1982 et rachetée en 2008 par Oracle, Sun Microsystems a progressivement délaissé la production de serveurs et de postes de travail pour développer Java (un langage de programmation orienté objet), ainsi que M y SQL (un système de gestion de bases de données). et coauteur du langage de programmation Java 2 On appelle «langage de programmation» une bibliothèque d’instructions univoques interprétables par une machine, constituées d’un vocabulaire et d’une syntaxe définis. Le plus ancien est le FORTRAN (1954)., Bill Joy semblait être l’exemple parfait du développeur informatique accompli. C’est pourtant depuis sa pratique des codes sources 3 Le code source désigne l’ensemble des instructions et des fonctions constituant un programme (logiciel, page Web, etc.)., qu’il écrit, au début des années 2000, une mise en garde adressée à ses pairs: «Pourquoi le futur n’a pas besoin de nous 4 Bill Joy, «Why the Future doesn’t need us», Wired, avril 2000..» Rejouant les thèses développées par Günther Anders dès les années 1950 dans L’Obsolescence de l’homme 5 Günther Anders, L’Obsolescence de l’homme (1956), Paris, Ivrea, 2002. (sans les mentionner explicitement), Bill Joy en arrive, par sa pratique de codeur, à prophétiser lui aussi «un monde sans hommes». Comme Günther Anders, il se base sur le traumatisme de la bombe atomique. Bill Joy entrevoit la poursuite de cet évènement paradigmatique dans le développement des ordinateurs, du génie génétique, de la robotique et des nanotechnologies. Selon lui, ces recherches «représentent une menace différente des technologies antérieures» et menacent directement notre survie ici-bas. C’est l’ivresse résultant de la quête du savoir qui aveugle les scientifiques: «Happé dans le vortex d’une transformation, sans doute est-il toujours difficile d’entrevoir le réel impact des choses. […] Le progrès à l’origine de technologies toujours plus innovantes et toujours plus puissantes peut nous échapper et déclencher un processus autonome.» L’émancipation euphorisante permise par les programmes 6 Un programme est généralement conçu pour faire exécuter une tâche précise à une machine (afficher une couleur à l’écran, connecter un ordinateur à une adresse Web, etc.). Un logiciel comprend donc plusieurs programmes permettant de traiter des données. numériques masquerait-elle une catastrophe inéluctable ? À travers l’exemple de Bill Joy, nous pouvons donc distinguer deux attitudes possibles face à la technique: se laisser griser par ses infinies possibilités ou travailler contre elle. L’hypothèse que nous souhaitons étudier ici est que le design ne relève d’aucune des deux. Tel que nous pouvons le soutenir, le design est un processus conscient et inconscient «d’authentification» des techniques nouvelles 7 Sur ces notions rapidement abordées ici, il conviendra de se référer aux travaux de Pierre-Damien Huyghe. Voir par exemple: «L’outil et la méthode», Milieux, n o  33, 1988, p.  64-69.. Le designer travaille dans la marge séparant la certitude de l’incertitude. Il a pour tâche de révéler ce qui, parmi nous, est recouvert de nos habitudes culturelles. Afin de donner forme à ce changement 8 Günther Anders, ibid.: «Il ne suffit pas de changer le monde. Nous le changeons de toute façon. Il change même considérablement sans notre intervention. Nous devons aussi interpréter ce changement pour pouvoir le changer à son tour. Afin que le monde ne continue pas ainsi à changer sans nous. Et que nous ne nous retrouvions pas à la fin dans un monde sans hommes.», le designer ne doit pas se laisser «happer dans le vortex» séparant une époque d’une autre. La vigilance qu’il exerce vis-à-vis des avancées techniques ne va donc pas de soi. Dans le champ du numérique, le graphiste est souvent confiné à n’être qu’un utilisateur des systèmes techniques. Pourtant, il a, tout comme le développeur, un rôle à jouer dans les directions soutenables ou nuisibles que peuvent prendre les programmes. Plus encore, nous pensons que le designer graphique, par sa culture du projet, apporte des éléments de réflexion qui concernent, au sens large, le rapport de l’homme aux inventions techniques. Cet article sera ainsi l’occasion d’examiner quatre situations de controverse autour des rapports entre design graphique et culture numérique. Ces analyses sont dans le prolongement des articles parus ces vingt dernières années au sein de la revue Graphisme en France. Forcément incomplètes, ces lectures croisées explorent des façons de faire du design qui ne présument pas d’avance sur ce qui peut être trouvé, et espèrent ouvrir des «perspectives […] aussi excitantes qu’incertaines 9 Michel Wlassikoff, «Graphisme et informatique, rapide bilan d’une liaison durable», Graphisme en France 1998, Paris, CNAP, 1998.». Révolution informatique / culture numérique Écrit en 1998, l’article «Graphisme et informatique, rapide bilan d’une liaison durable» de l’historien Michel Wlassikoff 10 Michel Wlassikoff est historien du graphisme et de la typographie, diplômé en histoire de l’EHESS. Il enseigne au sein de plusieurs écoles d’art et de design en France et à l’étranger. expose les mutations historiques et esthétiques des logiciels de création. La «décennie prodigieuse» du design graphique déroulée par Wlassikoff nous renseigne à propos de la réception française des technologies dites nouvelles. La conclusion de son texte fait ressortir deux types de rapport à l’ordinateur: la crainte d’une homogénéisation de la création et le développement d’esthétiques nouvelles, «radicalement différentes». Dans son livre Le Monde du computationnel 11 Jean-Michel Salanskis, Le Monde du computationnel, Paris, Les Belles Lettres, 2011., Jean-Michel Salanskis tente de penser le numérique au-delà de la promesse d’une «révolution». Selon lui, le numérique rassemble une multitude d’objets contradictoires, qu’il est délicat d’englober sous une même appellation. En effet, le rapport utilitaire aux objets techniques empêche que cette problématique «révolution» soit tout à fait la nôtre, car ce qu’ils ont d’inédit est souvent parasité par d’anciens modèles de pensée. Le dévoilement de l’ordinateur dans sa puissance de nouveauté commence par le jeu, activité libre et exploratoire. C’est pourquoi il importe que les «systèmes d’exploitation» ne ferment pas à tout jamais la «visite des entrailles 12 Ibid., p.  75.» de nos machines. Grotesk, caractère numérique de Frank Adebiaye pour la fonderie Velvetyne. Première publication sur velvetyne.typepad.com, le 26 juin 2010, sous le nom de Mercandieu, renommé en 2011 en Grotesk, fonte numérique sous licence Open Font License. © F. Adebiaye, 2010-2011, certains droits réservés. Le travail du typographe Frank Adebiaye de la fonderie Velvetyne (VTF) 13 velvetyne.fr va dans ce sens. Distribuées sous la SIL Open Font License (OFL), ses fontes sont accessibles librement 14 VTF, «Manifeste posttypographique, ou l’appel des formidables»: «Nous, VTF, rejetons intrépides de la génération Postscript, nous poursuivons, à la vitesse de l’électron, cet illustre cortège. Tel Spartacus, nous libérons les caractères du joug des règlements iniques et des conventions arbitraires (…).» au designer graphique, au relecteur ou à l’imprimeur, ce qui simplifie le process d’édition. Dans un même registre, Frank Adebiaye poursuit actuellement des recherches autour de la génération automatisée de contenus destinés à l’impression. Référents non référents 15 Frank Adebiaye, Référents non référents, Paris, Forthcome, 2013, coll. «Hoplites», (En ligne), forthcome.fr/hoplites/ref_non_ref/ref_non_ref.html., son dernier livre, est un recueil de textes poétiques écrits entre 2006 et 2013. L’ouvrage est réalisé en XML 16 Le XML est un langage de «balisage» qui facilite l’échange de données complexes par sa grande flexibilité., et interprété par un navigateur Web type Firefox HTML 5 17 Initié en 2009, le langage HTML 5 permet une structuration plus fine des contenus. La gestion des médias est également simplifiée par les balises audio et vidéo.. Le passage du numérique à l’imprimé s’effectue ici par un usage savant des nouvelles possibilités techniques du Web: Responsive Web Design (RWD, site Web adaptable à plusieurs résolutions d’écran), ancres (liens internes) aléatoires, fontes Web hintées (optimisées pour la lecture à l’écran) via le service en ligne Cloud Typography de Hoefler & Frere-Jones 18 typography.com/cloud, etc. Ce type de démarche est partagé par des designers pour qui le travail de la programmation numérique («ce qui ne supporte pas l’inexactitude 19 Ibid., p.  65.») se fait dans l’acceptation d’une certaine marge d’incertitude. Artisanat numérique / conscience industrielle Beaucoup de produits ont pour finalité de disparaître à l’usage. Dans le champ du design graphique, les outils numériques informent directement les pratiques. Il en est ainsi, par exemple, des logiciels propriétaires dits de création, dont les conditionnements pernicieux ont aussi marqué la dernière décennie du design graphique francophone. Ces programmes ne sont pas des interfaces transparentes, mais bien des vecteurs d’idées voire d’idéologies 20 Pour en savoir plus sur ce point, voir Kévin Donnot, «Code = Design», Graphisme en France 2012, Paris, CNAP, 2012, p.5-12. Cela n’empêche pas certains designers de jouer avec les codes de leurs environnements de travail, telle Danielle Aubert, qui compose des tableaux dans le tableur Microsoft Excel 21 Danielle Aubert, 58 Days Worth of Drawing Exercises in Microsoft Excel as Rendered for Web and Animated Daily Excel Drawings, 2005 – 2006, (En ligne), (link: https://danielleaubert.com/print/exceldrawings_book.. Danielle Aubert, Sixteen Months Worth of Drawing Exercises in Microsoft Excel, extrait, 3 avril 2005. © D. Aubert Selon Annick Lantenois, depuis 1990, le développement des programmes a été progressivement confié aux ingénieurs, le designer se retrouvant dès lors relégué au statut de simple usager. Comme le dit Florian Cramer: «Ce modèle impose un retour à un mode de travail artisanal qui exclut les artistes et les designers des évolutions des médias de masse électroniques 22 Annick Lantenois cite Florian Cramer dans: «Ouvrir des chemins», Graphisme en France 2012, Paris, CNAP, 2012, p.  15. […].» Une telle expression réactualise des débats très anciens sur la constitution du design comme champ autonome de l’artisanat. L’histoire d’un mouvement précurseur comme le Deutscher Werkbund 23 Lucius Burckhardt, Le Werkbund: Allemagne, Autriche, Suisse (1977), Paris, Centre d’études et de prévisions, 1981. est ainsi jalonnée de prises de position contradictoires sur le rapport à l’industrie – travail manuel et production de masse. Dans la synthèse qu’en donne Walter Gropius au Bauhaus, il y aurait «design» quand les artistes cessent de s’opposer à l’industrie et travaillent avec elle, en tension – Art et Industrie 24 «Kunst und Technik – eine neue Einheit», Walter Gropius, 1923.. Si la place nous manque pour développer ce dernier point, et pour en revenir aux rapports entre design graphique et culture numérique, nous noterons tout de même qu’elle implique la possibilité d’une «esthétique avec la mécanisation 25 Pierre-Damien Huyghe, Art et Industrie. Philosophie du Bauhaus, Belval, Circé, 1999, p.41.». Le retour au mode de vie médiéval de la communauté artistique avait déjà été expérimenté à l’orée du Bauhaus. Est-ce que le design graphique, dans les conditions techniques actuelles, gagnerait à revenir à un modèle où les notions de production en série et de standardisation ne posaient pas problème ? Ne risquerait-on pas alors, en réaction à des craintes similaires à celles de Bill Joy, de basculer dans une attitude antitechnique ? Superscript 2, affiche pour l’exposition Lettres Type, My Monkey, Nancy, novembre 2011. 80 × 120 cm. © Superscript 2 Superscript 2, Opération Graffiti, affiche réalisée pour le Festival international de l’affiche et du graphisme de Chaumont, 2013. Interprétation graphique d’une opération militaire. 80 × 120 cm. © Superscript 2 À l’opposé de ce retour à une tradition révolue, les travaux du studio Superscript 2 jouent ainsi avec les codes graphiques de la production en série, hésitant ironiquement entre travail manuel et automatisation complète du processus créatif (le «super script»). Ce qui est en jeu ici, c’est la fondamentale marge de liberté qui fait de toute vie authentiquement humaine une singularité non reproductible. L’enjeu du design serait alors de permettre le développement des techniques, sans qu’elles nous portent atteinte. Dire cela ne revient donc pas à accepter toute forme de production en série, mais bien au contraire à la choisir et à la transformer. À la lumière de ces quelques intuitions, nous pouvons relire ce que disait Michel Wlassikoff des «logiciels [qui] se sont ainsi inspirés des habitudes professionnelles et ont pris en compte les propositions des graphistes, ce qui a assuré leur adoption rapide et leur constante adaptation». Ce mélange d’habitudes et de renouvellements définit bien la réalité du designer, pris dans une zone de confort qu’il cherche continuellement à dépasser. Ordonner le monde / donner forme à la technique Dans « Ce que nous pourrions penser», article visionnaire publié dans le contexte de la bombe atomique de 1945, Vannevar Bush 26 Vannevar Bush, «As We May Think», The Atlantic Monthly, volume 176, n o  1, juillet 1945, p.  101-108. Trad. de l’auteur., chef de la recherche scientifique étasunienne, développe l’idée d’un réseau d’informations à échelle mondiale. Plus précisément, il invente sur le papier la notion d’hypertexte, qui ne sera réalisée techniquement qu’une trentaine d’années plus tard. Son concept de «memex» vise à résoudre le problème de la dispersion des articles scientifiques, dont les meilleurs tombent dans l’oubli. Sa visée plus large est d’éviter qu’un nouveau conflit mondial ne se produise. Cet article, écrit comme celui de Bill Joy depuis une pratique des systèmes d’informations, interroge la façon d’organiser le savoir humain à l’époque des calculateurs. Pour Vannevar Bush, il y a un enjeu décisif à choisir ce qui doit être rendu public (partageable) dans une masse d’informations. L’hypertexte ouvre la possibilité de structurer un flux afin d’isoler ce qui est pertinent de ce qui ne l’est pas. Si l’humanité n’est plus en mesure de transformer l’information en connaissance, alors cette indistinction deviendra indigestion, «infobésité», absence de communication, conflit, bombe. L’éthique de l’ingénieur développée par Vannevar Bush est aussi celle du designer: la technique doit servir l’homme pour lutter contre ses insuffisances. Rationalisé et rendu disponible, le savoir humain doit pénétrer toutes les couches de la société pour l’éclairer de ses vertus. Cette pensée se prolonge aujourd’hui, avec d’importantes nuances, dans des systèmes dont l’ambition ne serait plus seulement d’organiser le monde, mais de le recouvrir de leurs ordonnancements. On pourra penser ici à l’ambition de Google «d’organiser toute l’information du monde 27 Larry Page, à propos de Google: «Notre ambition est d’organiser toute l’information du monde, pas juste une partie», Paris, Le Monde, 21 mai 2010.». Par là, on remarque que le monde n’est pour Google qu’une matière dont la finalité serait de produire des éléments signifiants, c’est-à-dire des connaissances pouvant faire l’objet d’un rendement. Dans cette configuration, nul espace n’est supposé échapper à la trame informationnelle 28 Paul N. Edwards, Un monde clos. L’ordinateur, la bombe et le discours politique de la Guerre froide (1996), Paris, B2, coll. Territoires, 2013. qui se tisse autour de nos existences, réduites progressivement à des entités calculables. Avec le recul dont nous disposons désormais, nous pouvons dire que «l’informatique» dont parlait Michel Wlassikoff s’est constituée en culture numérique. On retrouve l’origine française du mot «ordinateur», dans une lettre de 1955 adressée au président d’IBM: «Cher Monsieur, écrivit Jacques Perret, que diriez-vous d’ordinateur ? C’est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l’ordre dans le monde 29 Éric Hazan, «16 avril 1955: que diriez-vous d’ordinateur ?», Paris, Le Monde, 15 avril 2005..» Cette traduction maximaliste du terme «computer» substitue ainsi à la puissance de calcul l’idéal religieux d’un ordonnancement du monde. Il y a aussi dans l’ordonnancement, au sens testamentaire, l’idée d’instaurer et de prendre des dispositions, c’est-à-dire des décisions. N’est-ce pas aller trop loin, au risque du contresens, que d’attribuer de telles propriétés aux machines à calculer ? Au-delà de ces promesses, un champ de recherche pour les designers graphiques consisterait à faire apparaître les systèmes techniques qui disparaissent habituellement derrière des interfaces «transparentes». Il ne s’agit donc plus simplement d’organiser le monde, mais avant tout de donner à le comprendre 30 «(Notre époque) se raidit pour atteindre l’absolu et l’empire, elle veut transfigurer le monde avant de l’avoir épuisé, l’ordonner avant de l’avoir compris.» Albert Camus, «L’Exil d’Hélène», dans: L’Été, Essais, Paris, La Pléiade, 1963, p.  856.. Dans les projets de design qui nous intéressent, la technique n’est pas abordée dans sa dimension fabuleuse, mais révélée dans sa puissance de nouveauté. Il en est ainsi de l’affiche Specimen de Fanette Mellier, réalisée dans le cadre d’une exposition au pôle graphique de Chaumont en 2009. Ce projet ne cherche pas à «faire image», mais affirme son statut d’objet imprimé, appréciable à une échelle déterminée. Le recto est rempli des trames et gammes colorées servant au calibrage des machines d’impression. Ce motif obsessionnel sature la page d’éléments géométriques non symboliques, faisant de ce qui n’est habituellement pas vu l’endroit d’une expérience sensible. Le verso de l’affiche contient des éléments informatifs conventionnels. Une fois pliée, l’affiche joue du contraste entre ces deux modes d’approche du design graphique: manifester une technique ou délivrer un message. Fanette Mellier, Specimen, affiche pour un programme d’expositions sur le graphisme éditorial, pôle graphisme de Chaumont, 2009. Impression offset recto-verso. 120 × 176 cm. Le titre apparaît avec le pli. © F. Mellier Datavisualisation / transformation de données Les dizaines de millions de fiches individuelles accumulées par John Edgard Hoover au sein du FBI n’auront pas suffit à nous réveiller. Le scandale déclenché par les révélations d’Edward Snowden sur les pratiques de la NSA a de nouveau mis en lumière les liens profonds existants entre les gouvernements occidentaux et les grands groupes de télécommunication. Même si nous pouvions nous en douter, ces preuves à charge jettent le trouble sur un système n’ayant plus grandchose à voir avec des préoccupations citoyennes. Au début des années 2000, le Web 2.0 31 Tim O’Reilly, «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», conférence du 30 septembre 2005. aura été, sous couvert de partage et d’ouverture des possibilités techniques, l’endroit d’un recentrement problématique. La «facebookisation» du Web est celle de sa progressive transformation en télévision. Par exemple, la récente fonction autoplay des vidéos des flux Facebook 32 Josh Constine, «Facebook Puts Its Web Feed In Motion With Auto-Playing Videos», Techcrunch.com, 11 décembre 2013, (En ligne), techcrunch.com/2013/12/11/facebook-autoplay-video vise à réduire le degré d’interaction avec le contenu, pour proposer un modèle de consommation passive. Comme l’écrivait en 1987 le critique de cinéma Serge Daney: «L’affaire Médiamétrie […] et ce qu’on sait sur les techniques à venir du contrôle du téléspectateur vont toutes dans le même sens: l’écran du téléviseur n’est plus une frontière qui – comme tout écran – sépare et réunit des êtres anonymes mais un miroir dans lequel, idéalement, l’émetteur et le récepteur se comptent et se voient 33 Serge Daney, Le Salaire du zappeur, Paris, P.O.L, 1987, p.  11..» Le modèle télévisuel apprend aux gens à vendre leurs expériences – finalité bien éloignée des utopies des pionniers d’Internet 34 Fred Turner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand, un homme d’influence (2006), Caen, C&F, 2012.. Dans cette calculabilité des existences, la multiplication des informations interroge le designer sur son rôle d’organisateur. Le mythe des données «brutes» est battu en brèche par l’étude du «travail des données 35 Hubert Guillaud, «Travail et travailleurs de la donnée», Internet Actu, 13 décembre 2013, (En ligne), internetactu.net/2013/12/13/travail-et-travailleurs-de-la-donnee », qui montre que celles-ci sont toujours biaisées et soumises à interprétation. Dès lors, on comprendra que le rôle du designer graphique est central dans la compréhension des données. Son travail tient davantage de la «transformation 36 Marie Neurath, Robin Kinross, Le Transformateur, Paris, B42, 2013.» que d’une illusoire objectivation. Non seulement les données sont visibles avant le travail du designer graphique, mais celui-ci produit un travail d’interprétation voire de production du sens qu’il serait difficile de nier. Par exemple, en mettant en tension l’impersonnalité des diagrammes à des éléments illustratifs et narratifs, le design du rapport d’activité 2012 du CNAP réalisé par The Shelf Company (Morgane Rébulard et Colin Caradec) se joue ainsi des conventions graphiques. The Shelf Company: Morgane Rébulard et Colin Caradec, Rapport d’activité du CNAP, 2012, p.  63. © The Shelf Company, 2013 Afin de «faire société» dans ce déluge de données «obtenues 37 Bruno Latour, «Que la bataille se livre au moins à armes égales», postface à Controverses climatiques, Sciences et Politiques, Paris, Les Presses de Sciences Po, 2012, p.  6.», le médialab de Sciences Po (initié par Bruno Latour) mène depuis quelques années des recherches autour de leurs modalités de présentation à l’écran. Comme il est possible de faire dire n’importe quoi à des chiffres, il ne suffit pas de démontrer l’ensemble du traitement statistique. Il faut également expliquer comment on est parvenu à l’image finale, en laissant à l’utilisateur la possibilité de remonter dans le processus d’abstraction. Ces interfaces recourent ainsi à ce que l’on pourrait appeler une «chaîne de transformation 38 «(…) la production de savoir est un cheminement, une trajectoire, une chaîne de transformations (…).» Bruno Latour, «La connaissance est-elle un mode d’existence ?», dans: Vie et Expérimentation. Peirce, James, Dewey, Paris, Vrin, 2007, p.  13.», pour désigner la présentation cohérente de l’ensemble du cheminement intellectuel. Comme le dit Bruno Latour: «Propriété essentielle, cette chaîne doit rester réversible. La traçabilité des étapes doit permettre […] de la parcourir dans les deux sens. Qu’on l’interrompe en n’importe quel point et voilà qu’elle cesse de transporter le vrai, de le produire, de le construire, de le conduire 39 Bruno Latour, «Sol amazonien et circulation de la référence» (1993), dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007, p.  74..» En ouvrant des marges entre la collecte et l’abstraction, de telles démarches cherchent à comprendre plus qu’à ordonner 40 Karl Marx, Thèses sur Feuerbach, XI, 1888: «Les philosophes n’ont fait qu’interpréter le monde de différentes manières, ce qui importe, c’est de le transformer.» ; elles laissent de la place à l’autre. Figure de Bruno Latour: «Pour chacune des étapes que traverse la référence, la transformation peut être représentée comme un compromis entre ce qui est gagné [amplification] et ce qui est perdu [réduction] à chaque étape de la production d’information.» Extrait de «Sol amazonien et circulation de la référence» [1993], dans: L’Espoir de Pandore. Pour une version réaliste de l’activité scientifique, Paris, La Découverte, 2007. Penser en numérique Le développement des logiciels libres 41 Le logiciel «libre» vise à respecter la liberté essentielle de l’utilisateur (liberté d’utiliser, de modifier et de redistribuer des copies d’un programme). L’open source voit dans la mise à disposition du code source la meilleure façon de favoriser l’innovation logicielle. a permis à des machines hétéroclites de dialoguer ensemble. Nous réalisons chaque jour que cette idée est fondamentale, afin que le Web (et le numérique en général) ne se referme pas définitivement. Pour cette raison, il est important que les logiciels libres développent de nouvelles «méthodes d’approche 42 László Moholy-Nagy, «Nouvelle méthode d’approche – Le design pour la vie» (1947), dans: Peinture, photographie, film et autres écrits sur la photographie, Paris, Folio, 2007.», au lieu de se contenter d’imiter des logiques propriétaires. Nous pouvons nous référer ici à la ligne de recherche Design by Numbers, initiée par John Maeda dans les années 1990 43 John Maeda, Design by Numbers, Cambridge, MIT Press, 2001.. Créé par Ben Fry et Casey Reas en 2001, le logiciel Processing 44 processing.org est directement issu de ces explorations. En permettant de tracer et d’animer des formes au moyen d’une syntaxe 45 Dans le contexte du code, la syntaxe permet d’articuler des instructions pour les rendre compréhensibles par la machine. simplifiée, ce type de programme permet de dépasser les interfaces à base d’icônes et de menus déroulants. Plus encore, le succès de Processing nous dit, s’il en était besoin, que l’évolution des supports modifie profondément les champs d’action du design graphique. Les médias animés, sonores, tactiles, etc. font partie de notre quotidien depuis déjà de nombreuses années, et cette réalité doit être prise en compte par les designers. Murmur, du studio Chevalvert 46 m-u-r-m-u-r.me. Projet réalisé en collaboration avec 2R oqs, Polygraphik et Splank. Technologies employées : OpenFrameworks, Javascript, bandes LED. Processing avait été utilisé pour les premiers prototypes de Murmur., incarne cette transversalité des supports, où le projet s’enrichit des expériences passées. Ici, une prothèse architecturale permet la communication entre une personne etun mur sur lequel elle est connectée. Ce type de démarche excède toujours un peu l’idée initiale, les codes sources pouvant être réinvestis dans d’autres contextes et/ou redistribués librement. Murmur, un projet de Chevalvert, 2R oqs, Polygraphik et Splank, vue de la projection dans le cadre de «nuit numérique #10X-L ight», Centre culturel Saint-Exupéry, Reims, 25 mai 2012. ©D.R. Les logiciels sont généralement plus intéressants quand ils sont employés pour des usages qui n’étaient pas prévus initialement. Utilisé dans le projet Murmur, Processing permet aux designers d’inventer de nouveaux environnements de travail. À la recherche d’une esthétique pertinente pour leur «journal de recherche», les designers de NORMALS ont développé dans Processing une interface de création de bande dessinée vectorielle. La forme est directement issue du code, et non d’une logique analogique. Une fonction de leur programme Polyrotor connecte ainsi les nouveaux points placés sur l’écran à ceux qui sont les plus proches 47 «Delineating the Future – an interview with NORMALS», Creative Applications Network, 6 décembre 2013, (En ligne), creativeapplications.net/theory/delineating-the-future-an-interview-with-n-o-r-m-a-l-s. Cette façon de faire du graphisme en numérique invente des formes qui ne sont pas totalement anticipables par l’imagination. Les formes polygonales dessinent un futur où le réalisme de l’image est mis en doute au profit d’hypothèses et de fictions transversales. Sans même connaître les processus de création, le lecteur comprend qu’il a affaire à un dialogue stéréoscopique entre l’homme et la machine. NORMALS: Cédric Flazinksi & Aurélien Michon, programme Polyrotor, capture d’écran, janvier 2014. Cédric Flazinksi, Aurélien Michon, NORMALS, ouvrage autoédité, Paris, mars 2014. Réalisé à l’origine sous Processing, l’interface de création typographique Prototypo 48 Yannick Mathey et Louis-Rémi Babé, prototypo.io, travail en cours de réalisation. Prototypo est désormais développé en HTML5 Angular JS et SVG. Dans le même registre, voir aussi les expérimentations du studio LettError. de Yannick Mathey s’émancipe d’une construction lettre par lettre de la fonte. L’utilisation d’algorithmes permet de manipuler en temps réel des formes dynamiques, les changements formels étant répercutés sur l’ensemble de l’alphabet. Le programme permet également d’indiquer des «limites» aux bonnes règles typographiques, sans que celles-ci ne freinent la création. Depuis des dizaines d’années, les apports du numérique au champ de la typographie ont été fructueux. Il reste beaucoup à apprendre d’initiatives comme l’Unified Font Object ou Metafont 49 David Vallance a présenté, aux Rencontres internationales de Lure 2013, le travail de découverte et d’appropriation du programme Metafont, qu’il a mené dans le cadre de son diplôme national d’Art et technique à l’Ésad Grenoble-Valence.. Yannick Mathey et Louis-Rémi Babé, programme Prototypo, captures d’écran, janvier 2014. © Y. Mathé, L.-R. Babé Désirer l’incertitude À l’issue de ces quelques exemples et relectures croisées, nous pouvons appréhender d’une nouvelle manière les craintes de Bill Joy. Il nous semble périlleux d’envisager a priori les inventions techniques sous l’angle de la «menace», car au nom de quoi critiquerions-nous une nouvelle technique, si ce n’est suivant son rapport à la tradition ? En n’acceptant pas que le monde puisse changer, un tel parti pris se retranche dans ses convictions. Le développement des systèmes de prévision en tous genres (sondages, assurances, contrats, etc.) semble faire de nos existences des entités dociles et réglables, de moins en moins aptes à prendre des décisions. Pour échapper à cette programmatique, il faut que le designer participe à l’élaboration d’une société qui ne fonde pas sa marche sur le calcul. Le fait que les designers graphiques investissent de plus en plus la conception des programmes numériques nous ouvre de nouvelles façons de faire, basées sur la compréhension sensible des spécificités techniques. Le designer peut ainsi choisir de conduire la technique dans des directions qui ne portent pas atteinte à la liberté humaine. Son travail hésite entre certitudes et incertitudes: d’un côté les habitudes professionnelles et culturelles, de l’autre la confrontation à l’inconnu 50 Pierre-Damien Huyghe, Modernes sans modernité. Éloge des mondes sans style, Paris, Lignes, 2009, p.  123. La modernité s’inscrit dans un «mouvement qui ne fait pas de l’émission d’un sens le but unique des conduites techniques […]».. «Apprendre et désapprendre», disait Catherine de Smet 51 Catherine de Smet, «Apprendre et désapprendre», Graphisme en France 2008, Paris, Cnap, 2008.. Afin que la prochaine décennie ne soit pas déjà écrite, à nous de désirer l’incertitude.

Notions

Personnes citées

Objets mentionnés

Médias

La saisie comme interface

Date

November 2016

Type

Publication

Contexte

Anthony Masure, « La saisie comme interface », dans : Sophie Fétro, Anne Ritz-Guilbert (dir.), actes du colloque scientifique « Collecta. Des pratiques antiquaires aux humanités numériques », École du Louvre, 2016

Résumé

Une vision limitée du design des sites Web, et des programmes numériques en général, consiste à ne s’intéresser qu’à ce qui apparaît à l’écran. Pour aller plus loin, cette contribution vise ainsi à démontrer l’importance, pour les designers, de porter attention à la structuration et à l’agencement des codes source informatiques. Dans le domaine des archives en ligne où les interfaces de saisie sont rarement étudiées en tant que telles, ces enjeux interrogent le rôle et de la place du design. Que demande-t-on à ce dernier dans le contexte des «humanités numériques» ? Comment le design, en envisageant la saisie comme une interface, peut-il contribuer à dépasser une vision instrumentale de la technique ?

Peut-on encore ne pas travailler ?

Date

June 2017

Type

Publication

Contexte

Anthony Masure, «Peut-on encore ne pas travailler?», Cité du Design / ESADSE, Azimuts, no47, juin 2017, p.20-35

Résumé

Tandis que le travail, en crise, est de plus en plus recherché, mince est la limite entre des emplois salariés, pour lesquels il faut en faire toujours plus, et une myriade de micro-tâches non rémunérées, qui donnent l’impression de travailler jour et nuit. Autrement dit : peut-on encore ne pas travailler ? Afin de traiter ce paradoxe, nous examinerons tout d’abord le passage du métier à des professions employées à faire croître le capital. Ensuite, après avoir vu en quoi l’époque contemporaine pourrait signer une possible « mort de l’emploi », nous analyserons en quoi le développement du « labeur numérique » (digital labor) et des objets supposément « intelligents » (smart) brouille la distinction entre le temps libre et le temps travaillé. Afin de sortir de ces impasses, nous nous demanderons si le design, en tant que travail de « qualités » inutiles, pourrait permettre d’envisager de nouveaux rapports au temps.

Recherche et culture libre : approche critique de la science à un million de dollars

Date

December 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

L’intelligence en défaut des smart cities

Date

January 2017

Type

Publication

Contexte

Anthony Masure, «L’intelligence en défaut des smart cities», Sur-Mesure, no 1, «Villes, usages et numériques», janvier 2017

Résumé

Supports d’« innovations » technologiques, les smart cities n’en sont pas pas moins porteuses d’enjeux socio-politiques: les dispositifs invisibles ou opaques des applications numériques, en déplaçant les frontières entre domaine privé et domaine public, entre libertés individuelles et contrôle social, posent en creux cette question: «quelle nouvelle forme donner à l’intelligence collective?»

The improvised economics to the Web3

Date

May 2023

Type

Publication

Contexte

Anthony Masure, Guillaume Helleu, “The improvised economics to the Web3,” LSD, no 3, May 2023, pp. 175-183

Résumé

Emerging in 2017, NFT s (Non Fungible Tokens), are un-forgeable, decentralised certificates that have become famous through their use in the art world. While this usage is what has brought them media attention, they actually are simply one part of a far wider technological movement often marketed as “Web3” 1 Appeared with Ethereum as a response to the Web 2.0 of the GAFAM, the Web3 proposes an all-in-one ecosystem: a monetary system (Bitcoin) within an economic system (DeFi) to exchange digital assets (NFT s), the whole managed by a governance system (DAO) using digital identities (DID s).. Web3, or the new order of Web To understand the workings of this new iteration of the Web based on decentralised blockchain 2 The term blockchain refers to a distributed ledger for storing, certifying and sharing information in a decentralised manner. The data is replicated in multiple storage spaces, forming a public chain secured by the addition of the various nodes of the network. This chain is designed to make information unalterable and transactions unfalsifiable. technologies, first we have to review its predecessors. Invented in 1989 by Tim Berners-Lee at the Cern, the Web - which later came to be called Web 1.0 - brought the promise of a utopia where all the world’s scientific knowledge could be shared through simplified publication proto-cols. However, as it turned out, it was too technically complex for use by the general public. This “read-only mode” allowing for nothing more than the consulta-fion of documents gave rise to corresponding marketing strategies for devices such as the laptops, smartphones and modems that occupy such a central place in our daily lives and yet were not conceived as servers suitable to function as Web sites able to store and manage information. This problem of access was addressed by the Web 2.0 that arose in the 2000s with the development of participative platforms such as social media (Flickr, MySpace, Facebook, Twitter, etc.) where anyone can create an account and share information on a mass scale. The main problem with the “platformisation” of the Web paradigm that predominates today resides in the non-distribution of the value produced by Web users and its increasing centralisation. Reacting against the hegemony of the GAFAM s 3 The term blockchain refers to a distributed ledger for storing, certifying and sharing information in a decentralised manner. The data is replicated in multiple storage spaces, forming a public chain secured by the addition of the various nodes of the network. This chain is designed to make information unalterable and transactions unfalsifiable. (and their Asian avatars), the renewed promise of decentralisation raised by the Web3 could restore ownership and control over their data to ordinary Web users. Five key principles will mark this historic shift: 1 – A monetary system Bitcoin 4 Bitcoin (฿, 2009) is a decentralised digital protocol that allows transactions of monetary values independently of traditional financial institutions and fat currencies. It was invented by a person, or group of anonymous people, using the pseudonym Satoshi Nakamoto. (2009) and other cryptocurrencies will play a key role. 2 – An economic system D e F i (Decentralised Finance) can be defined as a financial transaction environment that no longer requires traditional intermediaries such as brokers, exchanges and banks. Various D e F i protocols like Compound (2019) and Uniswap (2018) create gateways between traditional and decentralised economies through the introduction of “stablecoins” (Tether, 2014; Dai, 2017; Binance USD, 2018), value tokens 5 A token, or authentication token, is a digital representation of a value (currency, social share, artwork, etc.) verified in a blockchain. based on Fiat 6 The value of a fat currency is imposed by a state in an identified territory, and its management is entrusted to a central bank. For example, the value and distribution of the Euro is managed by the European Central Bank (ECB), while the dollar is managed by the United States Federal Reserve (FED). The word fiat is determinist. It comes from Latin and means, in the imperative mode, “Let it be done.” currencies. They make it possible to exchange these state-issued currencies without going through traditional channels (SWIFT), and they function almost instantaneously. Working 24/7 and almost impossible to stop, by January 2022 D e F i represented a market worth more than 200 billion dollars. 3 – A property system NFT s can transform any digital entity into merchandise. In the field of art, the best-known example is CryptoPunks, 10,000 files containing images (originally 24 × 24 pixels) distributed without charge over the Ethereum 7 Ethereum (2015) is a decentralised, collaborative exchange platform, originally envisioned by Vitalik Buterin as an upgrade to Bitcoin. Ethereum extends the principles of Bitcoin to move from a currency to a configurable value system, particularly via the use of smart contracts. network. Thanks to blockchain technology, there can be thousands of copies of a single CryptoPunk 8 CryptoPunks (2017) are a famous collection of NFT s representing computer-generated pixelated characters. meme, but only one of them contains a digital signature and thus has value. 4 – A governance system A project launched in April 2016 called the DAO (Decentralised Autonomous Organisation) marked the appearance of new kinds of governance that prevent fraud and corruption through previously-established rules and smart contracts 9 Smart contracts enable value to be programmed by automating the triggering of actions within a blockchain and recording the results.. While DAO s make governmental processes such as voting and the approval and execution of decisions more fluid, they raise possible concerns insofar as they can become substitutes for traditional state functions, regulatory bodies and so on justice systems, associations, unions, etc.). 5 – An identity system DID s (Decentralised Identifiers) are sure to become a major issue in the coming decades. In a world where the concept of identity has never been so much brought into question and the profiling carried out by GAFAMs so problematic, the need for a new system of identity has become obvious. Web 1.0’s traditional authentif-cation mechanisms (email and password) have been replaced, to some degree, bysociallogins (Facebook Connect, 2008; Google Sign In, 2015; Sign in with Apple, 2019), all of which entrain the problems inherent in Web 2.0 (targeted advertising, data capture, dependence on private actors, etc.). In contrast, Web3 offers new forms of online authentification through the use of wallets such as MetaMask 10 MetaMask (2016) is a digital wallet of cryptocurrencies and tokens that allows interaction with many decentralised applications and environments. (2016). These kinds of decentralised and user-owned protocols provide for a better interoperability of data while allowing users to control what they want to share. Their possible integration into Instagram and Twitter shows that we are in a transitional phase between Web 2.0 and Web3, with no guarantee, at this point, that the problems Web3 is supposed to solve will not be replaced by even more serious risks. Towards improvised economies? ? In contrast to the traditional economy where only sovereign states (or central banks) are authorised to issue currency, Web3 technologies make it possible for anyone (with the necessary technical skills) to not only create digital spaces, but even program value systems and thus economic models based on the principles of already-existing innovations like local currencies, SCOPS (Cooperative and Participative Societies) and participative financing (crowdfunding). The latter has been updated through the use of NFT s, with initiatives like Stoner Cats (2021) - an animated multi-episode entertainment series with access limited to owners of special tokens, and Hamlet Within (2022) - a documentary by the British avantgarde filmmaker Ken McMullen sold as an NFT on the Cineverse network and divided into several “unique” parts only available to token buy-ers. As McMullen explains, the artistic model (of movies) will become totally participative, thus changing the aesthetic vocabulary of the twenty-first century so that game thinking becomes predominate. In this respect, the still unstable “play-to-earn” paradigm pop-ularised by video games like Axie Infinity (2018) gives players back most of the rewards earned by the sale of in-game collectables. More generally speaking, Web3 creates new ways to use these technologies, greater economic creativity and even a kind of legal design 11 Legal design is a practice that aims to introduce and facilitate the understanding of law to all. User-centered, legal design is by definition multidisciplinary and collaborative.. Smart contracts, for example, are NFT-associated scripts that offer, among other things, the automatic distribution of the initial gains and profits from future resales, accruing either to the artist or the designer thus updating the concept of artist resale rights), or for donations to institutions such as NGO s as well as foundations that produce open-source applications like those found on the NFT platform Teia.art. These smart contracts can also serve unexpected purposes, such as allowing a piece of property to be divided into multiple fragments, setting a ceiling on resale prices, and bringing about a process of deflation based on time lapsed or external factors. Here we are approaching the farthest frontiers of the art world where artworks are produced according to rules governing the relations between humans and non-human entities. For instance, Nouns DAO (2021) is a treasury financed by the number of daily sales of an NFT. Owners can vote to use this money to support all sorts of projects. Botto (2021) is an art robot whose taste is conditioned by community members’ weekly votes. The result of this AI heuristics is automatically put up for sale as an NFT. In light of all these examples, it’s probable that the next few years will provide opportunities to study the tensions between long-standing capitalist logics (which readily appropriated the anarchist logic of Bitcoin) and new “improvised economies” that, while still embryonic, may yield more redistributive outcomes.

Braun/Apple, des survivances paradoxales

Date

April 2012

Type

Publication

Contexte

Anthony Masure, « Braun/Apple, des survivances paradoxales », Reel-Virtuel.com, no 3, « Archéologie des nouvelles technologies », avril 2012

Résumé

Si les appareils font époque, leur invention précède leur découverte. La nouveauté est recouverte de formes anciennes, qui permettent de faire accepter socialement l’innovation. Nous discuterons ces hypothèses en étudiant le design des objets Apple, qui reprennent les formes élaborées par Dieter Rams chez Braun dès 1950. Comment penser ces survivances paradoxales ? Faut-il y voir un échec des nouvelles technologies à formuler un vocabulaire esthétique singulier ?

Le design de la recherche: conventions et déplacements du doctorat en design

Date

May 2015

Type

Publication

Contexte

Emeline Brulé, Anthony Masure, «Le design de la recherche : normes et déplacements du doctorat en design», Paris, PUF, Sciences du Design, no1, mai 2015, p.58-67

Résumé

Prenant acte d’une spécificité du design quant au travail des supports d’expression, cet article se donne comme champ d’étude les formes et formats de thèses dans le contexte de la recherche en design. Nous considérerons ici la thèse comme un «type» de document ayant intégré au fil du temps un certain nombre de conventions qui ne sont que trop rarement interrogées. Nous reviendrons tout d’abord sur son évolution historique et discuterons des conventions et normes des thèses en design à l’heure actuelle. Nous étudierons ensuite la manière dont ces dernières structurent le travail de recherche pour nous demander si la recherche en design se doit d’en créer d’autres, ou si elle doit œuvrer à les déconstruire. Enfin, nous nous demanderons si le design peut être vu comme un «laboratoire» permettant de déplacer les façons de faire de la recherche, au sens large.

Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création

Date

May 2021

Type

Publication

Contexte

Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.

Résumé

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.

Le design à l’ère des big tech : tactiques de résistance dans un écosystème globalisé

Date

December 2024

Type

Publication

Contexte

Entretien avec Florence Jamet-Pinkiewicz publié dans la revue Digital des étudiant·es de l’École Estienne en DSAA DCN, 2025, p. 77-84.

Résumé

Cet entretien revient sur les transformations du design à l’ère des grandes plateformes technologiques : évolution du rapport aux outils et aux IA génératives, enjeux de médiation des savoirs, projets de recherche-création (Play-to-Learn, Fucking Tech!, CryptoKit), et rôle politique et esthétique du design numérique.

How Deep is Your Love? How We Spent a Week Chatting with AI Girlfriends, Survived and Wrote About It

Date

January 2026

Type

Publication

Contexte

Article de recherche co-écrit avec Saul Pandelakis et Dominika Čupková dans le cadre du projet Fucking Tech! (2024-2027) et publié dans INC Longform (Institute of Network Cultures) en janvier 2026.

Résumé

À partir d’une semaine d’expérimentation avec onze applications d’« AI Girlfriends », ce texte examine ces services comme des artefacts culturels toucahnt aux notions de genre, de plaisir, d’amour et de psychologie. Appliquant une méthode de « recherche hypersituée », les auteurs décrivent leurs interactions avec des chatbots dédiés à la romance et à la sexualité pour en analyser les promesses (personnalisation, disponibilité permanente, absence de censure) et leurs angles morts (consentement automatisé, biais cishetéronormatifs, incohérences entre texte et image générée). Ils concluent sur la nécessité de repenser ces interfaces au-delà des imaginaires normatifs.

Commentaires audio pour la biennale de design de Saint-Étienne

Date

March 2013

Type

Conférence

Contexte

Propos recueillis par Clio Meyer pour l’application-audioguide Sonosphères de la Biennale de Design de Saint-Étienne 2013. Exposition « Traits-d’union », commissariat Elium Studio.

Résumé

Qui façonne qui  ? Espace infini Freebox Revolution, par Philippe Starck Lytro, appareil photo à technologie plénoptique Bracelet Jawbone, par Yves Béhar Nike ID

Archéologie des « notifications » numériques

Date

June 2016

Type

Conférence

Contexte

Conférence donnée avec Saul Pandelakis au colloque scientifique « Archéologie des médias et écologies de l’attention », dir. Yves Citton, Emmanuel Guez, Martial Poirson et Gwenola Wagon, Cerisy-la-Salle. Cette conférence a été redifusée sur les sites Web de France Culture et de La Forge Numérique (MRSH de l’université de Caen – Normandie).

Résumé

Nous souhaitons examiner « le passage d’un modèle économique (de l’investissement) au modèle écologique (de la relation au milieu) ». Les programmes numériques peuvent-ils être ou devenir le lieu d’une écologie attentionnelle contribuant à une « écologie [plus large] de l’environnement artificiel » ? Comment concevoir, par le design, la place de l’attention humaine au sein des machines numériques ?

Post-numérique ou post-politique ? Le cas des objets « connectés »

Date

April 2017

Type

Conférence

Contexte

Conférence donnée au colloque international de design RAID, « Objet(s) post-numérique(s) », École Supérieure des Sciences et Technologies du Design (Essted), université de la Manouba, Tunis

Résumé

Depuis une dizaine d’années environ, le champ des objets dits « connectés » (à Internet) a fait son chemin dans notre quotidien (domotique, wearables, etc.). Fréquemment qualifiés « d’intelligents », ces derniers se situent à l’intrication du design produit et de la programmation. Pourtant, alors que le vocabulaire de l’intelligence et de la connexion semble impliquer des valeurs d’objectivation et de partage, les objets qui sont désignés sous ce terme se caractérisent trop souvent par le fait que leur « centre de commande » est en fait une « boîte noire » où « l’individu devient seulement le spectateur des résultats du fonctionnement des machines » (Gilbert Simondon). Reliés à des « applications » numériques, les objets « connectés » ne semblent exister que parce qu’il est loisible de les fabriquer.

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

January 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

AVANT C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! QUELLES SOLUTIONS ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

Le design de la transparence : une rhétorique au cœur des interfaces numériques

Date

January 2019

Type

Publication

Contexte

Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence »

Résumé

Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes :
1. Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques.
2. La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données.
3. La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.

Résister aux boîtes noires. Design et intelligence artificielle

Date

December 2019

Type

Publication

Contexte

Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notions

Personnes citées

Objets mentionnés

Making the Multiple Singular: Artistic NFTs, Speculation and Redistribution

Date

November 2021

Type

Publication

Contexte

Paper written with Guillaume Helleu for the research journal Multitudes, which appeared in November 2021. Translated from French by Aviva Cashmira Kakar.

Résumé

This paper explores the issues concerning blockchain technologies within the realm of the creative (art, design, video games, etc.), which have arisen since the development of non-fungible tokens (or NFTs) in 2015. NFTs are essentially the production of a decentralized digital certificate that is impossible to forge, which is then linked to a numerical or tangible entity. NFTs have emerged into the mainstream since the beginning of 2021 due to a massive surge in sales and the development of specified marketplaces. NFTs have brought to the fore a variety of issues concerning value, circulation, and the exposure of artistic and cultural productions.

Design des angles morts (promesses, limites, bifurcations)

Date

January 2023

Type

Publication

Contexte

Chapitre publié dans l’ouvrage collectif Angles morts du numérique ubiquitaire. Un glossaire critique et amoureux, Presses universitaires de Paris Nanterre, 2023.

Résumé

Parmi les ritournelles managériales qui rythment les sociétés occidentales, celle de la « transformation numérique » implique une vision linéaire et homogène (au singulier) de l’histoire des techniques : il existerait ainsi un mouvement inéluctable, ou du moins souhaitable, consistant à numériser – c’est-à-dire à quantifier, calculer, mesurer – l’ensemble des activités humaines. Issue du champ économique, la « transformation numérique » est définie par le consultant Fred Cavazza comme désignant « l’évolution du marché et des organisations qui cherchent à adapter leur offre, fonctionnement et pratiques aux enjeux du XXIe siècle » (2021). Toujours selon lui, « adapter les pratiques [signifie] mieux tirer parti des données (gouvernance, littératie, conformité, etc.), de l’IA (machine learning, deep learning, etc.) ou de l’automatisation (chatbots, assistants vocaux, RPA, etc.) ». Les « enjeux du XXIe siècle », quant à eux, sont « liés à un quotidien sans contact, à une croissance économique nulle (ou du moins très faible en Europe), aux nombreuses crises et tensions (Gilets jaunes, Cancel Culture [sic.], etc.) » (Cavazza, 2021). Ces discours font apparaître en creux des tensions au sein de « la » transformation numérique. L’adhésion aveugle aux « innovations », qui se succèdent à un rythme de plus en plus rapide, se heurte à des mutations politiques et sociales qui déstabilisent leurs promesses de linéarité, d’efficacité et de rentabilité. Les technologies numériques, en tant qu’innovations, naissent en quelque sorte « hors-sol », sous un mode détaché des contingences et singularités humaines. Autrement dit, les discours économiques ne peuvent pas être transposés sans contradictions dans le champ social – ne serait-ce que pour savoir comment conjuguer transformation numérique et transition écologique. Plus encore, à rebours de l’idée éculée (et pourtant toujours présente) d’un progrès technique pour le plus grand nombre, la diversité des pratiques et l’analyse des discours font surgir des valeurs « embarquées » (embedded) au sein des programmes qui mettent en doute cette visée positiviste. Ce décalage entre usages (prescrits) et pratiques (libres) (De Certeau, 1990) est au cœur du design, que nous comprenons ici non pas comme une volonté d’adéquation entre les innovations et le marché, mais comme un « cheminement dans les qualités formelles, structurelles et fonctionnelles de nos environnements » (Masure, 2017). À l’époque des IA, l’idée d’une désautomatisation des modes de vie induits par l’industrie des programmes se repose de façon aiguë. Quels sont les angles morts du numérique que le design permet d’éclairer ? À quels problèmes les technologies numériques sont-elles aveugles ? En quoi les choix – ou non-choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer ? L’émergence du design comme résistance à l’économie Pour étudier les angles morts du numérique, il faut tout d’abord préciser quel rôle le design peut jouer pour interroger ce qui semble aller de soi dans les environnements techniques. Nous proposons ici d’entendre sous le nom de design non pas, comme dans l’acception courante, un champ de conception et de production d’objets et de services, mais une mise en tension, voire une suspension, des attendus économiques de nos environnements techniques. Pour étudier ces questions, nous allons tout d’abord recourir à la figure de Karl Marx qui nommait « la grande industrie » : « Dans le système de machines, la grande industrie crée un organisme de production complètement objectif ou impersonnel, que l’ouvrier trouve là, dans l’atelier, comme la condition matérielle toute prête de son travail. [Marx, 1963, p.  930-931] » Si le design apparaît de façon conjointe aux différentes révolutions industrielles qui traversent l’Europe à la fin du XIXe siècle, il sera installé dans la modernité en faisant brèche avec l’artisanat, et plus précisément avec son imitation mécanisée et asservissante. Un des moments clés pour mettre en évidence cette visée est celui des Expositions universelles, dont les prouesses techniques sont des vitrines politiques pour les gouvernements. Lors de la première Great Exhibition of the Works of Industry of All Nations à Londres en 1851, l’ingénieur Michel Chevalier note ainsi, lyrique, que « le grand principe de la division du travail, […] la force motrice de la civilisation, s’étend à toutes les branches de la science, de l’industrie et de l’art. […] Les distances qui séparent les peuples et les contrées de la Terre s’évanouissent chaque jour devant la puissance de l’esprit d’invention » (1851, p.  36). À cette occasion, un des bâtiments principaux, le Crystal Palace de l’architecte Joseph Paxton, est construit en seulement six mois grâce à l’emploi novateur d’unités modulaires standardisées, préfabriquées en usine et montées sur place. L’édifice est gigantesque : 563 m de long sur 268 m de large, pour une surface de 92 000 m². Il marque durablement les esprits et préfigure la production d’architecture de métal et de verre et la préfabrication du XXe siècle. « Association des arts, des sciences et de l’industrie », le Crystal Palace contraste pourtant avec les objets qui y sont exposés : les chaises, cruches et autres tapis restent engoncés dans le vieux siècle, comme le fait remarquer l’historienne du design Alexandra Midal : « [Les organisateurs des expositions universelles espéraient] que la machine permettrait d’alléger le travail, de multiplier les richesses et d’améliorer la vie de tous, d’apporter la paix et la fraternité entre les nations. [Mais] en plus de substituer au style et à l’ornementation artisanale celui de la machine […], les produits standardisés européens favorisent surtout le passé, l’ostentatoire, le goût bourgeois et l’imitation, telle cette cruche à eau ornementée dont l’anse associe une colonnade et des animaux… [2009, p.  37] » Plusieurs intellectuels britanniques, dont Henry Cole, à l’initiative d’une des premières occurrences du mot design (via son Journal of Design and Manufacture, 1849-1852), soutiennent, sans vouloir revenir à l’artisanat, que « le degré d’industrialisation n’est pas plus une condition de culture que de savoir-vivre » (Midal, 2009, p.  38). Le design naît d’un écart avec les conséquences d’une mécanisation aveugle : il est donc erroné de le comprendre comme un simple accroissement des forces productives. Face à l’inertie mentale : le design pour la vie Près d’un siècle plus tard, l’artiste et photographe László Moholy-Nagy explicite la compréhension d’un travail singulier avec les machines qui diffère de leur usage économique massifié. Moholy-Nagy prend ainsi l’exemple des assiettes faites au tour (dont la forme est peu adaptée aux lave-vaisselle) ou des poignées en plastique (qui reprennent, de façon mimétique, celles en fonte) : « Beaucoup d’objets anciens sont l’expression directe de leur méthode artisanale de fabrication. Ils sont souvent copiés par les designers industriels, sans aucune raison valable. Il est vrai que plus un artisanat est ancien, plus la forme qu’il produit est difficile à modifier. […] L’expérience montre, cependant, qu’il est assez difficile de se dégager d’habitudes de pensée bien ancrées. [1947, p.  283] » À cette tendance à l’imitation qu’il qualifie d’« inertie mentale », Moholy-Nagy oppose une puissance d’invention qui manifeste des ruptures claires avec la tradition, tout en notant qu’il « ne faut jamais perdre de vue que l’élément humain […] doit rester le critère essentiel d’évaluation du progrès technologique » (1947, p.  283). Rédigés au tournant de la Seconde Guerre mondiale, ces propos font écho à l’époque contemporaine où les machines, cette fois numériques, placent les humains dans un paysage homogène où la place dédiée à la diversité et l’invention se réduit : « La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. [1947, p.  285] » La question se pose alors de savoir comment cette substitution s’articule à une redéfinition de l’humain, et comment les technologies peuvent être pluralisées, désorientées, réorientées dans d’autres directions que celles régies par « l’inertie morale ». S’appuyant sur Walter Benjamin et László Moholy-Nagy, le philosophe Pierre-Damien Huyghe défend que l’art et le design peuvent être compris comme des « puissances de découverte des poussées techniques » (2014) : le développement économique d’une technique ne suffit pas, loin s’en faut, à en épuiser les possibilités. À ces enjeux esthétiques s’ajoute un souci d’intelligibilité. Plus une technique est puissante et dominante, plus il est difficile de développer d’autres façons de faire, et plus cette technique génère de l’incompréhension et de l’opacité. Le scientifique Karl Sagan note ainsi que « nous avons arrangé une société basée sur la science et la technologie dans laquelle personne ne comprend rien à la science et à la technologie. Ce mélange combustible d’ignorance et de pouvoir, tôt ou tard, va nous exploser au visage » (1996). Pour combattre ces emprises, il est nécessaire de mettre en évidence ce à quoi les technologies sont aveugles, et en premier lieu les cécités qu’elles induisent en nous et contre nous. Laissées en attente voire délaissées, les « nouvelles » (et désormais déjà vieilles) techniques, celles de la computation, ont besoin d’être activées par ce que nous pourrions appeler un design non pas pour l’économie (qui s’économise, qui se retient), mais « pour la vie » (Moholy-Nagy, 1947). Les technologies numériques comme fabrique d’angles morts Tandis que la computation étend son influence à la plupart des activités humaines, la question est de savoir à quels problèmes le numérique est aveugle ou, plus précisément, d’identifier quels sont les angles morts et les limites de la programmation. Le sens de l’expression « angle mort », dans l’Encyclopédie de Diderot et D’Alembert (1778) est celui d’un « angle rentrant, qui n’est point flanqué ou défendu ». Par extension, l’angle mort renvoie à une « zone inaccessible au champ de vision » (Wikipedia). En conduite automobile, c’est une « zone non couverte par le rétroviseur central et les rétroviseurs latéraux, qui nécessite un contrôle par vision directe (tourner la tête une fraction de seconde) » ou, dans le champ urbain, une « zone non couverte par les caméras de surveillance ». Au sens figuré, on dit d’un angle mort qu’il est une « partie d’une question, d’un problème, pour laquelle l’esprit semble aveugle ». Un « design pour la vie » serait ainsi une expérience de la bifurcation, de l’exploration, et non pas de la réduction ou de la modélisation aveugle. Pierre-Damien Huyghe formule en ce sens une compréhension du design éloignée de sa réduction à des enjeux de rentabilité : « Je ne proposerai pas d’appeler design ce qui organise d’avance des usages ni ce qui induit des consommations ni ce qui assigne des comportements au règne de la marchandise, mais plutôt certaines recherches et attitudes qui permettent à un système de production d’hésiter. [2006] » Les questions du design pour la vie nous demandent en quoi les choix (ou non-choix) de conception des environnements numériques déterminent une zone dans laquelle il est difficile de bifurquer : comment ce qui compte vraiment pour nous en tant qu’humain·es, c’est-à-dire ce qui peine à être mesuré, est-il laissé dans l’ombre ? Quels sont les angles morts du numérique que le design permet d’éclairer ? En quoi ces angles sont-ils « morts », et comment leur donner vie ? Une méthode d’analyse Pour traiter ces questions et entrer dans des approches plus concrètes, nous proposons une méthode d’analyse des angles morts du numérique structurée autour de trois notions complémentaires : promesses, limites et bifurcations. Celles-ci font écho à un autre texte dans lequel un des auteur·rices de ces lignes analyse une série de logiciels de création (Masure, 2020) pour faire émerger des chemins de traverse au sein de l’appareil industriel : dans la lignée de l’archéologie des médias déconstruisant l’idée d’un progrès technique linéaire, il n’est pas dit que les généalogies des technologies basées sur l’efficience fonctionnelle et la rentabilité marchande soient les seules possibles. La notion de promesse, tout d’abord, renvoie aux discours entourant le développement commercial des programmes numériques. L’idéal du progrès technique a toujours ses zélotes : selon elles et eux, malgré de nombreux accrocs, la technologie serait in fine porteuse de « transformations » sociales et économiques positives. Cette approche performative, voire incantatoire, est qualifiée par le chercheur Evgeny Morozov de « solutionniste » (2013) pour dénoncer l’absurdité des prétentions visant à réduire la politique à une affaire de « logiciel » : des problèmes globaux comme l’écologie, la famine ou la pauvreté ne pourront pas être « réglés » par la technologie. De plus, les promesses énoncées par les grands groupes technologiques sont souvent utilisées comme paravent pour masquer des entorses au droit du travail, voire à la dignité humaine. Par exemple, l’annonce en 2016 par Amazon d’une division de livraison par drones entraîna de multiples réactions médiatiques et politiques (législatives) et fut rapidement suivie d’un discret désengagement commercial en interne. Pendant ce temps, cette initiative occupait le terrain médiatique et faisait écran à la triste réalité de l’entreprise. Dans un thread Twitter, le journaliste Cory Doctorow explicite cette stratégie : « Les entreprises technologiques promettent de réaliser des choses impossibles afin de cultiver une sorte d’aura mystique invoquée pour masquer l’horreur du monde réel. […] C’est le genre de choses que [l’auteur] Riley Quinn appelle le ‹ tintement de clés › – une distraction pour les personnes peu au fait des technologies (et pour les ingénieurs qui ont la tête plongée dans leurs produits) pendant que les crimes quotidiens des entreprises sont commis sous notre nez. [2021] » Le concept de limite, ensuite, confronte les promesses des technologies à l’expérience du terrain. Les technologies numériques promettent beaucoup en raison du caractère invisible du code et de sa plasticité (capacité à être modifié), mais montrent leurs limites quand elles sont confrontées à la complexité du réel (Klein et al., 2013). Fonctionnant habituellement à partir de règles et de conditions, la programmation ne peut que difficilement « comprendre » les ambiguïtés des interactions sociales et la diversité d’un monde multiculturel : genre, origine, classe sociale, etc. Outre le fait que les technologies reproduisent des discriminations déjà présentes dans la société, celles-ci sont amplifiées par le caractère homogène des développeurs informatiques et designers (masculins, aisés financièrement, etc.) et par des méthodologies de conception (UX et UI Design) fonctionnant à partir de scénarios d’usage et de personas (Masure, 2017, p.  73) – soit une schématisation de l’expérience humaine réduite à une suite de comportements, voire de stéréotypes. Sur un autre plan, il est instructif de comparer les emplois (prescrits) aux usages et pratiques (ouverts, libres, transmissibles). Dans un vocabulaire se rapprochant de celui de Michel de Certeau (1990), le philosophe Bernard Stiegler explicite cette distinction : « On ne va plus parler de pratiques des objets, c’est-à-dire de savoir-faire instrumentaux, mais d’usages des objets et d’utilisateurs ou d’usagers, en particulier pour les appareils et pour les services. Or, un objet que l’on pratique ouvre un champ de savoir-faire par lequel le praticien est lui-même transformé : ses savoir-faire, eux-mêmes ouverts de manière indéterminée et singulière, explorent des possibles. [2004] » La question se pose dès lors de savoir comment éclairer ce qui fait limite pour prendre conscience que toute promesse génère des angles morts. Le terme de bifurcation, enfin, renvoie à une compréhension non instrumentale des techniques. Une technique, comprise non pas en tant que moyen mais en tant que culture, peut être réorientée dans des directions plus soutenables que celles visant un rendement productif. Issue du domaine de la biologie, l’expression de bifurcation renvoie à « la fourche produite par le développement d’une partie sur une autre, soit semblable, soit différente. Ainsi, le bourgeon forme une bifurcation avec le rameau qui le porte, celui-ci en forme une avec la branche qui lui a donné naissance » (Dictionnaire TFLI). Dans le champ du logiciel libre, un fork (embranchement) désigne un nouveau programme créé à partir du code source d’un programme existant. La pratique du fork permet d’ajouter des fonctions non prévues initialement, de placer le code dans un nouveau contexte, etc. – autant d’adaptations à ce qui n’était pas écrit d’avance (pro-grammé). Dans un sens plus fondamental, la bifurcation peut être comprise comme une expérience existentielle, au sens où une vie ne devient une existence qu’à condition de pouvoir échapper à des conditions données (Huyghe, 2006). Dans un numéro spécial de la revue Multitudes intitulé Abécédaire des bifurcations et rédigé dans le contexte de la pandémie de la Covid-19, les auteur·rices se demandent quels sont « les bifurcations, les effets de cliquet, les points de non-retour qui empêcheront demain de renaître comme hier » et où se « situe le lieu d’où peut s’élaborer l’alchimie de la transformation » (Cora Novirus, 2020). D’une façon approchante, dans un essai rédigé en réaction à la multiplication des crises engendrées par un « modèle de développement » à bout de souffle et pourtant largement dominant, Bernard Stiegler (2020) s’interroge pour savoir comment « bifurquer » afin de tordre l’expression thatchérienne selon laquelle « il n’y a pas d’alternative » à l’économie capitaliste. Ces considérations permettent d’expliciter l’écart entre technique et économie : l’absence d’alternative (TINA) n’est valable que pour qui ne croit pas à l’esthétique et pour qui ne fait que l’usage du monde dominant. Or, selon Pierre-Damien Huyghe, nombre d’exemples et contre-exemples dans le champ du design prouvent qu’il peut en aller autrement : « La réduction des possibles dans une époque donnée et l’uniformisation résultante des effets n’appartiennent […] pas par principe à la technique, mais à son économie. […] Elle ne va pas sans réserve. C’est justement la quête de cette sorte de réserve, et à son expression formelle, que le design historique s’est voué, quitte à mettre pour cela au monde des produits d’exception déliés des pratiques de masse a contrario recherchées par le mode économique d’exploitation et de domination de la puissance productive. [2013, p.  149-176] » À titre d’exemples, nous allons à présent examiner deux paradoxes mettant en jeu des limites de la programmation. Pour chacun d’entre eux, nous nous attacherons à situer la place qu’occupe le design vis-à-vis des technologies concernées : vient-il déjouer leurs angles morts ou contribuer à les renforcer ? En quoi des bifurcations potentielles ou avérées sont-elles souhaitables (et pour qui ?) afin de ne pas retomber dans d’autres impasses ? Paradoxe 1. Les templates promettent de la distinction mais ne produisent que du consensus visuel Promesse Un template (gabarit) est un modèle de mise en page de contenus visuels. Influencé par les designers László Moholy-Nagy et Jan Tschichold, Josef Müller-Brockmann comprend la grille comme une méthode universelle de structuration de l’information : « Dans mes créations […], la subjectivité est supprimée au profit d’une grille géométrique qui détermine l’arrangement des mots et des images. La grille est un système d’organisation qui rend le message plus facile à lire, cela vous permet d’obtenir un résultat efficace à un coût minimum. Avec une organisation arbitraire, le problème est résolu plus facilement, plus vite et mieux. Cela permet également une uniformité qui va au-delà des frontières nationales. [2017] » Les templates reprennent la logique de la grille, mais à une échelle bien plus vaste : celle des logiciels, du Web, et des applications. Ils peuvent à la fois être mobilisés pour définir l’ergonomie d’une interface en recourant à des codes visuels éprouvés (placement du logo, des menus, etc.), et/ou être inclus dans des logiciels comme base de travail (par exemple : gabarits PowerPoint, Word, Photoshop). Grâce aux templates, n’importe qui (grand public, commanditaire, etc.) peut créer à son image, maîtriser le rendu visuel de ses contenus et opérer des mises à jour sans intermédiaire (Mineur, 2007). Limite Avec les templates, remarque le designer Étienne Mineur, « les graphistes doivent […] abandonner une partie de leur pouvoir et responsabilité au règne du graphisme papier » (2007) consistant à maîtriser le processus et la forme de A à Z. Selon lui, deux attitudes sont possibles : refuser de laisser le contrôle formel aux technologies et rester sur les supports imprimés, ou se rapprocher du design industriel pour embrasser la création d’outils et l’ergonomie. Près de quinze ans après ces propos, force est de constater que les programmes sont de moins en moins des outils – de « simples prolongements d’outils manuels » (Moholy-Nagy, 1947, p.  285) –, et de plus en plus des dispositifs techniques complexes qui ne laissent que peu de prises aux designers. L’autonomisation des commanditaires par les templates s’est accélérée, et les compétences nécessaires à leur conception échappent pour une grande part aux designers, car la barrière technique et économique est de plus en plus haute. La concentration de la valeur au sein d’un petit nombre d’acteurs, les Gafam et leurs avatars asiatiques, opère un renversement du processus créatif avec lequel le code n’est plus une matière à modeler mais une loi à laquelle se conformer. Le design d’interfaces (UX/UI) ne consiste bien souvent qu’à appliquer des procédures visuelles (Teslert & Espinosa, 1997) : des design systems, comme le Material Design (Google, 2014) ou les Human Interface Guidelines (Apple), régissent les interfaces des applications mobiles, car le non-respect de ces consignes menace leur validation dans les app stores (magasins d’applications distribuées par Apple). Plus largement, la multiplication des systèmes de gestion de contenus (CMS), des terminaux, des formats d’écran et des territoires géographiques (Asie, Amérique du Sud, Afrique, etc.) incite les industriels à penser avant tout en termes de distribution et de standardisation. La promesse de singularité des « expériences » bute sur une homogénéisation du réel et engendre une « globalisation esthétique » (Masure, 2020) : une même interface peut être indifféremment utilisée pour une campagne médicale, un site de voyage, un musée. Plus inquiétant encore, malgré la pauvreté esthétique des templates, ces derniers, de par leur efficacité, tendent à surpasser beaucoup de designers. Dès les premières années du développement de la « publication assistée par ordinateur » (PAO), l’artiste et designer John Maeda entrevoyait les conséquences professionnelles des logiciels dits de création : « Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers ne définissent plus la culture ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media [1991], le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile : ‹ Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté. › [1995] » Quelle est, dès lors, la valeur de ce dernier ? Bifurcation Étienne Mineur soutient que les designers peuvent repenser leurs pratiques au profit de compétences plus stratégiques. Une autre voie est possible pour que l’attention humaine puisse s’attacher à du non-prescrit : il s’agit ici d’avérer les effets de standardisation des environnements et modes de vie pour éclairer ce qui n’entre pas dans ce cadre (les angles morts). Plusieurs initiatives ont mis en évidence les grilles tapies derrière les programmes, tels que les projets Safebook (Grosser, 2018), clickHere (Retzepi, 2020), ou les modules « par défaut » des systèmes d’information, avec des initiatives comme Reproduction générale (Jacquet, 2003) ou My%Desktop (Heemskerk & Paesmans/JODI, 2002). Un axe complémentaire consiste à révéler les valeurs embarquées dans les interfaces. Matthew Fuller, chercheur en Cultural Studies, propose ainsi de comprendre les templates sous l’angle de la notion de franchise : « Les modèles [templates] et exemples que l’utilisateur peut éditer pour créer ses propres documents – tels que ‹ fax élégant ›, ‹ fax contemporain ›, ‹ lettre formelle › ou ‹ mémo › – attestent que la falsification est la forme de base du document produit dans les bureaux contemporains. [2000] » À l’époque contemporaine, marquée par les problématiques de circulation et la collecte des données personnelles, les templates prennent un nouveau relief. Sous couvert de neutralité, ces derniers annihilent le sens critique et font passer à couvert des procédures suspectes. La designeuse Kelli Retzepi, dans TheRealFacebook (Retzepi, 2018), propose ainsi un redesign de Facebook en gardant la même interface mais en changeant tous les textes (titres, libellés, etc.) pour les rendre conformes aux « vrais » objectifs de Facebook. « Connect with friends and the world around you on Facebook », par exemple, devient « This whole thing started as a website that rated who is a hotter Harvard undergrad », et « Sign up.  It’s free and always will be » est remplacé par « Give us your data. We are definitely using it to profit »1 « Entrez en connexion avec des amis et avec le monde autour de vous grâce à Facebook » devient « Tout ce truc a commencé comme un site web classant qui étaient les étudiant·es les plus sexy de Harvard ». Ou « Inscrivez-vous. C’est gratuit et ça le sera toujours » est remplacé par « Donnez-nous vos data. Nous comptons bien les mettre à profit ».. Paradoxe 2. La création par le truchement des IA participe souvent d’une logique réactionnaire Promesse Formulée à la fin de la Seconde Guerre mondiale, l’idée d’une « intelligence » machinique susceptible de se substituer au cerveau humain (Turing, 1995) a connu de multiples modalités techniques, que l’on peut résumer en deux courants : les technologies « symboliques » se fondent sur la délimitation de règles préalables, tandis que celles « connexionnistes » (neuronales) impliquent des jeux de données (datasets) en entrée et sortie pour que la machine puisse générer un programme permettant d’aboutir au résultat souhaité. Au tournant des années 2010, l’approche neuronale, et plus précisément celle du deep learning, prouve sa supériorité fonctionnelle pour la reconnaissance d’images et pour le tri d’informations (spams, etc.). Les technologies du deep learning investissent depuis quelques années les industries créatives : l’entreprise Zalando travaille avec Google depuis 2016 pour prédire les tendances de la mode grâce au machine learning, et des services comme TheGrid.io (2016), WixAI (2016) ou Adobe Sensei (2016) visent à faciliter voire à automatiser la mise en page de sites web et la retouche d’images. Grâce au deep learning, la tension entre la conception (l’idéation) et la production n’a plus lieu d’être : des programmes « intelligents » prennent en charge la commande sans aléas humains pour produire la « solution » optimale. Limite Les technologies du deep learning prétendent annuler la zone d’incertitude entre conception et production en synthétisant des jeux de données (projets de design, œuvres d’art, etc.) majoritairement agrégées sur le Web. On touche ici à la distinction entre « création » (vision romantique d’une mise au monde ex nihilo, dégagée des contingences matérielles) et « production » (attention portée aux modalités techniques et rapports sociaux) : « Au moment où l’Ancien régime se défait, où se déploie la révolution industrielle, les artistes revendiquent […] le terme de ‹ création › – une notion […] issue du dogme biblique de la genèse – pour signifier leur souveraine sensibilité, leur libre vouloir et établir l’art comme champ autonome parmi les activités humaines. [Menghini, 2021] » À cette tradition s’oppose la pensée « matérialiste » développée par des philosophes comme Karl Marx ou Walter Benjamin, pour qui il est crucial d’examiner les médiations permettant à l’art (et par extension au design) d’exister pour mieux saisir son potentiel émancipatoire. Dans son essai L’artiste comme producteur, Walter Benjamin cherche à savoir non pas seulement « quelle est la position d’une œuvre littéraire à l’égard des rapports de production de l’époque [mais, avant tout,] quelle est sa place dans ces mêmes rapports ». Il s’agit pour lui d’« indiquer la différence essentielle qui existe entre le simple approvisionnement d’un appareil de production et sa transformation » (1969, p.  110, 117). De tels propos sont précieux pour mettre en exergue les limites des technologies du deep learning, dont la séduction tient à leur caractère magique (algorithmique) et tout puissant : structurellement basées sur des jeux de données (du passé), ces « intelligences » ne peuvent qu’approvisionner l’appareil de production sans jamais pouvoir le transformer. Autrement dit, et pour rester dans le vocabulaire de Benjamin, elles sont « réactionnaires » et non pas « révolutionnaires ». Il est par exemple aisé de comprendre que si une IA peut reproduire (créer) un tableau à la façon de Rembrandt (Microsoft, The Next Rembrandt, 2018) – sans efforts apparents, et sans que la technique ne soit vraiment une question –, elle aura beaucoup plus de difficultés à inventer non pas seulement un paradigme pictorial aussi fort que Rembrandt, mais aussi de nouvelles formes d’expression dépassant les catégories habituelles (peinture à l’huile, musique électronique, interface de site web de e-commerce, etc.). Bifurcation Walter Benjamin nous donne des pistes de travail pour que les technologies du deep learning puissent produire, et pas seulement reproduire. « La notion de technique représente l’élément dialectique initial à partir duquel l’opposition stérile de la forme et du fond peut être surmontée » (1969, p.  110). Un des problèmes majeurs de l’implémentation des IA au sein des services mentionnés plus haut (Adobe Sensei, etc.) est que la technique disparaît derrière les interfaces annoncées comme « conviviales ». Pour bifurquer de ces logiques, il faut en premier lieu réinvestir la technique – ce qui ne va pas de soi dans le cas du deep learning, qui nécessite de constituer des jeux de données puis de les traiter avec une puissance de calcul importante et avec des programmes à l’élaboration complexe. On pourrait tout d’abord surmonter ces écueils en disséquant les couches techniques logicielles et matérielles des IA, comme l’ont fait les chercheur·es Kate Crawford et Vladan Joler (2018) à propos de l’enceinte connectée Amazon Echo – travail qui mériterait d’être prolongé en analysant les strates pouvant être réinvesties. Une autre approche consiste à ne plus envisager les IA comme des machines de création (détachées symboliquement des contingences matérielles) mais comme des étapes de production. On pourrait par exemple utiliser le deep learning pour analyser des amorces d’idées et les comparer à l’existant, dans une stratégie d’aide à la décision et non pas d’imitation. Il faut aussi garder en tête que le deep learning n’est qu’une facette du champ bien plus vaste des IA, et que plusieurs époques techniques peuvent cohabiter au sein d’un même projet. Un workshop à la HEAD (Haute école d’art et de design de Genève), coordonné par Alexia Mathieu, Jürg Lehni et Douglas Edric Stanley (Thinking Machines, 2020), a ainsi mélangé des procédures neuronales à des règles préétablies pour élaborer un générateur de contes illustrés et imprimés. L’artiste Nicolas Maigret propose pour sa part un Predictive Art Bot décrit comme « un algorithme qui utilise les discours actuellement tenus sur l’art comme une base de données générant automatiquement des concepts de projets artistiques et, parfois, des prédictions d’absurdes trajectoires futures pour l’art » (2017). De tels processus laissent entrevoir ce que pourrait être le studio de design du futur : moins un lieu où élaborer des « solutions » et des formes closes qu’un laboratoire où mélanger et faire bifurquer des techniques et des projets. Conclusion. Pour une bifurcation des techniques De l’examen de ces deux paradoxes, nous pouvons à présent esquisser des éléments de réponse à la problématique posée en introduction, à savoir quels sont les angles morts du numérique que le design permet d’éclairer, pour poser que ces derniers sont à chercher dans une compréhension de la technique comme moyen, dans un souci d’efficience et de scalabilité (d’extension à la plus grande échelle possible). Comme nous l’avons vu avec l’exemple des expositions universelles, une lecture des textes et querelles liées à l’émergence du design situe son intérêt non pas comme un gain de productivité, mais comme une bifurcation face à la perte de qualité entraînée par l’automatisation du dispositif industriel. Ce détour par le design permet de mieux comprendre l’articulation des technologies à une quête de rendement productif, puisqu’une bonne partie des productions industrielles (objets, industries des programmes, etc.) participe de cette logique. À ce design des angles morts, nous opposons un design « pour la vie », qui travaille pour nous en tant qu’êtres humain·es, c’est-à-dire en tant qu’entités non déterminées d’avance. Autrement dit, un « design pour la vie » serait ce qui éclaire les angles morts de l’industrie pour chercher ce qui nécessite d’être investi et réorienté. De façon approchante à Walter Benjamin qui invite à penser l’esthétique comme une façon d’articuler technique et politique, le designer Ezio Manzini, dans un essai sur « l’écologie de l’artificiel », ouvre une réflexion sur la « qualité » (et non pas la quantité) des environnements : « Il s’agit de penser la technique comme un système devant lequel il ne faut jamais baisser pavillon et savoir rester critique, mais aussi comme une gigantesque mine de ressources et de potentialités. C’est là qu’il faut puiser pour imaginer de nouvelles qualités. [1991, p.  53] » Finalement, c’est bien en déniant au design sa part esthétique que l’économie des techniques engendre son lot de limites. En réinvestissant la technique comme un questionnement, les limites de la programmation deviennent autant d’occasions de bifurcations.

Workshop numérique « Écoles de la pensée »

Date

March 2013

Type

Cours

Contexte

Résumé

Mars 2013 (4 jours) Le workshop « Écoles de la pensée  » se base sur un thème a priori étranger au numérique  : la philosophie à destination à des enfants. Depuis de nombreuses années, la «  philosophie pour les enfants  » se développe dans de nombreux pays, essentiellement via des ateliers de parole et des ouvrages dédiés. Il était demandé aux étudiants de réfléchir à des modes de lecture et de dialogue à l’écran s’inscrivant dans ce champ pédagogique. Les projets ont été menés par groupes de 5, avec pour chaque équipe un éditeur, un graphiste, un développeur et un coordinateur. Le rendu devait comprendre un prototype fonctionnel, ainsi qu’un dossier de faisabilité (rétroplanning, budget fictif, technique, etc.). L’enjeu était de construire son propre projet plutôt que de se placer dans une posture d’exécution : un vrai entraînement au projet pro de deuxième année  ! Au cours des 4 jours du workshop, les étudiants ont pu bénéficier de l’expertise de Nicolas Loubet (Umaps) pour la partie scénarisation de projet. Pour la technique, ils étaient assistés d’Antoine Frankart fondateur d’Oxent, startup de services à destination des éditeurs et compétiteurs de jeux vidéos. Les projets ont pu être poursuivis durant deux semaines «  libres  », avant présentation devant un jury extérieur. Groupe #1  : « Planète Cékoi ? » Un jeu vidéo iOS où l’enfant explore des planètes aux thématiques existentielles. Groupe #2  : « Melting peau » Une application pour Google Glass faisant prendre conscience de problèmes sociaux, à expérimenter en atelier au sein de musées comme la Gaité Lyrique. Groupe #3  : «Pourquoi ? Parce que» Un projet d’exposition numérique au sein du futur Musée des Confluences de Lyon. Groupe #4  : «Cinéphilo» Un site web pour comprendre la philo à partir d’extraits de blockbusters. Groupe #5  : «Mon20h» L’application qui décrypte l’actualité pour les touts petits. Groupe #6  : «Philo&Sophie» Une application pour créer chez soi son atelier philo, déclinaison pour enfants de Philosophie Magazine.

Vers des humanités numériques « critiques »

Date

July 2018

Type

Publication

Contexte

Article publié dans le quotidien d’idées AOC

Résumé

Les humanités numériques, ces pratiques à la croisée de l’informatique et des sciences humaines et sociales, ne se sont que trop peu préoccupées de questions propres au design. Au-delà d’une approche utilitaire, la constitution d’archives et de corpus de connaissances en ligne est pourtant l’occasion de s’interroger sur les rôles que peuvent jouer les designers au sein de ces projets. Dans la situation contemporaine d’une numérisation du monde marquée par une oligarchie des plateformes, les humanités numériques et le design devraient ainsi œuvrer à dérouter la captation des connaissances et les déterminismes technologiques. Des savoirs et pratiques hybrides Les humanités numériques désignent communément un champ de recherche à la croisée de l’informatique et des sciences humaines et sociales (arts, lettres, histoire, géographie, etc.). Initiées dans les années 1950 grâce au traitement électronique de données permettant d’analyser de grands corpus de textes, les humanités numériques ne décollent vraiment qu’avec le développement du Web au début des années 1990 qui ouvre la voie à des collaborations transdisciplinaires et à la mise en ligne des résultats de recherche. De fait, la plupart des projets en humanités numériques s’incarnent dans des jeux de données interopérables (langages Web SQL, TEI/XML, etc.) et des sites Web dédiés (archives en ligne, visualisation de données, etc.). Ce n’est toutefois qu’en 2010, lors de l’événement THAT Camp Paris, que la communauté francophone se fédère via la rédaction du « Manifeste des Digital Humanities » : ce texte collectif prend explicitement position pour une ouverture des connaissances hors des frontières académiques via l’utilisation de licences libres et de processus collaboratifs documentés. Repenser les façons dont les savoirs se constituent et circulent engendre nécessairement des ruptures épistémologiques. La numérisation de documents antérieurs aux technologies numériques (d’encodage par les nombres) ne laisse pas indemnes les éléments de départ. Une fois encodés, les supports de connaissance se prêtent à de multiples utilisations et contextualisations et peuvent « exister dans des versions différentes, éventuellement en nombre illimité. Ce potentiel est une […] conséquence du codage numérique des médias et de [leur] structure modulaire » (Lev Manovich). De façon plus générale, les humanités numériques font vaciller et s’hybrider les délimitations universitaires. Les logiques de programmation propres à l’informatique voisinent avec celles – par exemple – des historiens, qui peuvent eux-mêmes être amenés à intervenir sur l’architecture de l’information. Apparaissent alors des problématiques mettant en jeu les méthodes de ces différents champs, voire des frictions entre la rationalité des langages formels informatiques et l’incertitude propre aux (vieilles) humanités. Le design comme mise en tension du capitalisme Le paradoxe est que les objets issus des projets en humanités numériques ne reflètent que peu, dans leurs formes, ces tensions épistémologiques. Les interfaces des archives en ligne de documents historiques, par exemple, se ressemblent quelque soit leur fonds de départ. De façon plus dérangeante, les logiques propres à l’industrie des programmes ne sont que peu remises en question. La « facture » des interfaces de consultation demeure majoritairement impensée et reflète souvent les choix « par défaut » des environnements de programmation et des systèmes de gestion de contenus (CMS). De même, dans les rares cas où un designer est présent, cela se fait la plupart du temps en aval des prises de décision propres à l’architecture des données. Le risque est alors d’appliquer sans recul critique des méthodologies propres au design UX (User eXperience), dont l’étude de leur histoire montre qu’elles reposent sur des fondements cognitivistes ayant pour revers de réduire l’expérience humaine à une suite de comportements (modélisations des personas, scripts d’utilisation, etc.). Or l’application de ces processus de conception ne va pas sans poser problème dans le champ des humanités numériques, ancrées dans une culture (du) libre s’opposant à la privatisation des savoirs. De façon plus large, le design « centré utilisateur » inquiète la façon dont « nous » pouvons nous situer dans ces expériences : sommes-nous condamnés à n’être que de simples « utilisateurs » ? Que nous dit cette obsession pour le fait de modéliser l’humanité par des encodages numériques ? Les humanités numériques pourraient-elles – au contraire – devenir l’endroit d’une subversion des technologies et processus dominants ? Nous faisons l’hypothèse qu’une implication du design (et non pas une application, comme le sous-entend l’expression d’« arts appliqués ») au sein des humanités numériques pourrait permettre, tout en facilitant l’accès aux productions de recherche (promesse du design dit UX), d’en renouveler l’approche. L’histoire du design est en effet traversée de tensions entre l’économie de marché et la recherche de dimensions échappant à la rentabilité et à l’utilité. Aux débuts de la Révolution Industrielle, l’artiste et écrivain William Morris souligne ainsi l’importance de penser un « art socialiste » qu’il oppose aux « articles manufacturés [qui] ne peuvent avoir aucune prétention à des qualités artistiques » (1891). Le socialiste, dit-il, « voit dans cette absence évidente d’art une maladie propre à la civilisation moderne et nuisible à l’humanité ». Cette articulation de l’existence humaine à l’esthétique est selon lui la seule façon de parvenir à une « communauté d’hommes égaux ». Remplaçons « socialiste » par « designer », et nous retrouverons à presque un siècle d’intervalle cette idée d’un écart du monde des objets avec le capitalisme dans les écrits du designer Victor Papanek (1971), pour qui le bridage des activités créatives fait que « la morale et la qualité de la vie [souffrent] immensément sous notre système actuel de production de masse et de capital privé ». Il en résulte, selon Victor Papanek, que « le designer doit obligatoirement comprendre clairement [tout comme chaque être humain, pourrions-nous ajouter] l’arrière-plan politique, économique et social de ses actes ». Une vingtaine d’années après Victor Papanek, le critique d’art Jonathan Crary dresse l’histoire des « nouvelles constructions institutionnelles d’une subjectivité productive et contrôlée » apparues au XIXe siècle, dont les enjeux résonnent fortement avec la situation contemporaine d’une société numérisée. Dans Techniques de l’observateur (1990), Suspensions of perceptions (2000), puis 24/7 (2013) Jonathan Crary fait émerger la problématique de l’attention, qui « peut [alors] s’imposer comme un enjeu intellectuel, autant que politique » (Maxime Boidy). Le rapport avec les humanités numériques prend alors sens : face à un monde des apps qui ambitionne de réduire au maximum notre temps de sommeil (24/7), ces dernières pourraient au contraire, via leur recul historique et leur inscription dans la recherche, démontrer que d’autres modalités d’être-au-monde sont possibles. Les humanités numériques ne doivent pas seulement viser la numérisation des connaissances mais également les manières dont cet encodage affecte et transforme les êtres humains. Démontrer que l’informatique personnelle, issue des théories cybernétiques de la Guerre Froide, peut être mobilisée dans des directions insoupçonnées permet de lever l’idée d’un déterminisme technologique. La rencontre entre le design et les humanités numériques, si celle-ci n’est pas de l’ordre d’une commande mais d’une recherche commune, pourrait ainsi permettre d’explorer de nouveaux pans de la connaissance en levant les impensés présidant à la construction et à la valorisation des savoirs en milieux numériques. Vers des humanités critiques Au-delà de la numérisation de corpus et de la mise en ligne, de nouveaux défis attendent donc les chercheurs en humanités numériques pour peu que le couple informatique/SHS fasse place au design. Nous proposons en guise de conclusion quelques directions de travail allant dans ce sens. Réduire la barrière technique de l’accès aux données L’open data est partout convoqué, or on constate dans les faits que la mise à disposition des données nécessite des prérequis techniques souvent trop importants pour des non-spécialistes. Le format tabulaire .CSV est le plus accessible pour commencer à travailler, mais ce dernier n’est pas systématiquement proposé, au détriment de méthodes plus lourdes (récupération de flux JSON via des API, etc.). Le workshop « Fabriquer des jeux de données en art » qui s’est tenu en mai 2018 dans le cadre du groupe de travail « Art, design et humanités numériques » de l’association Humanistica (Clarisse Bardiot et Nicolas Thély) a proposé des méthodologies pédagogiques relatives au champ des digital art history : identification et nettoyage de jeux de données, construction de visualisations, etc. Un outil permettant de générer des fichiers CSV à partir du portail Europeana a été développé à cette occasion. Interroger l’idéal d’une sémantique universelle Le modèle du Web sémantique (Tim Berners-Lee, 2001) ambitionne de relier l’éparpillement des connaissances humaines par le recours à des balises et métadonnées insérées dans les codes source des pages Web (« référentiels d’autorité », etc.). D’une utilité évidente pour sortir d’une approche en silo des initiatives scientifiques, ce processus pose pourtant de multiples défis ontologiques et taxonomiques mal connus des chercheurs et des designers. Comment mieux impliquer ces derniers dans l’élaboration de modèles sémantiques ? Faut-il que cette ambition éclipse tous les autres aspects des projets (enjeux formels, collaboratifs, etc.) ? Comment montrer le travail d’encodage sémantique, habituellement recouvert par l’habillage des interfaces ? Explorer les impensés de l’objectivité des données Les jeux de données sont souvent construits sans que leurs processus d’élaboration – et les biais inhérents à toute démarche de ce type – ne soient documentés. Or derrière une apparente objectivité se cachent des enjeux sociaux liés à de multiples prescriptions normatives voire discriminantes (catégories de genre, de « race », de classe, etc.). Comment inclure davantage de voix ? Pourrions-nous, comme nous y invite la chercheuse Catherine D’Ignazio, faire de la visualisation de données de façon collective et inclusive et ainsi permettre des approches dissidentes voire contestataires ? Impliquer des technologies émergentes dans des protocoles de recherche Au-delà de l’effet de mode, des technologies telles que les protocoles blockchain (certification distribuée de transactions) ou l’appellation générique d’« intelligence artificielle » offrent des possibilités de recherche stimulantes pour les chercheurs en humanités numériques. La blockchain peut permettre d’authentifier des documents et des chaînes de transformation de données, de mettre à disposition de la puissance de calcul, de signer les rôles de chaque acteur d’un projet, de générer des smart contracts pour déclencher automatiquement des actions prédéfinies, etc. L’intelligence artificielle, quant à elle, est déjà utilisée par des entreprises comme Google pour la construction automatisée de gammes chromatiques (projet Art Palette), l’identification d’œuvres d’art du MoMa à partir de 30 000 photographies d’exposition ou le repérage (tagging) des contenus de plus de 4 millions de photographies du magazine LIFE. Alors que nous avons en France des pointures internationales dans le domaine de l’IA, est-ce une fatalité que la puissance publique abandonne la « culture logicielle » à des acteurs privés ? Sortir d’une pensée « agnostique » de la forme Beaucoup d’interfaces de projets en humanités numériques se désintéressent des enjeux formels liés à la consultation des documents, ce qui est d’autant plus paradoxal dans l’exemple de documents relatifs à l’histoire de l’art. Jusqu’où cette illusion de neutralité est-elle tenable voire souhaitable ? Est-ce une fatalité que les archives en ligne présentent majoritairement des cadres homogènes ? Quid, sur un autre plan, des relations entre les interfaces de saisie des corpus et la capacité à projeter des modes de consultation ? Citons pour exemple les travaux de Giorgio Caviglia (projet Mapping the Republic of Letters, Stanford) ou de Donato Ricci (Enquête sur les modes d’existence, Sciences Po). Sur d’autres plans, des designers comme LUST, Antony Kolber, l’histoire du net art ou celle des jeux vidéos sont par exemple des sources d’inspiration pouvant intéresser les chercheurs en humanités numériques. Mentionnons également le travail mené à l’Atelier national de recherche en typographie (ANRT Nancy) sous la direction de Thomas Huot-Marchand, où des étudiants en dessin de caractères typographiques se confrontent à des contextes tels que les premières notations du chant, la cartographie, les hiéroglyphes, les inscriptions monétaires, la reconnaissance de caractères, etc. — Ces quelques propositions ont pour objectif d’inciter les chercheurs en humanités numériques à s’intéresser davantage, au-delà du design, à des champs connexes tels que les études visuelles, les media & software studies, ou encore l’archéologie des médias. Une telle visée invite également les designers à envisager d’autres contextes de travail que ceux dans lesquels, au risque d’une saturation de l’offre, ils s’inscrivent habituellement. Les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques.

Pour un design alternatif de l’IA ?

Date

April 2020

Type

Publication

Contexte

Interview des designers Douglas Edric Stanley et de Jürg Lehni par Anthony Masure, contribution au dossier « Cultivons nos intelligences artificielles », Multitudes, no 78. Ce texte a été republié dans la revue Issue-Journal de la HEAD – Genève.

Résumé

Mené entre septembre 2019 et janvier 2020 par les designers Jürg Lehni et Douglas Edric Stanley au sein du Master Media Design de la Haute École d’Art & Design de Genève (HEAD – Genève), le workshop « Thinking Machines » prend comme point de départ l’automatisation des métiers de la création et le fantasme de machines « pensantes ». Ce projet examine, avec un brin d’ironie, un avenir où les designers seraient en mesure de cultiver les IA et de s’extraire des fantasmes technologiques. En quoi le design pourrait-il contribuer à une critique de la culture dominante de l’IA ? Comment inventer, par les pratiques de design, des alternatives soutenables ?

Transhumanisme et traces d’humanité

Date

December 2020

Type

Publication

Contexte

Propos récoltés par Loven Bensimon pour Conforme Magazine et rédigés par Anthony Masure le 1er avril 2020 à Paris.

Résumé

Conforme Magazine : Le transhumanisme est-il notre futur ou est-il déjà d’actualité ? Anthony Masure : Le transhumanisme, qui ne se développe vraiment qu’à partir des années 1980, est un mouvement de pensée complexe et aux ramifications multiples. Il y a un écart entre la réparation et l’augmentation, à savoir le développement de facultés qui dépassent les contraintes biologiques. Mais cette distinction peut rapidement être remise en cause, comme par exemple dans le cas du traitement des maladies génétiques, où l’on pourrait facilement imaginer que seul un groupe social aisé aurait les moyens d’être immunisé à certaines pathologies. Mais ce scénario ne ferait que renforcer les actuelles différences d’accès aux soins, à l’éducation, et aux inventions techniques. De façon plus générale, si l’on entend par transhumanisme la volonté de transcender une condition initiale, alors l’humain a toujours été plus qu’humain, pour reprendre le mot de Nietzsche, c’est-à-dire toujours tiré en dehors de lui même. Autrement dit, il n’est pas possible de séparer l’humain du fait technique ! Comme le note la philosophe Donna Haraway, nous vivons déjà dans une société cyborg 1 Donna Haraway, « Manifeste Cyborg. Science, technologie et féminisme socialiste à la fin du XXe siècle » [1985], dans : Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes [1985–1997], trad. de l’anglais par Denis Petit en collaboration avec Nathalie Magnan, Paris, Exils, 2007. : le cyborg n’est pas une autre ontologie, il est « notre ontologie ». Cette figure permet à Haraway de renverser les oppositions homme / femme / machine et les dynamiques capitalistes : il est possible de réinvestir politiquement le présent pour montrer que ce dernier ne détermine mécaniquement pas le futur. L’enjeu n’est donc pas de s’opposer frontalement au transhumanisme, mais d’explorer des zones de perméabilité, d’en faire un « système d’information polymorphe » (Haraway). Lisa Thieffry pour Conforme magazine Conforme Magazine : L’humain, maître et possesseur de la nature se croit-il tout permis ? Il y a-t-il des écueils à cet hubris ? Peut-il y avoir des conséquences néfastes ? Anthony Masure : Ce n’est pas parce quelque chose est possible qu’il faut à tout pris l’explorer. De la même façon, ce qui est légal n’est pas forcément moral. Se pose alors la question de savoir sur quels critères juger de qui est ou non souhaitable, et à qui cela incombe : politiques, juristes, designers, scientifiques, société civile, etc. Selon le philosophe Vilém Flusser, la question est épineuse car les technologies numériques (les « appareils ») et les biotechnologies font voler en éclat les anciennes catégories de pensée : « L’abandon des critères traditionnels implique l’abandon non seulement de la tradition occidentale, mais de tout humanisme. Et cela, nous ne sommes pas prêts à le faire, et nous avons de très bonnes raisons pour le refuser. C’est pourquoi notre faculté critique face à la culture inhumaine émergente est en crise par manque de critères 2 Vilém Flusser, « Critique, Critères, Crise » [texte inédit, 1984], reproduit dans : Multitudes, n o  74, dossier « Vilém Flusser : vivre dans les programmes », dir. Yves Citton et Anthony Masure, avril 2019, p.  216, https://www.cairn.info/revue-multitudes-2019-1-page-212.htm. ». Les conséquences néfastes d’un déploiement toujours plus important du « programme occidental » ne pourront être évitées qu’à condition de sortir de la binarité humain / nature et de déployer de nouveaux critères de lecture du monde, ce à quoi nous invite Haraway dans un texte écrit à la même époque que Flusser : « Avec les machines de la fin du XXe siècle, les distinctions entre naturel et artificiel, corps et esprit, autodéveloppement et création externe, et tant d’autres qui permettaient d’opposer les organismes aux machines, sont devenues très vagues. Nos machines sont étrangement vivantes, et nous, nous sommes épouvantablement inertes 3 Donna Haraway, op.  cit.. » Conforme Magazine : Ces progrès technologiques sont-ils à même de venir en aide à nos sociétés (évolutions médicales, création de viande, alternatives énergétiques écologiques, etc.) ? Anthony Masure : Tout dépend ce que l’on entend par « nos sociétés » (ce qui sous-entend une réponse orientée vers l’occident) et par « aide » : que ou qui faut-il aider, et pourquoi ? Si l’on prend par exemple le cas de la viande « de synthèse » produite à partir de protéines végétales, même si le gain énergétique et moral semble probant, on reste tout de même dans une logique de culte symbolique de la viande et dans de la nourriture industrialisée. Il ne faudrait pas que cette étape de transition se transforme en point final : les repas végétariens ne se réduisent pas à du « sans viande », et leur intérêt est justement d’explorer d’autres saveurs. De plus, avec de tels procédés, on rejoue un vieux débat dans l’histoire de l’art et du design, à savoir l’imitation de la tradition (d’anciennes formes) par des inventions techniques. C’était par exemple le cas des débuts de la photographie, où l’enjeu était d’imiter la peinture. Or la photographie comme art n’a pu se développer qu’en s’écartant d’une telle approche. Est-ce qu’avec la viande de synthèse ou avec des énergies « alternatives » (et non pas pensées de façon autonome) on n’est pas en train de faire de même ? Jusqu’à quelle point ces progrès « béquilles » ne viennent-ils pas contrecarrer l’émergence d’un nouveau pleinement neuf et de nouvelles saveurs ? Conforme Magazine : Le progrès entre de mauvaises mains représente-t-il un danger pour notre démocratie ? Anthony Masure : Dans les sociétés dites développées, le progrès technique va souvent de pair avec l’automatisation, c’est-à-dire avec la recherche d’un rendement toujours plus efficace. Cette tendance n’est pas forcément à rejeter en bloc, car il y a des tâches qu’il vaut mieux confier à des machines. Mais, à un certain moment, cette décharge de capacités cognitives à des machines engage une perte de la notion de responsabilité : plus personne ne se sent responsable de rien, ce qui entraîne un affaiblissement du sens moral et donc de la démocratie. Mais les démocraties représentatives n’échappent pas à cet écueil : trop souvent on attend des dirigeant·e·s politiques qu’ils·elles prennent des décisions à notre place, alors que le sens moral doit précisément être partagé. Le « devenir-fonctionnaire » des êtres humains (c’est-à-dire la réduction des personnes à des entités ne pouvant que fonctionner et appliquer des ordres) nous guette : les réponses ne pourront être que collectives. Il me semble de plus en plus urgent de penser ce que pourrait être un « design de la responsabilité ». Conforme Magazine : L’intelligence artificielle : outil démocratique ou dictatorial ? Anthony Masure : Je ne pense pas que les techniques (et par extensions les technologies) doivent être pensées comme des outils, mais plutôt comme des polarités plus ou moins ouvertes et pouvant faire l’objet de bifurcations (ce qui pourrait être l’enjeu de l’art et du design). Dès lors, il faut moins penser en terme d’intelligences artificielle (IA) au singulier que d’intelligences artificielles au pluriel. En effet, l’histoire de ce champ fait apparaître des profondes controverses entre différentes méthodes, dont ne rend pas compte l’actuelle hégémonie du deep learning (« apprentissage profond »). Le deep learning ne fonctionne pas sous la forme de règles écrites à l’avance (comme dans la cas de la programmation traditionnelle), mais via élaboration du traitement de l’information par la machine, qui élabore en quelque sorte par elle-même l’écriture du programme. Il en résulte des programmes d’un nouveau type, des « boîtes noires 4 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, n o  80, « L’intelligence artificielle : enjeux éthiques et politiques », dir. Vanessa Nurock, décembre 2019, p.  31–46. » incompréhensibles par des êtres humains, ce qui renvoie à la perte de responsabilité que j’évoquais précédemment. On voit mal comment faire « bifurquer » de tels codes, de la même façon que l’on n’imaginerait pas qu’une centrale nucléaire fonctionne en autogestion, dans une logique de démocratie locale. Il faut donc moins s’inquiéter d’un usage dictatorial des IA que du fait que ce qui est singulier et désarmant avec celles du deep learning, c’est précisément qu’elles n’ont pas d’intentionnalité ! Nous devrons apprendre à composer avec des entités potentiellement autonomes, pour lesquelles les concepts de maîtrise, contrôle, liberté, etc., ne sont pas vraiment signifiants. Laurence Revol Conforme Magazine : Il y a-t-il des inégalités face au transhumanisme et au progrès technologique ? Si oui, peuvent-il être pensés comme égalitaires dans une société capitaliste ? Anthony Masure : Tout progrès technique charrie son lot de nouvelles catastrophes. Comme l’indiquait le philosophe Paul Virilio : « Airbus, en inventant un avion de 800 places, créé 800 morts potentiels » 5 Paul Virilio, « Le krach actuel représente l’accident intégral par excellence », propos recueillis par Gérard Courtois et Michel Guerrin, Le Monde, 18 octobre 2008, https://www.lemonde.fr/idees/article/2008/10/18/le-krach-actuel-represente-l-accident-integral-par-excellence_1108473_3232.html. Cela ne veut pas dire qu’il faut tous se réfugier dans le Larzac, mais plutôt d’intégrer que l’« accident intégral » est au cœur de sociétés capitalistes, dont la logique consiste à concentrer toujours plus de richesses et de pouvoir. Il s’agit donc d’œuvrer à décentrer ces points d’ancrage, de faire de la monoculture technique une « permaculture » – qui considère la coexistence de différents écosystèmes comme un préalable à une reconfiguration sociale. Dès lors, un des enjeux du design, dans une dimension critique, serait non pas de renforcer les lieux de pouvoir mais de faire place à d’autres voies et d’autres voix. Si l’on reprend le cas des intelligences artificielles, celles-ci n’ont pas pour fatalité d’être mobilisées sous l’angle de la volonté de puissance. En les considérant dans une optique élargie, au-delà du deep learning, celles-ci peuvent faire l’objet de reconfigurations esthétiques, c’est-à-dire devenir des prismes permettant de révéler et d’activer ce qui était déjà là parmi nous, comme délaissé. C’est quelque chose que nous travaillons à la HEAD – Genève 6 Jürg Lehni, Douglas Edric Stanley, « Pour un design alternatif de l’IA ? », propos recueillis par Anthony Masure, Multitudes, n o  79, dossier « Cultivons nos IA », https://www.cairn.info/revue-multitudes-2020-1.htm. Cet article fait suite à un workshop initié par Alexia Mathieu au sein du Master Media Design de la HEAD – Genève au 1er semestre 2019–2020., en hybridant différentes époques techniques des IA et en faisant dialoguer des programmes « traditionnels » et auto-apprenants. Le champ du design montre ainsi qu’il est possible de « cultiver » les IA et de les emmener dans des directions insoupçonnées. Casser les monopoles capitalistes à l’endroit des logiciels (et donc des méthodes) de création – en l’occurrence Adobe – est un préalable à toute démarche de ce type. Conforme Magazine : Dans un entretien 7 Hans Jonas, « Les machines ne pourront jamais avoir une conscience », entretien avec Norbert Lossau, Die Welt, 29 novembre 1991., le philosophe Hans Jonas affirme : « prétendre que, outre l’exécution des tâches, l’automate puisse lui-même devenir vivant, acquérir une âme et qu’il puisse désormais en vertu de sa propre volonté, nous donner du fil à retordre, n’est que pure spéculation ». Qu’en pensez-vous ? Une machine peut-elle penser ? Anthony Masure : Les relations entre les ordinateurs et la pensée hantent l’informatique depuis ses débuts. Publié en 1945 par l’ingénieur Vannevar Bush, l’article propédeutique «  As we may think 8 Vannevar Bush, «  Comme nous pourrions penser  » [«  As we may think  », The Atlantic Monthly, vol.  176, n o  1, juillet 1945, p.  101–108], trad. de l’anglais (États-Unis) par Anthony Masure, dans : Le design des programmes, des façons de faire du numérique, doctorat en esthétique (spécialité design) sous la direction de Pierre-Damien Huyghe, université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques et Sciences de l’Art, 2014, http://www.softphd.com/these/traduction/vannevar-bush-as-we-may-think.php. » (« Comme nous pourrions penser ») envisage que les appareils de calcul puissent augmenter les capacités intellectuelles afin d’éviter que l’humanité ne replonge dans un conflit meurtrier : l’informatique balbutiante pourrait servir à partager les connaissances, et non pas développer l’économie. Dans cette optique, la délégation d’opérations intellectuelles aux machines n’a pas vocation de remplacer mécaniquement les humains, mais pourrait permettre – à extrapoler Vannevar Bush – de les « déprogrammer » de tâches fastidieuses. En associant la notion de création aux processus de sélection et non pas au traitement répétitif d’informations, Bush s’écarte de la vision du mathématicien Alan Turing. Selon Turing, la pensée humaine, et plus précisément sa part d’intelligence, serait susceptible d’être non pas augmentée, mais « imitée » par une machine 9 Alan M. Turing, « Théorie des nombres calculables, suivie d’une application au problème de la décision » [« On Computable Numbers, with an Application to the Entscheidungsproblem », 1936], trad. de l’anglais par Julien Basch et Patrice Blanchard dans : La Machine de Turing, édition dirigée par Jean-Yves Girard, Paris, Seuil, coll. « Sciences », 1995.. On voit ici se dessiner deux angles d’approches pour les IA : imiter la pensée humaine, ou lui permettre de franchir des seuils. Si une machine donne l’illusion de penser, est-ce une preuve d’intelligence – si l’on entend sous ce mot la capacité à reformuler des situations imprévues ? Penser, est-ce seulement atteindre des objectifs et résoudre des tâches ? On comprendra que l’intérêt est moins de savoir si une machine peut penser à la façon d’un humain que de se demander en quoi ces formes de pensée machinique modifient, altèrent, augmentent son psychisme. Si les machines sont très performantes pour reproduire, elles le sont beaucoup moins pour créer. Conforme Magazine : Est-on proche d’une mort de la mort ? Anthony Masure : L’actuelle pandémie de Covid-19 rappelle avec violence à quel point les humains sont fragiles et comment, malgré toute l’habileté des technosciences à établir des prédictions, de l’imprévu finit toujours par surgir. Derrière la volonté de certains transhumanistes à surmonter la mort, je ne peux m’empêcher de penser à ce que disait Flusser, qu’une fois libéré de tout (travail, responsabilités, morale, etc.) il ne restera plus rien à l’humain sinon l’ennui, et que cet ennui sera bien plus douloureux que la mort. La perspective de la mort est précisément cette chance d’échapper à l’ennui.

Pour une intelligence de l’artificiel. Le design face aux technologies génératives

Date

July 2024

Type

Publication

Contexte

Article publié dans le Bulletin de l’Association Française pour l’Intelligence Artificielle, dir. Samuel Bianchini, no 125, juillet 2024, p. 45-49.

Résumé

Apparues pour le grand public avec le lancement de services tels que DALL·E, Midjourney ou ChatGPT, les technologies du machine learning sont à la base de l’IA dite « générative ». Cet article explore comment dépasser la polarisation humain/machine pour saisir les nuances théoriques, politiques et pratiques que ces technologies soulèvent dans le champ du design.

Introducing a “research tour” project about the archæology of digital graphic design

Date

August 2017

Type

Blog

Contexte

Résumé

It’s been a few years since I wanted to apply for a French research grant from the Cnap – Centre national des arts plastiques. The funding aims to help researchers in the art and design fields to conduct free projects. The grant (between 4000-8000€) is directly awarded to the researcher, which is great as it avoids any administrative mishap.  The project must be achieved within 18 months, and be summarized in a short written document. So what is my topic about? Well, since my Design Ph.D. defended in November 2013, I haven’t stopped to investigate the relationships between design and digital. The last chapter of my Ph.D. was a little bit prospective about the implications of the digital in the fields of interaction and graphic design (type design, OS design, etc.). Then, after my Ph.D., I started to teach undergraduate graphic and web design classes near Paris. I made a small focus on the culture and the history of the digital by asking my students to design a small website (their first website) about the book From Counterculture to Cyberculture from Fred Turner (2006), translated in French in 2012 by C&F editions. It was one of the only good books available at that time about digital culture. The student productions were good, but we lacked time to go further. In fact, I couldn’t advise any reads in French about the relationships between graphic design and digital practices. There were indeed some technical resources/manuals or online news blogs, but none of this was relevant to the understanding of the digital and its consequences. As the Canadian Center for Architecture (CCA, Montreal, QC) recently said: not only what, but “when is the digital?” In 2015, I started to analyze this subject as we launched Back Office, a research journal, dedicated to these topics. Then, with the great help of my colleagues Kévin Donnot and Élise Gay (E+K), we released the first issue in February 2017 – but that’s another story! During my Design Ph.D., I’ve explored the English field of the “software studies” (Lev Manovich, Matthew Fuller, etc.), but I didn’t know much, at the time, about digital humanities and media archæology. Thanks to the mentoring of French researcher Yves Citton, I started browsing a broader corpus of English books that I tried to connect with some French theory (Jacques Derrida, Michel Foucault, etc.). Apart from Back Office, I wrote a book titled Design and Digital humanities between 2015 and 2016, that will be published before the end of 2017. So, when I applied for the research grant from the Cnap, it was evident for me to think about something deeply connected to my research fields. I gave a lecture in 2016 in Strasbourg (France) about the evolutions of graphical user interfaces (GUI), which tend to be “invisible” (such as voice controlled smart objects). On the other hand, I wanted to go further into the history of digital graphic design. How and when did graphic designers start using computers? The last step to complete the grant application was to find some archive/research centers to open my investigations outside of the french settings. I was lucky to discover the Herb Lubalin Study Center (NYC) in 2013, which holds a great collection of famous graphic designers, such as Herb Lubalin, Otl Aicher, Karl Gerstner, etc. – so it was a no-brainer to go back there. The CCA (Montreal) can also be seen as a hotspot for the reasons explained above. Another interesting place I’m planning to visit is the Vilém Flusser Archive (Berlin), which owns numerous papers, books, etc. of the Czech-born philosopher (1920-1991). With these places in mind, I tried to elaborate a kind of “multi-cultural” research- studying how the digital was received and defined in various contexts, both historical and geographical. A good example is the book French Theory. Foucault, Derrida, Deleuze et Cie et les mutations de la vie intellectuelle aux États-Unis (2003) of the American studies professor François Cusset. In that book, Cusset analyzed the links between the new continental French philosophy, and its reception both inside and outside its homeland. Would it be possible to connect this methodology to design studies? I applied to the grant in late 2016, and received a positive response in March 2017 for an amount of 6000€ (mostly for travel costs). Here is the summary of my project: Shapes of the invisible. Graphic archæology of digital design By studying the progressive merging of graphic design practices with the emergence of personal computing in the early 1980s, and by linking them with contemporary works, this research project studies different ways of working with the “invisible” nature of the digital. For a decade, design dealt with the rise of algorithmic and automatic creative processes (shapes, layout, colorimetry, etc.). Which lessons can we learn from pioneering approaches today? If the digital was born out of computation, how can graphic design help making these invisible operations visible? The full application project, in French, can be found there.

Amateurs et typothèses

Date

September 2013

Type

Publication

Contexte

Anthony Masure, «Rencontres de Lure 2013: amateurs et typothèses», Strabic.fr, septembre 2013

Résumé

D’abord cercle d’amis fondé dans les années 50, élargi en «école» (au sens de lieu d’autoformation et non de chapelle), l’association des Rencontres de Lure s’est ouverte depuis une trentaine d’années à tous les curieux de la chose graphique. Aujourd’hui, après 61 années d’existence, elle regroupe un public hétérogène et passionné qui se réunit chaque été dans ce lieu retiré des Alpes de Haute-Provence. « J’ai en esprit une phrase de Plotin – à propos de l’Un, me semble-t-il, mais je ne sais plus où, ni si je la cite correctement : « Personne n’y marcherait en terre étrangère » 1 Yves Bonnefoy, L’arrière-pays, Paris, Flammarion, coll. Les sentiers de la création, 1992, p.  7.. » Le visiteur qui revient des Rencontres de Lure est confronté à un double embarras : l’impossibilité de rendre compte de l’esprit du lieu, et la longue attente de la prochaine édition. Les Rencontres sont nées autour de 1950, de l’amitié de Jean Giono et du typographe Maximilien Vox. Subjugué par la beauté des montagnes, Vox achètera et reconstruira plusieurs maisons du village de Lurs-en-Provence, alors en ruine. Vox en profitera pour y initier des « retraites graphiques », au ton monacal. Reste de cette époque l’exigence de la réflexion, le temps du recul, l’esprit des lieux où de nombreuses pierres portent une histoire toujours vivante. Volontairement discrètes, les Rencontres de Lure accueillent chaque année autour de 80 personnes (un peu plus pour le cru 2013, qui a battu les records de fréquentation!). Nicolas Taffin préside depuis 2006 l’association (les conférences sont payantes pour couvrir les frais de fonctionnement). Cette fine équipe pratique une éthique de l’ouverture et s’efforce de mélanger les générations et disciplines. Après/Avant, une revue de culture graphique rouge et bleue C’est dans l’ignorance de cette histoire très dense que j’ai été invité par Adeline Goyet à rédiger un article dans la nouvelle revue Après\Avant. Particularité graphique, cet objet éditorial joue comme portfolio de la création contemporaine typographique. Un appel à contribution a été lancé, avec grand succès puisque la revue comporte au final une cinquantaine de polices de caractères différentes, toutes créditées ! L’habile et cauchemardesque maquette (réalisée par Sandra Chamaret et Julien Gineste) permet d’unifier tous les contenus par le recours à une bichromie rouge et bleue. La revue donne à lire des points de vue sur les conférences de l’édition précédente et s’écarte ainsi de la volonté de retranscrire fidèlement les paroles exactes, qui resteront à Lurs. Le deuxième temps de lecture initie la prochaine thématique, en l’occurrence : « l’amateur ». L’imprévu des programmes Afin de clarifier mes réticences quant à ce thème, j’ai proposé un court article intitulé « Que fait l’amateur ? ». Si l’on considère que l’amateur (de amator : celui qui aime) redonne du temps à ses objets d’étude, il est dans le même temps pris dans des logiques de récupération et de captation de ses productions. Dès lors, la responsabilité du designer serait de créer des objet qui « font faire », afin de permettre aux amateurs, que nous sommes peut-être tous, de pouvoir adopter l’altérité du monde. Amateur de rencontres, j’ai naturellement accepté l’invitation lursienne pour me permettre de développer ces premières idées. J’ai effectué une sélection de quelques points clés de ma thèse 2 Anthony Masure, Le design des programmes, thèse en cours de rédaction sous la direction de Pierre-Damien Huyghe, Université Paris 1 Panthéon-Sorbonne, UFR Arts Plastiques., pour discuter l’idée que certains programmes « conditionnent » la création numérique, tandis que d’autres sont moins de l’ordre d’une planification. Il est donc important pour les amateurs et designers de déplacer leurs systèmes de références afin de faire place à l’imprévu. Me voilà donc parti dans la montagne. Le coup de bleu Je débarque donc le dimanche 25 août 2013 en gare de La Brillane-Oraison en compagnie d’autres amateurs de rencontres. De là, nous sommes conduits en haut de la montagne, où je prends place dans le superbe gîte-dortoir communal, qui sera vite rebaptisé Gîte-Hub. La vue sur la vallée et les vieilles pierres installent d’emblée une ambiance de recul, je pressens que la semaine ne ressemblera pas à ce que je connais, et que c’est bien moi qui ferai l’expérience de « l’imprévu des programmes », titre de mon intervention. Ma première tâche consiste à préparer la salle des repas, installer les tables et chaises pour une centaine de convives. Mes acolytes-ouvriers procèdent alors à une réflexion sur la grille pour aligner consciencieusement le mobilier, dont les nappes seront recouvertes pendant la semaine de recherches typographiques diverses. N’importe quelle scène du quotidien peut devenir l’endroit de jeux de mots et déplacements improbables. La salle étant rangée, nous voici donc en marche sur la crête de la montagne pour le traditionnel « coup de bleu », un apéritif improvisé à la lumière particulière du paysages à la tombée de la nuit. Je reconnais ça et là des visages familiers de Twitter, ou des noms dont le souvenir m’échappe parfois. La nuit tombe sur Lurs, ma peau passe du bleu au rouge. Une bande d’activistes Lundi matin, début des conférences à 9h30. L’amateur est évidemment au centre des débats, Nicolas Taffin ouvre la semaine, suivi rapidement de Frank Adebiaye, qui animera chaque matin un feuilleton décalé et savant traitant des figures de l’amateur. J’écoute avec grande attention l’intervention d’André Gunthert (EHESS), qui propose dès 10h à l’assemblée d’en finir avec le terme d’amateur : la semaine vient à peine de commencer que la thématique est détruite ! Pour Gunthert, l’amateur est l’œuvre des institutions et experts qui « sabotent » tout ce qui n’est pas de leur sein en disqualifiant ce qui leur est extérieur. « Ne parlons plus des amateurs » car plus personne ne croît aux récits héroïques d’émancipation. On confond démocratisation et extension, refusant souvent de prendre en compte dans nos analyses les personnes et facteurs hostiles aux changements, les « saboteurs ». Il nous faut réinventer la possibilité de créer des œuvres collectives et anonymes, ce qu’on savait faire avant la Renaissance. Gunthert propose pour finir de remplacer « amateurs » par « activistes », pour mieux qualifier la dimension subversive de ce que fait l’amateur aux productions culturelles. Deuxième coup de bleu, me voilà donc faisant partie d’un groupe d’activistes. Typothèses de recherche Les autres interventions de la première journée traiteront du Comic Sans (« le doudou de la typo »), de l’application Vine, du « tout le monde est graphiste », et la journée se conclura par le défilé des loufoques créations « typonoclastes » de Jean-Jacques Tachdjian, dont la police Hermetica serait parfaite pour ma thèse. Il est déjà l’heure d’aller déranger la grille de la salle des repas. Heureusement, personne ne ronfle dans le Gîte-Hub. Mardi matin, c’est donc à moi de commencer la journée. Les questions du public sont variées, de l’exemple de IA Writer pour désencombrer nos interfaces, à André Gunthert qui me titille sur les conditionnements culturels, qui sont aussi importants que ceux de la technique. Je peux aller me rasseoir et continuer mon live-tweet en réseau Edge (la foudre a cassé le boitier ADSL deux jours avant le début des Rencontres). Je capture ce que je peux de l’intervention de Jean Alessandrini, qui n’avait plus mis les pieds à Lurs depuis 35 ans pour des querelles portant sur sa classification typographique concurrentielle de celle de Maximilien Vox. Son retour en grâce fut mis en scène par Olivier Nineuil, qui organisa la présentation des travaux autour d’une carte mentale de pas moins de 530 images ; grand moment pour certains et mal de mer pour d’autres. Les discussions continueront toute la semaine au « Buffalo grid » et ailleurs, mon intention de venir à Lurs pour discuter d’hypothèses de recherche en cours est pleinement réalisée. J’accapare André Gunthert pour discuter de Walter Benjamin et de l’histoire de la photo. C’est passionnant de rencontrer des activistes, finalement. Baignade et colliers de PERL Mercredi, tout le monde part en car à Marseille pour une journée off, une vraie colonie pour adultes ! Activités au choix : baignade, musée ou visites urbaines. Jeudi, reprise des hostilités. Naviguant des tampons à l’archivage du web, je retiendrai surtout la réédition par Alexandre Laumonier (fondateur de la maison d’édition Zones Sensibles du Dictionnaire historique et critique de Pierre Bayle de 1702. Après avoir fait le tour des principaux enjeux historiques, philosophiques et économiques que pose le projet de rééditer aujourd’hui un livre qui fait à l’origine 4000 pages (le correcteur a mis un an à traiter 1% du contenu !), Alexandre Laumonier pose très justement le fait que rééditer ces pages sans conserver la mise en page d’origine n’a aucun sens. Il s’agit donc de trouver des procédés techniques pour relier les notes de notes de notes entre elles, géniales compositions page par page qui donneraient des cauchemars à n’importe quel maquettiste d’aujourd’hui. Tous les nerds luriens de la salle ont senti leur cœur se nouer quand fut faîte la démonstration de requêtes GREP InDesign servant entre autres à gérer de la micro typographie, ainsi que d’un script PERL pour extraire des statistiques de composition de n’importe quelle page du document, qui fut repris depuis le début de très nombreuses fois ; plus de 10 années de travail. Meta nights Après une nuit où la place du village improvisée en sound system aurait pu générer une nouvelle affaire Dominici, nous revoilà vaillants pour écouter Joe la pompe himself en cagoule, pour protéger son identité des « pompeurs de pubs ». Je découvre l’œuvre et les archives de Gérard Blanchard, typographe, dont les écrits ont de quoi occuper des générations de transcripteurs. Les codeurs de la salle en reprennent un coup, avec David Vallance qui nous présente son projet de DNAT tournant autour de Metafont, un langage de description des polices vectorielles développé dans les années 60 par Donald Knuth, une histoire fascinante de la typographie numérique. Venu des États-Unis, Rich Roat de la fonderie House Industries clôture de fort belle manière cette semaine des amateurs par un show à l’américaine, la culture du goodies et du toujours plus. C’est déjà la dernière nuit. Coup de blues La semaine graphique s’ouvrait par le « coup de bleu », elle se termine par le « coup de blues ». Les derniers lurons échangent sur la semaine, et déjà place à la prochaine édition avec un brainstorming de la prochaine thématique, qui se poursuivra dans le TGV pour Paris. Coup de gris, la montagne reprend ses droits. Pour les joyeux amateurs de #Lure2014, l’attente sera longue. On rebranche quand ? Remerciements chaleureux à l’équipe des Rencontres de Lure pour leur hospitalité légendaire et pour leur organisation tirée au cordeau. Merci à Thibéry Maillard pour les images. En savoir plus : Un très bon article du blog Graphéine sur l’histoire et les secrets des Rencontres de Lure.

Design et innovation publique : une pédagogie de la complexité

Date

March 2017

Type

Publication

Contexte

Anthony Masure, «Design et innovation publique : une pédagogie de la complexité», Parole publique, no15, «Le design des politiques publiques: mode ou refondation ?», dossier dir. Philippe Deracourt, Claire Laval-Jocteur, et Armelle Tanvez, mars 2017, p.73-74

Résumé

L’expression d’un « design des politiques publiques » recouvre des réalités différentes. D’un côté, le risque d’une instrumentalisation du design à des simples fins de communication peut permettre de masquer à peu de frais des défaillances structurelles. D’un autre côté, d’une façon plus intéressante, des démarches associant décideurs et designers peuvent agir sur les politiques elles-mêmes et sur leurs implications pour les citoyens. Le design n’est alors plus seulement compris comme un agent d’agrément, ni même comme un résolveur de problèmes, mais bien comme une capacité d’interroger, de pair avec d’autres acteurs, les présupposés d’une situation initiale afin de proposer des alternatives dans un ensemble qu’on croyait fermé à tout changement. Dans le contexte des politiques publiques, de par la diversité des professions engagées et de l’inertie propre à certaines structures (nombreuses strates juridiques et administratives), toute nouveauté ne peut être que incomplète, partielle et locale. Est-ce pour autant une raison pour ne rien faire ?

Machines désirantes : des sexbots aux OS amoureux

Date

November 2017

Type

Publication

Contexte

Anthony Masure et Saul Pandelakis, «Machines désirantes : des sexbots aux OS amoureux», ReS Futurae, revue d’études sur la science-fiction, no10, «Imaginaire informatique et science-fiction», novembre 2017

Résumé

Nous proposons de rendre compte de l’émergence du désir au cœur de la relation entre un être humain et une machine, tel qu’il est représenté dans les fictions audiovisuelles. Si, dans nos expériences quotidiennes, ce désir s’exprime le plus souvent sur le mode de la frustration, il semble que le cinéma de science-fiction projette d’autres devenirs du désir comme possible horizon de la technologie, notamment au travers du trope du sexbot. Dans la réalité des objets désignés, le sexbot reste encore un jouet passif proche du sextoy. Une figure plus trouble émerge dans les fictions audiovisuelles lorsque que la machine (selon les cas : le robot, l’ordinateur ou l’intelligence artificielle) peut faire de ce désir un sentiment réciproque et devenir alors une « machine désirante ». Des femmes télécommandées de Stepford Wives à l’intelligence sans corps de Her, nous tâcherons de qualifier ces imaginaires de l’informatique sexués et sexuels, et le devenir de ceux-ci dans les processus de conception propres au design.

Notions

Personnes citées

Objets mentionnés

Médias

Prises et déprises des technologies numériques

Date

January 2021

Type

Publication

Contexte

Contribution à l’ouvrage Colloque Vues & Données – De la prise de vue à l’épreuve de la donnée comme histoire matérielle de l’image, dir. Fabien Vallos, Arles, ENSP, Dijon, Les presses du réel.

Résumé

La collecte des « données » numériques à grande échelle, sur lesquelles les citoyens n’ont que peu de « prise », prolonge la vieille utopie de mesurer chaque entité matérielle du monde. L’invisibilisation (la soustraction à la vue) des opérations de calcul et de traduction propre aux technologies numériques masque les idéologies (politiques, etc.) qui les sous-tendent : comment faire pour que le code informatique n’ait pas pour seule visée le management des êtres humains ? Pour proposer des réorientations soutenables permettant de desserrer l’emprise des données numériques, il est nécessaire d’aller à rebours des discours inscrivant l’informatique dans une évolution voire dans une révolution. Une étude resituant la notion de donnée depuis l’apparition des « appareils » photographiques fait ainsi apparaître des disjonctions entre ce qu’on pensait être nouveau et ce qui était déjà là parmi nous, en latence.

Ouvrir le livre. HEAD – Publishing, une cellule éditoriale engagée dans la dissémination des savoirs

Date

September 2021

Type

Publication

Contexte

Article rédigé pour le catalogue de la Biennale internationale de design graphique de Chaumont 2021.

Résumé

La pandémie du Covid-19, avec la fermeture des librairies et des bibliothèques en 2020, a mis en évidence la nécessité d’accéder aux livres en versions numériques. De nombreux·euses éditeur·trices, pourtant peu friand·es des publications en ligne, ont rendu disponibles des ouvrages pour garder le lien avec leur public. Les institutions culturelles ont renforcé les actions de médiation en ligne. De son côté, avec le Covid, le milieu de la recherche s’est davantage engagé dans l’open access, en mettant en œuvre l’obligation, pour les projets financés sur fonds publics 1 C’est par exemple le cas des projets financés par les bailleurs de fonds ANR (France) et FNS (Suisse)., de livrer les résultats rédigés sous une forme consultable gratuitement en ligne. Mais qu’entend-on par « livre numérique » ? Il faut reconnaître que les frontières de ce dernier sont difficiles à baliser. L’expression de livre numérique peut renvoyer à des formats de fichiers (e P ub, HTML, PDF), à des pratiques de lecture (navigation par hyperliens, consultation sur plusieurs terminaux), ou à des modèles économiques (circuits de distribution spécifiques). Pour aller plus loin, il faut examiner ce qui, dans la forme culturelle du livre tel que nous la connaissons depuis plusieurs siècles, empêche l’émergence d’autres façons de faire. La notion de livre reste en effet attachée à celle du livre imprimé, comme si le livre numérique ne pouvait être qu’un calque « dématérialisé ». Or changer de processus de travail n’est pas seulement une affaire de compétences techniques et de moyens, mais engage une redéfinition de l’écriture et de la lecture en milieux numériques. Autrement dit : comment imprimer une culture numérique dans des institutions où domine encore le paradigme traditionnel du livre ? Difficultés à penser des livres « vraiment » numériques Pour apporter quelques éléments de réponse, il faut tout d’abord examiner une série de problèmes liés aux livres numériques tels que nous les connaissons habituellement : – Le paradigme de la page reste le modèle de référence pour les interfaces de lecture, notamment via l’usage massif du format PDF (Portable Document Format, 1992). Un PDF est un ensemble de coordonnées géométriques permettant d’assurer un rendu imprimé fidèle à ce qu’on voit à l’écran afin de faciliter le processus de travail avec les imprimeurs. S’il facilite les citations via les numéros de page 2 Arthur Perret, « L’impensé des formats : réflexion autour du PDF », blog de l’auteur, 7 mars 2021, https://www.arthurperret.fr/impense-des-formats-reflexion-autour-du-pdf, le PDF a pour défaut de ne pas être « sémantique » 3 Sauf dans le cas de solutions expérimentales telles que le « Liquid Mode » de Adobe Acrobat (septembre 2020)., (les données ne sont pas structurées de façon logique), et n’est donc n’est pas accessible aux personnes malvoyantes. Il ne peut pas être remis en page dynamiquement (responsive), et est donc inadapté à la diversité des formats d’écrans. De plus, il est mal indexé par les moteurs de recherche, qui obligent à charger tout le fichier pour trouver le contenu désiré. – Les multiples formats de lecture (e P ub, HTML, PDF, apps, etc.) et types de terminaux entraînent une barrière technique qui entrave la réalisation de livres numériques. Ces derniers nécessitent de maîtriser les langages de programmation (Web notamment), mais aussi d’acquérir une culture des interfaces, à savoir une fréquentation d’objets numériques dans toute leur diversité (sites Web, applications, jeux vidéos, motion design, etc.) – l’analyse de ces productions nécessitant l’élaboration de nouvelles méthodologies 4 Alexandre Saint-Jevin, « Essai pour une méthode d’analyse plastique du vidéoludique », Conserveries mémorielles, n o  23, 2018, http://journals.openedition.org/cm/3213. – Les usages et modèles économiques sont encore fragiles, ce qui freine les développements. Le format e P ub, par exemple, n’a guère percé car il ne fait que dupliquer les technologies Web « standard », qui évoluent en permanence au contraire des systèmes d’exploitation des liseuses type Kobo ou Kindle. De plus, la multiplication des formats de lecture en ligne (articles, podcasts, vidéos, sites Web, etc.), de même que la possibilité de faire des hyperliens et de commenter les contenus, mettent à mal la compréhension du livre comme une unité close. – Les pratiques du design graphique liées aux livres imprimés impliquent une attention soutenue à la fabrication de l’objet, de même qu’aux notions de grille et de micro-typographie. Or les environnements numériques sont par défaut « variables », non stabilisés, et le rendu du texte ne peut jamais être totalement maîtrisé. Les démarches de design graphique « d’auteur » peuvent entrer en conflit avec la standardisation des logiciels et environnement de travail (frameworks) numériques, qui entraînent un risque de « globalisation esthétique 5 Anthony Masure, « Copier/Varier. Standards, critiques et contre-emplois des logiciels de création », dans : David Christoffel et Nathalie Blanc, Multitudes, n o  79, dossier « Globalisations esthétiques ». ». « Manifestes » : une collection d’ouvrages multi-supports et libres et droits Voyons à présent un cas d’étude mettant en évidence la difficulté à passer du modèle de l’imprimé à une démarche multi-supports. Souhaitant internaliser la production de ses ouvrages et les déployer dans une multiplicité de formats, la Haute école d’art et de design de Genève (HEAD – Genève, HES-SO) s’est engagée depuis 2020 dans une restructuration de ses publications via la création du label HEAD – Publishing, une cellule éditoriale multi-supports destinée à valoriser les actions pratiques, théoriques et critiques de l’école genevoise à l’initiative de Julie Enckell Julliard (responsable du développement culturel et des publications), Anthony Masure (responsable de la recherche) et Dimitri Broquard (responsable du département Communication visuelle). Un site Web dédié (https://head-publishing.ch), développé par Juan Gomez (alumnus Master Media Design), met en valeur les précédentes publications de l’institution en montrant les différentes proportions des ouvrages imprimés (dimensions et épaisseur) et en faisant le lien avec la revue de l’école (ISSUE 6 https://issue-journal.ch). La première initiative de HEAD – Publishing est le lancement, en avril 2021, d’une nouvelle collection d’ouvrages intitulée « Manifestes » (coordination éditoriale : Sylvain Menétrey), qui réunit des textes courts portant un regard incisif sur les champs d’action et d’étude de la HEAD – Genève. Les essais, qui se font le reflet de recherches en cours, affirment des parti pris méthodologiques, proposent une vision spéculative de l’art et du design, et positionnent les filières et leurs acteur·trices de l’école dans les débats du monde contemporain. Pour cette collection, nous souhaitions avoir une dissémination des savoirs la plus large possible. Les Manifestes sont disponibles en deux langues (français/anglais), et les textes sont mis à disposition sous licence libre CC BY-SA pour dépasser la notion de gratuité associée au mal nommé open access. Conçue par Dimitri Broquard, l’identité visuelle décline les Manifestes en version imprimée offset distribuée en librairies (17 × 10,5 cm, 80 pages, 12€), en version Print on Demand (Lulu.com) à prix plus faible pour les pays non couverts par les distributeurs, et en divers formats numériques accessibles librement sur le site Web HEAD – Publishing : HTML responsive, e P ub et PDF. La version Web (HTML) a fait l’objet d’un soin particulier, avec une interface en trois colonnes pour séparer le texte courant des notes et des figures. La production des textes des Manifestes a été réalisée via Editoria 7 https://editoria.pub (Coko Fondation), une plateforme d’édition collaborative et libre de droits dédiée aux ouvrages scientifiques. La gestion des rôles nous a évité l’envoi par mail de multiples fichiers Word, le texte étant finalisé en ligne à un seul endroit. Les versions numériques HTML et e P ub des Manifestes ont été exportées (générées) depuis Editoria. Souhaitant avoir un environnement de travail totalement libre de droits, nous voulions utiliser la bibliothèque de code Paged.js 8 https://www.pagedjs.org (Coko Fondation) pour mettre en page les Manifestes en Web to Print (maquettage via des feuilles de style CSS). Ce workflow s’est cependant révélé plus compliqué que prévu, notamment en raison de difficultés liées à la gestion des césures en CSS, à la résolution des images, et à nos choix de maquette relatifs aux notes de bas de pages, placement des visuels et appels de figures – ce qui a conduit à finaliser la maquette offset des trois premiers Manifestes dans Adobe InDesign. Nous espérons toutefois revoir cela pour de futurs opus, et pensons également à produire des versions sonores pour élargir la diffusion. Manifeste pour des environnements rugueux Le cas pratique de HEAD – Publishing met en évidence la complexité d’établir un flux de travail unifié (single source publishing) : bien qu’en grand progrès, les outils de Web to Print ne permettent pas encore d’obtenir une précision graphique comparable aux logiciels de PAO type Adobe InDesign. Ce constat doit toutefois être nuancé par la très mauvaise gestion par InDesign des formats numériques « non PDF » (e P ub et HTML). De plus, étant libre de droits, Paged.js bénéficie d’améliorations constantes de la communauté, comme par exemple une potentielle gestion manuelle des drapeaux via une interface de prévisualisation dans le navigateur 9 Julie Blanc, « A paged.js hackathon at EnsadLab », blog de Paged.js, 18 mars 2021, [https://www.pagedjs.org/posts/2021-03-hackathon. Le Web to Print doit davantage être compris comme un appel à inventer de nouvelles formes de livres, voire de nouveaux types de designers, plutôt que comme une façon plus efficace de produire des ouvrages. Mais, plus fondamentalement, c’est le rapport aux technologies qui est changé. Dans la culture des logiciels libres, il est hasardeux de penser en termes de simples « outils » ou de « solutions » : n’étant pas gérés par des entreprises avec des objectifs de rentabilité, les environnements de travail libres de droits nécessitent une compréhension des valeurs du partage et de la contribution 10 Lauren Lee McCarthy (@laurenleemack), tweet du 2 avril 2021, https://twitter.com/laurenleemack/status/1378020279545331723, et une implication dans le design des protocoles. Les logiciels libres sont souvent rugueux voire contre-intuitifs 11 Marcello Vitali-Rosati, « Ce qui pourrait être autrement : éloge du non fonctionnement », blog de l’auteur, 18 mars 2021, http://blog.sens-public.org/marcellovitalirosati/cequipourrait/fonctionnement.html, et mettent à mal l’assignation de n’être que des « usager·ères » 12 Pierre-Damien Huyghe, À quoi tient le design. Sociétés, services, utilités, Grenoble, De L’Incidence, 2018.. Peut-être est-ce là leur plus grand mérite : contrecarrer le jargon dépolitisant du design « d’expérience » et du design « d’interfaces utilisateurs ». Manifestes HEAD – Publishing, 2021

Play-to-Earn : quand jouer devient un job à temps plein

Date

February 2022

Type

Publication

Contexte

Entretien avec Marine Protais pour la revue L’ADN.

Résumé

Vous voulez comprendre ce qu’est le Web3 ? Découvrez les jeux Axie Infinity, Valhalla Battle Arena ou Sorare… Leur modèle est la meilleure illustration de ce que devient Internet. Interview d’Anthony Masure, spécialiste du sujet.

Creation Versus Machine Learning

Date

October 2023

Type

Publication

Contexte

Text published in issue 1083 of Domus, October 2023.

Résumé

Programmes such as GPT-3, DALL·E, Midjourney, and Disco Diffusion allow image generation from text instructions. What is the spectrum of current and potential implications for design practices?

Fictions, dissections, spéculations : les prototypes d’objets fictionnels qui interrogent les techno-utopies des corps

Date

September 2025

Type

Publication

Contexte

Contribution co-écrite avec Élise Rigot à l’ouvrage collectif L’Encyclopédie des Objets Impossibles, publié en septembre 2025.

Résumé

Ce recueil de notices explore la performativité d’utopies technologiques des corps à l’œuvre dans des projets de design fiction. Ces productions peuvent être considérées comme des « artefacts performatifs » (Suchman, Trigg & Blomberg 2002), au sens où elles construisent une réalité et deviennent les instruments de médiation proches des théories transhumanistes. Six projets sont analysés en trois moments — fiction, dissection et spéculation : The Audio Tooth Implant (James Auger, 2001), La ville des hémisphères (Superstudio, 1971), United Micro Kingdoms (Anthony Dunne et Fiona Raby, 2013), The Modular Body (Floris Kaayk, 2016), Transfigurations (Agi Haines, 2013) et Wanderers (Neri Oxman, 2014-2015).

Formes de l’invisible. Archéologies graphiques du design avec le numérique

Date

August 2017

Type

Blog

Contexte

Résumé

Here is the full application (in French) I wrote late 2016 for the Cnap research grant. You can read more about the background of this project here. Résumé du projet En étudiant des pratiques de design graphique concomitantes à l’émergence de l’informatique personnelle au début des années 1980, et en les mettant en relation avec des démarches de création contemporaines, ce projet propose d’examiner différentes façons de travailler avec l’invisible de la matière numérique. Tandis que le design est confronté depuis une dizaine d’années à une montée en puissance de procédés algorithmiques visant à automatiser la mise en forme d’objets (mise en page, colorimétrie, etc.), quels enseignements pouvons-nous tirer de démarches pionnières pour éclairer le présent ? Alors que le numérique n’a affaire qu’à des contenus calculés, comment le design graphique peut-il contribuer à rendre intelligibles des opérations techniques intangibles ? Contexte historique Défini comme un « metamedium » par l’ingénieur Alan Kay en 1977, l’ordinateur est à la fois capable de simuler les anciens médias et d’en créer des nouveaux. Dès le départ, mince est la frontière entre le design des objets informatiques (les machines et leurs interfaces : le travail de Ettore Sottsass jr. pour Olivetti dès 1958, l’invention de la métaphore du bureau du Xerox PARC au début des années 1970, l’ordinateur Apple Lisa en 1983, etc.) et le design avec les technologies numériques (les objets conçus via des programmes : la modélisation 3D de la théière Melitta par Martin Newell en 1975, les logiciels développés par Frank Gehry Technologies dès le début des années 1990, etc.). Plus proches de nous, des démarches comme le développement des objets « connectés », les interfaces aux contenus générés par les utilisateurs, l’empilement de « fonctions » informatiques déportées à de multiples endroits, etc. brouillent la distinction entre les procédés de conception et les productions réalisées : la donnée (data) est partout et infiltre tous les objets et relations sociales. Contexte théorique La possibilité de « programmer l’invisible » (Edmond Couchot) propre au numérique ouvre de nouvelles partitions entre le visible et l’invisible. Or cette distinction, à la base de toute culture, ne doit pas être abandonnée à une technoscience instrumentale qui déciderait pour nous de ce qui doit ou ne doit pas être vu. En effet, si l’espace visible permettant aux êtres humains de vivre en commun venait à manquer, alors c’est tout le domaine public (défini par la philosophe Hannah Arendt comme le fait de pouvoir être vu et entendu de tous) voire même la « certitude de la réalité du monde » (Arendt) qui risquerait de faire défaut. Mais comment rendre lisible ce qui se construit et se déconstruit en permanence ? C’est bien en tant qu’il est « un des instruments de l’organisation des conditions du lisible et du visible » (Annick Lantenois) que le design graphique est un acteur privilégié de la façon dont les signes se constituent et forment des mondes. En effet, le design ne tient pas seulement dans la réponse à des besoins, mais articule des savoirs, des usages et des relations sociales – ce que l’historien Lucius Burckhardt appelle un « design au-delà du visible ». Enjeux pour le design Habitués à travailler avec des contenus préexistants (textes, images, etc.) mis en forme sur supports imprimés par des « outils », les designers graphiques, dans le cadre de productions conçues sur (ou destinées aux) écrans, ont affaire à une matière mouvante où les moyens et les fins se confondent. Dès lors, comment les designers graphiques peuvent-ils contribuer à faire paraître le « milieu technique » (Gilbert Simondon) dans lequel nous évoluons ? Si le design d’information et les démarches de didactique visuelle peuvent bien sûr aider à comprendre des systèmes complexes, nous nous attacherons plutôt, dans nos recherches, à enquêter sur les façons plurielles dont les designers graphiques rendent compte de procédés de conception et de fabrication en prise permanente avec le visible. Ce projet de recherche se propose ainsi d’examiner comment les designers graphiques travaillent et ont travaillé avec ou contre le numérique, rendant ainsi compte, fût-ce malgré eux, des nouvelles possibilités intrinsèques à ces techniques : détournements de logiciels, cocréation de programmes, place du code dans des documents imprimés, recours à des bases de données, utilisation d’agents de création non humains, etc. En précisant ces catégories et en les éclairant du recul propre à l’histoire de l’informatique personnelle et à sa réception sur divers territoires géographiques, il s’agira ainsi de défendre le fait que les designers puissent se faire interprètes et traducteurs des techniques. Histoire et archéologie des médias numériques Le numérique est fréquemment associé à des promesses d’un futur meilleur, où seraient résolus les problèmes de nos sociétés. Face à ce «  solutionnisme technologique  » (Evgeny Morozov), une approche concernant des enjeux de design serait d’étudier non pas ce que le numérique permettrait, mais de l’envisager plutôt comme « une chose concrète, avec des limites et des influences, [et] de commencer à écrire son histoire et sa théorie » (Frank Gehry). Nous étudierons ainsi en quoi l’histoire d’un travail avec le numérique par des designers graphiques peut être est riche d’enseignements pour l’époque contemporaine, marquée par la multiplication de nouveaux types de techniques « invisibles » (agents de conversation type Siri, réseaux de neurones, etc.). Étant donné que l’informatique personnelle s’est inventée aux États-Unis, un aspect essentiel de cette recherche sera d’interroger des stratégies de réception à différentes époques et territoires géographiques, tant des technologies que des démarches de design afférentes. Cette approche des technologies numériques recoupe ainsi le champ de « l’archéologie des médias » (Jussi Parikka), qui consiste à envisager la généalogie des techniques non pas dans une logique de progression linéaire, mais comme un examen des impasses, des similarités et des divergences de développements techniques réalisés ou non. Production envisagées et méthodologie de recherche Ce projet de recherche s’articule autour de trois enquêtes menées dans des centres d’archives. Ces déplacements dans trois contextes historiques et géographiques distincts seront complétés d’entretiens avec des designers, ingénieurs et chercheurs. Les productions envisagées, majoritairement textuelles, seront organisées sous forme d’articles/notes de recherche pouvant se lire ensemble ou séparément. Nous accorderons une grande place à l’iconographie, qu’elle soit directement issue des documents trouvés en archive, numérisée par mes soins, ou produite ad hoc (schémas, dessins, etc.). Dans la mesure du possible, nous favorisons une traduction français/anglais des contenus produits et/ou consultés. Valorisation de la recherche Afin d’encourager le partage des idées et de valoriser ces recherches, l’ensemble des contenus produits grâce au soutien du Cnap (textes, etc.) sera placé sous licence libre creative commons et consultable en ligne (Open Access). Le design de cette restitution fera l’objet d’un soin particulier, prolongeant en cela mon travail de thèse qui faisait déjà l’objet d’une réflexion sur sa mise en forme. Partenaires Les partenaires envisagés pour ce projet sont des centres d’archive choisis pour leur complémentarité, tant dans leurs types de fonds que dans leur situations géographiques. The Herb Lubalin Study Center of Design and Typography (Cooper Union) – New York City Fondé en 1985, ce centre d’archives reste méconnu en France. Il abrite pourtant une collection singulière de documents produits à partir des années 1950 jusqu’aux années 1990, et notamment des travaux de designers graphiques comme Otl Aicher, Karl Gerstner et Herb Lubalin. De ce fait, ce fonds constitue un endroit privilégié pour étudier les mutations des pratiques des designers graphiques au contact des technologies numériques. Centre Canadien d’Architecture (CCA) – Montréal Le CCA a amorcé depuis 2013 un cycle de recherche autour des rapports entre l’architecture et le numérique ayant donné lieu à plusieurs expositions et publications. Cette démarche archéologique, qui fait place à l’étude de démarches pionnières, est riche d’enseignements pour d’autres champs d’activité. À partir de l’étude de documents historiques conservés au CCA, il s’agira donc d’identifier des transferts méthodologiques entre architecture et design graphique. Vilém Flusser Archiv – Berlin Chercheur protéiforme, encore partiellement traduit en français, Vilém Flusser est notamment connu pour ses travaux sur la culture médiatique. Il a perçu de façon prémonitoire les menaces d’un monde automatisé par la technique. Au sein de la Vilém Flusser Archiv de Berlin, il s’agira d’examiner spécifiquement les travaux portant sur la photographie et le design, riches d’enseignement sur les environnements technologiques contemporains. Utilisation de l’aide financière du Cnap Le soutien à la recherche du Cnap couvre principalement des frais relatifs aux déplacements dans des centres d’archive (transport et hébergement) ainsi que le temps nécessaire à la rédaction des contenus. Elle servira également à prendre en charge des ressources humaines liées à la traduction, à la relecture de contenus, ainsi qu’à la finalisation d’entretiens audio/filmés. Un dernier poste de dépense, plus mineur, consiste en l’achat de ressources documentaires et d’impressions.

Mise à jour technique du site avec Claude Cowork

Date

March 2026

Type

Blog

Contexte

Anthony Masure, « Mise à jour technique du site avec Claude Cowork », blog AnthonyMasure.com, 23 mars 2026

Résumé

Mon premier site Web personnel a été lancé en 2012 sous WordPress, et a migré sous Kirby en 2015 avant d’être entièrement refait en 2016 puis légèrement mis à jour en 2021. En mars 2026, porté par le développement des intelligences artificielles grand public, une refonte technique complète a été menée grâce à l’IA Claude Cowork : migration de Kirby 3.4.4 (2020) vers Kirby 5.3.2 (2026), correctifs de sécurité, optimisation des performances et nettoyage du code JS et CSS. Ce billet documente l’usage de Claude et l’ensemble des changements effectués.

Écologie de l’attention et design des environnements numériques : vers une politique des filtres ?

Date

November 2017

Type

Conférence

Contexte

Communication dans le cadre du colloque scientifique « Écologies du numérique », Écolab / ESAD Orléans

Résumé

L’enjeu d’une écologie du numérique, d’un point de vue psychique, serait d’interroger la prétention des technologies à « solutionner » tous les problèmes du monde, alors même que nous faisons face à de multiples crises cognitives liées à la « captation » de l’attention, à savoir l’exploitation économique des comportements, des affects et des désirs. En tant que ces opérations se font en retrait de toute visibilité, il s’agit bien d’une question écologique, à savoir une disjonction entre un « milieu technique » et les acteurs qui y évoluent. Entre attention personnelle et attention collective, il s’agira ici de réfléchir à une pensée « en commun », et dès lors politique, d’une écologie du numérique.

Publier la recherche

Date

November 2017

Type

Conférence

Contexte

Organisation avec le Centre national des arts plastiques (Cnap) d’une journée d’échanges professionnels sur les relations entre le design graphique et les publications liées à la recherche

Résumé

Résumé de la journée Le jeudi 9 novembre 2017, le Centre national des arts plastiques (Cnap) propose, dans le cadre de ses actions de promotion du design graphique, une journée d’échanges professionnels sur les relations entre le design graphique et les publications liées à la recherche : revues, livres, affiches, brochures, sites Web, applications, etc. Cette rencontre, organisée par le Centre national des arts plastiques, se tiendra aux Beaux-Arts de Paris. Elle est organisée en partenariat avec le Master Ingénierie Culturelle et Communication (Master IEC) de l’Université de Cergy-Pontoise, le DSAA (Diplôme supérieur d’Arts appliqués) Design typographique de l’École Estienne de Paris et avec la collaboration d’Anthony Masure, enseignant-chercheur en design, assisté de Julie Blanc, étudiante-chercheuse à l’EnsadLab. Intitulée « Salon graphique » et prenant la forme d’un grand « atelier » auquel chacun est invité à participer activement, cette journée s’adresse aux éditeurs, responsables de presses universitaires, responsables de communication, directeurs de laboratoires, chercheurs, et designers graphiques. Il leur est proposé de partager leurs réflexions, expériences et questionnements sur les différents sujets abordés afin d’instaurer un dialogue constructif entre commanditaires et designers graphiques et de favoriser le partage d’expériences et de points de vue sur la place accordée au design graphique et sur ses moyens d’expression et d’intervention.

Design numérique : entre facilité d’utilisation et manipulation

Date

October 2021

Type

Conférence

Contexte

Invitation au « Tech+Society Breakfast » (Ethix – Lab for Innovation Ethics + SATW – The Swiss Academy of Engineering Sciences).

Résumé

Nous passons une grande partie de nos journées en utilisant des outils numériques. De Zoom à Zalando aux applications des réseaux sociaux, ces outils sont conçus pour maximiser la facilité d’utilisation tout en maximisant les retours financiers pour leurs concepteurs. À cet effet, des techniques de design sont utilisés pour orienter le comportement des utilisateurs. Quelles conséquences ont ces techniques sur le bien-être des utilisateurs et le fonctionnement de nos sociétés numériques ? Quel standards éthiques devrions-nous adopter dans le design des outils numériques? Et quelle responsabilité portent les designers numériques ?

Le métavers, paradis ou enfer virtuel ?

Date

June 2022

Type

Conférence

Contexte

Intervention à la télévision RTS dans l’émission « Faut pas croire », séquence « Le métavers, paradis ou enfer virtuel ? » animée par Linn Lévy en compagnie de Florian Ducommun.

Résumé

Le « métavers », cette plateforme d’immersion tridimensionnelle connectant les réseaux sociaux, les jeux vidéo et les applications – est appelée à devenir l’économie du futur. Décryptage du concept sur le plateau de Faut pas croire avec Florian Ducommun, une émission animée par Linn Lévy.

Notions

Personnes citées

Objets mentionnés

Médias

CV

Date

Type

Contexte

Résumé

Autres activités

Date

Type

Contexte

Résumé

Thèse

Date

September 2008 — November 2014

Type

Contexte

Thèse en esthétique dirigée par Pierre-Damien Huyghe à l’université Paris 1 Panthéon-Sorbonne, UFR Arts plastiques et Sciences de l’art

Résumé

Résumé Cette thèse interroge le design depuis les pratiques de programmation en montrant qu’elles ne se réduisent pas à une industrie des programmes, qui empêche les inventions de naître tout à fait. Pour cela, elle confronte au sein d’une lecture non linéaire cinq moments de l’histoire du numérique (depuis Vannevar Bush en 1945, dont une traduction inédite est proposée en appendice, jusqu’aux usages contemporains du site web G it H ub) à quatre formulations conceptuelles issues d’un corpus philosophique. Le choix d’auteurs qui n’ont pas directement voué leurs réflexions au design (comme Jacques Derrida, Hannah Arendt ou Walter Benjamin) permet de déconstruire un certain nombre de discours entourant la réception des technologies dites nouvelles. Critiquant nombre d’usages faits des notions de conception et de projet et s’appuyant finalement sur Gilbert Simondon, cette thèse s’intéresse à ce qui n’est pas prévisible dans les programmes. Elle soutient cinq axes ou directions pour une recherche dans le champ concerné : décentrer, authentifier, appareiller, traduire et désarticuler. La plausibilité de ces façons de faire du numérique, encore à l’état d’ébauche dans les productions contemporaines, peut intéresser les designers au-delà des spécialistes. Elle est avérée en fin d’ouvrage dans la description d’une fiction curatoriale. Jury de soutenance M. Yves Citton, Professeur des universités, Université Stendhal-Grenoble 3 (pré-rapporteur). M. Pierre-Damien Huyghe, Professeur des universités, Université Paris 1 Panthéon-Sorbonne (directeur de thèse). M. Nicolas Taffin, Designer d’applications, Professeur associé à l’Université de Caen Basse-Normandie. M. Nicolas Thély, Professeur des universités, Université Rennes 2 (président de jury).

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias