Des interfaces graphiques aux IA. Vers un design à sens unique ?
Contexte
Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.
Résumé
À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.
En 2016, l’entreprise Microsoft présente le projet The Next Rembrandt, un tableau « inédit » de l’artiste. Rendue possible par les progrès du machine learning (apprentissage automatique) au tournant des années 2010, cette œuvre est « générée » à partir d’un modèle stylistique basé sur l’extraction de coordonnées géométriques des productions du peintre. Sa matérialité est également simulée : « Les données ont […] été transmises à une imprimante 3D, qui a appliqué 13 couches d’encre UV à base de peinture sur une toile afin de recréer la texture de la peinture, semblable à celle d’un véritable Rembrandt1 Alessandra Potenza, « This 3D-printed Rembrandt is the new frontier in forgery », The Verge, 5 avril 2016, https://www.theverge.com/2016/4/5/11371566/the-next-rembrandt-3d-printed-painting-ing-microsoft. Ce projet a été développé par l’agence de publicité J. Walter Thompson pour ING Bank. Voir : https://sites.wpp.com/wppedcream/2016/digital/the_next_rembrandt. » Deux ans plus tard, en 2018, une œuvre du collectif Obvious (Hugo Caselles-Dupré, Pierre Fautrel, Gauthier Vernier), Portrait de Edmond Belamy, est vendue par Christie’s pour la somme record de 432 500 $. Cette dernière, à nouveau une impression sur toile, reprend pêle-mêle le registre classique du portrait d’un clerc, les codes du non finito de la Renaissance italienne, les touches de peinture et le flou des avant-gardes, ainsi que la présence traditionnelle d’une signature (ici un morceau d’algorithme). L’œuvre, qui se revendique du GAN Art (Generative Adversarial Network), est réalisée à partir d’un programme en deux parties :
« D’un côté, le générateur, de l’autre, le discriminateur. Nous avons alimenté le système avec un ensemble de données de 15 000 portraits peints entre le XIVe siècle et le XXe siècle. Le générateur crée une nouvelle image à partir de ce jeu de données, puis le discriminateur tente de repérer la différence entre une image créée par l’humain et une image créée par le générateur. Le but est de tromper le discriminateur en lui faisant croire que les nouvelles images sont des portraits réels. Nous obtenons alors un résultat2 Christie’s, « Is artificial intelligence set to become art’s next medium? », Christies.com, décembre 2018, https://www.christies.com/features/A-collaboration-between-two-artists-one-human-one-a-machine-9332-1.aspx. »
Encore plus proches de nous, des systèmes dit « intelligents » comme OpenAI (2015), GPT-3 (2020), DALL·E (2021), Disco Diffusion (2021) ou Midjourney (2022) permettent de générer des images depuis des commandes textuelles (« prompts ») associées à de grands jeux de données. Bien que ces productions soient assez vite stéréotypées3 La campagne de publicité « Heinz A.I. Ketchup » (2022), générée par Dall-E 2, joue sur le fait que ketchup et Heinz sont profondément associés dans les jeux de données du machine learning : https://youtu.be/LFmpVy6eGXs, les débats se focalisent là encore sur le possible remplacement d’illustrateurs ou de designers par l’IA et ne permettent pas de bien saisir le spectre des risques et opportunités de l’apprentissage automatique pour les pratiques en art et en design. La narration de ce type de projet se focalise la plupart du temps sur la capacité de la machine à duper l’humain en masquant la complexité du calcul, à la façon du « Test [dit] de Turing4 Alan M. Turing, « Les ordinateurs et l’intelligence » [« Computing machinery and intelligence », 1950], trad. de l’anglais par Julien Basch et Patrice Blanchard, dans : La Machine de Turing, dir. Jean-Yves Girard, Paris, Seuil, coll. « Sciences », 1995. » (1950) qui pose qu’une machine peut être qualifiée d’ « intelligente » si elle parvient à tromper un observateur situé dans une pièce adjacente. Il n’est dès lors pas étonnant que beaucoup d’articles de presse se demandent, sans grand recul, si l’« intelligence artificielle » (IA) pourrait se substituer aux artistes5 Voir par exemple : Tamara Muncanovic, « Quand l’intelligence artificielle concurrence les artistes », RTS Info, mars 2019, https://www.rts.ch/info/culture/10265675-quand-lintelligence-artificielle-concurrence-les-artistes.html et aux designers – faisant fi des dynamiques commerciales sous-tendant ces démarches et réduisant l’art à la production d’une image d’œuvre. Plus fondamentalement, les réseaux de neurones du machine learning ne peuvent se présenter sous l’expression générique et fantasmée d’« intelligence artificielle » qu’à condition de masquer leur condition technique, tant du point de vue matériel (dissimulation des matières premières nécessaires à leur fonctionnement) que logiciel (effet « boîte noire6 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, no 80, « L’intelligence artificielle : enjeux éthiques et politiques », dir. Vanessa Nurock, décembre 2019, p. 31-46, https://www.anthonymasure.com/articles/2019-12-resister-boites-noires-design-intelligences-artificielles »). Autrement dit, le modèle dominant du machine learning n’est pas pensé pour être intelligible mais pour être efficace et rentable.
Ce paradigme de la simulation et de la compétition engendre une société où prime l’efficacité et non pas le soin (care) à autrui. Si l’on replace ces enjeux dans le champ du design, on peut ainsi se demander d’où provient sa réduction à une suite de modèles schématiques – à une voie à sens unique où le processus créatif peut être automatisé et confié à des machines. Pour cela, il est nécessaire de replacer les récents développements productivistes des technologies du machine learning dans un mouvement plus ancien visant à la fois à démocratiser l’accès aux ordinateurs et à normaliser les pratiques créatives. Ce parcours dans l’histoire des logiciels de création permet d’étudier comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.
L’empreinte logicielle
L’usage des ordinateurs à des fins de dessin ou de conception n’a rien d’évident – ces derniers s’étant développés depuis des logiques de calcul propres aux mathématiques, à l’ingénierie et à la statistique. Dans un article revenant sur les modes de dessin à l’ordinateur à partir des années 1960, l’historien de l’architecture Jordan Kauffman montre ainsi que la transposition de ces modes de pensée dans le champ du design pose de nombreux défis techniques mais aussi, et surtout, épistémologiques :
« Rétrospectivement, c’est vis-à-vis de la création elle-même que le passage à l’informatique semble avoir été le plus compliqué. Parce que le processus créatif n’est pas aisément décomposable en règles systématiques, scientifiques ou mathématiques pouvant générer des réponses exactes, parce que pour designers et architectes, l’expression d’une idée à travers le dessin est le mode principal de création et de communication, il a fallu à l’époque s’efforcer de concilier ordinateurs et pratiques du dessin […] : comment, au stade précoce de la conception assistée par ordinateur, la machine [a-t-elle] affecté et assimilé l’acte de dessiner, le processus de dessin et de création, et les dessins eux-mêmes7 Jordan Kauffman, « Dessiner avec l’ordinateur dans les années soixante : le design et ses pratiques à l’aube de l’ère numérique » [2016], trad. de l’américain par Marie-Luce Kauffman, 2022, Problemata, http://www.problemata.org/fr/articles/640 [?] »
À cette époque, comme l’analyse Jordan Kauffman, les ordinateurs possèdent encore des interfaces et modèles de pensée très divers. Si les spécificités de programmes comme Sketchpad (1963) envisagent le concept de dessin en termes de relations logiques (avec un grand contrôle sur le résultat), il est toutefois possible de comprendre les machines dans une relation plus libre, comme des « assistantes » ou des « partenaires » plutôt que comme des dispositifs normatifs – comme l’exprime Nicolas Negroponte, un des fondateurs de l’Architecture Machine Group (1969) au MIT : « Laissez-nous construire des machines capables d’apprendre, de rechercher et de tâtonner, des machines qui seront des partenaires d’architecture, des machines d’architecture8 Nicholas Negroponte, The Architecture Machine, Cambridge (MA), The MIT Press, 1970, p. 121. Cité dans : Jordan Kauffman, ibid. ».
Dans l’introduction d’un ouvrage plus tardif, Negroponte note toutefois la possibilité que les progrès logiciels peuvent suppléer l’architecte : « L’hypothèse générale est que, dans la plupart des cas, l’architecte est un intermédiaire inutile et encombrant (voire nuisible)9 Nicholas Negroponte, Soft Architecture Machines, Cambridge (MA), The MIT Press, 1975, p. 1. Cité dans : ibid.… » En effet, malgré le travail d’architectes pionniers comme Peter Eisenman ou Frank Gehry dont les agences développent des programmes sur mesure et exploratoires, les années 1980 sont marquées par le succès commercial et la standardisation des logiciels de conception, lesquels reconfigurent en profondeur, et non sans heurts, les métiers. Frank Gehry a ainsi entrevu la différence entre l’outil analogique (comme prolongement de la main) et ce que nous pourrions nommer le logiciel « dispositif10 Anthony Masure, « Des dispositifs aux appareils: l’espacement d’un calcul », Reel-Virtuel.com, no 4 : « Du dispositif à l’imprévu », septembre 2013, https://www.anthonymasure.com/articles/2013-09-dispositifs-appareils-calcul » (comme système de valeur à même d’imposer sa logique de façon insidieuse) :
« À mon avis, le problème de la conception de bâtiments à l’ordinateur, c’est qu’une partie de ce qui en ressort conserve l’empreinte du logiciel. On peut reconnaître un bâtiment conçu avec RHINO ; il ne s’agit pas d’un bâtiment créé par un artiste, c’est un bâtiment RHINO. Il faut dépasser ça […]11 Frank Gehry, dans : Greg Lynn (dir.), Archéologie du numérique, catalogue du Centre canadien d’architecture, Berlin, Sternberg Press, 2013, p. 29.. »
L’approche cognitiviste de l’informatique personnelle
De quel dépassement parle-t-on ? Non pas celui du logiciel en soi, car peu de personnes sont capables d’en concevoir depuis zéro. Pas non plus le dépassement des pratiques usuelles d’un même logiciel, comme on le ferait avec un outil analogique traditionnel, car le caractère scripté du programme détermine voire conditionne à un tout autre seuil ce que l’on peut, ou non, en faire. Ce qui est en jeu dans la pensée de Gehry, selon nous, est la critique du modèle mental propre à l’informatique dominante. En partie fondée sur le modèle cybernétique, du « pilotage », l’expansion commerciale de l’informatique dite « personnelle », avec l’invention des « interfaces graphiques utilisateur » (GUI) des années 1970, va majoritairement se construire à partir de théories comportementalistes qui influent encore aujourd’hui notre relation aux machines électroniques.
Là où Platon, Karl Marx ou Hannah Arendt pensaient le savoir comme une activité libre et émancipatrice, le capitalisme « cognitif » (notion forgée en 200112 Yann Moulier-Boutang, Antonella Corsani, Patrick Dieuaide, Maurizio Lazzarato, Jean-Marie Monnier, Bernard Paulré, Carlo Vercellone, « Le capitalisme cognitif comme sortie de la crise du capitalisme industriel : un programme de recherche », Actes du Forum de la Régulation, mars 2001, https://www.academia.edu/15549954) va au contraire lui assigner une valeur productive : penser et sentir vont être assimilables à un rendement. La réduction du psychisme à de la pure utilité et l’exploitation des capacités cognitives deviennent ainsi de puissants relais de croissance pour le capitalisme industriel. Avec l’industrie des programmes (la massification du software) la soumission du design à la psychologie sociale trouve un de ses principaux ancrages dans la « captologie » enseignée à Stanford depuis 1998 par Brian Jeffrey Fogg13 Brian Jeffrey Fogg, Persuasive Technology: Using Computers to Change What We Think and Do, Burlington (MA), Morgan Kaufmann, 2002. Soutenue en 1998 à Stanford, sa thèse de doctorat s’intitulait Charismatic computers: creating more likable and persuasive interactive technologies by leveraging principles from social psychology., à savoir l’exploitation de l’attention et des biais cognitifs à des fins commerciales.
L’UX Design, ou la programmation utilitariste du psychisme humain
Cette insistance à préconiser les comportements des « utilisateurs » (cette entité normative réduisant l’humain à une même origine sociale, structure psychique, etc.14 Anthony Masure, « Manifeste pour un design acentré », dans : Design et humanités numériques, Paris, B42, coll. « Esthétique des données », 2017.) caractérise le champ de l’« UX Design » (User eXperience, design de l’expérience utilisateur ») – un terme inventé par le psychologue cognitiviste Don Norman en 198615 Donald A. Norman, Stephen W. Draper (dir.), User Centered Design: New Perspectives on Human-Computer Interaction, San Diego, University of California, Hillsdale, Lawrence Erlbaum Associates, 1986. et popularisé une dizaine d’années plus tard. Apparu avec le développement des premières interfaces graphiques, l’UX Design, malgré son nom passé tel quel en langue française, s’appuie sur des principes n’appartenant pas en propre à l’histoire du design – à savoir un puissant alliage entre sciences cognitives, capitalisme et marketing. Dans un texte publié en 2004 et consacré à la visualisation des liens Web hypertextes, le gourou de l’« utilisabilité » Jakob Nielsen (associé de Don Norman) n’a pas peur de renier des siècles de culture visuelle en écrivant qu’« il faut généralement éviter la couleur pour le texte, sauf s’il s’agit d’un lien16 Jakob Nielsen, « Guidelines for Visualizing Links », NN/g, mai 2004, https://www.nngroup.com/articles/guidelines-for-visualizing-links » – comme si un même usage ne renvoyait qu’à une seule forme possible, et comme si l’usage était le seul critère guidant toute démarche de design. Plus loin, dans un condensé involontaire de ce qui pose problème dans l’UX Design vis-à-vis des principes historiques du design, il écrit ainsi que :
« Si vous suivez les lignes directrices relatives à l’apparence des liens sur votre site, il sera plus facile pour les utilisateurs de déterminer immédiatement ce qu’ils peuvent faire sur chaque page et vous réduirez la probabilité qu’ils négligent des liens importants17 Ibid.. »
Diriger ; déterminer ; utiliser ; accélérer ; réduire – cette compréhension du design comme modélisation d’une suite d’actions permettant d’assurer la réalisation d’un objectif (anticiper les actions de l’utilisateur dans un script sans accrocs) participe d’une industrie des programmes qui se renforce au fil des années : raffinée par des itérations toujours plus fines, la programmation des comportements humains creuse l’asymétrie entre les grandes firmes technologiques et les simples « utilisateurs » que nous sommes. Cynique, le journaliste Eshan Shah Jahan parle par exemple de « UX Torture18 Eshan Shah Jahan, « The Rise of the UX Torturer. Moving Beyond UX Designer », Medium, Juillet 2014, https://medium.com/@eshan/the-rise-of-the-ux-torturer-7fba47ba6f22 » afin de qualifier des interfaces volontairement conçues pour dégrader « l’expérience de l’utilisateur » et le forcer à payer. Pour l’artiste Olia Lialina, un design d’interfaces soutenable passe au contraire par l’élaboration d’une « situation dans laquelle le workflow d’une application a des vides que les utilisateurs peuvent combler, où la fluidité et l’uniformité sont interrompues, et où certaines étapes du processus doivent être complétées par les utilisateurs19 Olia Lialina, « L’utilisateur Turing-complet », trad. de l’anglais par Jean-François Caro, dans : Collectif, Considering your tools, 2013, http://reader.lgru.net/texts/lutilisateur-turing-complet. » Faire confiance aux personnes ou au rendement des scripts dessine ainsi deux voies possibles pour le design.
Assistant ou collaborateur ? Le cas des logiciels de création
La vision dominante et utilitariste des sciences cognitives appliquée à l’informatique s’incarne notamment dans les « systèmes d’exploitation » (Operating Systems : Mac OS, 1984 ; Microsoft Windows, 1985 ; macOS, 2001 ; etc.) des machines et dans les programmes qui y sont attachés. À partir des années 1980, on assiste ainsi à la concentration commerciale des logiciels de publication et de conception « assistées » par ordinateurs (PAO et CAO) tels que Autodesk AutoCad (1982), Microsoft Word (1983), QuarkXPress (1987), Adobe Illustrator (1987), Microsoft PowerPoint (1987), Adobe Photoshop (1990), Adobe Premiere (1991), Autodesk 3ds Max (1996), SketchUp (2000) ou encore Rhinoceros (2012). Ces derniers participent tous du modèle WYSIWYG (« What You See is What You Get »), à savoir une interface où ce qui est vu à l’écran correspond à ce qui sera exporté (imprimé ou consulté sur une autre machine).
Sur le plan créatif, les débuts de l’informatique personnelle ont permis l’émergence d’une nouvelle scène de designers graphiques tels que Susan Kare, April Greiman, Zuzana Licko, Irma Boom, David Carson, Paula Scher ou Neville Brody, qui ont façonné des langages visuels singuliers tirant parti des possibilités et contraintes des machines. De façon plus générale, en automatisant un certain nombre d’actions laborieuses (traitement d’images, etc.), ces logiciels ont eu pour vertu d’abaisser le niveau d’entrée nécessaire à l’exercice du design, rompant avec un certain élitisme propre à ces professions. Mais, plus fondamentalement, c’est le rapport à la création qui est affecté. Le théoricien des médias Lev Manovich, pionnier des software studies (« études logicielles ») à la fin des années 2000, note ainsi que :
« Les objets néomédiatiques sont rarement créés ex nihilo ; ce sont généralement des assemblages de parties toutes faites. […] La création authentique a été remplacée par la sélection dans un menu […] [Ce procédé est] la meilleure expression que l’on puisse trouver de la logique de l’identité dans ces sociétés ; à savoir le choix de valeurs dans un certain nombre de menus prédéfinis20 Lev Manovich, Le langage des nouveaux médias [2001], trad. de l’anglais par Richard Crevier, Dijon, Presses du réel, 2010, p. 249 et p. 254. ».
En encodant des savoir-faire et en proposant des « filtres » et des assets visuels préétablis, les logiciels de création ont largement redessiné les tâches habituellement dévolues aux designers en en supprimant certaines (qui se souvient encore des photocompositeurs ?) et en en ajoutant d’autres. En lieu et place des « machines capables d’apprendre, de rechercher et de tâtonner21 Nicholas Negroponte, The Architecture Machine, op. cit. » (Nicholas Negroponte) se sont imposés des « assistants » serviles, incapables de coopération (au sens fort du terme), et qui se contentent le plus souvent d’accélérer et d’automatiser des processus définis. Le revers de cette visée est que le métier de designer, pris dans cette quête d’efficience, se mécanise et perd de son sens puisque l’inventivité et la capacité à interroger un contexte passent au second plan. S’étant eux-mêmes automatisés, les designers courent alors le risque que la machine soit plus performante. L’artiste et designer John Maeda, dont le travail va précisément à l’encontre de cette tendance à la simulation et à la substitution, grinçant, fait remarquer que :
« Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers ne définissent plus la culture ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media (1991), le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile : ‹ Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté ›22 John Maeda, « Time–graphics », « Reactive–graphics », « Metadesigning », série de trois essais, Tokyo, Kabushiki Kaisha, MdN, 1995.. »
Le tournant du Web et l’ère des templates
La capacité des logiciels à façonner la culture est exacerbée par le développement du World Wide Web à partir de 1991, inventé comme un système collaboratif de partage des connaissances à l’échelle mondiale. L’explosion de la quantité de données (textes, images, sons, vidéos, etc.) disponibles en ligne a, par la suite, entraîné la mise au point de nouveaux types de programmes permettant de les trier, de les analyser et de les visualiser. Contrairement aux débuts du Web où il fallait apprendre le langage HTML pour publier, l’apparition de CMS (systèmes de gestion de contenus) WYSIWYG comme WordPress (2003) a largement simplifié la mise en ligne de contenus en recourant à des thèmes (themes) interchangeables et « agnostiques » aux contenus. Le principe des themes s’inscrit dans la continuité des templates 23 Pour une analyse plus nuancée de l’histoire et du rôle des templates dans le design graphique, voir : Nolwenn Maudet, « Une brève histoire des templates, entre autonomisation et contrôle des graphistes amateurs », Université Paris 1, Design Arts Médias, no 5, « Systèmes : logiques, graphies, matérialités », dir. (gabarits), à savoir un modèle de mise en page structuré par une grille de composition. Influencé par les designers László Moholy-Nagy (1895-1946) et Jan Tschichold (1902-1974), le designer graphique Josef Müller-Brockmann (1914-1996), à l’orée de la PAO, comprend la grille comme une méthode universelle de structuration de l’information :
« Dans mes créations […], la subjectivité est supprimée au profit d’une grille géométrique qui détermine l’arrangement des mots et des images. La grille est un système d’organisation qui rend le message plus facile à lire, cela vous permet d’obtenir un résultat efficace à un coût minimum. Avec une organisation arbitraire, le problème est résolu plus facilement, plus vite et mieux. Cela permet également une uniformité qui va au-delà des frontières nationales24 Josef Müller-Brockmann, Systèmes de grille pour le design graphique [1981], trad. de l’anglais par Pierre Malherbet, Genève, Entremonde, 2017.. »
Les templates d’interfaces appliquent la logique d’efficacité de la grille de Müller-Brockmann au champ des logiciels, du Web, et des applications mobiles. Les gabarits peuvent à la fois être mobilisés pour définir l’ergonomie d’un programme en recourant à des codes visuels éprouvés (placement du logo, des menus, etc.), et/ou être embarqués dans des logiciels comme base de travail (ex. : templates PowerPoint, Word, Photoshop, etc.). Grâce aux gabarits, la conception devient plus efficace, mais aussi plus ennuyeuse voire délétère. Dans le roman À l’Est d’Eden, dans un ton rappelant les écrits des proto-designers John Ruskin ou William Morris, l’écrivain John Steinbeck s’inquiète des risques d’un aplatissement de la pensée :
« Il est vrai que deux hommes réunis soulèvent un poids plus aisément qu’un homme seul. Une équipe peut fabriquer des automobiles plus rapidement et mieux qu’un homme seul. Et le pain qui sort d’une fabrique est moins cher et de qualité plus uniforme que celui de l’artisan. Lorsque notre nourriture, nos vêtements, nos toits ne seront plus que le fruit exclusif de la production standardisée, ce sera le tour de notre pensée. Tout idée non conforme au gabarit devra être éliminée25 John Steinbeck, À l’est d’Eden [1952], trad. de l’anglais par Jean-Claude Bonnardot, Paris, Livre de Poche, 2013.. »
Un des risques des gabarits est de suspendre la possibilité de ce qui s’écarte de la grille. Avec les templates, remarque le designer Étienne Mineur en 2007, « Les graphistes doivent […] abandonner une partie de leur pouvoir et responsabilité issus du graphisme papier26 Étienne Mineur, « Peut-on encore être graphiste au pays des Templates ? », My-OS, 2007, https://www.my-os.net/blog/index.php?2007/08/08/564-peut-on-etre-graphiste-au-pays-des-templates » consistant à maîtriser le processus et la forme de A à Z. Il est en effet notable de constater que les CMS, thèmes et gabarits réduisent la liberté d’action des designers graphiques en permettant aux commanditaires et à un public élargi de gérer et de « personnaliser » leurs interfaces (en 2022, WordPress « équipe » 43 % de l’ensemble des sites Web). Selon Étienne Mineur, deux attitudes sont possibles face aux templates : refuser de laisser le contrôle formel aux technologies et se replier sur les supports imprimés, ou se rapprocher du design industriel pour embrasser la création de programmes spécifiques. Cette deuxième voie, qui a donné des résultats probants, reste toutefois minoritaire face au mouvement de fond qui va pousser l’ère des templates à l’échelle des téléphones mobiles, qui équipent en 2022 les deux tiers (67 %) de la population mondiale.
Les globalisations esthétiques des apps stores
Avec l’émergence des smartphones, et plus précisément avec le lancement de l’iPhone d’Apple en 2007, de l’AppStore (2008) et de l’iPad (2010), un nouveau palier est franchi dans l’homogénéisation des interfaces car les sites Web et applications doivent être adaptés pour s’afficher correctement à plusieurs tailles et ratios d’écran. Le louable principe du Web responsive (Web adaptatif, 201027 Ethan Marcotte, « Responsive Web design », A List Apart, mai 2010, https://alistapart.com/article/responsive-web-design), qui fonctionne à base de paliers de redimensionnement, a entraîné, par facilité d’usage, le recours à des modèles de grilles de composition standardisés – et ce sans que le contexte de consultation des contenus, en situation de mobilité, ne soit réellement questionné. Plus encore, les applications mobiles (apps), validées en amont par les éditeurs des OS (Apple iOS et Google Android), mettent en péril la liberté du Web28 Chris Anderson, Michael Wolff, « The Web Is Dead. Long Live the Internet », Wired, août 2010, https://www.wired.com/2010/08/ff-webrip où n’importe qui peut publier des contenus sans autorisation. Si elles ont permis l’émergence de nouveaux types d’interfaces (tactiles, vocales, etc.), les applications mobiles s’inscrivent encore, la plupart du temps, sous l’égide de l’UX Design et de son mantra d’efficacité. Mis en place par l’entreprise Google pour harmoniser l’interface des applications de l’OS Android (2008), le Material Design (2014) est un environnement visuel standardisé basé sur des grilles, transitions animées, effets de profondeur, et ombres portées. D’une redoutable efficacité ergonomique car les codes d’utilisation ne doivent pas être appris à chaque fois, le Material Design a rapidement étendu son influence à l’ensemble du Web et des applications mobiles : tout se met à ressembler à Google.
Suite à l’explosion des terminaux mobiles et des services qui y sont associés, des processus de conception spécifiques se sont développés. Les « parcours d’usage » des « utilisateurs » (selon le vocabulaire consacré de l’UX Design) sont modélisés au sein de logiciels de prototypage tels que Sketch (2010), InVision (2011), Figma (2012) ou Adobe XD (2015), qui contiennent de nombreux assets graphiques (« UI Kits » : grilles, boutons, gammes chromatiques, polices de caractères29 Frank Adebiaye, « Start-up typography: beyond Google Fonts, a rejuvenation of type? », Medium, octobre 2021, https://medium.com/@fadebiaye/start-up-typography-beyond-google-fonts-a-rejuvenation-of-type-bd9d27dfc052, etc.) « prêts à porter ». S’il est possible d’importer ses propres éléments visuels dans ces logiciels, tout pousse à l’assemblage plutôt qu’au sur-mesure. Avec les logiciels de prototypage et le renforcement du découpage des métiers qui en découle (le designer graphique « maquette » une interface qui sera « développée » par d’autres personnes), la promesse de singularité des « expériences » (User eXperience) engendre une « globalisation esthétique30 Nathalie Blanc, David Christoffel, « Esthétiques à échelles à frictions », Multitudes, no 82, 2021, Majeure « Globalisations esthétiques », p. 60-64. https://doi.org/10.3917/mult.082.0060 » dans laquelle une même interface peut être indifféremment utilisée pour une campagne médicale, un site de voyages, un musée, etc. Affronter l’homogénéisation du Web31 Boris Müller, « Why Do All Websites Look the Same? », Medium, septembre 2018, https://borism.medium.com/on-the-visual-weariness-of-the-web-8af1c969ce73 ne pourra se faire qu’en, d’une part, distinguant l’esthétique (la puissance du sensible) de l’apparence (tel ou tel élément visuel interchangeable), et d’autre part en élaborant une critique de la notion d’« utilisateur ».
L’annexion du design par la science des données
Davantage que les logiciels de PAO et de CAO des années 1980, les programmes de prototypage des années 2010 s’appuient sur des principes normatifs cognitivistes se présentant comme scientifiques car s’appuyant sur une batterie d’instruments de mesure propres au développement des réseaux d’information (métriques de l’audimat, suivi du comportement, A/B testing, etc.) qui améliorent les interfaces par des boucles itératives de plus en plus courtes. Avec l’hégémonie des méthodes de l’UX Design à l’endroit de tout design d’interface, force est de constater que les programmes sont de moins « le simple prolongement d’outils manuels32 László Moholy-Nagy, « Nouvelle méthode d’approche – Le design pour la vie » [1947], trad. de l’anglais par Jean Kempf et Gérard Dallez, dans : Peinture Photographie Film et autres écrits sur la photographie, Paris, Folio, 2007, p. 285 : « La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. » », comme le notait en son temps Moholy-Nagy, et de plus en plus des dispositifs techniques complexes qui ne laissent que peu de prises aux designers. Aux (déjà) antiques CMS se sont ajoutés voire substitués les médias sociaux (Friendster, 2002 ; MySpace, 2003 ; Facebook, 2004 ; YouTube, 2005 ; Twitter, 2006 ; Instagram, 2010 ; TikTok, 2016), dans lesquels il est seulement devenu possible de jouer à l’intérieur d’interfaces inaltérables – par exemple via des applications grand public comme Canva (2010). La concentration de la valeur au sein d’un petit nombre d’acteurs économiques (les GAFAM et leurs avatars asiatiques) opère insidieusement un renversement du processus créatif où le code n’est plus une matière à modeler mais une loi à laquelle se conformer.
Cet idéal de la quantification en vient, par contagion, à concerner l’ensemble des champs du design (design graphique, design de mode, design produit, architecture, etc.). Ces derniers tendent à devenir une ramification parmi d’autres de la science des données (data science), où la justesse du faire (de l’intuition, de l’esthétique, des valeurs personnelles, etc.) est concurrencée par la vérité du calcul (l’adéquation à un rendement). Avec les données captées et traitées en « temps réel », ce ne sont plus seulement les actions des designers qui sont facilitées (« assistées »), mais la culture, au sens large, qui est automatisée par la productions d’éléments impliquant de moins en moins d’intervention humaine – comme l’analyse Lev Manovich :
« [À] ce stade [, celui des années 2010 et des médias sociaux], le logiciel culturel [cultural software] se voit attribuer un nouveau rôle. Nous lui déléguons davantage de pouvoir. Il n’est plus seulement un outil, un support ou un assistant. Au lieu de cela, il engage maintenant des comportements culturels (par exemple, décider des nouveaux messages à diffuser sur les médias sociaux, améliorer la qualité de nos photos, rédiger des articles, etc.). Et si, pour l’instant, nous continuons à rédiger des articles, à prendre des photos et à effectuer nous-mêmes d’autres actions culturelles, ces actions pourraient progressivement devenir entièrement automatisées à l’avenir33 Lev Manovich, Cultural Analytics, Cambridge (MA), The MIT Press, 2020, p. 19. Trad. de l’auteur.. »
Grâce à la collecte d’informations à grande échelle et en temps réel, la science des données (data science) permet de mesurer plus finement et plus globalement la réception des produits : goût moyen (tendances), recommandation de contenus (comme dans l’industrie musicale), temps et types d’usages, etc. – autant de facteurs servant à améliorer, par boucles, la conception des produits. Cette croyance en la science des données va comprendre le design comme une suite d’actions dont on peut mesurer l’efficacité – ici comprise comme la capacité à opérer une rétention d’attention. Cette automatisation de la production d’artefacts culturels prolonge et accélère l’influence des logiques cognitivistes dans le champ du design, comme l’incarnent de façon prégnante les technologies du deep learning.
Les intelligences inintelligibles du deep learning
Forgée en 2006 par l’ingénieur Geoff Hinton34 Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh, Cambridge, MIT Press, Neural Computation, vol. 18, no 7, juillet 2006, p. 1527-1554, https://10.1162/neco.2006.18.7.1527 (qui rejoint Google en 2013), la notion de « deep learning » (dérivée du machine learning) désigne des couches de réseaux de neurones artificiels s’inspirant du cerveau humain35 Andrey Kurenkov, « A “Brief” History of Neural Nets and Deep Learning », AndreyKurenkov.com, décembre 2015, http://www.andreykurenkov.com/writing/ai/a-brief-history-of-neural-nets-and-deep-learning et qui permettent de découper une tâche complexe en sous-catégories abstraites. Le deep learning est utilisé depuis plus de dix ans dans de nombreux domaines d’activités (spams, reconnaissance de formes, finance, transports, etc.) où il a été jugé préférable de prioriser la rentabilité à la responsabilité. En effet, les programmes générés par ce biais s’apparentent à des « boîtes noires36 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », op. cit. » (black boxes) vis-à-vis desquelles il est seulement possible d’estimer a posteriori l’efficacité – leur fonctionnement interne demeurant opaque. Contrairement à la programmation « traditionnelle » (logique symbolique) où la machine se contente d’exécuter des règles prédéterminées par des humains, le deep learning (logique connexionniste) désigne une méthode où la machine génère elle-même le programme en comparant des jeux de données « brutes » (sans métadonnées attachées) et « étiquetées » (faisant l’objet de description sémantiques). Les données de départ sont essentielles : plus le système en accumule, plus il est censé être performant.
Loin d’être une technologie magique en retrait des structures de pouvoir (États, entreprises, etc.), l’« intelligence artificielle » ne fait que les prolonger et les renforcer. Plus encore, elle s’appuie sur les mêmes bases idéologiques que l’informatique dominante, à savoir une rationalisation du sensible37 Judy L. Klein, Rebecca Lemov, Michael D. Gordin, Lorraine Daston, Paul Erickson, Thomas Sturm, Quand la raison faillit perdre l’esprit. La rationalité mise à l’épreuve de la Guerre froide [2013], trad. de l’anglais par Jean-François Caro, Bruxelles, Zones Sensibles, 2015. et une modélisation des existences, comme le montre la chercheuse Kate Crawford dans son Contre-atlas de l’Intelligence artificielle :
« Les racines historiques de l’IA, qui datent de la Seconde Guerre mondiale, sont liées à la recherche financée par l’armée, pour le traitement et l’optimisation des signaux ; le but était de simplifier le monde, pour qu’il ressemble davantage à un jeu de stratégie. D’où l’accent mis sur la rationalisation et la prédiction, avec la conviction que le formalisme mathématique nous aiderait à comprendre les humains et la société. L’idée qu’il suffirait de réduire la complexité du monde pour obtenir une prédiction exacte a engendré une théorie implicite du fait social : trouvez le signal au milieu du bruit, et vous changerez le désordre en ordre. Cet aplatissement épistémologique de la complexité en un signal net à des fins de prédiction est aujourd’hui une logique centrale de l’apprentissage automatique38 Kate Crawford, Contre-atlas de l’Intelligence artificielle. Les coûts politiques, sociaux et environnementaux de l’IA [2021], trad. de l’anglais (Australie) par Laurent Bury, Paris, Zulma, 2022, conclusion de l’ouvrage.. »
Dissimuler le pouvoir
Cette réduction du territoire à la carte, celle modelée par les IA, va trouver son chemin dans le champ du design. À partir des années 2010, les technologies du deep learning s’insèrent dans les « industries culturelles » – expression forgée en 1947 par les philosophes Max Horkheimer et Theodor W. Adorno39 Theodor W. Adorno, Max Horkheimer, Dialectique de la Raison [1944], Paris, Gallimard, 1974. pour désigner le poids pris par les médias de masse dans la société contemporaine. Dans les industries créatives (les champs de la création régis par l’idéal du rendement), les programmes d’apprentissage automatique complètent voire remplacent les logiciels de PAO et de CAO des années 1980. Par exemple, l’entreprise Zalando travaille avec Google depuis 2016 pour prédire les tendances de la mode, des services comme TheGrid.io (2014), Wix ADI (2016) ou Adobe Sensei (2016) visent à faciliter la conception d’interfaces, et le programme Dreamcatcher du logiciel Autodesk Netfabb (2018) prétend pouvoir générer un panel de formes optimales répondant à des contraintes données. L’autorité de l’auteur et sa signature visuelle sont mises en tension par des programmes capables d’analyser et de synthétiser de façon automatique de larges jeux de données pour répondre à des commandes diverses. Plus proche de nous, comme évoqué en introduction de cet article, le progrès de systèmes de génération d’images à partir de commandes textuelles (« prompts ») comme Dall-E (2021) relance le vieux débat de savoir si une machine peut se substituer à un designer. Posée sous forme binaire, comme le montre Kate Crawford, cette question conduit à une impasse :
« Nous retrouvons constamment l’idéologie du dualisme cartésien : le fantasme selon lequel les systèmes d’IA sont des cerveaux désincarnés qui absorbent et produisent du savoir indépendamment de leurs créateurs, de leurs infrastructures et du monde plus généralement. Ces illusions nous détournent de questions bien plus pertinentes. Qui ces systèmes servent-ils ? Quelle est l’économie politique de leur construction ? Et quelles en sont les conséquences planétaires40 Ibid. ? »
Il est ainsi plus juste de se demander ce que (ou qui) sert ce renforcement de l’automatisation et la réduction du facteur humain, ou plutôt de sa part d’intelligence. Derrière le caractère magique de l’idée générale d’« intelligence artificielle » (le fantasme d’une autonomie psychique des machines), le fonctionnement du deep learning réduit l’apprentissage au dressage, à l’intériorisation de comportements et à l’imitation de modèles. Autrement dit : ce qu’automatisent les IA du deep learning n’est pas le design au sens historique du terme, mais une compréhension bien limitée de son rôle et de sa portée.
Dès qu’il y a du stéréotype, il y a du programmable
Dans un article au titre explicite (« If You’re Worried About DALL·E Replacing Illustrators, You Don’t Understand The Power of Illustration 41 Julien Posture, « If You’re Worried About DALL·E Replacing Illustrators, You Don’t Understand The Power of Illustration », Aiga Eye on Design, juillet 2022, https://eyeondesign.aiga.org/if-youre-worried-about-dall%c2%b7e-replacing-illustrators-you-dont-understand-the-power-of-illustration/ »), l’illustrateur Julien Posture montre ainsi que l’IA ne remplace pas les illustrateurs mais une idée préconçue de l’illustration, à savoir l’exécution servile d’un brief textuel par le recours à tel ou tel style visuel à la mode – tout comme le faisaient déjà des plateformes de microtravail comme Fiverr (2010) ou Upwork (2015). Il est donc (seulement) possible d’automatiser des commandes à la logique mécaniste (et non pas d’interroger un contexte, de reformuler une demande, etc.), ce qui rejoint l’intuition du mathématicien Alan Turing en 1950 quand il dit que « dès qu’une technique devient un tant soit peu stéréotypée, il devient possible de concevoir un système de tables d’instructions qui rend capable le calculateur électronique de l’exécuter tout seul42 Alan Turing, « Lecture on the Automatic Computing Engine », exposé à la London Mathematical Society, 20 février 1947, reproduit dans : Brian Jack Copeland (dir.), The Essential Turing-Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, New York, Oxford University Press, 2004, p. 378-394. Trad. de l’auteur. ». Or la langue, l’esthétique et l’humain n’existent, au sens fort, qu’à condition de pouvoir se réinventer de l’intérieur et de défier les systèmes de classification les réduisant à une « sémiotique simplissime », comme le montre le philosophe Jean Lassègue :
« La façon dont la langue métaphorise son matériau est telle qu’une approche “dictionnairique” du lexique ne sera jamais suffisante pour rendre compte de l’intelligibilité de la langue parce que la transformation de son mode de production est son moteur même. Quand vous utilisez des mots, vous faites en même temps quelque chose aux mots que vous utilisez et vous transformez le sens du mot en question43 Jean Lassègue, « Des grilles et des rubans. Les machines formelles d’Alan Turing », entretien avec Kévin Donnot et Anthony Masure, Paris, B42, Back Office, no 2, « Penser, classer, représenter », http://www.revue-backoffice.com/numeros/02-penser-classer-representer/jean-lassegue-grilles-rubans. »
Copier ou recopier
Ce parcours historique dans les logiciels de création, depuis les premières interfaces graphiques jusqu’aux technologies du deep learning, dessine une trajectoire dominante qui place la vision comportementaliste de la cybernétique au centre du jeu. Même si des « contre-emplois44 Anthony Masure, « Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création », Multitudes, no 82, « Globalisations esthétiques », dir. Nathalie Blanc et David Christoffel, mai 2021, https://www.anthonymasure.com/articles/2021-05-copier-varier » des programmes existent et que les principes historiques du design sont en contradiction avec sa limitation à la résolution efficace de besoins, une confusion s’est installée : on en vient à se demander si l’IA peut remplacer les designers alors que ce qui est remplaçable (automatisable), derrières des allures spectaculaires, n’est bien souvent qu’un ersatz de commande. Il serait plus utile, mais aussi plus difficile, d’interroger les raisons ayant conduit à cette situation, et qui font que le design en est venu à se lier aussi étroitement à des logiques de rendement. Celles-ci sont d’autant plus compliquées à contrecarrer que les forces économiques en présence, comme le montre Kate Crawford, se présentent comme « neutres » de toute matérialité ou intention politique. Avec l’UX Design et ses avatars cognitivistes, sous couvert d’efficacité (car qui soutiendrait un design inefficace ?) et de scientificité, l’humain se voit réduit à un statut d’utilisateur, à une suite de comportements objectivables, qui le placent sur une voie à « sens unique ».
Dans un livre éponyme, un des rares ouvrages publiés du vivant de Walter Benjamin, l’auteur montre qu’il existe une différence entre la lecture et la copie d’un livre. Contrairement au point de vue occidental qui dévalorise la copie au nom de l’original, la culture chinoise des marchandises montre au contraire comment celle-ci peut participer d’une compréhension plus intime du monde :
« La force d’une route de campagne est tout autre selon qu’on y chemine à pied ou qu’on la survole en aéroplane. Ainsi diffère également la force d’un texte si on le lit ou si on le copie. L’aviateur voit seulement comment la route se propulse à travers le paysage, elle se déroule sous ses yeux suivant les mêmes lois que le terrain qui l’entoure. Seul celui qui chemine sur la route prend la mesure de son emprise et réalise comment de ce terrain qui pour l’aviateur n’est précisément qu’une plaine déroulée, elle fait surgir, sur ordre, des lointains, des belvédères, des clairières, des perspectives à chacun de ses tournants, tel l’appel d’un commandant fait sortir les soldats du rang. Ainsi, seul le texte copié commande l’âme de celui qui en est occupé, tandis que le simple lecteur n’apprend jamais à connaître les nouveaux aspects de son intériorité, comme les ouvre le texte, cette route à travers la forêt vierge intérieure s’épaississant toujours et encore […]45 Walter Benjamin, « Marchandises de Chine », dans : Rue à sens unique [1928], traduction de l’allemand par Anne Longuet, Paris, Allia, 2015, p. 17-18.. »
De tels propos vont à l’encontre de l’idée commune selon laquelle les technologies du deep learning seraient seulement capables de copier. Peut-être est-ce précisément l’inverse : condamnées à recopier des données qu’elles ne savent que lire (que survoler, que découper en coordonnées géométriques) et incapables de lire entre les lignes (inter-legere), ces machines seraient précisément dénuées d’intelligence en raison de leur incapacité à copier, c’est-dire à cheminer pour intérioriser le nouveau.
Notes
1 Alessandra Potenza, « This 3D-printed Rembrandt is the new frontier in forgery », The Verge, 5 avril 2016, https://www.theverge.com/2016/4/5/11371566/the-next-rembrandt-3d-printed-painting-ing-microsoft. Ce projet a été développé par l’agence de publicité J. Walter Thompson pour ING Bank. Voir : https://sites.wpp.com/wppedcream/2016/digital/the_next_rembrandt
2 Christie’s, « Is artificial intelligence set to become art’s next medium? », Christies.com, décembre 2018, https://www.christies.com/features/A-collaboration-between-two-artists-one-human-one-a-machine-9332-1.aspx
3 La campagne de publicité « Heinz A.I. Ketchup » (2022), générée par Dall-E 2, joue sur le fait que ketchup et Heinz sont profondément associés dans les jeux de données du machine learning : https://youtu.be/LFmpVy6eGXs
4 Alan M. Turing, « Les ordinateurs et l’intelligence » [« Computing machinery and intelligence », 1950], trad. de l’anglais par Julien Basch et Patrice Blanchard, dans : La Machine de Turing, dir. Jean-Yves Girard, Paris, Seuil, coll. « Sciences », 1995.
5 Voir par exemple : Tamara Muncanovic, « Quand l’intelligence artificielle concurrence les artistes », RTS Info, mars 2019, https://www.rts.ch/info/culture/10265675-quand-lintelligence-artificielle-concurrence-les-artistes.html
6 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », Paris, Puf, Cités, no 80, « L’intelligence artificielle : enjeux éthiques et politiques », dir. Vanessa Nurock, décembre 2019, p. 31-46, https://www.anthonymasure.com/articles/2019-12-resister-boites-noires-design-intelligences-artificielles
7 Jordan Kauffman, « Dessiner avec l’ordinateur dans les années soixante : le design et ses pratiques à l’aube de l’ère numérique » [2016], trad. de l’américain par Marie-Luce Kauffman, 2022, Problemata, http://www.problemata.org/fr/articles/640
8 Nicholas Negroponte, The Architecture Machine, Cambridge (MA), The MIT Press, 1970, p. 121. Cité dans : Jordan Kauffman, ibid.
9 Nicholas Negroponte, Soft Architecture Machines, Cambridge (MA), The MIT Press, 1975, p. 1. Cité dans : ibid.
10 Anthony Masure, « Des dispositifs aux appareils: l’espacement d’un calcul », Reel-Virtuel.com, no 4 : « Du dispositif à l’imprévu », septembre 2013, https://www.anthonymasure.com/articles/2013-09-dispositifs-appareils-calcul
11 Frank Gehry, dans : Greg Lynn (dir.), Archéologie du numérique, catalogue du Centre canadien d’architecture, Berlin, Sternberg Press, 2013, p. 29.
12 Yann Moulier-Boutang, Antonella Corsani, Patrick Dieuaide, Maurizio Lazzarato, Jean-Marie Monnier, Bernard Paulré, Carlo Vercellone, « Le capitalisme cognitif comme sortie de la crise du capitalisme industriel : un programme de recherche », Actes du Forum de la Régulation, mars 2001, https://www.academia.edu/15549954
13 Brian Jeffrey Fogg, Persuasive Technology: Using Computers to Change What We Think and Do, Burlington (MA), Morgan Kaufmann, 2002. Soutenue en 1998 à Stanford, sa thèse de doctorat s’intitulait Charismatic computers: creating more likable and persuasive interactive technologies by leveraging principles from social psychology.
14 Anthony Masure, « Manifeste pour un design acentré », dans : Design et humanités numériques, Paris, B42, coll. « Esthétique des données », 2017.
15 Donald A. Norman, Stephen W. Draper (dir.), User Centered Design: New Perspectives on Human-Computer Interaction, San Diego, University of California, Hillsdale, Lawrence Erlbaum Associates, 1986.
16 Jakob Nielsen, « Guidelines for Visualizing Links », NN/g, mai 2004, https://www.nngroup.com/articles/guidelines-for-visualizing-links
17 Ibid.
18 Eshan Shah Jahan, « The Rise of the UX Torturer. Moving Beyond UX Designer », Medium, Juillet 2014, https://medium.com/@eshan/the-rise-of-the-ux-torturer-7fba47ba6f22
19 Olia Lialina, « L’utilisateur Turing-complet », trad. de l’anglais par Jean-François Caro, dans : Collectif, Considering your tools, 2013, http://reader.lgru.net/texts/lutilisateur-turing-complet
20 Lev Manovich, Le langage des nouveaux médias [2001], trad. de l’anglais par Richard Crevier, Dijon, Presses du réel, 2010, p. 249 et p. 254.
21 Nicholas Negroponte, The Architecture Machine, op. cit.
22 John Maeda, « Time–graphics », « Reactive–graphics », « Metadesigning », série de trois essais, Tokyo, Kabushiki Kaisha, MdN, 1995.
23 Pour une analyse plus nuancée de l’histoire et du rôle des templates dans le design graphique, voir : Nolwenn Maudet, « Une brève histoire des templates, entre autonomisation et contrôle des graphistes amateurs », Université Paris 1, Design Arts Médias, no 5, « Systèmes : logiques, graphies, matérialités », dir.
24 Josef Müller-Brockmann, Systèmes de grille pour le design graphique [1981], trad. de l’anglais par Pierre Malherbet, Genève, Entremonde, 2017.
25 John Steinbeck, À l’est d’Eden [1952], trad. de l’anglais par Jean-Claude Bonnardot, Paris, Livre de Poche, 2013.
26 Étienne Mineur, « Peut-on encore être graphiste au pays des Templates ? », My-OS, 2007, https://www.my-os.net/blog/index.php?2007/08/08/564-peut-on-etre-graphiste-au-pays-des-templates
27 Ethan Marcotte, « Responsive Web design », A List Apart, mai 2010, https://alistapart.com/article/responsive-web-design
28 Chris Anderson, Michael Wolff, « The Web Is Dead. Long Live the Internet », Wired, août 2010, https://www.wired.com/2010/08/ff-webrip
29 Frank Adebiaye, « Start-up typography: beyond Google Fonts, a rejuvenation of type? », Medium, octobre 2021, https://medium.com/@fadebiaye/start-up-typography-beyond-google-fonts-a-rejuvenation-of-type-bd9d27dfc052
30 Nathalie Blanc, David Christoffel, « Esthétiques à échelles à frictions », Multitudes, no 82, 2021, Majeure « Globalisations esthétiques », p. 60-64. https://doi.org/10.3917/mult.082.0060
31 Boris Müller, « Why Do All Websites Look the Same? », Medium, septembre 2018, https://borism.medium.com/on-the-visual-weariness-of-the-web-8af1c969ce73
32 László Moholy-Nagy, « Nouvelle méthode d’approche – Le design pour la vie » [1947], trad. de l’anglais par Jean Kempf et Gérard Dallez, dans : Peinture Photographie Film et autres écrits sur la photographie, Paris, Folio, 2007, p. 285 : « La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. »
33 Lev Manovich, Cultural Analytics, Cambridge (MA), The MIT Press, 2020, p. 19. Trad. de l’auteur.
34 Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh, Cambridge, MIT Press, Neural Computation, vol. 18, no 7, juillet 2006, p. 1527-1554, https://10.1162/neco.2006.18.7.1527
35 Andrey Kurenkov, « A “Brief” History of Neural Nets and Deep Learning », AndreyKurenkov.com, décembre 2015, http://www.andreykurenkov.com/writing/ai/a-brief-history-of-neural-nets-and-deep-learning
36 Anthony Masure, « Résister aux boîtes noires. Design et intelligence artificielle », op. cit.
37 Judy L. Klein, Rebecca Lemov, Michael D. Gordin, Lorraine Daston, Paul Erickson, Thomas Sturm, Quand la raison faillit perdre l’esprit. La rationalité mise à l’épreuve de la Guerre froide [2013], trad. de l’anglais par Jean-François Caro, Bruxelles, Zones Sensibles, 2015.
38 Kate Crawford, Contre-atlas de l’Intelligence artificielle. Les coûts politiques, sociaux et environnementaux de l’IA [2021], trad. de l’anglais (Australie) par Laurent Bury, Paris, Zulma, 2022, conclusion de l’ouvrage.
39 Theodor W. Adorno, Max Horkheimer, Dialectique de la Raison [1944], Paris, Gallimard, 1974.
40 Ibid.
41 Julien Posture, « If You’re Worried About DALL·E Replacing Illustrators, You Don’t Understand The Power of Illustration », Aiga Eye on Design, juillet 2022, https://eyeondesign.aiga.org/if-youre-worried-about-dall%c2%b7e-replacing-illustrators-you-dont-understand-the-power-of-illustration/
42 Alan Turing, « Lecture on the Automatic Computing Engine », exposé à la London Mathematical Society, 20 février 1947, reproduit dans : Brian Jack Copeland (dir.), The Essential Turing-Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, New York, Oxford University Press, 2004, p. 378-394. Trad. de l’auteur.
43 Jean Lassègue, « Des grilles et des rubans. Les machines formelles d’Alan Turing », entretien avec Kévin Donnot et Anthony Masure, Paris, B42, Back Office, no 2, « Penser, classer, représenter », http://www.revue-backoffice.com/numeros/02-penser-classer-representer/jean-lassegue-grilles-rubans
44 Anthony Masure, « Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création », Multitudes, no 82, « Globalisations esthétiques », dir. Nathalie Blanc et David Christoffel, mai 2021, https://www.anthonymasure.com/articles/2021-05-copier-varier
45 Walter Benjamin, « Marchandises de Chine », dans : Rue à sens unique [1928], traduction de l’allemand par Anne Longuet, Paris, Allia, 2015, p. 17-18.