Anthony Masure

chercheur en design

Recherche

Résultats de recherche

The Digital Thesis as a Website: SoftPhD.com, from Graphic Design to Online Tools

Date

May 2021

Type

Publication

Contexte

Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.

Résumé

How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?

Making of du site Web AnthonyMasure, 2012-2021

Date

January 2021

Type

Blog

Contexte

Anthony Masure, « Redesign du site AnthonyMasure.com », blog AnthonyMasure.com, 12 janvier 2021

Résumé

Le site Web AnthonyMasure.com a fait l’objet de plusieurs refontes depuis 2012. Cet article revient sur les différentes versions du site, les parti-pris fonctionnels et formels, et sur la dernière version en date de janvier 2021.

Hello Blog

Date

July 2017

Type

Blog

Contexte

Résumé

Why and how researchers have to develop some free and fast expression spaces?

Artificial Design: Creation Versus Machine Learning

Date

March 2023

Type

Contexte

Anthony Masure, Artificial Design: Creation Versus Machine Learning, Geneva, HEAD – Publishing, coll. “Manifestes,” 2023

Résumé

In the early 2020s, driven by progress in “artificial intelligence”, programs such as GPT-3, DALL E, Midjourney or Disco Diffusion made it possible to generate images from text instructions. Although these productions often only imitate existing data and lack diversity, media debates tend to focus on the replacement of humans by the machine. In doing so, they screen the essential question: what is the spectrum of current and potential implications of machine learning for design practices?

Des interfaces graphiques aux IA. Vers un design à sens unique ?

Date

January 2024

Type

Publication

Contexte

Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.

Résumé

À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.

Résister aux boîtes noires. Design et intelligence artificielle

Date

December 2019

Type

Publication

Contexte

Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notions

Personnes citées

Objets mentionnés

NFTs Beyond the Visible: Poised Between En Bloc Rejection and New Chains of Value

Date

September 2022

Type

Publication

Contexte

Paper written with Guillaume Helleu for the journal AOC, which appeared in September 2022. Translated from French by Aviva Cashmira Kakar.

Résumé

NFTs (non-fungible tokens) appeared in 2017. They are tamper-proof decentralized digital certificates which have gained fame because of their appropriation by the art world. NFTs have attracted a great deal of controversy, and are frequently accused of being speculative, useless and polluting. We propose to examine these polemics, founded for the most part, in order to show that other approaches are possible. In fact, artistic applications are merely one link in the chain, and NFTs cannot be reduced to their mere visible aspect, they require a wider examination of their value systems, distribution chains, and methods of governance.

Notions

Personnes citées

How Deep is Your Love? How We Spent a Week Chatting with AI Girlfriends, Survived and Wrote About It

Date

January 2026

Type

Publication

Contexte

Article de recherche co-écrit avec Saul Pandelakis et Dominika Čupková dans le cadre du projet Fucking Tech! (2024-2027) et publié dans INC Longform (Institute of Network Cultures) en janvier 2026.

Résumé

À partir d’une semaine d’expérimentation avec onze applications d’« AI Girlfriends », ce texte examine ces services comme des artefacts culturels toucahnt aux notions de genre, de plaisir, d’amour et de psychologie. Appliquant une méthode de « recherche hypersituée », les auteurs décrivent leurs interactions avec des chatbots dédiés à la romance et à la sexualité pour en analyser les promesses (personnalisation, disponibilité permanente, absence de censure) et leurs angles morts (consentement automatisé, biais cishetéronormatifs, incohérences entre texte et image générée). Ils concluent sur la nécessité de repenser ces interfaces au-delà des imaginaires normatifs.

Introducing a “research tour” project about the archæology of digital graphic design

Date

August 2017

Type

Blog

Contexte

Résumé

It’s been a few years since I wanted to apply for a French research grant from the Cnap – Centre national des arts plastiques. The funding aims to help researchers in the art and design fields to conduct free projects. The grant (between 4000-8000€) is directly awarded to the researcher, which is great as it avoids any administrative mishap.  The project must be achieved within 18 months, and be summarized in a short written document. So what is my topic about? Well, since my Design Ph.D. defended in November 2013, I haven’t stopped to investigate the relationships between design and digital. The last chapter of my Ph.D. was a little bit prospective about the implications of the digital in the fields of interaction and graphic design (type design, OS design, etc.). Then, after my Ph.D., I started to teach undergraduate graphic and web design classes near Paris. I made a small focus on the culture and the history of the digital by asking my students to design a small website (their first website) about the book From Counterculture to Cyberculture from Fred Turner (2006), translated in French in 2012 by C&F editions. It was one of the only good books available at that time about digital culture. The student productions were good, but we lacked time to go further. In fact, I couldn’t advise any reads in French about the relationships between graphic design and digital practices. There were indeed some technical resources/manuals or online news blogs, but none of this was relevant to the understanding of the digital and its consequences. As the Canadian Center for Architecture (CCA, Montreal, QC) recently said: not only what, but “when is the digital?” In 2015, I started to analyze this subject as we launched Back Office, a research journal, dedicated to these topics. Then, with the great help of my colleagues Kévin Donnot and Élise Gay (E+K), we released the first issue in February 2017 – but that’s another story! During my Design Ph.D., I’ve explored the English field of the “software studies” (Lev Manovich, Matthew Fuller, etc.), but I didn’t know much, at the time, about digital humanities and media archæology. Thanks to the mentoring of French researcher Yves Citton, I started browsing a broader corpus of English books that I tried to connect with some French theory (Jacques Derrida, Michel Foucault, etc.). Apart from Back Office, I wrote a book titled Design and Digital humanities between 2015 and 2016, that will be published before the end of 2017. So, when I applied for the research grant from the Cnap, it was evident for me to think about something deeply connected to my research fields. I gave a lecture in 2016 in Strasbourg (France) about the evolutions of graphical user interfaces (GUI), which tend to be “invisible” (such as voice controlled smart objects). On the other hand, I wanted to go further into the history of digital graphic design. How and when did graphic designers start using computers? The last step to complete the grant application was to find some archive/research centers to open my investigations outside of the french settings. I was lucky to discover the Herb Lubalin Study Center (NYC) in 2013, which holds a great collection of famous graphic designers, such as Herb Lubalin, Otl Aicher, Karl Gerstner, etc. – so it was a no-brainer to go back there. The CCA (Montreal) can also be seen as a hotspot for the reasons explained above. Another interesting place I’m planning to visit is the Vilém Flusser Archive (Berlin), which owns numerous papers, books, etc. of the Czech-born philosopher (1920-1991). With these places in mind, I tried to elaborate a kind of “multi-cultural” research- studying how the digital was received and defined in various contexts, both historical and geographical. A good example is the book French Theory. Foucault, Derrida, Deleuze et Cie et les mutations de la vie intellectuelle aux États-Unis (2003) of the American studies professor François Cusset. In that book, Cusset analyzed the links between the new continental French philosophy, and its reception both inside and outside its homeland. Would it be possible to connect this methodology to design studies? I applied to the grant in late 2016, and received a positive response in March 2017 for an amount of 6000€ (mostly for travel costs). Here is the summary of my project: Shapes of the invisible. Graphic archæology of digital design By studying the progressive merging of graphic design practices with the emergence of personal computing in the early 1980s, and by linking them with contemporary works, this research project studies different ways of working with the “invisible” nature of the digital. For a decade, design dealt with the rise of algorithmic and automatic creative processes (shapes, layout, colorimetry, etc.). Which lessons can we learn from pioneering approaches today? If the digital was born out of computation, how can graphic design help making these invisible operations visible? The full application project, in French, can be found there.

Manifesto for an Acentric Design

Date

December 2019

Type

Publication

Contexte

Version enriched with a chapter of the essay Design and digital humanities (2017), translation from French by Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, “Navigating the Human”

Résumé

Télécharger l’article en PDF Voir l’article [En ligne «  Human, All Too Human is the monument to a crisis. It calls itself a book for free spirits: almost every sentence is the manifestation of a victory – I used it to liberate myself from things that did not belong to my nature. Idealism is one of them: the title says “where you see ideal things, I see – human, oh, only all too human!”… I know people better. The term “free spirit” does not want to be understood in any other way: a spirit that has become free, that has taken hold of itself again. — Friedrich Nietzsche 1 Friedrich Nietzsche, Ecce Homo [1888], in: The Anti-Christ, Ecce Homo, Twilight of the Idols: And Other Writings, ed. Aaron Ridley and Judith Norman (Cambridge, England 2005), pp.  115–116. In this seemingly autobiographical fragment, Nietzsche refers back to his book Human, All Too Human [1876-1878]. In current discussions of “interface design,” catchphrases such as “user-centered   design,” “the user experience,” and by extension, “experience design” might not, at first glance, seem to draw scrutiny. After all, isn’t the purpose of design to create ‘useful’ things based on the users’ needs, ‘centered’ on them and on the improvement of their ‘experience’? However, if one looks at these concepts more closely, one might wonder what these methods engage as conceptions of design, and more broadly as an understanding of human relations and human-machine relations. Indeed, it is not unproblematic to presuppose that “we” are users first and foremost, i.e. beings solely concerned with relations of utility. What are we to think, then, of terms such as “user-centered design (UCD) 2 Shawn Lawton Henry, Justin Thorp, Notes on User Centered Design Process (UCD). W3C.org (March 2004), http://www.w3.org/WAI/redesign/ucd, access: July, 1, 10:00pm., ” “human-centered design (HCD) 3 Human-Centered Design Toolkit. Ideo (2009), http://www.ideo.com/work/human-centered-design-toolkit, access: July, 1, 10:00pm.,” “activity-centered design (ACD)4 See Geraldine Gay, Helene Hembrooke, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems (Cambridge, MA 2004).,” or “people-centered design (PCD)5 Hugh Graham, People-Centered Design. hughgrahamcreative.com, http://hughgrahamcreative.com/people-centered-design, access: July, 1, 10:00pm.”? Why must design be “centered” on something? More broadly, aren’t there some aspects of human life that can’t be replaced by the “experiences” generated by “user-centered” design? In order to critique the engineering of design and the reduction of the designer’s task to normative and even quantitative methodologies, I propose, as a research method, to bring together an historical study of the concepts to be questioned with technical analyses and the related discourses surrounding them. More precisely, I could synthesize this text’s research method in the following way 6 Here, I borrow the useful summary provided by Alexandre Saint-Jevin in his review of the essay Design et humanités numérique s: Alexandre Saint-Jevin, Sur la trace de l’humain dans les « objets » de design. Non-Fiction (2018),: 1 . To analyze the concept determining the process by which design issues were constructed in order to draw out the underlying philosophical concepts. 2 . To retrace the genealogy of this concept, connecting the technical reality of the products of design with the discourses of all entities being at the origin of the project (originators, designers, contractors, communicators, marketers, etc.) regarding these products. 3 . To synthesize the history and the discourses of these entities concerning matters of design more broadly in order to draw out the philosophical issues entailed in them. 4 . To connect the philosophical issues revealed by the analysis of the discourses of the entities with those of the original concept to show how these come to condition and determine the technical reality. This is thus not a matter of constructing a model of design activity in the form of logical sequences (diagrams, schemata, timelines, etc): rather than trying to tell designers what they should do, this analysis is intended to provide them with critical tools allowing them to analyze, in their own process, what they have already made or are still working on. In order to open up possibilities for making interfaces other than the behavioral scripts of experiential design, I will begin my analysis by turning back to the history of the first graphic interfaces. How do the values embedded within these technological strata infuse and even limit our relations to technology? Xerox Star’s “conceptual model of the user” The expression “user interface” correlates temporally with the development of microcomputers at the end of the 1960s. In 1968, Douglas Engelbart presented the result of the research undertaken at Xerox PARC at the time of an event retrospectively called the “mother of all demos”, where were first showcased videoconferencing, teleconferencing, email, the hypertext navigation system, and the interface modeled on the “office metaphor” based on “windows,” “folders,” the “trash,” etc. Partially realized in the 1973 Xerox Alto 7 Only 1500 units were produced: 1000 for employees of Xerox and the remainder for universities and public institutions. computer, this first form of graphic user interface (GUI) was included in the 1981 Xerox Star. Moreover, the latter was accompanied by network access, email capabilities, a mouse, and a WYSIWIG (What You See Is What You Get) printing system precise enough to make what is seen on the screen coincide with a paper output. In order to specify the origin of the conceptual model used as a basis for a design explicitly asserting needs of “users,” it is important to reconsider the founding principles of the Xerox Star. In an article dating from 1982, five former employees of Xerox Corporation explain their comprehension of the human-machine relations, and more precisely their methodology of interface design: “We have learned from Star the importance of formulating the fundamental concepts (the user’s conceptual model) before software is written, rather than tacking on a user interface afterward. […] It was designed before the functionality of the system was fully decided. It was even designed before the computer hardware was built. We worked for two years before we wrote a single line of actual product software.” 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p.  246. Reprinted online: Contemporary readers, used to design being relegated to the end of a process, dependent on a multitude of external parameters, will certainly wonder at the attribution of such importance to design “before” the material specifications are even formulated. In the case of the Star, it was much more a question of introducing the market to “radically new concepts”9 Ibid.p.  242. than of seeking to apply an “order” issued from above. By dedicating a quantity of memory to the screen display, the originators of the Star were able to create a visual interface functioning in tandem with the mouse (also used on Xerox Alto), defined in the 1982 text as “a way to quickly point to items on the screen 10 Ibid. p.  246.” more effective than the cursors activated by the keyboard. It is particularly interesting to study how the Xerox teams developed a project methodology linked to what is today called “user-centered design.” The development of an interface poses many problems indeed: taking into account the variety of languages in which the users address their commands to the computer, the design of on-screen representations displaying the state of the system to the user, and other abstract problems that can affect the understanding of the system’s behavior. According to the Star teams, these problems are highly subjective, and can be solved only on a case-by-case basis. The method employed thus consisted in focusing on what should precede any design of a successful interface, namely “task analysis”: ” The current task description, with its breakdown of the information objects and methods presently employed, offers a starting point for the definition of a corresponding set of objects and methods to be provided by the computer system [including programs and peripherals]. The idea behind this phase of design is to build up a new task environment for the user, in which he can work to accomplish the same goals as before, surrounded now by a different set of objects, and employing new methods.11 Ibid.p.  248. “ For Xerox, the user is an entity centrally dedicated to carrying out tasks in order to achieve objectives. One finds here the common definition of an algorithm, namely, a set of instructions intended to accomplish a given action. In other words, isn’t this understanding of what a user is derived from the “program” (an algorithm written in machine language) as a model of thought? Isn’t it odd that, in order to improve human-machine relations, human beings are to be imagined on the model of the machines? In this sense, what one would call a “user” in the data-processing context would often be merely a logical reduction of human subjectivity, consequently able to hold a dialogue with “extra-human” programs 12 I borrow this expression from the exhibition Haunted By Algorithms, a research project directed by Jeff Guess and Gwenola Wagon, Paris, ENSAPC / YGREC, January 21, 2017 – March 5, 2017.. Just as some see design as a discipline capable of becoming a science 13 See Anthony Masure, Pour une recherche en design sans modèle, in: Design et humanités numériques, ed. Anthony Masure (Paris 2, here it is a matter of constructing “models of behavior” in order to improve the effectiveness of the “tasks.” The etymology of the French noun “tâche” (“task”) can be traced back to the Latin verb “taxare” (“to tax»), indicating “a determinate work that one is obliged to perform, together with a concept of ‘remuneration’ [or] moral duty 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. p.  9620–9621.”. The French verb “tâcher” (“to try to do”), in turn, expresses the idea of striving, sometimes accompanied by the idea of a degree of painful exertion in order to comply with the imperative to “try to do” something. If the user is a being whose objectives, to be realized, necessarily pass by a series of tasks to achieve, wouldn’t this make us “tâcherons” (“drudges”), i.e. “person[s] performing work on command [emphasis by the author/s] without much intelligence”? 15 Ibid.p.  248–249. In the case of the Xerox Star, nevertheless, things are more complicated. The fact of starting from a “user-model” comprised of a small set of design principles makes it possible to ensure an overall coherence, since “the user experience [acquired in] in one area… [can] apply in others 16 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p.  242: “The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […] and allow user experience in one area to apply in others.” Emphasis mine.,”  thus reducing the cognitive load involved in the use of the computer system. Another aspect discussed in the article – connected with the concept of coherence – pertains to the concept of “familiarity” (the “Familiar User’s Conceptual Model”): “A user’s conceptual model is the set of concepts a person gradually acquires to explain the behavior of a system […] The first task for a system designer is to decide what model is preferable for users […]. This extremely important step is often neglected or done poorly. The [Xerox] Star designers devoted several work-years […] [to] evolving […] an appropriate model for an office information system: the metaphor of a physical office.”17 Ibid.p.  252. The Xerox Star interface was thus constructed on the basis of the users’ current universe, namely, the hierarchical model of the office. It was important to produce a “familiar” interface in order to reduce sources of friction, making the “user experience” seamless. Thus, users find in the machine their customary division, organization, and management of tasks. For example, the pile of paper messages on the physical desk of office-worker users is translated, in their computer, into a pictogram of an envelope indicating when a new email has been received. It is interesting to specify that the metaphorical model defined in advance of the actual development of the program de facto modifies the functions of this program: the design is not approached as a matter of mere presentation. Taking the example of the emails once again, typing a “send mail” command can thus be avoided by manipulating the icons. A last important aspect of the Star interface pertains to the personalization of the interface, as the movable icons make it possible to configure the work environment. Summarizing the overall principles of the Xerox Star, what is indicated here by the term “user” is in fact a succession of goal-directed “tasks” from which the designers construct a “conceptual model” as a basis for the developing of the computer system and ensuring its metaphorical coherence. By providing users with a “familiar” and “friendly” environment, the interface thus developed is intended to increase their productivity by developing “human-machine synergism.” However, the Xerox Star’s “friendly” interface reveals its limitations in certain functions where the office metaphor is inoperative: “One of the raisons d’être for Star is that physical objects do not provide people with enough power to manage the increasing complexity of the “information age.” For example, we can take advantage of the computer’s ability to search rapidly by providing a search function for its electronic file drawers, thus helping to solve the long-standing problem of lost files.” 18 Ibid.p.  282. The 1982 article concludes on an intriguing note, observing that it is difficult to choose between several models of interfaces while relying on stable (scientific) criteria: “User-interface design is still an art, not a science.” 19 Ibid. : «  User-interface design is still an art, not a science. » Although the Xerox Star text ultimately pleads for the establishment of a “more rigorous process” for the development of interfaces, such an assertion must elicit the contemporary reader’s curiosity. The emergence of “rationalized” graphic operating systems In spite of the commercial failure of Xerox Star, these design methods will be a success, definitively changing our relations with electronic machines. A precursor of the research conducted to Xerox PARC, Jef Raskin’s thesis in computer science, Quick-Draw Graphic System, published in 1967 (i.e., 6 years before the Xerox Alto 20 At the beginning of the Seventies, the IBM Usability lab was solely concerned with ergonomics. The Psychology of Computer Programming was published by Gerald Marvin Weinberg in 1971, and the work of Stuart K. Card, Allen Newell and Thomas P. Moran was only made known to the general public after the publication of The Psychology of Human-Computer Interaction in 1983.), argued for a data-processing environment in which the graphic interface would hold a dominant place. Such an idea was not at all self-evident at the end of the 1960s: “The most heretical statement I made […] was that my work was based on a “design and implementation philosophy which demanded generality and human usability over execution speed and efficiency.” This at a time when the main aim of computer science courses was to teach you to make programs run fast and use as little memory as possible.” 21 Dr. Bob, Articles from Jef Raskin about the history of the Macintosh. Dr Bob Tech Blog (2013), https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/, access: July, 1, 10:00pm. After contacts with Xerox concerning the development of the mouse, Jef Raskin was hired by Apple in 1978. It is under his impetus and that of Bill Atkinson 22 The title of Jef Raskin’s thesis (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) was echoed when Bill Atkinson named the Macintosh’s graphics package. that Steve Jobs and Steve Wozniak took note of the research conducted by Xerox PARC on graphic interfaces. Everyone of us knows the rest of the story. In 1979, the CEO of Apple Inc., Steve Jobs, age 24, visited the Xerox facility. In a 1995 documentary, he recalls the shock which this event constituted for him: “They [Xerox] showed me […] three things. […]. One of the things they showed me was object orienting programming […]. The other one they showed me was a networked computer system [of a hundred computers] […]. I didn’t even see that. I was so blinded by the first thing […] which was the graphical user interface. I thought it was the best thing I’d ever seen in my life. Now remember it was very flawed, what we saw was incomplete […] [But, at the time,] within […] ten minutes it was obvious to me that all computers would work like this some day.” 23 Steve Jobs, Triumph of the Nerds: The Rise of Accidental Empires. Documentation. PBS.org (1996), http://www.pbs.org/nerds, access: July, 1, 10:00pm. Following this presentation, obtained in exchange for shares in Apple Inc., Steve Jobs launched the Apple LISA micro-computer, which took the principles of the mouse and the graphic interface from Xerox Star, in 1982. With a price that was too high ($10,000 at the time, or $24,000 today), the LISA was replaced by the much more financially accessible Macintosh, released in 1984. While many still think that Steve Jobs did little more than “steal” the key principles of the Xerox Alto, the history is more complicated than that. The leaders of Xerox had not yet recognized the decisive consequences of what they had discovered, leaving their prospective vision in the hands of the sales and marketing teams, which were focused on photocopiers, the core of the brand, and not on the new market for computers 24 For a detailed history of the Xerox company, see: Douglas K. Smith and Robert C. Alexander, Fumbling the Future: How Xerox Invented, then Ignored, the First Personal Computer (New York 1988).. Bill Atkinson would have to rewrite and improve the quantity of functions in order for the LISA, and then the Macintosh, to take advantage of a “superior” graphic interface (with the addition of scrolling menus, the opening of windows with a double-click, the trash icon, etc). No line of code was “copied and pasted,” strictly speaking 25 Christoph Dernbach, Did Steve Jobs steal everything from Xerox PARC? Mac History (February 2012), http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc, access: July, 1, 10:00pm.. In order to bolster the supply of software for Apple machines, at the beginning of the 1980s, Steve Jobs invited Microsoft to publish programs for the Macintosh. In spite of Jobs’ request to Bill Gates (then CEO of Microsoft) not to use a mouse-controlled graphic interface before the Macintosh (1984) had been on sale for a year, Microsoft surprised everyone by announcing the operating system Windows 1.0 in 1983 26 Windows 1.0 was not yet a complete operating system, but rather a “graphic shell” that could be used by third-party software. , although it would only make its official debut in 1985. When Jobs, furious, accused Bill Gates of having betrayed him, Gates replied that they had both stolen from their “rich neighbor, Xerox.”27 Andy Hertzfeld, A Rich Neighbor Named Xerox. Folklore.org (November 1983), https://www.folklore.org/StoryView.py?story=A_Rich_Neighbor_Named_Xerox.txt, access: July, 1, 10:00pm. See also : Andy Hertzfeld, How the Mac was born, and other tales. Conversation with Scott Ard. CNET (January 2005), http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html, access: July, 1, 10:00pm.. The suit brought against Microsoft by Apple in 1988 was unsuccessful in the courts. Don Norman: the limits of the “user experience” After the release of Microsoft Windows, the design methods used in interface design were structured around scientific disciplines connected with this field. In addition to the expressions “human usability” and “user interface,” that of “user experience” (often shortened to “UX”) then achieved a notable success. The latter seems to appear for the first time in 1986 28 For a detailed chronology of the history of this term, see: Peter Merholz, Whither “User Experience”? Peterme.com (November 1998), http://www.peterme.com/index112498.html, access: July, 1, 10:00pm. in a book co-edited with Donald Norman (a cognitive science researcher), titled User Centered System Design: New Perspectives on Human-Computer Interaction 29 Donald A. Norman and Stephen W. Draper, User Centered System Design: New Perspectives on Human-Computer Interaction (San Diego 1986).. After a consideration of the impossibility of arriving at a univocal meaning by means of standardized images (pictograms), this quotation follows: “Direct Engagement occurs when a user experiences direct interaction with the objects in a domain. Here, there is a feeling of involvement directly with a world of objects rather than of communicating with an intermediary. The interactions are much like interacting with objects in the physical world. […] [T]he interface and the computer become invisible. Although we believe this feeling of direct engagement to be of critical importance […] we know little about the actual requirements for producing it.”30 Edwin L. Hutchins, James D. Hollan, and Donald A. Norman, Direct Manipulation Interfaces, in: User Centered System Design: New Perspectives on Human-Computer Interaction, ed. Donald A. Norman and Stephen W. Draper (San Diego 1986), pp.  114-115. “User experience” can thus be understood as a will to export the Xerox Star design model to fields other than that of screen interfaces and computers which can disappear, becoming “invisible.” Frequently cited as the originator of this expression, Don Norman defined it as follows in 1998: “I invented the term [user experience] because I thought Human Interface and usability 31 The concept of “usability” that Don Norman judges insufficient, was addressed by its proponents, Jeff Rubin and Dana Chisnell, in these terms: “when a product or service is truly usable, the user can do what he or she wants to do the way he or she expects to be able to do it, without hindrance, hesitation, or questions.” Source: Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests (Indianapolis 2008 [1994]), p.  4. were too narrow: I wanted to cover all aspects of the person’s experience with a system, including industrial design, graphics, the interface, the physical interaction, and the manual.” 32 Don Norman, quoted in: Peter Merholz, Whither ‘User Experience’? This broader aspect of “user experience” was then refined in the “canonical” version formulated by Jakob Nielsen and Don Norman: “User experience” encompasses all aspects of the end-user’s interaction with the company, its services, and its products.  The first requirement for an exemplary user experience is to meet the exact needs of the customer […]. We should also distinguish UX and usability: According to the definition of usability, it is a quality attribute of the UI, covering whether the system is easy to learn, efficient to use, pleasant, and so forth. Again, this is very important, and again total user experience is an even broader concept.” 33 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. “Experience design” and the myth of “invisible” data processing This interest, from then on focusing on the user rather than the technological apparatus (the interface), is even more explicit in the phrase “user-centered design” (“UCD”), which consists in basing the whole methodology of design on the central point that is the user. This design methodology enjoyed considerable success, perhaps because of the bond it helped establish between the marketing services tasked with studying consumers and the teams tasked with designing the products. However, by the admission of its own proponent, Don Norman, the term “user” has shown its limitations. In a 2006 article titled “Words Matter. Talk About People: Not Customers, Not Consumers, Not Users,” Don Norman admitted: “We depersonalize the people we study by calling them “users.” Both terms are derogatory. They take us away from our primary mission: to help people. […] People are rich, complex beings. […] A label such as customer, consumer or user ignores [their] […] social structures. […] It is time to wipe words such as consumer, customer, and user from our vocabulary. Time to speak of people. Power to the people.”34 Don Norman, Words Matter. Talk About People: Not Customers, Not Consumers, Not Users. jnd.org (2008), http://www.jnd.org/dn.mss/words_matter_talk_a.html, access: July, 1, 10:00pm. In the same way, in 2008: “One of the horrible words we use is “users.” I am on a crusade to get rid of the word “users.” I would prefer to call them “people.” […] We design for people, we don’t design for users.” 35 Don Norman at UX Week 2008, Adaptive Path. YouTube, https://youtu.be/WgJcUHC3qJ8, access: July, 1, 10:00pm. Let us summarize these points. The methodology of “user-centered design” consists in designing so as to treat each human being as a user, as a person dedicated to maintaining with companies only relations “centered” on his or her “exact needs,”36 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. concerning which there should be no “hindrance[s], hesitation[s], or questions.”37 Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. How to Plan, Design, and Conduct Effective Tests (New York 2008), p.  4. This current of thought results from a scientific modeling of the principles that governed the design of the Xerox Star in order to make it a “personal” machine, optimizing the tasks to be performed by the user. Retrospectively, the performative texts of Don Norman speaking in praise of the study of “needs,” by the admission of their author, led to a dead end, because the human being cannot be reduced to a specific role 38 This idea was inscribed within the ISO standards, which propose replacing the expression “user-centered   experience” with “human-centred design.” See: ISO 9241-210: 2010. Ergonomics of human-system interaction — Part 210: Human-centred design for interactive systems. Iso.org (March 2010), https://www.iso.org/obp/ui/en/#iso:std:iso:9241:-210:ed-1:v1:en, access: July, 1, 10:00pm.. Such a reversal of thought might be amusing. However, on closer inspection, wouldn’t one also have to interpret these contradictory injunctions as the sign of a power belonging not to the “people,” but to those who make these speeches? In other words, isn’t this an indictment of those who are constantly getting richer (in the banal sense of the term) by controlling the circulation of the design methodologies that are to be gotten rid of by this “crusade”? More than a plea in favor of taking complexity into account in design, this “appeal to the human,” for Don Norman, provides a rationale for gradually eliminating “interfaces” in the name of an “invisible” computing 39 Donald A. Norman, The Invisible Computer. Why Good Products Can Fail, the Personal Computer Is So Complex, and Information Appliances Are the Solution (Cambridge MA, 1998)., the products of which would be “human-centered.”40 Chapter 2 of The Invisible Computer is titled “Growing up: Moving from technology-centered to human-centered products.” This prediction of invisibility, passing under the guise of a change in vocabulary, a priori innocent, was so absorbed so thoroughly by the corporations that in 2012, Apple made it into a selling point: “We believe technology is at its very best when it’s invisible, when you’re conscious only of what you’re doing, not the device you’re doing it with. An iPad is the perfect expression of that idea. It’s just this magical pane of glass. It can become anything you want it to be […] It’s a more personal experience with technology than people have ever had.” 41 Official Apple (New) iPad Trailer. YouTube (March 2012), https://youtu.be/RQieoqCLWDo , access: July, 1, 10:00pm. However, Don Norman’s big picture does not mean that his idea of “invisible” computing is viable. The important term here is “experience,” which goes hand in hand with that of “magic.” What could be more magical, indeed, than experiencing an “invisible” technology? The artist Olia Lialina, in a critical article on the study of the concept of user, does not join in the chorus: “This is why Interface Design starts to rename itself to Experience Design — whose primary goal is to make users forget that computers and interfaces exist. With Experience Design there is only you and your emotions to feel, goals to achieve, tasks to complete. ” 42 Olia Lialina, Turing Complete User (2012), http://contemporary-home-computing.org/turing-complete-user/, access: July, 1, 10:00pm. A world without experience In the conclusion of her article studying the limitations of an exclusion of the term user of the methods of interface design, Olia Lialina proposes to return to foundations predating the Xerox Star, namely those developed by the computer scientist Ted Nelson in his 1974 work Computer Lib/Dream Machine: “COMPUTING HAS ALWAYS BEEN PERSONAL. By this I mean that if you weren’t intensely involved in it, sometimes with every fiber in your mind atwitch, you weren’t doing computers, you were just a user. If you get involved, it involves all of you: your heart and mind and way of doing things and your image of yourself. A whole way of life.” 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now (self-published, revised edition 1987 [1974]), p.  3. The argument is strong. Nelson’s denunciation of a “naïve” use points to the risk of a loss of contact with the computer, which, from Xerox Star to the iPad, presupposes that everything “real” (real life, creativity, etc) is external to the machine. However, in spite of the ascendancy of tactile interfaces (without mouses), in spite of the emergence of gestural interfaces (without buttons) and sound interfaces (without screens), and in spite of the return of command-line interfaces (without icons), it is clear that the great principles of the graphic interfaces created at Xerox PARC at the beginning of the 1970s are still the main ones governing our relations with electronic machines – which are not yet “invisible,” far from it. Take, for example, the “Apple Human Interface Guidelines” 44 See for example: “Designing for Yosemite: […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience.” Human Interface Guidelines, developer.apple.com, https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGuidelines, access: July, 1, 10:00pm.   and Google’s “Material Design,” 45 Google Material Design, material.io (first version published June 2014), https://www.google.com/design/spec/material-design/introduction.html, access: July, 1, 10:00pm. which, in the 2010s, are the recommended readings – with the proviso of reading critically – for anyone interested in interface design. In spite of its widespread acceptance, the cognitive model of an interface coupled with an idealized user (understood as a bundle of habits) has its limitations. Since Jef Raskin’s 1967 text associating “human usability” with efficient task completion 46 See Jef Raskin, A Hardware-Independent Computer Using List-Structured Modeling: The Quick-Draw Graphics System (Pennsylvania, 1967)., the will to create a graphic interface to procure for the “user” a new work environment and new methods “to accomplish the same goals as before” 47 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p.  248. has consisted in envisaging electronic media as “problem solvers” rather than as powers of transformation and invention. However, as the humanities specialist Yves Citton perceptively notes: “The invention of communication technologies […] takes place within a vast nebula of hopes, anxieties, dreams, tinkerings, parallel knowledges, subversive appropriations and reappropriations, crossing many traditional disciplinary fields […]. Indeed, our media cannot be reduced to mere instruments for the transmission of forms and contents: it functions, first and foremost, in just the same way as the mediums who fascinate us, delude us, hypnotize us and stimulate us via simulations that penetrate our senses.” 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques (Paris, 2012), pp.  21–22. Taking into consideration these foundational design texts of the computer age, it is obvious that electronic machines raise questions that did not exist before. But perhaps it is precisely against these innovations that methodologies of design were themselves designed with an eye to preserving the powers and knowledges already in place. In spite of its undeniably advanced technology, the Xerox Star did not have the full support of the corporate leaders, who preferred to focus on the photocopier business, more in phase with the “uses” of the time. In this history of “user-centered design,” an expression originating after the Xerox Star, it is indeed a matter of a concern about forgetting the “useful,” the utility of the object. But is this really possible in a world in which marketing services, for example, constantly seek to anticipate consumers’ “needs  ” by statistical processes linked to observation protocols? Another factor suggesting a design constructing against technological innovations – i.e., for habits – is this history of the “center,” a term which should now be examined. This twofold suffix coupled with design could have been the subject of variations. Why does one never speak, for example, of “form-centered” design, for example, or of “practice-centered” design? Perhaps is this because these two concepts (there could be others) resist the idea of a “center,” of delimitation. If one considers the concept of form, it is notable that this, historically, was related to design – according to the formula of the architect Louis Sullivan, according to which “form ever follows function.” As a canny observer of a history that sometimes “tramples” (in which the issues are sometimes obscured, sometimes rediscovered), the philosopher Pierre-Damien Huyghe notes that the concept of form expresses the “artistic interest” of design: “It was not only a question of creating potentially functional objects. The concern for making form is absolutely essential to the design. We may note here that the Latin forma can be translated as “beauty.””49 Pierre-Damien Huyghe, On appelle beaucoup trop de choses ‘design’. Interview with Julie Delem. Naja21 (April 2015), http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design, access: July, 1, 10:00pm. In a more general way, design, in so far as it encompasses the capacity to transform the world, cannot “center” on anything. Design is only of any interest if it is derived from tensions, polarities, contradictions – in other words, the opposite of a center. Olia Lialina, in the conclusion of her article, also refuses to let herself be reduced to a label: “We, general purpose users — not hackers and not people — who are challenging, consciously or subconsciously, what we can do and what computers can do, are the ultimate participants of man-computer symbiosis.” 50 Olia Lialina, Turing Complete User. One must then reconsider the fact that the conceptual model of the 1981 Xerox Star interface was decided “before” the material (hardware) existed, “two years before we wrote a single line of actual product software.” 51 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p.  246. Retrospectively, this account can be understood as that of a missed encounter with the otherness of the machines, since it is, in effect, a matter of subordinating the digital technology (hardware and software) to a “model,” i.e., to something anticipated and stabilized. This progressive distancing of the concept of the “General Purpose User” 52 Olia Lialina, Turing Complete User.op.  cit (active and polyvalent) has made possible the expressions “human-centered design” and “experience design”, which incarnate the promise of a world in which one could “do whatever one wishes,” immediately, as if by “magic.” But which kind of “doing” are we talking about when invisibility becomes the ideal for the machines? This myth of the invisibility of technological innovations in fact already existed in a nascent form at the dawn of personal computing. In a 1979 commercial for the Xerox Alto intended to demonstrate the power of the “office of the future,” an office worker (Bill) arrives at work and greets his colleagues, coffee in hand. When he arrives at his station, he turns on his Alto computer and addresses it verbally: “Hello, Fred.” The computer answers him: “Hello, Bill.” After a series of tasks, easily solved by the machine, comes the final dialogue: Bill (tired): “Anything else?” Fred: A richly detailed bouquet of daisies spreads across the screen. Bill (puzzled): “Flowers? What flowers?” Fred: “Your anniversary is tonight.” Bill (chagrined): “My anniversary. I forgot.” Fred: “It’s okay. We’re only human.” 53 Douglas K. Smith and Robert C. Alexander, Fumbling the Future, (Indiana, 1999), p.  20. What such initiatives describe, paradoxically, is a world without experience [un monde sans expérience] 54 The French word expérience can mean “experience” or “experiment.” (Translator’s note.), in the sense in which experience/experimentation can take place only within a field of possibilities open to uncertainty: Economic power is what the socialization of experiences implements. However, if this implementation augments shared experience and perception day by day, it does not appear authentically. Most often, it borrows the forms of habit, it slips mimetically into experience. 55 Pierre-Damien Huyghe, Faire place, in: Qu’est-ce que l’art domestique ?, ed. Richard Conte and Sandrine Morsillo (Paris, 2006), p.  29. Symptomatic of an era when “apparatuses” 56 The apparatus is defined by Pierre-Damien Huyghe as “a technological method distinct from the tool and the machine [which produces] within us a power of perception, a particular form of sensibility.” See: Pierre-Damien Huyghe, Introduction au dossier “Temps et appareils”. Plastik 3 (2003), p.  4. are no longer objects worthy of interest, human-machine relations are increasingly marked (branded) by the registers of utility, output, or time-saving. The human experience of “experience design” is often reduced to an experimental situation, that of a rat seeking the way out of a labyrinth. Even if it is “friendly” or “invisible,” this technological medium is no less a straightjacket, a controlled situation in which any exchange is anticipated and preprogrammed. When we are mirrored in the form of the “human, all too human” computer, we “ordinary people” are the ones who stand to lose sight of our complex and infinite possibilities.

Design des angles morts (promesses, limites, bifurcations)

Date

January 2023

Type

Publication

Contexte

Chapitre publié dans l’ouvrage collectif Angles morts du numérique ubiquitaire. Un glossaire critique et amoureux, Presses universitaires de Paris Nanterre, 2023.

Résumé

Parmi les ritournelles managériales qui rythment les sociétés occidentales, celle de la « transformation numérique » implique une vision linéaire et homogène (au singulier) de l’histoire des techniques : il existerait ainsi un mouvement inéluctable, ou du moins souhaitable, consistant à numériser – c’est-à-dire à quantifier, calculer, mesurer – l’ensemble des activités humaines. Issue du champ économique, la « transformation numérique » est définie par le consultant Fred Cavazza comme désignant « l’évolution du marché et des organisations qui cherchent à adapter leur offre, fonctionnement et pratiques aux enjeux du XXIe siècle » (2021). Toujours selon lui, « adapter les pratiques [signifie] mieux tirer parti des données (gouvernance, littératie, conformité, etc.), de l’IA (machine learning, deep learning, etc.) ou de l’automatisation (chatbots, assistants vocaux, RPA, etc.) ». Les « enjeux du XXIe siècle », quant à eux, sont « liés à un quotidien sans contact, à une croissance économique nulle (ou du moins très faible en Europe), aux nombreuses crises et tensions (Gilets jaunes, Cancel Culture [sic.], etc.) » (Cavazza, 2021). Ces discours font apparaître en creux des tensions au sein de « la » transformation numérique. L’adhésion aveugle aux « innovations », qui se succèdent à un rythme de plus en plus rapide, se heurte à des mutations politiques et sociales qui déstabilisent leurs promesses de linéarité, d’efficacité et de rentabilité. Les technologies numériques, en tant qu’innovations, naissent en quelque sorte « hors-sol », sous un mode détaché des contingences et singularités humaines. Autrement dit, les discours économiques ne peuvent pas être transposés sans contradictions dans le champ social – ne serait-ce que pour savoir comment conjuguer transformation numérique et transition écologique. Plus encore, à rebours de l’idée éculée (et pourtant toujours présente) d’un progrès technique pour le plus grand nombre, la diversité des pratiques et l’analyse des discours font surgir des valeurs « embarquées » (embedded) au sein des programmes qui mettent en doute cette visée positiviste. Ce décalage entre usages (prescrits) et pratiques (libres) (De Certeau, 1990) est au cœur du design, que nous comprenons ici non pas comme une volonté d’adéquation entre les innovations et le marché, mais comme un « cheminement dans les qualités formelles, structurelles et fonctionnelles de nos environnements » (Masure, 2017). À l’époque des IA, l’idée d’une désautomatisation des modes de vie induits par l’industrie des programmes se repose de façon aiguë. Quels sont les angles morts du numérique que le design permet d’éclairer ? À quels problèmes les technologies numériques sont-elles aveugles ? En quoi les choix – ou non-choix (biais) – de conception déterminent-ils une voie dont il est difficile de bifurquer ? L’émergence du design comme résistance à l’économie Pour étudier les angles morts du numérique, il faut tout d’abord préciser quel rôle le design peut jouer pour interroger ce qui semble aller de soi dans les environnements techniques. Nous proposons ici d’entendre sous le nom de design non pas, comme dans l’acception courante, un champ de conception et de production d’objets et de services, mais une mise en tension, voire une suspension, des attendus économiques de nos environnements techniques. Pour étudier ces questions, nous allons tout d’abord recourir à la figure de Karl Marx qui nommait « la grande industrie » : « Dans le système de machines, la grande industrie crée un organisme de production complètement objectif ou impersonnel, que l’ouvrier trouve là, dans l’atelier, comme la condition matérielle toute prête de son travail. [Marx, 1963, p.  930-931] » Si le design apparaît de façon conjointe aux différentes révolutions industrielles qui traversent l’Europe à la fin du XIXe siècle, il sera installé dans la modernité en faisant brèche avec l’artisanat, et plus précisément avec son imitation mécanisée et asservissante. Un des moments clés pour mettre en évidence cette visée est celui des Expositions universelles, dont les prouesses techniques sont des vitrines politiques pour les gouvernements. Lors de la première Great Exhibition of the Works of Industry of All Nations à Londres en 1851, l’ingénieur Michel Chevalier note ainsi, lyrique, que « le grand principe de la division du travail, […] la force motrice de la civilisation, s’étend à toutes les branches de la science, de l’industrie et de l’art. […] Les distances qui séparent les peuples et les contrées de la Terre s’évanouissent chaque jour devant la puissance de l’esprit d’invention » (1851, p.  36). À cette occasion, un des bâtiments principaux, le Crystal Palace de l’architecte Joseph Paxton, est construit en seulement six mois grâce à l’emploi novateur d’unités modulaires standardisées, préfabriquées en usine et montées sur place. L’édifice est gigantesque : 563 m de long sur 268 m de large, pour une surface de 92 000 m². Il marque durablement les esprits et préfigure la production d’architecture de métal et de verre et la préfabrication du XXe siècle. « Association des arts, des sciences et de l’industrie », le Crystal Palace contraste pourtant avec les objets qui y sont exposés : les chaises, cruches et autres tapis restent engoncés dans le vieux siècle, comme le fait remarquer l’historienne du design Alexandra Midal : « [Les organisateurs des expositions universelles espéraient] que la machine permettrait d’alléger le travail, de multiplier les richesses et d’améliorer la vie de tous, d’apporter la paix et la fraternité entre les nations. [Mais] en plus de substituer au style et à l’ornementation artisanale celui de la machine […], les produits standardisés européens favorisent surtout le passé, l’ostentatoire, le goût bourgeois et l’imitation, telle cette cruche à eau ornementée dont l’anse associe une colonnade et des animaux… [2009, p.  37] » Plusieurs intellectuels britanniques, dont Henry Cole, à l’initiative d’une des premières occurrences du mot design (via son Journal of Design and Manufacture, 1849-1852), soutiennent, sans vouloir revenir à l’artisanat, que « le degré d’industrialisation n’est pas plus une condition de culture que de savoir-vivre » (Midal, 2009, p.  38). Le design naît d’un écart avec les conséquences d’une mécanisation aveugle : il est donc erroné de le comprendre comme un simple accroissement des forces productives. Face à l’inertie mentale : le design pour la vie Près d’un siècle plus tard, l’artiste et photographe László Moholy-Nagy explicite la compréhension d’un travail singulier avec les machines qui diffère de leur usage économique massifié. Moholy-Nagy prend ainsi l’exemple des assiettes faites au tour (dont la forme est peu adaptée aux lave-vaisselle) ou des poignées en plastique (qui reprennent, de façon mimétique, celles en fonte) : « Beaucoup d’objets anciens sont l’expression directe de leur méthode artisanale de fabrication. Ils sont souvent copiés par les designers industriels, sans aucune raison valable. Il est vrai que plus un artisanat est ancien, plus la forme qu’il produit est difficile à modifier. […] L’expérience montre, cependant, qu’il est assez difficile de se dégager d’habitudes de pensée bien ancrées. [1947, p.  283] » À cette tendance à l’imitation qu’il qualifie d’« inertie mentale », Moholy-Nagy oppose une puissance d’invention qui manifeste des ruptures claires avec la tradition, tout en notant qu’il « ne faut jamais perdre de vue que l’élément humain […] doit rester le critère essentiel d’évaluation du progrès technologique » (1947, p.  283). Rédigés au tournant de la Seconde Guerre mondiale, ces propos font écho à l’époque contemporaine où les machines, cette fois numériques, placent les humains dans un paysage homogène où la place dédiée à la diversité et l’invention se réduit : « La période où les machines-outils n’étaient que le simple prolongement d’outils manuels est révolue. À la machine faite pour multiplier la force musculaire va s’ajouter une technologie électronique conçue pour se substituer aux sens de l’homme. [1947, p.  285] » La question se pose alors de savoir comment cette substitution s’articule à une redéfinition de l’humain, et comment les technologies peuvent être pluralisées, désorientées, réorientées dans d’autres directions que celles régies par « l’inertie morale ». S’appuyant sur Walter Benjamin et László Moholy-Nagy, le philosophe Pierre-Damien Huyghe défend que l’art et le design peuvent être compris comme des « puissances de découverte des poussées techniques » (2014) : le développement économique d’une technique ne suffit pas, loin s’en faut, à en épuiser les possibilités. À ces enjeux esthétiques s’ajoute un souci d’intelligibilité. Plus une technique est puissante et dominante, plus il est difficile de développer d’autres façons de faire, et plus cette technique génère de l’incompréhension et de l’opacité. Le scientifique Karl Sagan note ainsi que « nous avons arrangé une société basée sur la science et la technologie dans laquelle personne ne comprend rien à la science et à la technologie. Ce mélange combustible d’ignorance et de pouvoir, tôt ou tard, va nous exploser au visage » (1996). Pour combattre ces emprises, il est nécessaire de mettre en évidence ce à quoi les technologies sont aveugles, et en premier lieu les cécités qu’elles induisent en nous et contre nous. Laissées en attente voire délaissées, les « nouvelles » (et désormais déjà vieilles) techniques, celles de la computation, ont besoin d’être activées par ce que nous pourrions appeler un design non pas pour l’économie (qui s’économise, qui se retient), mais « pour la vie » (Moholy-Nagy, 1947). Les technologies numériques comme fabrique d’angles morts Tandis que la computation étend son influence à la plupart des activités humaines, la question est de savoir à quels problèmes le numérique est aveugle ou, plus précisément, d’identifier quels sont les angles morts et les limites de la programmation. Le sens de l’expression « angle mort », dans l’Encyclopédie de Diderot et D’Alembert (1778) est celui d’un « angle rentrant, qui n’est point flanqué ou défendu ». Par extension, l’angle mort renvoie à une « zone inaccessible au champ de vision » (Wikipedia). En conduite automobile, c’est une « zone non couverte par le rétroviseur central et les rétroviseurs latéraux, qui nécessite un contrôle par vision directe (tourner la tête une fraction de seconde) » ou, dans le champ urbain, une « zone non couverte par les caméras de surveillance ». Au sens figuré, on dit d’un angle mort qu’il est une « partie d’une question, d’un problème, pour laquelle l’esprit semble aveugle ». Un « design pour la vie » serait ainsi une expérience de la bifurcation, de l’exploration, et non pas de la réduction ou de la modélisation aveugle. Pierre-Damien Huyghe formule en ce sens une compréhension du design éloignée de sa réduction à des enjeux de rentabilité : « Je ne proposerai pas d’appeler design ce qui organise d’avance des usages ni ce qui induit des consommations ni ce qui assigne des comportements au règne de la marchandise, mais plutôt certaines recherches et attitudes qui permettent à un système de production d’hésiter. [2006] » Les questions du design pour la vie nous demandent en quoi les choix (ou non-choix) de conception des environnements numériques déterminent une zone dans laquelle il est difficile de bifurquer : comment ce qui compte vraiment pour nous en tant qu’humain·es, c’est-à-dire ce qui peine à être mesuré, est-il laissé dans l’ombre ? Quels sont les angles morts du numérique que le design permet d’éclairer ? En quoi ces angles sont-ils « morts », et comment leur donner vie ? Une méthode d’analyse Pour traiter ces questions et entrer dans des approches plus concrètes, nous proposons une méthode d’analyse des angles morts du numérique structurée autour de trois notions complémentaires : promesses, limites et bifurcations. Celles-ci font écho à un autre texte dans lequel un des auteur·rices de ces lignes analyse une série de logiciels de création (Masure, 2020) pour faire émerger des chemins de traverse au sein de l’appareil industriel : dans la lignée de l’archéologie des médias déconstruisant l’idée d’un progrès technique linéaire, il n’est pas dit que les généalogies des technologies basées sur l’efficience fonctionnelle et la rentabilité marchande soient les seules possibles. La notion de promesse, tout d’abord, renvoie aux discours entourant le développement commercial des programmes numériques. L’idéal du progrès technique a toujours ses zélotes : selon elles et eux, malgré de nombreux accrocs, la technologie serait in fine porteuse de « transformations » sociales et économiques positives. Cette approche performative, voire incantatoire, est qualifiée par le chercheur Evgeny Morozov de « solutionniste » (2013) pour dénoncer l’absurdité des prétentions visant à réduire la politique à une affaire de « logiciel » : des problèmes globaux comme l’écologie, la famine ou la pauvreté ne pourront pas être « réglés » par la technologie. De plus, les promesses énoncées par les grands groupes technologiques sont souvent utilisées comme paravent pour masquer des entorses au droit du travail, voire à la dignité humaine. Par exemple, l’annonce en 2016 par Amazon d’une division de livraison par drones entraîna de multiples réactions médiatiques et politiques (législatives) et fut rapidement suivie d’un discret désengagement commercial en interne. Pendant ce temps, cette initiative occupait le terrain médiatique et faisait écran à la triste réalité de l’entreprise. Dans un thread Twitter, le journaliste Cory Doctorow explicite cette stratégie : « Les entreprises technologiques promettent de réaliser des choses impossibles afin de cultiver une sorte d’aura mystique invoquée pour masquer l’horreur du monde réel. […] C’est le genre de choses que [l’auteur] Riley Quinn appelle le ‹ tintement de clés › – une distraction pour les personnes peu au fait des technologies (et pour les ingénieurs qui ont la tête plongée dans leurs produits) pendant que les crimes quotidiens des entreprises sont commis sous notre nez. [2021] » Le concept de limite, ensuite, confronte les promesses des technologies à l’expérience du terrain. Les technologies numériques promettent beaucoup en raison du caractère invisible du code et de sa plasticité (capacité à être modifié), mais montrent leurs limites quand elles sont confrontées à la complexité du réel (Klein et al., 2013). Fonctionnant habituellement à partir de règles et de conditions, la programmation ne peut que difficilement « comprendre » les ambiguïtés des interactions sociales et la diversité d’un monde multiculturel : genre, origine, classe sociale, etc. Outre le fait que les technologies reproduisent des discriminations déjà présentes dans la société, celles-ci sont amplifiées par le caractère homogène des développeurs informatiques et designers (masculins, aisés financièrement, etc.) et par des méthodologies de conception (UX et UI Design) fonctionnant à partir de scénarios d’usage et de personas (Masure, 2017, p.  73) – soit une schématisation de l’expérience humaine réduite à une suite de comportements, voire de stéréotypes. Sur un autre plan, il est instructif de comparer les emplois (prescrits) aux usages et pratiques (ouverts, libres, transmissibles). Dans un vocabulaire se rapprochant de celui de Michel de Certeau (1990), le philosophe Bernard Stiegler explicite cette distinction : « On ne va plus parler de pratiques des objets, c’est-à-dire de savoir-faire instrumentaux, mais d’usages des objets et d’utilisateurs ou d’usagers, en particulier pour les appareils et pour les services. Or, un objet que l’on pratique ouvre un champ de savoir-faire par lequel le praticien est lui-même transformé : ses savoir-faire, eux-mêmes ouverts de manière indéterminée et singulière, explorent des possibles. [2004] » La question se pose dès lors de savoir comment éclairer ce qui fait limite pour prendre conscience que toute promesse génère des angles morts. Le terme de bifurcation, enfin, renvoie à une compréhension non instrumentale des techniques. Une technique, comprise non pas en tant que moyen mais en tant que culture, peut être réorientée dans des directions plus soutenables que celles visant un rendement productif. Issue du domaine de la biologie, l’expression de bifurcation renvoie à « la fourche produite par le développement d’une partie sur une autre, soit semblable, soit différente. Ainsi, le bourgeon forme une bifurcation avec le rameau qui le porte, celui-ci en forme une avec la branche qui lui a donné naissance » (Dictionnaire TFLI). Dans le champ du logiciel libre, un fork (embranchement) désigne un nouveau programme créé à partir du code source d’un programme existant. La pratique du fork permet d’ajouter des fonctions non prévues initialement, de placer le code dans un nouveau contexte, etc. – autant d’adaptations à ce qui n’était pas écrit d’avance (pro-grammé). Dans un sens plus fondamental, la bifurcation peut être comprise comme une expérience existentielle, au sens où une vie ne devient une existence qu’à condition de pouvoir échapper à des conditions données (Huyghe, 2006). Dans un numéro spécial de la revue Multitudes intitulé Abécédaire des bifurcations et rédigé dans le contexte de la pandémie de la Covid-19, les auteur·rices se demandent quels sont « les bifurcations, les effets de cliquet, les points de non-retour qui empêcheront demain de renaître comme hier » et où se « situe le lieu d’où peut s’élaborer l’alchimie de la transformation » (Cora Novirus, 2020). D’une façon approchante, dans un essai rédigé en réaction à la multiplication des crises engendrées par un « modèle de développement » à bout de souffle et pourtant largement dominant, Bernard Stiegler (2020) s’interroge pour savoir comment « bifurquer » afin de tordre l’expression thatchérienne selon laquelle « il n’y a pas d’alternative » à l’économie capitaliste. Ces considérations permettent d’expliciter l’écart entre technique et économie : l’absence d’alternative (TINA) n’est valable que pour qui ne croit pas à l’esthétique et pour qui ne fait que l’usage du monde dominant. Or, selon Pierre-Damien Huyghe, nombre d’exemples et contre-exemples dans le champ du design prouvent qu’il peut en aller autrement : « La réduction des possibles dans une époque donnée et l’uniformisation résultante des effets n’appartiennent […] pas par principe à la technique, mais à son économie. […] Elle ne va pas sans réserve. C’est justement la quête de cette sorte de réserve, et à son expression formelle, que le design historique s’est voué, quitte à mettre pour cela au monde des produits d’exception déliés des pratiques de masse a contrario recherchées par le mode économique d’exploitation et de domination de la puissance productive. [2013, p.  149-176] » À titre d’exemples, nous allons à présent examiner deux paradoxes mettant en jeu des limites de la programmation. Pour chacun d’entre eux, nous nous attacherons à situer la place qu’occupe le design vis-à-vis des technologies concernées : vient-il déjouer leurs angles morts ou contribuer à les renforcer ? En quoi des bifurcations potentielles ou avérées sont-elles souhaitables (et pour qui ?) afin de ne pas retomber dans d’autres impasses ? Paradoxe 1. Les templates promettent de la distinction mais ne produisent que du consensus visuel Promesse Un template (gabarit) est un modèle de mise en page de contenus visuels. Influencé par les designers László Moholy-Nagy et Jan Tschichold, Josef Müller-Brockmann comprend la grille comme une méthode universelle de structuration de l’information : « Dans mes créations […], la subjectivité est supprimée au profit d’une grille géométrique qui détermine l’arrangement des mots et des images. La grille est un système d’organisation qui rend le message plus facile à lire, cela vous permet d’obtenir un résultat efficace à un coût minimum. Avec une organisation arbitraire, le problème est résolu plus facilement, plus vite et mieux. Cela permet également une uniformité qui va au-delà des frontières nationales. [2017] » Les templates reprennent la logique de la grille, mais à une échelle bien plus vaste : celle des logiciels, du Web, et des applications. Ils peuvent à la fois être mobilisés pour définir l’ergonomie d’une interface en recourant à des codes visuels éprouvés (placement du logo, des menus, etc.), et/ou être inclus dans des logiciels comme base de travail (par exemple : gabarits PowerPoint, Word, Photoshop). Grâce aux templates, n’importe qui (grand public, commanditaire, etc.) peut créer à son image, maîtriser le rendu visuel de ses contenus et opérer des mises à jour sans intermédiaire (Mineur, 2007). Limite Avec les templates, remarque le designer Étienne Mineur, « les graphistes doivent […] abandonner une partie de leur pouvoir et responsabilité au règne du graphisme papier » (2007) consistant à maîtriser le processus et la forme de A à Z. Selon lui, deux attitudes sont possibles : refuser de laisser le contrôle formel aux technologies et rester sur les supports imprimés, ou se rapprocher du design industriel pour embrasser la création d’outils et l’ergonomie. Près de quinze ans après ces propos, force est de constater que les programmes sont de moins en moins des outils – de « simples prolongements d’outils manuels » (Moholy-Nagy, 1947, p.  285) –, et de plus en plus des dispositifs techniques complexes qui ne laissent que peu de prises aux designers. L’autonomisation des commanditaires par les templates s’est accélérée, et les compétences nécessaires à leur conception échappent pour une grande part aux designers, car la barrière technique et économique est de plus en plus haute. La concentration de la valeur au sein d’un petit nombre d’acteurs, les Gafam et leurs avatars asiatiques, opère un renversement du processus créatif avec lequel le code n’est plus une matière à modeler mais une loi à laquelle se conformer. Le design d’interfaces (UX/UI) ne consiste bien souvent qu’à appliquer des procédures visuelles (Teslert & Espinosa, 1997) : des design systems, comme le Material Design (Google, 2014) ou les Human Interface Guidelines (Apple), régissent les interfaces des applications mobiles, car le non-respect de ces consignes menace leur validation dans les app stores (magasins d’applications distribuées par Apple). Plus largement, la multiplication des systèmes de gestion de contenus (CMS), des terminaux, des formats d’écran et des territoires géographiques (Asie, Amérique du Sud, Afrique, etc.) incite les industriels à penser avant tout en termes de distribution et de standardisation. La promesse de singularité des « expériences » bute sur une homogénéisation du réel et engendre une « globalisation esthétique » (Masure, 2020) : une même interface peut être indifféremment utilisée pour une campagne médicale, un site de voyage, un musée. Plus inquiétant encore, malgré la pauvreté esthétique des templates, ces derniers, de par leur efficacité, tendent à surpasser beaucoup de designers. Dès les premières années du développement de la « publication assistée par ordinateur » (PAO), l’artiste et designer John Maeda entrevoyait les conséquences professionnelles des logiciels dits de création : « Il est difficile de distinguer le designer assisté par ordinateur de l’ordinateur assisté par un designer. […] Les designers ne définissent plus la culture ; ils doivent se conformer à une culture définie par les évangélistes des technologies. Dans son essai Digital Design Media [1991], le professeur d’architecture William Mitchell formule la conclusion logique de cette situation difficile : ‹ Nous sommes très proches du point où le designer moyen n’a plus rien à vendre qui vaille la peine d’être acheté. › [1995] » Quelle est, dès lors, la valeur de ce dernier ? Bifurcation Étienne Mineur soutient que les designers peuvent repenser leurs pratiques au profit de compétences plus stratégiques. Une autre voie est possible pour que l’attention humaine puisse s’attacher à du non-prescrit : il s’agit ici d’avérer les effets de standardisation des environnements et modes de vie pour éclairer ce qui n’entre pas dans ce cadre (les angles morts). Plusieurs initiatives ont mis en évidence les grilles tapies derrière les programmes, tels que les projets Safebook (Grosser, 2018), clickHere (Retzepi, 2020), ou les modules « par défaut » des systèmes d’information, avec des initiatives comme Reproduction générale (Jacquet, 2003) ou My%Desktop (Heemskerk & Paesmans/JODI, 2002). Un axe complémentaire consiste à révéler les valeurs embarquées dans les interfaces. Matthew Fuller, chercheur en Cultural Studies, propose ainsi de comprendre les templates sous l’angle de la notion de franchise : « Les modèles [templates] et exemples que l’utilisateur peut éditer pour créer ses propres documents – tels que ‹ fax élégant ›, ‹ fax contemporain ›, ‹ lettre formelle › ou ‹ mémo › – attestent que la falsification est la forme de base du document produit dans les bureaux contemporains. [2000] » À l’époque contemporaine, marquée par les problématiques de circulation et la collecte des données personnelles, les templates prennent un nouveau relief. Sous couvert de neutralité, ces derniers annihilent le sens critique et font passer à couvert des procédures suspectes. La designeuse Kelli Retzepi, dans TheRealFacebook (Retzepi, 2018), propose ainsi un redesign de Facebook en gardant la même interface mais en changeant tous les textes (titres, libellés, etc.) pour les rendre conformes aux « vrais » objectifs de Facebook. « Connect with friends and the world around you on Facebook », par exemple, devient « This whole thing started as a website that rated who is a hotter Harvard undergrad », et « Sign up.  It’s free and always will be » est remplacé par « Give us your data. We are definitely using it to profit »1 « Entrez en connexion avec des amis et avec le monde autour de vous grâce à Facebook » devient « Tout ce truc a commencé comme un site web classant qui étaient les étudiant·es les plus sexy de Harvard ». Ou « Inscrivez-vous. C’est gratuit et ça le sera toujours » est remplacé par « Donnez-nous vos data. Nous comptons bien les mettre à profit ».. Paradoxe 2. La création par le truchement des IA participe souvent d’une logique réactionnaire Promesse Formulée à la fin de la Seconde Guerre mondiale, l’idée d’une « intelligence » machinique susceptible de se substituer au cerveau humain (Turing, 1995) a connu de multiples modalités techniques, que l’on peut résumer en deux courants : les technologies « symboliques » se fondent sur la délimitation de règles préalables, tandis que celles « connexionnistes » (neuronales) impliquent des jeux de données (datasets) en entrée et sortie pour que la machine puisse générer un programme permettant d’aboutir au résultat souhaité. Au tournant des années 2010, l’approche neuronale, et plus précisément celle du deep learning, prouve sa supériorité fonctionnelle pour la reconnaissance d’images et pour le tri d’informations (spams, etc.). Les technologies du deep learning investissent depuis quelques années les industries créatives : l’entreprise Zalando travaille avec Google depuis 2016 pour prédire les tendances de la mode grâce au machine learning, et des services comme TheGrid.io (2016), WixAI (2016) ou Adobe Sensei (2016) visent à faciliter voire à automatiser la mise en page de sites web et la retouche d’images. Grâce au deep learning, la tension entre la conception (l’idéation) et la production n’a plus lieu d’être : des programmes « intelligents » prennent en charge la commande sans aléas humains pour produire la « solution » optimale. Limite Les technologies du deep learning prétendent annuler la zone d’incertitude entre conception et production en synthétisant des jeux de données (projets de design, œuvres d’art, etc.) majoritairement agrégées sur le Web. On touche ici à la distinction entre « création » (vision romantique d’une mise au monde ex nihilo, dégagée des contingences matérielles) et « production » (attention portée aux modalités techniques et rapports sociaux) : « Au moment où l’Ancien régime se défait, où se déploie la révolution industrielle, les artistes revendiquent […] le terme de ‹ création › – une notion […] issue du dogme biblique de la genèse – pour signifier leur souveraine sensibilité, leur libre vouloir et établir l’art comme champ autonome parmi les activités humaines. [Menghini, 2021] » À cette tradition s’oppose la pensée « matérialiste » développée par des philosophes comme Karl Marx ou Walter Benjamin, pour qui il est crucial d’examiner les médiations permettant à l’art (et par extension au design) d’exister pour mieux saisir son potentiel émancipatoire. Dans son essai L’artiste comme producteur, Walter Benjamin cherche à savoir non pas seulement « quelle est la position d’une œuvre littéraire à l’égard des rapports de production de l’époque [mais, avant tout,] quelle est sa place dans ces mêmes rapports ». Il s’agit pour lui d’« indiquer la différence essentielle qui existe entre le simple approvisionnement d’un appareil de production et sa transformation » (1969, p.  110, 117). De tels propos sont précieux pour mettre en exergue les limites des technologies du deep learning, dont la séduction tient à leur caractère magique (algorithmique) et tout puissant : structurellement basées sur des jeux de données (du passé), ces « intelligences » ne peuvent qu’approvisionner l’appareil de production sans jamais pouvoir le transformer. Autrement dit, et pour rester dans le vocabulaire de Benjamin, elles sont « réactionnaires » et non pas « révolutionnaires ». Il est par exemple aisé de comprendre que si une IA peut reproduire (créer) un tableau à la façon de Rembrandt (Microsoft, The Next Rembrandt, 2018) – sans efforts apparents, et sans que la technique ne soit vraiment une question –, elle aura beaucoup plus de difficultés à inventer non pas seulement un paradigme pictorial aussi fort que Rembrandt, mais aussi de nouvelles formes d’expression dépassant les catégories habituelles (peinture à l’huile, musique électronique, interface de site web de e-commerce, etc.). Bifurcation Walter Benjamin nous donne des pistes de travail pour que les technologies du deep learning puissent produire, et pas seulement reproduire. « La notion de technique représente l’élément dialectique initial à partir duquel l’opposition stérile de la forme et du fond peut être surmontée » (1969, p.  110). Un des problèmes majeurs de l’implémentation des IA au sein des services mentionnés plus haut (Adobe Sensei, etc.) est que la technique disparaît derrière les interfaces annoncées comme « conviviales ». Pour bifurquer de ces logiques, il faut en premier lieu réinvestir la technique – ce qui ne va pas de soi dans le cas du deep learning, qui nécessite de constituer des jeux de données puis de les traiter avec une puissance de calcul importante et avec des programmes à l’élaboration complexe. On pourrait tout d’abord surmonter ces écueils en disséquant les couches techniques logicielles et matérielles des IA, comme l’ont fait les chercheur·es Kate Crawford et Vladan Joler (2018) à propos de l’enceinte connectée Amazon Echo – travail qui mériterait d’être prolongé en analysant les strates pouvant être réinvesties. Une autre approche consiste à ne plus envisager les IA comme des machines de création (détachées symboliquement des contingences matérielles) mais comme des étapes de production. On pourrait par exemple utiliser le deep learning pour analyser des amorces d’idées et les comparer à l’existant, dans une stratégie d’aide à la décision et non pas d’imitation. Il faut aussi garder en tête que le deep learning n’est qu’une facette du champ bien plus vaste des IA, et que plusieurs époques techniques peuvent cohabiter au sein d’un même projet. Un workshop à la HEAD (Haute école d’art et de design de Genève), coordonné par Alexia Mathieu, Jürg Lehni et Douglas Edric Stanley (Thinking Machines, 2020), a ainsi mélangé des procédures neuronales à des règles préétablies pour élaborer un générateur de contes illustrés et imprimés. L’artiste Nicolas Maigret propose pour sa part un Predictive Art Bot décrit comme « un algorithme qui utilise les discours actuellement tenus sur l’art comme une base de données générant automatiquement des concepts de projets artistiques et, parfois, des prédictions d’absurdes trajectoires futures pour l’art » (2017). De tels processus laissent entrevoir ce que pourrait être le studio de design du futur : moins un lieu où élaborer des « solutions » et des formes closes qu’un laboratoire où mélanger et faire bifurquer des techniques et des projets. Conclusion. Pour une bifurcation des techniques De l’examen de ces deux paradoxes, nous pouvons à présent esquisser des éléments de réponse à la problématique posée en introduction, à savoir quels sont les angles morts du numérique que le design permet d’éclairer, pour poser que ces derniers sont à chercher dans une compréhension de la technique comme moyen, dans un souci d’efficience et de scalabilité (d’extension à la plus grande échelle possible). Comme nous l’avons vu avec l’exemple des expositions universelles, une lecture des textes et querelles liées à l’émergence du design situe son intérêt non pas comme un gain de productivité, mais comme une bifurcation face à la perte de qualité entraînée par l’automatisation du dispositif industriel. Ce détour par le design permet de mieux comprendre l’articulation des technologies à une quête de rendement productif, puisqu’une bonne partie des productions industrielles (objets, industries des programmes, etc.) participe de cette logique. À ce design des angles morts, nous opposons un design « pour la vie », qui travaille pour nous en tant qu’êtres humain·es, c’est-à-dire en tant qu’entités non déterminées d’avance. Autrement dit, un « design pour la vie » serait ce qui éclaire les angles morts de l’industrie pour chercher ce qui nécessite d’être investi et réorienté. De façon approchante à Walter Benjamin qui invite à penser l’esthétique comme une façon d’articuler technique et politique, le designer Ezio Manzini, dans un essai sur « l’écologie de l’artificiel », ouvre une réflexion sur la « qualité » (et non pas la quantité) des environnements : « Il s’agit de penser la technique comme un système devant lequel il ne faut jamais baisser pavillon et savoir rester critique, mais aussi comme une gigantesque mine de ressources et de potentialités. C’est là qu’il faut puiser pour imaginer de nouvelles qualités. [1991, p.  53] » Finalement, c’est bien en déniant au design sa part esthétique que l’économie des techniques engendre son lot de limites. En réinvestissant la technique comme un questionnement, les limites de la programmation deviennent autant d’occasions de bifurcations.

Documenting the research

Date

September 2017

Type

Blog

Contexte

Résumé

When I applied to the Cnap research grant (making of here), beyond the production of scientific contents, I wanted to experiments new ways of doing research. It was the first time I planned to visit some archive centers. During my Ph. D, I made some historical inputs, ex. about the history of the design of Apple/Braun devices – but I hadn’t visited an archive at the time, as my corpus was mostly composed of books and projects/objects analysis. So I wondered if it was possible to document not only the productions but the research process itself? I already had some ideas for documentation material: audio/video, interviews, photographs, sketches, and of course blogging. My friend Thibéry Maillard (@EnTroisPoints) has been practicing “live sketching” in recent years (his website is on the way). We have had many discussions about the design of graphical tools that allow people outside an event to relive it as a kind of “living knowledge”. So I asked him if he could do a kind of “live record” of my research tour, in order to record more than audio and pictures elements. I am convinced that in the world of research it would be worthwhile to open up to more varied forms of publications. Perhaps this is one of the goals of design research? — You’ll find below some Thibéry’s works:

Mise à jour technique du site avec Claude Cowork

Date

March 2026

Type

Blog

Contexte

Anthony Masure, « Mise à jour technique du site avec Claude Cowork », blog AnthonyMasure.com, 23 mars 2026

Résumé

Mon premier site Web personnel a été lancé en 2012 sous WordPress, et a migré sous Kirby en 2015 avant d’être entièrement refait en 2016 puis légèrement mis à jour en 2021. En mars 2026, porté par le développement des intelligences artificielles grand public, une refonte technique complète a été menée grâce à l’IA Claude Cowork : migration de Kirby 3.4.4 (2020) vers Kirby 5.3.2 (2026), correctifs de sécurité, optimisation des performances et nettoyage du code JS et CSS. Ce billet documente l’usage de Claude et l’ensemble des changements effectués.

La saisie comme interface

Date

April 2016

Type

Conférence

Contexte

Communication dans le cadre du colloque scientifique « Collecta : des pratiques antiquaires aux humanités numériques », dir. Anne Ritz-Guilbert et Sophie Fétro, École du Louvre / université Paris 1 Panthéon-Sorbonne

Résumé

Le design au risque de l’archive

Date

June 2018

Type

Conférence

Contexte

Intervention aux journées d’études « Documenter la production artistique : données, outils, usages », Nice, Villa Arson, 4-6 juin 2018. Version retravaillée et augmentée d’une conférence donnée en avril 2016 au colloque « Collecta : des pratiques antiquaires aux humanités numériques », Paris, École du Louvre.

Résumé

Dans son essai Mal d’archive (1995), le philosophe Jacques Derrida mettait en exergue le paradoxe de toute archive : d’un côté la volonté de mettre des marques à l’abri de l’effacement du temps et de l’oubli, et de l’autre côté le fait que ces éléments, une fois stockés, sont dès lors disponible à la reproduction et menacent donc l’idée de stabilité. Cette notion d’archive « vivante », mobile, nous semble d’autant plus prégnante lorsque se pose la question de l’aspect de sa structure et de son fonds, car tout travail de design graphique engage un déplacement quand à l’original. Face à la permanence et au pouvoir de l’arkhè, le design est donc toujours un risque, un « gage d’avenir » (Derrida) et de nouveaux commencements.

CryptoKit, a semantic map of blockchain technology

Date

May 2023

Type

Conférence

Contexte

Anthony Masure, Océane Juvin, Guillaume Helleu, « CryptoKit, a semantic map of blockchain technology », communication au colloque ATypI, Paris, 13 mai 2023

Résumé

The CryptoKit project provides a visual mapping of blockchain technology and Web3 protocols to make them accessible to a wide audience. It includes an open source typeface of more than 200 pictograms of key blockchain terms. When paired with IBM Plex, these icons can be set up in didactic diagrams on the dedicated website www.cryptokit.ch.

NFTs Beyond the Visible

Date

October 2023

Type

Conférence

Contexte

Communication dans le cadre de la Digital Art Zürich (DAZ), Professional Days.

Résumé

First appearing in 2017, NFTs have become, after Bitcoin (2008), the most famous use of Blockchain technology. While their economic value has fallen sharply, we propose to look at things differently by examining the full potential of Web3 for the art world, which goes far beyond static images. NFTs cannot be reduced to their mere visible aspect: they require a wider examination of their value systems, distribution chains, and methods of governance.

Notions

Médias

Productions de recherche

Date

Type

Contexte

Résumé

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias