Date
June 2016
Type
ConférenceContexte
Conférence donnée avec Saul Pandelakis au colloque scientifique « Archéologie des médias et écologies de l’attention », dir. Yves Citton, Emmanuel Guez, Martial Poirson et Gwenola Wagon, Cerisy-la-Salle. Cette conférence a été redifusée sur les sites Web de France Culture et de La Forge Numérique (MRSH de l’université de Caen – Normandie).
Résumé
Nous souhaitons examiner « le passage d’un modèle économique (de l’investissement) au modèle écologique (de la relation au milieu) ». Les programmes numériques peuvent-ils être ou devenir le lieu d’une écologie attentionnelle contribuant à une « écologie [plus large] de l’environnement artificiel » ? Comment concevoir, par le design, la place de l’attention humaine au sein des machines numériques ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
December 2019
Type
PublicationContexte
Version enriched with a chapter of the essay Design and digital humanities (2017), translation from French by Jesse Cohn], Berlin, Interface Critique, dir. Florian Hadler, Daniel Irrgang, Alice Soiné, no 2, “Navigating the Human”
Résumé
Télécharger l’article en PDF Voir l’article [En ligne « Human, All Too Human is the monument to a crisis. It calls itself a book for free spirits: almost every sentence is the manifestation of a victory – I used it to liberate myself from things that did not belong to my nature. Idealism is one of them: the title says “where you see ideal things, I see – human, oh, only all too human!”… I know people better. The term “free spirit” does not want to be understood in any other way: a spirit that has become free, that has taken hold of itself again. — Friedrich Nietzsche 1 Friedrich Nietzsche, Ecce Homo [1888], in: The Anti-Christ, Ecce Homo, Twilight of the Idols: And Other Writings, ed. Aaron Ridley and Judith Norman (Cambridge, England 2005), pp. 115–116. In this seemingly autobiographical fragment, Nietzsche refers back to his book Human, All Too Human [1876-1878]. In current discussions of “interface design,” catchphrases such as “user-centered design,” “the user experience,” and by extension, “experience design” might not, at first glance, seem to draw scrutiny. After all, isn’t the purpose of design to create ‘useful’ things based on the users’ needs, ‘centered’ on them and on the improvement of their ‘experience’? However, if one looks at these concepts more closely, one might wonder what these methods engage as conceptions of design, and more broadly as an understanding of human relations and human-machine relations. Indeed, it is not unproblematic to presuppose that “we” are users first and foremost, i.e. beings solely concerned with relations of utility. What are we to think, then, of terms such as “user-centered design (UCD) 2 Shawn Lawton Henry, Justin Thorp, Notes on User Centered Design Process (UCD). W3C.org (March 2004), http://www.w3.org/WAI/redesign/ucd, access: July, 1, 10:00pm., ” “human-centered design (HCD) 3 Human-Centered Design Toolkit. Ideo (2009), http://www.ideo.com/work/human-centered-design-toolkit, access: July, 1, 10:00pm.,” “activity-centered design (ACD)4 See Geraldine Gay, Helene Hembrooke, Activity-Centered Design. An Ecological Approach to Designing Smart Tools and Usable Systems (Cambridge, MA 2004).,” or “people-centered design (PCD)5 Hugh Graham, People-Centered Design. hughgrahamcreative.com, http://hughgrahamcreative.com/people-centered-design, access: July, 1, 10:00pm.”? Why must design be “centered” on something? More broadly, aren’t there some aspects of human life that can’t be replaced by the “experiences” generated by “user-centered” design? In order to critique the engineering of design and the reduction of the designer’s task to normative and even quantitative methodologies, I propose, as a research method, to bring together an historical study of the concepts to be questioned with technical analyses and the related discourses surrounding them. More precisely, I could synthesize this text’s research method in the following way 6 Here, I borrow the useful summary provided by Alexandre Saint-Jevin in his review of the essay Design et humanités numérique s: Alexandre Saint-Jevin, Sur la trace de l’humain dans les « objets » de design. Non-Fiction (2018),: 1 . To analyze the concept determining the process by which design issues were constructed in order to draw out the underlying philosophical concepts. 2 . To retrace the genealogy of this concept, connecting the technical reality of the products of design with the discourses of all entities being at the origin of the project (originators, designers, contractors, communicators, marketers, etc.) regarding these products. 3 . To synthesize the history and the discourses of these entities concerning matters of design more broadly in order to draw out the philosophical issues entailed in them. 4 . To connect the philosophical issues revealed by the analysis of the discourses of the entities with those of the original concept to show how these come to condition and determine the technical reality. This is thus not a matter of constructing a model of design activity in the form of logical sequences (diagrams, schemata, timelines, etc): rather than trying to tell designers what they should do, this analysis is intended to provide them with critical tools allowing them to analyze, in their own process, what they have already made or are still working on. In order to open up possibilities for making interfaces other than the behavioral scripts of experiential design, I will begin my analysis by turning back to the history of the first graphic interfaces. How do the values embedded within these technological strata infuse and even limit our relations to technology? Xerox Star’s “conceptual model of the user” The expression “user interface” correlates temporally with the development of microcomputers at the end of the 1960s. In 1968, Douglas Engelbart presented the result of the research undertaken at Xerox PARC at the time of an event retrospectively called the “mother of all demos”, where were first showcased videoconferencing, teleconferencing, email, the hypertext navigation system, and the interface modeled on the “office metaphor” based on “windows,” “folders,” the “trash,” etc. Partially realized in the 1973 Xerox Alto 7 Only 1500 units were produced: 1000 for employees of Xerox and the remainder for universities and public institutions. computer, this first form of graphic user interface (GUI) was included in the 1981 Xerox Star. Moreover, the latter was accompanied by network access, email capabilities, a mouse, and a WYSIWIG (What You See Is What You Get) printing system precise enough to make what is seen on the screen coincide with a paper output. In order to specify the origin of the conceptual model used as a basis for a design explicitly asserting needs of “users,” it is important to reconsider the founding principles of the Xerox Star. In an article dating from 1982, five former employees of Xerox Corporation explain their comprehension of the human-machine relations, and more precisely their methodology of interface design: “We have learned from Star the importance of formulating the fundamental concepts (the user’s conceptual model) before software is written, rather than tacking on a user interface afterward. […] It was designed before the functionality of the system was fully decided. It was even designed before the computer hardware was built. We worked for two years before we wrote a single line of actual product software.” 8 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p. 246. Reprinted online: Contemporary readers, used to design being relegated to the end of a process, dependent on a multitude of external parameters, will certainly wonder at the attribution of such importance to design “before” the material specifications are even formulated. In the case of the Star, it was much more a question of introducing the market to “radically new concepts”9 Ibid.p. 242. than of seeking to apply an “order” issued from above. By dedicating a quantity of memory to the screen display, the originators of the Star were able to create a visual interface functioning in tandem with the mouse (also used on Xerox Alto), defined in the 1982 text as “a way to quickly point to items on the screen 10 Ibid. p. 246.” more effective than the cursors activated by the keyboard. It is particularly interesting to study how the Xerox teams developed a project methodology linked to what is today called “user-centered design.” The development of an interface poses many problems indeed: taking into account the variety of languages in which the users address their commands to the computer, the design of on-screen representations displaying the state of the system to the user, and other abstract problems that can affect the understanding of the system’s behavior. According to the Star teams, these problems are highly subjective, and can be solved only on a case-by-case basis. The method employed thus consisted in focusing on what should precede any design of a successful interface, namely “task analysis”: ” The current task description, with its breakdown of the information objects and methods presently employed, offers a starting point for the definition of a corresponding set of objects and methods to be provided by the computer system [including programs and peripherals]. The idea behind this phase of design is to build up a new task environment for the user, in which he can work to accomplish the same goals as before, surrounded now by a different set of objects, and employing new methods.11 Ibid.p. 248. “ For Xerox, the user is an entity centrally dedicated to carrying out tasks in order to achieve objectives. One finds here the common definition of an algorithm, namely, a set of instructions intended to accomplish a given action. In other words, isn’t this understanding of what a user is derived from the “program” (an algorithm written in machine language) as a model of thought? Isn’t it odd that, in order to improve human-machine relations, human beings are to be imagined on the model of the machines? In this sense, what one would call a “user” in the data-processing context would often be merely a logical reduction of human subjectivity, consequently able to hold a dialogue with “extra-human” programs 12 I borrow this expression from the exhibition Haunted By Algorithms, a research project directed by Jeff Guess and Gwenola Wagon, Paris, ENSAPC / YGREC, January 21, 2017 – March 5, 2017.. Just as some see design as a discipline capable of becoming a science 13 See Anthony Masure, Pour une recherche en design sans modèle, in: Design et humanités numériques, ed. Anthony Masure (Paris 2, here it is a matter of constructing “models of behavior” in order to improve the effectiveness of the “tasks.” The etymology of the French noun “tâche” (“task”) can be traced back to the Latin verb “taxare” (“to tax»), indicating “a determinate work that one is obliged to perform, together with a concept of ‘remuneration’ [or] moral duty 14 Alain Rey (dir.), Dictionnaire historique de la langue française, Paris, Le Robert, 2010. p. 9620–9621.”. The French verb “tâcher” (“to try to do”), in turn, expresses the idea of striving, sometimes accompanied by the idea of a degree of painful exertion in order to comply with the imperative to “try to do” something. If the user is a being whose objectives, to be realized, necessarily pass by a series of tasks to achieve, wouldn’t this make us “tâcherons” (“drudges”), i.e. “person[s] performing work on command [emphasis by the author/s] without much intelligence”? 15 Ibid.p. 248–249. In the case of the Xerox Star, nevertheless, things are more complicated. The fact of starting from a “user-model” comprised of a small set of design principles makes it possible to ensure an overall coherence, since “the user experience [acquired in] in one area… [can] apply in others 16 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface. Byte 4 (1982), p. 242: “The Star user interface adheres rigorously to a small set of design principles. These principles make the system seem familiar and friendly, simplify the human-machine interaction, […] and allow user experience in one area to apply in others.” Emphasis mine.,” thus reducing the cognitive load involved in the use of the computer system. Another aspect discussed in the article – connected with the concept of coherence – pertains to the concept of “familiarity” (the “Familiar User’s Conceptual Model”): “A user’s conceptual model is the set of concepts a person gradually acquires to explain the behavior of a system […] The first task for a system designer is to decide what model is preferable for users […]. This extremely important step is often neglected or done poorly. The [Xerox] Star designers devoted several work-years […] [to] evolving […] an appropriate model for an office information system: the metaphor of a physical office.”17 Ibid.p. 252. The Xerox Star interface was thus constructed on the basis of the users’ current universe, namely, the hierarchical model of the office. It was important to produce a “familiar” interface in order to reduce sources of friction, making the “user experience” seamless. Thus, users find in the machine their customary division, organization, and management of tasks. For example, the pile of paper messages on the physical desk of office-worker users is translated, in their computer, into a pictogram of an envelope indicating when a new email has been received. It is interesting to specify that the metaphorical model defined in advance of the actual development of the program de facto modifies the functions of this program: the design is not approached as a matter of mere presentation. Taking the example of the emails once again, typing a “send mail” command can thus be avoided by manipulating the icons. A last important aspect of the Star interface pertains to the personalization of the interface, as the movable icons make it possible to configure the work environment. Summarizing the overall principles of the Xerox Star, what is indicated here by the term “user” is in fact a succession of goal-directed “tasks” from which the designers construct a “conceptual model” as a basis for the developing of the computer system and ensuring its metaphorical coherence. By providing users with a “familiar” and “friendly” environment, the interface thus developed is intended to increase their productivity by developing “human-machine synergism.” However, the Xerox Star’s “friendly” interface reveals its limitations in certain functions where the office metaphor is inoperative: “One of the raisons d’être for Star is that physical objects do not provide people with enough power to manage the increasing complexity of the “information age.” For example, we can take advantage of the computer’s ability to search rapidly by providing a search function for its electronic file drawers, thus helping to solve the long-standing problem of lost files.” 18 Ibid.p. 282. The 1982 article concludes on an intriguing note, observing that it is difficult to choose between several models of interfaces while relying on stable (scientific) criteria: “User-interface design is still an art, not a science.” 19 Ibid. : « User-interface design is still an art, not a science. » Although the Xerox Star text ultimately pleads for the establishment of a “more rigorous process” for the development of interfaces, such an assertion must elicit the contemporary reader’s curiosity. The emergence of “rationalized” graphic operating systems In spite of the commercial failure of Xerox Star, these design methods will be a success, definitively changing our relations with electronic machines. A precursor of the research conducted to Xerox PARC, Jef Raskin’s thesis in computer science, Quick-Draw Graphic System, published in 1967 (i.e., 6 years before the Xerox Alto 20 At the beginning of the Seventies, the IBM Usability lab was solely concerned with ergonomics. The Psychology of Computer Programming was published by Gerald Marvin Weinberg in 1971, and the work of Stuart K. Card, Allen Newell and Thomas P. Moran was only made known to the general public after the publication of The Psychology of Human-Computer Interaction in 1983.), argued for a data-processing environment in which the graphic interface would hold a dominant place. Such an idea was not at all self-evident at the end of the 1960s: “The most heretical statement I made […] was that my work was based on a “design and implementation philosophy which demanded generality and human usability over execution speed and efficiency.” This at a time when the main aim of computer science courses was to teach you to make programs run fast and use as little memory as possible.” 21 Dr. Bob, Articles from Jef Raskin about the history of the Macintosh. Dr Bob Tech Blog (2013), https://drbobtechblog.com/articles-from-jef-raskin-about-the-history-of-the-macintosh/, access: July, 1, 10:00pm. After contacts with Xerox concerning the development of the mouse, Jef Raskin was hired by Apple in 1978. It is under his impetus and that of Bill Atkinson 22 The title of Jef Raskin’s thesis (A Hardware-Independent Computer Drawing System Using List-Structured Modeling: The Quick-Draw Graphics System, Pennsylvania State University, 1967) was echoed when Bill Atkinson named the Macintosh’s graphics package. that Steve Jobs and Steve Wozniak took note of the research conducted by Xerox PARC on graphic interfaces. Everyone of us knows the rest of the story. In 1979, the CEO of Apple Inc., Steve Jobs, age 24, visited the Xerox facility. In a 1995 documentary, he recalls the shock which this event constituted for him: “They [Xerox] showed me […] three things. […]. One of the things they showed me was object orienting programming […]. The other one they showed me was a networked computer system [of a hundred computers] […]. I didn’t even see that. I was so blinded by the first thing […] which was the graphical user interface. I thought it was the best thing I’d ever seen in my life. Now remember it was very flawed, what we saw was incomplete […] [But, at the time,] within […] ten minutes it was obvious to me that all computers would work like this some day.” 23 Steve Jobs, Triumph of the Nerds: The Rise of Accidental Empires. Documentation. PBS.org (1996), http://www.pbs.org/nerds, access: July, 1, 10:00pm. Following this presentation, obtained in exchange for shares in Apple Inc., Steve Jobs launched the Apple LISA micro-computer, which took the principles of the mouse and the graphic interface from Xerox Star, in 1982. With a price that was too high ($10,000 at the time, or $24,000 today), the LISA was replaced by the much more financially accessible Macintosh, released in 1984. While many still think that Steve Jobs did little more than “steal” the key principles of the Xerox Alto, the history is more complicated than that. The leaders of Xerox had not yet recognized the decisive consequences of what they had discovered, leaving their prospective vision in the hands of the sales and marketing teams, which were focused on photocopiers, the core of the brand, and not on the new market for computers 24 For a detailed history of the Xerox company, see: Douglas K. Smith and Robert C. Alexander, Fumbling the Future: How Xerox Invented, then Ignored, the First Personal Computer (New York 1988).. Bill Atkinson would have to rewrite and improve the quantity of functions in order for the LISA, and then the Macintosh, to take advantage of a “superior” graphic interface (with the addition of scrolling menus, the opening of windows with a double-click, the trash icon, etc). No line of code was “copied and pasted,” strictly speaking 25 Christoph Dernbach, Did Steve Jobs steal everything from Xerox PARC? Mac History (February 2012), http://www.mac-history.net/computer-history/2012-03-22/apple-and-xerox-parc, access: July, 1, 10:00pm.. In order to bolster the supply of software for Apple machines, at the beginning of the 1980s, Steve Jobs invited Microsoft to publish programs for the Macintosh. In spite of Jobs’ request to Bill Gates (then CEO of Microsoft) not to use a mouse-controlled graphic interface before the Macintosh (1984) had been on sale for a year, Microsoft surprised everyone by announcing the operating system Windows 1.0 in 1983 26 Windows 1.0 was not yet a complete operating system, but rather a “graphic shell” that could be used by third-party software. , although it would only make its official debut in 1985. When Jobs, furious, accused Bill Gates of having betrayed him, Gates replied that they had both stolen from their “rich neighbor, Xerox.”27 Andy Hertzfeld, A Rich Neighbor Named Xerox. Folklore.org (November 1983), https://www.folklore.org/StoryView.py?story=A_Rich_Neighbor_Named_Xerox.txt, access: July, 1, 10:00pm. See also : Andy Hertzfeld, How the Mac was born, and other tales. Conversation with Scott Ard. CNET (January 2005), http://news.cnet.com/How-the-Mac-was-born%2C-and-other-tales/2100-1082_3-5529081.html, access: July, 1, 10:00pm.. The suit brought against Microsoft by Apple in 1988 was unsuccessful in the courts. Don Norman: the limits of the “user experience” After the release of Microsoft Windows, the design methods used in interface design were structured around scientific disciplines connected with this field. In addition to the expressions “human usability” and “user interface,” that of “user experience” (often shortened to “UX”) then achieved a notable success. The latter seems to appear for the first time in 1986 28 For a detailed chronology of the history of this term, see: Peter Merholz, Whither “User Experience”? Peterme.com (November 1998), http://www.peterme.com/index112498.html, access: July, 1, 10:00pm. in a book co-edited with Donald Norman (a cognitive science researcher), titled User Centered System Design: New Perspectives on Human-Computer Interaction 29 Donald A. Norman and Stephen W. Draper, User Centered System Design: New Perspectives on Human-Computer Interaction (San Diego 1986).. After a consideration of the impossibility of arriving at a univocal meaning by means of standardized images (pictograms), this quotation follows: “Direct Engagement occurs when a user experiences direct interaction with the objects in a domain. Here, there is a feeling of involvement directly with a world of objects rather than of communicating with an intermediary. The interactions are much like interacting with objects in the physical world. […] [T]he interface and the computer become invisible. Although we believe this feeling of direct engagement to be of critical importance […] we know little about the actual requirements for producing it.”30 Edwin L. Hutchins, James D. Hollan, and Donald A. Norman, Direct Manipulation Interfaces, in: User Centered System Design: New Perspectives on Human-Computer Interaction, ed. Donald A. Norman and Stephen W. Draper (San Diego 1986), pp. 114-115. “User experience” can thus be understood as a will to export the Xerox Star design model to fields other than that of screen interfaces and computers which can disappear, becoming “invisible.” Frequently cited as the originator of this expression, Don Norman defined it as follows in 1998: “I invented the term [user experience] because I thought Human Interface and usability 31 The concept of “usability” that Don Norman judges insufficient, was addressed by its proponents, Jeff Rubin and Dana Chisnell, in these terms: “when a product or service is truly usable, the user can do what he or she wants to do the way he or she expects to be able to do it, without hindrance, hesitation, or questions.” Source: Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. Second Edition. How to Plan, Design, and Conduct Effective Tests (Indianapolis 2008 [1994]), p. 4. were too narrow: I wanted to cover all aspects of the person’s experience with a system, including industrial design, graphics, the interface, the physical interaction, and the manual.” 32 Don Norman, quoted in: Peter Merholz, Whither ‘User Experience’? This broader aspect of “user experience” was then refined in the “canonical” version formulated by Jakob Nielsen and Don Norman: “User experience” encompasses all aspects of the end-user’s interaction with the company, its services, and its products. The first requirement for an exemplary user experience is to meet the exact needs of the customer […]. We should also distinguish UX and usability: According to the definition of usability, it is a quality attribute of the UI, covering whether the system is easy to learn, efficient to use, pleasant, and so forth. Again, this is very important, and again total user experience is an even broader concept.” 33 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. “Experience design” and the myth of “invisible” data processing This interest, from then on focusing on the user rather than the technological apparatus (the interface), is even more explicit in the phrase “user-centered design” (“UCD”), which consists in basing the whole methodology of design on the central point that is the user. This design methodology enjoyed considerable success, perhaps because of the bond it helped establish between the marketing services tasked with studying consumers and the teams tasked with designing the products. However, by the admission of its own proponent, Don Norman, the term “user” has shown its limitations. In a 2006 article titled “Words Matter. Talk About People: Not Customers, Not Consumers, Not Users,” Don Norman admitted: “We depersonalize the people we study by calling them “users.” Both terms are derogatory. They take us away from our primary mission: to help people. […] People are rich, complex beings. […] A label such as customer, consumer or user ignores [their] […] social structures. […] It is time to wipe words such as consumer, customer, and user from our vocabulary. Time to speak of people. Power to the people.”34 Don Norman, Words Matter. Talk About People: Not Customers, Not Consumers, Not Users. jnd.org (2008), http://www.jnd.org/dn.mss/words_matter_talk_a.html, access: July, 1, 10:00pm. In the same way, in 2008: “One of the horrible words we use is “users.” I am on a crusade to get rid of the word “users.” I would prefer to call them “people.” […] We design for people, we don’t design for users.” 35 Don Norman at UX Week 2008, Adaptive Path. YouTube, https://youtu.be/WgJcUHC3qJ8, access: July, 1, 10:00pm. Let us summarize these points. The methodology of “user-centered design” consists in designing so as to treat each human being as a user, as a person dedicated to maintaining with companies only relations “centered” on his or her “exact needs,”36 Jakob Nielsen and Don Norman, The Definition of User Experience. Nielsen Norman Group, http://www.nngroup.com/articles/definition-user-experience, access: July, 1, 10:00pm. concerning which there should be no “hindrance[s], hesitation[s], or questions.”37 Jeff Rubin and Dana Chisnell, Handbook of Usability Testing. How to Plan, Design, and Conduct Effective Tests (New York 2008), p. 4. This current of thought results from a scientific modeling of the principles that governed the design of the Xerox Star in order to make it a “personal” machine, optimizing the tasks to be performed by the user. Retrospectively, the performative texts of Don Norman speaking in praise of the study of “needs,” by the admission of their author, led to a dead end, because the human being cannot be reduced to a specific role 38 This idea was inscribed within the ISO standards, which propose replacing the expression “user-centered experience” with “human-centred design.” See: ISO 9241-210: 2010. Ergonomics of human-system interaction — Part 210: Human-centred design for interactive systems. Iso.org (March 2010), https://www.iso.org/obp/ui/en/#iso:std:iso:9241:-210:ed-1:v1:en, access: July, 1, 10:00pm.. Such a reversal of thought might be amusing. However, on closer inspection, wouldn’t one also have to interpret these contradictory injunctions as the sign of a power belonging not to the “people,” but to those who make these speeches? In other words, isn’t this an indictment of those who are constantly getting richer (in the banal sense of the term) by controlling the circulation of the design methodologies that are to be gotten rid of by this “crusade”? More than a plea in favor of taking complexity into account in design, this “appeal to the human,” for Don Norman, provides a rationale for gradually eliminating “interfaces” in the name of an “invisible” computing 39 Donald A. Norman, The Invisible Computer. Why Good Products Can Fail, the Personal Computer Is So Complex, and Information Appliances Are the Solution (Cambridge MA, 1998)., the products of which would be “human-centered.”40 Chapter 2 of The Invisible Computer is titled “Growing up: Moving from technology-centered to human-centered products.” This prediction of invisibility, passing under the guise of a change in vocabulary, a priori innocent, was so absorbed so thoroughly by the corporations that in 2012, Apple made it into a selling point: “We believe technology is at its very best when it’s invisible, when you’re conscious only of what you’re doing, not the device you’re doing it with. An iPad is the perfect expression of that idea. It’s just this magical pane of glass. It can become anything you want it to be […] It’s a more personal experience with technology than people have ever had.” 41 Official Apple (New) iPad Trailer. YouTube (March 2012), https://youtu.be/RQieoqCLWDo , access: July, 1, 10:00pm. However, Don Norman’s big picture does not mean that his idea of “invisible” computing is viable. The important term here is “experience,” which goes hand in hand with that of “magic.” What could be more magical, indeed, than experiencing an “invisible” technology? The artist Olia Lialina, in a critical article on the study of the concept of user, does not join in the chorus: “This is why Interface Design starts to rename itself to Experience Design — whose primary goal is to make users forget that computers and interfaces exist. With Experience Design there is only you and your emotions to feel, goals to achieve, tasks to complete. ” 42 Olia Lialina, Turing Complete User (2012), http://contemporary-home-computing.org/turing-complete-user/, access: July, 1, 10:00pm. A world without experience In the conclusion of her article studying the limitations of an exclusion of the term user of the methods of interface design, Olia Lialina proposes to return to foundations predating the Xerox Star, namely those developed by the computer scientist Ted Nelson in his 1974 work Computer Lib/Dream Machine: “COMPUTING HAS ALWAYS BEEN PERSONAL. By this I mean that if you weren’t intensely involved in it, sometimes with every fiber in your mind atwitch, you weren’t doing computers, you were just a user. If you get involved, it involves all of you: your heart and mind and way of doing things and your image of yourself. A whole way of life.” 43 Theodor Holm Nelson, Computer Lib. You can and must understand computers now (self-published, revised edition 1987 [1974]), p. 3. The argument is strong. Nelson’s denunciation of a “naïve” use points to the risk of a loss of contact with the computer, which, from Xerox Star to the iPad, presupposes that everything “real” (real life, creativity, etc) is external to the machine. However, in spite of the ascendancy of tactile interfaces (without mouses), in spite of the emergence of gestural interfaces (without buttons) and sound interfaces (without screens), and in spite of the return of command-line interfaces (without icons), it is clear that the great principles of the graphic interfaces created at Xerox PARC at the beginning of the 1970s are still the main ones governing our relations with electronic machines – which are not yet “invisible,” far from it. Take, for example, the “Apple Human Interface Guidelines” 44 See for example: “Designing for Yosemite: […] A great OS X app integrates seamlessly into this environment, while at the same time providing custom functionality and a unique user experience.” Human Interface Guidelines, developer.apple.com, https://developer.apple.com/library/mac/documentation/UserExperience/Conceptual/OSXHIGuidelines, access: July, 1, 10:00pm. and Google’s “Material Design,” 45 Google Material Design, material.io (first version published June 2014), https://www.google.com/design/spec/material-design/introduction.html, access: July, 1, 10:00pm. which, in the 2010s, are the recommended readings – with the proviso of reading critically – for anyone interested in interface design. In spite of its widespread acceptance, the cognitive model of an interface coupled with an idealized user (understood as a bundle of habits) has its limitations. Since Jef Raskin’s 1967 text associating “human usability” with efficient task completion 46 See Jef Raskin, A Hardware-Independent Computer Using List-Structured Modeling: The Quick-Draw Graphics System (Pennsylvania, 1967)., the will to create a graphic interface to procure for the “user” a new work environment and new methods “to accomplish the same goals as before” 47 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p. 248. has consisted in envisaging electronic media as “problem solvers” rather than as powers of transformation and invention. However, as the humanities specialist Yves Citton perceptively notes: “The invention of communication technologies […] takes place within a vast nebula of hopes, anxieties, dreams, tinkerings, parallel knowledges, subversive appropriations and reappropriations, crossing many traditional disciplinary fields […]. Indeed, our media cannot be reduced to mere instruments for the transmission of forms and contents: it functions, first and foremost, in just the same way as the mediums who fascinate us, delude us, hypnotize us and stimulate us via simulations that penetrate our senses.” 48 Yves Citton, Gestes d’humanités. Anthropologie sauvage de nos expériences esthétiques (Paris, 2012), pp. 21–22. Taking into consideration these foundational design texts of the computer age, it is obvious that electronic machines raise questions that did not exist before. But perhaps it is precisely against these innovations that methodologies of design were themselves designed with an eye to preserving the powers and knowledges already in place. In spite of its undeniably advanced technology, the Xerox Star did not have the full support of the corporate leaders, who preferred to focus on the photocopier business, more in phase with the “uses” of the time. In this history of “user-centered design,” an expression originating after the Xerox Star, it is indeed a matter of a concern about forgetting the “useful,” the utility of the object. But is this really possible in a world in which marketing services, for example, constantly seek to anticipate consumers’ “needs ” by statistical processes linked to observation protocols? Another factor suggesting a design constructing against technological innovations – i.e., for habits – is this history of the “center,” a term which should now be examined. This twofold suffix coupled with design could have been the subject of variations. Why does one never speak, for example, of “form-centered” design, for example, or of “practice-centered” design? Perhaps is this because these two concepts (there could be others) resist the idea of a “center,” of delimitation. If one considers the concept of form, it is notable that this, historically, was related to design – according to the formula of the architect Louis Sullivan, according to which “form ever follows function.” As a canny observer of a history that sometimes “tramples” (in which the issues are sometimes obscured, sometimes rediscovered), the philosopher Pierre-Damien Huyghe notes that the concept of form expresses the “artistic interest” of design: “It was not only a question of creating potentially functional objects. The concern for making form is absolutely essential to the design. We may note here that the Latin forma can be translated as “beauty.””49 Pierre-Damien Huyghe, On appelle beaucoup trop de choses ‘design’. Interview with Julie Delem. Naja21 (April 2015), http://www.naja21.com/fr/espace-journal/pierre-damien-huyghe-on-appelle-beaucoup-trop-de-choses-design, access: July, 1, 10:00pm. In a more general way, design, in so far as it encompasses the capacity to transform the world, cannot “center” on anything. Design is only of any interest if it is derived from tensions, polarities, contradictions – in other words, the opposite of a center. Olia Lialina, in the conclusion of her article, also refuses to let herself be reduced to a label: “We, general purpose users — not hackers and not people — who are challenging, consciously or subconsciously, what we can do and what computers can do, are the ultimate participants of man-computer symbiosis.” 50 Olia Lialina, Turing Complete User. One must then reconsider the fact that the conceptual model of the 1981 Xerox Star interface was decided “before” the material (hardware) existed, “two years before we wrote a single line of actual product software.” 51 David Canfield Smith, Charles Irby, Ralph Kimball, Bill Verplank, and Eric Harslem, Designing the Star User Interface, p. 246. Retrospectively, this account can be understood as that of a missed encounter with the otherness of the machines, since it is, in effect, a matter of subordinating the digital technology (hardware and software) to a “model,” i.e., to something anticipated and stabilized. This progressive distancing of the concept of the “General Purpose User” 52 Olia Lialina, Turing Complete User.op. cit (active and polyvalent) has made possible the expressions “human-centered design” and “experience design”, which incarnate the promise of a world in which one could “do whatever one wishes,” immediately, as if by “magic.” But which kind of “doing” are we talking about when invisibility becomes the ideal for the machines? This myth of the invisibility of technological innovations in fact already existed in a nascent form at the dawn of personal computing. In a 1979 commercial for the Xerox Alto intended to demonstrate the power of the “office of the future,” an office worker (Bill) arrives at work and greets his colleagues, coffee in hand. When he arrives at his station, he turns on his Alto computer and addresses it verbally: “Hello, Fred.” The computer answers him: “Hello, Bill.” After a series of tasks, easily solved by the machine, comes the final dialogue: Bill (tired): “Anything else?” Fred: A richly detailed bouquet of daisies spreads across the screen. Bill (puzzled): “Flowers? What flowers?” Fred: “Your anniversary is tonight.” Bill (chagrined): “My anniversary. I forgot.” Fred: “It’s okay. We’re only human.” 53 Douglas K. Smith and Robert C. Alexander, Fumbling the Future, (Indiana, 1999), p. 20. What such initiatives describe, paradoxically, is a world without experience [un monde sans expérience] 54 The French word expérience can mean “experience” or “experiment.” (Translator’s note.), in the sense in which experience/experimentation can take place only within a field of possibilities open to uncertainty: Economic power is what the socialization of experiences implements. However, if this implementation augments shared experience and perception day by day, it does not appear authentically. Most often, it borrows the forms of habit, it slips mimetically into experience. 55 Pierre-Damien Huyghe, Faire place, in: Qu’est-ce que l’art domestique ?, ed. Richard Conte and Sandrine Morsillo (Paris, 2006), p. 29. Symptomatic of an era when “apparatuses” 56 The apparatus is defined by Pierre-Damien Huyghe as “a technological method distinct from the tool and the machine [which produces] within us a power of perception, a particular form of sensibility.” See: Pierre-Damien Huyghe, Introduction au dossier “Temps et appareils”. Plastik 3 (2003), p. 4. are no longer objects worthy of interest, human-machine relations are increasingly marked (branded) by the registers of utility, output, or time-saving. The human experience of “experience design” is often reduced to an experimental situation, that of a rat seeking the way out of a labyrinth. Even if it is “friendly” or “invisible,” this technological medium is no less a straightjacket, a controlled situation in which any exchange is anticipated and preprogrammed. When we are mirrored in the form of the “human, all too human” computer, we “ordinary people” are the ones who stand to lose sight of our complex and infinite possibilities.
Notions
Personnes citées
Date
November 2017
Type
ConférenceContexte
Communication dans le cadre du colloque scientifique « Écologies du numérique », Écolab / ESAD Orléans
Résumé
L’enjeu d’une écologie du numérique, d’un point de vue psychique, serait d’interroger la prétention des technologies à « solutionner » tous les problèmes du monde, alors même que nous faisons face à de multiples crises cognitives liées à la « captation » de l’attention, à savoir l’exploitation économique des comportements, des affects et des désirs. En tant que ces opérations se font en retrait de toute visibilité, il s’agit bien d’une question écologique, à savoir une disjonction entre un « milieu technique » et les acteurs qui y évoluent. Entre attention personnelle et attention collective, il s’agira ici de réfléchir à une pensée « en commun », et dès lors politique, d’une écologie du numérique.
Notions
Personnes citées
Objets mentionnés
Médias
Date
April 2017 — March 2018
Type
ProjetContexte
Podcast préparé et animé avec Saul Pandelakis, diffusé sur Radio FMR Toulouse, dans le cadre de l’émission CPU Programme produite par Xavier Mouton-Dubosc aka Dascritch.
Résumé
Le podcast Killed by app analyse les enjeux socio-politiques des applications numériques. Animé avec Saul Pandelakis et réalisé par Dascritch, cette chronique à parution aléatoire est diffusée sur Radio FMR Toulouse dans le cadre de l’émission CPU Programme. Placé sous licence libre, ce podcast est envisagé comme un temps de recherche jouant des décalages de media pour préparer un essai à quatre mains traitant des thématiques qui y sont abordées. — #01 – « Fantômes de la déconnexion » – 06/04/2017 – MP3 — #02 – « Assistants personnels, l’ère de Jarvis » – 15/06/2017 – MP3 — #03 – « Recherche amour informatiquement » – 21/09/2017 – MP3 — #04 – « My other car is a smartphone » – 19/10/2017 – MP3 — #05 – « Mini » – 04/01/2018 – MP3 — #06 – « Maxi » – 01/03/2018 – MP3
Notions
Personnes citées
Date
January 2017
Type
PublicationContexte
Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.
Résumé
AVANT C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! QUELLES SOLUTIONS ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.
Notions
Personnes citées
Objets mentionnés
Date
April 2019
Type
PublicationContexte
Actes du colloque de Cerisy Écologie de l’attention et archéologie des médias (juin 2016)
Résumé
La notification, cette forme de communication par fragments, interruptions et redondances s’est renforcée avec l’émergence des terminaux mobiles qui permettent d’accéder et de traiter des données en temps réel. Entre le manque investi par le numérique et la (supposée) saturation d’informations conduisant, pour certains chercheurs, à une crise de l’attention, comment les notifications numériques participent-elles d’une reconfiguration sociotechnique de l’expérience du manque ? Quelles sont les spécificités de ce milieu attentionnel ?
Personnes citées
Date
May 2021
Type
PublicationContexte
Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.
Résumé
How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?
Notions
Personnes citées
Objets mentionnés
Médias
Date
May 2019
Type
ConférenceContexte
Communication dans le cadre de la chaire de philosophie à l’hôpital, séminaire « Design with Care », dir. Cynthia Fleury et Antoine Fenoglio (Les Sismo), Paris, Cnam
Résumé
Alors que nous manquons encore de recul pour comprendre ce que les média, flux et interactions numériques nous font, font avec nous, ou font contre nous, quels autres modes de conception et modèles économiques peut-on inventer ? Comment une compréhension plus fine des différentes théories psychologiques pourrait-elle permettre de déjouer une certaine approche neurocognitiviste assimilant le psychisme humain à une commutation de circuits ? Pourrait-on permettre au plus grand nombre de comprendre et d’accéder aux paramètres façonnant l’attention en contexte numérique ? Le design pourrait-il devenir, à rebours de l’exploitation de nos vulnérabilités psychiques, l’endroit d’une possible « écologie de l’attention » ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
April 2012
Type
PublicationContexte
Anthony Masure, « Braun/Apple, des survivances paradoxales », Reel-Virtuel.com, no 3, « Archéologie des nouvelles technologies », avril 2012
Résumé
Si les appareils font époque, leur invention précède leur découverte. La nouveauté est recouverte de formes anciennes, qui permettent de faire accepter socialement l’innovation. Nous discuterons ces hypothèses en étudiant le design des objets Apple, qui reprennent les formes élaborées par Dieter Rams chez Braun dès 1950. Comment penser ces survivances paradoxales ? Faut-il y voir un échec des nouvelles technologies à formuler un vocabulaire esthétique singulier ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
September 2022
Type
PublicationContexte
Paper written with Guillaume Helleu for the journal AOC, which appeared in September 2022. Translated from French by Aviva Cashmira Kakar.
Résumé
NFTs (non-fungible tokens) appeared in 2017. They are tamper-proof decentralized digital certificates which have gained fame because of their appropriation by the art world. NFTs have attracted a great deal of controversy, and are frequently accused of being speculative, useless and polluting. We propose to examine these polemics, founded for the most part, in order to show that other approaches are possible. In fact, artistic applications are merely one link in the chain, and NFTs cannot be reduced to their mere visible aspect, they require a wider examination of their value systems, distribution chains, and methods of governance.
Date
March 2026
Type
BlogContexte
Anthony Masure, « Mise à jour technique du site avec Claude Cowork », blog AnthonyMasure.com, 23 mars 2026
Résumé
Mon premier site Web personnel a été lancé en 2012 sous WordPress, et a migré sous Kirby en 2015 avant d’être entièrement refait en 2016 puis légèrement mis à jour en 2021. En mars 2026, porté par le développement des intelligences artificielles grand public, une refonte technique complète a été menée grâce à l’IA Claude Cowork : migration de Kirby 3.4.4 (2020) vers Kirby 5.3.2 (2026), correctifs de sécurité, optimisation des performances et nettoyage du code JS et CSS. Ce billet documente l’usage de Claude et l’ensemble des changements effectués.
Notions
Objets mentionnés
Date
December 2021
Type
ConférenceContexte
Séminaire doctoral de l’EnsadLab (Paris), thématique « Design is the answer, but what was the question? Le design et l’art à l’épreuve de la crise de la modernité », dir. Francesca Cozzolino et Emanuele Quinz.
Résumé
Apparu au tournant des révolutions industrielles comme une brèche dans l’idée dominante d’économie industrielle, le design aura montré que la prise en compte de dimensions comme l’esthétique, l’altérité, l’attention ou l’écologie s’opposent à sa réduction en une simple « résolution de besoins ». Plus proche de nous – a minima depuis la parution en 1972 du rapport Meadows intitulé Les limites à la croissance (dans un monde fini) – la prolifération d’objets manufacturés préoccupe légitimement un monde en proie aux crises climatiques. Depuis quelques années, le design se voit ainsi affublé d’une multitude de qualificatifs : « écodesign », « design social », « design éthique », « design inclusif », etc. On peut dès lors se demander si cette tendance ne met pas en évidence une difficulté à comprendre ce qui pose problème dans le design « tout court » : ayant peut-être perdu sa force subversive, ce dernier serait-il désormais parfaitement intégré aux forces productives ? Comment situer dès lors le rôle ou la tâche du design, pris entre désir et besoin, entre économie et morale ? Existe-t-il une responsabilité propre au design ? Le design ne devrait-il pas, au contraire, œuvrer à rendre la responsabilité collective et intelligible ? Quelles sont les continuités et discontinuités entre le monde des choses et l’action politique ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
November 2018
Type
PublicationContexte
Article publié dans la revue de recherche Sciences du Design, Paris, Puf, no 8, novembre 2018, p. 67-78
Résumé
Selon le philosophe Jacques Derrida, la distinction métaphysique entre l’écriture et la parole (logos) entraîne une dépréciation de l’écriture et interroge par extension la prétention d’une « pure » pensée à exister séparément de sa représentation graphique. Nous proposons de mettre en résonance l’analyse de ce « logocentrisme » avec le champ des publications numériques de recherche, où la forme demeure majoritairement impensée. En montrant au travers de l’étude de deux publications en ligne (GAM3R 7H30RY et Haunted by Algorithms) comment certaines pratiques de design graphique permettent de dépasser l’opposition forme/contenu, nous soutenons que la prise en compte de la dimension esthétique de l’écriture peut contribuer à dérouter et à renouveler les pratiques de recherche communément installées.
Notions
Personnes citées
Objets mentionnés
Date
October 2022
Type
PublicationContexte
Article rédigé avec Élise Rigot pour l’ouvrage collectif Les écologies du numérique, Orléans, Esad, 2022
Résumé
Dans un monde où presque aucune activité humaine n’échappe aux programmes numériques, ces derniers prennent un caractère existentiel et engendrent un assujettissement du vivant à des logiques d’automatisation. Il en résulte un profond déséquilibre des milieux de vie (théories de l’effondrement, perte de la biodiversité, etc.) et une perte de sens de l’existence. Afin de mieux cerner le concept de programme, nous associons trois champs tendant à converger : le design, l’informatique et la biologie. Ce rapprochement permet de formuler trois perspectives écologiques non binaires – autant de scénarios qui contestent le présupposé d’un design comme plan et qui le redéfinissent comme « art de l’équilibre », « zone de trouble », et « variation d’insignifiant ».
Notions
Personnes citées
Objets mentionnés
Date
January 2026
Type
PublicationContexte
Article de recherche co-écrit avec Saul Pandelakis et Dominika Čupková dans le cadre du projet Fucking Tech! (2024-2027) et publié dans INC Longform (Institute of Network Cultures) en janvier 2026.
Résumé
À partir d’une semaine d’expérimentation avec onze applications d’« AI Girlfriends », ce texte examine ces services comme des artefacts culturels toucahnt aux notions de genre, de plaisir, d’amour et de psychologie. Appliquant une méthode de « recherche hypersituée », les auteurs décrivent leurs interactions avec des chatbots dédiés à la romance et à la sexualité pour en analyser les promesses (personnalisation, disponibilité permanente, absence de censure) et leurs angles morts (consentement automatisé, biais cishetéronormatifs, incohérences entre texte et image générée). Ils concluent sur la nécessité de repenser ces interfaces au-delà des imaginaires normatifs.
Notions
Personnes citées
Objets mentionnés
Date
January 2021
Type
BlogContexte
Anthony Masure, « Redesign du site AnthonyMasure.com », blog AnthonyMasure.com, 12 janvier 2021
Résumé
Le site Web AnthonyMasure.com a fait l’objet de plusieurs refontes depuis 2012. Cet article revient sur les différentes versions du site, les parti-pris fonctionnels et formels, et sur la dernière version en date de janvier 2021.
Notions
Personnes citées
Objets mentionnés
Médias
Date
October 2021
Type
ConférenceContexte
Invitation au « Tech+Society Breakfast » (Ethix – Lab for Innovation Ethics + SATW – The Swiss Academy of Engineering Sciences).
Résumé
Nous passons une grande partie de nos journées en utilisant des outils numériques. De Zoom à Zalando aux applications des réseaux sociaux, ces outils sont conçus pour maximiser la facilité d’utilisation tout en maximisant les retours financiers pour leurs concepteurs. À cet effet, des techniques de design sont utilisés pour orienter le comportement des utilisateurs. Quelles conséquences ont ces techniques sur le bien-être des utilisateurs et le fonctionnement de nos sociétés numériques ? Quel standards éthiques devrions-nous adopter dans le design des outils numériques? Et quelle responsabilité portent les designers numériques ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2013
Type
PublicationContexte
Anthony Masure, «Makers : Fable labs ? », Strabic.fr, janvier 2013
Résumé
Après La longue traîne (2006) et Free ! Entrez dans l’économie du gratuit (2009), Chris Anderson revient nous narrer les tendances du futur dans Makers. La nouvelle révolution industrielle (2012). Si ces précédents ouvrages restaient cantonnés au domaine des écrans, celui-ci explore le vaste champ du numérique et des objets « autofabriqués ? ». L’ex-rédacteur en chef du magazine culte Wired est-il convaincant dans son nouveau rôle d’évangéliste des machines de fabrication automatisées ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
May 2015
Type
PublicationContexte
Emeline Brulé, Anthony Masure, «Le design de la recherche : normes et déplacements du doctorat en design», Paris, PUF, Sciences du Design, no1, mai 2015, p.58-67
Résumé
Prenant acte d’une spécificité du design quant au travail des supports d’expression, cet article se donne comme champ d’étude les formes et formats de thèses dans le contexte de la recherche en design. Nous considérerons ici la thèse comme un «type» de document ayant intégré au fil du temps un certain nombre de conventions qui ne sont que trop rarement interrogées. Nous reviendrons tout d’abord sur son évolution historique et discuterons des conventions et normes des thèses en design à l’heure actuelle. Nous étudierons ensuite la manière dont ces dernières structurent le travail de recherche pour nous demander si la recherche en design se doit d’en créer d’autres, ou si elle doit œuvrer à les déconstruire. Enfin, nous nous demanderons si le design peut être vu comme un «laboratoire» permettant de déplacer les façons de faire de la recherche, au sens large.
Notions
Personnes citées
Objets mentionnés
Médias
Date
November 2016
Type
PublicationContexte
Anthony Masure, « La saisie comme interface », dans : Sophie Fétro, Anne Ritz-Guilbert (dir.), actes du colloque scientifique « Collecta. Des pratiques antiquaires aux humanités numériques », École du Louvre, 2016
Résumé
Une vision limitée du design des sites Web, et des programmes numériques en général, consiste à ne s’intéresser qu’à ce qui apparaît à l’écran. Pour aller plus loin, cette contribution vise ainsi à démontrer l’importance, pour les designers, de porter attention à la structuration et à l’agencement des codes source informatiques. Dans le domaine des archives en ligne où les interfaces de saisie sont rarement étudiées en tant que telles, ces enjeux interrogent le rôle et de la place du design. Que demande-t-on à ce dernier dans le contexte des «humanités numériques» ? Comment le design, en envisageant la saisie comme une interface, peut-il contribuer à dépasser une vision instrumentale de la technique ?
Notions
Personnes citées
Objets mentionnés
Date
December 2018
Type
PublicationContexte
Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »
Résumé
Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?
Notions
Personnes citées
Date
January 2019
Type
PublicationContexte
Article coécrit avec Loup Cellard dans la revue Multitudes, no 73, dossier « Tyrannies de la transparence »
Résumé
Mobilisées dans de nombreuses initiatives citoyennes, les interfaces numériques se retrouvent prises dans une « injonction à la transparence » aux enjeux ambigus. Cette contribution met ainsi en évidence trois paradoxes :
1. Le fait que les interfaces numériques reposent sur une obfuscation ontologique des couches programmatiques.
2. La tendance des projets politiques de transparence à invisibiliser les controverses grâce à l’utilisation rhétorique des interfaces et de leurs données.
3. La transformation du paysage médiatique de la transparence en une tension entre divulgation, mise en visibilité de processus, et création d’expériences de simulation renouvelant potentiellement les capacités de narration des citoyens.
Notions
Personnes citées
Date
March 2019
Type
PublicationContexte
« Overall Technology », introduction de section coécrite avec Océane Ragoucy, dans : Catherine Geel, Clément Gaillard (dir.), Extended French Theory & The Design Field… On Nature and Ecology: A Reader, Paris, T&P Work UNiT
Résumé
Book published on the occasion of reflections adapted within the framework of the French Section, From thought to the visible. Design as large ring, XXIIth Milan Triennale, Broken Nature, March 1 st to March 1 st sup > september 2019. In the common vision of things, ecology, understood as the management of natural resources, is de facto opposed to technique: it is assumed that modernist logic has pushed technological progress to a crisis point where that progress would collapse under the finite nature of its growth. Technique as know-how or the capacity to change one’s environment is understood here, then, in its contemporary sense of “technology”: a series of technical articulations (logos) embodied in consumable artefacts. Now, the texts that follow show that ecology is multiple, just as technique should be. This plurality of life environments, a concern at the heart of the fields of art and design, dovetails with some incisive texts by the philosopher Félix Guattari. His notion of “ecosophy” (global ecology) also encourages us not to think about ecology separately from aesthetics: « To bring into being other worlds beyond those of purely abstract information, to engender Universes of reference and existential Territories where singularity and finitude are taken into consideration […] to confront the vertiginous Cosmos so as to make it inhabitable; these are the tangled paths of the tri-ecological vision [of environments, social relations and subjectivities]. 1 Félix Guattari, The three ecologies, (Paris, Galilée, 1989), 70.. » Today, gaining a clearer idea of the relations between ecology and technique implies taking a look at texts written from the 1970s onwards in the context of the Cold War and the effective development of so-called “personal” computing. The philosophy of technique, or technics, which already had a rich history, had been enjoying a tremendous period of international growth for some forty years. Because it is articulated with aesthetic and ecological issues, in France this field has been echoed in some singular ways. That is what this selection of texts sets out to explore. There is one domain, the archaeology of media, which offers a powerful counterweight to the sometimes-frightening promises of effectiveness made by these digital technologies. It does so by jolting together heterogeneous technical layers, whether of history, hardware, or software. A precursor of this field is the nomadic philosopher Vilém Flusser, whose essay Vampyroteuthis infernalis 2 Vilém Flusser, Vampyroteuthis infernalis [1981-1987], trans. C. Lucchese, (Bruxelles: Zones sensibles, 2015). sets out a bestiary derived from squids and octopuses implicitly revealing the unthought implications of the proliferation of electronic information machines. Taking different approaches, the philosophers of French Theory and their contemporary heirs (Bernard Stiegler, Pierre-Damien Huyghe, Isabelle Stengers, Bruno Latour, Madeleine Akrich, etc.) have engaged acutely with the profound consequences of technological mutations. Inspired by the idea of thinking about technique beyond human actors and/or its subservience to principle of efficacy, these authors – although they do not necessarily invoke this notion – interrogate an overly limited understanding of ecology. While they are not (all) contemporaries of the massification of the use of digital technologies, the fact that these writings are still widely studied bears witness to an obvious fact: in research, there are times when notions of novelty and progress simply do not apply. In This Progress, a participative performance (Palais de Tokyo, Paris, 2016) 3 This Progress* ( Solomon R. Guggenheim Museum, New York, 2006) is replayed at the Palais de Tokyo, (Paris, October 12, 2016 – December 18, 2016): “Carte blanche to Tino Sehgal”, curated by Rebecca Lamarche Vadel., the German-British artist Tino Sehgal shakes up the notion of progress by activating its dimensions: personal, shared and trans-generational. One visitor’s account relates this surprising experience based on the human voice, bodily movement and social interaction: “As we moved forward alone into a big empty space, a twelve year-old child came up to us and suddenly asked, ‘What is progress?’” Let us recall elements of the historical context: the emergence of mass-market computers was to a major extent based on a cognitivist understanding of the cybernetic model. 4 For a broader understanding of cybernetics, see: Norbert Wiener, Cybernetics and society. The human use of human beings [1954], trans. P.-Y. Mistoulon, (Paris: Point, 2014).. This paradigm of understanding, which still informs to a large extent the interfaces of the digital apparatus (dispositifs) 5 Giorgio Agamben, Qu’est-ce qu’un dispositif ? [2006], trans. M. Rueff, (Paris: Payot & Rivages, 2007). » that we use every day, developed, economically, in a hidden way – covered by waves of objects renewed at a quick rate and installed among us without negotiation and unprepared by any civic reflection. In other words: we lack perspective for understanding what the digital media are doing to us, doing with us, or doing against us. The artists’ collective RYBN undermines the idea of progress and technological neutrality. By hybridising computer rationality with modes of thought based on mythology or belief, the esoteric forms of their work betray the “haunted” character of electronic machines. Their Data Ghost project 6 RYBN, Data Ghost 1, installation presented at the “Media Mediums” exhibition, curated by Jeff Guess and Gwenola Wagon, Paris, Ygrec, (April 4-May 31, 2014) (galerie Ygrec, Paris, 2014) tirelessly scans the background noises of digital data flows and detects “phantom” messages there. The internet then becomes the echo chamber of retro-inter-active ghostsspectres. Some thirty years since the writings of Félix Guattari, these reflections on the desubjectification of individuals resonate with dispositifs that are invisible (because encoded) and yet infiltrate most human activities. This is what researcher Evgeny Morozov calls “algorithmic regulation”, 7 Evgeny Morozov. “The power of data and the death of politics”. Trans. P. Jorion, August 2014. https://www.pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique -by-evgeny-morozov/, that is, a pernicious form of social control effected by non-human agents. At the turn of the 2010s, there was no avoiding the realisation that information networks had not created a global village”. The power of “platform capitalism” 9 Nick Srnicek, Platform Capitalism. The hegemony of the digital economy [2016], trans. P. Blouin, (Montreal: Lux, 2018). – that of GAFAM and BATX – is increasingly a threat to citizens’ capacity to invent their own way of lifemodes of existence. Amassing value from the sampling of “data”, digital devices are also redoubtable machines for polluting the mind, the moment one starts to surf without a filter. In this opposition between an invasive technology and the capacity of the social body to organise its conditions of existence, ecology here acquires a psychic dimension. Since technique is constitutive of humanity, however, there can be no question of going back to a golden age that never existed. In this sense, designer Ezio Manzini pleads for an “ecology of the artificial environment” 10 Ezio Manzini, Artifacts. Towards an ecology of the artificial environment [1990], trans. Adriana Pilia, (Paris: Center Georges Pompidou, CCI, 1991). » – a “second nature” formed by the technical tissue, which to a large extent still has to be invented. As of the early 1990s, he warned of the risk that information overload would turn into “noise”: “We are living amidst a growing mass of ‘semiotic waste’ – in other words, messages, texts and used codes that we cannot get rid of. […] By their uncontrolled proliferation, the greatest variety of forms, colours and textures can result in the greyest of worlds.” 11 Ezio Manzini, Artifacts. Towards an ecology of the artificial environment [1990], trans. Adriana Pilia, (Paris: Center Georges Pompidou, CCI, 1991), 36-37. ), 36-37. ». Counter to the “attention deficit” supposedly engendered by the behavioural retroaction loops of the dominant digital “services” – that is, the economic exploitation of behaviours, affects and desires – researcher Yves Citton thus invites us to imagine the conditions of an “ecology of attention” 12 Yves Citton, For an ecology of attention, (Paris: Seuil, 2014). » going hand in hand with a reorientation of media policies. The philosopher of technologies Gilbert Simondon noted at the end of the 1950s, when reflecting on this loss of intelligibility, that “what is missing is the essential; the active centre of the technical operation remains veiled.” 13 Gilbert Simondon, Du mode d’existence des objets techniques [1958], (Paris: Aubier, 2012).». Technical advances have continually heightened this opacity and multiplied the “black boxes”. Who today really understands, for example, how blockchain protocols work, or the self-developing codes of deep learning ? In the video Rare Earthenware (exhibited at ZKM in Karlsruhe as part of the Reset Modernity! exhibition (2016, directed by sociologist and philosopher Bruno Latour), the design studio Unknown Field Divisions documented the trajectory of the rare metals needed to construct three telecommunications objects: a mobile phone, an ultra-thin laptop computer and a chip for an “intelligent” car battery. The quantity of toxic waste required to produce them was then assembled in the form of traditional Ming vases. Inseparable from the conception of many technological objects, “civil wars” cast a veil over the environmentally and humanly damaging nature of mining operations and make the supply process invisible. At stake in an ecology of digital techniques, from a psychic point of view, would be interrogating the claim of technologies to “solve” 14 Evgeny Morozov, To solve everything, click here. The aberration of technological solutionism [2013], trans. M-C. Braud, (Limoges: Fyp, 2014). » all the world’s problems. Not only do digital technologies not always save time, but they cause a proliferation of new problems. In order for the digital to benefit the masses and not just a handful of investors, we need to stand back from the idea that problems linked to technologies can simply be solved with more technology. We are indeed confronted with two gave ecological questions: environmental and human. There is, now, a third, at the other end of the chain. It concerns the user and is – in the broad sense — a disjunction between a “technical milieu” 15 André Leroi-Gourhan, Évolution et techniques. Milieu et techniques, (Paris: Albin Michel, 1973). » and the “actors” 16 Actor network theory (AnT) was developed in the 1990s by researchers Bruno Latour, Madeleine Akrich and Michel Callon. » inhabiting it. To treat persons as “users” comes down to introducing a dissymmetry between the conceivers of objects, of digital programmes, etc., and those who can only use them. Via ecology, then, we can prise open other dimensions than the reduction of technique to its technological and digital assignation: imagination, spirituality, memory, etc. In the French context, for example, it is interesting to study a genealogy that runs through the work of palaeontologist André Leroi-Gourhan, of the philosopher of technology Gilbert Simondon, and of philosopher Bernard Stiegler on digital mutations. For Leroi-Gourhan, the notion of the tool takes an almost biological turn. The tool is that whereby a living being accedes to existence by developing gesture and speech. The relation to the milieu is always a dynamic, and never something that is acquired for good and could be stabilised: human existence is a progressive and continuous detachment from its initial conditions. Simondon approaches technical objects as “lineages” that can be compared to organic configurations and reconfigurations. His later writings on imagination and invention in techniques take an almost spiritual direction. The subject is to be understood within a constant evolution. More precisely, the individual is conceived in relation to a “pre-individual” tending towards a “transindividual”. These reflections on “individuation” and technique have been extensively taken up by Bernard Stiegler, who places them in the context of a period when the combination of neoliberalism and marketing (via behavioural sciences) is massively heightening the risk of the subjection of human beings. For Stiegler, ecology is to be understood as living beings’ relation to their milieu, relations that are threatened by capitalism (industrial, financial, cognitive, etc.). Thus, in addition to necessary actions and reflections on the ecology of resources (the exhaustion of capacities of subsistence), rethinking the ecology of the spirit (exhaustion of the psyche and of desire) is emerging as an increasingly urgent task.
Date
November 2021
Type
PublicationContexte
Paper written with Guillaume Helleu for the research journal Multitudes, which appeared in November 2021. Translated from French by Aviva Cashmira Kakar.
Résumé
This paper explores the issues concerning blockchain technologies within the realm of the creative (art, design, video games, etc.), which have arisen since the development of non-fungible tokens (or NFTs) in 2015. NFTs are essentially the production of a decentralized digital certificate that is impossible to forge, which is then linked to a numerical or tangible entity. NFTs have emerged into the mainstream since the beginning of 2021 due to a massive surge in sales and the development of specified marketplaces. NFTs have brought to the fore a variety of issues concerning value, circulation, and the exposure of artistic and cultural productions.
Notions
Date
January 2024
Type
PublicationContexte
Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.
Résumé
À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.
Notions
Personnes citées
Objets mentionnés
Date
April 2023
Type
BlogContexte
Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]
Résumé
Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.
Notions
Personnes citées
Objets mentionnés
Médias
Date
August 2013
Type
ConférenceContexte
Conférence donnée aux 61e Rencontres de Lure. Thématique de la semaine : « Avis aux amateurs ! »
Résumé
Tandis que certains logiciels entendent réaliser la promesse d’une « création » sans efforts, d’autres discours nous alertent quant aux dangers d’une production mécanisée. Repenser la notion de programme permettrait-il au designer d’interroger ses propres pratiques ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2017
Type
ConférenceContexte
Anthony Masure, « les univers de la science-fiction », invitation à l’émission de radio La Clique numérique, Marseille, Radio Grenouille
Résumé
Écouter l’émission de radio Télécharger en MP3 Résumé Les mois de janvier sont compliqués… La Clique commence donc son année en évoquant la science fiction car en 2017 il va nous en falloir de l’imagination pour dépasser nos hallucinations ! Avec comme invité Anthony Masure, agrégé d’arts appliqués, dont les recherches portent sur les implications sociales et politiques des technologies numériques. Animée par Céline Berthoumieux et Marylou Bonnaire Avec notre chroniqueur récurent Thomas Ricordeau, La première apparition physique du programmateur musical Fabrice Pompidou ! Et l’agenda culturel de Sophie-Charlotte Gautier ! Jodorowsky’s Dune
Notions
Personnes citées
Médias
Date
September 2017
Type
ConférenceContexte
Participation à la table-ronde « Art, design : vers une ère post-numérique ? » dans le cadre du festival Scopitone, Nantes
Résumé
Modération – Claire Richard (journaliste) Intervenants – Samuel St-Aubin (artiste) – Anthony Masure (MCF Design, université Toulouse – Jean Jaurès) – Dominique Moulon (critique d’art et enseignant) Organisation – Stereolux / Labo Arts & Tech De gauche à droite : Samuel Augustin, Anthony Masure, Dominique Moulon, Claire Richard — Résumé graphique Prise de notes graphique : Thibéry Maillard / @entroispoints — Contexte Ce temps d’échange s’inscrit dans une réflexion dont l’objectif est de croiser les expériences, les approches et les points de vue de professionnels et d’experts du numérique – qu’ils soient artistes, chercheurs, critiques, journalistes ou ingénieurs. Il s‘agit de questionner les évolutions scientifiques, philosophiques et sociétales induites par le numérique et mises en exergue par le travail des artistes programmés à Scopitone. Cette table ronde s’intéresse au post-numérique – l’occasion de discuter des incidences de ce terme dans les champs de l’art et du design et, plus généralement, de ce qu’il implique en termes d’évolution sociétale, selon trois axes principaux et en croisant les regards d’artistes, de designers et de théoriciens : Quelles réalités le terme « post-numérique » recouvre-t-il vraiment ? S’il renvoie généralement à un moment où le numérique n’est plus considéré comme une simple technologie, mais bien comme une composante omniprésente de notre environnement et de nos vies, il peut également traduire la fin d’une certaine fascination exercée par le numérique. En devenant omniprésent, banal même, celui-ci perd son caractère « magique » et « nouveau », et cesse d’être perçu comme une fin en soi. Quelles sont les incidences du post-numérique dans le champ artistique ? Cette nouvelle ère est-elle celle de la remise en cause des arts numériques ? Peut-on identifier des différences et/ou des similitudes entre un art dit « numérique » et un art « post-numérique » ? Quel rapport l’art post-numérique entretient-il avec la technologie ? Quel rôle le design peut-il tenir dans une société post-numérique ? Quels sont les enjeux que soulève cette notion de « post-numérique » dans le champ du design ? Nos objets du quotidien intègrent de plus en plus fréquemment des éléments informatiques ; pour cette raison, leur fonctionnement, comme leurs interactions avec notre environnement peuvent devenir « opaques », et leur utilité poser question.
Notions
Personnes citées
Objets mentionnés
Médias
Date
April 2018
Type
ConférenceContexte
Intervention avec Saul Pandelakis sur Radio Parleur à propos du projet collectif #Bullshidex, réalisé à l’université Toulouse – Jean Jaurès durant les grèves contre le projet de fusion Idex de certaines universités toulousaines.
Résumé
La page Web de ce lexique en ligne propose de déconstruire la novlangue managériale appliquée aux champs de l’enseignement et de la recherche. Écouter cette émission Télécharger en MP3 Voir la page Web du #Bullshidex, mars 2018. Design graphique Anthony Masure
Notions
Date
January 2020
Type
ConférenceContexte
Invitation dans l’émission de radio Magnétique, Lausanne, Radio Télévision Suisse (RTS)
Résumé
« Dis Siri ! OK Google… Alexa, s’il te plaît… » La rumeur s’amplifie: nous utilisons toujours davantage les assistants vocaux, qu’ils « habitent » une enceinte connectée, un smartphone ou un ordinateur. Ces interactions nous amènent à revoir notre conception de la voix ; la nôtre quand les machines semblent la comprendre et la leur quand elles nous répondent.
Notions
Date
February 2021
Type
ConférenceContexte
Communication à la journée d’étude « Reticulum #3 – Faire savoir et pouvoir faire », dir. Florian Harmand & Arthur Perret, université Bordeaux Montaigne, 8 février 2021
Résumé
La recherche scientifique est habituellement comprise comme une production de nouvelles connaissances dans une ou plusieurs disciplines. Mais suffit-il de les produire pour qu’elles soient opérantes ? Autrement dit, les « savoir-faire » des chercheur·euses ont-ils du sens sans leur « faire savoir » ? Comment ménager légitimation, communication et valorisation de la recherche ? Nous proposons d’aborder ces questions sous l’angle de la notion de réseau, qui a pour intérêt de faciliter la vérification des connaissances (accès aux sources externes), leur réfutation, leur inscription dans des trajectoires individuelles et collectives, de même que leur compréhension pour divers publics. En se faisant non seulement archivistes mais aussi « relieurs » de leurs propres travaux, les chercheur·euses pourraient ainsi être à même de mieux les valoriser et de les (faire) comprendre.
Notions
Personnes citées
Objets mentionnés
Médias
Date
November 2021
Type
ConférenceContexte
Cycle de conférences UNIGE « Comprendre le numérique », session « Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui », dir. Yaniv Benhamou.
Résumé
« Les professeurs Yaniv Benhamou, Anthony Masure, Sarah Kenderdine et Françoise Benhamou (de g. à dr.) sur la scène d’Uni Dufour, à Genève. Photo Heidi.news (DR) », UNIGE, 30 novembre 2021 Anthony Masure, participation à la conférence « Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui », UNIGE, 30 novembre 2021 Anthony Masure, participation à la conférence « Art et culture à l’ère numérique, ou comment la culture s’exprime aujourd’hui », UNIGE, 30 novembre 2021 — « […] Des experts… Ont été conviés à cette conférence: – la professeure Françoise Benhamou, de l’Université Paris XIII et présidente du Cercle des économistes, – la professeure Sarah Kenderdine, directrice du Laboratory for Experimental Museology de l’EPFL, – le professeur Anthony Masure, responsable de l’Institut de recherche en art et en design à la HEAD – Genève / HES-SO. … et des provocations. Anthony Masure, justement, a bousculé l’assistance et les idées reçues en présentant «cinq provocations», comme autant de manières de montrer que le rapport entre culture et numérique peut être envisagé de multiples façons : – L’histoire du numérique invite à en finir avec la notion d’innovation. Ne serait-ce que parce que cela fait désormais des décennies que les artistes ont intégré le numérique à leur création et qu’il n’y a, en ce sens, plus rien d’innovant. – Les technologies ne sont pas des outils. Tout du moins ne sont pas que des outils au service de l’économie et qu’elles peuvent aussi être utiles à la création. – Il est de plus en plus difficile de distinguer art, pop culture et jeu vidéo. Et de prendre pour exemple le jeu Fortnite, au modèle économique particulier ou encore les CryptoPunks (des collections de NFT s). – Le machine learning ne remplacera que les mauvais artistes. – La blockchain rendra la marche de l’art moins capitaliste. Un comble alors que les cryptomonnaies qui lui sont intimement liées sont principalement décriées pour leur essence spéculative. Que reconnaît Anthony Masure, tout en estimant qu’il est possible d’en faire meilleur usage. […] » — Julien Pralong, « Le numérique modifie certains paradigmes de l’art », Heidi News, 30 novembre 2021, https://www.heidi.news/innovation-solutions/le-numerique-modifie-certains-paradigmes-de-l-art
Notions
Personnes citées
Objets mentionnés
Médias
Date
March 2023
Type
Contexte
Anthony Masure, Artificial Design: Creation Versus Machine Learning, Geneva, HEAD – Publishing, coll. “Manifestes,” 2023
Résumé
In the early 2020s, driven by progress in “artificial intelligence”, programs such as GPT-3, DALL E, Midjourney or Disco Diffusion made it possible to generate images from text instructions. Although these productions often only imitate existing data and lack diversity, media debates tend to focus on the replacement of humans by the machine. In doing so, they screen the essential question: what is the spectrum of current and potential implications of machine learning for design practices?
Notions