Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Recherche et culture libre : approche critique de la science à un million de dollars

Date

December 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

Cinema in Web3 era

Date

November 2022

Type

Conférence

Contexte

Geneva Digital Market (Geneva International Film Festival / GIFF), introduction à la session « Nouveaux modes de financement : cryptommaies et partenariats public-privé ».

Résumé

Cryptomonnaies, capital-risque, investissement et NFT offrent aujourd’hui des nouvelles possibilités de financement pour les producteur·trice·s. Ce programme réunit plusieurs expert·es internationaux·les afin de présenter les modalités d’accéder à ces nouveaux financements.

CV

Date

Type

Contexte

Résumé

Total Record. Les protocoles blockchain face au post-capitalisme

Date

May 2018

Type

Publication

Contexte

Article coécrit avec Guillaume Helleu dans la revue Multitudes, no 71, dossier « Dériver la finance », été 2018

Résumé

Le protocole Bitcoin (2009) s’inscrit dans le prolongement des utopies crypto-anarchistes visant à développer une monnaie numérique sécurisée et distribuée sur le réseau Internet pour échapper à la centralisation du pouvoir par les banques et les gouvernements. Récupérées en grande partie par la finance spéculative, ces technologies à chaînes de blocs (blockchain) se sont progressivement développées et dépassent désormais largement le champ monétaire (applications distribuées, contrats intelligents, jetons de valeurs, etc.). Malgré la persistance de certains freins sociaux et techniques, les protocoles blockchain pourraient-ils prendre de vitesse la logique destructrice du capitalisme financier ?

Financing culture: 7 proposals for present times

Date

June 2023

Type

Conférence

Contexte

Communication au World Knowledge Dialogue, « Le futur de la culture : financement et gouvernance à l’ère numérique ».

Résumé

L’objectif du congrès est d’explorer les conséquences des technologies numériques sur la culture, en particulier sur les industries créatives (p.ex. musique, art visuel et jeu vidéo). Plus spécifiquement, il s’agira d’analyser l’impact du numérique sur le financement et la gouvernance de la culture (p.ex. rémunération des artistes sur les plateformes de streaming, nouveaux modèles de financement à travers le Web3 et les NFT) pour accompagner ces mutations de façon soutenable.

IA et pédagogie : un état de l’art

Date

April 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires

Date

September 2017

Type

Publication

Contexte

Irène Dunyach, Anthony Masure, Saul Pandelakis, «La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse - Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017

Résumé

Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Les événements scientifiques qui réunissent des chercheur/se/s et des praticien/ne/s, notamment au sein des universités, donnent lieu à un grand nombre de publications: actes de journées d’études, actes de colloques, anthologies, revues retraçant des séminaires, mais aussi affiches, plaquettes, sites Web, etc. Les temporalités qui relient les différentes étapes de la vie d’un projet de recherche se retrouvent donc étirées par le temps, variable, qui sépare un événement de sa mise en livre ou en revue, et qui se compte habituellement en années. Ces délais sont en grande partie dus à des protocoles éditoriaux fastidieux: comités de sélection, comités de relecture, partenariats avec des éditeur/trice/s dont les calendriers sont prévus longtemps à l’avance, impression et fabrication auprès d’imprimeur/se/s partenaires, pour finalement atteindre la diffusion, sans parler de la communication des productions. Pour autant, ces processus sont aussi majoritairement perçus, dans le monde de la recherche, comme des choix méthodologiques garants de la rigueur scientifique indispensable à un travail de qualité universitaire. Cependant, les chercheur/se/s admettent souvent souffrir des durées élastiques de conception marquées par les nombreuses étapes de relectures, réécritures, lissages, validations, et lourdeurs administratives que des protocoles fragmentés entraînent inévitablement. Ces écarts temporels entre l’expérience et sa retranscription, qui peuvent facilement dépasser deux années, génèrent des décrochages, voire des désengagements de la part des auteur/e/s et du lectorat, sans parler de l’obsolescence qui atténue parfois la qualité d’un ouvrage qui, paraissant bien trop longtemps après l’événement dont il est issu, ne prend pas en compte les avancées récentes du domaine dans lequel il s’inscrit. Cela est particulièrement le cas dans la recherche en design, champ où les avancées techniques et technologiques se succèdent, et où les usages ne cessent de se transformer: un ouvrage scientifique perd de sa valeur à mesure que se creuse le gouffre qui éloigne son point de départ à sa diffusion éditoriale. Le sentiment le plus cruel de cet écart se mesure souvent dans le temps de l’enseignement, lorsque l’enseignant/e-chercheur/se souhaite partager ses recherches les plus actuelles avec ses étudiant/e/s et doit souvent (parfois en hésitant) communiquer l’article à paraître, qui devient du coup référencé dans un mémoire qui sera, lui, rapidement rendu disponible. Les durées propres à la publication universitaire existent donc à plusieurs niveaux, en asynchronie avec les pratiques pédagogiques qui sont l’horizon du texte de recherche. Dès lors, comment répondre à ces enjeux, et quelles tactiques adopter? À partir de l’étude d’un cas concret, la publication imprimée et numérique des actes de la journée d’études « CinéDesign, pour une convergence disciplinaire du cinéma et du design 1 Voir la publication de l’événement en ligne : cinema-design.fr et univ-tlse2.fr» qui s’est tenue à l’Université Toulouse – Jean Jaurès les 6 et 7 octobre 2016, cette contribution se propose d’esquisser de nouvelles façons d’envisager l’édition scientifique. Faisant écho à des réflexions sur les pratiques éditoriales « marginales» qui traversent simultanément nos recherches (Irène Dunyach, Anthony Masure et Saul Pandelakis), les actes CinéDesign ont été pensés comme l’expérimentation d’une approche décalée du processus de publication scientifique traditionnel. Nous qualifions ici cette démarche de publication « buissonnière», dans le sens où notre ouvrage, parce qu’il s’affranchit des processus habituels, c’est-à-dire anonymes de la revue par les pairs (souvent connue dans sa traduction anglaise de peer review) s’affirme comme une réponse délibérément « indisciplinée». Il ne s’agit pas cependant de rejeter toute méthodologie universitaire — celle-ci reste le fondement de nos formations et de nos activités de recherche. Pour autant, face au rythme interne d’un projet de recherche dont l’échelle temporelle est plutôt le mois que l’année, nous avons décidé d’enjamber quelques règles choisies, avec la pleine conscience que ces libertés nous demanderaient par ailleurs une plus grande rigueur, ainsi qu’un plus grand engagement personnel. Il apparaît que des formes plus fluides et plus légères de protocoles éditoriaux sont à tester, inventer et démocratiser. En ce sens, et pour cette publication, nous avons cherché à tirer avantage des outils numériques en ligne: les étapes de relectures, d’écritures des textes introductifs et conclusifs, et les discussions qui accompagnent ces étapes se sont déployées sur des documents partagés, où les différent/e/s organisateur/trice/s pouvaient commenter, transformer et modifier les textes simultanément. Cette dynamique collaborative a également été mise en avant pour les phases de relectures: nous avons décidé de ne pas constituer de comité scientifique, mais de demander à la place aux différent/e/s participant/e/s locaux/ales de la journée d’études et de la publication de se relire entre eux/elles, dans une gymnastique croisée. Ainsi, les auteur/e/s ont relu leurs collègues, qui les ont relu/e/s en retour. En plus de permettre l’émulation d’une pensée interne et de créer de nouveaux croisements entre les réflexions grâce aux dialogues qui ont émergé de cette mécanique transversale (suggestions de références, de compléments et de précisions directement issus des autres contributions), ce dispositif a permis une remise à plat des différent/e/s participant/e/s, sans qu’une hiérarchie ne se constitue et ne devienne écrasante. Au contraire, ceci a favorisé la prise d’initiative de la part des auteur/e/s, qui ont été parties prenantes dans le processus éditorial. Cette démarche nous semble participer d’un positionnement mobile et mouvant face à la recherche en design, positionnement qui tend à favoriser les échanges et à mettre en retrait les différences dans les statuts des différent/e/s participant/e/s pour se consacrer aux convergences de leurs pensées — comme cela a été mis en avant dans la mise en forme du programme de la journée d’études CinéDesign, où seuls les noms des structures de rattachement accompagnaient ceux des communicant/e/s. Cela se traduit également par une volonté d’intégrer autant que possible des designers et des cinéastes aux futurs événements de CinéDesign, pour encourager les entrelacements entre la théorie, la pratique, et l’analyse de cette pratique. La méthodologie adoptée pour la publication des actes a été la suivante: • Les chapitres des contributeur/trice/s, dès réception par mail en février 2017, ont été versés sur une plateforme de stockage de fichiers synchronisée, Google Docs. Le choix d’une solution propriétaire nous a donné des regrets, mais les temps compressés de publication nous ont incité/e/s à utiliser les outils sur lesquels nous sommes les plus agiles. L’ergonomie des logiciels libres, et plus largement l’attention portée à leur design, fait (malheureusement) encore débat dans les relations entre designers et développeur/se/s (Dubedout, 2017), ce qui ralentit indirectement le développement de programmes pleinement « travaillables» spécifiques au champ de la recherche scientifique 2 Citons comme exemple d’exception le programme Peritext développé par Robin de Mourat : https://github.com/peritext. • Les chapitres ont tous été relus par au moins deux contributeur/trice/s durant le mois d’avril 2017. Le panel se composait des personnes organisatrices du projet (Irène Dunyach, Saul Pandelakis) et des membres fondateurs du groupe (les sus-cité*es, Mélanie Boissonneau, Anthony Masure), ainsi que d’enseignant/e/s en design de l’Université Toulouse – Jean Jaurès ayant rejoint le projet lors de la journée d’études (Fabienne Denoual, Brice Genre). à l’exception de Mélanie Boissonneau, toutes les personnes mentionnées sont amenées à se voir physiquement sur leur lieu de travail (le campus de l’université, situé au Mirail), ce qui constitue un atout majeur pour la coordination. Une grande partie du travail a cependant été effectuée de manière « dématérialisée», ce qui correspond aux emplois du temps asynchrones et aux sollicitations diverses des un/e/s et des autres à l’extérieur de l’université. • Suite à la première relecture, les articles ont été renvoyés aux contributeur/trice/s en mai et juin 2016 pour qu’ils/elles valident les corrections effectuées et qu’ils/elles reprennent le propos de manière plus approfondie quand nécessaire. • Irène Dunyach, Anthony Masure et Saul Pandelakis ont ensuite relu l’ensemble des articles et ont effectué de concert les dernières corrections nécessaires. • La maquette de l’ouvrage a été réalisée par Irène Dunyach et Saul Pandelakis en juin-juillet 2017 en partant de contraintes économiques strictes. Il était prévu de financer la publication des actes CinéDesign grâce à une bourse iDex 3 Ladite bourse a été obtenue par Saul Pandelakis lors de son recrutement en 2015 en tant que maître de conférences. Ce dispositif, dit des nouveaux entrants, lui a permis de bénéficier de 14 000 euros pour financer ses recherches et un ¾ temps en 2015-16., comme cela avait été le cas pour la journée d’études. Le système des achats piloté par l’université nous a cependant contraint/e/s à renoncer à cette solution, la bourse devant être dépensée avant une date butoir (le 15 juin 2017). Ajouter Blurb.fr à la liste des partenaires commerciaux de l’université aurait pris trop de temps et aurait signifié la perte du reliquat de la bourse. Saul Pandelakis a ainsi jugé que l’obtention de la bourse en 2015 constituait une compensation satisfaisante, lui ayant permis de nombreuses économies sur les années universitaires 2015-16 et 2016-17. El a pour ces raisons décidé de financer l’ouvrage sur fonds propres. Dans ce contexte, nous avons opté pour un folio noir & blanc, autopublié sur Blurb.fr, ce qui induit un choix de format et de papier spécifique à cette plateforme. Blurb propose des services dont la qualité, le coût et le délai de fabrication sont en accord avec nos exigences, et offre par ailleurs la possibilité d’une impression à la demande (vente en ligne automatisée, ce qui permet d’une part de faire face à un éventuel épuisement du premier tirage, et de permettre à des personnes extérieures à l’événement de commander facilement l’ouvrage, sans gestion de la part de l’université). Par ailleurs, Anthony Masure avait déjà expérimenté ce service dans le cadre du Master Design graphique du Campus de la Fonderie de l’Image (Bagnolet), pour rendre disponibles des articles de recherche d’étudiant/e/s (Masure, 2013). • Sur le plan graphique, toujours pour des questions d’efficacité, la mise en page a été réalisée sur le logiciel propriétaire Adobe InDesign, dédié à la conception de médias imprimés. Ces dispositifs nous ont permis de jouir d’une totale autonomie sur la question des choix graphiques, tout en réduisant considérablement les délais évoqués plus haut: la journée d’études s’est tenue au mois d’octobre 2016 et ces actes ont été achevés en août 2017, soit dix mois plus tard. Les derniers points, relatifs au processus de conception, font résonner la place du design dans le contexte éditorial de la publication scientifique. En effet, un grand nombre d’ouvrages et de revues semblent révéler un intérêt « limité» pour la mise en forme, et plus largement pour le design graphique: on constate bien souvent une uniformité et, par conséquent, une pauvreté au niveau des langages visuels déployés. Cette situation peut s’expliquer par les partenariats exclusifs qui sont établis entre les universités et leurs maisons d’édition rattachées, qui très souvent sous-traitent les mises en page et proposent des couvertures réalisées sur un même modèle très sommaire: une image, un bloc de couleur, un titre, un logo — la relation entre les éléments étant le plus souvent fortuite et peu maîtrisée. Les questionnements liés aux choix typographiques, aux marges, aux grilles éditoriales et aux vocabulaires visuels ne sont que rarement pris en compte, et les « styles» se répètent d’un ouvrage à l’autre dans une ressemblance monotone. Les dispositifs éditoriaux qui régissent les publications scientifiques ne se font pas le reflet des dynamiques de recherche, et nous semblent façonner une image parfois défraîchie de la recherche à l’université — et ce d’autant plus quand les publications se réclament des champs de l’art et du design, directement en prise avec la notion de forme. Ceci fait écho à l’article d’Émeline Brulé et Anthony Masure (2015) à propos du design de l’« objet thèse» qui clôt une recherche de doctorat, et qui est donc le premier objet graphique que tout/e chercheur/se réalise au début de sa carrière. Comme les deux auteur/e/s le soulignent, cet « objet thèse» reste encore enfermé dans des contraintes formelles qui empêchent toute liberté créative, ce qui semble dénaturer, voire parasiter, le propos d’une recherche en art ou en design. La thèse marquerait donc la première étape d’un processus de normalisation du langage visuel des supports éditoriaux de la recherche, qui devraient pourtant être les émissaires graphiques d’une pensée dynamique et innovante. Car le milieu de la recherche tend à valoriser une énergie sans cesse renouvelée qui nourrit les pensées et propulse les avancées, autant théoriques que pratiques. Des exceptions allant dans ce sens existent: citons notamment la maison d’édition Zones Sensibles 4 Voir aussi les démarches, malheureusement isolées, des éditions B42, Nouveau Document, B2, ou encore de la revue Carnets de Science du CNRS. pour qui « si, d’après certains pleureurs, les livres de sciences humaines ne se vendent plus, c’est moins […] parce que le lectorat manque qu’en raison de la pauvreté graphique de la plupart des livres» (Baratin, 2017). Le design graphique ne se résume pas ici à une question d’embellissement, mais doit se comprendre comme un travail du rapport entre le sens et la forme, ou encore, comme le définit Annick Lantenois, comme «[…] l’un des instruments de l’organisation des conditions du lisible et du visible […]. Traiter visuellement les informations, les savoirs et les fictions, c’est donc concevoir graphiquement leur organisation, leur hiérarchie, c’est concevoir une syntaxe scripto-visuelle dont les partis pris graphiques orientent les regards, les lectures» (Lantenois, 2010, 11). Cette attention portée au regard, à la lisibilité, à la hiérarchie de l’information, aux rapport texte/image, à la fabrication de l’objet, etc. participe pleinement, selon nous, d’un travail devant faire l’objet d’une réflexion spécifique – et ce d’autant plus lorsque la publication a vocation à aborder des enjeux liés au design. Nous préconisons ainsi aux chercheur/se/s, aux éditeur/trice/s et aux directeur/trice/s de laboratoires de se saisir de ces enjeux et de les discuter avec des designers graphiques 5 Notons que le Centre national des arts plastiques (Cnap) organisera fin 2017 un « salon graphique » (journée d’échanges professionnels) intitulé « Publier la recherche », afin de sensibiliser les commanditaires et designers graphiques à ces enjeux., pour qui le champ des publications de la recherche reste encore majoritairement une terra incognita. De plus, la pauvreté visuelle des publications universitaires n’est pas seulement graphique mais aussi bien souvent iconographique. Les auteur/e/s de ce texte ont eu l’occasion de publier dans des revues où la sélection d’images était excellente, mais cela était le plus souvent permis par l’adossement du projet à un éditeur de poids, possédant les moyens humains et financiers de négocier les droits ad hoc. Les publications plus modestes doivent la plupart du temps se contenter d’images de piètre qualité, voire renoncer tout simplement à inclure des visuels — ce qui, autant en design qu’en cinéma est très problématique. En effet, comme le note André Gunthert, contrairement aux textes, « la restriction de citation [des matériaux audiovisuels est] cause de censure. Les contraintes définies pour éviter de porter préjudice aux industries culturelles ont des conséquences particulièrement graves en matière scientifique. Outre l’alourdissement des budgets de la recherche spécialisée, elles interdisent un exercice indépendant de la réflexion et de la critique» (Gunthert, 2013). Pour contourner cette question des droits, nous avons puisé dans notre réservoir de compétences. Irène Dunyach et Saul Pandelakis pratiquant l’illustration en plus du design graphique, il a été décidé de dessiner les images de projets et photogrammes de films 6 Des cas précédents existent, comme par exemple l’ouvrage de culture visuelle L’homme et ses signes de André Frutiger (1978), où toute l’iconographie a été conçue par l’auteur.. Ce choix a desserré nos obligations légales, tout en renforçant notre prise sur l’identité visuelle de la publication finale. L’exercice du re-dessin s’inscrit par ailleurs tout à fait dans une approche de recherche, puisqu’elle croise la pratique de la captation graphique (lors d’événements universitaires) pratiquée par Saul Pandelakis depuis environ deux ans. Bien que la publication n’ait pas été réalisée grâce à des logiciels libres, les auteur/e/s souhaitent s’inscrire autant que possible dans la logique du libre et sa philosophie. Les textes sont ainsi placés sous licence libre Creative Commons CC BY-SA 7 Cette licence autorise à « partager » (copier, distribuer et communiquer le matériel par tous moyens et sous tous formats) et à « adapter » (remixer, transformer et créer à partir du matériel) le contenu pour toute utilisation, y compris commerciale, à condition de « créditer» la source et de la « redistribuer » sous les mêmes conditions. afin de favoriser le partage des connaissances. La question des licences d’utilisation des polices a également fait l’objet d’une attention spécifique, spécialement dans le cadre de publications (potentiellement) multisupports, tant les modalités contractuelles sont diverses et difficile à comprendre (Adebiaye, 2017): le choix de polices de caractères libres de droits (SIL Open Font License), dans un projet au budget réduit, est alors une évidence. Les polices utilisées dans les actes CinéDesign, référencées dans l’ours, sont Lil Grotesk (Bastien Sozeau), Lora (Olga Karpushina & Alexei Vanyashin) et Logisoso (Mathieu Gabiot). Les chapitres seront rendus disponibles, à terme, sur le site Web du projet cinema-design.fr) afin d’augmenter leur visibilité. Bien que les directeur/trice/s de publication des actes CinéDesign aient toujours souhaité que ceux-ci existent sous une forme imprimée, ce choix n’a jamais été fait à l’encontre, ou par opposition à une possible publication numérique. Une fois l’imprimé réalisé s’ouvrira un temps de conversion des textes pour une lecture sur écran et sur le Web. L’aspect multi-supports est donc réel, même si à l’heure où ces lignes sont écrites, la publication existe d’abord, en théorie, comme un objet papier. L’éthique du libre affecte également ces méthodologies. Il est notre souhait de voir d’autres chercheur/se/s s’emparer de cette première expérimentation, pour en tester les limites et en éprouver les contours. D’autres approches restent bien sûr à découvrir, l’idée générale étant de voir se raréfier les expressions de surprise (certes joyeuses) du/de la chercheur/se qui se rappelle d’un texte cinq ans après son écriture, en raison d’une publication qu’il/elle n’espérait plus. Considérant les conditions de ce « sprint» éditorial, il apparaîtra sans nulle doute des coquilles, erreurs, imprécisions. Nous les assumons et souhaitons que cette publication, plutôt que de couronner notre journée d’études, en soit le témoignage instantané, vivant, et serve de laboratoire d’expérimentation à nos projets futurs — tel le colloque CinéDesign à venir en 2018, qui ne manquera pas de s’appuyer sur cette publication. Nous ne sommes pas tant un comité de lecture qu’un commité, au sens du « commit» proposé par le protocole technique contributif Git, c’est-à-dire d’un choix qui ne se fait jamais sans la validation des pair/e/s, immédiate, agile, dans un temps partagé. Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017

Making the Multiple Singular: Artistic NFTs, Speculation and Redistribution

Date

November 2021

Type

Publication

Contexte

Paper written with Guillaume Helleu for the research journal Multitudes, which appeared in November 2021. Translated from French by Aviva Cashmira Kakar.

Résumé

This paper explores the issues concerning blockchain technologies within the realm of the creative (art, design, video games, etc.), which have arisen since the development of non-fungible tokens (or NFTs) in 2015. NFTs are essentially the production of a decentralized digital certificate that is impossible to forge, which is then linked to a numerical or tangible entity. NFTs have emerged into the mainstream since the beginning of 2021 due to a massive surge in sales and the development of specified marketplaces. NFTs have brought to the fore a variety of issues concerning value, circulation, and the exposure of artistic and cultural productions.

Peut-on encore ne pas travailler ?

Date

June 2017

Type

Publication

Contexte

Anthony Masure, «Peut-on encore ne pas travailler?», Cité du Design / ESADSE, Azimuts, no47, juin 2017, p.20-35

Résumé

Tandis que le travail, en crise, est de plus en plus recherché, mince est la limite entre des emplois salariés, pour lesquels il faut en faire toujours plus, et une myriade de micro-tâches non rémunérées, qui donnent l’impression de travailler jour et nuit. Autrement dit : peut-on encore ne pas travailler ? Afin de traiter ce paradoxe, nous examinerons tout d’abord le passage du métier à des professions employées à faire croître le capital. Ensuite, après avoir vu en quoi l’époque contemporaine pourrait signer une possible « mort de l’emploi », nous analyserons en quoi le développement du « labeur numérique » (digital labor) et des objets supposément « intelligents » (smart) brouille la distinction entre le temps libre et le temps travaillé. Afin de sortir de ces impasses, nous nous demanderons si le design, en tant que travail de « qualités » inutiles, pourrait permettre d’envisager de nouveaux rapports au temps.

Combattre le formatage. Principes pour une recherche artistique ouverte

Date

October 2021

Type

Publication

Contexte

Entretien avec Sylvain Ménetrey dans ISSUE – Journal of art & design, HEAD – Genève, Focus no 10, « Faut-il institutionnaliser la recherche artistique ? Réactions et contre-propositions à la Déclaration de Vienne ».

Résumé

En juin 2020, des organisations européennes de tutelles de l’enseignement supérieur en art se sont regroupées pour produire un document intitulé la Déclaration de Vienne sur la recherche artistique. L’objectif de cette démarche est d’offrir un cadre à la recherche en art tant sur le plan des objectifs que des aboutissements. Ce texte rappelle et poursuit le travail engagé par la Déclaration de Bologne de 1999 qui a conduit à l’harmonisation de l’enseignement académique en Europe à travers la mise en place du système LMD (Licence/Bachelor, Master, Doctorat). Jugée réductrice et néo-libérale par Nienke Terpsma et Florian Cramer, la Déclaration de Vienne s’est développée sans consultation des principaux et principales concerné·es : les artistes.

Christophe Neumann
Transmédia : Qui règne sur les mondes fictifs ?

Date

June 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Transmédia. Nouvelle manière de raconter les histoires, évolution audiovisuelle, intéressons-nous aux raisons de cet engouement. En analysant le phénomène de la franchise Star Wars, nous parviendrons à mieux comprendre la mécanique derrière la narration transmédia. Poursuivons ensuite avec un décryptage du concept de fiction. Narration, média et transmédia, modes de financement, nous tâcherons de poser les bases nécessaires à la compréhension de cette nouvelle manière de raconter. Plongeons ensuite au sein des communautés de fans, coeur du dispositif transmédia. Partageons l’espace d’un instant leurs motivations, leurs règles et leurs sentiments. A travers plusieurs exemples, nous verrons ce qui alimente cet amour et ce qu’ils attendent d’une oeuvre de fiction. Enfin, assistons à une lutte pour le pouvoir, symbole d’un conflit d’autorités, symptôme d’un système de références emphatiques qui confine à la canonisation et à la religion. Affrontement et défi, foi et réalisme, l’équilibre délicat derrière chaque fiction transmédia concourt à définir qui régnera sur un monde de fiction dont on attend beaucoup. Créateur, producteur et fans, appât du gain, gloire ou respect, est-ce possible de les départager ?

Revue Back Office

Date

December 2015 — June 2023

Type

Projet

Contexte

La revue a été cofondée en 2017 par Kévin Donnot, Élise Gay et Anthony Masure. Elle est coéditée par les éditions B42 et Fork éditions.

Résumé

Le design à l’ère des big tech : tactiques de résistance dans un écosystème globalisé

Date

December 2024

Type

Publication

Contexte

Entretien avec Florence Jamet-Pinkiewicz publié dans la revue Digital des étudiant·es de l’École Estienne en DSAA DCN, 2025, p. 77-84.

Résumé

Cet entretien revient sur les transformations du design à l’ère des grandes plateformes technologiques : évolution du rapport aux outils et aux IA génératives, enjeux de médiation des savoirs, projets de recherche-création (Play-to-Learn, Fucking Tech!, CryptoKit), et rôle politique et esthétique du design numérique.

NFTs Beyond the Visible: Poised Between En Bloc Rejection and New Chains of Value

Date

September 2022

Type

Publication

Contexte

Paper written with Guillaume Helleu for the journal AOC, which appeared in September 2022. Translated from French by Aviva Cashmira Kakar.

Résumé

NFTs (non-fungible tokens) appeared in 2017. They are tamper-proof decentralized digital certificates which have gained fame because of their appropriation by the art world. NFTs have attracted a great deal of controversy, and are frequently accused of being speculative, useless and polluting. We propose to examine these polemics, founded for the most part, in order to show that other approaches are possible. In fact, artistic applications are merely one link in the chain, and NFTs cannot be reduced to their mere visible aspect, they require a wider examination of their value systems, distribution chains, and methods of governance.

Notions

Personnes citées

The improvised economics to the Web3

Date

May 2023

Type

Publication

Contexte

Anthony Masure, Guillaume Helleu, “The improvised economics to the Web3,” LSD, no 3, May 2023, pp. 175-183

Résumé

Emerging in 2017, NFT s (Non Fungible Tokens), are un-forgeable, decentralised certificates that have become famous through their use in the art world. While this usage is what has brought them media attention, they actually are simply one part of a far wider technological movement often marketed as “Web3” 1 Appeared with Ethereum as a response to the Web 2.0 of the GAFAM, the Web3 proposes an all-in-one ecosystem: a monetary system (Bitcoin) within an economic system (DeFi) to exchange digital assets (NFT s), the whole managed by a governance system (DAO) using digital identities (DID s).. Web3, or the new order of Web To understand the workings of this new iteration of the Web based on decentralised blockchain 2 The term blockchain refers to a distributed ledger for storing, certifying and sharing information in a decentralised manner. The data is replicated in multiple storage spaces, forming a public chain secured by the addition of the various nodes of the network. This chain is designed to make information unalterable and transactions unfalsifiable. technologies, first we have to review its predecessors. Invented in 1989 by Tim Berners-Lee at the Cern, the Web - which later came to be called Web 1.0 - brought the promise of a utopia where all the world’s scientific knowledge could be shared through simplified publication proto-cols. However, as it turned out, it was too technically complex for use by the general public. This “read-only mode” allowing for nothing more than the consulta-fion of documents gave rise to corresponding marketing strategies for devices such as the laptops, smartphones and modems that occupy such a central place in our daily lives and yet were not conceived as servers suitable to function as Web sites able to store and manage information. This problem of access was addressed by the Web 2.0 that arose in the 2000s with the development of participative platforms such as social media (Flickr, MySpace, Facebook, Twitter, etc.) where anyone can create an account and share information on a mass scale. The main problem with the “platformisation” of the Web paradigm that predominates today resides in the non-distribution of the value produced by Web users and its increasing centralisation. Reacting against the hegemony of the GAFAM s 3 The term blockchain refers to a distributed ledger for storing, certifying and sharing information in a decentralised manner. The data is replicated in multiple storage spaces, forming a public chain secured by the addition of the various nodes of the network. This chain is designed to make information unalterable and transactions unfalsifiable. (and their Asian avatars), the renewed promise of decentralisation raised by the Web3 could restore ownership and control over their data to ordinary Web users. Five key principles will mark this historic shift: 1 – A monetary system Bitcoin 4 Bitcoin (฿, 2009) is a decentralised digital protocol that allows transactions of monetary values independently of traditional financial institutions and fat currencies. It was invented by a person, or group of anonymous people, using the pseudonym Satoshi Nakamoto. (2009) and other cryptocurrencies will play a key role. 2 – An economic system D e F i (Decentralised Finance) can be defined as a financial transaction environment that no longer requires traditional intermediaries such as brokers, exchanges and banks. Various D e F i protocols like Compound (2019) and Uniswap (2018) create gateways between traditional and decentralised economies through the introduction of “stablecoins” (Tether, 2014; Dai, 2017; Binance USD, 2018), value tokens 5 A token, or authentication token, is a digital representation of a value (currency, social share, artwork, etc.) verified in a blockchain. based on Fiat 6 The value of a fat currency is imposed by a state in an identified territory, and its management is entrusted to a central bank. For example, the value and distribution of the Euro is managed by the European Central Bank (ECB), while the dollar is managed by the United States Federal Reserve (FED). The word fiat is determinist. It comes from Latin and means, in the imperative mode, “Let it be done.” currencies. They make it possible to exchange these state-issued currencies without going through traditional channels (SWIFT), and they function almost instantaneously. Working 24/7 and almost impossible to stop, by January 2022 D e F i represented a market worth more than 200 billion dollars. 3 – A property system NFT s can transform any digital entity into merchandise. In the field of art, the best-known example is CryptoPunks, 10,000 files containing images (originally 24 × 24 pixels) distributed without charge over the Ethereum 7 Ethereum (2015) is a decentralised, collaborative exchange platform, originally envisioned by Vitalik Buterin as an upgrade to Bitcoin. Ethereum extends the principles of Bitcoin to move from a currency to a configurable value system, particularly via the use of smart contracts. network. Thanks to blockchain technology, there can be thousands of copies of a single CryptoPunk 8 CryptoPunks (2017) are a famous collection of NFT s representing computer-generated pixelated characters. meme, but only one of them contains a digital signature and thus has value. 4 – A governance system A project launched in April 2016 called the DAO (Decentralised Autonomous Organisation) marked the appearance of new kinds of governance that prevent fraud and corruption through previously-established rules and smart contracts 9 Smart contracts enable value to be programmed by automating the triggering of actions within a blockchain and recording the results.. While DAO s make governmental processes such as voting and the approval and execution of decisions more fluid, they raise possible concerns insofar as they can become substitutes for traditional state functions, regulatory bodies and so on justice systems, associations, unions, etc.). 5 – An identity system DID s (Decentralised Identifiers) are sure to become a major issue in the coming decades. In a world where the concept of identity has never been so much brought into question and the profiling carried out by GAFAMs so problematic, the need for a new system of identity has become obvious. Web 1.0’s traditional authentif-cation mechanisms (email and password) have been replaced, to some degree, bysociallogins (Facebook Connect, 2008; Google Sign In, 2015; Sign in with Apple, 2019), all of which entrain the problems inherent in Web 2.0 (targeted advertising, data capture, dependence on private actors, etc.). In contrast, Web3 offers new forms of online authentification through the use of wallets such as MetaMask 10 MetaMask (2016) is a digital wallet of cryptocurrencies and tokens that allows interaction with many decentralised applications and environments. (2016). These kinds of decentralised and user-owned protocols provide for a better interoperability of data while allowing users to control what they want to share. Their possible integration into Instagram and Twitter shows that we are in a transitional phase between Web 2.0 and Web3, with no guarantee, at this point, that the problems Web3 is supposed to solve will not be replaced by even more serious risks. Towards improvised economies? ? In contrast to the traditional economy where only sovereign states (or central banks) are authorised to issue currency, Web3 technologies make it possible for anyone (with the necessary technical skills) to not only create digital spaces, but even program value systems and thus economic models based on the principles of already-existing innovations like local currencies, SCOPS (Cooperative and Participative Societies) and participative financing (crowdfunding). The latter has been updated through the use of NFT s, with initiatives like Stoner Cats (2021) - an animated multi-episode entertainment series with access limited to owners of special tokens, and Hamlet Within (2022) - a documentary by the British avantgarde filmmaker Ken McMullen sold as an NFT on the Cineverse network and divided into several “unique” parts only available to token buy-ers. As McMullen explains, the artistic model (of movies) will become totally participative, thus changing the aesthetic vocabulary of the twenty-first century so that game thinking becomes predominate. In this respect, the still unstable “play-to-earn” paradigm pop-ularised by video games like Axie Infinity (2018) gives players back most of the rewards earned by the sale of in-game collectables. More generally speaking, Web3 creates new ways to use these technologies, greater economic creativity and even a kind of legal design 11 Legal design is a practice that aims to introduce and facilitate the understanding of law to all. User-centered, legal design is by definition multidisciplinary and collaborative.. Smart contracts, for example, are NFT-associated scripts that offer, among other things, the automatic distribution of the initial gains and profits from future resales, accruing either to the artist or the designer thus updating the concept of artist resale rights), or for donations to institutions such as NGO s as well as foundations that produce open-source applications like those found on the NFT platform Teia.art. These smart contracts can also serve unexpected purposes, such as allowing a piece of property to be divided into multiple fragments, setting a ceiling on resale prices, and bringing about a process of deflation based on time lapsed or external factors. Here we are approaching the farthest frontiers of the art world where artworks are produced according to rules governing the relations between humans and non-human entities. For instance, Nouns DAO (2021) is a treasury financed by the number of daily sales of an NFT. Owners can vote to use this money to support all sorts of projects. Botto (2021) is an art robot whose taste is conditioned by community members’ weekly votes. The result of this AI heuristics is automatically put up for sale as an NFT. In light of all these examples, it’s probable that the next few years will provide opportunities to study the tensions between long-standing capitalist logics (which readily appropriated the anarchist logic of Bitcoin) and new “improvised economies” that, while still embryonic, may yield more redistributive outcomes.

L’avenir des médias

Date

March 2023

Type

Conférence

Contexte

Forum-débat sur l’avenir des médias, Genève, PULSE Incubateur.

Résumé

Avec le développement des médias sociaux au milieu des années 2000, les mass médias traditionnels (presse, radio, TV) doivent relever un certain nombre de défis. Les journalistes professionnels (formés à la recherche et au tri d’informations, à l’investigation, aux méthodes d’entretien, etc.) se voient concurrencés par des amateur·trices éclairé·es, influenceur·euses, grand public, etc. Si ces dernier·ères ont pour mérite de traiter de nouveaux sujets et d’offrir un éclairage subjectif auquel le jeune public s’identifie plus facilement, la promesse d’une agora permettant un partage des savoirs à l’échelle planétaire est perturbée par le caractère « toxique » des plateformes propriétaires : ce qui fait de l’audience et ce qui est mis en avant par les médias sociaux est, d’abord, ce qui crée la polémique, d’où une défiance envers l’argumentation raisonnée et la démarche scientifique (fake news). Basés sur l’économie de l’attention, ces derniers favorisent le divertissement et les formes courtes. Cette tendance est renforcée par le recours aux algorithmes, lesquels biaisent la perception de la réalité lorsqu’ils ne proposent aux consommateurs que les informations qui les renforcent dans leurs opinions et leurs croyances. Par ailleurs, le financement par la publicité des médias traditionnels entraîne une défiance vis-à-vis de leur indépendance (concentration au sein de grands groupes, par ex. en France ; une tendance qui se confirme en Suisse également). Face à ces défis, plusieurs types d’initiatives ont été engagés. Des médias indépendants (pure players) ne dépendant pas de la publicité s’appuient sur la transparence des financements et des choix éditoriaux documentés, des chercheur·euses investissent les médias sociaux pour diffuser des connaissances propres à leur domaine, des podcasts et chaînes YouTube proposent des longs formats à contre-courant de la tendance à la réduction, l’offre de podcasts permet d’aborder des sujets complexes avec le sentiment de proximité propre à l’audio, et des journalistes issu·es de médias traditionnels investissent les médias sociaux avec une forte présence personnelle. Ce sont ces mutations contemporaines des médias que cet événement se propose d’explorer sous le mode d’un forum-débat, un format dynamique propice aux échanges et partages de connaissances.

Productions de recherche

Date

Type

Contexte

Résumé

Visual Culture. Open Source Publishing, Git et le design graphique

Date

November 2014

Type

Publication

Contexte

Anthony Masure, «Visual Culture. Open Source Publishing, Git et le design graphique», Strabic.fr, novembre 2014

Résumé

Le collectif Open Source Publishing (OSP) propose aux designers graphiques de s’inspirer des méthodes de programmation informatique en vigueur depuis de nombreuses années, notamment dans le logiciel libre. Placé en financement collaboratif (crowdfunding) en novembre 2014 sur la plateforme Kiss Kiss Bank Bank, leur projet « Visual culture, un outil pour le design collaboratif (avec Git) » nous donne ainsi une parfaite occasion d’envisager des façons de faire du graphisme qui ne soient pas marquées par les logiques dominantes type Adobe.

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

January 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

AVANT C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! QUELLES SOLUTIONS ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

Résister aux boîtes noires. Design et intelligence artificielle

Date

December 2019

Type

Publication

Contexte

Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notions

Personnes citées

Objets mentionnés

Combien une Haute école émet-elle de CO2 ? L’exemple d’une conférence du cycle Talking Heads

Date

May 2022

Type

Publication

Contexte

Article publié dans ISSUE – Journal of art & Design, revue en ligne de la HEAD – Genève.

Résumé

Le « Calculateur carbone campus », développé depuis novembre 2021 par la HEAD – Genève en partenariat avec la HEG, a pour objectif de sensibiliser le personnel des hautes écoles aux émissions de CO2 de leurs différentes activités (pédagogie, évènements culturels, projets de recherche, mobilité, chauffage des bâtiments, etc.). Actuellement, les outils de ce type sont d’une ergonomie complexe, peu adaptés aux besoins des HES, et sont la plupart du temps propriétaires et onéreux. De façon plus fondamentale, ces logiciels sont conçus pour mesurer a posteriori les émissions de carbone produites par des entreprises ou institutions (dans le cadre de bilans annuels, etc.), ce qui a pour effet d’éloigner le calcul des nuisances de leurs origines. Si l’on définit la notion de responsabilité, en termes juridiques, comme l’« obligation faite à une personne de répondre de ses actes du fait du rôle, des charges qu’elle doit assumer et d’en supporter toutes les conséquences », alors il faut que les personnes concernées puissent être en mesure de comprendre les implications de ce qu’elles font pour que l’imputation des actions puisse avoir du sens – et d’aller ainsi à contre-courant de la tendance à la dilution de la responsabilité. Les captures d’écran reproduites ci-dessous présentent un cas pratique de calcul. L’outil est présenté dans un état de développement intermédiaire, et pourra encore évoluer d’ici à la fin du projet (été 2022). Cas pratique : calcul du CO2 émis par une conférence Talking Heads Le 13 janvier 2022, la HEAD recevait la designer matali crasset dans le cadre de son cycle de conférences Talking Heads. Parmi les différents postes d’émission de CO2, la catégorie achats représentée ci-dessus réunit tout le matériel qui a été employé pour l’évènement comme par exemple, un rétroprojecteur, deux caméras, des micros et d’autres appareils de la régie, de même que les dépenses de communication (affiches, communication digitale). Les chiffres obtenus pour les équipements sont une portion temporelle de l’empreinte globale de chaque appareil en partant de l’idée qu’ils seront employés en moyenne pendant environ cinq ans à l’école. L’impact carbone des appareils dont l’empreinte carbone n’est pas directement quantifiable est dérivé de leur prix d’achat (ratio monétaire). Aux achats s’ajoutent les émissions liées à la maintenance de la salle du Cube pendant la période donnée (chauffage, éclairage, nettoyage), les déplacements de matali crasset, d’Alexandra Midal (TGV Paris-Genève) ainsi que des 60 membres du public (un forfait qui mêle transport public et privé, distance courte et longue). La catégorie fret qui comprend les émissions liées aux transport de marchandises n’est pas concernée. Aucun déchet lié à l’évènement n’a été produit. Dans chaque rubrique, le calculateur propose à l’usager un menu déroulant avec une base de données de matériaux, d’appareils ou de type de transport à rapporter à leur durée d’utilisation, leur poids, leur prix, ou d’autres données permettant de calculer les émissions. Société carbone Le choix du carbone comme une unité de calcul s’explique par son côté facilement transposable. Quand on fait une activité, on peut savoir combien de carbone est produit. Par exemple, 1 kwh électrique produit avec du charbon équivaut à 1 kg. de CO2, alors que 1 kwh produit par l’hydraulique totalise 4 grammes de CO2. Grâce à l’évaluation carbone, il est possible de comparer des activités, des produits, des événements a priori très divers. Le carbone est une molécule trouvée naturellement dans l’atmosphère. Une grande partie a été stockée dans de la biomasse vivante (arbres, végétation) ou morte / fossilisée (pétrole, charbon, entre autres). Par son activité, l’être humain fait sortir ce carbone stocké dans l’atmosphère à un niveau trop haut pour la capacité de résorption du système terre. Dès lors, on a défini une certaine quantité maximale que chaque être humain devrait produire par année (600 kg. /année) en fonction de ce que le système Terre est capable de renouveler. Toutefois, un Européen moyen produit 4500 kg. par année de par ses activités (calcul incluant les infrastructures existantes pour la société telles que les routes, les bâtiments publics, etc.). Certain cas sont complexe. Par exemple, le bois en croissance emmagasine du carbone. En revanche, sa coupe, son transport, son usinage et son utilisation vont en produire. Le bilan global calculé peut s’avérer neutre ou positif. L’intérêt d’identifier ses émissions de CO2 ne concernant pas que les grandes entreprises ou les industries polluantes, chacun·e à son échelle doit être capable de pouvoir estimer son empreinte carbone dans sa vie privée et professionnelle. Pour faire face à ces enjeux, l’outil développé par la HEAD et la HEG a pour objectif de permettre au personnel des HES, quel que soit leur fonction dans l’institution, d’une part d’estimer a priori – et de façon collaborative et didactique – les émissions de CO2 de la façon la plus didactique possible, et d’autre part de mesurer a posteriori ce qui a été produit. Le calculateur campus, en cours de développement à la HEAD, considérera ainsi les 5 aspects transversaux communs aux hautes écoles : les infrastructures (bâtiment), les achats, la mobilité, le fret et les déchets. Cette catégorisation facilitera la mise en place d’un état des lieux, de mesures d’accompagnement, et de réduction d’émission de CO2. Plus précisément, l’outil sera utilisable pour plusieurs niveaux de calcul : bilan carbone annuel du campus, empreinte carbone d’un projet (ex. : projet de recherche), ou encore émissions liées à une seule thématique (ex. : mobilité). À terme, l’outil permettra d’analyser et de comparer les activités des diverses HES de Suisse romande voire d’autres institutions partenaires. La HEG apporte son expertise au projet par la fourniture des catégories et des données : chaque facteur d’émission est relié à une source d’information afin que les formules de calcul puissent être vérifiées voire actualisées. La HEAD, quant à elle, apporte des compétences d’ergonomie, d’interface et de programmation, permettant le développement d’un logiciel agréable d’usage et économe en énergie (utilisation du CMS « statique » Kirby). Dans une optique d’ouverture et de transparence, le code source du calculateur sera placé sous licence libre dans un dépôt GitHub. En terme de design, pour être plus précis, l’enjeu consiste faciliter la saisie et à rendre intelligibles au plus grand nombre des informations abstraites afin de mesurer les conséquences des choix effectués. Graphiquement, l’outil de saisie en ligne comprend ainsi une série de pictogrammes spécifiques et d’infographies visant à faciliter la compréhension des émissions de CO2 – ce qui tranche avec l’ergonomie souvent trop complexe des calculateurs actuellement disponibles. — Crédits du projet Requérants et coordinateurs Anthony Masure (responsable de la recherche à la HEAD – Genève, HES-SO) Yves Corminboeuf (délégué au développement durable à la HEAD – Genève, HES-SO) Laurent Cornaglia (chargé de cours à la HEG, HES-SO) Développement graphique et technique Vincent de Vevey (vacataire en communication visuelle, HEAD – Genève) Nicolas Baldran (assistant pédagogique en Master Media Design, HEAD – Genève) Financement : HEAD – Genève, HEG, HES-SO Genève.

NFT-mania. L’art d’être vu

Date

May 2022

Type

Publication

Contexte

Entretien avec Sophie Abriat pour la revue Madame Figaro.

Résumé

Les collectionneurs achetaient leur Van Gogh dans le plus grand secret. Aujourd’hui, sur le Web, on adore montrer les œuvres virtuelles qu’on a la richesse de s’offrir. Décryptage du nouveau paraître digital par Sophie Abriat pour la revue Madame Figaro.

Du design « responsable » à la prudence dans le faire

Date

December 2022

Type

Publication

Contexte

Article rédigé pour la revue de recherche Multitudes, no 89, « Design is the answer, but what was the question? », dir. Francesca Cozzolino, Emanuele Quinz, Barbara Szaniecki.

Résumé

Terrain d’étude privilégié des productions industrielles, le design est pointé aujourd’hui comme un champ à reconstruire. Depuis quelques années, il se voit affublé d’une multitude de qualificatifs : « écodesign », « design social », « design éthique », « design inclusif », etc. On peut se demander si cette tendance à le renommer ne met pas en évidence une difficulté à comprendre ce qui pose problème dans le design « tout court » : le design aurait‑il perdu de sa force subversive pour être désormais parfaitement intégré aux forces productives ? Comment situer le rôle ou la tâche du design, pris entre désir et besoin, entre économie et morale ? Existe‑t‑il une responsabilité propre au design ?

Principes pour une recherche-création ouverte

Date

December 2022

Type

Publication

Contexte

Texte pour un ouvrage d’hommage à Lysianne Léchot Hirt, Genève, MétisPresses.

Résumé

On doit à Lysianne Léchot Hirt d’avoir initié l’analyse des caractéristiques de la « recherche-création » en design dans le paysage franco-suisse à une époque, dès 2007, où celle-ci ne faisait guère l’objet de débats et de tentatives de modélisation qu’au Canada ou au Royaume-Uni. Financée sur 18 mois par le fonds stratégique (RCDAV) de la HES-SO, cette étude, intitulée « CreaSearch 1 Équipe de recherche HEAD – Genève et Ecal (Lausanne) : Magdalena Gerber, Lysianne Léchot Hirt, Florence Marguerat, Manon Mello, Laurent Soldini. », avait pour objectif « l’élaboration de méthodologies et de modèles pour une activité de recherche basée sur les processus de création en design et en art ». Réunies dans un un ouvrage-bilan publié en 2010 2 Lysianne Léchot Hirt (dir.), Recherche-création en design. Modèles pour une pratique expérimentale, Genève, MétisPresses, 2010. et reprenant dans son sous-titre l’idée des « sciences expérimentales » (où les résultats découlent d’une série d’expérimentations explicitée en amont et en aval), les conclusions de ce projet permettent d’éclairer un certain nombre de questions toujours pertinentes à plus de dix ans d’écart. S’attachant à partir de pratiques notamment développées dans les écoles d’art et de design en Suisse (HES) suite aux Accords de Bologne (1999) 3 Acté par le processus de Bologne en 1999, le lissage des cursus académiques à l’échelle européenne (LMD pour Licence, Master, Doctorat) a eu pour effet leur mise en concurrence à l’échelle internationale., Lysianne Léchot Hirt démontre que la recherche-création ne saurait se réduire au romantisme d’une création sans méthode, mais qu’il est possible, et souhaitable, d’en tracer une modélisation non normative pour exercer un jugement critique sur les projets se réclamant de cette appellation.

La HEAD décrypte le numérique

Date

June 2023

Type

Publication

Contexte

Anthony Masure, Aurélie Gfeller, « La HEAD décrypte le numérique », Go Out!, no 111, juin 2023, p. 43-45

Résumé

Le numérique est au coeur des entreprises et de notre quotidien. Il se met au service de tous les secteurs d’activités : la finance, l’industrie, les télécommunications, le commerce, la sécurité mais aussi l’aide à la personne, l’éducation, le sport, la musique, etc. Normal que les formations autour de ces fluctuations digitales fleurissent. Ainsi, dès le 10 juillet prochain, c’est la Haute école d’art et de design (HEAD) qui s’enrichit d’une nouvelle formation continue unique en son genre autour de la transition numérique sous forme de 8 modules courts en dialogue les uns avec les autres. De quoi booster sa carrière et sa créativité ! Tête-à-tête avec deux grands experts de la pédagogie et du numérique, et créateurs de ce nouveau cycle de formation : Aurélie Gfeller et Anthony Masure. Pourriez-vous nous parler de ce nouveau cycle de formation sur la transition numérique? Pourquoi ce nouveau cursus ? Anthony Masure (AM) – Avec les récentes vagues de transformations numériques, le monde a changé : on est passé de logiciels plus ou moins spécialisés à des environnements où il est de plus en plus difficile de s’orienter et pour lesquels on a plus que jamais besoin de repères. Les artistes et designers ont toujours été précurseurs des usages et détournements des technologies ; c’est pourquoi nous pensons que la HEAD – Genève a un rôle à jouer dans la compréhension des mutations contemporaines ! Aurélie Gfeller (AG) - Dans un monde où l’accélération des changements technologiques entraîne la disparition de certains métiers tout en en créant d’autres, les professionnels, qu’ils soient aguerris ou fraîchement diplômés, doivent constamment renouveler leur palette de connaissances et de compétences. Le temps leur manque cependant pour s’engager dans une formation de longue durée. Avec ces modules de 8 à 10 demi-journées, susceptibles de s’insérer à terme dans un CAS (Certicate of Advanced Studies), nous souhaitions proposer une formule aisément accessible, aussi bien en termes de coût (CHF 1’200.- par formation) que d’investissement personnel. Quelles sont vos fonctions respectives au sein de cette formation, et qu’est-ce qui vous a plus dans cette dernière ? AM - Je suis responsable de la recherche et professeur associé à la HEAD, avec un focus personnel sur le design et les technologies. Avec Aurélie Gfeller, nous sommes convaincus que le numérique offre un terrain de jeu à même d’intéresser un public élargi. Nous avons imaginé ce cycle de formations comme une initiation à un ensemble de champs qui sont en train de modifier de nombreuses professions. J’interviendrai également dans les modules « Web3 Basics » et « Web-to-Print », avec dans les deux cas une promesse de nouvelles expressions créatives et d’opportunités économiques. AEG - Je suis responsable des études et professeure associée à la HEAD – Genève. À ce titre, je coordonne nos 15 formations Bachelor et Master. À mon entrée en fonction en octobre 2021, il m’est d’emblée apparu évident que la HEAD – Genève avait une carte à jouer au niveau de la formation continue, destinée à des professionnels en emploi. Nos concours d’admission Bachelor et Master étant très sélectifs, la HEAD donne parfois l’impression d’être inaccessible. Nous souhaitions montrer que cette école genevoise, de renommée internationale, pourrait aussi s’ouvrir à un public plus large, basé essentiellement à Genève et en Suisse romande. À qui est-elle destinée ? AM - Nous avons pour ambition d’intéresser, via les moyens de l’art et du design, un public plus large que les métiers de la création, et qui puisse y trouver une voie d’accès ouverte et prospective. Toute personne concernée par l’avenir des métiers de la culture, au sens large, et ceux de la communication peut ainsi se sentir concernée. Qui sont les intervenants experts sur l’AI conviés à y participer ? AM - Ce module associe deux enseignants de la HEAD– Genève experts de ces technologies en plein essor : Etienne Mineur, designer d’interactions et cofondateur de l’entreprise Volumique, et Douglas Edric Stanley, artiste, designer, curateur, développeur et théoricien, qui tous deux travaillent sur ces enjeux depuis déjà plusieurs années. Ensemble, ils couvriront à la fois l’histoire culturelle des IA et aussi leur prise en main pratique, depuis des services grand public comme Chat GPT ou Midjourney jusqu’à des alternatives plus ouvertes. AEG - La thématique mais aussi la notoriété des intervenants ont d’emblée suscité un grand engouement. La session de l’été 2023 sur l’intelligence artificielle a été complète à peine ouverte. Nous prévoyons ainsi de proposer une nouvelle session avec les mêmes intervenants début 2024. Comment sont composés les 8 modules du programme? Y a-t-il des pré-requis à ces derniers ? AM - Chaque module dure de 4 à 5 jours et la plupart du temps aucun prérequis n’est exigé. Nous accordons une grande place à l’accessibilité des informations transmises, avec un soin particulier porté aux supports de cours et documents fournis, dont certains ont fait l’objet de recherches spécifique – comme pour le module sur la blockchain qui se base sur un guide visuel de ces technologies et qui a été inventé à la HEAD. Qu’y apprend t-on concrètement? Que peut-on attendre à la fin de cette formation ? AM - Des thématiques comme les intelligences artificielles, les environnements 3D, la blockchain ou le web-to-print sont autant de mutations profondes actuelles et potentielles des métiers de la culture. Avec ce cycle de formation continue, nous permettrons au public d’être acteur des transformations de sa profession plutôt que de subir des vagues d’innovation toujours plus rapides. AEG - Si l’on entre dans le détail de chaque formation, les participants à la formation « Modélisation d’expositions en 3D » (juillet 2023) – artistes, curateurs, scénographes, régisseurs, monteurs, responsables d’institutions, conservateurs ou encore commissaires d’exposition – apprendront à utiliser un programme (SketchUp) afin de traduire une idée dans un plan 3D ou de modéliser des oeuvres dans différents espaces. Ils deviendront dès lors capables de comprendre la plus-value et les limites de ces modes de représentation et de les utiliser de manière pertinente pour offrir au public une expérience convaincante. La formation « Web3 basics » (septembre-octobre 2023), quant à elle, prend du recul sur la mode des NFT et donne des clés de compréhension aux métiers de la culture pour fédérer de nouvelles communautés et des modèles économiques plus redistributifs.

Des interfaces graphiques aux IA. Vers un design à sens unique ?

Date

January 2024

Type

Publication

Contexte

Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.

Résumé

À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.

L’horlogerie à l’ère des NFT

Date

April 2022

Type

Conférence

Contexte

Organisation d’une journée de conférences avec Guillaume Helleu dans le cadre du salon professionnel « Time to Watches », HEAD – Genève, 3 avril 2022.

Résumé

Apparus autour de 2014 dans le champ artistique, les NFT – des certificats de propriété infalsifiables et décentralisés attachés à des fichiers numériques – se sont depuis étendus à une multitude de domaines : luxe et horlogerie, mais aussi transports, santé, immobilier, finance, etc. Grâce à des assets 3D, les NFT dans l’horlogerie permettent d’atteindre une nouvelle clientèle, celle du jeu vidéo (on compte en 2022 près de 3 milliards de joueur·euses) et demain des métavers. Mais les NFT peuvent aussi être utilisés pour fidéliser la clientèle existante, pour authentifier les objets tangibles, ou encore pour repenser les chaînes de valeurs. C’est l’ensemble de ces enjeux que le salon « Time to Watches » se propose d’explorer.

Design sous artifice, présentation à la journée d’étude CulturIA

Date

May 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice à la journée d’étude « IA, imaginaires et arts contemporains », ANR CulturIA, Paris, ENS Ulm.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles (prompts). Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

AI as a hatred of democracy? An art and design point of view

Date

September 2023

Type

Conférence

Contexte

Communication avec Florie Souday (ENS Paris-Saclay) au colloque international « AI and Education for Democracy », UNESCO EVA Chair, Université Côte d’Azur, Nice.

Résumé

Available from 2021 for as many people as possible, machine learning has created several issues for schools (ie. teaching objectives, exams, etc.). At the same time, these generative technologies are questioning the foundations of democracy, challenging notions of veracity, privacy, ownership and shared values. With its twofold American and Chinese hegemony, AI has become an insidious cultural model for the rest of the world. It doesn’t lend itself well to the development of democracy – if we define this concept as a dynamic principle that “thwarts the normal distribution of power” (Jacques Rancière). What reconfigurations are needed to ensure that AI is not a threat but an opportunity for democracy? How can we redefine education to achieve this objective?

Autres activités

Date

Type

Contexte

Résumé

Collecta : archive numérique de la collection Gaignières (1642-1715)

Date

November 2014 — June 2016

Type

Projet

Contexte

Résumé

Initié par Sophie Fétro (Université Paris  1 Panthéon-Sorbonne) et Anne Ritz-Guilbert (École du Louvre), le projet «  Collecta  : des pratiques antiquaires aux humanités numériques  » a pour objectif de constituer une archive en ligne de la collection de l’antiquaire François-Roger de Gaignières (1642-1715) constituée de plusieurs milliers de relevés textes et iconographiques relatifs à l’histoire de France (monuments, monarchie, clergé, etc.). Ce projet comprend la mise au point d’un site Web capable de reconstituer la totalité de la collection Gaignières, dispersée et en partie disparue, en restituant son classements et son processus d’élaboration. Une première version du site Web a été présentée lors du colloque international «  Collecta  : des pratiques antiquaires aux humanités numériques  » à l’Ecole du Louvre en avril 2016. Le site sera rendu public fin 2016.

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias