Date
May 2015
Type
PublicationContexte
Emeline Brulé, Anthony Masure, «Le design de la recherche : normes et déplacements du doctorat en design», Paris, PUF, Sciences du Design, no1, mai 2015, p.58-67
Résumé
Prenant acte d’une spécificité du design quant au travail des supports d’expression, cet article se donne comme champ d’étude les formes et formats de thèses dans le contexte de la recherche en design. Nous considérerons ici la thèse comme un «type» de document ayant intégré au fil du temps un certain nombre de conventions qui ne sont que trop rarement interrogées. Nous reviendrons tout d’abord sur son évolution historique et discuterons des conventions et normes des thèses en design à l’heure actuelle. Nous étudierons ensuite la manière dont ces dernières structurent le travail de recherche pour nous demander si la recherche en design se doit d’en créer d’autres, ou si elle doit œuvrer à les déconstruire. Enfin, nous nous demanderons si le design peut être vu comme un «laboratoire» permettant de déplacer les façons de faire de la recherche, au sens large.
Notions
Personnes citées
Objets mentionnés
Médias
Date
April 2023
Type
BlogContexte
Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]
Résumé
Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2018
Type
ConférenceContexte
Introduction et organisation de la journée d’étude « Stranger Screens : usages et interfaces des écrans non-rectangulaires », université Toulouse – Jean Jaurès / Master DTCT
Résumé
Graphisme : Raphaël Bastide Contexte de la journée d’étude L’histoire des écrans d’informations est celle d’une succession de technologies de calcul (processeurs, cartes graphiques, etc.) allant de pair avec différentes technologies d’affichage (cathodique, plasma, cristaux liquides, plasma, etc.). Alors qu’une diversité de formes et de formats coexistait aux débuts de l’informatique personnelle à la fin des années 1970, les écrans numériques se sont progressivement homogénéisés en rectangles de plus en plus fins et plats. On peut pourtant observer ces dernières années un intérêt pour les écrans non standards, notamment dans les domaines de l’architecture et des objets connectés (circulaires, triangulaires, plans ou en volume, etc.). Des fabricants (Sharp, Samsung, etc.) proposent désormais des surfaces souples, découpables, combinables, etc., dont l’étrangeté se révèle incompatible avec les systèmes d’exploitation (OS) – qui sont pensés pour des trames orthogonales. Dans ce contexte foisonnant, quels usages repenser voire inventer ? Que peuvent les designers face au poids des habitudes et des normes du numérique ? — Captations vidéo 9h30 – Anthony Masure, MCF en design, UT2J Introduction, « Les normes du numérique » — 10h15 – Marcos Serrano, MCF en IHM, IRIT, équipe Elipse « Présentation du programme de recherche Free form display » — 11h15 – Pourang Irani, PR en IHM, université du Manitoba, Canada « Présentation de travaux de recherche en IHM » — 12h – Nolwenn Maudet, docteure en design & IHM, Inria / Ex{Situ} « Repenser les interfaces des logiciels de création » — 14h30 – René Speranza, informaticien, fondateur de l’association Silicium « Une histoire des écrans et des technologies d’affichage » — 15h15 – Raphaël Bastide, artiste et designer graphique « Prototyper sur le Web » NB. : cette conférence n’a pas été filmée pour des questions de format, s’agissant de démos techniques — 16h – Louise Drulhe, artiste et designer graphique « Le numérique et ses formats » — Source des vidéos : Canal-U, université Toulouse – Jean Jaurès
Notions
Personnes citées
Objets mentionnés
Date
December 2018
Type
PublicationContexte
Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique »
Résumé
Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?
Notions
Personnes citées
Date
November 2022
Type
PublicationContexte
Article rédigé avec Alexandre Saint-Jevin pour l’ouvrage collectif Les devenirs numériques des patrimoines, Paris, UDPN, 2022.
Résumé
En déniant à la recherche ses dimensions esthétiques, les chercheur·euses pensent se protéger d’une capitalisation du savoir et de sa spéculation financière. Or l’impensé des enjeux esthétiques de leurs travaux ne fait que renforcer ces problèmes. L’analyse de plusieurs cas d’étude entre design et science met en évidence que la dimension critico-créative que le design apporte aux sciences n’annule pas la dimension critico-discursive que les sciences apportent au design. Ainsi, le format n’a pas pour fatalité de (seulement) formater mais peut aussi « former » les savoirs : il s’agit de dépasser l’idée réductrice d’une « science du design » au profit d’un « design des sciences ».
Notions
Personnes citées
Objets mentionnés
Date
November 2018
Type
PublicationContexte
Article publié dans la revue de recherche Sciences du Design, Paris, Puf, no 8, novembre 2018, p. 67-78
Résumé
Selon le philosophe Jacques Derrida, la distinction métaphysique entre l’écriture et la parole (logos) entraîne une dépréciation de l’écriture et interroge par extension la prétention d’une « pure » pensée à exister séparément de sa représentation graphique. Nous proposons de mettre en résonance l’analyse de ce « logocentrisme » avec le champ des publications numériques de recherche, où la forme demeure majoritairement impensée. En montrant au travers de l’étude de deux publications en ligne (GAM3R 7H30RY et Haunted by Algorithms) comment certaines pratiques de design graphique permettent de dépasser l’opposition forme/contenu, nous soutenons que la prise en compte de la dimension esthétique de l’écriture peut contribuer à dérouter et à renouveler les pratiques de recherche communément installées.
Notions
Personnes citées
Objets mentionnés
Date
May 2021
Type
PublicationContexte
Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.
Résumé
How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2021
Type
BlogContexte
Anthony Masure, « Filtrer un CV scientifique ? », blog AnthonyMasure.com, 27 janvier 2021
Résumé
La valorisation des parcours de recherche scientifique impliquent nécessairement la construction et la mise à jour d’un CV de recherche. Ce format, aux normes variables suivant les pays, institutions, jurys et bailleurs de fonds, est souvent fastidieux à mettre à jour (reformatage) et à consulter (longueur des documents). Comment améliorer cela ?
Notions
Personnes citées
Objets mentionnés
Date
December 2014
Type
ConférenceContexte
Conférence donnée à l’EESAB Rennes autour de la thèse Le design des programmes
Résumé
La plupart des « guides » à destination des concepteurs de programmes numériques visent à établir des listes de normes ou de « bonnes pratiques ». Ces approches nous paraissent insuffisantes, car elles évacuent d’emblée des considérations philosophiques, politiques et morales. Alors que toutes les activités humaines sont progressivement affectées par des programmes parfois menaçants et étouffants, sous quelles conditions le design peut-il faire que les objets techniques deviennent des « appareils » ouverts sur des perspectives émancipatrices d’inventivité individuelle et collective ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
November 2017
Type
ConférenceContexte
Making of de ma thèse et conversation avec Pierre-Damien Huyghe dans le cadre de la journée d’échanges professionnels « Salon graphique ‹ Publier la recherche › », Paris, Cnap / ENSBA
Résumé
Cette discussion prend comme point de départ une thèse de doctorat en esthétique réalisée par Anthony Masure. L’ancrage du sujet dans les champs du design et des technologies numériques a conduit à investir des compétences techniques au sein même du travail de thèse, tant sur la forme graphique imprimée que sur ces différentes versions numériques : fichiers ePub de relectures, PDF augmenté de sections cliquables, et développement d’un site Web adaptatif (responsive) dédié. Présenté lors de la soutenance publique, ce dernier – www.softPhD.com – permet de lire la thèse en intégralité, les contenus texte étant placés sous licence libre CC BY-NC-SA. En quoi ces pratiques de publication, encore peu répandues dans la conduite d’un doctorat, modifient-elles les relations entre la direction et la rédaction de la thèse ? Comment peuvent-elles ouvrir de nouvelles directions de recherche tout en prenant en compte les normes en vigueur ? Quelles perspectives de diffusion et de communication permettent-elles ?
Notions
Personnes citées
Objets mentionnés
Date
December 2022
Type
PublicationContexte
Article rédigé pour la revue de recherche Multitudes, no 89, « Design is the answer, but what was the question? », dir. Francesca Cozzolino, Emanuele Quinz, Barbara Szaniecki.
Résumé
Terrain d’étude privilégié des productions industrielles, le design est pointé aujourd’hui comme un champ à reconstruire. Depuis quelques années, il se voit affublé d’une multitude de qualificatifs : « écodesign », « design social », « design éthique », « design inclusif », etc. On peut se demander si cette tendance à le renommer ne met pas en évidence une difficulté à comprendre ce qui pose problème dans le design « tout court » : le design aurait‑il perdu de sa force subversive pour être désormais parfaitement intégré aux forces productives ? Comment situer le rôle ou la tâche du design, pris entre désir et besoin, entre économie et morale ? Existe‑t‑il une responsabilité propre au design ?
Notions
Personnes citées
Objets mentionnés
Date
June 2010
Type
PublicationContexte
Anthony Masure, « iPad et mimesis », journée d’étude à propos de László Moholy-Nagy, laboratoire de recherche CREDE, juin 2010
Résumé
Étude et analyse de l’interface de lecture de l’application iBooks sur iPad : comment sortir d’un modèle mimétique pour proposer une expérience de lecture singulière ?
Notions
Personnes citées
Objets mentionnés
Médias
Date
January 2017
Type
PublicationContexte
Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.
Résumé
AVANT C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! QUELLES SOLUTIONS ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.
Notions
Personnes citées
Objets mentionnés
Date
September 2017
Type
PublicationContexte
Irène Dunyach, Anthony Masure, Saul Pandelakis, «La publication buissonnière : guide tactique pour les pratiques éditoriales universitaires», dans : actes de la journée d’étude «CinéDesign : pour une convergence disciplinaire du cinéma et du design» des 6 & 7 octobre 2016, dir. Irène Dunyach & Saul Pandelakis, université Toulouse - Jean Jaurès, laboratoire LLA-CRÉATIS, septembre 2017
Résumé
Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Les événements scientifiques qui réunissent des chercheur/se/s et des praticien/ne/s, notamment au sein des universités, donnent lieu à un grand nombre de publications: actes de journées d’études, actes de colloques, anthologies, revues retraçant des séminaires, mais aussi affiches, plaquettes, sites Web, etc. Les temporalités qui relient les différentes étapes de la vie d’un projet de recherche se retrouvent donc étirées par le temps, variable, qui sépare un événement de sa mise en livre ou en revue, et qui se compte habituellement en années. Ces délais sont en grande partie dus à des protocoles éditoriaux fastidieux: comités de sélection, comités de relecture, partenariats avec des éditeur/trice/s dont les calendriers sont prévus longtemps à l’avance, impression et fabrication auprès d’imprimeur/se/s partenaires, pour finalement atteindre la diffusion, sans parler de la communication des productions. Pour autant, ces processus sont aussi majoritairement perçus, dans le monde de la recherche, comme des choix méthodologiques garants de la rigueur scientifique indispensable à un travail de qualité universitaire. Cependant, les chercheur/se/s admettent souvent souffrir des durées élastiques de conception marquées par les nombreuses étapes de relectures, réécritures, lissages, validations, et lourdeurs administratives que des protocoles fragmentés entraînent inévitablement. Ces écarts temporels entre l’expérience et sa retranscription, qui peuvent facilement dépasser deux années, génèrent des décrochages, voire des désengagements de la part des auteur/e/s et du lectorat, sans parler de l’obsolescence qui atténue parfois la qualité d’un ouvrage qui, paraissant bien trop longtemps après l’événement dont il est issu, ne prend pas en compte les avancées récentes du domaine dans lequel il s’inscrit. Cela est particulièrement le cas dans la recherche en design, champ où les avancées techniques et technologiques se succèdent, et où les usages ne cessent de se transformer: un ouvrage scientifique perd de sa valeur à mesure que se creuse le gouffre qui éloigne son point de départ à sa diffusion éditoriale. Le sentiment le plus cruel de cet écart se mesure souvent dans le temps de l’enseignement, lorsque l’enseignant/e-chercheur/se souhaite partager ses recherches les plus actuelles avec ses étudiant/e/s et doit souvent (parfois en hésitant) communiquer l’article à paraître, qui devient du coup référencé dans un mémoire qui sera, lui, rapidement rendu disponible. Les durées propres à la publication universitaire existent donc à plusieurs niveaux, en asynchronie avec les pratiques pédagogiques qui sont l’horizon du texte de recherche. Dès lors, comment répondre à ces enjeux, et quelles tactiques adopter? À partir de l’étude d’un cas concret, la publication imprimée et numérique des actes de la journée d’études « CinéDesign, pour une convergence disciplinaire du cinéma et du design 1 Voir la publication de l’événement en ligne : cinema-design.fr et univ-tlse2.fr» qui s’est tenue à l’Université Toulouse – Jean Jaurès les 6 et 7 octobre 2016, cette contribution se propose d’esquisser de nouvelles façons d’envisager l’édition scientifique. Faisant écho à des réflexions sur les pratiques éditoriales « marginales» qui traversent simultanément nos recherches (Irène Dunyach, Anthony Masure et Saul Pandelakis), les actes CinéDesign ont été pensés comme l’expérimentation d’une approche décalée du processus de publication scientifique traditionnel. Nous qualifions ici cette démarche de publication « buissonnière», dans le sens où notre ouvrage, parce qu’il s’affranchit des processus habituels, c’est-à-dire anonymes de la revue par les pairs (souvent connue dans sa traduction anglaise de peer review) s’affirme comme une réponse délibérément « indisciplinée». Il ne s’agit pas cependant de rejeter toute méthodologie universitaire — celle-ci reste le fondement de nos formations et de nos activités de recherche. Pour autant, face au rythme interne d’un projet de recherche dont l’échelle temporelle est plutôt le mois que l’année, nous avons décidé d’enjamber quelques règles choisies, avec la pleine conscience que ces libertés nous demanderaient par ailleurs une plus grande rigueur, ainsi qu’un plus grand engagement personnel. Il apparaît que des formes plus fluides et plus légères de protocoles éditoriaux sont à tester, inventer et démocratiser. En ce sens, et pour cette publication, nous avons cherché à tirer avantage des outils numériques en ligne: les étapes de relectures, d’écritures des textes introductifs et conclusifs, et les discussions qui accompagnent ces étapes se sont déployées sur des documents partagés, où les différent/e/s organisateur/trice/s pouvaient commenter, transformer et modifier les textes simultanément. Cette dynamique collaborative a également été mise en avant pour les phases de relectures: nous avons décidé de ne pas constituer de comité scientifique, mais de demander à la place aux différent/e/s participant/e/s locaux/ales de la journée d’études et de la publication de se relire entre eux/elles, dans une gymnastique croisée. Ainsi, les auteur/e/s ont relu leurs collègues, qui les ont relu/e/s en retour. En plus de permettre l’émulation d’une pensée interne et de créer de nouveaux croisements entre les réflexions grâce aux dialogues qui ont émergé de cette mécanique transversale (suggestions de références, de compléments et de précisions directement issus des autres contributions), ce dispositif a permis une remise à plat des différent/e/s participant/e/s, sans qu’une hiérarchie ne se constitue et ne devienne écrasante. Au contraire, ceci a favorisé la prise d’initiative de la part des auteur/e/s, qui ont été parties prenantes dans le processus éditorial. Cette démarche nous semble participer d’un positionnement mobile et mouvant face à la recherche en design, positionnement qui tend à favoriser les échanges et à mettre en retrait les différences dans les statuts des différent/e/s participant/e/s pour se consacrer aux convergences de leurs pensées — comme cela a été mis en avant dans la mise en forme du programme de la journée d’études CinéDesign, où seuls les noms des structures de rattachement accompagnaient ceux des communicant/e/s. Cela se traduit également par une volonté d’intégrer autant que possible des designers et des cinéastes aux futurs événements de CinéDesign, pour encourager les entrelacements entre la théorie, la pratique, et l’analyse de cette pratique. La méthodologie adoptée pour la publication des actes a été la suivante: • Les chapitres des contributeur/trice/s, dès réception par mail en février 2017, ont été versés sur une plateforme de stockage de fichiers synchronisée, Google Docs. Le choix d’une solution propriétaire nous a donné des regrets, mais les temps compressés de publication nous ont incité/e/s à utiliser les outils sur lesquels nous sommes les plus agiles. L’ergonomie des logiciels libres, et plus largement l’attention portée à leur design, fait (malheureusement) encore débat dans les relations entre designers et développeur/se/s (Dubedout, 2017), ce qui ralentit indirectement le développement de programmes pleinement « travaillables» spécifiques au champ de la recherche scientifique 2 Citons comme exemple d’exception le programme Peritext développé par Robin de Mourat : https://github.com/peritext. • Les chapitres ont tous été relus par au moins deux contributeur/trice/s durant le mois d’avril 2017. Le panel se composait des personnes organisatrices du projet (Irène Dunyach, Saul Pandelakis) et des membres fondateurs du groupe (les sus-cité*es, Mélanie Boissonneau, Anthony Masure), ainsi que d’enseignant/e/s en design de l’Université Toulouse – Jean Jaurès ayant rejoint le projet lors de la journée d’études (Fabienne Denoual, Brice Genre). à l’exception de Mélanie Boissonneau, toutes les personnes mentionnées sont amenées à se voir physiquement sur leur lieu de travail (le campus de l’université, situé au Mirail), ce qui constitue un atout majeur pour la coordination. Une grande partie du travail a cependant été effectuée de manière « dématérialisée», ce qui correspond aux emplois du temps asynchrones et aux sollicitations diverses des un/e/s et des autres à l’extérieur de l’université. • Suite à la première relecture, les articles ont été renvoyés aux contributeur/trice/s en mai et juin 2016 pour qu’ils/elles valident les corrections effectuées et qu’ils/elles reprennent le propos de manière plus approfondie quand nécessaire. • Irène Dunyach, Anthony Masure et Saul Pandelakis ont ensuite relu l’ensemble des articles et ont effectué de concert les dernières corrections nécessaires. • La maquette de l’ouvrage a été réalisée par Irène Dunyach et Saul Pandelakis en juin-juillet 2017 en partant de contraintes économiques strictes. Il était prévu de financer la publication des actes CinéDesign grâce à une bourse iDex 3 Ladite bourse a été obtenue par Saul Pandelakis lors de son recrutement en 2015 en tant que maître de conférences. Ce dispositif, dit des nouveaux entrants, lui a permis de bénéficier de 14 000 euros pour financer ses recherches et un ¾ temps en 2015-16., comme cela avait été le cas pour la journée d’études. Le système des achats piloté par l’université nous a cependant contraint/e/s à renoncer à cette solution, la bourse devant être dépensée avant une date butoir (le 15 juin 2017). Ajouter Blurb.fr à la liste des partenaires commerciaux de l’université aurait pris trop de temps et aurait signifié la perte du reliquat de la bourse. Saul Pandelakis a ainsi jugé que l’obtention de la bourse en 2015 constituait une compensation satisfaisante, lui ayant permis de nombreuses économies sur les années universitaires 2015-16 et 2016-17. El a pour ces raisons décidé de financer l’ouvrage sur fonds propres. Dans ce contexte, nous avons opté pour un folio noir & blanc, autopublié sur Blurb.fr, ce qui induit un choix de format et de papier spécifique à cette plateforme. Blurb propose des services dont la qualité, le coût et le délai de fabrication sont en accord avec nos exigences, et offre par ailleurs la possibilité d’une impression à la demande (vente en ligne automatisée, ce qui permet d’une part de faire face à un éventuel épuisement du premier tirage, et de permettre à des personnes extérieures à l’événement de commander facilement l’ouvrage, sans gestion de la part de l’université). Par ailleurs, Anthony Masure avait déjà expérimenté ce service dans le cadre du Master Design graphique du Campus de la Fonderie de l’Image (Bagnolet), pour rendre disponibles des articles de recherche d’étudiant/e/s (Masure, 2013). • Sur le plan graphique, toujours pour des questions d’efficacité, la mise en page a été réalisée sur le logiciel propriétaire Adobe InDesign, dédié à la conception de médias imprimés. Ces dispositifs nous ont permis de jouir d’une totale autonomie sur la question des choix graphiques, tout en réduisant considérablement les délais évoqués plus haut: la journée d’études s’est tenue au mois d’octobre 2016 et ces actes ont été achevés en août 2017, soit dix mois plus tard. Les derniers points, relatifs au processus de conception, font résonner la place du design dans le contexte éditorial de la publication scientifique. En effet, un grand nombre d’ouvrages et de revues semblent révéler un intérêt « limité» pour la mise en forme, et plus largement pour le design graphique: on constate bien souvent une uniformité et, par conséquent, une pauvreté au niveau des langages visuels déployés. Cette situation peut s’expliquer par les partenariats exclusifs qui sont établis entre les universités et leurs maisons d’édition rattachées, qui très souvent sous-traitent les mises en page et proposent des couvertures réalisées sur un même modèle très sommaire: une image, un bloc de couleur, un titre, un logo — la relation entre les éléments étant le plus souvent fortuite et peu maîtrisée. Les questionnements liés aux choix typographiques, aux marges, aux grilles éditoriales et aux vocabulaires visuels ne sont que rarement pris en compte, et les « styles» se répètent d’un ouvrage à l’autre dans une ressemblance monotone. Les dispositifs éditoriaux qui régissent les publications scientifiques ne se font pas le reflet des dynamiques de recherche, et nous semblent façonner une image parfois défraîchie de la recherche à l’université — et ce d’autant plus quand les publications se réclament des champs de l’art et du design, directement en prise avec la notion de forme. Ceci fait écho à l’article d’Émeline Brulé et Anthony Masure (2015) à propos du design de l’« objet thèse» qui clôt une recherche de doctorat, et qui est donc le premier objet graphique que tout/e chercheur/se réalise au début de sa carrière. Comme les deux auteur/e/s le soulignent, cet « objet thèse» reste encore enfermé dans des contraintes formelles qui empêchent toute liberté créative, ce qui semble dénaturer, voire parasiter, le propos d’une recherche en art ou en design. La thèse marquerait donc la première étape d’un processus de normalisation du langage visuel des supports éditoriaux de la recherche, qui devraient pourtant être les émissaires graphiques d’une pensée dynamique et innovante. Car le milieu de la recherche tend à valoriser une énergie sans cesse renouvelée qui nourrit les pensées et propulse les avancées, autant théoriques que pratiques. Des exceptions allant dans ce sens existent: citons notamment la maison d’édition Zones Sensibles 4 Voir aussi les démarches, malheureusement isolées, des éditions B42, Nouveau Document, B2, ou encore de la revue Carnets de Science du CNRS. pour qui « si, d’après certains pleureurs, les livres de sciences humaines ne se vendent plus, c’est moins […] parce que le lectorat manque qu’en raison de la pauvreté graphique de la plupart des livres» (Baratin, 2017). Le design graphique ne se résume pas ici à une question d’embellissement, mais doit se comprendre comme un travail du rapport entre le sens et la forme, ou encore, comme le définit Annick Lantenois, comme «[…] l’un des instruments de l’organisation des conditions du lisible et du visible […]. Traiter visuellement les informations, les savoirs et les fictions, c’est donc concevoir graphiquement leur organisation, leur hiérarchie, c’est concevoir une syntaxe scripto-visuelle dont les partis pris graphiques orientent les regards, les lectures» (Lantenois, 2010, 11). Cette attention portée au regard, à la lisibilité, à la hiérarchie de l’information, aux rapport texte/image, à la fabrication de l’objet, etc. participe pleinement, selon nous, d’un travail devant faire l’objet d’une réflexion spécifique – et ce d’autant plus lorsque la publication a vocation à aborder des enjeux liés au design. Nous préconisons ainsi aux chercheur/se/s, aux éditeur/trice/s et aux directeur/trice/s de laboratoires de se saisir de ces enjeux et de les discuter avec des designers graphiques 5 Notons que le Centre national des arts plastiques (Cnap) organisera fin 2017 un « salon graphique » (journée d’échanges professionnels) intitulé « Publier la recherche », afin de sensibiliser les commanditaires et designers graphiques à ces enjeux., pour qui le champ des publications de la recherche reste encore majoritairement une terra incognita. De plus, la pauvreté visuelle des publications universitaires n’est pas seulement graphique mais aussi bien souvent iconographique. Les auteur/e/s de ce texte ont eu l’occasion de publier dans des revues où la sélection d’images était excellente, mais cela était le plus souvent permis par l’adossement du projet à un éditeur de poids, possédant les moyens humains et financiers de négocier les droits ad hoc. Les publications plus modestes doivent la plupart du temps se contenter d’images de piètre qualité, voire renoncer tout simplement à inclure des visuels — ce qui, autant en design qu’en cinéma est très problématique. En effet, comme le note André Gunthert, contrairement aux textes, « la restriction de citation [des matériaux audiovisuels est] cause de censure. Les contraintes définies pour éviter de porter préjudice aux industries culturelles ont des conséquences particulièrement graves en matière scientifique. Outre l’alourdissement des budgets de la recherche spécialisée, elles interdisent un exercice indépendant de la réflexion et de la critique» (Gunthert, 2013). Pour contourner cette question des droits, nous avons puisé dans notre réservoir de compétences. Irène Dunyach et Saul Pandelakis pratiquant l’illustration en plus du design graphique, il a été décidé de dessiner les images de projets et photogrammes de films 6 Des cas précédents existent, comme par exemple l’ouvrage de culture visuelle L’homme et ses signes de André Frutiger (1978), où toute l’iconographie a été conçue par l’auteur.. Ce choix a desserré nos obligations légales, tout en renforçant notre prise sur l’identité visuelle de la publication finale. L’exercice du re-dessin s’inscrit par ailleurs tout à fait dans une approche de recherche, puisqu’elle croise la pratique de la captation graphique (lors d’événements universitaires) pratiquée par Saul Pandelakis depuis environ deux ans. Bien que la publication n’ait pas été réalisée grâce à des logiciels libres, les auteur/e/s souhaitent s’inscrire autant que possible dans la logique du libre et sa philosophie. Les textes sont ainsi placés sous licence libre Creative Commons CC BY-SA 7 Cette licence autorise à « partager » (copier, distribuer et communiquer le matériel par tous moyens et sous tous formats) et à « adapter » (remixer, transformer et créer à partir du matériel) le contenu pour toute utilisation, y compris commerciale, à condition de « créditer» la source et de la « redistribuer » sous les mêmes conditions. afin de favoriser le partage des connaissances. La question des licences d’utilisation des polices a également fait l’objet d’une attention spécifique, spécialement dans le cadre de publications (potentiellement) multisupports, tant les modalités contractuelles sont diverses et difficile à comprendre (Adebiaye, 2017): le choix de polices de caractères libres de droits (SIL Open Font License), dans un projet au budget réduit, est alors une évidence. Les polices utilisées dans les actes CinéDesign, référencées dans l’ours, sont Lil Grotesk (Bastien Sozeau), Lora (Olga Karpushina & Alexei Vanyashin) et Logisoso (Mathieu Gabiot). Les chapitres seront rendus disponibles, à terme, sur le site Web du projet cinema-design.fr) afin d’augmenter leur visibilité. Bien que les directeur/trice/s de publication des actes CinéDesign aient toujours souhaité que ceux-ci existent sous une forme imprimée, ce choix n’a jamais été fait à l’encontre, ou par opposition à une possible publication numérique. Une fois l’imprimé réalisé s’ouvrira un temps de conversion des textes pour une lecture sur écran et sur le Web. L’aspect multi-supports est donc réel, même si à l’heure où ces lignes sont écrites, la publication existe d’abord, en théorie, comme un objet papier. L’éthique du libre affecte également ces méthodologies. Il est notre souhait de voir d’autres chercheur/se/s s’emparer de cette première expérimentation, pour en tester les limites et en éprouver les contours. D’autres approches restent bien sûr à découvrir, l’idée générale étant de voir se raréfier les expressions de surprise (certes joyeuses) du/de la chercheur/se qui se rappelle d’un texte cinq ans après son écriture, en raison d’une publication qu’il/elle n’espérait plus. Considérant les conditions de ce « sprint» éditorial, il apparaîtra sans nulle doute des coquilles, erreurs, imprécisions. Nous les assumons et souhaitons que cette publication, plutôt que de couronner notre journée d’études, en soit le témoignage instantané, vivant, et serve de laboratoire d’expérimentation à nos projets futurs — tel le colloque CinéDesign à venir en 2018, qui ne manquera pas de s’appuyer sur cette publication. Nous ne sommes pas tant un comité de lecture qu’un commité, au sens du « commit» proposé par le protocole technique contributif Git, c’est-à-dire d’un choix qui ne se fait jamais sans la validation des pair/e/s, immédiate, agile, dans un temps partagé. Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017 Vue de l’ouvrage collectif CinéDesign, dir. Irène Dunyach et Saul Pandelakis, septembre 2017
Notions
Personnes citées
Objets mentionnés
Médias
Date
April 2019
Type
PublicationContexte
Introduction et coordination avec Yves Citton du dossier « Vilém Flusser : vivre dans les programmes », Multitudes, no 74.
Résumé
Encore mal connue, l’ampleur des travaux du chercheur Vilém Flusser est pourtant d’une grande importance pour appréhender la situation contemporaine d’un monde numérique risquant d’aboutir à une société automatisée. Analysant la notion de programme depuis des réflexions sur les mutations de la photographie et de l’écriture, Flusser montre, au contraire, comment les artistes pourraient œuvrer au développement d’un « techno-imaginaire » capable de donner du sens à nos « vies artificielles ».
Notions
Personnes citées
Objets mentionnés
Date
December 2019
Type
PublicationContexte
Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.
Résumé
Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?
Notions
Personnes citées
Objets mentionnés
Date
July 2024
Type
PublicationContexte
Article publié dans le Bulletin de l’Association Française pour l’Intelligence Artificielle, dir. Samuel Bianchini, no 125, juillet 2024, p. 45-49.
Résumé
Apparues pour le grand public avec le lancement de services tels que DALL·E, Midjourney ou ChatGPT, les technologies du machine learning sont à la base de l’IA dite « générative ». Cet article explore comment dépasser la polarisation humain/machine pour saisir les nuances théoriques, politiques et pratiques que ces technologies soulèvent dans le champ du design.
Notions
Personnes citées
Objets mentionnés
Date
May 2025
Type
PublicationContexte
Entretien avec Jérémy Lucas-Boursier et Inès Garmon publié dans Quaderni. Communication, technologies, pouvoir, no 115, « Designer les objets numériques », printemps 2025, p. 13-26.
Résumé
Cet entretien s’intéresse aux enjeux du design face aux dispositifs numériques : la place du logiciel dans la création, la critique des interfaces et des outils d’IA, la pédagogie du design et la médiation des savoirs. Le texte revient sur les recherches d’Anthony Masure autour des notions d’appareil et de dispositif, et sur des projets tels que WYSIWYG, Fucking Tech! et Play-to-Learn.
Notions
Personnes citées
Objets mentionnés
Date
January 2021
Type
BlogContexte
Anthony Masure, « Redesign du site AnthonyMasure.com », blog AnthonyMasure.com, 12 janvier 2021
Résumé
Le site Web AnthonyMasure.com a fait l’objet de plusieurs refontes depuis 2012. Cet article revient sur les différentes versions du site, les parti-pris fonctionnels et formels, et sur la dernière version en date de janvier 2021.
Notions
Personnes citées
Objets mentionnés
Médias
Date
December 2018
Type
ConférenceContexte
Communication dans le cadre des journées d’étude « Objectivité et design graphique : l’interdisciplinarité entre art, image et science », dir. Anne-Lyse Renon et Catherine Allamel-Raffin, université de Strasbourg.
Résumé
Cette communication propose de resituer dans l’histoire de la cartographie topographique du 18e siècle l’émergence, au 19e siècle, de l’objectivité scientifique. Prolongée efficacement au 20e siècle dans la « sémiologie graphique » de Jacques Bertin, cette rationalité du visible influencera largement le champ de la visualisation de données. Cette prise de recul nous permettra d’analyser le récent domaine des Cultural Analytics, qui ambitionne de modéliser les productions culturelles humaines par l’analyse de grands jeux de données. Nous nous demanderons ainsi jusqu’où cette volonté de mathématisation du visible est-elle tenable.
Notions
Personnes citées
Objets mentionnés
Date
December 2018
Type
ConférenceContexte
Introduction à la journée d’étude « Vox Machines », université Toulouse – Jean Jaurès / ESA Pyrénées
Résumé
Contexte de la journée d’étude Apparu dans les objets grand public depuis une dizaine d’année, le champ des « assistants vocaux » s’est tout d’abord développé sous la forme de programmes intégrés à des systèmes d’exploitation pour smartphones (Apple Siri, Microsoft Cortana, OK Google, etc.) puis a récemment été incorporé dans des objets « boîtes noires » autonomes (Amazon Echo, enceintes Google Now, Sonos One, etc.). Mi-2018, un américain sur cinq possédait une « enceinte connectée » et 50% des recherches en ligne se feraient d’ores et déjà à l’oral. Le shopping via commande vocale pourrait représenter aux États-Unis un marché annuel de 40 milliards de dollars en 2022, contre deux milliards en 2018. Le récent succès de ces objets s’appuie sur une promesse de « fluidité » et de « transparence ». Or ces notions oblitèrent d’une part les considérables moyens techniques mis en oeuvre pour faire fonctionner ces programmes, et d’autre part le fait que les langues humaines, tout comme les langages formels, sont elles aussi le résultat d’une construction sociale. Censées apporter plus de confort et de fluidité, les interfaces dites « ubiquitaires » ou « invisibles » annihilent toute réflexivité sur le fonctionnement des programmes car la médiation graphique entre le système technique et nos capacités de prise de décision a disparu. Cette journée d’étude se propose ainsi d’étudier les enjeux techniques, historiques, économiques, politiques et créatifs des « assistants vocaux » afin d’amorcer une analyse critique de ces derniers. Les vidéos des conférences sont consultables ici
Notions
Personnes citées
Objets mentionnés