Anthony Masure

chercheur en design

Recherche

Résultats de recherche

De la sémiologie graphique aux Cultural Analytics, les failles de la mathématisation du visible

Date

décembre 2018

Type

Conférence

Contexte

Communication dans le cadre des journées d’étude « Objectivité et design graphique : l’interdisciplinarité entre art, image et science », dir. Anne-Lyse Renon et Catherine Allamel-Raffin, université de Strasbourg.

Résumé

Cette communication propose de resituer dans l’histoire de la cartographie topographique du 18e siècle l’émergence, au 19e siècle, de l’objectivité scientifique. Prolongée efficacement au 20e siècle dans la « sémiologie graphique » de Jacques Bertin, cette rationalité du visible influencera largement le champ de la visualisation de données. Cette prise de recul nous permettra d’analyser le récent domaine des Cultural Analytics, qui ambitionne de modéliser les productions culturelles humaines par l’analyse de grands jeux de données. Nous nous demanderons ainsi jusqu’où cette volonté de mathématisation du visible est-elle tenable.

CryptoKit, une cartographie visuelle des technologies blockchain

Date

mai 2023

Type

Conférence

Contexte

Conférence « Agora » au Campus Artem, Nancy.

Résumé

Le projet de recherche CryptoKit propose une cartographie visuelle des technologies blockchain et des protocoles Web3 afin de les rendre accessibles à un large public. Il comprend notamment une police de caractères libre de droits de plus de 200 pictogrammes représentant les termes clés des technologies blockchain. Ces symboles peuvent être composés en diagrammes didactiques grâce à un outil dédié disponible sur www.cryptokit.ch.

Perspectives contemporaines de la Sémiologie graphique

Date

janvier 2023

Type

Conférence

Contexte

Conférence donnée dans le cadre du cycle de conférences sur le design dirigé par Catherine Chomarat-Ruiz, session « Contribution du design et des technologies numériques pour la recherche sur le patrimoine scientifique » à l’initiative de Anne-Lyse Renon, Paris, Université Paris 1 Panthéon-Sorbonne.

Résumé

Le projet DESIGNSHS, financé par l’Agence Nationale de la Recherche (2021-2025), réalise la première étude d’envergure portant sur les relations entre design graphique et recherche en sciences humaines et sociales, des années 1950 à nos jours. Le Laboratoire de graphique de Jacques Bertin a été un acteur historique majeur de ce mouvement au croisement de l’innovation graphique numérique et des sciences humaines et sociales, en France notamment dans la deuxième moitié du XXe siècle. Nous présenterons les enjeux méthodologiques et scientifiques du projet et la manière dont le design et les humanités numériques y répondent. Nous explorerons aussi les rayonnements de ce projet tant sur le plan historique qu’épistémologique.

Appareiller les plateformes de partage du savoir

Date

mai 2023

Type

Conférence

Contexte

Conférence donnée dans le cadre du séminaire « Design graphique et sciences sociales », session « Visual analytics et humanités numériques », dir. Charlotte Bigg, Paris, EHESS.

Résumé

Cette communication traitera des enjeux des interfaces de partage du savoir. Si l’on comprend la recherche comme la production de nouvelles connaissances, qu’en est-il de la façon dont celles-ci sont « formées » visuellement ? Autrement dit, que gagnerait-on à ne pas opposer production et communication mais à les étudier de façon entrelacée ? Suffit-il de produire des connaissances pour qu’elles soient opérantes ? Nous proposons d’aborder ces questions sous l’angle des plateformes scientifiques d’archivage et de consultation de documents historiques afin de situer le livrable principal du projet ANR #DesignSHS dans un écosystème plus large : comprendre ces plateformes non pas comme des « outils » mais comme des appareillages de savoirs.

Autres activités

Date

Type

Contexte

Résumé

From Semiology of Graphics to Cultural Analytics: flaws in the mathematization of visible

Date

juillet 2019

Type

Conférence

Contexte

Communication dans le cadre du colloque International Cartographic Conference (ICC), Chair T33, « Design and visual variables: Rethinking Jacques Bertin », dir. Anne-Lyse Renon, Tokyo

Résumé

Cette communication se donne pour objet d’étudier l’héritage de la Sémiologie Graphique de Jacques Bertin dans les visualisations de données contemporaines, et plus précisément dans le champ des Cultural Analytics de Lev Manovich.

Chercher, archiver, exposer

Date

octobre 2021

Type

Conférence

Contexte

Participation à la journée de lancement du projet ANR DESIGNSHS – « Design graphique, recherche et patrimoine des sciences sociales. Le Laboratoire de graphique de Jacques Bertin », Archives Nationales, 14 octobre 2021. Slides reprises d’une communication précédemment donnée à Bordeaux en février 2021.

Résumé

Le Laboratoire de graphique que Jacques Bertin crée et dirige de 1954 à 1985 à l’École pratique des hautes études puis à l’École des hautes études en sciences sociales articule de manière inédite production d’images, visualisation de données et recherche scientifique, souvent en collaboration avec des chercheurs en sciences humaines et sociales. Au travers des nombreux travaux et publications, dont le traité majeur que Bertin publie en 1967, Sémiologie graphique, le Laboratoire a eu une influence majeure sur les pratiques cartographiques ; il est considéré aujourd’hui comme précurseur des recherches sur la data visualisation.

IA et pédagogie : un état de l’art

Date

avril 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

D’un Web omniprésent à des pratiques plurielles

Date

mai 2015

Type

Publication

Contexte

Anthony Masure, «D’un Web omniprésent à des pratiques plurielles», compte-rendu de la conférence de David Larlet aux Rencontres de Lure 2014, Lurs, Après\Avant, no3, mai 2015, p. 52-53

Résumé

David Larlet est artisan, contributeur et citoyen. Un Web sous contrôle Qui a un compte G M ail, Facebook ou Instagram? C’est par cette question en apparence anodine que commençait l’intervention de David Larlet aux Rencontres de Lure 2014, portant sur l’évolution du Web. Cette cartographie de nos pratiques contemporaine dessine un paysage facilement repérable, celui de quelques grands centres s’étant accaparés la plupart du trafic et des données. Devons-nous nous résigner à n’œuvrer que dans une banlieue soumise au contrôle des grands «opérateurs»? L’intervention de David Larlet ayant suscité de nombreuses réactions dans l’assistance, cet article sera ainsi l’occasion de poursuivre les débats par des références complémentaires aux notions développées 1 David Larlet a mis en ligne le texte et les images de sa conférence sur son site personnel  : larlet.fr/david/blog/2014/un-web-omni-present. Le Web de services menace-t-il la démocratie  ? «  On utilise de plus en plus le Web comme une TV », nous dit David Larlet. Force est de constater que «  l’omniprésence  » de certains onglets dans nos navigateurs peut être vue comme le symptôme d’un recentrement problématique, où nous serions contraints de ne pouvoir explorer que des zones protégées et sécurisées. «  On a concentré un réseau qui à la base était acentré », nous dit David Larlet, «  normalement il n’y a pas d’araignée au centre de la Toile  ». La prophétie de Tim O’Reilly s’est réalisée  : le problématique «  Web 2.0  2 Pour une analyse du texte «What is Web 2.0 » de Tim O’Reilly paru en 2004, voir  : Anthony Masure, «  Ouvertures et fermetures du ‹Web 2.0› », dans  : Le design des programmes, des façons de faire du numérique, 2014, [Thèse en ligne], softphd.com/these/web2/intro » s’est construit autour de la notion de «plateformes», où lorsqu’un «service» a du succès il emporte tout («  winners takes all  »), ne laissant derrière lui que des miettes. Pensons ainsi aux voitures avec chauffeur de Uber, dont les pratiques en terme d’espionnage des utilisateurs et de non respect des lois ont tristement marqué l’année 2014  3 Voir par exemple  : Éloïse Bouton, «  Ubergate  », Brain Magazine, novembre 2014, [En ligne], brain-magazine.fr/article/news/21653-Ubergate, faisant dire à l’auteur Evgeny Morozov que la Silicon Valley menace la notion même de démocratie 4 Hubert Guillaud, «  La technologie est-elle un programme politique  ? », Internet Actu, septembre 2014, [En ligne], internetactu.net/2014/09/01/la-technologie-est-elle-un-programme-politique. Les gouvernements nationaux remplacent la régulation a priori par l’étude statistique des effets. Chacune de nos actions est susceptible d’être enregistrée, quantifiée et corrigée pour nous remettre dans le droit chemin, «faisant de la psychologie comportementale le discours favori de la bureaucratie gouvernementale [et] effaçant tout ce qui existe comme différences entre les secteurs de la société 5 Evgeny Morozov, «  La prise de pouvoir des données et la mort de la politique  », Blog de Paul Jorion, août 2014, [En ligne], pauljorion.com/blog/2014/08/25/la-prise-de-pouvoir-par-les-donnees-et-la-mort-de-la-politique-par-evgeny-morozov». Votre futur divorce vaut de l’or Le fait que quelques grands opérateurs contrôlent toute la chaîne porte préjudice à la curiosité et au développement de la personnalité. Ce renfermement a été qualifié de «filtre-bulle 6 Voir  : Wikipedia, [En ligne], en.wikipedia.org/wiki/Filter_bubble» (filter bubble), pour désigner les conditionnements invisibles opérés par les algorithmes des médias sociaux et des moteurs de recherche, «  personnalisant  » chaque requête ou chaque flux d’informations et ne nous confrontant que de moins en moins à des idées ou personnes éloignées de nos supposés «  centres d’intérêts  ». Plus encore, ces programmes au fonctionnement invisible sont désormais capables de modéliser nos existences. Là où les compagnies de cartes bleues type VISA pouvaient savoir quand un couple allait divorcer 7 Nicholas Ciarelli, «  How Visa Predicts Divorce  », The Daily Beast, juin 2010, [En ligne], thedailybeast.com/articles/2010/04/06/how-mastercard-predicts-divorce.html (exemple donné par David Larlet), Facebook est désormais capable de prédire votre vie sentimentale 8 Pascal Riché, «  Quand vous tombez amoureux, voici ce que voit Facebook », Rue 89, février 2014, [En ligne], rue89.nouvelobs.com/2014/02/16/quand-tombez-amoureux-voici-voit-facebook-249983 par une analyse sémantique de vos messages. Ces informations hautement «  stratégiques  » sont pour ces médias l’occasion parfaite de vous proposer de la publicité «  ciblée  ». Toute trace ou action en ligne est susceptible d’être monétisée  : vos productions, relations, ou données de navigation sont le nouveau pétrole des annonceurs. Comme le dit Evgeny Morozov  : «  Quelqu’un, quelque part, finira par vous évaluer en tant que passager, hôte de maison d’hôtes, étudiant, patient, client 9 Evgeny Morovoz, op.  cit.». Pour un Web pluriel Le problème n’est pas tant dans cette collecte qui a peut être toujours existé (qu’on pense par exemple aux fichiers de la Police nationale) que dans le fait que de moins en moins d’acteurs ne soient capable de connecter toutes ces informations, la NSA ou Google par exemple. Comme dans la nouvelle de Borges 10 Jorge-Louis Borges, «  Funes ou la mémoire  » [1942], dans  : Fictions, Paris, Gallimard, 1983. où le protagoniste meurt de son hypermnésie, une mémoire infinie ne sert à rien si elle n’est pas couplée à des fonctions d’association 11 Il faut paradoxalement énormément de stockage pour retenir en mémoire – fut-ce un bref instant – tous les flux d’informations «  en temps réel  ».. Dès lors, comment faire pour qu’un certain Web «  omniprésent  » ne résume pas l’ensemble de nos activités en ligne  ? En portant attention à la façon dont nos données sont stockées (auto-hébergement 12 François Bon, «  De l’art perdu des webcams (digression) », Le Tiers Livre, décembre 2014, [En ligne], tierslivre.net/spip/spip.php : «  ne pas confier à ces plateformes en permanente reconfiguration vos ressources ‹  lentes  ›, le fil profond de votre marche dans ce qui est la pure tradition de l’écriture  ».) et circulent (cryptage), nous pouvons alors reprendre la main et contourner les grands «  centres  ». David Larlet nous donne quelques pistes possibles en mentionnant le moteur de recherche DuckDuckGo, le service de messagerie CaliOpen, ou encore les protocoles de connexion anonymes type VPN ou Tor. S’il ne tient qu’à nous de d’inventer un Web pleinement pluriel, ces démarches ne pourront cependant pas faire l’économie de réflexions politiques.

La saisie comme interface

Date

novembre 2016

Type

Publication

Contexte

Anthony Masure, « La saisie comme interface », dans : Sophie Fétro, Anne Ritz-Guilbert (dir.), actes du colloque scientifique « Collecta. Des pratiques antiquaires aux humanités numériques », École du Louvre, 2016

Résumé

Une vision limitée du design des sites Web, et des programmes numériques en général, consiste à ne s’intéresser qu’à ce qui apparaît à l’écran. Pour aller plus loin, cette contribution vise ainsi à démontrer l’importance, pour les designers, de porter attention à la structuration et à l’agencement des codes source informatiques. Dans le domaine des archives en ligne où les interfaces de saisie sont rarement étudiées en tant que telles, ces enjeux interrogent le rôle et de la place du design. Que demande-t-on à ce dernier dans le contexte des «humanités numériques» ? Comment le design, en envisageant la saisie comme une interface, peut-il contribuer à dépasser une vision instrumentale de la technique ?

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

janvier 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

AVANT C’était devenu le règne des boules de neige. Ils disaient  : «  attracteurs  ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du «  buzz  ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif («  web 2.0  ») avait colonisé les dynamiques de «  publics  » avec des comportements de «  foules  » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective  » à propos des essaims. Les nostalgiques parlaient de «  bêtise grégaire  ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. HANTOLOGIE Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres  : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des «  choix  » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient  : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient  : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir  ? APRÈS Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux  ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. ENTRE-DEUX Un hack. Pardon: LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. AU COMMENCEMENT Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let's be clever and use SETNX. client.multi() .set(["times_indexed", n]) .del("content") .del("comments") .setnx(["destroyed_at", (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log("*** Error updating redis!"); process.exit(1); } console.log("-> Set times_indexed to " + n + ":\t\t" + replies[0]); console.log("-> Did we just destroy content?:\t" + replies[1]); console.log("-> Did we just destroy comments?:\t" + replies[2]); console.log("-> Did we initialize destroyed_at?:\t" + replies[3]); client.quit(); }); } }); [source  : «  unindexed/scripts/query.js  »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) OÙ ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines «  Google material  » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face  ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] QUAND  ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : «  The Value of Art  ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau  : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] QUELS EFFETS  ? Premiers symptômes  : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul  ? Cupidité autodestructrice  ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. QUELLE OCCASION  ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de «  The Value of Art  ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… PAR QUELLE VOIE  ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20   mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. QUELS MÉCANISMES  ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste  : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. QUEL PRINCIPE  ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus  : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. QUELLES CONSÉQUENCES  ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents  : saturés. Puis simplement introuvables. Disparus  ! QUELLES SOLUTIONS  ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde  ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); [...] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __("Failed", 'updraftplus').": "; foreach ($this->storage->get_error_messages() as $key => $msg) { echo "$msg\n"; } die; } [...] die; } [source  : «  updraftplus/admin.php  »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) QUELLES CAUSES  ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. QUELS REMÈDES  ? Le procédé était dirimant  : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header("Content-Type: image/jpg"); echo $imagick->getImageBlob(); } [source  : «  Imagick::addNoiseImage  »](http://php.net/manual/fr/imagick.addnoiseimage.php) QUELLE PROGRESSION  ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus  : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. QUELLES RÉGRESSIONS  ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe  : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. QUELS ANTÉCÉDENTS  ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require('sdk/ui/button/action'); var tabs = require("sdk/tabs"); var data = require("sdk/self").data; var pageMod = require("sdk/page-mod"); var ISBN; var button = buttons.ActionButton({ id: "mozilla-link", label: "Amazon killer", [...] function handleClick(state) { tabs.open("http://www.placedeslibraires.fr/dlivre.php?gencod=" + ISBN + "&rid="); } [source  : «  Amazon-Killer  »](https://github.com/elliotlepers/Amazon-Killer) QUELLES CIRCULATIONS  ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de «  décongestionner  » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux «  autoroutes de l’information  » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du «  gain  ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. QUELS RENVERSEMENTS  ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. QUELLES SUSPENSIONS  ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { "use strict"; […] window.__wlw.hideWords = function(jQuery) { window.__wlw.getTextNodesIn(jQuery, jQuery('body')).remove(); jQuery('iframe').css('opacity',0); jQuery('input').val('').attr('placeholder',''); jQuery('textarea').val('').attr('placeholder',''); jQuery('object').remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source  : «  Wordless Web  »](https://coolhunting.com/tech/wordless-web-ji-lee/) QUELLES EXTINCTIONS  ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu: ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. QUELLES RENAISSANCES  ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. QUELLES ÉCRITURES  ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). QUELLES MUTATIONS  ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue  : Le robocopyright «  ContentID  » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en «  AttentionID  », affectant à chaque vidéo un «  coefficent d’accélération  » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking «  AttentionID  », le script «  slow_max_views.js  » avait par exemple étiré à 30h la durée du clip «  Gargantuan style  » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles  ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode «  esthétique  » de circulation s’activant en fonction des trajets planifiés. Les objets «  connectés  » étaient aussi touchés, eux qui demandaient toujours plus de temps et de «  mises à jour  ». Les montres, lampes, chauffages, prothèses et autres gadgets «  intelligents  » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). QUELS FINANCEMENTS  ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe «  pollen  » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. QUELLES PERTES  ? Ce qu’on appelait «  l’Histoire  » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance  : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient  : un monde sans histoire, un monde sans mémoire  ! Un monde sans civilisation  ! Un retour à la sauvagerie  ! À l’immédiateté ! Un monde «  post-historique  », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. QUEL NOUVEAU MONDE  ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. QUELLES MÉDIATIONS  ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media  : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention «  immédiate  » échappait à la lèpre  : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. HANTOLOGIE (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement  ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille «  humaine  » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait «  s’y sentir  » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres  ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

L’intelligence en défaut des smart cities

Date

janvier 2017

Type

Publication

Contexte

Anthony Masure, «L’intelligence en défaut des smart cities», Sur-Mesure, no 1, «Villes, usages et numériques», janvier 2017

Résumé

Supports d’« innovations » technologiques, les smart cities n’en sont pas pas moins porteuses d’enjeux socio-politiques: les dispositifs invisibles ou opaques des applications numériques, en déplaçant les frontières entre domaine privé et domaine public, entre libertés individuelles et contrôle social, posent en creux cette question: «quelle nouvelle forme donner à l’intelligence collective?»

Vers des humanités numériques « critiques »

Date

juillet 2018

Type

Publication

Contexte

Article publié dans le quotidien d’idées AOC

Résumé

Les humanités numériques, ces pratiques à la croisée de l’informatique et des sciences humaines et sociales, ne se sont que trop peu préoccupées de questions propres au design. Au-delà d’une approche utilitaire, la constitution d’archives et de corpus de connaissances en ligne est pourtant l’occasion de s’interroger sur les rôles que peuvent jouer les designers au sein de ces projets. Dans la situation contemporaine d’une numérisation du monde marquée par une oligarchie des plateformes, les humanités numériques et le design devraient ainsi œuvrer à dérouter la captation des connaissances et les déterminismes technologiques. Des savoirs et pratiques hybrides Les humanités numériques désignent communément un champ de recherche à la croisée de l’informatique et des sciences humaines et sociales (arts, lettres, histoire, géographie, etc.). Initiées dans les années 1950 grâce au traitement électronique de données permettant d’analyser de grands corpus de textes, les humanités numériques ne décollent vraiment qu’avec le développement du Web au début des années 1990 qui ouvre la voie à des collaborations transdisciplinaires et à la mise en ligne des résultats de recherche. De fait, la plupart des projets en humanités numériques s’incarnent dans des jeux de données interopérables (langages Web SQL, TEI/XML, etc.) et des sites Web dédiés (archives en ligne, visualisation de données, etc.). Ce n’est toutefois qu’en 2010, lors de l’événement THAT Camp Paris, que la communauté francophone se fédère via la rédaction du « Manifeste des Digital Humanities » : ce texte collectif prend explicitement position pour une ouverture des connaissances hors des frontières académiques via l’utilisation de licences libres et de processus collaboratifs documentés. Repenser les façons dont les savoirs se constituent et circulent engendre nécessairement des ruptures épistémologiques. La numérisation de documents antérieurs aux technologies numériques (d’encodage par les nombres) ne laisse pas indemnes les éléments de départ. Une fois encodés, les supports de connaissance se prêtent à de multiples utilisations et contextualisations et peuvent «  exister dans des versions différentes, éventuellement en nombre illimité. Ce potentiel est une […] conséquence du codage numérique des médias et de [leur] structure modulaire  » (Lev Manovich). De façon plus générale, les humanités numériques font vaciller et s’hybrider les délimitations universitaires. Les logiques de programmation propres à l’informatique voisinent avec celles – par exemple – des historiens, qui peuvent eux-mêmes être amenés à intervenir sur l’architecture de l’information. Apparaissent alors des problématiques mettant en jeu les méthodes de ces différents champs, voire des frictions entre la rationalité des langages formels informatiques et l’incertitude propre aux (vieilles) humanités. Le design comme mise en tension du capitalisme Le paradoxe est que les objets issus des projets en humanités numériques ne reflètent que peu, dans leurs formes, ces tensions épistémologiques. Les interfaces des archives en ligne de documents historiques, par exemple, se ressemblent quelque soit leur fonds de départ. De façon plus dérangeante, les logiques propres à l’industrie des programmes ne sont que peu remises en question. La « facture » des interfaces de consultation demeure majoritairement impensée et reflète souvent les choix «  par défaut  » des environnements de programmation et des systèmes de gestion de contenus (CMS). De même, dans les rares cas où un designer est présent, cela se fait la plupart du temps en aval des prises de décision propres à l’architecture des données. Le risque est alors d’appliquer sans recul critique des méthodologies propres au design UX (User eXperience), dont l’étude de leur histoire montre qu’elles reposent sur des fondements cognitivistes ayant pour revers de réduire l’expérience humaine à une suite de comportements (modélisations des personas, scripts d’utilisation, etc.). Or l’application de ces processus de conception ne va pas sans poser problème dans le champ des humanités numériques, ancrées dans une culture (du) libre s’opposant à la privatisation des savoirs. De façon plus large, le design «  centré utilisateur  » inquiète la façon dont «  nous  » pouvons nous situer dans ces expériences  : sommes-nous condamnés à n’être que de simples « utilisateurs » ? Que nous dit cette obsession pour le fait de modéliser l’humanité par des encodages numériques  ? Les humanités numériques pourraient-elles – au contraire – devenir l’endroit d’une subversion des technologies et processus dominants ? Nous faisons l’hypothèse qu’une implication du design (et non pas une application, comme le sous-entend l’expression d’« arts appliqués  ») au sein des humanités numériques pourrait permettre, tout en facilitant l’accès aux productions de recherche (promesse du design dit UX), d’en renouveler l’approche. L’histoire du design est en effet traversée de tensions entre l’économie de marché et la recherche de dimensions échappant à la rentabilité et à l’utilité. Aux débuts de la Révolution Industrielle, l’artiste et écrivain William Morris souligne ainsi l’importance de penser un «  art socialiste  » qu’il oppose aux «  articles manufacturés [qui] ne peuvent avoir aucune prétention à des qualités artistiques  » (1891). Le socialiste, dit-il, «  voit dans cette absence évidente d’art une maladie propre à la civilisation moderne et nuisible à l’humanité ». Cette articulation de l’existence humaine à l’esthétique est selon lui la seule façon de parvenir à une «  communauté d’hommes égaux  ». Remplaçons «  socialiste  » par «  designer  », et nous retrouverons à presque un siècle d’intervalle cette idée d’un écart du monde des objets avec le capitalisme dans les écrits du designer Victor Papanek (1971), pour qui le bridage des activités créatives fait que «  la morale et la qualité de la vie [souffrent] immensément sous notre système actuel de production de masse et de capital privé ». Il en résulte, selon Victor Papanek, que «  le designer doit obligatoirement comprendre clairement [tout comme chaque être humain, pourrions-nous ajouter] l’arrière-plan politique, économique et social de ses actes  ». Une vingtaine d’années après Victor Papanek, le critique d’art Jonathan Crary dresse l’histoire des «  nouvelles constructions institutionnelles d’une subjectivité productive et contrôlée  » apparues au XIXe siècle, dont les enjeux résonnent fortement avec la situation contemporaine d’une société numérisée. Dans Techniques de l’observateur (1990), Suspensions of perceptions (2000), puis 24/7 (2013) Jonathan Crary fait émerger la problématique de l’attention, qui «  peut [alors] s’imposer comme un enjeu intellectuel, autant que politique  » (Maxime Boidy). Le rapport avec les humanités numériques prend alors sens  : face à un monde des apps qui ambitionne de réduire au maximum notre temps de sommeil (24/7), ces dernières pourraient au contraire, via leur recul historique et leur inscription dans la recherche, démontrer que d’autres modalités d’être-au-monde sont possibles. Les humanités numériques ne doivent pas seulement viser la numérisation des connaissances mais également les manières dont cet encodage affecte et transforme les êtres humains. Démontrer que l’informatique personnelle, issue des théories cybernétiques de la Guerre Froide, peut être mobilisée dans des directions insoupçonnées permet de lever l’idée d’un déterminisme technologique. La rencontre entre le design et les humanités numériques, si celle-ci n’est pas de l’ordre d’une commande mais d’une recherche commune, pourrait ainsi permettre d’explorer de nouveaux pans de la connaissance en levant les impensés présidant à la construction et à la valorisation des savoirs en milieux numériques. Vers des humanités critiques Au-delà de la numérisation de corpus et de la mise en ligne, de nouveaux défis attendent donc les chercheurs en humanités numériques pour peu que le couple informatique/SHS fasse place au design. Nous proposons en guise de conclusion quelques directions de travail allant dans ce sens. Réduire la barrière technique de l’accès aux données L’open data est partout convoqué, or on constate dans les faits que la mise à disposition des données nécessite des prérequis techniques souvent trop importants pour des non-spécialistes. Le format tabulaire .CSV est le plus accessible pour commencer à travailler, mais ce dernier n’est pas systématiquement proposé, au détriment de méthodes plus lourdes (récupération de flux JSON via des API, etc.). Le workshop « Fabriquer des jeux de données en art » qui s’est tenu en mai 2018 dans le cadre du groupe de travail «  Art, design et humanités numériques  » de l’association Humanistica (Clarisse Bardiot et Nicolas Thély) a proposé des méthodologies pédagogiques relatives au champ des digital art history : identification et nettoyage de jeux de données, construction de visualisations, etc. Un outil permettant de générer des fichiers CSV à partir du portail Europeana a été développé à cette occasion. Interroger l’idéal d’une sémantique universelle Le modèle du Web sémantique (Tim Berners-Lee, 2001) ambitionne de relier l’éparpillement des connaissances humaines par le recours à des balises et métadonnées insérées dans les codes source des pages Web («  référentiels d’autorité », etc.). D’une utilité évidente pour sortir d’une approche en silo des initiatives scientifiques, ce processus pose pourtant de multiples défis ontologiques et taxonomiques mal connus des chercheurs et des designers. Comment mieux impliquer ces derniers dans l’élaboration de modèles sémantiques  ? Faut-il que cette ambition éclipse tous les autres aspects des projets (enjeux formels, collaboratifs, etc.) ? Comment montrer le travail d’encodage sémantique, habituellement recouvert par l’habillage des interfaces  ? Explorer les impensés de l’objectivité des données Les jeux de données sont souvent construits sans que leurs processus d’élaboration – et les biais inhérents à toute démarche de ce type – ne soient documentés. Or derrière une apparente objectivité se cachent des enjeux sociaux liés à de multiples prescriptions normatives voire discriminantes (catégories de genre, de «  race  », de classe, etc.). Comment inclure davantage de voix  ? Pourrions-nous, comme nous y invite la chercheuse Catherine D’Ignazio, faire de la visualisation de données de façon collective et inclusive et ainsi permettre des approches dissidentes voire contestataires  ? Impliquer des technologies émergentes dans des protocoles de recherche Au-delà de l’effet de mode, des technologies telles que les protocoles blockchain (certification distribuée de transactions) ou l’appellation générique d’« intelligence artificielle  » offrent des possibilités de recherche stimulantes pour les chercheurs en humanités numériques. La blockchain peut permettre d’authentifier des documents et des chaînes de transformation de données, de mettre à disposition de la puissance de calcul, de signer les rôles de chaque acteur d’un projet, de générer des smart contracts pour déclencher automatiquement des actions prédéfinies, etc. L’intelligence artificielle, quant à elle, est déjà utilisée par des entreprises comme Google pour la construction automatisée de gammes chromatiques (projet Art Palette), l’identification d’œuvres d’art du MoMa à partir de 30   000 photographies d’exposition ou le repérage (tagging) des contenus de plus de 4 millions de photographies du magazine LIFE. Alors que nous avons en France des pointures internationales dans le domaine de l’IA, est-ce une fatalité que la puissance publique abandonne la « culture logicielle » à des acteurs privés  ? Sortir d’une pensée «  agnostique  » de la forme Beaucoup d’interfaces de projets en humanités numériques se désintéressent des enjeux formels liés à la consultation des documents, ce qui est d’autant plus paradoxal dans l’exemple de documents relatifs à l’histoire de l’art. Jusqu’où cette illusion de neutralité est-elle tenable voire souhaitable  ? Est-ce une fatalité que les archives en ligne présentent majoritairement des cadres homogènes  ? Quid, sur un autre plan, des relations entre les interfaces de saisie des corpus et la capacité à projeter des modes de consultation  ? Citons pour exemple les travaux de Giorgio Caviglia (projet Mapping the Republic of Letters, Stanford) ou de Donato Ricci (Enquête sur les modes d’existence, Sciences Po). Sur d’autres plans, des designers comme LUST, Antony Kolber, l’histoire du net art ou celle des jeux vidéos sont par exemple des sources d’inspiration pouvant intéresser les chercheurs en humanités numériques. Mentionnons également le travail mené à l’Atelier national de recherche en typographie (ANRT Nancy) sous la direction de Thomas Huot-Marchand, où des étudiants en dessin de caractères typographiques se confrontent à des contextes tels que les premières notations du chant, la cartographie, les hiéroglyphes, les inscriptions monétaires, la reconnaissance de caractères, etc. — Ces quelques propositions ont pour objectif d’inciter les chercheurs en humanités numériques à s’intéresser davantage, au-delà du design, à des champs connexes tels que les études visuelles, les media & software studies, ou encore l’archéologie des médias. Une telle visée invite également les designers à envisager d’autres contextes de travail que ceux dans lesquels, au risque d’une saturation de l’offre, ils s’inscrivent habituellement. Les humanités numériques pourraient alors devenir un laboratoire critique des mutations de la culture au contact des technologies numériques.

Copier/Varier. Standards, critiques, et contre-emplois des logiciels de création

Date

mai 2021

Type

Publication

Contexte

Contribution au dossier « Globalisations esthétiques » du 82e numéro de la revue Multitudes, dirigé par Nathalie Blanc et David Christoffel.

Résumé

À rebours d’un progrès technique consistant à voir les logiciels de CAO/PAO (« Conception/Publication Assistée par Ordinateur ») comme une « augmentation » mécanique des possibilités créatives, nous proposons de considérer ce processus comme une accélération – voire comme une automatisation – de façons de faire traditionnelles. Alors que les designers utilisent au quotidien les mêmes logiciels, ont-ils pleinement conscience de leur histoire et de leurs implications ? Comment cette tendance à la normalisation s’inscrit-elle dans l’histoire des transformations techniques induites par le développement de la computation ? Pour traiter ces enjeux, nous invitons à parcourir sous forme de courtes notices une série d’objets techniques (logiciels de création, machines, etc.), classés du plus standardisant au plus ouvert. Chacun de ces items comprend trois sous-parties : une description de son caractère standardisant, une critique des valeurs qu’il embarque, et des contre-emplois (antérieurs ou postérieurs) en art et en design.

Formes, formats, formatage : vers un design des sciences

Date

novembre 2022

Type

Publication

Contexte

Article rédigé avec Alexandre Saint-Jevin pour l’ouvrage collectif Les devenirs numériques des patrimoines, Paris, UDPN, 2022.

Résumé

En déniant à la recherche ses dimensions esthétiques, les chercheur·euses pensent se protéger d’une capitalisation du savoir et de sa spéculation financière. Or l’impensé des enjeux esthétiques de leurs travaux ne fait que renforcer ces problèmes. L’analyse de plusieurs cas d’étude entre design et science met en évidence que la dimension critico-créative que le design apporte aux sciences n’annule pas la dimension critico-discursive que les sciences apportent au design. Ainsi, le format n’a pas pour fatalité de (seulement) formater mais peut aussi « former » les savoirs : il s’agit de dépasser l’idée réductrice d’une « science du design » au profit d’un « design des sciences ».

Panne des imaginaires ou design pour un monde réel ?

Date

octobre 2016

Type

Conférence

Contexte

Conférence donnée à la journée d’étude « Cinéma-Design, pour une convergence disciplinaire du cinéma et du design », université Toulouse – Jean Jaurès

Résumé

Il est couramment admis que les films de science-fiction, censés incarner l’imaginaire du futur, multipliraient les stéréotypes d’objets (espaces domestiques, véhicules, choix typographiques, etc.). Ce constat, qui reste à interroger, fait dire au chercheur Nicolas Nova qu’il existerait ainsi une « panne des imaginaires ». Alors qu’il est fréquemment demandé au design d’« innover », nous nous demanderons en quoi certaines séries récentes (Silicon Valley, Mr. Robot, Black Mirror) permettraient de contester cette injonction. Pour cela, nous étudierons également des productions relevant des champs du design fiction (Bruce Sterling), du design critique (Dunne & Raby) et de leur réception française (Jehanne Dautrey et Emanuele Quinz, N O R M A L S). Il s’agira d’analyser en quoi ces croisements recoupent des critiques politiques et sociales adressées aux nouvelles technologies (Bernard Stiegler, Evgeny Morozov). Entre les extrême dystopiques (films catastrophe) et utopiques (d’un monde sauvé par la science), qu’est-ce que la science-fiction nous dit du design ? Comment le design pourrait-il à la fois renouveler les imaginaires et agir dans un monde « réel » (Victor Papanek) ?

De la sémiologie graphique au machine learning : les sciences sociales au prisme de l’automatisation

Date

avril 2023

Type

Conférence

Contexte

Intervention au colloque international « Design et sciences humaines et sociales », Carthage, Académie des sciences, des lettres et des arts (Beït Al-Hikma).

Résumé

Le projet de recherche DESIGNSHS, financé par l’ANR (2021-2025), étudie les relations entre design graphique et recherche en sciences humaines et sociales, des années 1950 à nos jours, via l’histoire du Laboratoire de graphique (1954-1985) de Jacques Bertin – qui a été un acteur historique majeur de ce mouvement de par ses travaux pionniers en cartographie et design d’information. Cette conférence situera les bases de ce laboratoire et du projet de recherche DESIGNSHS afin d’en montrer les résonances contemporaines, notamment dans les champs de la dataviz, des cultural analytics et du machine learning.

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias