Anthony Masure

chercheur en design

Recherche

Résultats de recherche

Antoine Cadoret
Usage et autonomie. Le smartphone comme outil de mobilité

Date

June 2013

Type

Cours : direction de mémoire

Contexte

Résumé

Ce mémoire a pour volonté de démontrer que l’usage du numérique grand public a changé avec les terminaux mobiles connectés : nouveau rapport à la communication (disponibilité), façon de penser (accès instantané à l’information). Mais aussi qu’ils ont apporté de nouveaux codes d’utilisation (gestes, ergonomie), spécificités graphiques (format, utilisation du doigt). Dans un second temps il sera abordé la notion d’accessibilité numérique. L’accessibilité est connu de tous mais elle est encore peu mise en pratique en France. « On ne peut pas concevoir un objet qui desservirait », il est en effet difficile d’admettre qu’une équipe de conception ferait exprès d’entraver l’utilisation de leur appareil aux utilisateurs handicapés. Ce n’est pas une volonté de rendre inaccessible un smartphone mais plutôt un manque d’implication concernant leurs usagers. C’est pourquoi, de plus en plus, les entreprises doivent rendre leurs contenus accessibles. Mais pour qu’elles le fassent un effet d’inertie doit être lancé. Et ce doit être aux institutions de montrer l’exemple.

Médias

L’intelligence en défaut des smart cities

Date

January 2017

Type

Publication

Contexte

Anthony Masure, « L’intelligence en défaut des smart cities », Sur-Mesure, no 1, « Villes, usages et numériques », janvier 2017

Résumé

Supports d’« innovations » technologiques, les smart cities n’en sont pas moins porteuses d’enjeux socio-politiques : les dispositifs invisibles ou opaques des applications numériques, en déplaçant les frontières entre domaine privé et domaine public, entre libertés individuelles et contrôle social, posent en creux cette question : « quelle nouvelle forme donner à l’intelligence collective ? »

Recherche et culture libre : approche critique de la science à un million de dollars

Date

December 2018

Type

Publication

Contexte

Article coécrit avec Alexandre Saint-Jevin et publié dans la revue de recherche Reel-Virtuel.com, no 6 « Les normes du numérique ».

Résumé

Dans le champ universitaire, la construction et la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre issue du champ informatique. Des chercheurs peuvent ainsi se voir dépossédés de leurs travaux à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des contenus sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la libération des connaissances ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre à ces enjeux ? La culture libre et les pratiques de design pourraient-elles libérer la recherche de la prégnance des enjeux capitalistes ?

“if { ‘attention-machine’; > 2019pd => var data = require(‘attention.py’); } else { fade; }”.md

Date

January 2017

Type

Publication

Contexte

Fiction rédigée avec Yves Citton pour l’ouvrage Haunted by Algorithms, dirigé par Jeff Guess et Gwenola Wagon. Ce texte est rédigé en syntaxe Markdown, à la façon d’un texte informatique « brut » proposé au lecteur.

Résumé

Avant C’était devenu le règne des boules de neige. Ils disaient : « attracteurs ». Quelqu’un lançait un truc. Avec un peu d’ingéniosité et beaucoup de chance, ça faisait du « buzz ». Insect media [goto == Jussi Parikka] : la dynamique de l’essaim et de l’essaimage. Ça agglomérait, ça coagulait, ça agrégeait, on y allait voir parce que les autres y allaient voir. Et forcément, on y trouvait quelque chose. Ça devenait intéressant parce qu’on le regardait assez longtemps [goto == Gustave Flaubert] ou assez nombreux [goto == Jonathan Beller]. Mais ce sont les regards (des autres) qui nous faisaient voir (et valoriser), plutôt que l’importance de la chose pour nous. Je regardais parce qu’ils regardaient. On regardait. Rien de très nouveau en soi. Sauf que l’accélération [goto == Hartmut Rosa], l’extension [goto == Marshall McLuhan] et l’intensification [goto == Bernard Stiegler] produisaient ensemble des effets d’emballements inédits, qui déconnectaient dramatiquement l’organisme de son milieu matériel [goto == David Abram]. Le numérique réflexif (« web 2.0 ») avait colonisé les dynamiques de « publics » avec des comportements de « foules » [goto == Gabriel Tarde]. Les illuminés avaient parlé d’« intelligence collective » à propos des essaims. Les nostalgiques parlaient de « bêtise grégaire ». Tous deux avaient tort (et raison). Mais dans tous les cas, ça patinait, on perdait prise, les milieux et les formes de vie se délitaient, et on déprimait un peu. Hantologie Au sein du numérique réflexif qui donnait son infrastructure au capitalisme attentionnel, mes choix du moment étaient hantés par mes choix passés et par les choix de mes semblables. Sur les écrans, je ne voyais plus que des spectres : des profils [goto == Thomas Berns & Antoinette Rouvroy]. Les profils communiquaient avec les profils, structurés par des algorithmes qui hantaient nos choix, qui n’étaient plus des « choix » humains, mais des résultantes d’influences relationnelles. Rien de très nouveau non plus, en réalité. Sauf que le numérique réflexif avait permis à tout ce jeu sous-jacent de prendre une consistance propre, une visibilité, une opérabilité inédite. Depuis les énormes hangars à serveurs à travers les câbles d’internet et jusqu’à nos écrans ubiquitaires, les spectres étaient enfin sortis des placards où l’humanisme rationaliste du libre-arbitre les avait soigneusement enfermés depuis des siècles. L’animal social avait toujours agi de façon spectrale (médiale, médiatique, médiumnique) [goto == Jeff Guess & Gwenola Wagon], L’arrière-plan refoulé pouvait enfin passer au devant de la scène. Les fantômes computés par les machines agitaient les fantômes incarnés par les vivants. Les humanistes se lamentaient : on ne savait plus où passait la limite entre vivants et non-vivants, humains et surhumains, esprits animaux et codes inanimés. C’était un monde de morts-vivants [goto == Charles Tiphaigne], ballottés par des hallucinations de flux convergents et synchronisés (influx nerveux, flux électriques, courants informationnels, influences médiatiques) [goto == Jeffrey Sconce]. Les post-humanistes rêvaient les yeux ouverts. Les autres s’interrogaient : maintenant que nos fantômes pouvaient être analysés et reprogrammés par algorithmes, qu’allions-nous devenir ? Après Ça avait effectivement aboli l’Histoire [goto == Vilém Flusser]. Mais on s’en foutait. C’était un peu désorientant, mais qu’est-ce qu’on respirait mieux ! L’horizon s’était débouché, réouvert, plus bas, plus étroit peut-être, mais quand même bien plus clair, plus sec, plus vivifiant. Entre-deux Un hack. Pardon : LE hack. THE exploit [goto == Alexander Galloway et Eugene Thacker] Celui qui avait tout changé. Celui qui nous avait fait sortir du capitalisme tardif en nous faisant sortir de l’économie de l’attention. Au commencement Ça avait été juste un simple script, à peine quelques lignes de code permettant d’autodétruire un site web au moment où il était repéré par les bots du moteur de recherche Google. Ce qui était censé capter des informations devenait l’agent de leur effacement, faisant ainsi de l’index du Web une sorte de Méduse algorithmique. Ne restait de cette expérience amateur [goto == @mroth] qu’un dépôt GitHub informant laconiquement que le site web de test avait disparu au bout de 22 jours. if (n > 0) { var client = config.redis.client(); // if the previous times indexed was null, this is the first time // we were indexed! so we need to record the historic moment. // instead doing a query/response, let’s be clever and use SETNX. client.multi() .set([“times_indexed”, n]) .del(“content”) .del(“comments”) .setnx([“destroyed_at”, (new Date()).toString()]) .exec(function (err, replies) { if (err) { console.log(“*** Error updating redis!”); process.exit(1); } console.log(“-> Set times_indexed to ” + n + “:\t\t” + replies[0]); console.log(“-> Did we just destroy content?:\t” + replies[1]); console.log(“-> Did we just destroy comments?:\t” + replies[2]); console.log(“-> Did we initialize destroyed_at?:\t” + replies[3]); client.quit(); }); } }); [source : « unindexed/scripts/query.js »](https://github.com/mroth/unindexed/blob/master/scripts/query.js) Où ? Le changement de logo de Facebook était passé inaperçu. Le nom complet de la marque aux milliards d’usagers n’apparaissait quasi nulle part, se réduisant le plus souvent à l’affichage laconique d’une icône “f”. Les guidelines « Google material » incitaient les webdesigners à charger à distance leurs fichiers typographiques “espion” via une combinaison de Javascript et de CSS @font-face ; promesse d’un chargement accéléré et d’un meilleur référencement. Rapidement, tous les sites et application se ressemblèrent. Répétition. Différence. [goto == Gilles Deleuze] Quand ? C’est à cette époque que le virus avait été injecté au sein des populations européennes. Une dizaine d’images avaient suffi. Prises en photo au musée. C’était parti d’une image analogique. (Personne ne comprend encore comment ça a pu se faire). L’image d’une tempête en mer. [goto == Charles Tiphaigne] Une image banale, un tableau sans mérite, une croûte – qui allait lancer une énorme lèpre dont crèverait le capitalisme numérique. On avait annoncé : « The Value of Art ». On s’attendait à un truc ironique. On ne savait qu’en penser. On avait cru comprendre quand on avait vu le petit dispositif installé en dessous du tableau : un détecteur de regard qui mesurait le temps que passait les spectateurs devant l’œuvre, relié à un petit rouleau de papier où une imprimante inscrivait les ajouts de valeur apportés par chaque seconde ajoutée d’attention humaine. [goto == Christa Sommerer & Laurent Mignonneau] Quels effets ? Premiers symptômes : des blanchiments. D’abord une simple pâleur sur les photos de fin de soirée et des vacances sur la plage déposées sur les réseaux sociaux [goto == Benoît Plateus]. On accusait alors les fabriquants d’écran d’avoir mal conçu leurs drivers et des milliers de dalles avaient du être renvoyées aux entrepôts de Dell, Sony ou Samsung, leur occasionnant des pertes chiffrées à plusieurs millions d’euros. On croyait pouvoir facilement endiguer ces bugs. Mais Apple fut soudainement touché. Tous les écrans pâlissaient, vieillissaient prématurément. On avait dénoncé une obsolescence programmée à trop grande vitesse. Erreur de calcul ? Cupidité autodestructrice ? Le scandale était énorme. Les dirigeants juraient qu’ils n’y étaient pour rien. Personne ne les croyait. Ils rappelèrent toute la dernière génération d’iPad UltraRetina++, parce que les couleurs bien moins vives que celles de la précédente génération. L’obsolescence devenait un progrès inversé : dégénérescence. Les technophobes jubilaient. En fait, des hackers avaient réussi à craquer les codes du dernier iOS. Quelle occasion ? C’est avec un vieil iPhone Edge qu’on avait pris une photo de la tempête en mer de « The Value of Art ». Les hackers – sans doute en connivence avec les artistes – avaient réussi à introduire un effet de feedback entre l’œil de l’appareil-photo et le détecteur de regard placé sous le tableau. Ça s’était emballé, comme un effet Larsen d’attention machinique [goto == Jean Baudrillard]. Ça leur avait donné des idées… Par quelle voie ? Le bug s’était répandu par un simple SMS permettant de redémarrer à distance n’importe quel iPhone le recevant en raison de la présence de caractères spéciaux non reconnus par l’OS [goto == Reddit]. Diffusé via n’importe quelle application de tchat, ce hack minimaliste était passé inaperçu pendant que tout le monde se focalisait sur les problèmes liés à l’altération des images. Il ne tarda pas à muter. Un des fork les plus connus se basait sur une sonnerie MP3 permettant de reconfigurer les paramètres des OS Apple dans une zone de 20 mètres via un script diffusé en basse fréquence qui s’infiltrait dans les devices par leurs ports micro. Quels mécanismes ? L’exploit se nourrissait de traces d’attention. Le capitalisme numérique vivait de la collecte des traces d’attention. Il les traquait, les enregistrait, les mesurait, les computait, pour vendre des effets de frayage qui canalisaient et redéployaient l’attention vivante (traçante) à partir de l’attention morte (tracée). Le hack mimait toutes ces opérations, à une échelle étonnamment locale. En mettant un iPhone devant le tableau au lieu d’un regard humain, le coup de génie avait été de retourner du plus compliqué (l’attention humaine) au plus simple (l’attention préprogrammée). Il avait suffi d’apprendre au logiciel à détourner les finalités de la machinerie capitaliste : au lieu de vendre des promesses d’attention vivante par compilation des traces d’attention morte, le bug absorberait de l’attention machinique pour la faire imploser sur elle-même. Cette autophagie attentionnelle ne faisait en fait qu’exprimer [goto == Deleuze sur Spinoza] la dynamique essentielle du capitalisme médiatique. Quel principe ? RUN: “au-delà d’un seuil très bas de condensation d’attention machinique, l’objet numérique s’auto-efface.” C’était la concentration de l’attention collective qui surexposait les plus vus, les plus lus, les plus entendus, les plus consultés – au point de les rendre invisibles. Au-delà d’un certain seuil, l’accumulation d’attention rendait les écrans opaques et muets. Tel avait été le génie du virus : le droit abstrait à l’opacité [goto == Edouard Glissant] s’était incarné dans un algorithme reconditionnant concrètement l’ensemble des relations sociales [goto == Pierre-Damien Huyghe]. Quelles conséquences ? Après Apple, ruiné par ses écrans pâlis, ça avait été au tour de Google. Les sites les plus haut placés en PageRank commençaient à s’effacer. D’abord difficiles à accéder, encombrés, lents : saturés. Puis simplement introuvables. Disparus ! Quelles solutions ? On patchait WordPress à la va-vite qui équipait plus de 40% des sites dans le monde ; rien n’y faisait. Les exploits venaient de tous les côtés. Une des solutions les plus redoutables consistait à injecter une admin-action dans des URL placées stratégiquement sur des sites web à forte audience et permettant de cibler une liste de plugins vulnérables. En affichant les chaînes de caractères wp_nonce censées authentifier l’administrateur du site, le hack pouvait alors exécuter un vulgaire phpinfo() et afficher les codes d’accès à la base de données stockés par exemple dans un ajax_handler. public function credentials_test() { global $updraftplus; $required_test_parameters = $this->do_credentials_test_parameters(); […] $this->storage = $this->bootstrap($_POST); if (is_wp_error($this->storage)) { echo __(“Failed”, ‘updraftplus’).”: “; foreach ($this->storage->get_error_messages() as $key => $msg) { echo “$msg\n”; } die; } […] die; } [source : « updraftplus/admin.php »](https://github.com/wp-plugins/updraftplus/blob/master/admin.php) Quelles causes ? On avait parlé de réseaux sans cause à défendre [goto == Geert Lovink]. On ne comprenait pas les motivations des hackers. Il ne s’agissait pas ici d’une énième attaque permettant d’extorquer des fonds en échange d’informations prises en otage. Les black hats n’y comprenaient rien. Quels remèdes ? Le procédé était dirimant : plus un site était populaire, plus il était fréquemment indexé par Google, et plus il était atteint. C’était la simple expérience du site auto-détruit suite à son indexation qui refaisait surface, mais combinée aux failles altérant l’affichage des terminaux Apple. Des white hats avaient réussi à injecter au sein des principaux CMS (Content Management Systems) des scripts basés sur la librairie PHP Imagegick altérant définitivement les images les plus consultées. Toutes les 1000 vues, les images de ces pages web se complexifiaient, des pixels étant injectés dans les fichiers source bitmap en tenant compte des couleurs adjacentes [goto == Jacques Perconte]. En complément, à chaque fois qu’un searchbot atteignait l’image, celle-ci mutait à nouveau en intervertissant la position de 10 pixels. function addNoiseImage($noiseType, $imagePath, $channel) { $imagick = new \Imagick(realpath($imagePath)); $imagick->addNoiseImage($noiseType, $channel); header(“Content-Type: image/jpg”); echo $imagick->getImageBlob(); } [source : « Imagick::addNoiseImage »](http://php.net/manual/fr/imagick.addnoiseimage.php) Quelle progression ? Dans un premier temps, seuls les sites à très forte audience furent touchés, le procédé étant basé sur un coefficient attentionnel. Les images populaires perdaient en précision, s’altéraient, devenaient plus pâles jusqu’à disparaître des écrans mais pas des serveurs web qui, eux, saturaient. DD o S (distributed denial-of-service). Tout ce que l’attention machinique valorisait tendait à s’effacer. À chaque fois, le même processus : les couleurs pâlissent, l’image est attaquée d’un blanchiment qui la dévore en saturant son exposition. L’opacité reprend le dessus. La pub, elle, refluait, personne ne voulait disparaître. C’était le crépuscule de Google, dernière lumière avant l’extinction des feux. Quelles régressions ? On voyait déjà ré-émerger des vieux sites web exotiques, équipés de systèmes bricolés qui, eux, n’étaient pas touchés par les failles atteignant l’homogène des plateformes techniques dominantes. Exaltés par cette visibilité inattendue et complètement aléatoire, car dès qu’une destination devenait trop populaire elle était mise à mal, des groupes éphémères et anonymes se formaient et se déformaient, exploitant avec une grande créativité n’importe quelle faille technique [goto == David M. Berry]. Ce que l’on pensait initialement être des attaques dirigées vers le Pagerank se révélait plus complexe : c’étaient tous les condensateurs d’attention qui, progressivement, perdaient pied. Quels antécédents ? Plus un produit suscitait de curiosité, de recommandations, d’achats, plus vite il disparaissait des écrans. Il y avait bien eu en 2012 cette initiative de plugin web librement installable permettant de rediriger les internautes vers les librairies de proximité [goto == Amazon killer], mais il était alors réservé aux initiés. var buttons = require(‘sdk/ui/button/action’); var tabs = require(“sdk/tabs”); var data = require(“sdk/self”).data; var pageMod = require(“sdk/page-mod”); var ISBN; var button = buttons.ActionButton({ id: “mozilla-link”, label: “Amazon killer”, […] function handleClick(state) { tabs.open(“http://www.placedeslibraires.fr/dlivre.php?gencod=” + ISBN + “&rid=”); } [source : « Amazon-Killer »](https://github.com/elliotlepers/Amazon-Killer) Quelles circulations ? Des hackers-esthètes s’étaient inspirés des systèmes de localisation (GPS) reliés à des balises indiquant en temps réel la circulation routière et permettant de rediriger automatiquement les conducteurs vers des voies moins fréquentées [goto == Waze]. Dans les deux cas, il s’agissait de « décongestionner » des flux dont l’effet de masse devenait paralysant. Mais alors que l’efficacité primait dans le monde des voitures, ces scripts appliqués aux « autoroutes de l’information » permettaient de désencombrer la fréquentation d’une façon inversement proportionnelle au modèle du « gain ». On perdait même du temps dans ces parcours au temps élastique, qui variaient suivant les trajectoires précédentes. Mais on trouvait aussi de l’intérêt à être à l’arrêt, bloqué devant une page figée un bref instant. Quels renversements ? Motivés par les succès obtenus sur Facebook, Apple et Google, d’autres hackers avaient percé les algorithmes de recommandation d’Amazon et d’Alibaba. Une des solutions avait été d’intervenir sur les cookies qui étaient depuis longtemps gérés par des entreprises de profilage et de re-targeting [goto == Giorgio Agamben]. Ces programmes-espion [c][d] servaient désormais à repérer les items les plus vus, c’est-à-dire ceux qui devaient disparaître pour que d’autres soient visibles. Si vous aviez vu tel produit, vous étiez systématiquement redirigé vers un item dont la popularité était inversement proportionnelle à celle du premier. Les paramètres des Impressions, Conversions, CPM (Cost Per Thousand Impression), CRT (Click Through Rate), VTC (View Through Conversions), CTC (Click Through Conversions), ROI (Return On Investment), eCPM (Effective Cost Per Thousand Impressions), eCPA (Effective Cost Per Acquisition) et autres CPA (Cost Per Acquisition) subissaient des mutations techniques dont les effets combinés s’avéraient rapidement incontrôlables. Quelles suspensions ? Ce n’étaient désormais plus seulement les images des pages Web qui s’altéraient, mais également les textes. Ce vieux plugin Web [goto == Wordless] qui vidait les pages web de leurs textes était désormais injecté aléatoirement dans les navigateurs web sous une forme qui le faisait interagir avec les metrics d’audience. À chaque lecture d’un même paragraphe, l’écrit s’opacifiait un peu plus, le rendant moins disponible pour les autres. Dès qu’un texte inédit apparaissait, beaucoup se précipitaient dessus, le faisant immédiatement disparaître. La lecture d’articles de presse – écrits depuis longtemps dans leur grande majorité par des robots-journalistes – devenait une expérience contemplative. (function() { “use strict”; […] window.wlw.hideWords = function(jQuery) { window. wlw.getTextNodesIn(jQuery, jQuery(‘body’)).remove(); jQuery(‘iframe’).css(‘opacity’,0); jQuery(‘input’).val(”).attr(‘placeholder’,”); jQuery(‘textarea’).val(”).attr(‘placeholder’,”); jQuery(‘object’).remove(); // bye, flash window.__wlw.queued_update = false; }; window.__wlw.loader(); })(); [source : « Wordless Web »](https://coolhunting.com/tech/wordless-web-ji-lee/) Quelles extinctions ? Cela faisait déjà longtemps que les newsletters publicitaires avaient disparu : ces messages n’étaient même plus lisibles par les bots. Un projet d’anti-cloud, d’auto-altération et d’effacement des images vidait automatiquement nos disques dur locaux et distants, obèses de factures impayées, photos et messages auxquels nous n’aurons de toute façon jamais le temps de répondre. Automatiquement intégré dans chaque OS, cet oubli programmé faisait de nos disques durs des lieux terriblement humains où s’abîmaient nos mémoires [goto == /u.bli/]. Quelles renaissances ? Puis ce fut au tour de Google Analytics d’être hacké. Les communautés white hats à l’origine de ces reconfigurations attentionnelles prirent alors le contrôle des heatmaps, ces outils de mesure censés détecter l’attention par zones d’interaction. En reliant ces informations à des librairies Javascript type jQuery modifiées en amont depuis les serveurs-CDN des GAFAM, les fichiers CSS ordonnant la mise en page des sites Web pouvaient désormais être générés à la volée. Des ‹footer› non visibles habituellement remontaient en haut de page avant de redescendre, car trop vus. Des blocs ‹aside› se déplaçaient soudainement vers le centre de l’écran. En fait, c’est toute la mise en page des sites web qui s’animait progressivement, chaque changement étant répercuté en temps réel à l’ensemble des internautes, faisant fi des cache serveur délivrant à la chaîne des copies statiques. Le Web prenait vie. Quelles écritures ? Combinés, hybridés, contredits, réécrits, bricolés, hackés, forkés, patchés, optimisés, débattus, commentés, indentés, versionnés, oubliés, retrouvés, activés, plantés, mis en lumière, les programmes attentionnels devenaient l’objet de luttes et d’enjeux collectifs. On débattait (enfin), on se trompait (souvent), on rageait (parfois), on s’amusait (beaucoup). Quelles mutations ? Des paysages multiples et contradictoires apparaissaient, refluaient et disparaissaient. Cette profusion algorithmique avait sa vie propre, s’hybridant et évoluant de façon autonome et imprévue : Le robocopyright « ContentID » de Google qui traquait sans relâche les vidéos en ligne enfreignant les volontés des ayants-droit s’était renommé de lui-même en « AttentionID », affectant à chaque vidéo un « coefficent d’accélération » à partir duquel d’autres programmes pouvaient déclencher des actions spécifiques par effets de seuil. Ajoutant quelques millisecondes aux vidéos en ligne en fonction du ranking « AttentionID », le script « slow_max_views.js » avait par exemple étiré à 30h la durée du clip « Gargantuan style » déjà vu plusieurs milliards de fois, plafonnant ainsi son expansion sans limite. Il en allait de même des tweets : plus ils étaient diffusés (RT), plus ils se dégradaient par la soustraction de caractères typographiques. Invisibles ! Des cartographies contemplatives furent injectées dans les véhicules-taxis sans chauffeur qui pullulaient dans les sociétés occidentales, dotant les trajets d’un mode « esthétique » de circulation s’activant en fonction des trajets planifiés. Les objets « connectés » étaient aussi touchés, eux qui demandaient toujours plus de temps et de « mises à jour ». Les montres, lampes, chauffages, prothèses et autres gadgets « intelligents » ne transmettaient plus les données à des grands centres protégés (agencés globalement, donc verticalement), mais apprenaient à se connaître (horizontalement, par affinités électives). Quels financements ? En réponse au temps inhumain du high-frequency trading [goto == Alexandre Laumonier] permettant de gagner des dizaines de milliards de dollars de cotation boursière en jouant sur des différentiels de valeur et de temps infinitésimaux, des hackers avaient mis en application l’idée d’une taxe « pollen » sur les transactions [goto == Yann Moulier Boutang], mais d’une façon progressive, fondée sur la vitesse de calcul [goto == Paul Virilio]. Les serveurs les plus rapides payaient le plus, sous peine de planter. Ces gains étaient versés aux communautés émergentes [goto == Comité invisible] sous forme de blockchains (données décentralisées créées par du calcul) qui rendaient enfin viable l’idée d’une monnaie dénationalisée [goto == Satoshi Nakamoto] à échelle mondiale. Plus le système boursier cherchait à se renforcer, plus il affaiblissait l’efficacité des monopoles. Quelles pertes ? Ce qu’on appelait « l’Histoire » n’y survécut pas. Écrite par les vainqueurs, elle concentrait toujours les regards sur quelques moments forts, quelques actions, quelques héros et héroïnes isolées du tissu relationnel qui leur a donné consistance. Ne restait que cette consistance : le bug coupait systématiquement toutes les têtes qui dépassaient pour s’individualiser par des processus de célébration [goto == Nathalie Heinich, Barbara Carnevali, Antoine Lilti]. Plus d’histoire de l’art ni de la littérature, donc plus d’art ni de littérature. Les vieilles perruques se lamentaient : un monde sans histoire, un monde sans mémoire ! Un monde sans civilisation ! Un retour à la sauvagerie ! À l’immédiateté ! Un monde « post-historique », comme l’avait annoncé Vilém Flusser depuis bien des lunes. On y entrait enfin. Quel nouveau monde ? La pâleur, la lèpre, puis la disparition des surexposés avait complètement redistribué l’attention collective. Des myriades de pratiques alternatives étaient redevenues visibles – mais seulement à petite échelle et à portée locale. Tout ce qui aurait pu menacer de reprendre le dessus s’effaçait de par son succès même. Cette écologie logicielle formait un nouveau milieu attentionnel reconfigurant en profondeur nos relations aux machines et à autrui [goto == Andrea Branzi]. Tout le monde trouvait ce nouveau paysage beaucoup plus riche et plus enrichissant. Un nouveau système d’allocation des ressources se substituait à l’ancien. Quelles médiations ? Les catastrophistes levaient les bras au ciel. Les cyniques se moquaient de la naïveté de ces rêves d’immédiateté. Les bidouilleurs bidouillaient. Ils vivaient au coeur battant des media : pour rien au monde, ils n’auraient pu croire pouvoir s’en passer. Le bug n’avait rongé, corrodé, neutralisé les effets grégaires de l’attention machinique que pour mieux mettre les machines numériques au service de l’attention humaine. Oui, l’attention « immédiate » échappait à la lèpre : mille, dix mille, cent mille personnes pouvaient venir voir ou écouter un artiste ou un chanteur (en live) sans donner aucune prise à l’algorithme. Mais non, il n’y avait pas besoin de retourner aux pigeons voyageurs pour communiquer. On en restait à des petits réseaux (pas forcément locaux), qui veillaient à ne pas se laisser emballer dans les grandes résonances décervelées. On pouvait varier les formulations pour éviter de répéter les mêmes mots qui auraient menacé de s’effacer. Chacun(e) devenait poète. Bien sûr, on avait inventé une fonction automatique COPIER-VARIER, pour que la machine devienne poète à notre place, mais cela même ne faisait que réinventer (avec variation) l’écriture automatique rêvée par les surréalistes. On s’acclimatait à un monde d’archipels diversifiés sans regretter le monde de hubs standardisés qui s’était dissout avec l’effondrement du capitalisme globalisé. Hantologie (bis) Bien sûr, on n’avait nullement échappé aux fantômes. Heureusement ! Comme cela avait toujours été le cas, ils flottaient entre nos esprits, nos corps, nos désirs, nos souvenirs, nos espoirs et nos craintes. On continuait à se profiler sur les réseaux, à se reluquer dans les bars, à se soupeser sur regard en se croisant dans la rue. L’exploit avait simplement réduit la tailles des spectres. Moins à une taille « humaine » qu’à une taille ambiantale [goto == Henry Torgue & Igor Galligo]. Les fantômes habitaient (et rendaient habitables) des lieux de vie reconnectés à leur milieu de soutenabilité. On pouvait « s’y sentir » (bien ou mal), et on pouvait agir sur eux pour les reconfigurer, les améliorer, à une échelle ambiantale. Certains flux d’information continuaient à traverser la planète – nulle séparation possible entre chez nous et chez eux, on respirait le même air, buvait la même eau, baignait dans les mêmes accumulations de pesticides, d’antibiotiques, de radiations et autres nanosaloperies. Les luttes se poursuivaient, les conflits se renouvellaient – nul Eden de circuits courts. On communiquait, donc on hallucinait, comme toujours, donc on multipliait les spectres comme opérateurs de médiation. Et les algorithmes continuaient à mouliner pour reprofiler ces spectres. On avait accepté d’être tous des morts-vivants. Le défi quotidien était d’être un peu plus vivant que mort. APRÈS le hack, le numérique réflexif redimensionné nous permettait de l’être un peu plus souvent qu’AVANT. C’était tout. Ce n’était pas rien. Résumé du projet Haunted by algorithms « Haunted by Algorithms convoque une multitude d’entités non-humaines, des formes de vie organiques et artificielles qui communiquent et agissent dans le monde – animaux, végétaux, machines, robots, esprits, extra-terrestres. Comment donner forme à cette infinité de relations inter-espèces, traduire des sensoriums si différents des nôtres ? Sur fond d’une algorithmisation généralisée, une diversité de modes d’écriture va tenter d’y répondre, tissant des liens entre ces différents univers. » Plateforme Web <> Publication Conception : Jeff Guess, Loïc Horellou, Jérôme Saint-Loubert Bié, Gwenola Wagon Iconographie : Lou-Maria Le Brusq Contributions : Angélique Buisson, Pierre Cassou-Noguès, Antoine Chapon et Nicolas Gourault, Yves Citton et Anthony Masure, Stéphane Degoutin, Frédéric Dumond, fleuryfontaine, Jeff Guess, Emmanuel Guez, Martin Howse, Jean-Noël Lafargue, Lou-Maria Le Brusq, Marie Lechner, Nicolas Maigret et Maria Roszkowska, Emanuele Quinz, rybn.org, Jeffrey Sconce, Noah Teichner, Suzanne Treister, Gwenola Wagon, Anne Zeitz.

Résister aux boîtes noires. Design et intelligence artificielle

Date

December 2019

Type

Publication

Contexte

Article publié dans la revue Cités, Paris, Puf, no 80, dossier « L’intelligence artificielle : enjeux éthiques et politiques » dirigé par Vanessa Nurock.

Résumé

Le regain d’intérêt pour l’intelligence artificielle (IA) des années 2010 engendre des programmes « auto-apprenants », ceux des techniques du deep learning, dont les logiques de fonctionnement sont structurellement inintelligibles (principe de la « boîte noire »). Ces IA investissent progressivement les capacités d’invention et d’imagination, et tendent donc à se substituer aux tâches communément attribuées aux designers. Le risque est alors que le design ne devienne qu’une puissance de production de marchandises et de motifs automatisés. Face au formatage des expériences humaines dans ce qu’elles ont de plus singulier, quelles marges de manœuvre peut-on inventer ? Des contre-pouvoirs sont-ils encore envisageables ?

Notions

Personnes citées

Objets mentionnés

The Digital Thesis as a Website: SoftPhD.com, from Graphic Design to Online Tools

Date

May 2021

Type

Publication

Contexte

Contribution à l’ouvrage collectif Shaping the Digital Dissertation: Knowledge Production in the Arts and Humanities, dir. Virginia Kuhn et Anke Finger, éditions OpenBook.

Résumé

How do these publication practices of online PhD thesis, which are not yet widespread in the conduct of a thesis doctorate, modify the relationship between the direction and the writing of the thesis? How can they open up new research directions while taking into account current standards? What dissemination and communication opportunities do they provide? How do they change the way research is done?

Troubler les programmes. Design, cybernétique et biologie moléculaire

Date

October 2022

Type

Publication

Contexte

Article rédigé avec Élise Rigot pour l’ouvrage collectif Les écologies du numérique, Orléans, Esad, 2022

Résumé

Dans un monde où presque aucune activité humaine n’échappe aux programmes numériques, ces derniers prennent un caractère existentiel et engendrent un assujettissement du vivant à des logiques d’automatisation. Il en résulte un profond déséquilibre des milieux de vie (théories de l’effondrement, perte de la biodiversité, etc.) et une perte de sens de l’existence. Afin de mieux cerner le concept de programme, nous associons trois champs tendant à converger : le design, l’informatique et la biologie. Ce rapprochement permet de formuler trois perspectives écologiques non binaires – autant de scénarios qui contestent le présupposé d’un design comme plan et qui le redéfinissent comme « art de l’équilibre », « zone de trouble », et « variation d’insignifiant ».

IA et pédagogie : un état de l’art

Date

April 2023

Type

Blog

Contexte

Anthony Masure, Florie Souday, « IA et pédagogie : un état de l’art », blog AnthonyMasure.com, 24 avril 2023 [pour la première version]

Résumé

Cet état de l’art propose d’examiner une sélection de ressources traitant des enjeux pédagogiques des « intelligences [dites] artificielles » contemporaines. Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (apprentissage automatique) permettent d’automatiser la production d’objets numériques tels que du texte, des images, mais aussi du son, de la vidéo ou de la 3D — ce qui oblige à repenser les compétences à enseigner et les façons de les évaluer. Cette initiative vise ainsi à poser, de façon éclairée, les termes d’un débat de fond quant à la place des IA en milieu scolaire afin de préfigurer des formats de cours, exercices et projets de recherche contributifs.

Notions

Personnes citées

Objets mentionnés

Médias

Making the Multiple Singular: Artistic NFTs, Speculation and Redistribution

Date

November 2021

Type

Publication

Contexte

Paper written with Guillaume Helleu for the research journal Multitudes, which appeared in November 2021. Translated from French by Aviva Cashmira Kakar.

Résumé

This paper explores the issues concerning blockchain technologies within the realm of the creative (art, design, video games, etc.), which have arisen since the development of non-fungible tokens (or NFTs) in 2015. NFTs are essentially the production of a decentralized digital certificate that is impossible to forge, which is then linked to a numerical or tangible entity. NFTs have emerged into the mainstream since the beginning of 2021 due to a massive surge in sales and the development of specified marketplaces. NFTs have brought to the fore a variety of issues concerning value, circulation, and the exposure of artistic and cultural productions.

Des interfaces graphiques aux IA. Vers un design à sens unique ?

Date

January 2024

Type

Publication

Contexte

Texte issu de l’ouvrage collectif Éthique et design. Pour un climat de soin, dirigé par Cynthia Fleury et Antoine Fenoglio, et publié en 2024.

Résumé

À la fin des années 2010, des programmes présentés comme « intelligents » permettent de générer des productions s’apparentant à l’art et au design. Pour mieux comprendre cette tendance à vouloir substituer la machine à l’humain, cet article propose de replacer les technologies du deep learning dans une histoire plus longue visant à réduire le design à une suite de modèles schématiques. Ce parcours dans l’histoire des logiciels de création montre comment les sciences cognitives se sont insérées au sein des principes historiques du design, au point de les reformuler et de les subvertir de façon insidieuse.

Hello Blog

Date

July 2017

Type

Blog

Contexte

Résumé

Why and how researchers have to develop some free and fast expression spaces?

Capitalisme cognitif et économie de l’attention : vers un design à sens unique ?

Date

May 2019

Type

Conférence

Contexte

Communication dans le cadre de la chaire de philosophie à l’hôpital, séminaire « Design with Care », dir. Cynthia Fleury et Antoine Fenoglio (Les Sismo), Paris, Cnam

Résumé

Alors que nous manquons encore de recul pour comprendre ce que les média, flux et interactions numériques nous font, font avec nous, ou font contre nous, quels autres modes de conception et modèles économiques peut-on inventer ? Comment une compréhension plus fine des différentes théories psychologiques pourrait-elle permettre de déjouer une certaine approche neurocognitiviste assimilant le psychisme humain à une commutation de circuits ? Pourrait-on permettre au plus grand nombre de comprendre et d’accéder aux paramètres façonnant l’attention en contexte numérique ? Le design pourrait-il devenir, à rebours de l’exploitation de nos vulnérabilités psychiques, l’endroit d’une possible « écologie de l’attention » ?

Apprendre des abysses : les humanités numériques face aux machines du deep learning

Date

September 2019

Type

Conférence

Contexte

Communication dans le cadre du colloque « Humanités numériques et computationnelles », université Côte d’Azur, Académie d’Excellence « Homme, Idées et Milieux », Nice, Centre Universitaire Méditerranéen

Résumé

Prenant de l’ampleur au tournant des années 2010, les modalités d’intelligences artificielles dites d’« apprentissage profond » (deep learning) reposent sur une architecture technique structurellement opaque : le programme informatique n’est plus modélisé en amont mais résulte, par rétroaction, du couplage entre des entrées (inputs) et des sorties (outputs) « étiquetées ». En automatisant de plus en plus de tâches – y compris dans les champs de l’art et du design –, ces boîtes noires (black boxes) échappant à l’entendement humain bousculent les actuelles catégories éthiques ou morales. Mais si l’on considère que les machines, par effet de miroir, révèlent la part « inhumaine » de l’humanité, la partition humain/machine a-t-elle encore un sens ? S’inscrivant dans le dépassement de cette opposition, le travail critique des technologies du deep learning par l’art et le design montre comment des capacités considérées comme « humaines » peuvent en fait relever d’un caractère machinique. Dès lors, cela ne conduirait-il pas à remettre en cause l’expression même d’« humanités numériques » ?

Revue Réel-Virtuel

Date

January 2008

Type

Projet

Contexte

La revue a été fondée en 2008 par Anaïs Lelièvre, Antoine Lefebvre, Anthony Masure, Alexandre Saint-Jevin et Clélia Barbut. Elle est dirigée depuis 2013 par Alexandre Saint-Jevin.

Résumé

Réel-Virtuel : enjeux du numérique est une revue en ligne pluridisciplinaire, avec une dominante artistique. Afin d’interroger leurs ancrages et spécificités, les thématiques invitent à confronter les nouvelles technologies à des théories et pratiques qui sont également issues d’autres champs.

Le design des programmes

Date

December 2014

Type

Conférence

Contexte

Conférence donnée à l’EESAB Rennes autour de la thèse Le design des programmes

Résumé

La plupart des « guides » à destination des concepteurs de programmes numériques visent à établir des listes de normes ou de « bonnes pratiques ». Ces approches nous paraissent insuffisantes, car elles évacuent d’emblée des considérations philosophiques, politiques et morales. Alors que toutes les activités humaines sont progressivement affectées par des programmes parfois menaçants et étouffants, sous quelles conditions le design peut-il faire que les objets techniques deviennent des « appareils » ouverts sur des perspectives émancipatrices d’inventivité individuelle et collective ?

Recherche et culture libre

Date

March 2018

Type

Conférence

Contexte

Conférence à l’Esad Amiens dans le cadre du séminaire « On The Shoulders Of Giants » autour des outils libres et de l’open source dirigé par Mark Webster. Communication reprise à la journée d’étude « PrePostPrint » du 4 avril 2018 à l’EnsadLab Paris. Cette conférence a donné lieu à une publication intitulée « Recherche et culture libre : approche critique de la science à un million de dollars », coécrite avec Alexandre Saint-Jevin et mise en ligne en décembre 2018.

Résumé

Le monde de la recherche est protéiforme et peut renvoyer, suivant les acceptions, à des contextes variés. Dans le champ universitaire, la transmission des savoirs est encore trop souvent ralentie (voire empêchée) par des enjeux commerciaux et/ou par une méconnaissance des enjeux de la culture du libre. Des chercheurs peuvent ainsi se voir dépossédés de leurs productions à cause de contrats d’édition abusifs, ou même être condamnés à de lourdes peines pour avoir partagé des matériaux scientifiques sous copyrights. Mais, au-delà des problèmes légaux, que peuvent faire les chercheurs et designers pour favoriser la circulation des savoirs ? Quelles pratiques de publication, de contribution et de valorisation inventer pour répondre aux défis actuels ? Que peut-on mettre en œuvre, concrètement, dans les écoles d’art et de design ?

Mutations du livre Web

Date

April 2018

Type

Conférence

Contexte

Conférence au colloque international Écridil « Le livre, défi de design : l’intersection numérique de la création et de l’édition », Montréal

Résumé

Les modes de transmission des savoirs, encore majoritairement marqués par le modèle culturel du livre imprimé, ont pourtant été reconfigurés par le développement des réseaux de télécommunication. Alors que les « humanités numériques » ne décollent vraiment qu’avec l’émergence du Web, les chercheurs en sciences humaines et sociales sont de fait confrontés, dans leurs pratiques, à des programmes et protocoles techniques aux finalités diverses : scientifiques, commerciales, etc. Dès lors, en quoi le Web, en tant que media de production et de diffusion, peut-il nous inciter à repenser la façon dont les savoirs sont élaborés et transmis ? Que peut le design dans ces transformations des modes de recherche ?

Thinking Machines

Date

January 2020

Type

Conférence

Contexte

Conférence avec Alexia Mathieu, responsable du Master Media Design de la HEAD – Genève. Séance inaugurale du cycle « Machine Vision : surveillance, simulation, spéculation », Paris, Le BAL

Résumé

Bien que le concept d’« intelligence artificielle » (IA) soit déjà ancien, sa présence ne cesse de s’intensifier, que ce soit dans la presse, la pop culture, ou les objets du quotidien. Des approches critiques se développent, par exemple face aux dérives sécuritaires de ces technologies, ou face à la précarisation des « tâcherons du clic » invisibilisés par ces promesses d’innovation. Comment ces enjeux sociaux sont-ils abordés par les métiers dits de la « création », eux-mêmes en proie à des risques et opportunité d’automatisation ? Qu’est-ce que le design peut faire « avec » les intelligences artificielles ? Comment aborder ces questionnements dans des situations pédagogiques ?

Faire savoir & savoir-faire : le design de la recherche comme opération réticulaire

Date

February 2021

Type

Conférence

Contexte

Communication à la journée d’étude « Reticulum #3 – Faire savoir et pouvoir faire », dir. Florian Harmand & Arthur Perret, université Bordeaux Montaigne, 8 février 2021

Résumé

La recherche scientifique est habituellement comprise comme une production de nouvelles connaissances dans une ou plusieurs disciplines. Mais suffit-il de les produire pour qu’elles soient opérantes ? Autrement dit, les « savoir-faire » des chercheur·euses ont-ils du sens sans leur « faire savoir » ? Comment ménager légitimation, communication et valorisation de la recherche ? Nous proposons d’aborder ces questions sous l’angle de la notion de réseau, qui a pour intérêt de faciliter la vérification des connaissances (accès aux sources externes), leur réfutation, leur inscription dans des trajectoires individuelles et collectives, de même que leur compréhension pour divers publics. En se faisant non seulement archivistes mais aussi « relieurs » de leurs propres travaux, les chercheur·euses pourraient ainsi être à même de mieux les valoriser et de les (faire) comprendre.

Automation Takes Command. How to Shape Deep Learning AIs?

Date

March 2021

Type

Conférence

Contexte

Communication au colloque « Deep City: Climate Crisis, Democracy and the Digital », Lausanne, EPFL, 25 mars 2021

Résumé

Deep learning artificial intelligence (AIs) works by comparing and aligning “raw” or “labeled” data sets. This mimetic paradigm (remix of “data sets”) makes it difficult to discern “generated” copy of original. Therefore, the question of acceptance of a world shaped by AIs arises less in terms of replacement than in terms of recovery: an environment in which one could not distinguish what is produced, or not, with AIs. Another challenge, with the demand of ecological sobriety, is the increase of algorithmic rationality with generated shapes optimized to structural constraints. What about social and aesthetic dimensions of shaping? How can AIs be open to invention and curiosity?

Design & machine learning

Date

November 2021

Type

Conférence

Contexte

Intervention à la « commission interparlementaire de contrôle HES-SO », en présence d’une cinquantaine de député·es de Suisse romande et de la rectrice.

Résumé

L’intelligence artificielle, ou plutôt le machine learning, est de plus intégré et masqué dans des programmes et objets du quotidien.

Metaverse: A Use Case Failure?

Date

December 2022

Type

Conférence

Contexte

Conférence donnée dans le cadre du cycle de rencontres « The Metaverse Dialogues », Paris, Renaissance Numérique.

Résumé

Le groupe de réflexion Renaissance Numérique organise une série d’ateliers avec des experts européens et internationaux pour discuter à la fois des opportunités offertes par l’émergence du métavers dans une approche centrée sur l’utilisateur, et des potentiels défis sociétaux, économiques et juridiques de son adoption à grande échelle.

Vers une informatique invisible : l’art et le design face aux neurosciences

Date

March 2023

Type

Conférence

Contexte

Communication dans le cadre de la journée « Arts et neurosciences : nouveaux terrains d’expérimentations » (dir. Justine Emard), Nantes, Stereolux.

Résumé

Les liens entre informatique et psychologie hantent l’informatique depuis ses débuts, qu’on pense à l’augmentation des facultés intellectuelles par la machine (Vannevar Bush) ou le développement d’un cerveau électronique capable de remplacer l’humain dans certaines tâches (Alan Turing). Alors que plusieurs approches psychologiques coexistaient aux débuts de la cybernétique – allant de la psychanalyse aux neurosciences – celles-ci vont progressivement se resserrer autour d’une visée comportementaliste (où domine la recherche de performance et d’efficience) que l’on retrouve aujourd’hui dans les interfaces dites « neuronales », c’est-à-dire qui fonctionnent en visualisant l’activité des neurones. Leur développement s’inscrit dans le paradigme de « l’informatique ubiquitaire », développé par Mark Weiser à la fin des années 1980, et qui prône la réduction des médiations entre l’humain et la machine au profit de leur intégration dans le quotidien. Si cette visée aura facilité les usages de l’informatique via le développement d’interfaces « naturelles » (tangibles, vocales, et désormais neuronales), elle engendre plusieurs problèmes tels que le formatage des expériences, la collecte de données sans consentement, ou encore le syndrôme de la réponse unique. Pour les champs de l’art et du design, ces technologies rejouent l’idée romantique du « génie », qui « créé » dans l’instant, sans barrière avec le contact avec la matière – une idée au cœur des fantasmes de l’apprentissage automatique (deep learning) et des générateurs en tout genre. Il s’agit alors de savoir ce que peuvent faire l’art et le design en contexte de technoscience afin que les programmes des interfaces neuronales, encore en émergence, ne se limitent pas à des dispositifs prescriptifs.

Design sous artifice, présentation au séminaire ArTeC

Date

April 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice au séminaire ArTeC (Paris), suivie d’une discussion avec Pierre-Damien Huyghe.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles. Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

Design sous artifice, présentation à la journée d’étude CulturIA

Date

May 2023

Type

Conférence

Contexte

Présentation de l’essai Design sous artifice à la journée d’étude « IA, imaginaires et arts contemporains », ANR CulturIA, Paris, ENS Ulm.

Résumé

Le grand public a récemment découvert des programmes de machine learning (apprentissage automatique) comme DALL·E, Midjourney ou Disco Diffusion capables de générer des images à partir de commandes textuelles (prompts). Ces images sans auteur·trice, d’une qualité impressionnante, suscitent l’émerveillement tout autant que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planner sur la survie des professions d’illustrateur·trice ou de photographe.

Workshop numérique « Écoles de la pensée »

Date

March 2013

Type

Cours

Contexte

Résumé

Mars 2013 (4 jours) Le workshop « Écoles de la pensée  » se base sur un thème a priori étranger au numérique  : la philosophie à destination à des enfants. Depuis de nombreuses années, la «  philosophie pour les enfants  » se développe dans de nombreux pays, essentiellement via des ateliers de parole et des ouvrages dédiés. Il était demandé aux étudiants de réfléchir à des modes de lecture et de dialogue à l’écran s’inscrivant dans ce champ pédagogique. Les projets ont été menés par groupes de 5, avec pour chaque équipe un éditeur, un graphiste, un développeur et un coordinateur. Le rendu devait comprendre un prototype fonctionnel, ainsi qu’un dossier de faisabilité (rétroplanning, budget fictif, technique, etc.). L’enjeu était de construire son propre projet plutôt que de se placer dans une posture d’exécution : un vrai entraînement au projet pro de deuxième année  ! Au cours des 4 jours du workshop, les étudiants ont pu bénéficier de l’expertise de Nicolas Loubet (Umaps) pour la partie scénarisation de projet. Pour la technique, ils étaient assistés d’Antoine Frankart fondateur d’Oxent, startup de services à destination des éditeurs et compétiteurs de jeux vidéos. Les projets ont pu être poursuivis durant deux semaines «  libres  », avant présentation devant un jury extérieur. Groupe #1  : « Planète Cékoi ? » Un jeu vidéo iOS où l’enfant explore des planètes aux thématiques existentielles. Groupe #2  : « Melting peau » Une application pour Google Glass faisant prendre conscience de problèmes sociaux, à expérimenter en atelier au sein de musées comme la Gaité Lyrique. Groupe #3  : «Pourquoi ? Parce que» Un projet d’exposition numérique au sein du futur Musée des Confluences de Lyon. Groupe #4  : «Cinéphilo» Un site web pour comprendre la philo à partir d’extraits de blockbusters. Groupe #5  : «Mon20h» L’application qui décrypte l’actualité pour les touts petits. Groupe #6  : «Philo&Sophie» Une application pour créer chez soi son atelier philo, déclinaison pour enfants de Philosophie Magazine.

CV

Date

Type

Contexte

Résumé

Productions de recherche

Date

Type

Contexte

Résumé

Autres activités

Date

Type

Contexte

Résumé

Tags

Notions
Personnes mentionnées
Objets mentionnés
Médias