Pour une intelligence de l’artificiel. Le design face aux technologies génératives
Contexte
Article publié dans le Bulletin de l’Association Française pour l’Intelligence Artificielle, dir. Samuel Bianchini, no 125, juillet 2024, p. 45-49.
Résumé
Apparues pour le grand public avec le lancement de services tels que DALL·E, Midjourney ou ChatGPT, les technologies du machine learning sont à la base de l’IA dite « générative ». Cet article explore comment dépasser la polarisation humain/machine pour saisir les nuances théoriques, politiques et pratiques que ces technologies soulèvent dans le champ du design.
Apparues pour le grand public avec le lancement de services orientés divertissement et création tels que DALL·E (janvier 2021), Midjourney (juillet 2022) ou ChatGPT (novembre 2022), les technologies du machine learning (« apprentissage automatisé ») sont à la base de l’intelligence artificielle dite « générative ». Celle-ci permet de « générer », à partir de requêtes textuelles (prompts), des objets numériques tels que des textes, images, sons, vidéos, ou fichiers 3D. Ces productions sans auteur·trices suscitent tout autant l’émerveillement que des débats au sein de la communauté créative internationale, qui s’effraie de la menace que ces processus font planer sur la survie des professions du design.
Dépasser la polarisation humain / machine
Selon nous, cette polarisation sur le « remplacement » de l’humain par la machine, en rejouant des récits médiatiques éculés, se révèle nuisible à la compréhension des enjeux sociaux de ces programmes en masquant leurs biais, limites et potentialités. Une question plus pertinente consiste ainsi à explorer la manière dont les technologies du machine learning façonnent et redéfinissent la création. Celles-ci ont en effet pour vertu, derrière des slogans faciles, de soulever des notions aussi diverses que la responsabilité des designers, la nature de l’originalité, ou encore les catégories esthétiques établies. Il ne s’agit donc pas de glorifier l’IA ou de la diaboliser, mais de saisir les nuances et les complexités des questions théoriques, politiques et pratiques qu’elle soulèvent dans le champ du design. Dans cette visée, un projet pilote mené à la HEAD – Genève et financé par la HES-SO de 2021 à 2023 a permis d’explorer trois questions de recherche. Comment l’automatisation propre aux technologies pourrait-elle être réorientée à une échelle plus réduite, de manière maîtrisée et « sur mesure » ? Comment faire en sorte que le machine learning puisse favoriser l’invention et la curiosité ? En quoi le design pourrait-il contribuer à désamorcer la culture dominante de l’IA ? Examinées dans notre essai Design sous artifice : la création au risque du machine learning (HEAD – Publishing, 2023), les conclusions de ce projet dessinent une réflexion en trois temps.
Une compréhension limitée du psychisme humain
La première partie du livre revient sur les origines de ces technologies. Elle montre que le paradigme du deep learning, apparu au tournant des années 2010 et à la base des applications contemporaines de l’IA générative, opère un changement de paradigme où la machine écrit le programme informatique à partir de « données » (fichiers) collectés sur le Web et découpées en « vecteurs » (coordonnées géométriques). Il en résulte une architecture technique structurellement opaque (tant du point de vue des données sources que de leur traitement), échappant à l’entendement humain, et bousculant les habituelles catégories éthiques ou morales puisque les résultats des requêtes sont produits suivant une logique statistique et non pas sémantique. L’ouvrage expose également comment, sur un plan psychologique, cette façon de simuler l’intelligence humaine s’appuie sur une approche comportementaliste de l’être humain, où seul compte ce qui est formulé (verbalisé) en vue d’un objectif. Celle-ci participe aussi d’une visée capitaliste, qui privilégie la productivité à l’exploration et qui écarte l’idée que puisse exister une approche basée sur les dysfonctionnements du psychisme. Des pistes prometteuses, encore peu explorées, consisteraient alors à rouvrir des recherches menées à l’époque de la cybernétique, où plusieurs travaux interrogeaient d’autres modalités de psychisme et formes d’intelligences, notamment animales. Entre autres exemples, une thèse de doctorat menée par Eloïse Vo à la HEAD – Genève, en partenariat avec l’EPFL, s’intéresse ainsi à l’histoire de la Dolphin House : un projet financé par la NASA dans les années 1960 et qui visait à communiquer avec les dauphins dans une maison conçue pour l’occasion dans les îles Vierges américaines. Ce détour historique éclaire les relations entre intelligence humaine et non-humaine et envisage une histoire alternative de l’IA sous l’angle de la synthèse plutôt que de l’artificialité. Si des travaux comme le Contre-atlas de l’IA (Kate Crawford, 2021) ont permis de mieux comprendre la face obscure des aspects économiques, idéologiques et écologiques des modes dominants de la production et de la pratique de l’IA, il resterait à explorer un contre-atlas des pratiques et généalogies alternatives de l’IA, aussi bien sous l’angle de l’expérience située de ses différents acteurs, imaginaires ou autres « hétérotopies ».
Des utopies du cyberespace à la balkanisation du Web
La deuxième partie de l’essai Design sous artifice explore plusieurs risques et biais de l’IA qui, s’ils peuvent sembler à première vue éloignés des métiers de la création, les concernent pourtant en premier lieu, tant en termes de responsabilité (visée sociale) que de construction d’alternatives (ne pas adhérer sans réserve aux façons de faire dominantes de l’économie industrielle). Avec le lancement d’applications grand public au début des années 2020, l’IA est passée du statut de mythe de science-fiction à l’intégration dans des usages variés. C’est à cette jonction, lorsque « les technologies qui offrent le fantastique se conforment aux besoins de la vie quotidienne » (Rebecca Coleman), qu’elles doivent être ré-imaginées. Pareil décalage implique de mesurer ce qui fonde et différencie l’IA d’autres vagues d’innovation numérique, à savoir son caractère profondément politique — ce qui engendre de nombreux risques et défis sociaux. En effet, s’appuyant sur une alliance inédite entre technologie et ultra-libéralisme, l’IA générative commerciale interroge les fondements des démocraties occidentales, remettant en cause les notions de véracité, de vie privée, de propriété et de valeurs partagées. Avec sa double hégémonie industrielle américaine et chinoise, l’IA est devenue un modèle culturel insidieux pour le reste du monde et fait planer le risque d’une nouvelle Guerre froide, comme le note l’analyste Tariq Krim. Dans l’immédiat, l’IA accélère la disparition du Web, menacé depuis la fin des années 2000 par les app stores des smartphones, et désormais scindé en blocs géographiques (Occident, Chine, Iran, Russie, etc.) dans un « splinternet » mettant à mal l’utopie de Tim Berners-Lee d’un partage des connaissances à échelle mondiale.
Des défis sociopolitiques majeurs
En s’appuyant sur des données issues du Web public, lui-même peu représentatif de la diversité de la population mondiale, les IA génératives reproduisent voire renforcent les dynamiques existantes de pouvoir en permettant aux entités qui le détiennent de dominer et de marginaliser davantage les personnes déjà vulnérables. Le labeur nécessaire pour entraîner ces services est majoritairement externalisé vers des pays du Sud Global tels que le Kenya, le Vietnam ou le Venezuela, où les travailleur·euses concerné·es sont qualifié·es de « prolétaires du clic » par le sociologue Antonio Casilli (2019). Ces technologies sont de plus nocives pour la vie privée, car les services commerciaux collectent et exploitent des données personnelles qui peuvent être à des fins commerciales ou de surveillance. Sur le plan légal, les programmes générant, comme par magie, de la création — à la façon d’un Dieu créateur, abstrait de toute contingence matérielle — s’appuient souvent sur des fichiers en ligne collectés sans autorisation, avec une possible infraction du droit d’auteur dès l’entraînement du modèle statistique. Certain·es artistes se sentent ainsi dépossédé·es de leur travail, et des litiges juridiques sont en cours contre des entreprises qui capitalisent sur ces productions. Consubstantielle de l’histoire des technologies, la promesse d’émancipation a été remplacée par celle de l’automatisation — elle-même souvent synonyme de précarisation — voire par la nécessité de l’adaptation (être formé·e ou être remplacé·e). Derrière des succès d’usage, force est de constater que l’IA générative n’a pas encore été mise au service de projets sociaux permettant l’émancipation du plus grand nombre et le développement d’une conscience citoyenne. Face à ces nombreux défis, il est donc nécessaire voire urgent de diversifier l’imaginaire dominant de l’IA et de la réinscrire dans des histoires et contre-histoires plurielles.
L’esprit contre la matière
La troisième et dernière partie de l’essai explore, en ce sens, de nouvelles formes de production ouvertes par ces technologies. Les promesses d’automatisation réduisant l’invention à la reproduction schématique du passé (d’un·e auteur·e, d’un style, etc.) comprennent l’IA dans une optique de rentabilité et ne doivent pas être confondues avec ce qui fonde l’art et le design, à savoir une exploration des potentiels d’une technique ouvrant à d’autres chemins de faire que ceux tracés et promus par l’économique dominante. En focalisant l’attention sur des enjeux productifs (« générer des contenus »), les discours de promotion des IA génératives comprennent les technologies comme des « moyens », c’est-à-dire comme des intermédiaires devant être considérés comme « neutres » pour se modeler aux intentions humaines. La dichotomie essentialiste humain/machine, sous couvert d’innovation ou de révolution, a donc pour conséquence paradoxale de faire écran au « nouveau » : n’est considéré comme recevable que ce qui conforte la possibilité d’une humanité originelle et étanche aux techniques (non artificielle), comme si les deux pouvaient ne pas aller de pair — faisant fi du champ de l’anthropologie des techniques. Autrement dit, les IA ne pourraient accéder au statut d’art qu’à condition de ne pas interférer avec la pensée (la conception, la requête), dans une logique romantique de l’idée du « génie », à l’inverse d’une articulation entre geste, matière et forme. Seule une fréquentation intime des techniques est à même de contrecarrer l’uniformisation des productions esthétiques — ces programmes se basant sur l’analyse statistique de données prélevées en ligne et sur des requêtes formulées en langage dit « naturel », comme si au commencement était le verbe. Croire au sensible (à l’esthétique) implique de faire place au caractère non verbal de l’expérience esthétique. Face aux prises (de vue, de données), l’art et le design sont autant d’occasions de déprises et de surprises.
Pluraliser les techniques
Afin de tracer d’autres voies que celles de l’imitation et de l’uniformisation, l’essai intègre des apports de studios de design basés en Europe et travaillant de façon prospective avec ces technologies. Recueillis par l’enseignante et designer Alexia Mathieu en 2021-2022, soit donc à l’aube du développement des services d’IA grand public, ces entretiens dessinent plusieurs directions de travail pouvant intéresser le plus grand nombre. Ces « potentialités créatives » ont été regroupées selon les cinq axes suivants : « Révéler les dynamiques de standardisation » (avérer ce qui, dans notre quotidien, est déjà formaté), « Responsabiliser l’injonction à la simplicité » (mettre en évidence la dimension matérielle et humaine de ces technologies), « Jouer avec les aléas et limites de la prédiction » (moins chercher l’adéquation avec une intention que ce qui s’en écarte), « Traduire des codes culturels » (transposer de l’image en son, 3D, vidéo, etc., ou des concepts en médias), « Inventer de nouveaux modes de collaboration » (considérer la machine comme un·e partenaire plutôt que comme un·e assistant·e). Réunissant plusieurs de ces axes, le projet Made in Machina/e (2018) du studio OIO (Simone Rebaudengo et Sami Niemelä) est un bon exemple d’une démarche entraînant l’IA dans d’autres directions que celles habituellement promues. En agrégeant et en hybridant des jeux de données de deux cultures techniques opposées, celle des composants électroniques d’usines chinoises et celle du design produit des pays du Nord de l’Europe, le projet invente des objets chimériques et inattendus tels qu’un chandelier à smartphones ou un contrôleur en vitrocéramique de jeux vidéo. Il prouve que ces technologies ne sauraient être réduites à un sens unique mais qu’il est possible, à condition de s’y engager depuis l’intérieur, de les pluraliser.
Vers des IA sur mesure
Avec le recul lié à la parution de l’essai Design sous artifice en mars 2023, il apparaît d’autres pistes de travail que l’auteur du présent texte s’efforce actuellement de développer ou de soutenir au sein de la HEAD – Genève. Tout d’abord, considérer l’idée d’une « intelligence de l’artificiel » souligne l’importance de la diversité des formes d’intelligence — y compris celles qui ne sont pas purement humaines ou machiniques, mais quelque part entre les deux. Explorer ces espaces intermédiaires ouvre à de nouvelles formes de collaboration hybridant êtres vivants et machines — une tâche d’autant plus urgente que se développent des interfaces dites « neuronales » charriant (à nouveau) la promesse d’une connexion directe avec le cerveau humain. Dans cette optique, il importe aussi de considérer le récent développement commercial des « sexbots » et autres « AI Girlfriends », à savoir des objets et services modélisant via l’IA des normes sexuelles et sentimentales et qui mériteraient d’être réinvestis par le design depuis des optiques féministes, queer et antivalidistes. Une autre piste consiste à revisiter les notions, mouvantes dans le temps et dans l’espace, de faux et d’original pour envisager à nouveaux frais les actuelles problématiques de désinformation par l’IA. Ne pourrait-on pas, à l’inverse, réactiver la longue tradition de la simulation voire du canular pour déconditionner le champ du design de ses grandes figures, rituels et objets-maîtres ? Une dernière direction, la plus opérante à court terme, consiste à établir des « petits » jeux de données constitués par des artistes et designers afin de se distancer de l’opacité et du poids normatifs des large language models. Cette approche « sur mesure », fonctionnant en local, a comme avantage de maîtriser une plus grande partie du processus de travail et de situer l’IA comme une étape plutôt que comme une finalité.
Pour des technologies déceptives
Dans un essai intitulé Décevoir est un plaisir (2024), le philosophe Laurent de Sutter s’intéresse aux enjeux qu’implique le renoncement à espérer, c’est-à-dire à considérer que puisse advenir, en des temps futurs, un état stabilisé où nous serions sauvés par un ordre supérieur. Si cette attitude a pour avantage d’éviter d’être « déçu », c’est-à-dire d’annihiler le décalage entre l’attente et ce qui arrive, elle a aussi pour revers de manquer ce qui est déjà là, parmi nous, et donc de figer la possibilité du faire. La distinction que Laurent de Sutter installe entre les notions de « projection » (jeter au loin) et d’« orientation » (déterminer les points clé du lieu où l’on se trouve) acte, au contraire, l’importance de faire au mieux avec ce qu’on a :
« Toute orientation n’est jamais qu’un point de départ — tandis qu’une projection présuppose que l’on soit déjà arrivé avant même que le premier pas n’ait encore été accompli […]. Dans l’orientation, on ne progresse que pas après pas, étape par étape, dans l’exploration de ce qui était inconnu et qui, de devenir connu, ne fait que céder la place à un inconnu autre ; dans la projection, on se contente d’accomplir un grand saut, qui règle tout (p. 25-26). »
Replacées dans les champs de l’intelligence artificielle générative et du design, de tels propos mettent en évidence, d’une part, l’absurdité de comprendre la création comme la reproduction servile du passé (rien ne doit déborder du connu) et, d’autre part, le danger d’attendre des technologies, dans une visée mystique, qu’elles nous épargnent le labeur du faire. Se loge en creux, comme un non-dit, l’idée que les technologies, à mesure qu’elles promettent davantage d’automatisation, éludent en parallèle la possibilité d’une émancipation. L’idée d’un travail « avec » les techniques a été déniée à mesure que celles-ci ne se présentent plus comme des matières mais comme des horizons d’attente. Sans doute gagnerait-on à envisager le design comme un art de l’orientation : (mieux) faire avec ce qui est là plutôt que d’espérer une fin des temps où nos tracas existentiels seraient « résolus » comme par artifice.