Repenser l’IA

Il y a une résonance certaine entre l’agitprop de 68 et les médias sociaux. Les participants à la grève de l’UCU au début de cette année, par exemple, ont utilisé Twitter comme plate-forme à la fois de solidarité affective et d’auto-organisation pratique 1
Cependant, il existe une généalogie différente qui parle directement de notre état actuel; celle de la théorie des systèmes et de la cybernétique. Que se passe-t-il lorsque la lutte dans les rues se déroule dans la ville intelligente des capteurs et des données? Peut-être que la révolution ne sera pas télévisée, mais elle fera certainement l’objet d’une analyse algorithmique. N’oublions pas que 1968 a également vu la sortie de «2001: A Space Odyssey», mettant en vedette le supercalculateur AI HAL.
Alors que l’opposition à la guerre du Vietnam était un point de ralliement pour les mouvements de 1968, la guerre elle-même était également remarquable pour l’application de l’analyse des systèmes par le secrétaire américain à la Défense, Robert McNamara, qui a tenté d’en faire, dans le langage moderne, une base de données. guerre menée.
Pendant la guerre du Vietnam, le programme de pacification du hameau a produit à lui seul 90 000 pages de données et de rapports par mois 2, et la mesure du nombre de corps a été publiée dans les quotidiens. Le milieu qui a contribué à créer nos dilemmes algorithmiques actuels était le tourbillon contemporain de théorie des systèmes et de cybernétique, d’idées sur le comportement émergent et d’expériences avec le raisonnement informatique, et le mélange du financement militaire avec les visions hippies du catalogue Whole Earth.
La double hélice de DARPA et de la Silicon Valley peut être retracée à travers l’évolution du Web jusqu’à nos jours, où l’IA et l’apprentissage automatique font des percées partout avec leurs propres récits de bouleversements révolutionnaires; une piste d’analyse prédictive à Ho Chi Minh.
Ils jouent mieux que les grands maîtres et se préparent à conduire la voiture de tout le monde, tandis que les médias paniquent à propos de l’IA qui prend nos emplois. Mais cette IA n’a rien à voir avec HAL. C’est une forme de recherche de motifs basée sur la minimisation mathématique; comme une version complexe de l’ajustement d’une ligne droite à un ensemble de points. Ces algorithmes trouvent la solution optimale lorsque les données d’entrée sont à la fois abondantes et en désordre. Des algorithmes comme la rétropropagation 3 peuvent trouver des modèles dans les données qui étaient insolubles à la description analytique, tels que la reconnaissance des visages humains vus sous différents angles, dans les ombres et avec les occlusions. Les algorithmes de l’IA corrigent les corrélations et les résultats fonctionnent souvent étrangement bien.
Mais ce sont toujours les ordinateurs qui font ce que les ordinateurs ont fait depuis l’époque des tubes à vide; effectuer des calculs mathématiques plus rapidement que nous. Grâce à des algorithmes comme les réseaux de neurones, cette puissance de calcul peut apprendre à nous émuler d’une manière que nous n’aurions jamais devinée. Cet apprentissage peut être appliqué à tout contexte qui se résume à un ensemble de nombres, de sorte que les caractéristiques de chaque exemple sont réduites à une ligne de chiffres entre zéro et un et sont étiquetées par un résultat cible. Les ensembles de données finissent par être à peu près les mêmes, qu’il s’agisse de scans de cancer ou de chiffres de visualisation Netflix.
Il n’y a rien à l’intérieur à part les maths; pas de conscience de soi et pas d’assimilation de l’expérience incarnée. Ces machines peuvent développer leurs propres comportements non programmés mais ne savent absolument pas si ce qu’elles ont appris a du sens. Et pourtant, l’apprentissage automatique et l’IA deviennent les mécanismes du raisonnement moderne, apportant avec eux le type de dualisme contre lequel la philosophie de 68 a été opposée, une croyance en une couche cachée de réalité qui est ontologiquement supérieure et exprimée mathématiquement 4.
La précision delphique de l’IA s’accompagne d’une opacité intégrée car les calculs massivement parallèles ne peuvent pas toujours être inversés au raisonnement humain, tandis qu’en même temps, ils régurgiteront volontiers les préjugés de la société lorsqu’ils seront formés sur des données sociales brutes. Il est également mathématiquement impossible de concevoir un algorithme qui soit équitable pour tous les groupes en même temps 5
Par exemple, si les taux de base de récidive varient selon l’origine ethnique, un algorithme de récidive comme COMPAS prédira différents nombres de faux positifs et davantage de Noirs se verront injustement refuser la mise en liberté sous caution 6. famille »ou« étudiant susceptible de ne pas réussir », fractalisant les binaires sociaux partout où ils se divisent en« est »et« n’est pas ». Ce n’est pas seulement une question de données divulguées déformant notre moi authentique, mais de technologies de soi qui, à travers la répétition, produisent des sujets et agissent sur eux. Et, alors que l’analyse de l’IA commence à surcoder les examens IRM pour forcer les symptômes psychosociaux à revenir dans le cerveau, nous verrons même des algorithmes jouer un rôle dans le devenir de notre corps 7
Technologie politique
Ce que nous appelons l’IA, c’est-à-dire l’apprentissage automatique agissant dans le monde, est en fait une technologie politique au sens large. Pourtant, sous le couvert de prétentions algorithmiques à l’objectivité, à la neutralité et à l’universalité, il y a un changement infrastructurel d’allégeance à la gouvernance algorithmique.
La dialectique qui propulse l’IA au cœur du système est la contradiction des sociétés riches en données mais sujettes à l’austérité. Il suffit de regarder les annonces récentes concernant un nouveau NHS courageux pour voir la ferveur accueillir ce salut 8 Alors que la crise financière mondiale est fabriquée, la restructuration est réelle; des algorithmes s’inscrivent dans la refiguration du travail et des relations sociales de telle sorte que l’emploi précaire dépend de la satisfaction des exigences algorithmiques 9 et la sphère publique existe au sein d’une économie de l’attention ciblée.
Les algorithmes et l’apprentissage automatique en viennent à agir de la manière décrite avec brio par Pierre Bourdieu, comme des structures structurées prédisposées à fonctionner comme des structures structurantes 10, de telle sorte qu’elles deviennent absorbées par nous sous forme d’habitudes, d’attitudes et de comportements pré-réflexifs.
En fait, comme le réchauffement climatique, l’IA est devenue un hyperobjet 11 si massif que sa totalité n’est réalisée dans aucune manifestation locale, une entité de dimension supérieure qui adhère à tout ce qu’elle touche, quelle que soit la résistance, et que nous percevons à travers ses informations. empreintes.
Une empreinte clé de l’apprentissage automatique est son pouvoir prédictif. Après avoir appris les éléments grossiers et subtils d’un modèle, il peut être appliqué à de nouvelles données pour prédire le résultat le plus probable, qu’il s’agisse d’une décision d’achat ou d’une attaque terroriste. Cela conduit inéluctablement à la logique de la préemption dans tout domaine social où des données existent, qui sont tous les domaines sociaux, de sorte que les algorithmes prédisent quels détenus devraient bénéficier d’une libération conditionnelle et quels parents sont susceptibles d’abuser de leurs enfants 12 13
Nous devons garder à l’esprit que la logique de ces analyses est la corrélation. Il s’agit purement d’un filtrage, et non de la révélation d’un mécanisme causal, donc forcer la forclusion d’autres futurs devient un effet sans cause. Les frontières de calcul qui classent les données d’entrée se transforment en exclusions cybernétiques, mettant en œuvre des formes continues de ce qu’Agamben appelle des états d’exception. L’impératif interne de tout apprentissage automatique, qui est d’optimiser l’adéquation de la fonction générée, s’inscrit dans un processus d’optimisation sociale et économique, fusionnant les stratégies marketing et militaires à travers l’activité unitaire de ciblage.
Une société dont les synapses ont été remplacées par des réseaux de neurones tendra généralement à une version renforcée du statu quo. L’apprentissage automatique en lui-même ne peut pas apprendre un nouveau système de modèles sociaux, il suffit de gonfler ceux existants comme éternellement calculatoires. De plus, le poids de ces effets amplifiés tombera sur le plus de données visibles, c’est-à-dire les pauvres et les marginalisés. L’effet net étant, comme l’indique le titre du livre, l’automatisation des inégalités 14
Mais au moment même où la technologie a émergé pour automatiser pleinement le néolibéralisme, le système plus large a perdu son autorité du meilleur du monde, et l’autoritarisme raciste se métamorphose à travers le placage de la démocratie.
Contamination et résistance
L’opacité des classifications algorithmiques a déjà tendance à échapper à la régularité de la procédure, peu importe quand les leviers de la corrélation de masse sont à la disposition d’idéologies basées sur des théories du complot paranoïaque. Un noyau commun à toutes les formes de fascisme est une renaissance de la nation de sa décadence actuelle, et une mobilisation pour faire face aux parties de la population qui sont la contamination 15
L’identification automatisée des anomalies est exactement ce pour quoi l’apprentissage automatique est bon, tout en favorisant le genre de légèreté qu’Arendt a identifié dans Eichmann.
Voilà pour l’intensification des tendances autoritaires par l’IA. Et la résistance?
Le personnel dissident de Google les a forcés à abandonner en partie le projet Maven 16, qui développe le ciblage des drones, et les travailleurs d’Amazon font campagne contre la vente de systèmes de reconnaissance faciale au gouvernement. Mais ces travailleurs sont les guildes privilégiées de la technologie moderne; ce n’est pas un retour du pouvoir de la classe ouvrière.
Au Royaume-Uni et aux États-Unis, il existe une pression institutionnelle générale pour une IA éthique – en fait, vous ne pouvez pas vous déplacer pour des initiatives visant à ajouter l’éthique aux algorithmes 17, mais je soupçonne que c’est principalement une RP préemptive pour dissiper le malaise croissant des gens à propos de leurs futurs suzerains de l’IA . Toutes les initiatives qui veulent rendre l’IA éthique semblent penser qu’il s’agit d’ajouter quelque chose, c’est-à-dire de l’éthique, au lieu de révéler la valeur ajoutée à chaque niveau de calcul, jusqu’aux mathématiques.
Les modèles de pratiques démocratiques radicales offrent une réponse plus politique à travers des structures telles que les conseils populaires composés de personnes directement touchées, mobilisant ce que Donna Haraway appelle des connaissances situées par le biais de l’horizontalisme et de la démocratie directe 18 Bien qu’il s’agisse de modes de résistance valides, il existe également la notion de 68 de des groupes comme les situationnistes que le Spectacle génère le potentiel de sa propre substitution 19
Je dirais que la qualité d’auto-renversement de l’IA est son surréalisme latent. Par exemple, des expériences pour comprendre comment fonctionne réellement la reconnaissance d’images ont sondé le contenu des couches intermédiaires dans les réseaux de neurones, et en appliquant récursivement des filtres à ces sorties, elles ont produit des images hallucinantes qui sortent tout droit d’un voyage acide, comme les escargots et les arbres fait entièrement des yeux 20 Lorsque les gens alimentent délibérément l’IA avec le mauvais type de données, ils font des classifications surréalistes. C’est très amusant, et peut même faire de l’art qui est présenté dans les galeries 21 mais, comme la route situationniste à travers la région du Harz en Allemagne tout en suivant aveuglément une carte de Londres, cela peut aussi être une désorientation poétique qui nous amène hors de notre catégories habituelles.
Ludique sérieux
Alors que les entreprises et les bureaucraties appliquent l’IA aux contextes les plus sérieux pour gagner ou économiser de l’argent ou, par un miracle d’objectivité machinique, résoudre les problèmes les plus difficiles de la société, son potentiel de libération est en fait ludique.
Il devrait être utilisé de manière ludique au lieu d’être abusé comme une forme de prophétie. Mais sérieusement ludique, comme la tactique des situationnistes eux-mêmes, un désordre des sens pour révéler les possibilités cachées par le poids mort de la marchandisation. Réactivant les demandes des mouvements sociaux de 68 que le travail devienne un jeu, l’utile devient le bien et la vie elle-même devient art.
En ce moment, où notre avenir est coupé par la préemption algorithmique, nous devons poursuivre une philosophie politique qui a été adoptée en 68, de vivre la nouvelle société par une action authentique dans l’ici et maintenant.
Une contre-culture de l’IA doit être basée sur l’immédiateté. La lutte dans les rues doit aller de pair avec un arrêt du machine learning; celui qui cherche une décentralisation authentique, pas un servage uberisé, et un horizontalisme fédéré pas les coups de pouce invisibles de la gouvernance algorithmique. Nous voulons une IA amusante et antifasciste, donc nous pouvons dire sous la propagation arrière, la plage! ».