Dans les algorithmes | IA, la grande escroquerie
Un très grand livre, toujours pas fini chez moi oups.
Mes notes de lecture :
AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas.
Les promoteurs de l’IA ne cessent de répéter que leurs machines approchent de la conscience ou que les être humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions échanger avec elles comme si elles étaient des compagnons ou des amis. Dans cet argumentaire, les humains sont réduits à des machines.
Les promoteurs de l’IA passent leur temps à dévaluer ce que signifie être humain, comme l’ont montré les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considérées comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette manière de dévaluer l’humain par la machine, d’évaluer la machine selon sa capacité à résoudre les problèmes n’est pas sans rappeler les dérives de la mesure de l’intelligence et ses délires racistes. La mesure de l’intelligence a toujours été utilisée pour justifier les inégalités de classe, de genre, de race.
L’IA est un projet politique porté par des gens qui n’ont rien à faire de la démocratie parce qu’elle dessert leurs intérêts et qui tentent de nous convaincre que la rationalité qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondément orientée par leurs intérêts
L’IA se déploie partout avec la même promesse, celle qu’elle va améliorer la productivité, quand elle propose d’abord « de remplacer le travail par la technologie ». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique », expliquent les chercheuses. « L’IA est déployée pour dévaluer le travail en menaçant les travailleurs par la technologie qui est supposée faire leur travail à une fraction de son coût ».
En vérité, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payée à l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carrières que nous pouvons bâtir, par du travail à la tâche. L’IA ne propose que de remplacer les travailleurs de la création par des « babysitters de machines synthétiques ».
L’IA n’est que la poursuite de cette longue tradition de l’industrie à chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dégrader les conditions de travail au nom de la productivité.
Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’être réel pour avoir des impacts.
Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dégrader nos conditions de travail. Les scénaristes sont payés moins chers pour réécrire un script que pour en écrire un, tout comme les traducteurs sont payés moins chers pour traduire ce qui a été prémâché par l’IA.
L’escroquerie de l’IA se développe également dans les services sociaux. Sous prétexte d’austérité, les solutions automatisées sont partout envisagées comme « la seule voie à suivre pour les services gouvernementaux à court d’argent ». L’accès aux services sociaux est remplacé par des « contrefaçons bon marchés » pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inégalités au détriment de ceux qui sont déjà marginalisés. Bien sûr, les auteurs font référence ici à des sources que nous avons déjà mobilisés, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacité ne rend les autorités efficaces que pour nuire aux plus démunis« .
Dans le social, la santé ou l’éducation, le développement de l’IA est obnubilé par l’efficacité organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marché. « L’IA n’est qu’un pauvre facsimilé de l’Etat providence ». « Elle propose à tous ce que les techs barons ne voudraient pas pour eux-mêmes ». « Les machines qui produisent du texte synthétique ne combleront pas les lacunes de la fabrique du social ».
Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources, concluent les chercheuses.
Pour les deux chercheuses, la résistance à l’IA passe d’abord et avant tout par luttes collectives. C’est à chacun et à tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est à nous de rendre l’usage des médias synthétiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la résistance à ces déploiements est essentielle, tant les géants de l’IA sont en train de l’imposer, par exemple dans notre rapport à l’information, mais également dans tous leurs outils. C’est à nous de refuser « l’apparente commodité des réponses des chatbots ». C’est à nous d’oeuvrer pour renforcer la régulation de l’IA, comme les lois qui protègent les droits des travailleurs, qui limitent la surveillance.
Emily Bender et Alex Hanna plaident pour une confiance zéro à l’encontre de ceux qui déploient des outils d’IA. Ces principes établis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, établir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers.
What Google Zero Means for Journalism w/ Matt Pearce - Episodes - Tech Won’t Save Us
Un bon épisode
Anti-Tech Resistance : Ni de gauche, ni de droite, mais bien réac. - Le Mouton Numérique
Cela fait écho à ce que j'écris souvent (mais en beaucoup beaucoup plus modeste) : il y a une ligne de crête parfois fine entre technocritique « radicale » et sérieuse, et technophobie tendance réac. Un article dense et musclé mais important.
Usbek & Rica - Qui est derrière Anti-tech résistance, le collectif « le plus radical de notre époque » ?
Aux origines de la technocritique réactionnaire -(1797-1945) – (Partie I) – Futuromium
Intelligence artificielle : « Nous devons combattre le fanatisme technologique »
L’extractivisme technologique, nouvelle force néocoloniale ?
The Slop Society
the tech utopia fantasy is over | ava's blog
The point of all of this is to say: the tech utopia fantasy is truly dead to me. The image of the cool, hippie, leftist Silicon Valley tech is wrong. The companies themselves and the VC’s they take money from are supporting values and governments that do not act in your best interest and do not even align with their marketing image. Don’t be further misled. Stop giving them your money, time and data as much as possible for you. They won't bring us closer to these ideals they promise.
Via le Khryspresso
Making Sense of a Pro-Tech Trump Presidency with Brian Merchant - Episodes - Tech Won’t Save Us
Podcast: The Corruption of Open Source / Tech Won't Save Us
Quand le sage montre la lune, l'imbécile regarde le doigt | Publications
Smartphones au collège : de quoi la « pause numérique » est-elle le nom ?
Je vais être un peu provocateur, mais il ne faut toutefois pas l'oublier : l'ordinateur a été créé pour être un outil d'émancipation. le smartphone a été créé pour être un outil de consommation. Ces deux équipements numériques ont beau être tous les deux des « machines à calculer », ils ne pourraient pas être plus différents dans leur histoire et leurs capacités.
13 ways tech has made my life worse
La première est tellement vraie... Globalement le reste aussi haha. J'en ferai une version française !
Une sociohistoire des critiques numériques | Cairn.info
Cet article de présentation du dossier thématique rappelle que la multiplication des remises en cause de la Silicon Valley s’inscrit dans une histoire plus longue des mobilisations sociales et des théories critiques de l’informatique et des réseaux. L’objet du dossier est de relire l’histoire du numérique à travers les lunettes de la critique. L’historiographie et la sociologie de ces critiques permettent de reconstituer les étapes de construction du numérique en tant qu’objet homogène, en dépit d’une multitude de pratiques, d’espaces et de sens. Elles éclairent également les thèmes qui ont accompagné ce développement. Cette introduction présente ce faisant les grandes lignes d’une sociohistoire des critiques du numérique depuis la fin des années 1970 ; elle souligne à la fois la continuité et le renouvellement des motifs critiques depuis cette période jusqu’au techlash actuel. À partir de quoi, le dossier propose des outils analytiques, qui témoignent de l’influence de lignages philosophiques et politiques plus anciens tels que la critique sociale, la critique libérale et la critique écologique. L’étude des critiques numériques rejoue ainsi l’opposition classique entre critique interne et critique externe. L’article propose enfin une réflexion sur les « numérisations de la critique ».
Pour un mouvement technocritique en bibliothèque – Biblio Numericus
Via Julie Brillet :)
Au cœur de la société numérique : remarques sur un scandale - ritimo
Le logiciel était défectueux, mais tout le monde l’a cru – la Poste, les avocat·es des victimes, le système judiciaire qui les a condamné·es, les communautés où iels vivaient, la plupart des médias britanniques.
Le logiciel inventait des chiffres qui n’existaient pas, et des petits commerces innocents ont dû payer le prix de cette erreur. Pour reprendre un mot qui est de plus en plus à la mode avec l’IA générative, il « hallucinait ».
Il s’agit de l’échec des deux systèmes, technologique et humain. Le logiciel ne fonctionnait pas, mais trop de gens pensaient que l’ordinateur a forcément raison.
AI isn't useless. But is it worth it?
Lire surtout le paragraphe "cost and benefits"
Throughout all this exploration and experimentation I've felt a lingering guilt, and a question: is this even worth it? And is it ethical for me to be using these tools, even just to learn more about them in hopes of later criticizing them more effectively?
The costs of these AI models are huge, and not just in terms of the billions of dollars of VC funds they're burning through at incredible speed. These models are well known to require far more computing power (and thus electricity and water) than a traditional web search or spellcheck. Although AI company datacenters are not intentionally wasting electricity in the same way that bitcoin miners perform millions of useless computations, I'm also not sure that generating a picture of a person with twelve fingers on each hand or text that reads as though written by an endlessly smiling children's television star who's being held hostage is altogether that much more useful than a bitcoin.
There's a huge human cost as well. Artificial intelligence relies heavily upon "ghost labor": work that appears to be performed by a computer, but is actually delegated to often terribly underpaid contractors, working in horrible conditions, with few labor protections and no benefits. There is a huge amount of work that goes into compiling and labeling data to feed into these models, and each new model depends on ever-greater amounts of said data — training data which is well known to be scraped from just about any possible source, regardless of copyright or consent. And some of these workers suffer serious psychological harm as a result of exposure to deeply traumatizing material in the course of sanitizing datasets or training models to perform content moderation tasks.
Then there's the question of opportunity cost to those who are increasingly being edged out of jobs by LLMs,i despite the fact that AI often can't capably perform the work they were doing. Should I really be using AI tools to proofread my newsletters when I could otherwise pay a real person to do that proofreading? Even if I never intended to hire such a person? Or, more accurately, by managers and executives who believe the marketing hype out of AI companies that proclaim that their tools can replace workers, without seeming to understand at all what those workers do.
Finally, there's the issue of how these tools are being used, and the lack of effort from their creators to limit their abuse. We're seeing them used to generate disinformation via increasingly convincing deepfaked images, audio, or video, and the reckless use of them by previously reputable news outlets and others who publish unedited AI content is also contributing to misinformation. Even where AI isn't being directly used, it's degrading trust so badly that people have to question whether the content they're seeing is generated, or whether the "person" they're interacting with online might just be ChatGPT. Generative AI is being used to harass and sexually abuse. Other AI models are enabling increased surveillance in the workplace and for "security" purposes — where their well-known biases are worsening discrimination by police who are wooed by promises of "predictive policing". The list goes on.