Cela fait écho à ce que j'écris souvent (mais en beaucoup beaucoup plus modeste) : il y a une ligne de crête parfois fine entre technocritique « radicale » et sérieuse, et technophobie tendance réac. Un article dense et musclé mais important.
The point of all of this is to say: the tech utopia fantasy is truly dead to me. The image of the cool, hippie, leftist Silicon Valley tech is wrong. The companies themselves and the VC’s they take money from are supporting values and governments that do not act in your best interest and do not even align with their marketing image. Don’t be further misled. Stop giving them your money, time and data as much as possible for you. They won't bring us closer to these ideals they promise.
Via le Khryspresso
Excellent article de Ploum !
Je vais être un peu provocateur, mais il ne faut toutefois pas l'oublier : l'ordinateur a été créé pour être un outil d'émancipation. le smartphone a été créé pour être un outil de consommation. Ces deux équipements numériques ont beau être tous les deux des « machines à calculer », ils ne pourraient pas être plus différents dans leur histoire et leurs capacités.
La première est tellement vraie... Globalement le reste aussi haha. J'en ferai une version française !
Cet article de présentation du dossier thématique rappelle que la multiplication des remises en cause de la Silicon Valley s’inscrit dans une histoire plus longue des mobilisations sociales et des théories critiques de l’informatique et des réseaux. L’objet du dossier est de relire l’histoire du numérique à travers les lunettes de la critique. L’historiographie et la sociologie de ces critiques permettent de reconstituer les étapes de construction du numérique en tant qu’objet homogène, en dépit d’une multitude de pratiques, d’espaces et de sens. Elles éclairent également les thèmes qui ont accompagné ce développement. Cette introduction présente ce faisant les grandes lignes d’une sociohistoire des critiques du numérique depuis la fin des années 1970 ; elle souligne à la fois la continuité et le renouvellement des motifs critiques depuis cette période jusqu’au techlash actuel. À partir de quoi, le dossier propose des outils analytiques, qui témoignent de l’influence de lignages philosophiques et politiques plus anciens tels que la critique sociale, la critique libérale et la critique écologique. L’étude des critiques numériques rejoue ainsi l’opposition classique entre critique interne et critique externe. L’article propose enfin une réflexion sur les « numérisations de la critique ».
Via Julie Brillet :)
Le logiciel était défectueux, mais tout le monde l’a cru – la Poste, les avocat·es des victimes, le système judiciaire qui les a condamné·es, les communautés où iels vivaient, la plupart des médias britanniques.
Le logiciel inventait des chiffres qui n’existaient pas, et des petits commerces innocents ont dû payer le prix de cette erreur. Pour reprendre un mot qui est de plus en plus à la mode avec l’IA générative, il « hallucinait ».
Il s’agit de l’échec des deux systèmes, technologique et humain. Le logiciel ne fonctionnait pas, mais trop de gens pensaient que l’ordinateur a forcément raison.
Lire surtout le paragraphe "cost and benefits"
Throughout all this exploration and experimentation I've felt a lingering guilt, and a question: is this even worth it? And is it ethical for me to be using these tools, even just to learn more about them in hopes of later criticizing them more effectively?
The costs of these AI models are huge, and not just in terms of the billions of dollars of VC funds they're burning through at incredible speed. These models are well known to require far more computing power (and thus electricity and water) than a traditional web search or spellcheck. Although AI company datacenters are not intentionally wasting electricity in the same way that bitcoin miners perform millions of useless computations, I'm also not sure that generating a picture of a person with twelve fingers on each hand or text that reads as though written by an endlessly smiling children's television star who's being held hostage is altogether that much more useful than a bitcoin.
There's a huge human cost as well. Artificial intelligence relies heavily upon "ghost labor": work that appears to be performed by a computer, but is actually delegated to often terribly underpaid contractors, working in horrible conditions, with few labor protections and no benefits. There is a huge amount of work that goes into compiling and labeling data to feed into these models, and each new model depends on ever-greater amounts of said data — training data which is well known to be scraped from just about any possible source, regardless of copyright or consent. And some of these workers suffer serious psychological harm as a result of exposure to deeply traumatizing material in the course of sanitizing datasets or training models to perform content moderation tasks.
Then there's the question of opportunity cost to those who are increasingly being edged out of jobs by LLMs,i despite the fact that AI often can't capably perform the work they were doing. Should I really be using AI tools to proofread my newsletters when I could otherwise pay a real person to do that proofreading? Even if I never intended to hire such a person? Or, more accurately, by managers and executives who believe the marketing hype out of AI companies that proclaim that their tools can replace workers, without seeming to understand at all what those workers do.
Finally, there's the issue of how these tools are being used, and the lack of effort from their creators to limit their abuse. We're seeing them used to generate disinformation via increasingly convincing deepfaked images, audio, or video, and the reckless use of them by previously reputable news outlets and others who publish unedited AI content is also contributing to misinformation. Even where AI isn't being directly used, it's degrading trust so badly that people have to question whether the content they're seeing is generated, or whether the "person" they're interacting with online might just be ChatGPT. Generative AI is being used to harass and sexually abuse. Other AI models are enabling increased surveillance in the workplace and for "security" purposes — where their well-known biases are worsening discrimination by police who are wooed by promises of "predictive policing". The list goes on.
Nous souhaitons également réfléchir aux conditions politiques, techniques et sociales qui permettent l’émergence de dispositifs numériques qui servent l’intérêt général, via des questionnements comme : une IA responsable est-elle possible ? À quelles conditions a-t-on un « commun numérique » ?
“Quand les objets, les services, les interfaces, les algorithmes font à notre place plutôt qu’avec nous ; qu’ils nous obligent à faire ; qu’ils automatisent ou nous automatisent ; c’est notre autonomie qui manque de s’exercer, de se ramollir. Et nous de nous endormir dans un monde qui requiert notre attention lucide.”
Extrait de notre manifeste