Source : Next - Flux Complet
Invités par le think tank de l’Institut Messine, Gaspard Koenig, essayiste et romancier, Cédric Villani, mathématicien et homme politique, et Laurence Devillers, chercheuse au CNRS et professeure à la Sorbonne, ont échangé sur les bouleversements causés par l’intelligence artificielle et ses perspectives. Tous les trois s’accordent sur un point : si elle amorce une rupture technologique, l’IA va à rebours des principes fondamentaux de la science.
Dingue. On a beau être habitué, c'est dingue...
Source : Next - Flux Complet
Less privacy. More environmental impact. More hype. Cool.
Source : Cory Dransfeldt
Regulation is an obvious answer, and there’s no question that more of that is needed. But that on its own may not be enough. Lawmakers often don’t understand quickly developing technologies well enough to regulate them with much sophistication. There’s also the threat of regulatory capture.
This is why company insiders want the right to warn the public. They’ve got a front-row seat to the developing technology and they understand it better than anyone. If they’re at liberty to speak out about the risks they see, companies may be more incentivized to take those risks seriously. That would be beneficial for everyone, no matter what kind of AI risk keeps them up at night.
Source : Technology – Vox
Chez Next, on essaie d’aborder l’intelligence artificielle en gardant ce type de questions en tête. On s’interroge aussi sur l’utilité des technologies que l’on croise avant de s’y attarder. Notre problème, évidemment, est qu’il est matériellement impossible de traiter la totalité des applications concrètes de l’IA. Chaque jour, il nous faut donc faire des choix.
La voracité énergétique des intelligences artificielles de Microsoft, Google, OpenAI et Meta pourrait s'avérer bloquante pour cette technologie prometteuse. En compétition pour se fournir en électricité, ils mettent la main au portefeuille.
En clair, l'amélioration des grands modèles de langage comme GPT, Gemini, Llama ou Mistral Large ne suffira donc pas pour rendre viable une IA capable de raisonner au service de l'humanité ou au moins de servir d'assistant personnel à tout un chacun. « Il n'y a aucun moyen d'y parvenir sans une percée scientifique », faisait-il remarquer, catégorique. Joignant l'acte à la parole, Sam Altman est depuis longtemps investisseur dans de nouvelles technologies énergétiques, notamment la fusion nucléaire via la start-up Helion.
Excellente itw de bout en bout
Source : Next - Flux Complet
UX strategist Scott Jenson, who left Google last month, criticizes the company's AI projects as poorly motivated and driven by panic.
Totalement en lien avec mon article d'hier tiens.
L'IA n'est pas une course aux armements, c'est un concours de prestidigitateurs, face auquel le scepticisme par défaut devient la seule attitude saine.
Les hallucinations sont inévitables. Elles sont une propriété structurelle de ces systèmes. Ça-ne-se-répare-pas. L'industrie le sait très bien.
Les prochains mois seront un (enième) carnage économique. Mais Google s'en fout. Google détient 90, 1% du marché de la recherche en ligne. Google est un monopole. Il ne craint ni la régulation, ni la compétition, ni l'échec commercial. Il n'a même plus besoin que son service soit fiable. Google peut s'auto-mutiler sans sourciller. Le Web sémantique et le Web synthétique se dissolvent dans son Web monopolistique. Que vous le vouliez ou non, Google va mal googler des trucs à votre place sur Google. Google va vous résumer le monde comme il veut. Google va vous conseiller de boire votre pisse pour vous guérir du cancer. Et vous allez écouter, sans sourciller. Ainsi va le monopole.
Quittez Google.
Lire surtout le paragraphe "cost and benefits"
Throughout all this exploration and experimentation I've felt a lingering guilt, and a question: is this even worth it? And is it ethical for me to be using these tools, even just to learn more about them in hopes of later criticizing them more effectively?
The costs of these AI models are huge, and not just in terms of the billions of dollars of VC funds they're burning through at incredible speed. These models are well known to require far more computing power (and thus electricity and water) than a traditional web search or spellcheck. Although AI company datacenters are not intentionally wasting electricity in the same way that bitcoin miners perform millions of useless computations, I'm also not sure that generating a picture of a person with twelve fingers on each hand or text that reads as though written by an endlessly smiling children's television star who's being held hostage is altogether that much more useful than a bitcoin.
There's a huge human cost as well. Artificial intelligence relies heavily upon "ghost labor": work that appears to be performed by a computer, but is actually delegated to often terribly underpaid contractors, working in horrible conditions, with few labor protections and no benefits. There is a huge amount of work that goes into compiling and labeling data to feed into these models, and each new model depends on ever-greater amounts of said data — training data which is well known to be scraped from just about any possible source, regardless of copyright or consent. And some of these workers suffer serious psychological harm as a result of exposure to deeply traumatizing material in the course of sanitizing datasets or training models to perform content moderation tasks.
Then there's the question of opportunity cost to those who are increasingly being edged out of jobs by LLMs,i despite the fact that AI often can't capably perform the work they were doing. Should I really be using AI tools to proofread my newsletters when I could otherwise pay a real person to do that proofreading? Even if I never intended to hire such a person? Or, more accurately, by managers and executives who believe the marketing hype out of AI companies that proclaim that their tools can replace workers, without seeming to understand at all what those workers do.
Finally, there's the issue of how these tools are being used, and the lack of effort from their creators to limit their abuse. We're seeing them used to generate disinformation via increasingly convincing deepfaked images, audio, or video, and the reckless use of them by previously reputable news outlets and others who publish unedited AI content is also contributing to misinformation. Even where AI isn't being directly used, it's degrading trust so badly that people have to question whether the content they're seeing is generated, or whether the "person" they're interacting with online might just be ChatGPT. Generative AI is being used to harass and sexually abuse. Other AI models are enabling increased surveillance in the workplace and for "security" purposes — where their well-known biases are worsening discrimination by police who are wooed by promises of "predictive policing". The list goes on.
Bah voyons...
Amidst human rights violations around the world, many of which are fueled by growing global inequality, the role of technology has continued to permeate into more areas of daily life. Racial, economic, and social inequities around the world have shaped and driven the movement of persons across municipal and international borders, many of whom are fleeing the effects of conflict, intractable poverty, political oppression, or the climate crisis. 2023 recorded the highest ever number of forcibly displaced people – an estimated 110 million opens in a new tab. Many governments and political movements around the world have weaponized xenophobic rhetoric about refugees and migrants, often blaming domestic instability on migrants and refugees or otherwise mobilizing support for externalization and privatization of borders opens in a new tab.
This briefing will provide an overview of how migration fits into an intersectional framework of technology, inequality, and human rights. Building upon previous work by Amnesty International and others, this briefing will outline how uses of new technology are central to a trend of violations of human rights at borders around the world, and provide a broad outline of forms of technology used by states and non-state actors in migration management and asylum systems. The second of a series of four briefings by Amnesty International USA on technology and inequality, this report will demonstrate how concerns around digital rights and the rights of asylum seekers, refugees and migrants are increasingly interrelated, and must be considered within a broader trend of criminalization of marginalized peoples’ lives that is often enabled and facilitated by new forms of technology.
La quatrième priorité présentée par le chef de l'État est de diffuser « l’IA partout et pour tous ».
C'est du délire quand même...
Réunis au sein du Conseil de l’Union européenne, les États-membres ont adopté hier le règlement IA, dédié à la régulation des systèmes d’Intelligence Artificielle. Cette étape marque l’adoption définitive de cet édifice législatif en discussion depuis 2021, et présenté au départ comme un instrument de protection des droits et libertés face au rouleau compresseur de l’IA. À l’arrivée, loin des promesses initiales et des commentaires emphatiques, ce texte est taillé sur mesure pour l’industrie de la tech, les polices européennes et autres grandes bureaucraties désireuses d’automatiser le contrôle social. Largement fondé sur l’auto-régulation, bardé de dérogations, il s’avère totalement incapable de faire obstacle aux dégâts sociaux, politiques et environnementaux liés à la prolifération de l’IA.
En vertu du règlement adopté hier, ce sont les entreprises qui conçoivent les systèmes d’IA qui seront les premières compétentes pour de prononcer sur le niveau de risque que présentent leurs produits (article 43). Il leur sera alors loisible de considérer que ces systèmes ne sont pas risqués et donc exempts de toute régulation en vertu du règlement. Autrement, ce sont des organismes privés de certification qui seront amenés à délivrer des attestations de conformité
LOL
Source : La Quadrature du Net
Source : Blog – La 27e Région
CHRONIQUE. Le rapport environnemental de Microsoft révèle que ses émissions de dioxyde de carbone sont en forte augmentation du fait de ses investissements dans les centres de données. De la difficulté à concilier technologie et sobriété, constate Philippe Escande, éditorialiste économique au « Monde ».
Bien sûr, des innovations spectaculaires vont permettre de la réduire. Mais le risque est qu’elles ne fassent qu’atténuer la pollution supplémentaire. C’est le cas de toutes les technologies de la vie moderne qui repoussent plus loin les limites de l’efficacité, mais génèrent de nouveaux besoins qui viennent l’entraver. Sortir du paradoxe de Jevons en matière climatique, et donc concilier technologie et sobriété, est un défi considérable lancé à nos sociétés modernes.