L’institut AI Now appelle à « confronter le pouvoir technologique »
Partout où l’IA est utilisée, « la technologie ne fonctionne pas comme prévu et produit des taux d’erreurs élevés et des résultats injustes et discriminatoires ».
Lettre ouverte : Pause Giant AI Experiments. - Collimateur - Veille pédagonumérique - UQAM
Intéressant, même si évidemment ce texte ne parle absolument pas de l'exploitation humaine et naturelle qui est le propre de l'IA (du numérique en général, mais particulièrement de l'IA pour toute la partie apprentissage).
Opinion | Yuval Harari on Threats to Humanity Posed by A.I. - The New York Times
« Drug companies cannot sell people new medicines without first subjecting their products to rigorous safety checks. Biotech labs cannot release new viruses into the public sphere in order to impress shareholders with their wizardry. Likewise, A.I. systems with the power of GPT-4 and beyond should not be entangled with the lives of billions of people at a pace faster than cultures can safely absorb them. A race to dominate the market should not set the speed of deploying humanity’s most consequential technology. We should move at whatever speed enables us to get this right. »
Intelligence artificielle : Nous n’avons pas besoin de plus de contenus, mais de meilleures analyses – FredCavazza.net
Excellent article merci !!
« C’est là un point que personne n’aborde : la finalité de ces IA génératives qui sont effectivement très performantes dans la génération de contenus textuels et visuels, mais qui vont surtout dans un premier temps profiter aux fermes à contenus et spammeurs, une perspective qui ne me réjouit pas. À court terme, tous les articles seront remis en cause, car on les soupçonnera d’avoir été générés : Welcome to the Big Blur. »
Très important ça, le technosolutionnisme classique :
« Ils nous décrivent l’IA générative comme la solution ultime, alors qu’elle sert surtout à atténuer les symptômes d’une inculture informatique et numérique, mais pas à traiter les problèmes à la source. »
« À une époque pas si éloignée (il y a quelques semaines), la croissance des usages numériques était remise en cause par la nécessité de réduire l’impact environnemental (émission de gaz à effet de serre) et par la diminution de notre dépendance aux géants numériques américains. Et sans crier gare, ChatGPT débarque, et toutes ces considérations écolo-souverainistes passent au second plan. Telles des légions de skitarii de l’Adeptes Mechanicus, nous vénérons aveuglément l’innovation technologique et nous nous prosternons devant le dieu machine, comme s’il allait résoudre de façon miraculeuse tous nos problèmes. Celles et ceux qui osent questionner cette “révolution technologique” sont qualifiés de rétrogrades, voire de vieux cons incapables de mesurer le potentiel disruptives des IA génératives. Où est donc passé notre esprit critique ou notre libre arbitre ? »
IA : malgré la fulgurance des progrès, la route est encore longue… [€]
« il faut dépasser le battage médiatique pour comprendre l’impact réel, en matière d’applications, de cette nouvelle technologie dont il est difficile de contrôler les contenus créés, et encore plus de certifier les réponses qu’elle apporte. Le bilan des cinq dernières années est impressionnant, peu de domaines progressent aussi vite, mais la route est encore longue. »
La route est longue pour aller où ???
Lentement (29)
« Les « intelligences » dites artificielles sont des technologies « prescriptives » pour reprendre le mot d’Ursula Franklin, ou des « instruments d’oppression » pour reprendre le mien, et nous devons empêcher les gamins de s’y laisser prendre. Les problèmes soulevés par Butterick — l’attribution des sources, l’administration de la preuve, la compréhension par l’émancipation — sont précisément les sujets qui doivent motiver l’existence de nos systèmes éducatifs. »
ChatGPT, l'école doit-elle revoir sa copie ?
Emission intéressante
Webinaire Education L'intelligence artificielle (avec ChatGPT) 🧠 - Invidious
Un propos intéressant sur ChatGPT, merci Yann (même si je suis moins enthousiaste que toi, clairement)
Voiture autonome : les défis en matière d’intelligence artificielle sont immenses
On pourrait mettre notre énergie, notre argent et notre intelligence (humaine et artificielle) ailleurs...
ChatGPT : « Plus que dans un capitalisme de surveillance, nous voici dans une administration de notre bien-être »
Le philosophe Eric Sadin met en garde, dans une tribune au « Monde », contre le risque « civilisationnel » de voir s’installer un langage industrialisé, « prenant place et lieu » de la langue humaine.
C'est toujours revigorant de lire Eric Sadin.
GPT-3 : c’est toi le Chat. – affordance.info
« S’adresser à ChatGPT-3 c’est mettre à l’épreuve une immensité que l’on pense être suffisante pour détenir des réponses à chacune de nos questions. Entraînés que nous sommes depuis des années par l’habitus Google à considérer qu’il n’y a que des réponses. “Il n’y aura plus que des réponses“, prophétisait déjà Marguerite Duras.»
Au-delà de l’intelligence artificielle, le chatbot ChatGPT doit ses talents d’orateur à l’humain
Ce robot conversationnel qui produit à la demande des textes impressionnants connaît un succès fulgurant. « Le Monde » a ouvert le capot de ce chatbot concocté par la société américaine OpenAI.
Comment j’ai intégré l’intelligence artificielle dans mon travail de graphiste. #IA
Why we need to do a better job of measuring AI’s carbon footprint
L'IA, plagiaire scientifique de haute volée
En recherche, le plagiat est un problème d'intégrité qui peut remettre en cause tout l'édifice scientifique. Il existe des logiciels de détection, mais les dernières avancées en intelligence artificielle menacent ces solutions et semblent permettre des plagiats quasiment indétectables.
Intelligence artificielle : les multiples visages du deep learning
Les technologies d’IA appartiennent majoritairement aujourd’hui à la famille de l’apprentissage profond – ou « deep learning ». Différents réseaux de neurones ont été développés en fonction des tâches à accomplir. Tour d’horizon.
L'intelligence artificielle est imparfaite, et alors ?
« Comprendre, au moins superficiellement, la technologie tout en gardant un esprit ouvert mais critique est le seul moyen de faire un bon usage de l’IA. Cela est particulièrement important pour des applications critiques ayant un impact physique direct sur les utilisateurs, comme les voitures autonomes ou les applications médicales. C’est également le cas de l’aide à la décision pour des applications à fort impact social, légal, éthique, voire scientifique – un cas où on est à la recherche du « vrai », pas seulement de bonnes performances. La certification de l’IA reste ainsi un immense défi. »