Intéressant, même si évidemment ce texte ne parle absolument pas de l'exploitation humaine et naturelle qui est le propre de l'IA (du numérique en général, mais particulièrement de l'IA pour toute la partie apprentissage).
« Drug companies cannot sell people new medicines without first subjecting their products to rigorous safety checks. Biotech labs cannot release new viruses into the public sphere in order to impress shareholders with their wizardry. Likewise, A.I. systems with the power of GPT-4 and beyond should not be entangled with the lives of billions of people at a pace faster than cultures can safely absorb them. A race to dominate the market should not set the speed of deploying humanity’s most consequential technology. We should move at whatever speed enables us to get this right. »
Excellent article merci !!
« C’est là un point que personne n’aborde : la finalité de ces IA génératives qui sont effectivement très performantes dans la génération de contenus textuels et visuels, mais qui vont surtout dans un premier temps profiter aux fermes à contenus et spammeurs, une perspective qui ne me réjouit pas. À court terme, tous les articles seront remis en cause, car on les soupçonnera d’avoir été générés : Welcome to the Big Blur. »
Très important ça, le technosolutionnisme classique :
« Ils nous décrivent l’IA générative comme la solution ultime, alors qu’elle sert surtout à atténuer les symptômes d’une inculture informatique et numérique, mais pas à traiter les problèmes à la source. »
« À une époque pas si éloignée (il y a quelques semaines), la croissance des usages numériques était remise en cause par la nécessité de réduire l’impact environnemental (émission de gaz à effet de serre) et par la diminution de notre dépendance aux géants numériques américains. Et sans crier gare, ChatGPT débarque, et toutes ces considérations écolo-souverainistes passent au second plan. Telles des légions de skitarii de l’Adeptes Mechanicus, nous vénérons aveuglément l’innovation technologique et nous nous prosternons devant le dieu machine, comme s’il allait résoudre de façon miraculeuse tous nos problèmes. Celles et ceux qui osent questionner cette “révolution technologique” sont qualifiés de rétrogrades, voire de vieux cons incapables de mesurer le potentiel disruptives des IA génératives. Où est donc passé notre esprit critique ou notre libre arbitre ? »
« il faut dépasser le battage médiatique pour comprendre l’impact réel, en matière d’applications, de cette nouvelle technologie dont il est difficile de contrôler les contenus créés, et encore plus de certifier les réponses qu’elle apporte. Le bilan des cinq dernières années est impressionnant, peu de domaines progressent aussi vite, mais la route est encore longue. »
La route est longue pour aller où ???
« Les « intelligences » dites artificielles sont des technologies « prescriptives » pour reprendre le mot d’Ursula Franklin, ou des « instruments d’oppression » pour reprendre le mien, et nous devons empêcher les gamins de s’y laisser prendre. Les problèmes soulevés par Butterick — l’attribution des sources, l’administration de la preuve, la compréhension par l’émancipation — sont précisément les sujets qui doivent motiver l’existence de nos systèmes éducatifs. »
Emission intéressante
Un propos intéressant sur ChatGPT, merci Yann (même si je suis moins enthousiaste que toi, clairement)
On pourrait mettre notre énergie, notre argent et notre intelligence (humaine et artificielle) ailleurs...
Le philosophe Eric Sadin met en garde, dans une tribune au « Monde », contre le risque « civilisationnel » de voir s’installer un langage industrialisé, « prenant place et lieu » de la langue humaine.
C'est toujours revigorant de lire Eric Sadin.
« S’adresser à ChatGPT-3 c’est mettre à l’épreuve une immensité que l’on pense être suffisante pour détenir des réponses à chacune de nos questions. Entraînés que nous sommes depuis des années par l’habitus Google à considérer qu’il n’y a que des réponses. “Il n’y aura plus que des réponses“, prophétisait déjà Marguerite Duras.»
Ce robot conversationnel qui produit à la demande des textes impressionnants connaît un succès fulgurant. « Le Monde » a ouvert le capot de ce chatbot concocté par la société américaine OpenAI.
En recherche, le plagiat est un problème d'intégrité qui peut remettre en cause tout l'édifice scientifique. Il existe des logiciels de détection, mais les dernières avancées en intelligence artificielle menacent ces solutions et semblent permettre des plagiats quasiment indétectables.
Les technologies d’IA appartiennent majoritairement aujourd’hui à la famille de l’apprentissage profond – ou « deep learning ». Différents réseaux de neurones ont été développés en fonction des tâches à accomplir. Tour d’horizon.
« Comprendre, au moins superficiellement, la technologie tout en gardant un esprit ouvert mais critique est le seul moyen de faire un bon usage de l’IA. Cela est particulièrement important pour des applications critiques ayant un impact physique direct sur les utilisateurs, comme les voitures autonomes ou les applications médicales. C’est également le cas de l’aide à la décision pour des applications à fort impact social, légal, éthique, voire scientifique – un cas où on est à la recherche du « vrai », pas seulement de bonnes performances. La certification de l’IA reste ainsi un immense défi. »
La Commission européenne a adopté récemment deux propositions visant à encadrer les règles de responsabilité à l’ère numérique. La première veut moderniser les règles existantes sur la responsabilité objective des fabricants de produits défectueux, l’autre – pour la première fois – de définir un cadre pour les erreurs commises par les systèmes d’IA. Nous nous penchons sur la seconde.
Offrir les clés indispensables pour comprendre des problématiques contemporaines liées à la science en faisant la part belle au débat, telle est l’ambition de ce cycle de conférences. Autour d’une table ronde, chaque séance invite trois experts à apporter leur éclairage sur un thème qui pose question au sein de la communauté scientifique ou, plus largement, de la société. Soucieux de faire dialoguer les disciplines entre elles, le cycle réunit des chercheurs et chercheuses issus des sciences fondamentales et appliquées, mais également des sciences humaines et sociales.
Avec Laurence Devillers, professeure à l’université Paris-Sorbonne et chercheuse au LISN (CNRS), Antoinette Rouvroy, philosophe du droit, chercheuse au Fonds de la recherche scientifique, Dominique Cardon, professeur de sociologie, directeur du Medialab de Sciences Po Paris
Débat animé par Caroline Lachowsky, journaliste scientifique à RFI, et enregistré le 10 février 2022 à la BnF I François-Mitterrand
Dans le dernier rapport annuel d’Inria, son PDG, Bruno Sportisse, explique comment l’institut entend jouer un rôle de premier plan dans le domaine de la recherche. Il tient à sa place de phare et a noué plusieurs partenariats avec des universités. On commence par l’IA, la régulation des algorithmes et la santé, puis nous reviendrons dans un second temps sur les objets connectés et la cybersécurité ; car Inria touche à tout.