En recherche, le plagiat est un problème d'intégrité qui peut remettre en cause tout l'édifice scientifique. Il existe des logiciels de détection, mais les dernières avancées en intelligence artificielle menacent ces solutions et semblent permettre des plagiats quasiment indétectables.
Les technologies d’IA appartiennent majoritairement aujourd’hui à la famille de l’apprentissage profond – ou « deep learning ». Différents réseaux de neurones ont été développés en fonction des tâches à accomplir. Tour d’horizon.
« Comprendre, au moins superficiellement, la technologie tout en gardant un esprit ouvert mais critique est le seul moyen de faire un bon usage de l’IA. Cela est particulièrement important pour des applications critiques ayant un impact physique direct sur les utilisateurs, comme les voitures autonomes ou les applications médicales. C’est également le cas de l’aide à la décision pour des applications à fort impact social, légal, éthique, voire scientifique – un cas où on est à la recherche du « vrai », pas seulement de bonnes performances. La certification de l’IA reste ainsi un immense défi. »
La Commission européenne a adopté récemment deux propositions visant à encadrer les règles de responsabilité à l’ère numérique. La première veut moderniser les règles existantes sur la responsabilité objective des fabricants de produits défectueux, l’autre – pour la première fois – de définir un cadre pour les erreurs commises par les systèmes d’IA. Nous nous penchons sur la seconde.
Offrir les clés indispensables pour comprendre des problématiques contemporaines liées à la science en faisant la part belle au débat, telle est l’ambition de ce cycle de conférences. Autour d’une table ronde, chaque séance invite trois experts à apporter leur éclairage sur un thème qui pose question au sein de la communauté scientifique ou, plus largement, de la société. Soucieux de faire dialoguer les disciplines entre elles, le cycle réunit des chercheurs et chercheuses issus des sciences fondamentales et appliquées, mais également des sciences humaines et sociales.
Avec Laurence Devillers, professeure à l’université Paris-Sorbonne et chercheuse au LISN (CNRS), Antoinette Rouvroy, philosophe du droit, chercheuse au Fonds de la recherche scientifique, Dominique Cardon, professeur de sociologie, directeur du Medialab de Sciences Po Paris
Débat animé par Caroline Lachowsky, journaliste scientifique à RFI, et enregistré le 10 février 2022 à la BnF I François-Mitterrand
Dans le dernier rapport annuel d’Inria, son PDG, Bruno Sportisse, explique comment l’institut entend jouer un rôle de premier plan dans le domaine de la recherche. Il tient à sa place de phare et a noué plusieurs partenariats avec des universités. On commence par l’IA, la régulation des algorithmes et la santé, puis nous reviendrons dans un second temps sur les objets connectés et la cybersécurité ; car Inria touche à tout.
Blake Lemoine, the engineer, says that Google’s language model has a soul. The company disagrees.
Lol
An MIT Technology Review series, supported by the MIT Knight Science Journalism Fellowship Program and the Pulitzer Center, investigating how AI is enriching a powerful few by dispossessing communities that have been dispossessed before.