Inscription

L’IA change la science – Comment ? Qui devrait s’en soucier ? 

Un regard critique sur l'impact de l'intelligence artificielle (IA) sur la science sous différents angles et acteurs – depuis les bailleurs de fonds publics jusqu'aux institutions privées de haute technologie – révèle une préoccupation commune quant au manque de transparence et de coopération dans la création d'une approche plus centrée sur l'humain. tenir la promesse de la science en tant que bien public mondial.

"La question n'est plus if L'IA change la science, mais how», Mathieu Denis a ouvert la parole au congrès de cette année Sommet mondial sur le numérique avec un objectif avec une table ronde sur les impacts de l'IA sur la manière dont la science est réalisée et organisée.

Moins d’un an après la première sortie publique de ChatGPT 4, l’intérêt pour le sujet de l’IA, ainsi que pour son application dans l’ensemble du cycle de production scientifique, a explosé. Yamine Ait-Ameur, responsable du département Numérique et Mathématiques à l'Agence nationale de la recherche (ANR), constate cet intérêt dans presque toutes les disciplines. Et même si l’Agence n’utilise pas d’outils d’IA pour évaluer les propositions de recherche, elle est bien consciente qu’elle ne peut pas imposer des restrictions similaires à l’utilisation de l’IA à d’autres dans le cadre de ses travaux scientifiques.

Si l’utilisation de l’IA en science soulève de nombreuses questions et parfois des doutes, ses promesses suscitent également beaucoup d’enthousiasme. Le potentiel est là, si nous mettons en place les structures appropriées. Ricardo Batista Leite, PDG d'I-DAIR, une collaboration en matière d'IA pour la recherche en santé, raconte les leçons du passé lorsque les technologies perturbatrices, appliquées à des systèmes défaillants, ont créé davantage de bris. Les technologies d’IA peuvent contribuer au bien-être public – si nous les concevons spécifiquement dans ce but dès le départ.

Toutefois, la vague actuelle de développement de l’IA est tirée presque exclusivement par le secteur privé, avec des ressources qui dépassent de loin tout investissement public. Et il devient impossible de parler de co-conception d’une IA plus responsable et plus inclusive sans combler le fossé public et privé en matière de recherche et développement.

Christina Yan Zhang, PDG du Metaverse Institute, croit fermement à la coopération public-privé dans les domaines de la science et de la technologie. Elle convient que le bien-être humain doit être placé au cœur du développement technologique. Dans le système scientifique actuel, les chercheurs sont obligés de rechercher des indicateurs tels que les citations de revues, au lieu de rechercher un impact réel.

Il n’y a pas que cela, ajoute Yamine Ait-Ameur. L’utilisation de l’IA en science présente un autre défi majeur. Les outils d’IA peuvent souvent produire des résultats meilleurs que ceux des humains. AlphaFold, un système d’apprentissage en profondeur par l’IA formé pour prédire la structure des protéines, par exemple, surpasse déjà les méthodes humaines. Mais nous ne pouvons pas reproduire, vérifier et expliquer de manière fiable ses résultats. Tant que nous ne parviendrons pas à comprendre les processus qui se déroulent dans les « boîtes noires » de l’IA, l’utilisation de l’IA en science soulèvera d’énormes problèmes techniques et éthiques.

Le public présent à la table ronde partageait le sentiment que les grands changements que nous observons aujourd'hui dans la science ne sont qu'un début : « Nous sommes au milieu du 19e siècle, au début de la révolution industrielle. Essayons-nous d’adapter le système féodal ou analysons-nous la période émergente ?

Ricardo Batista Leite est d’accord. « Nous allons revenir sur ce moment et nous demander si nous avons fait la bonne chose. Nous avons eu l’occasion d’inverser la tendance », a-t-il conclu.

Passer au contenu