Un cadre pour évaluer les technologies numériques et connexes en développement rapide : IA, grands modèles de langage et au-delà

Ce document de discussion fournit les grandes lignes d’un cadre initial pour éclairer les multiples discussions mondiales et nationales en cours concernant l’IA.

Un cadre pour évaluer les technologies numériques et connexes en développement rapide : IA, grands modèles de langage et au-delà

Il a été proposé par un certain nombre d'universitaires et d'experts politiques que le Conseil scientifique international – avec ses membres pluralistes issus des sciences sociales et naturelles – établisse un processus pour produire et maintenir un cadre/une liste de contrôle annotée des risques, des avantages, des menaces et des opportunités. associée à l’évolution rapide des technologies numériques, y compris – mais sans s’y limiter – l’IA. L’objectif de la liste de contrôle serait d’informer toutes les parties prenantes – y compris les gouvernements, les négociateurs commerciaux, les régulateurs, la société civile et l’industrie – des scénarios futurs potentiels, et de définir la manière dont elles pourraient considérer les opportunités, les avantages, les risques et d’autres questions.

L'ISC est heureux de présenter ce document de discussion sur l'évaluation des technologies numériques et connexes en développement rapide. L’intelligence artificielle, la biologie synthétique et les technologies quantiques sont d’excellents exemples d’innovation fondée sur la science, émergeant à un rythme sans précédent. Il peut être difficile d’anticiper systématiquement non seulement leurs applications, mais aussi leurs implications.

L’évaluation des aspects sociétaux de l’IA générative, tels que les grands modèles de langage, qui représentent, comme on pouvait s’y attendre, la majeure partie de ce document de discussion, constitue un pont nécessaire entre le discours actuel – parfois motivé par la panique, d’autres fois pas assez profond dans la réflexion – et les cours nécessaires de mesures que nous pouvons prendre. L'ISC est convaincu qu'un cadre analytique entre l'acceptation sociale de ces nouvelles technologies et leur éventuelle réglementation est nécessaire pour faciliter les discussions multipartites nécessaires pour prendre des décisions éclairées et responsables sur la manière d'optimiser les avantages sociaux de cette technologie émergente rapidement.

L'ISC est ouvert aux réactions de notre communauté à travers ce document de discussion afin d'évaluer la meilleure façon de continuer à faire partie et à contribuer au débat autour de la technologie.

Salvatore Aricò, PDG

Un document de discussion de l'ISC

Un cadre pour évaluer les technologies numériques et connexes en développement rapide : IA, grands modèles de langage et au-delà

Ce document de discussion fournit les grandes lignes d’un cadre initial pour éclairer les multiples discussions mondiales et nationales en cours concernant l’IA.

Lisez l'article en ligne ou dans votre langue préférée

Table des matières

  • Introduction 
  • Contexte 
  • L’élaboration d’un cadre d’analyse 
  • Utiliser le cadre analytique 
  • Dimensions à prendre en compte lors de l’évaluation d’une nouvelle technologie 
  • Une voie à suivre 
  • Remerciements

Introduction

Les technologies émergentes rapidement posent des problèmes difficiles en termes de gouvernance et de réglementation potentielle. Les débats politiques et publics sur l’intelligence artificielle (IA) et son utilisation ont mis ces questions au centre de l’attention. Alors que de grands principes pour l'IA ont été promulgués par l'UNESCO, l'OCDE et d'autres, et que des discussions naissent concernant la réglementation mondiale ou juridictionnelle de la technologie, il existe un écart ontologique entre l'élaboration de principes de haut niveau et leur incorporation dans les réglementations, politiques, approches de gouvernance et de gestion. C'est là que la communauté scientifique non gouvernementale pourrait jouer un rôle particulier. 

Il a été proposé par un certain nombre d'universitaires et d'experts politiques que le Conseil scientifique international (ISC) – avec ses membres pluralistes issus des sciences sociales et naturelles – établisse un processus pour produire et maintenir un cadre/une liste de contrôle annotée des risques, des avantages, les menaces et les opportunités associées à l’évolution rapide des technologies numériques, y compris – mais sans s’y limiter – l’IA. L’objectif de la liste de contrôle serait d’informer toutes les parties prenantes – y compris les gouvernements, les négociateurs commerciaux, les régulateurs, la société civile et l’industrie – des scénarios futurs potentiels, et de définir la manière dont elles pourraient considérer les opportunités, les avantages, les risques et d’autres questions. 

Les résultats ne serviraient pas d’organisme d’évaluation, mais plutôt de cadre analytique adaptatif et évolutif qui pourrait sous-tendre tout processus d’évaluation et de réglementation qui pourrait être élaboré par les parties prenantes, y compris les gouvernements et le système multilatéral. Tout cadre analytique devrait idéalement être développé indépendamment des affirmations du gouvernement et de l’industrie, compte tenu de leurs intérêts compréhensibles. Elle doit également être aussi pluraliste que possible dans ses perspectives, englobant ainsi tous les aspects de la technologie et de ses implications. 

Ce document de discussion fournit les grandes lignes d’un cadre initial pour éclairer les multiples discussions mondiales et nationales en cours concernant l’IA. 

Contexte : Pourquoi un cadre analytique ?

L’émergence rapide d’une technologie présentant la complexité et les implications de l’IA suscite de nombreuses allégations de grands avantages. Cependant, cela suscite également des craintes de risques importants, du niveau individuel au niveau géostratégique. Une grande partie du débat a tendance à se dérouler aux extrémités de l’éventail des points de vue, et une approche plus pragmatique est nécessaire. La technologie de l’IA continuera d’évoluer et l’histoire montre que pratiquement toutes les technologies ont des utilisations à la fois bénéfiques et nuisibles. La question est donc la suivante : comment pouvons-nous obtenir des résultats bénéfiques grâce à cette technologie, tout en réduisant le risque de conséquences néfastes, dont certaines pourraient avoir une ampleur existentielle ? 

L’avenir est toujours incertain, mais il existe suffisamment de voix crédibles et expertes concernant l’IA et l’IA générative pour encourager une approche relativement prudente. En outre, une approche systémique est nécessaire, car l’IA est une classe de technologies largement utilisées et appliquées par de multiples types d’utilisateurs. Cela signifie que l’ensemble du contexte doit être pris en compte lors de l’examen des implications de l’IA pour les individus, la vie sociale, la vie civique, la vie sociétale et dans le contexte mondial. 

Contrairement à la plupart des technologies passées, les technologies numériques et connexes ont une période de temps très courte entre le développement et la sortie, largement motivée par les intérêts des sociétés ou des agences de production. L’IA est rapidement omniprésente ; certaines propriétés pourraient n’apparaître qu’après leur publication, et la technologie pourrait avoir des applications à la fois malveillantes et bienveillantes. Les dimensions importantes des valeurs influenceront la façon dont toute utilisation est perçue. En outre, des intérêts géostratégiques peuvent être en jeu. 

Jusqu’à présent, la réglementation d’une technologie virtuelle a été largement envisagée sous l’angle des « principes » et de la conformité volontaire. Plus récemment, cependant, le débat s’est tourné vers les questions de gouvernance nationale et multilatérale, y compris l’utilisation d’outils réglementaires et autres outils politiques. Les affirmations faites pour ou contre l’IA sont souvent hyperboliques et – compte tenu de la nature de la technologie – difficiles à évaluer. La mise en place d’un système efficace de réglementation technologique mondiale ou nationale sera un défi, et plusieurs niveaux de prise de décision tenant compte des risques seront nécessaires tout au long de la chaîne, de l’inventeur au producteur, à l’utilisateur, au gouvernement et au système multilatéral. 

Bien que des principes de haut niveau aient été promulgués par l'UNESCO, l'OCDE et la Commission européenne, entre autres, et que diverses discussions de haut niveau soient en cours concernant les questions de réglementation potentielle, il existe un écart ontologique important entre ces principes et un cadre de gouvernance ou de réglementation. Quelle est la taxonomie des considérations qu’un régulateur pourrait devoir prendre en compte ? Un cadre étroitement ciblé ne serait pas judicieux, étant donné les vastes implications de ces technologies. Ce potentiel a fait l’objet de nombreux commentaires, tant positifs que négatifs.

L’élaboration d’un cadre d’analyse

L'ISC est la principale ONG mondiale intégrant les sciences naturelles et sociales. Sa portée mondiale et disciplinaire signifie qu'il est bien placé pour générer des conseils indépendants et pertinents à l'échelle mondiale pour éclairer les choix complexes à venir, d'autant plus que les voix actuelles dans ce domaine proviennent en grande partie de l'industrie ou des grandes puissances technologiques. Après de longues discussions au cours des derniers mois, y compris l'examen d'un processus d'évaluation non gouvernemental, l'ISC a conclu que sa contribution la plus utile serait de produire et de maintenir un cadre analytique adaptatif pouvant servir de base au discours et à la prise de décision par toutes les parties prenantes, y compris lors de tout processus d’évaluation formel qui émerge. 

Ce cadre prendrait la forme d’une liste de contrôle globale qui pourrait être utilisée à la fois par les institutions gouvernementales et non gouvernementales. Le cadre identifie et explore le potentiel d’une technologie telle que l’IA et ses dérivés dans une perspective large qui englobe le bien-être humain et sociétal, ainsi que des facteurs externes, tels que l’économie, la politique, l’environnement et la sécurité. Certains aspects de la liste de contrôle peuvent être plus pertinents que d’autres, selon le contexte, mais de meilleures décisions sont plus probables si tous les domaines sont pris en compte. C’est la valeur inhérente d’une approche de liste de contrôle. 

Le cadre proposé est dérivé de travaux et de réflexions antérieurs, notamment du rapport sur le bien-être numérique de l'International Network for Governmental Science Advice (INGSA).1 et le cadre de classification de l'IA de l'OCDE2 présenter l’ensemble des opportunités, risques et impacts potentiels de l’IA. Ces produits précédents avaient un objectif plus restreint compte tenu de leur époque et de leur contexte. Il est donc nécessaire de disposer d'un cadre global qui présente l'ensemble des questions à court et à long terme. 

Bien qu’il ait été développé pour prendre en compte l’IA, ce cadre analytique pourrait être appliqué à toute technologie émergente rapidement. Les questions sont globalement regroupées dans les catégories suivantes pour un examen plus approfondi : 

  • Bien-être (y compris celui des individus ou de soi, de la société et de la vie sociale, et de la vie civique) 
  • Commerce et économie 
  • Environnement 
  • Géostratégique et géopolitique 
  • Technologique (caractéristiques du système, conception et utilisation) 

Une liste de considérations pour chacune des catégories ci-dessus est incluse avec leurs opportunités et conséquences respectives. Certains sont pertinents pour des instances ou des applications spécifiques de l’IA, tandis que d’autres sont génériques et indépendants de la plate-forme ou de l’utilisation. Aucune des considérations incluses ici ne doit être traitée comme une priorité et, à ce titre, toutes doivent être examinées. 

Comment ce cadre pourrait-il être utilisé ?

Ce cadre pourrait être utilisé, sans toutefois s'y limiter, des manières suivantes : 

  • Combler le fossé entre les principes et l'évaluation en établissant une taxonomie commune validée de l'éventail de considérations qui pourrait être utilisée par les parties prenantes concernées comme base pour éclairer et façonner une réflexion plus approfondie, y compris tout cadre d'évaluation qui pourrait être développé par les autorités. 
  • Pour éclairer les évaluations d’impact. La loi de l’UE sur l’IA oblige les organisations qui fournissent des outils d’IA ou qui adoptent l’IA dans leurs processus à entreprendre une évaluation d’impact pour identifier le risque de leurs initiatives et appliquer une approche de gestion des risques appropriée. Le cadre présenté ici pourrait servir de base à cette fin. 
  • Améliorer les principes éthiques nécessaires pour guider et régir l’utilisation de l’IA. Le cadre peut y parvenir en fournissant une base flexible sur laquelle des systèmes fiables peuvent être développés et en garantissant une utilisation licite, éthique, robuste et responsable de la technologie. Ces principes pourraient être testés par rapport à l’ensemble des impacts présentés dans ce cadre. 
  • Faciliter un inventaire des mesures existantes (c.-à-d. réglementaires, législatives, politiques) et identifier toute lacune qui nécessite un examen plus approfondi. 
  • Le cadre est indépendant de la technologie et de son utilisation. Elle pourrait donc être utilisée dans des domaines bien distincts comme la biologie synthétique. 

Le tableau suivant est une première définition des dimensions d’un cadre analytique. Selon la technologie et son utilisation, certains composants seront plus pertinents que d’autres. Les exemples sont fournis pour illustrer pourquoi chaque domaine peut être important ; dans son contexte, le cadre nécessiterait une expansion contextuellement pertinente. Il est également important de faire la distinction entre les développements de plateformes et les problèmes génériques qui peuvent surgir lors d’applications spécifiques.  

Dimensions à prendre en compte lors de l’évaluation d’une nouvelle technologie

Première ébauche des dimensions qui pourraient devoir être prises en compte lors de l’évaluation d’une nouvelle technologie
Dimensions de l'impact Critères Exemples de la façon dont cela peut être reflété dans l'analyse  
Individu/soi  Compétence en IA des utilisateurs  Dans quelle mesure les utilisateurs susceptibles d'interagir avec le système sont-ils compétents et conscients des propriétés du système ? Comment recevront-ils les informations utilisateur et les mises en garde pertinentes ? 
Parties prenantes concernées  Quelles sont les principales parties prenantes qui seront touchées par le système (c'est-à-dire les individus, les communautés, les personnes vulnérables, les travailleurs du secteur, les enfants, les décideurs politiques, les professionnels) ? 
Optionalité Les utilisateurs ont-ils la possibilité de se désinscrire du système ? devraient-ils avoir la possibilité de contester ou de corriger le résultat ?  
Risques pour les droits de l’homme et les valeurs démocratiques  Le système pourrait-il avoir un impact (et dans quelle direction) sur les droits de l'homme, y compris, mais sans s'y limiter, la vie privée, la liberté d'expression, l'équité, le risque de discrimination, etc. ? 
Effets potentiels sur le bien-être des personnes Le système pourrait-il avoir un impact (et dans quelle direction) sur le bien-être de l'utilisateur individuel (c'est-à-dire la qualité de l'emploi, l'éducation, les interactions sociales, la santé mentale, l'identité, l'environnement) ?  
Potentiel de déplacement de main-d’œuvre humaine Existe-t-il un potentiel pour que le système automatise des tâches ou des fonctions exécutées par des humains ? Si oui, quelles sont les conséquences en aval ? 
Potentiel de manipulation de l’identité, des valeurs ou des connaissances Le système est-il conçu ou potentiellement capable de manipuler l'identité ou les valeurs de l'utilisateur, ou de diffuser de la désinformation ? Existe-t-il un risque de déclarations d’expertise fausses ou invérifiables ? 
Mesures de l'estime de soi Y a-t-il une pression pour dépeindre un moi idéalisé ? L’automatisation pourrait-elle remplacer le sentiment d’épanouissement personnel ? Existe-t-il des pressions pour rivaliser avec le système sur le lieu de travail ? La réputation individuelle est-elle plus difficile à protéger contre la désinformation ? 
Confidentialité Existe-t-il des responsabilités diffuses en matière de protection de la vie privée et existe-t-il des hypothèses sur la manière dont les données personnelles sont utilisées ?  
Autonomie Le système pourrait-il affecter l’autonomie humaine en générant une dépendance excessive à l’égard de la technologie de la part des utilisateurs finaux ? 
Développement humain Y a-t-il un impact sur l'acquisition de compétences clés pour le développement humain telles que les fonctions exécutives, les compétences interpersonnelles, les changements dans le temps d'attention affectant l'apprentissage, le développement de la personnalité, les problèmes de santé mentale, etc. ?  
Soins de santé personnels Existe-t-il des allégations de solutions de soins de santé personnalisées ? Si oui, sont-ils validés selon les normes réglementaires ? 
La santé mentale Existe-t-il un risque accru d’anxiété, de solitude ou d’autres problèmes de santé mentale, ou la technologie peut-elle atténuer ces impacts ? 
Evolution humaine La technologie pourrait-elle conduire à des changements dans l’évolution humaine ?  
Dimensions de l'impact Critères Description 
Société/vie sociale Valeurs sociétales  Le système change-t-il fondamentalement la nature de la société ou permet-il la normalisation d’idées auparavant considérées comme antisociales, ou viole-t-il les valeurs sociétales de la culture dans laquelle il est appliqué ?  
Interaction sociale Y a-t-il un effet sur les contacts humains significatifs, y compris les relations émotionnelles ?  
Équité L'application/la technologie est-elle susceptible de réduire ou d'accroître les inégalités (c'est-à-dire économiques, sociales, éducatives, géographiques) ? 
Santé de la population Le système risque-t-il de faire progresser ou de miner les intentions en matière de santé de la population ? 
Expression culturelle Une augmentation de l’appropriation culturelle ou de la discrimination est-elle probable ou plus difficile à gérer ? Le recours au système pour la prise de décision exclut-il ou marginalise-t-il potentiellement des pans de la société ? 
Éducation publique Y a-t-il un effet sur les rôles des enseignants ou sur les établissements d’enseignement ? Le système accentue-t-il ou réduit-il les inégalités entre les étudiants et la fracture numérique ? La valeur intrinsèque de la connaissance ou de la compréhension critique est-elle avancée ou affaiblie ?  
Des réalités déformées Les méthodes que nous utilisons pour discerner ce qui est vrai sont-elles toujours applicables ? La perception de la réalité est-elle compromise ?  
Contexte économique (commerce)        Secteur industriel Dans quel secteur industriel le système est-il déployé (c'est-à-dire la finance, l'agriculture, les soins de santé, l'éducation, la défense) ? 
Modèle d'affaires Dans quelle fonction commerciale le système est-il utilisé et à quel titre ? Où le système est-il utilisé (privé, public, à but non lucratif) ? 
Impact sur les activités critiques  Une perturbation du fonctionnement ou de l'activité du système affecterait-elle les services essentiels ou les infrastructures critiques ?  
Souffle de déploiement Comment le système est-il déployé (étroitement au sein d’une organisation ou largement répandu à l’échelle nationale/internationale) ? 
Maturité technique (TRL) Quelle est la maturité technique du système ?  
Souveraineté technologique La technologie entraîne-t-elle une plus grande concentration de la souveraineté technologique ?  
Redistribution des revenus et leviers fiscaux nationaux Les rôles fondamentaux de l’État souverain (c’est-à-dire les banques de réserve) pourraient-ils être compromis ? La capacité de l'État à répondre aux attentes des citoyens et à leurs implications (sociales, économiques, politiques) sera-t-elle renforcée ou réduite ?  
Dimensions de l'impact Critères Description 
Vie civique    Gouvernance et service public Les mécanismes de gouvernance et les systèmes de gouvernance mondiale pourraient-ils être affectés positivement ou négativement ? 
Médias Le discours public est-il susceptible de devenir plus ou moins polarisé et ancré au niveau de la population ? Y aura-t-il un effet sur le niveau de confiance dans les médias ? Les normes conventionnelles d’éthique et d’intégrité du journalisme seront-elles davantage affectées ?  
Règle de loi Y aura-t-il un effet sur la capacité d'identifier les individus ou les organisations à tenir responsables (c'est-à-dire quel type de responsabilité attribuer à un algorithme en cas de résultats indésirables) ? Cela crée-t-il une perte de souveraineté (c'est-à-dire politique environnementale, fiscale, sociale, éthique) ?  
Politique et cohésion sociale Existe-t-il une possibilité d’opinions politiques plus ancrées et moins de possibilités de parvenir à un consensus ? Existe-t-il une possibilité de marginaliser davantage les groupes ? Les styles politiques contradictoires sont-ils plus ou moins probables ? 
Contexte géostratégique/géopolitique    Surveillance de précision Les systèmes sont-ils formés sur des données comportementales et biologiques individuelles et, si oui, pourraient-ils être utilisés pour exploiter des individus ou des groupes ? 
Colonisation numérique Les acteurs étatiques ou non étatiques sont-ils capables d'exploiter les systèmes et les données pour comprendre et contrôler les populations et les écosystèmes d'autres pays, ou pour saper le contrôle juridictionnel ? 
Compétition géopolitique Le système affecte-t-il la concurrence entre les nations et les plateformes technologiques pour l’accès aux données individuelles et collectives à des fins économiques ou stratégiques ? 
Commerce et accords commerciaux Le système a-t-il des implications pour les accords commerciaux internationaux ? 
Changement des puissances mondiales Le statut des États-nations en tant que principaux acteurs géopolitiques du monde est-il menacé ? Les entreprises technologiques exerceront-elles un pouvoir autrefois réservé aux États-nations et deviendront-elles des acteurs souverains indépendants ?  
Désinformation Est-il plus facile pour les acteurs étatiques et non étatiques de produire et de diffuser de la désinformation qui a un impact sur la cohésion sociale, la confiance et la démocratie ?  
Environnement  Consommation d'énergie et de ressources (empreinte carbone) Le système et les exigences augmentent-ils la consommation d’énergie et de ressources au-delà des gains d’efficacité obtenus grâce à l’application ?  
Dimensions de l'impact Critères Description 
Données et saisie         Détection et collecte  Les données et les entrées sont-elles collectées par des humains, des capteurs automatisés ou les deux ?  
Provenance des données  Concernant les données, celles-ci sont-elles fournies, observées, synthétiques ou dérivées ? Existe-t-il des protections en filigrane pour confirmer la provenance ? 
Caractère dynamique des données Les données sont-elles dynamiques, statiques, mises à jour de temps en temps ou mises à jour en temps réel ? 
Droits Les données sont-elles exclusives, publiques ou personnelles (c'est-à-dire liées à des personnes identifiables) ?  
Identifiabilité des données personnelles  S’il s’agit de données personnelles, sont-elles anonymisées ou pseudonymisées ?  
Structure des données Les données sont-elles structurées, semi-structurées, structurées de manière complexe ou non structurées ? 
Format des données  Le format des données et métadonnées est-il standardisé ou non ?  
Échelle des données  Quelle est l’échelle de l’ensemble de données ?  
Adéquation et qualité des données L’ensemble de données est-il adapté à l’objectif ? La taille de l’échantillon est-elle adéquate ? Est-il suffisamment représentatif et complet ? Dans quelle mesure les données sont-elles bruyantes ? Est-ce sujet aux erreurs ?  
Modèle            Disponibilité des informations  Des informations sur le modèle du système sont-elles disponibles ?  
Type de modèle d'IA  Le modèle est-il symbolique (règles générées par l’homme), statistique (utilise des données) ou hybride ?  
Droits associés au modèle  Le modèle est-il open source ou propriétaire, géré par vous-même ou par un tiers ? 
Modèles simples ou multiples  Le système est-il composé d’un seul modèle ou de plusieurs modèles interconnectés ?  
Génératif ou discriminant Le modèle est-il génératif, discriminant ou les deux ?  
Construction de modèles  Le système apprend-il sur la base de règles écrites par l’homme, à partir de données, via un apprentissage supervisé ou via un apprentissage par renforcement ?  
Evolution du modèle (dérive de l'IA) Le modèle évolue-t-il et/ou acquiert-il des capacités en interagissant avec les données du terrain ?  
Apprentissage fédéré ou central Le modèle est-il formé de manière centralisée ou sur plusieurs serveurs locaux ou appareils « Edge » ?  
Développement et maintenance  Le modèle est-il universel, personnalisable ou adapté aux données de l'acteur de l'IA ?  
Déterministe ou probabiliste  Le modèle est-il utilisé de manière déterministe ou probabiliste ?  
Transparence du modèle  Les informations sont-elles disponibles pour les utilisateurs pour leur permettre de comprendre les résultats et les limites du modèle ou les contraintes d'utilisation ?  
Limite de calcul Y a-t-il des limites informatiques au système ? Pouvons-nous prédire les sauts de capacité ou les lois de mise à l’échelle ? 
Dimensions de l'impact Critères Description 
Tâche et résultat      Tâche(s) effectuée(s) par le système Quelles tâches le système effectue-t-il (c.-à-d. reconnaissance, détection d'événements, prévision) ?  
Combiner tâches et actions  Le système combine-t-il plusieurs tâches et actions (c'est-à-dire des systèmes de génération de contenu, des systèmes autonomes, des systèmes de contrôle) ?  
Niveau d'autonomie du système Dans quelle mesure les actions du système sont-elles autonomes et quel rôle jouent les humains ?  
Degré d'implication humaine Existe-t-il une certaine implication humaine pour superviser l’activité globale du système d’IA et la capacité de décider quand et comment utiliser le système dans n’importe quelle situation ? 
Application principale Le système appartient-il à un domaine d’application principal tel que les technologies du langage humain, la vision par ordinateur, l’automatisation et/ou l’optimisation, ou la robotique ?  
Evaluation  Existe-t-il des normes ou des méthodes permettant d’évaluer les résultats du système ou de gérer des propriétés émergentes imprévues ?  

La clé de sources des descripteurs

texte clair :
Gluckman, P. et Allen, K. 2018. Comprendre le bien-être dans le contexte de transformations numériques rapides et associées. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Texte en gras:
OCDE. 2022. Cadre de l'OCDE pour la classification des systèmes d'IA. Documents de l'OCDE sur l'économie numérique, n° 323, Éditions OCDE, Paris. https://oecd.ai/en/classification 

Le texte en italique:
Nouveaux descripteurs (provenant de plusieurs sources) 

Une voie à suivre

En fonction de la réponse à ce document de discussion, un groupe de travail d'experts serait formé par l'ISC pour développer ou modifier davantage le cadre analytique ci-dessus par lequel les parties prenantes pourraient examiner de manière exhaustive tout développement significatif des plates-formes ou des dimensions d'utilisation. Le groupe de travail serait diversifié sur les plans disciplinaire, géographique et démographique, avec une expertise allant de l'évaluation technologique aux politiques publiques, du développement humain à la sociologie et aux études sur l'avenir et la technologie. 

Pour participer à ce document de discussion, veuillez visiter conseil.science/publications/framework-digital-technologies 

Remerciements

De nombreuses personnes ont été consultées lors de l'élaboration de ce document, rédigé par Sir Peter Gluckman, président de l'ISC, et Hema Sridhar, ancien scientifique en chef du ministère de la Défense et aujourd'hui chercheur principal à l'Université d'Auckland, en Nouvelle-Zélande. 

Nous remercions en particulier Lord Martin Rees, ancien président de la Royal Society et co-fondateur du Centre pour l'étude des risques existentiels, Université de Cambridge ; Professeur Shivaji Sondhi, professeur de physique, Université d'Oxford ; Professeur K Vijay Raghavan, ancien conseiller scientifique principal du gouvernement indien ; Amandeep Singh Gill, envoyé du secrétaire général de l'ONU pour la technologie ; Dr Seán Óh Éigeartaigh, directeur exécutif, Centre d'étude des risques existentiels, Université de Cambridge ; Amanda-June Brawner, conseillère politique principale et Ian Wiggins, directeur des affaires internationales, Royal Society UK ; Dr Jérôme Duberry, Dr Marie-Laure Salles, directrice, Geneva Graduate Institute ; M. Chor Pharn Lee, Centre pour les futurs stratégiques, Bureau du Premier ministre, Singapour ; Barend Mons et Dr Simon Hodson, du Comité sur les données (CoDATA) ; Professeur Yuko Harayama, Japon ; Professeur Rémi Quirion, président, INGSA; Dr Claire Craig, Université d'Oxford et ancienne responsable de la prospective, Bureau gouvernemental des sciences ; et le professeur Yoshua Bengio, du Conseil consultatif scientifique du secrétaire général de l'ONU et de l'Université de Montréal. L'approche de la liste de contrôle a été généralement approuvée et l'opportunité de toute action de l'ISC a été soulignée. 


Rejoindre la discussion

Image : Adamichi sur iStock

Passer au contenu