Les Perspectives de l’économie numérique de l’OCDE 2024 (volume 1) publiées le 14 mai indiquent qu’il y a actuellement un « vide de politique globale de la part des gouvernements » concernant les technologies immersives, les données suggérant que l’action politique s’est jusqu’à présent concentrée sur le soutien de leur développement. De même, les progrès rapides des capacités de l’IA vont plus vite que la réglementation et n’ont « pas encore été accompagnés d’assurances que l’IA est digne de confiance et sûre ». « Une action rapide des gouvernements est nécessaire, car l’IA et les technologies immersives continuent de se développer dans l’économie et la société », déclare Veronica Nilsson, secrétaire générale du TUAC. « Les principes et les codes de conduite ne suffisent pas ; une réglementation est nécessaire pour sauvegarder les droits de l’homme, protéger la démocratie et garantir un avenir technologique qui profite à tous.
L'intelligence artificielle est déjà à l'origine de changements rapides sur le lieu de travail et le rythme de sa croissance s'accélère.
Nous appelons l'OCDE à aider les pays à prendre des mesures concrètes pour mettre en œuvre les principes de l'IA et veiller à ce que les humains restent maîtres de la trajectoire."
Si l’OCDE déclare que « les implications à long terme des systèmes d’IA qui progressent rapidement restent largement incertaines », il est clair que les gouvernements doivent prendre rapidement des mesures pour faire face aux risques que l’IA fait peser sur les droits de l’homme, la cohésion sociale et la démocratie. Les principales conclusions des Perspectives sont les suivantes :
- L’IA générative est aujourd’hui si avancée que, dans certains cas, il est impossible de distinguer ses résultats de ceux créés par des humains.
La recherche suggère qu’il n’existe aucun moyen fiable de détecter les contenus générés par l’IA, ce qui signifie qu’ils pourraient potentiellement être diffusés à grande échelle sans être détectés, facilitant ainsi la désinformation.
Alors que la réglementation émerge en réponse à ce risque, les perspectives observent que le retard dans la politique, la mise en œuvre et l’application pourrait nuire à la qualité du discours public et de l’information en ligne, ce qui « pourrait être difficile, voire impossible, à rectifier dans les années à venir ». - Selon des médias internationaux réputés, le nombre d’incidents et de dangers liés à l’IA générative a été multiplié par 53 depuis 2022.
L’OCDE définit les « incidents ou dangers » liés à l’IA comme des événements ou des circonstances dans lesquels le développement, l’utilisation ou le dysfonctionnement d’un ou de plusieurs systèmes d’IA peut entraîner, ou a déjà entraîné, des blessures ou des dommages à une personne, une perturbation de la gestion et du fonctionnement d’infrastructures critiques, des violations des droits de l’homme ou des dommages aux biens, aux communautés ou à l’environnement. - « L’IA pourrait perturber considérablement les marchés du travail ».
Les perspectives notent que des recherches menées par des experts ont fait craindre que l’IA, de plus en plus performante, ne remplace certaines tâches hautement qualifiées et bien rémunérées, ce qui entraînerait des perturbations économiques et sociales.
L’IA modifiera également la nature de nombreux emplois en changeant les compétences requises des travailleurs. - L’IA pourrait marginaliser ou exclure certains groupes en faisant écho, en automatisant et en perpétuant les préjugés sociaux, les stéréotypes et la discrimination dans ses résultats.
En devenant plus complexe, l’IA pourrait exacerber les clivages entre les économies avancées et émergentes, en créant des inégalités dans l’accès aux opportunités et aux ressources. - Les grandes quantités d’informations personnelles contenues dans certaines données d’apprentissage de l’IA soulèvent des inquiétudes en ce qui concerne le droit à la vie privée.
L’IA a désormais la capacité de déduire des informations personnelles qui n’ont pas été communiquées au modèle lors de sa formation, ce qui l’amène à faire des prédictions et à tirer des conclusions sur les personnes sur la base des informations limitées qui lui ont été fournies.
Les perspectives identifient également un certain nombre d’opportunités, de risques et de questions réglementaires liés à la réalité virtuelle (RV) et à d’autres technologies immersives. Ces technologies se développent elles aussi à un rythme rapide et pourraient se trouver à un « point de basculement » en termes d’adoption. L’utilisation des technologies de réalité virtuelle donne lieu à une collecte sans précédent de données directement liées à l’environnement des utilisateurs et à leur corps ; 20 minutes de RV génèrent près de deux millions de points de données uniques sur le langage corporel. Les Perspectives observent que cela pourrait conduire à un profilage et à un ciblage accrus des individus, ainsi qu’à un contrôle et à une surveillance sans précédent des réactions physiologiques et des émotions des individus. Parmi les autres risques évoqués dans les perspectives figurent les incidences sur la santé et la sécurité, ainsi qu’un effet à long terme sur le développement cognitif des enfants. Comme pour l’IA, ces nombreuses préoccupations soulignent le besoin urgent d’une réglementation rapide et solide pour régir le développement et l’utilisation de la RV et d’autres technologies immersives.