L’OCDE poursuit ses travaux sur l’intelligence artificielle (IA) en vue d’élaborer une recommandation du Conseil dans le courant de l’année 2019 et de créer un observatoire de l’IA en tant que pilier de la deuxième phase du projet « Going Digital ».
Les 24 et 25 septembre, la première réunion du groupe d’experts sur l’IA à l’OCDE (AIGO) s’est tenue à Paris.
Elle sera suivie d’autres réunions dans les prochains mois.
L’AIGO a une composition multipartite et rassemble des experts nommés par les délégations et les comités consultatifs de l’OCDE (y compris le TUAC) ainsi qu’une poignée d’experts invités.
Le TUAC était représenté par son secrétariat, Anna Byhovskaya, et par UNI Global Union, Christina Colclough.
Le groupe est invité à contribuer à la portée et au contenu des principes de l’OCDE sur l’IA, qui devraient aller de la sauvegarde des valeurs démocratiques et sociétales fondamentales aux paramètres opérationnels des systèmes d’IA, en passant par des lignes directrices pour les cadres d’action.
De telles discussions multipartites sont actuellement en cours aux niveaux national et régional (y compris au niveau de l’UE).
Les implications d’une utilisation croissante et plus large de l’IA, combinée à d’autres technologies, seront considérables pour les emplois et les travailleurs – de la modification des schémas de travail au contrôle des données, en passant par le remplacement des tâches.
Cependant, de nombreuses opportunités et défis liés à l’IA et à sa portée ne peuvent pas encore être pleinement appréhendés alors que son développement et sa diffusion se font à une vitesse sans précédent.
Pour le TUAC, il sera essentiel d’intégrer des garanties dans la conception, le développement et l’utilisation de l’IA, notamment en ce qui concerne les aspects liés à l’emploi.
De nombreuses propositions politiques commencent et se terminent par l’éducation et la formation lorsqu’il s’agit d’impacts sociétaux.
Les négociations collectives ou les fonds de transition équitable ne sont pas encore pris en compte dans certains de ces débats.
Les politiques publiques doivent se pencher sur les aspects économiques, sociaux, y compris le marché du travail, éthiques et juridiques de l’IA, car plusieurs risques se présentent.
Dans le même temps, il est important de maintenir l’équilibre entre l’application et la révision des normes et des cadres réglementaires existants.
Le TUAC a publié une première série de priorités en novembre 2017(https://tuac.org/news/shaping-introduction-ai-benefit/ ) et les détaillera ultérieurement :
- élaborer des normes opérationnelles, juridiques et éthiques et éviter la fragmentation des règles et des réglementations ;
- fixer des exigences en matière de commandement humain, y compris le droit d’explication, et préciser que les robots et l’IA ne doivent jamais être « humanisés » ;
- concevoir et financer des stratégies de transition permettant aux travailleurs de conserver leur emploi ou d’en changer si le contenu des tâches professionnelles est considérablement modifié par l’IA ;
- engager les partenaires sociaux dans des processus de dialogue industriel et d’innovation afin de garantir les paramètres appropriés pour la normalisation, des résultats plus équitables grâce à la négociation collective et l’autonomie des travailleurs dans les interactions entre machines et humains ;
- anticiper les compétences nécessaires pour compléter les tâches accomplies par les technologies cognitives et élaborer des politiques de formation et le financement sous-jacent sous le prisme de l’apprentissage tout au long de la vie avec la participation des syndicats dans la gouvernance, la conception, la mise en œuvre et la supervision ;
- garantir la qualité des ensembles de données sur lesquels l’IA est construite : de mauvais algorithmes peuvent conduire à des résultats préjudiciables : entre autres, des problèmes de propriété des données se posent compte tenu de l’opacité du traitement et de la réaffectation des données, et examiner les moyens de rendre les données personnelles anonymes (y compris les évaluations de l’impact sur la vie privée) ;
- vérifiez les techniques d’apprentissage automatique par rapport aux risques de partialité et de sécurité et discutez de la responsabilité et de la protection des consommateurs, ainsi que de la santé et de la sécurité au travail (SST).
- soutenir la R&D publique qui manque actuellement des ressources nécessaires pour poursuivre des objectifs à plus long terme par rapport aux laboratoires des entreprises et, à cet effet, encourager les écosystèmes d’innovation et les grappes d’entreprises dans les régions ;
- créer des incitations et rendre obligatoires les simulations et les systèmes de validation lors des essais d’IA.