L’intelligence artificielle pour l’Europe Pilier 3 : normes juridiques et règles éthiques

© shutterstock

L'Union Européenne encourage le développement et l'utilisation de l'intelligence artificielle (IA). Dans sa stratégie d'IA, elle aborde également les défis et les risques et exige que les IA soient " dignes de confiance ". Pour cela, elle devrait être soumise à des normes juridiques appropriées et suivre des règles éthiques.

cepPolicyBrief

Du point de vue du cep, la création d'une confiance dans l'intelligence artificielle entre les utilisateurs et les personnes concernées peut favoriser leur acceptation. Toutefois, l'obligation générale d'éclairer la façon dont une personne peut corriger les décisions en matière d'IA va trop loin. Étant donné que trois problèmes spécifiques à l'IA dans la mise en œuvre de l'ODSGVO sont déjà prévisibles aujourd'hui, il convient que la Commission "poursuive" la manière dont l'ODSGVO est mise en œuvre dans les applications AI. L'exigence de "transparence" de l'IA est trop vague pour les experts du cep. Les lignes directrices éthiques, qui ont été élaborées par un "comité d'experts" au nom de la Commission, ne peuvent être que le point de départ d'un vaste débat éthique public sur l'IA, dans lequel toutes les parties concernées doivent être impliquées.

La présente cepAnalyse porte sur le troisième objectif principal de la stratégie de la Commission en matière d'IA, à savoir la création d'un cadre juridique approprié et de règles éthiques pour les IA. Auparavant, dans les analyses cepAnalyses n° 10/2019 et n° 12/2019, nous avons abordé les deux premiers objectifs principaux de cette stratégie, à savoir promouvoir et coordonner les investissements dans les infrastructures critiques (pilier 1) et adapter les systèmes éducatifs et sociaux au nouveau monde du travail (pilier 2).