Le Conseil de l’Europe en première ligne sur les impacts de l’IA sur la justice et la démocratie

L’histoire du Conseil de l’Europe et des technologies est assez ancienne. Il y a eut de nombreuses conventions qui se sont déjà intéréssées aux évolutions technologiques : la protection des données à caractères personnels (RGPD), la lutte contre la cyber-criminalité, la bioéthique … Il est de la tradition du Conseil de l’Europe de pouvoir s’intérésser aux évolutions de la société de façon à ce que ces instruments puissent s’adapter. Sans nul doute, la convention européenne des droits de l’homme, nous dit déjà beaucoup sur la manière de traiter aujourd’hui les algorithmes. Mais, peut etre, faut il pouvoir identifier quelques éléments extrémements précis qui peuvent aujourd’hui être des signaux plutôt inquiétant sur la protection des droits de l’homme, de l’état de droit et de la démocratie.

 

Pourquoi les algorithmes et l’IA sont au coeur des préocupations du Conseil de l’Europe ?

En matière d’algorithmes, nous avons vu des affaires comme « Cambridge Analytica » qui eveille notre intérêt. Ce qui est singulier avec cette affaire là, c’est qu’il y a eut des violations sommes toutes mineures vus des individus. J’entends par là, quelques données à caractères personnels qui ont fuitées. Je pense que peu de citoyens souhaitent saisir un tribunal de façon à faire reconnaitre ce préjudice.

En revanche, collectivement, les dégâts ont été majeurs. Nous avons vu que, même si la propagande electorale n’est pas neuve, nous sommes passés de l’ère du « lance pierre » à une ère d’ « armes automatiques »

C’est à dire que par la capacité de « micro-ciblage », d’identification des individus, de captation, pour pouvoir pousser encore une fois de l’information vers eux. On pense vraiment à une ère toute à fait nouvelle qui justifie selon nous de pouvoir réfléchir à des modes de réponses adaptées.

Aujourd’hui, le Conseil de l’Europe s’intéresse à la réglementation des algorithmes, non pas poser un cadre réglementaire supplémentaire; il y en a déjà beaucoup sur le dos des entrepreneurs. En revanche, comment construire aujourd’hui un développement durable, dans tous les domaines en n’ignorant pas les conséquences de ces actions ?

L’exemple de Cambridge Analytica fragilise énormément la technologie numérique. On créé des craintes, à juste titre, auxprès des populations. Et concéder ses données, dans l’avenir, va devenir de moins en moins évidents s’il n’y a pas un cadre de confiance.

Cadre de confiance également pour l’emploi des algorithmes dans notre vie quotidienne.

A t on totalement conscience de ce que l’on concède quand on coche une case et que l’on autorise une application sur notre smartphone ?

Au Conseil de l’Europe, nous espérons pouvour clarifier les cadres et surtout capitaliser au niveau mondial ce qui a été réalisé en therme d’éthique, d’algorithmes et d’Intelligence Artificielle.

Ethique; le mot clé du moment … mais après ?

C’est le mot clé en 2018/2019 en matière d’intelligence artificielle.

Nous avons commencé au Conseil de l’Europe une revue des cadres existants dans le monde. Plus de 120 documents qui envisagent d’encadrer de manière éthique, responsable le fonctionnement et développement des algorithmes en particulier de l’intelligence artificielle.

Mais peut etre faut il réfléchir à la manière dont l’éthique peut être transformer en droit ?

En réalité, l’Ethique est dépourvue de sanction. Cela enjoint un comportement individuel, personnel, responsable … mais si on ne le respecte pas, qu’arrive t il ? … Là, c’est le rôle du « Droit » d’intervenir et de transférer de l’éthique à du droit : des normes, des valeurs qui sont communéments partagées socialement.

 

Interview de Yannick Meneceur, magistrat détaché au Conseil de L’Europe conseiller en transformation numérique et en Intelligence Artificielle qui nous apporte ici un éclairage précis sur les questions d’usages et enjeux sociétaux que l’IA posent vis à vis de la justice et de la démocratie.

 

Partagez ce contenu via ...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *