29/04/2021 @ 19:29:06: Droit - L'UE ne veut pas que l'IA nous espionne: ils seront classés en 4 niveaux de risque
La Commission européenne a présenté une proposition visant à réglementer les systèmes d'intelligence artificielle à usage civil (excluant donc ceux à des fins militaires), qui devraient être classés en quatre niveaux de risque: minimal , limité , élevé et inacceptable . Ces derniers en particulier doivent être considérés comme interdits sur l'ensemble du territoire de l'Union européenne, et même en dehors de celui-ci s'ils ont des répercussions sur les citoyens de l'UE. Alors, quels sont ces systèmes inacceptables? Ceux qui constituent " une menace claire pour la sécurité , les moyens de subsistance et les droits des personnes , y compris les systèmes qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs (par exemple, les jouets qui utilisent l'assistance vocale pour encourager les comportements dangereux des mineurs) et les systèmes qui permettent aux gouvernements de donner des scores sociaux ».
Ceux qui tombent dans le risque élevé , en revanche , seront soumis à des obligations strictes avant de pouvoir être mis sur le marché . Cette catégorie comprend les systèmes d'intelligence artificielle pour la surveillance de masse , utilisant des méthodes d'identification biométrique à distance telles que la reconnaissance faciale . Ils sont donc totalement interdits dans les espaces publics , avec possibilité d'exceptions, " strictement définis et réglementés, avec des délais, une portée géographique et des bases de données recherchées ", à des fins de sécurité publique et pour lesquels une autorisation est requise de la part d'un organe judiciaire . Quelques exemples d'exceptions sont la recherche d'enfants disparus, la prévention du terrorisme, la recherche des auteurs de crimes graves.