mercredi , 25 décembre 2024

Quelle régulation pour l’Intelligence artificielle (IA).

Par Ahmed Khaouja (*)

L’IA pose de grands défis. L’IA est le premier outil conçu par l’homme, capable de prendre des décisions par lui-même. On retrouve aujourd’hui des applications de l’IA dans presque toutes les activités. Elle est également liée à la sécurité et à la défense d’un pays. Un marché en évolution rapide et à fin 2023 le marché de l’IA est estimé à 42,5 milliards de dollars. Au-delà de l’aspect utilité socio-économique, l’ONG Future of Life (1), pose des questions importantes : acceptons-nous la perte de contrôle de notre civilisation ? Acceptons-nous que des humanoïdes (robots dotés de l’IA) tuent des gens dans la rue ?. Sans vouloir tuer l’innovation dans ce domaine, l’IA nécessite de nouvelles règles plus pertinentes que celles appliquées dans l’industrie médicale ou celles appliquées dans l’industrie nucléaire.

Certains acteurs agissant dans le domaine de l’IA, comme Elon Musk, réclament une pause dans l’activité de l’IA ! en attendant, ils exigent une réglementation à l’échelle internationale. Mais la création d’un organisme international pour réguler l’IA semble impossible dans l’état actuel du monde. En 2021, l’ONU a adopté une recommandation concernant la nécessité d’un cadre législatif pour l’IA. L’ONU a réuni pour la première fois le vendredi 27 octobre 2023 les 39 experts de son tout nouveau comité consultatif sur ces technologies d’IA. Un comité regroupant des acteurs de la société civile, du secteur privé, des institutionnels et des chercheurs.

Selon plusieurs experts, une régulation est nécessaire pour réguler l’IA. Les Européens qui sont en retard dans le domaine de l’IA, sont plus plutôt préoccupés par les droits d’auteurs attachés aux données utilisées par les logiciels et veulent imposer un label sur les contenus générés par l’IA.  L’Europe est parvenu à travers le Parlement européen a adopté le 14 juin 2023 l’IA Act, législation visant à encadrer l’IA au sein de l’Union européenne. La Chine a mis en place de nouvelles réglementations sur les contenus générés l’IA, afin de maintenir le pays dans la course sur ce créneau en pleine croissance, tout en maintenant un contrôle strict.

A cet effet, l’administration chinoise en charge du Cyberespace a présenté en avril 2023 un projet de loi qui impose que les applications d’IA soient soumises à un audit de sécurité avant leur lancement sur le marché. Ce projet de loi a été adopté en août 2023. Les États-Unis ont récemment lancé une consultation publique. En effet, l’Agence américaine des télécommunications et de l’information (NTIA) a lancé une procédure de consultation en avril 2023, processus utilisé par plusieurs gouvernements pour initier de nouvelles lois. Cette consultation a été lancée après que la NTIA a constaté un nombre croissant d’incidents où l’IA et les systèmes algorithmiques ont conduit à des résultats catastrophiques. Quant à la Grande-Bretagne, elle propose d’appliquer les réglementations existantes en attendant les résultats du premier sommet mondial consacré à l’IA au Royaume-Uni tenu les 1er et 2 novembre symboliquement dans le lieu où pendant la Seconde guerre mondiale, on assurait le décryptage des communications des militaires allemands. L’objectif de ce premier sommet est d’évaluer les risques posés par l’IA et la manière dont ils pourraient être atténués par une action coordonnée à l’échelle internationale. Les gouvernements internationaux, les grandes entreprises d’IA et les grands experts concernés ont évoqué à ce sommet comment mieux utiliser l’IA.

Au Maroc en attendant de voir plus clair ce que donnera l’application de IA Act adopté en Europe on essaye d’appliquer la réglementation en vigueur et notamment celle en relation avec la protection des données personnelles.

Quant à l’outil chatGPT, il suscite également des inquiétudes majeures aux côtés d’autres applications d’IA. Notamment en termes de confidentialité, de sécurité et d’éthique. En effet, le succès spectaculaire du robot conversationnel ChatGPT, lancé le 30 novembre 2022 par la société OpenAI, suscite une inquiétude croissante à travers le monde, car cette technologie peut être utilisée à des fins néfastes. Comme avec les vidéos « deepfakes » qui font dire aux gens des déclarations qu’ils n’ont pas dites. Selon El Ghazali Talbi l’un des grands experts de l’IA en France a souligné la puissance des chatGPT. Il a affirmé lors de la conférence qu’il assuré à l’Ecole Mohammedia des ingénieurs de Rabat, si on a commencé par 26 millions de paramètres avec ChatGPT, aujourd’hui le dernier ChatGPT compte 100 Trillons de paramètres. Tuer l’innovation, tentent, à travers les différents mécanismes de régulation, de pousser pour que :

a- Les usagers utilisent cet outil de manière responsable et éthique

b- Les développeurs d’algorithmes et de codes respectent les normes éthiques telles que celles publiées par l’IEEE (Institute of Electrical and Electronics Engineers).

c- La protection des données personnelles soit respectée.

Par Ahmed Khaouja

 (*) :  Ahmed Khaouja qui a participé à une formation sur l’intelligence artificielle en 1990 organisée par l’ingénieur Mouslim Kabbaj et Ribat El Fath à Rabat. Ahmed Khaouja avait déjà évoqué dans la presse marocaine en 1990 l’impact de l’IA sur l’emploi des cols blancs et il avait même proposé à cette date une régulation de la sur-recherche. voir article sur le lien https://lte.ma/wp-content/uploads/2017/11/Classeur1.compressed.pdf .

(1) : Le Future of Life Institute ( FLI ) est une organisation à but non lucratif (créée aux USA) dont l’objectif déclaré est de réduire les risques catastrophiques et existentiels mondiaux auxquels l’humanité est confrontée, en particulier les risques existentiels liés à l’intelligence artificielle (IA) avancée . Le travail de FLI comprend l’octroi de subventions, la sensibilisation éducative et le plaidoyer auprès des Nations Unies , du gouvernement des États-Unis et des institutions de l’Union européenne .

LTE.ma 2024 - ISSN : 2458-6293 Powered By NESSMATECH