[translation] Professeur à la VUB : « Les entreprises s'inquiètent de la loi européenne sur l'IA ».
Le sommet mondial sur l'IA qui s'est tenu à Paris est terminé. Les scientifiques et les chefs d'entreprise européens 'interrogent sur la suite. Le 1er août 2024, la loi européenne sur l'IA (EU Artificial Intelligence Act) est entrée en vigueur, avec des directives strictes sur l'utilisation de l'intelligence artificielle par les entreprises et les gouvernements. Dans la déclaration finale du sommet les règles strictes de cette loi sur l'IA ont été relativisées dans de nombreux domaines. Les Américains, en particulier, ne veulent pas entendre parler de règles strictes sur l'utilisation de l'IA. « Il reste maintenant à voir comment ces règles seront intégrée dans la législation», explique le professeur de la VUB, directeur du laboratoire d'IA et directeur académique de FARI (l'institut d'IA de la VUB-ULB).
« Ce sont surtout les entreprises qui s'inquiètent », explique prof. Nowé. « Elles veulent savoir quelles tâches et réglementations supplémentaires le gouvernement imposera lors du développement d'applications d'IA et quel en sera le coût. Après tout, elles doivent rivaliser avec les géants de la technologie des États-Unis et de la Chine qui ne sont pas concernés par ces règles et lois plus strictes, tant qu'ils n'opèrent pas sur le marché européen. »
La loi sur l'IA répartit les applications de l'intelligence artificielle en différents niveaux de risque, allant des applications présentant des risques inacceptables aux applications à faible risque. Les premières incluent l'utilisation du scoring social, les techniques de manipulation et l'utilisation de caméras intelligentes, à l'exception de certaines situations de sécurité. Les systèmes d'IA ne doivent pas manipuler les groupes vulnérables ou leur causer du tort.
Des règles strictes s'appliquent également aux applications à haut risque. En effet, les applications de l'IA dans le domaine de la santé, par exemple, peuvent avoir des conséquences considérables et sont soumises à des lois strictes en matière de protection de la vie privée. Les développeurs de systèmes de données doivent être en mesure de démontrer que leurs systèmes répondent à un certain nombre d'exigences en matière de qualité, de transparence et de sécurité des données.
Pour les applications à risque moyen, telles que le développement de chatbots et de modèles d'IA générative, les utilisateurs doivent savoir quand ils rencontreront du contenu généré par l'IA. Pour les applications présentant un risque minimal, la loi sur l'IA n'impose aucune règle. Il est également important de noter que l'IA n'est évidemment pas au-dessus de la loi.
« La plupart des entreprises qui travaillent avec l'IA ne sont pas opposées aux principes de la loi sur l'IA en soi », explique M. Nowé. « Mais elles craignent d'être désavantagées par rapport à la concurrence parce que les lois qui suivront l’Acte IA de l’Europe leur imposeront des tâches supplémentaires pour démontrer qu'elles sont effectivement conformes. Le souci est que la mise en œuvre de la loi sur l'IA doit rester réalisable. De plus, le fait que les législateurs ne comprennent pas toujours la subtilité de ce qu'est exactement l'IA crée des tensions ».
L'Europe nuance l'agitation autour de la loi sur l'IA. La législation sera mise en œuvre par étapes et devrait être pleinement en vigueur d'ici 2027. Cette mise en œuvre progressive devrait donner aux entreprises et aux régulateurs suffisamment de temps pour s'adapter aux nouvelles réglementations.
Plus d'informations :
Ann Nowé : +32 474 94 67 34, ann.nowé@vub.be