En 2020, le marché de l’IA ne représentait pas moins de 22,59 milliards de dollars. D’ici 2025, on estime que sa valeur devrait être multipliée par 5. À mesure que le domaine de l’IA se développe, davantage de questions se posent en matière d’éthique et de responsabilité : à l’échelle mondiale, la question d’une IA “ethically aligned by design” mobilise progressivement des instances sur la scène internationale dans le but de formaliser un cadre éthique durable pour l’IA.

Pourquoi est-ce si important ?

Il existe aujourd’hui un flou juridique important autour de la notion de responsabilité du fait de l’IA. Dans le cas par exemple d’un piéton décédé lors d’un essai de voiture autonome recensé en 2018, la question de la responsabilité a été source d’importantes controverses. 

Face au développement conséquent de l’IA, ce flou juridique s’agrandit et soulève plusieurs  nouvelles problématiques qui peuvent se regrouper sous le terme d’insécurité juridique. Côté constructeurs, cette insécurité entraîne une baisse conséquente de la compétitivité des entreprises européennes qui sont aujourd’hui plus frileuses à se lancer dans ce domaine de peur de se confronter à ces problématiques en cas d’accidents. Quant aux consommateurs, le flou juridique est aggravé par le manque d’explicabilité de l’IA. En effet, les technologies comme le deep learning manquent de transparence et ne permettent pas de comprendre complètement le fonctionnement interne des systèmes en cas d’incidents, ni de cibler techniquement de futurs dysfonctionnements. Pour les victimes de dysfonctionnements qui souhaiteraient être dédommagées, une éventuelle notion de preuve est donc d’autant plus complexe à obtenir (Commission Européenne). 

Un besoin grandissant de développer un cadre éthique pour l’IA émerge donc avec pour enjeu principal la protection juridique des entreprises comme des utilisateurs.

L’Europe en avance en matière de régulation

Alors que les Etats-Unis ou la Chine ne priorisent pas la question de l’aspect éthique, l’UE a d’ores et déjà entrepris une démarche de régulation et de cadre pour l’IA. En juin 2018, la commission européenne avait initié le sujet en mandatant un groupe d’experts indépendants qui a publié par la suite un guide nommé Ethics Guidelines for Trustworthy AI. Début 2020, la réflexion a été développée dans un livre blanc qui souligne les différentes problématiques liées à la responsabilité et l’éthique, et présente des recommandations pour le futur. La stratégie de l’UE repose sur le développement de l’IA centré sur deux valeurs clés : l’excellence et la confiance.

Par la suite, le Parlement européen a voté en octobre 2020 dernier plusieurs textes :

En premier lieu, il a défini un cadre éthique, détaillant les grands principes, comme la garantie d’une supervision humaine à tout moment, une transparence sur l’utilisation de l’intelligence artificielle, une protection contre les biais et la discrimination ou encore une durabilité environnementale. Il est aussi proposé une évaluation de conformité obligatoire avant mise sur le marché pour les IA à hauts risques délivrant un “certificat européen de conformité éthique”.

En matière de responsabilité civile, des adaptations de la régulation sur la responsabilité liée à l’IA ont été réalisées. “L’opérateur du système d’Intelligence Artificielle” à haut risque serait responsable de tout dommage causé par l’usage de la technologie. Il ne pourra s’exonérer que s’il fournit la preuve que le dommage a été causé sans faute de sa part. Les opérateurs devront en conséquence souscrire à une assurance obligatoire et la commission européenne compte travailler avec le secteur de l’assurance afin de développer des produits répondant à ce nouveau besoin.

Enfin, le Parlement a lancé une réflexion sur la définition des droits de propriété intellectuelle en soulignant l’importance d’une distinction entre la création humaine assistée par l’Intelligence Artificielle, et les créations autonomes d’une IA. En revanche, elle ne peut être dotée d’une personnalité juridique car cela aurait un impact négatif sur la “motivation des créateurs humains”.

Vers un consensus mondial

Pour l’UNESCO, une solution et une stratégie durable doit être envisagée à l’échelle transnationale. Or, à ce jour, aucun instrument mondial ne permet d’orienter le développement et l’application de l’IA dans une approche centrée sur l’humain. Une stratégie a donc été initiée par l’UNESCO fin 2019 afin de préparer un instrument “normatif” à l’échelle internationale : un processus intergouvernemental va donc être engagé courant 2021 afin de produire des recommandations en vue d’un examen et d’une adoption à la prochaine Conférence générale qui se tiendra fin 2021 (UNESCO). 

Ces différents enjeux soulignent l’importance de définir un cadre éthique et de régulation de l’IA afin de soutenir son développement, tout en protégeant juridiquement entreprises et consommateurs. Avec le développement d’une réglementation au niveau européen et des démarches entreprises au niveau mondial, le développement d’une Intelligence artificielle éthique constitue donc un sujet majeur pour les années à venir. Cependant arriverons-nous à tendre vers une règlementation commune entre les américains, chinois et européens ? La réglementation autour de l’éthique de l’Intelligence Artificielle n’ouvre-t-elle pas elle-même un débat sur les idéologies profondes de notre société ? L’avenir nous le dira… 

The post 2021, l’année de transition pour l’intelligence artificielle first appeared on ProcuRSS.eu.