La Nation Bénin...
Si l’intelligence artificielle bouleverse les sociétés, la définition des règles pour son encadrement reste un défi pour les juristes. Responsabilité, protection des données, lutte contre les discriminations et encadrement international sont autant de questions au cœur de ce nouveau champ du droit en construction.
Entre promesses et menaces, l’intelligence artificielle (IA) place le droit face à un défi inédit, celui d’inventer une régulation capable de protéger sans étouffer, d’encadrer sans freiner, et surtout de rester humaine dans un monde de plus en plus automatisé. En fait, l’essor des systèmes d’intelligence artificielle soulève des interrogations majeures pour les législateurs. La première concerne la responsabilité de la faute lorsqu’une IA provoque un dommage: s’agit-il du concepteur, de l’utilisateur ou du fournisseur de données ? La question se complique lorsque l’IA prend des décisions autonomes, notamment dans la santé ou la justice, où une erreur peut avoir des conséquences irréversibles.
La protection de la vie privée constitue un autre enjeu. Les systèmes d’IA traitent d’immenses volumes de données, parfois sensibles, et risquent d’outrepasser les limites fixées par les lois sur la protection des données personnelles.
De même, l’usage de l’IA interroge la propriété intellectuelle, en ce qui concerne le détenteur des droits sur une œuvre générée par un algorithme: l’utilisateur, le concepteur ou la machine elle-même ?
Les juristes doivent aussi affronter la question des biais et des discriminations qui constituent une menace réelle, puisque des études ont montré que certains algorithmes reproduisent ou amplifient des inégalités sociales, raciales ou de genre.
Défis d’un encadrement juridique
Selon Dr Julien Coomlan Hounkpè, enseignant-chercheur à l’Université d’Abomey-Calavi et expert en droit du numérique, l’encadrement de l’IA repose d’abord sur des principes éthiques, progressivement traduits en règles juridiques.
«L’intelligence artificielle doit servir l’intérêt général, respecter les droits fondamentaux et garantir la transparence », rappelle le juriste.
A l’échelle internationale, plusieurs organisations se sont engagées dans cette voie. L’Unesco a adopté en 2021 une recommandation sur l’éthique de l’IA. Deux ans plus tôt, l’Organisation de coopération et de développement économiques (Ocde) a publié en 2019 ses principes directeurs. L’Union africaine, de son côté, développe une stratégie continentale sur l’intelligence artificielle, adossée à la Convention de Malabo de 2014 sur la cybersécurité et la protection des données personnelles. Ces instruments relèvent encore du « soft law », mais ils participent à l’émergence d’une gouvernance mondiale de l’IA, indique Dr Hounkpè. Ils cherchent à harmoniser les pratiques et à prévenir les dérives, en attendant des normes contraignantes plus globales, ajoute-t-il.
L’encadrement de l’intelligence artificielle dépasse les frontières. Dans les pays africains où les législations sur la protection des données et la cybersécurité sont encore en consolidation, les défis sont multiples. Les régulateurs manquent parfois de moyens techniques pour contrôler les systèmes d’IA importés. Mais l’urgence est la même partout : instaurer la confiance, protéger les citoyens et favoriser une innovation responsable.
La responsabilité au cœur des débats
La question de la responsabilité juridique reste l’un des nœuds sensibles. Pour Dr Hounkpè, il n’est pas envisageable d’attribuer une personnalité juridique à l’IA. « Les machines n’ont pas de conscience, elles ne peuvent assumer ni droits ni obligations », explique-t-il. La responsabilité doit donc peser sur les acteurs humains : fabricants, utilisateurs, fournisseurs ou importateurs.
Si les régimes de responsabilité civile ou pénale existants peuvent couvrir de nombreux cas, leur adaptation est nécessaire. En Europe, une directive sur la responsabilité liée à l’IA adoptée en 2022 introduit une responsabilité sans faute pour les systèmes à haut risque. Ce mécanisme vise à faciliter l’indemnisation rapide des victimes, même en l’absence de preuve de faute. Mais cette approche saluée pour sa protection des usagers, suscite des débats sur le risque de freiner l’innovation technologique et la compétitivité des entreprises qui s’y adonnent.
A l’échelle mondiale, les débats sur le droit de l’IA reflètent un contraste saisissant entre la vitesse des innovations technologiques et la lenteur des réformes juridiques. « L’IA est un objet juridique non identifié », résume le Dr Hounkpè, convaincu que l’avenir dépendra de la capacité des Etats et des institutions à trouver un équilibre durable entre protection et innovation.
L’Europe en pionnière avec l’AI Act
L’Union européenne a franchi un pas décisif avec l’AI Act, adopté en 2024. Ce règlement, premier en son genre au monde, instaure une approche fondée sur les risques liés à l’intelligence artificielle. Les usages d’IA jugés inacceptables, comme la notation sociale ou la surveillance biométrique de masse, sont interdits. Les systèmes à haut risque, tels que les dispositifs médicaux ou les outils de recrutement, doivent se conformer à des obligations strictes : supervision humaine, transparence, traçabilité des données et évaluation de conformité avant mise sur le marché. Ce texte a une portée extraterritoriale et pourrait inspirer de nombreuses législations, y compris en Afrique. Plusieurs pays du continent, dont le Bénin, la Côte d’Ivoire et le Sénégal, s’en servent pour élaborer des stratégies nationales d’encadrement de l’IA.
Le droit de l’intelligence artificielle est en train de se construire, au croisement de l’éthique, du droit international et des pratiques nationales