Note de l'éditeur : Cet article, rédigé par Alastair Parr, Prevalent Senior Vice President, Global Products & Services, a été publié à l'origine sur www.corporatecomplianceinsights.com.
---
Alors qu'une grande attention est actuellement portée à la conformité interne avec les réglementations émergentes en matière d'IA, Alastair Parr, de Prevalent, affirme que les entreprises ne devraient pas négliger un facteur externe majeur : les tiers.
L'intelligence artificielle (IA) remodèle rapidement le monde moderne, et les gouvernements s'empressent de mettre en place des garde-fous pour s'assurer qu'elle est déployée de manière responsable. La croissance rapide de la technologie a également conduit les entreprises de presque tous les secteurs d'activité à adopter l'IA, car elle offre des gains de productivité et d'efficacité, dans le but ultime d'améliorer leurs résultats.
Toutefois, ces opportunités s'accompagnent de responsabilités importantes pour les entreprises, qui doivent déployer l'IA de manière éthique et dans le respect de la loi. Cette responsabilité doit s'étendre non seulement à leurs propres pratiques, mais aussi à celles de tous les tiers avec lesquels elles s'engagent, y compris les fournisseurs et les prestataires de services.
Les entreprises basées dans des régions à la pointe de la réglementation en matière d'IA, notamment les États-Unis, le Canada, l'UE et le Royaume-Uni, seront particulièrement confrontées à la difficulté de s'y retrouver parmi les nombreux éléments mobiles qui accompagnent le déploiement sûr et responsable de l'IA.
Ces régions sont en train d'élaborer des cadres uniques pour réglementer cette technologie qui évolue rapidement. Il sera essentiel pour les entreprises opérant dans ces régions de comprendre ces réglementations et de s'y conformer afin d'éviter les répercussions juridiques et de maintenir la confiance avec les parties prenantes.
Les organismes de réglementation du monde entier décident de la manière de réglementer l'intelligence artificielle, et les entreprises doivent être très attentives au moment où les propositions deviennent des lois contraignantes. Bien qu'il y ait des variations d'un pays à l'autre, la plupart des règles proposées se concentrent sur la protection de la vie privée, la sécurité et les questions ESG concernant la façon dont les entreprises peuvent utiliser l'IA de manière éthique et légale.
Par exemple, aux États-Unis, le cadre de gestion des risques de l'IA du NIST a été introduit en janvier 2023 pour "offrir une ressource aux organisations qui conçoivent, développent, déploient ou utilisent des systèmes d'IA afin de les aider à gérer les nombreux risques de l'IA et de promouvoir un développement et une utilisation fiables et responsables des systèmes d'IA". Ce cadre volontaire offre des conseils complets sur l'élaboration d'une stratégie de gouvernance de l'IA pour les organisations.
Les organisations devraient appliquer des principes de gestion des risques pour atténuer les effets négatifs potentiels des systèmes d'IA, tels que
Tous ces éléments concernent non seulement les entreprises, mais aussi les partenaires, les fournisseurs et les autres tiers avec lesquels elles font des affaires. De plus en plus, les entreprises doivent s'attendre à être tenues responsables de la manière dont leurs vendeurs, fournisseurs et autres partenaires tiers utilisent l'IA, notamment en ce qui concerne la gestion des données de leurs clients.
Les années à venir clarifieront la façon dont les organisations du monde entier doivent adapter leurs stratégies en matière d'IA, et la gestion des risques liés aux tiers deviendra probablement un élément de plus en plus important de l'équation.
L'adoption de nouvelles lois entraînera de nouvelles réalités pour les entreprises de tous les secteurs. Il est temps de commencer à se préparer à ces nouvelles réalités, notamment en établissant des politiques d'utilisation acceptable de l'IA et en communiquant ces politiques à des tiers.
Quel que soit le lieu, une approche prudente et un engagement proactif avec les fournisseurs sont des stratégies essentielles pour gérer ces risques. Les entreprises doivent reconnaître qu'une gouvernance responsable de l'IA va au-delà de leurs opérations internes et englobe les pratiques de toutes les parties impliquées dans leur écosystème d'IA.
Chaque entreprise a des objectifs et des défis qui lui sont propres, ce qui signifie que les relations avec les partenaires tiers varient considérablement. Mais il existe des mesures fondamentales que toute entreprise peut prendre pour atténuer de manière proactive les risques liés à l'IA associés aux relations avec des tiers :
Alors que les gouvernements introduisent de nouveaux cadres réglementaires et juridiques autour de l'IA, les entreprises doivent de plus en plus considérer leurs fournisseurs et partenaires tiers comme une autre source de risque qui doit être atténuée et gérée. Prendre ces mesures importantes nécessite une expertise en matière de gouvernance de l'IA, qui est actuellement très demandée. Les entreprises qui ne disposent pas d'équipes dédiées à la gestion des risques liés à l'IA peuvent trouver une assistance externe auprès d'organisations spécialisées dans la navigation efficace dans ce paysage complexe.