top of page
Rechercher

Votre politique d’IA : 3 questions à vous poser dès maintenant !

  • 16 mars
  • 4 min de lecture


client d'un grand organisme à but non lucratif m’a récemment posé la question suivante : « Est-il préférable d'avoir une liste d'outils d'IA pré-approuvés ou non ? »


Une liste approuvée vous permet de fournir un répertoire définitif des outils d’IA que les membres de votre organisation peuvent utiliser, accompagné de directives d’utilisation.


Cela implique toutefois de disposer d'une personne ou d'une équipe capable d'évaluer les outils, de les valider et de fournir des conseils clairs en cas de restrictions d'utilisation pour les employés.


À première vue, la réponse semble évidente, n'est-ce pas ? Mais qu'en est-il si vous avez de nombreux employés ultra-spécialisés qui souhaitent utiliser des outils spécifiques ne faisant pas partie des suites logicielles pour lesquelles votre organisation paie déjà ?


La situation devient alors un peu plus complexe que de simplement valider l’utilisation de Copilot pour vos bureaux.


Si vous avez déjà travaillé avec moi, vous savez que ma réponse habituelle est la suivante : « Il n’existe pas de solution unique en matière de politique interne sur l’IA.»

Tout dépend de divers facteurs, tels que les systèmes d'IA actuellement proposés par votre organisation, votre capacité interne à gérer un système de validation ou encore votre tolérance au risque.


La stratégie du « port d’attache » ou commencez par ce que vous possédez déjà!


Cela peut sembler contre-intuitif, mais pour une petite organisation, limiter son équipe à trois ou cinq outils d’IA préapprouvés augmentera réellement sa productivité.


Pour de nombreuses organisations, la façon la plus sûre d'innover est de jouer avec leurs ressources existantes. Cette approche est particulièrement efficace pour les organisations qui paient déjà pour un accès à des outils d'IA largement utilisés par leur personnel, comme Copilot, Gemini, ou un système de gestion de la relation client (CRM) ou des ressources humaines (RH) doté d'une intégration à l'IA.


La question principale à se poser est la suivante : nos suites logicielles actuelles peuvent-elles répondre aux besoins de notre organisation ?

Avant de chercher à l'extérieur, avez-vous répertorié les fonctionnalités d'IA déjà intégrées à vos systèmes actuels ? Utiliser les outils que vous possédez déjà est un moyen fiable de remplir votre mission sans prendre de risques inutiles. Si c’est le cas, vous pouvez créer une liste pré-validée et mettre en place un processus agile pour évaluer de nouveaux outils au fur et à mesure des opportunités.


Lorsque vous évaluer un nouveau outil IA, votre équipe doit toujours revenir à l'essentiel et se demander: adoptons-nous un outil simplement parce qu'il est nouveau, ou parce qu'il fait progresser concrètement notre mission ? Ne vous laissez pas distraire par les nouveautés attrayantes si elles ne servent pas réellement vos objectifs.



Questions de diagnostic : avez-vous réellement besoin d'une liste ?


Si vous n'êtes toujours pas certain qu'une liste pré-approuvée soit la solution, posez-vous les questions suivantes :


  1. Quelle est la diversité de nos besoins techniques? Si 90 % de vos collaborateurs n’utilisent l’IA que pour de la rédaction de base et des résumés d'info, une liste pré-approuvée est parfaite. En revanche, si vos équipes sont «spécialisées » et utilisent l’IA pour du codage de niche, de la recherche spécialisée ou de la production créative, une liste trop rigide pourrait étouffer l’innovation dont vous avez besoin. Vous devrez alors mettre en place une procédure claire pour l’approbation de nouveaux outils.

  2. Quel est le risque lié à vos données? Votre personnel manipule-t-il des renseignements personnels identifiables (RPI) à enjeux élevés, des données sensibles sur les donateurs ou des dossiers de bénéficiaires ? Si la réponse est oui, une liste prévalidée vous permettra de prévenir les fuites de données accidentelles vers des versions gratuites et non sécurisées d’IA.

  3. Disposons-nous de la capacité d'assurer une surveillance centralisée? Une liste approuvée nécessite qu'une personne soit chargée de répondre aux demandes relatives à l'acceptation de nouveaux outils. Si vous n'avez pas le budget ou le personnel nécessaire pour gérer ces demandes, une liste pourrait éventuellement conduire à l'émergence de "Shadow IA", dans laquelle les employés utilisent des outils non approuvés sur leurs appareils personnels.



Si une liste rigide ne convient pas, vous pouvez tout de même maintenir la confiance et la transparence au sein de votre politique d'IA en définissant clairement :

  • Des normes par cas d'usage : au lieu de lister des outils, identifiez les tâches autorisées ou interdites. Par exemple, vous pourriez autoriser l'utilisation de l'IA pour le brainstorming et la rédaction préliminaire, mais interdire strictement son usage pour la prise en charge directe de bénéficiaires vulnérables.

  • Des balises standardisées: au lieu de valider chaque outil, imposez des caractéristiques de sécurité non négociables. Cela inclut une règle stricte d'interdiction des versions gratuites pour les données sensibles, ainsi qu'un modèle obligatoire d'« humain dans la boucle » (human-in-the-loop) pour éviter l'utilisation automatique et sans vérification des résultats générés par l'IA.


Quelle que soit la voie que vous choisissiez, la littératie en IA de votre personnel est essentielle à une mise en œuvre réussie.

Ne vous contentez pas de leur fournir une liste d'interdictions. Donnez-leur les compétences nécessaires pour utiliser les outils de manière optimale et pour comprendre les principes fondamentaux de l'IA, comme les dilemmes éthiques, les biais et les hallucinations.


Virage propose une excellente formation en entreprise, en moins de deux heures, toute votre équipe aura une vue d'ensemble des bases de l'IA. Contactez-nous pour en savoir plus sur nos offres.


Nous proposons également deux ateliers en avril pour aider votre équipe de direction à élaborer votre politique interne en matière d'IA : un en français et un en anglais.


AI WORKSHOP FOR NON PROFIT LEADERS
Inscrivez-vous

 
 
bottom of page