Intelligence artificielle et associations : comment encadrer les usages ?
Sommaire
Rien ne semble pouvoir arrêter le développement des outils d’intelligence artificielle (IA) et leur propagation à toutes les sphères de la vie économique et sociale. Les organismes sans but lucratif (OSBL) n’y échappent pas et servent de laboratoire pour placer ces outils au service de missions d’intérêt général (v. JA 2025, n° 713, p. 16 et s., dossier « Intelligence artificielle – Big Bang théorie »). C’est dans cette perspective que France générosités et Don en Confiance publient un guide pour encadrer l’usage de l’IA au sein des OSBL.
Une réalité opérationnelle
Cette publication part d’un constat simple : l’intelligence artificielle est déjà rentrée dans le quotidien des associations et fondations. Rédaction, analyse documentaire, traduction, relation avec les donateurs, aide au diagnostic ou encore exploitation de données : les cas d’usage se multiplient et représentent une réalité opérationnelle incontestable. Le document invite à prendre en compte les spécificités du secteur non lucratif, où l’enjeu n’est pas seulement de gagner du temps, mais de savoir si l’outil sert réellement la mission sociale, les valeurs et les contraintes de l’organisation. Autrement dit, la vraie question n’est pas celle du recours à l’IA, mais celle des objectifs, des conditions et des limites à poser.
Le droit et l’éthique comme point de départ
Le guide rappelle que l’usage de l’IA s’inscrit déjà dans un cadre juridique dense. Les outils utilisés par les OSBL entrent dans le champ du règlement européen sur l’intelligence artificielle (règl. (UE) 2024/1689 du 13 juin 2024), du règlement général sur la protection des données (règl. (UE) 2016/679 du 27 avr. 2016,), mais aussi du droit du travail lorsque ces outils modifient l’organisation, les tâches ou les conditions de travail.
Le texte souligne aussi les exigences de consultation des instances de représentation du personnel, d’analyse d’impact sur les données et de formation des salariés. Le propos va au-delà de la conformité : par leur rôle social et leurs sources de financement, les OSBL doivent ajouter à la légalité une exigence d’exemplarité. Transparence, contrôle humain, non-discrimination, fiabilité et sobriété environnementale deviennent ici des principes de gouvernance pour guider les usages.
Cartographier les risques pour ne pas subir les usages
Le guide propose ensuite d’identifier les risques intrinsèques de l’IA, puis les risques propres à chaque structure, à intégrer à leur document unique d’évaluation des risques professionnels (DUERP). Sont visés les biais algorithmiques, les fuites de données, la désinformation, les atteintes à la propriété intellectuelle, la dépendance technologique, les effets sur l’emploi ou encore le coût environnemental.
Le document insiste sur un point souvent sous-estimé : le phénomène de shadow IA (ou « IA fantôme »), à savoir les usages existants déjà, parfois de manière diffuse, via des applications personnelles ou des pratiques individuelles non encadrées. Une association peut-elle encore revendiquer une action fondée sur l’intérêt général si ses choix, ses messages ou sa relation aux bénéficiaires deviennent partiellement opaques ?
La priorité n’est donc pas seulement de définir les outils, mais de rendre visibles les usages réels. Cette approche conduit à évaluer le rapport bénéfice-risque avec les équipes et, si nécessaire, avec les parties prenantes. C’est une invitation à gouverner l’IA comme un risque stratégique, et non comme une simple commodité logicielle.
Il ne suffit pas d’adopter un outil, il s’agit de répartir les responsabilités, formaliser une charte éthique, écrire une politique d’usage, revoir les contrats, sécuriser les données et former les équipes. La gouvernance de l’IA devient ainsi un prolongement de la gouvernance associative elle-même pour garantir un cadre de confiance en vue de mener à bien leurs activités.
Thomas Giraud