Avec quelques données de base, ChatGPT peut rédiger un mail, analyser des fichiers Excel ou créer des textes pour des slides de présentation. Seulement voilà: les utilisateurs ne le font pas toujours en toute légalité.
De nombreuses sociétés comme Roche, Helvetia ou la Banque cantonale de Zurich ont revu leurs règlements et limitent désormais l'utilisation d’outils d’intelligence artificielle. La raison est évidente: la collecte des données saisies peut nuire aux intérêts de l'entreprise.
Mais sans alternative adéquate, certains collaborateurs utilisent tout de même des outils d'IA comme Chat GPT, Git Hub, Quill Bot, Otter ou Riverside. Ils le font en cachette, à l'insu de leurs supérieurs. La saisie de données relatives à l'entreprise peut se faire à domicile, via un ordinateur privé. Un deuxième monde se crée alors à l'écart du monde informatique officiel de l'entreprise: le Shadow IT.
Les risques du Shadow IT
Ce phénomène a explosé depuis l'arrivée de l'IA générative. Selon une étude de la société Gartner menée l’année dernière, plus de 40% des personnes interrogées déclaraient avoir acquis ou utilisé des technologies en dehors de l'univers informatique de l'entreprise. Plus récemment, une enquête de l’institut Core démontre que le Shadow IT a augmenté de près de 60% en raison du travail à distance.
Le fait qu'un Shadow IT puisse se développer est l’indicateur d'un état insuffisant de l'informatique au sein de l'entreprise. Retards d'innovation, lenteur des réactions ou applications inadaptées: voilà quelques raisons qui incitent les collaborateurs à utiliser des outils d'IA de leur propre chef plutôt que de compter sur leur employeur.
«Si les programmes internes ne peuvent pas suivre les attentes ou les tendances du marché, les employés prennent alors leur destin en main pour combler cette lacune et garantir leur propre efficacité», explique Tim Cadenbach, développeur pour l'entreprise d'intelligence artificielle Deepl. Selon lui, l'existence d’un Shadow IT est une sorte de «clin d'œil» de la part du personnel.
Des intentions louables pour un résultat peu reluisant
Les intentions des collaborateurs sont donc louables, mais ils oublient que l'utilisation de l'IA gratuite comporte d’importants risques. Le personnel alimente parfois l'IA avec des fichiers internes très sensibles. De son côté, l'intelligence artificielle utilise ces documents pour apprendre et, dans des cas extrêmes, recrache ces contenus en réponse aux questions de la concurrence.
Le risque est encore plus grand lorsque des pirates informatiques pénètrent les outils d'IA et utilisent ces informations contre les entreprises. En outre, une société comme Open AI peut utiliser les données d'entraînement pour son propre compte, puis vendre les informations comme ses créations, ce qui peut fausser les droits d'auteur.
Les entreprises doivent aborder le sujet
Par conséquent, les entreprises doivent prendre des mesures. Selon Deloitte, plus de 60% des utilisateurs d'ordinateurs en Suisse utilisent déjà quotidiennement un outil d'IA générative, «parfois même à l'insu de leurs supérieurs».
«Tout commence par une campagne d'information qui favorise la prise de conscience et crée la transparence», souligne Marc Beierschoder, auteur de l'étude et responsable AI & Data chez Deloitte Suisse. Les collaborateurs ne sont pas les seuls à devoir être informés, l'entreprise doit également apprendre ce que souhaite son personnel. Sur cette base, l'employeur définit des directives et propose des alternatives.
L'étape suivante, à savoir la surveillance, risque d’heurter certains employés. Les entreprises peuvent en principe accéder à tout moment aux données professionnelles de leurs collaborateurs. Il existe aussi des applications qui donnent l'alerte ou bloquent une page si les employés veulent par exemple accéder à des services cloud qui ne sont pas autorisés.
Former les employés pour créer la confiance
Afin d’éviter qu'une culture de la méfiance ne s'installe, les entreprises doivent communiquer, mais également former leurs collaborateurs. Cela implique un point de contact pour l'IA, auquel les employés peuvent s'adresser en cas de questions.
«L'objectif est de mettre en place un processus continu, explique Marc Beierschoder. La tendance autour de l'IA va se poursuivre, ce qui nécessite un environnement positif dans lequel les collaborateurs peuvent s'exprimer et faire part de leurs préoccupations en matière d'IA et de données.»
Cet article est une adaptation d'une publication parue dans Handelszeitung.
>> Lire aussi: Tous fliqués! La surveillance numérique dopée par l’IA