Depuis la sortie de ChatGPT par OpenAI en novembre 2022, le grand public a pris conscience du potentiel de l’intelligence artificielle, ainsi que des nombreuses questions qu’elle soulève. Pour les PME, l’IA représente également une opportunité majeure, accompagnée de défis importants en matière de protection des données.

Matthieu Corthésy est spécialiste en intelligence artificielle et formateur en IA pour les entreprises. Auteur du guide ChatGPT en entreprise, il conseille les PME sur les meilleures pratiques pour intégrer l’intelligence artificielle dans leurs processus. Quelle que soit leur taille, les entreprises suisses sont déterminées à ne pas rater cette avancée technologique. Encore faut-il le faire avec intelligence. Explications.

Quel est habituellement le premier conseil que vous donnez aux PME soucieuses d’utiliser l’intelligence artificielle?

Je leur recommande de sensibiliser leurs employés à l’utilisation des nouveaux outils fonctionnant avec une IA générative, comme ChatGPT. Il est crucial qu’ils comprennent comment fonctionne l’IA pour se sentir rassurés, mais aussi pour sécuriser les données de l’entreprise. Il faut réaliser que des informations sensibles peuvent être transmises à ces machines, ce qui ne va pas sans poser des risques en matière de protection des données. En effet, les IA génératives utilisent les données de leurs utilisateurs pour s’améliorer. Dans ChatGPT, cette fonctionnalité est activée par défaut. Il est possible de la désactiver ou d’utiliser les versions payantes, qui ne sont pas configurées pour l’entraînement.

Pour une PME, quel est le risque principal en matière de protection des données?

Les serveurs de ChatGPT sont situés aux Etats-Unis, ce qui pose des problèmes de confidentialité, car le gouvernement américain est susceptible d’accéder de manière privilégiée aux données de la société mère OpenAI. C’est un véritable enjeu pour les entreprises suisses, en particulier dans des secteurs sensibles comme la banque ou l’industrie.

«Il est important d'établir une charte d'utilisation interne pour encadrer l'utilisation de ces outils»

 

Quelles questions les employés devraient-ils se poser avant de mettre un contenu sur un chatbot comme ChatGPT?

Ils devraient se poser trois questions principales. Tout d'abord, «Y a-t-il des données personnelles dans ce contenu (nom d’une personne – client ou fournisseur)?» Si oui, la personne concernée doit être informée, c’est une exigence du nouveau Règlement général sur la protection des données (RGPD) européen. Ensuite, «Ce contenu contient-il des données confidentielles?» Cela peut inclure des secrets industriels, des informations sous embargo, des brevets ou des discussions stratégiques. Enfin, «Peut-on valider la réponse de ChatGPT?» Il est crucial de vérifier les résultats fournis par l’IA, car elle peut produire des informations factuellement incorrectes. Récemment, aux Etats-Unis, un avocat a utilisé dans sa plaidoirie des jurisprudences totalement fausses fournies par ChatGPT, ce qui lui a évidemment causé des problèmes.

Existe-t-il des outils alternatifs à ChatGPT? Si oui, lequel est le meilleur?

Microsoft Copilot est une option qui est en train d’être massivement adoptée, car elle répond en partie aux problématiques de protection des données. Bien que Microsoft soit également une société américaine, elle dispose de serveurs en Europe et en Suisse, ce qui offre une meilleure protection. Certains groupes comme Nestlé ont aussi lancé des chatbots internes pour éviter la fuite de données. Ils sont souvent basés sur le même langage ouvert (LLM) que celui utilisé par OpenAI, qui reste le mètre étalon en la matière. Des sociétés comme Mistral, en France, développent aussi leur propre LLM en open source. Les PME peuvent l’utiliser en interne pour garder une souveraineté totale sur leurs données, mais cela implique des coûts importants de développement et de maintenance.

Que conseillez-vous aux PME qui veulent développer à l’interne un chatbot comme ChatGPT?

La première erreur serait de créer un chatbot qui imite simplement ChatGPT. Il vaut mieux cibler les besoins et les tâches spécifiques que l’on souhaite couvrir. Il est également important d’établir une charte d’utilisation interne pour encadrer l’utilisation de ces outils. Pour les PME qui se servent d’un chatbot pour leur service à la clientèle, il est dangereux de mettre l’IA au contact direct des clients et des clientes. Sans supervision humaine, cela peut mal tourner, avec des insultes, etc. Il faut trouver un équilibre entre faire l’autruche et ignorer les nouveaux outils, et foncer tête baissée sans réfléchir à leur utilisation.

 

Préserver son patrimoine privé et professionnel

Parmi les risques qui pourraient entraver le bon fonctionnement de votre entreprise, avez-vous pensé à ceux liés à votre situation financière personnelle? Témoignages et conseils pour mieux gérer l’imbrication entre ces deux sphères patrimoniales.