«J'ai été très surpris par à quel point j'aime le nouveau mode vocal», a confié Sam Altman, tout sourire, à Kevin Scott, le directeur technologique de Microsoft, lors d'une interview surprise sur scène.

Le «mode vocal» de ChatGPT, dévoilé la semaine dernière, vient pourtant de causer une controverse majeure à la start-up star de la Silicon Valley, qui a lancé la révolution de l'IA générative.

Accusé d'avoir copié la voix de Scarlett Johansson pour le tout nouveau mode vocal de l'assistant d'IA, Sam Altman vient en effet de présenter des excuses et d'annoncer la suspension de Sky, la voix en question, générée par l'IA.

Contenu Sponsorisé
 
 
 
 
 
 

Après les annonces flamboyantes de son partenaire OpenAI et de son rival Google, et bien avant celles très attendues d'Apple en juin, ce devait être au tour de Microsoft cette semaine d'étaler ses innovations dans l'IA.

«Nous sommes le leader de l'industrie dans l'IA», a assuré Frank Shaw, directeur de la communication, dans un billet de blog résumant les annonces du groupe informatique.

Le fabricant de Windows a dévoilé lundi les PC «Copilot+», des nouveaux ordinateurs où son interface d'IA Copilot et d'autres outils sont intégrés par défaut pour aider l'utilisateur dans toutes ses tâches, des emails aux réunions professionnelles et aux projets personnels.

Copilot repose sur GPT-4, le modèle d'IA générative d'OpenAI, et va graduellement passer à GPT-4o, le modèle multimodal présenté par la start-up, qui comporte, entre autres, le fameux mode vocal.

Une évolution trop rapide

Et pendant que de nombreux observateurs et élus s'inquiètent de la vitesse ultra rapide à laquelle les géants de la tech déploient leurs nouveaux outils de plus en plus humanisés, les groupes se félicitent d'aller toujours plus loin, et ne manquent jamais de rappeler que «ce n'est que le début».

De GPT-3.5 à GPT-4, «le modèle est devenu plus solide, plus sûr, plus utile, parce qu'il est devenu plus intelligent et parce que nous avons beaucoup travaillé pour ajouter des fonctionnalités de sécurité», a souligné Sam Altman. Et à l'avenir, «les modèles vont devenir encore plus intelligents», a-t-il promis, assurant que «c'est ce qui compte le plus».

La semaine dernière, OpenAI a reconnu avoir dissous son équipe dont la mission était d'encadrer les éventuels dangers à long terme d'une IA trop intelligente. L'annonce avait été marquée par le départ d'un des cofondateurs de l'entreprise, Ilya Sutskever, ainsi que du responsable de l'équipe, Jan Leike.