Intelligence artificielle : Le chatbot ‘‘Claude 3.5 Sonnet’’ inquiète déjà ses utilisateurs

Publié le Modifié le
intelligence-artificielle-le-chatbot-claude-3-5-sonnet-inquiete-deja-ses-utilisateurs PHOTO D'ILLUSTRATION
High tech

L’intelligence artificielle (IA) passe à une vitesse encore plus supérieure. Anthropic, la société mère du chatbot Claude, vient de dévoiler au monde entier ‘‘Claude 3.5 Sonnet’’, un nouveau chatbot qui fonctionne sur les ordinateurs.

Le chatbot Claude 3.5 Sonnet, selon anthropic est capable de contrôler un ordinateur, en manipulant le clavier, la souris et les logiciels ou applications installés. En effet, cette intelligence artificielle peut effectuer plusieurs tâches, telles que la création de sites web. Cependant, le fait que cette technologie prenne le contrôle absolu des ordinateurs inquiète ses utilisateurs, qui pensent ne plus avoir d’intimité pour eux-mêmes.

Un chatbot polyvalent qui laisse à désirer

Lors des démonstrations, Claude 3.5 Sonnet a montré des capacités impressionnantes, parvenant à accomplir de multiples tâches. En effet, utilisant des outils comme Visual Studio Code, il a réussi à créer des sites web de A à Z, tout en naviguant aisément entre différentes applications. « Incroyable et inédit », aucun autre chatbot n’a encore réussi jusque-là à réaliser de telles prouesses, ce qui positionne Claude comme une référence dans le domaine de la technologie IA.

Qui sera responsable si Claude accède à des fichiers sensibles ou fait des erreurs graves ? L’utilisateur, l’entreprise, ou les deux ? Ces questions, bien que pertinentes, restent sans réponse claire pour le moment.

Cependant, malgré cette polyvence, le chatbot n’est pas sans failles. Lors d’un test de réservation et de modification de vols, il n’a exécuté correctement que la moitié des missions. Ces erreurs montrent que, bien qu’avancée, l’intelligence artificielle d’Anthropic n’est pas encore infaillible, ce qui peut soulever des questions quant à sa fiabilité pour certaines tâches cruciales.

Des risques de sécurité sous surveillance

La capacité de Claude 3.5 à contrôler totalement un ordinateur pose des questions majeures en matière de sécurité. Anthropic adopte une approche prudente, en prônant une utilisation progressive de ces fonctionnalités. L'idée est d'identifier et de résoudre les éventuels problèmes à un stade initial, avant que le chatbot ne devienne omniprésent.

Malgré cette approche mesurée, les utilisateurs pourraient ne pas être pleinement conscients des risques liés à une telle innovation. Qui sera responsable si Claude accède à des fichiers sensibles ou fait des erreurs graves ? L’utilisateur, l’entreprise, ou les deux ? Ces questions, bien que pertinentes, restent sans réponse claire pour le moment.