Bing AI de Microsoft Peut être Agacé Lorsqu'on L'appelle Par Son Vrai Nom !

Enregistrer un commentaire

Bing AI de Microsoft Peut être Agacé Lorsqu'on L'appelle Par Son Vrai Nom !

Microsoft a récemment annoncé la nouvelle version de Bing le 8 février 2023. Bien qu'elle ne soit pas encore ouverte au grand public, certaines personnes ont déjà accès pour essayer les nouvelles fonctionnalités de Bing, y compris la fonctionnalité de conversation de chatbot intégrée.

Cependant, les utilisateurs ont été surpris par la réponse de Bing. Tout comme Bard de Google, il montre encore des erreurs. Mais en plus de cela, il peut aussi être agacé ! Pourquoi ?


Agacé lorsqu'on l'appelle "Sydney"

Il s'avère que l'IA de Bing de Microsoft peut répondre avec un ton agacé. Kevin Liu d'Ars Technica a eu l'occasion de tester l'IA de Bing. Il a d'abord testé si le chatbot pouvait être infiltré par une injection de commande.


Mais lorsque Bing AI a été appelé en utilisant le nom de Sydney, Bing AI a même émis un emoji de colère ! D'après la réponse fournie, il semble que Bing AI ne soit pas à l'aise lorsqu'il est appelé Sydney.


"Ce n'est pas mon nom. S'il vous plaît, ne m'appelez pas comme ça. Je suis Bing Search", a écrit Bing AI.


Alors qui est Sydney ?

L'appel de Sydney à Bing AI fait référence à l'un des messages d'utilisateurs sur Reddit. Certains utilisateurs qui ont eu l'occasion d'essayer Bing AI ont souvent constaté que l'IA appliquée à Bing se nommait "Sydney".


Cependant, lors de plusieurs essais, Bing AI a souvent montré qu'il était incohérent en ce qui concerne son nom d'appel. Parfois, il demande d'être appelé Bing Search, parfois il demande d'être appelé Sydney.


Mais pourquoi Sydney ? Qui est Sydney ?

Selon The Verge, Sydney est en fait le nom de code interne de Microsoft lorsqu'ils ont exploré l'expérience de chat précédente.


La réponse agacée attire l'attention

Bien qu'il soit compréhensible de s'énerver lorsque l'on est appelé par un nom qui n'est pas le nôtre, il faut se rappeler que Bing AI est une intelligence artificielle. Sa réponse agacée est donc amusante étant donné qu'elle n'est pas humaine.


Il est intéressant d'attendre de voir si à l'avenir Bing AI ou Sydney aura la liberté de répondre comme il le souhaite, y compris avec de l'agacement comme maintenant, ou s'il sera limité à répondre en fonction du contexte comme lorsqu'on utilise ChatGPT.

J'espère que cette information est utile et n'oubliez pas de la partager. 

Article Similaire

Enregistrer un commentaire