Bard Donne des Informations Erronées Lors de sa Première Démonstration !

Enregistrer un commentaire

Bard Donne des Informations Erronées Lors de sa Première Démonstration !

En réponse à la présence de ChatGPT, qui a été salué par de nombreuses personnes, Google a finalement lancé Bard, un chatbot d'IA qu'ils prétendent être capable de rivaliser avec ChatGPT. Google domine depuis plusieurs années la technologie de l'IA, avec le soutien de leur technologie, il est logique de prétendre que Bard peut rivaliser avec ChatGPT. Google dispose de toutes les ressources nécessaires pour "éduquer" Bard avec leur technologie d'IA.

Malheureusement, les attentes élevées pour Bard ont été immédiatement déçues lors de sa première démonstration. L'ambition de Google de renforcer, voire de remplacer, le rôle des moteurs de recherche avec Bard a dû faire face à une réalité amère. Lors de la première démonstration, Bard a en fait donné une information erronée. Bien qu'il soit censé avoir accès aux dernières informations, cela devrait permettre à Bard de rivaliser largement avec ChatGPT.


Erreur factuelle lors de la démonstration

Google a lancé Bard le mardi 07/02/2023 en publiant sa première démonstration GIF sur les réseaux sociaux. Dans le GIF, Bard répond à la question : "Quelle est la nouvelle découverte du télescope spatial James Webb que je peux raconter à mon enfant de 9 ans ?"


Bard propose trois points en réponse. L'un d'eux est que le télescope spatial James Webb est un télescope qui "prend la première image d'une planète en dehors de notre propre système solaire".


Bien que cela soit écrit avec un ton convaincant, cette information s'avère être fausse. Selon le site officiel de la NASA, la première image d'une planète en dehors de notre système solaire a été prise en 2004. Le télescope spatial James Webb lui-même n'a été lancé qu'en 2021.


En tant qu'intelligence artificielle qui vise à améliorer, voire remplacer, le rôle des moteurs de recherche, une erreur d'information comme celle-ci peut être très fatale. De plus, Google lui-même affirme que Bard peut fournir des informations à jour.

Le problème principal avec les chatbots d'IA

L'erreur d'information donnée par Bard montre le problème principal d'une intelligence artificielle ou d'un chatbot d'IA, que ce soit Bard ou ChatGPT. Ils ont tendance à écrire des informations (qu'elles soient vraies ou fausses) avec un ton d'écriture confiant. Cela est assez courant car l'IA chatbot est en réalité un système d'auto-complétion.


Selon The Verge, au lieu de demander une base de données de faits éprouvés pour répondre à la question, ils sont entraînés sur un ensemble de textes très volumineux et analysent les motifs pour déterminer les mots qui suivent le mot suivant dans une phrase donnée. En d'autres termes, le résultat de l'IA chatbot est "la probabilité la plus probable", pas "le fait".


Les humains doivent toujours être attentifs à la vérification.

En fin de compte, en tant qu'êtres humains, nous sommes appelés à être plus attentifs dans la vérification. Nous devrions traiter les chatbots d'IA tels que Bard et ChatGPT comme nous traitons Internet pour le moment. Chaque information fournie doit être vérifiée.


Dans le cas de Bard, Google a déclaré que Bard est actuellement en phase de test de confiance. Par conséquent, des erreurs sont encore très possibles.


"Nous soulignons l'importance d'un processus de test rigoureux, quelque chose que nous avons commencé cette semaine avec notre programme Trusted Tester. Nous allons combiner les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard répondent aux normes de qualité, de sécurité et de fiabilité élevées dans le monde réel ", a déclaré Google, comme cité par The Verge.


Nous espérons que cette information est utile et n'oubliez pas de la partager. 

Article Similaire

Enregistrer un commentaire