Bard Donne des Informations Erronées Lors de sa Première Démonstration !
En réponse à la
présence de ChatGPT, qui a été salué par de nombreuses personnes, Google a
finalement lancé Bard, un chatbot d'IA qu'ils prétendent être capable de
rivaliser avec ChatGPT. Google domine depuis plusieurs années la technologie de
l'IA, avec le soutien de leur technologie, il est logique de prétendre que Bard
peut rivaliser avec ChatGPT. Google dispose de toutes les ressources
nécessaires pour "éduquer" Bard avec leur technologie d'IA.
Malheureusement, les
attentes élevées pour Bard ont été immédiatement déçues lors de sa première
démonstration. L'ambition de Google de renforcer, voire de remplacer, le rôle
des moteurs de recherche avec Bard a dû faire face à une réalité amère. Lors de
la première démonstration, Bard a en fait donné une information erronée. Bien
qu'il soit censé avoir accès aux dernières informations, cela devrait permettre
à Bard de rivaliser largement avec ChatGPT.
Erreur
factuelle lors de la démonstration
Google a lancé Bard le
mardi 07/02/2023 en publiant sa première démonstration GIF sur les réseaux
sociaux. Dans le GIF, Bard répond à la question : "Quelle est la nouvelle
découverte du télescope spatial James Webb que je peux raconter à mon enfant de
9 ans ?"
Bard propose trois
points en réponse. L'un d'eux est que le télescope spatial James Webb est un
télescope qui "prend la première image d'une planète en dehors de notre
propre système solaire".
Bien que cela soit
écrit avec un ton convaincant, cette information s'avère être fausse. Selon le
site officiel de la NASA, la première image d'une planète en dehors de notre système
solaire a été prise en 2004. Le télescope spatial James Webb lui-même n'a été
lancé qu'en 2021.
En tant qu'intelligence
artificielle qui vise à améliorer, voire remplacer, le rôle des moteurs de
recherche, une erreur d'information comme celle-ci peut être très fatale. De
plus, Google lui-même affirme que Bard peut fournir des informations à jour.
Le
problème principal avec les chatbots d'IA
L'erreur d'information
donnée par Bard montre le problème principal d'une intelligence artificielle ou
d'un chatbot d'IA, que ce soit Bard ou ChatGPT. Ils ont tendance à écrire des
informations (qu'elles soient vraies ou fausses) avec un ton d'écriture
confiant. Cela est assez courant car l'IA chatbot est en réalité un système
d'auto-complétion.
Selon The Verge, au
lieu de demander une base de données de faits éprouvés pour répondre à la
question, ils sont entraînés sur un ensemble de textes très volumineux et
analysent les motifs pour déterminer les mots qui suivent le mot suivant dans
une phrase donnée. En d'autres termes, le résultat de l'IA chatbot est "la
probabilité la plus probable", pas "le fait".
Les humains doivent
toujours être attentifs à la vérification.
En fin de compte, en
tant qu'êtres humains, nous sommes appelés à être plus attentifs dans la
vérification. Nous devrions traiter les chatbots d'IA tels que Bard et ChatGPT
comme nous traitons Internet pour le moment. Chaque information fournie doit
être vérifiée.
Dans le cas de Bard,
Google a déclaré que Bard est actuellement en phase de test de confiance. Par
conséquent, des erreurs sont encore très possibles.
"Nous soulignons
l'importance d'un processus de test rigoureux, quelque chose que nous avons
commencé cette semaine avec notre programme Trusted Tester. Nous allons
combiner les commentaires externes avec nos propres tests internes pour nous
assurer que les réponses de Bard répondent aux normes de qualité, de sécurité
et de fiabilité élevées dans le monde réel ", a déclaré Google, comme cité
par The Verge.
Nous espérons que cette information est utile et n'oubliez pas de la partager.
Enregistrer un commentaire
Enregistrer un commentaire