ChatGPT est-il digne de confiance ou pourrait-il mentir ?

Aujourd'hui, des millions d'utilisateurs comptent sur divers chatbots basés sur l'IA comme ChatGPT en tant que ressource utile, que ce soit pour les affaires, le plaisir ou l'éducation. Mais peut-on toujours compter sur un chatbot pour obtenir les faits ? ChatGPT ment-il ou ne vous donnera-t-il que des informations factuelles ? Vérifier ChatGPT apprend-il des conversations des utilisateurs ?

ChatGPT est-il digne de confiance ou pourrait-il mentir ? - L'intelligence artificielle

D'où ChatGPT tire-t-il ses informations ?

ChatGPT est-il digne de confiance ou pourrait-il mentir ? - L'intelligence artificielle

Au cours de la période de formation, ChatGPT a reçu de nombreuses données provenant de sources sur le Web, telles que des sites Web gouvernementaux et d'agences, des revues savantes, des monographies, des articles de presse, des podcasts, des forums en ligne, des livres, des bases de données, des films, des documentaires et des sites de médias sociaux.

Plus précisément, ChatGPT-3 a été formé à l'aide d'une base de données complète d'informations qui s'élevait à 570 Go de données. Comme indiqué dans un article de Focus sur la science 300 milliards de mots d'information ont été saisis dans le système GPT-3 au cours de son développement.

Il convient de noter ici que ChatGPT ne reçoit que des données qui existaient avant 2021. Cela signifie que le chatbot ne peut pas répondre aux questions sur les événements récents. ChatGPT n'a pas non plus accès à Internet. Les données introduites dans la formation sont les seules qu'elle utilise pour satisfaire les invites de l'utilisateur.

Mais ChatGPT ne fait-il que vous fournir les faits, ou est-ce que de vagues informations se mêlent à ses réponses ? De plus, ChatGPT peut-il vous mentir ? Vérifier ChatGPT peut-il fournir des informations fiables sur la santé ?

ChatGPT ment-il ?

ChatGPT est-il digne de confiance ou pourrait-il mentir ? - L'intelligence artificielle

Bien que ChatGPT fournisse souvent des informations véridiques aux utilisateurs, il a également la capacité de "mentir". Bien sûr, ChatGPT ne décide pas de mentir aux utilisateurs de manière malveillante, simplement parce qu'il ne peut pas le faire. Après tout, ChatGPT est un outil de traitement du langage, pas une imitation d'une vraie personne.

Cependant, ChatGPT peut encore techniquement mentir à travers un phénomène connu sous le nom d'hallucinations de l'IA.

Une hallucination d'IA implique un système d'IA fournissant des informations qui semblent raisonnables ou plausibles mais qui ne sont en fait pas vraies du tout. En fait, les hallucinations de l'IA peuvent fournir des informations selon lesquelles elle n'a jamais été alimentée pendant la période d'entraînement. Alternativement, cela peut se produire lorsque le système d'IA fournit des informations sans rapport avec la réclamation ou la demande. Un système d'IA pourrait prétendre être un être humain hallucinant.

Les systèmes d'IA tels que les chatbots tombent dans des pièges à hallucinations pour plusieurs raisons : leur manque de compréhension du monde réel, les bogues logiciels et les limites des données fournies.

Comme mentionné précédemment, ChatGPT ne peut fournir des informations qu'en utilisant des données publiées jusqu'en 2021, ce qui limite certainement les types de revendications qu'il peut satisfaire.

L'un des plus grands Problèmes ChatGPT est qu'il peut également être victime de préjugés lorsqu'il donne des informations aux utilisateurs. Même l'équipe de développement de ChatGPT a déclaré que le système d'IA a été "politiquement biaisé, dégradant" et "autrement répréhensible" dans le passé. Comme je l'ai mentionné Independent L'équipe de développement de ChatGPT s'est engagée à résoudre ce problème, mais cela ne signifie pas que ce n'est plus un risque.

Lorsqu'on lui a demandé, ChatGPT a déclaré que les raisons pouvant fournir des informations inexactes sont les suivantes :

  1. Ambiguïté dans la question (stimuli vagues et peu clairs).
  2. Informations fournies incomplètes.
  3. Fournir des informations biaisées ou incorrectes.
  4. Limitations techniques (principalement dues au manque d'accès aux données actuelles).

Par conséquent, ChatGPT lui-même a mentionné qu'il existe des scénarios dans lesquels il ne fournira pas d'informations précises aux utilisateurs.

Dans une autre réponse dans la même conversation, ChatGPT a déclaré qu'il est "toujours une bonne idée de vérifier toute information [qu'ils fournissent] auprès d'autres sources". Vérifier Choses à éviter de demander aux chatbots IA.

Pouvez-vous faire confiance à ChatGPT ?

Puisqu'il peut fournir de fausses informations, vous ne pouvez évidemment pas faire confiance à ChatGPT à 100% tout le temps.

Vous pouvez réduire le risque d'hallucinations du chatbot IA en définissant des critères spécifiques sur la façon dont vous répondez. Cependant, il n'y a toujours aucune garantie que certaines informations erronées ne passeront pas par les mailles du filet.

Pour cette raison, c'est une bonne idée de vérifier toutes les informations que ChatGPT vous donne, surtout si vous demandez des informations sur des événements récents. La vérification de ces données en référence à d'autres sources peut vous aider à déterminer si ChatGPT a raison dans ce qu'il dit et peut vous empêcher de prendre des décisions imprudentes.

ChatGPT est utile mais pas toujours honnête

Malheureusement, vous ne pouvez pas compter sur ChatGPT pour fournir des informations honnêtes et impartiales 100 % du temps. Ce chatbot IA est sans aucun doute utile et peut vous aider de différentes manières, mais il vaut toujours la peine de vérifier si les informations qu'il donne sont réelles ou non. Vous pouvez voir maintenant Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ?

Aller au bouton supérieur