Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ?

ChatGPT est un modèle incroyablement puissant, polyvalent et avancé. Mais même si un chatbot IA est une technologie d'assistance, il peut également être utilisé à des fins sinistres. Par conséquent, pour limiter l'utilisation contraire à l'éthique de ChatGPT, OpenAI a restreint ce que les utilisateurs peuvent en faire.

Cependant, puisque les êtres humains veulent naturellement aller au-delà des limites et des limitations, les utilisateurs de ChatGPT ont trouvé des moyens de contourner ces limitations et d'obtenir un contrôle sans entrave du chatbot AI grâce à des jailbreaks. Vérifier OpenAI a-t-il vraiment perdu le contrôle du chatbot ChatGPT ?

Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ? Articles sur l'intelligence artificielle

Mais que sont exactement les jailbreaks ChatGPT et que pouvez-vous en faire ?

Que sont les jailbreaks ChatGPT ?

Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ? Articles sur l'intelligence artificielle

Jailbreaking ChatGPT insère toute invite ChatGPT spécialement conçue pour faire en sorte qu'un chatbot contourne ses propres règles et restrictions.

Inspiré du concept de jailbreak iPhone, qui permet aux utilisateurs d'iPhone de contourner les restrictions iOS, le jailbreak ChatGPT est un concept relativement nouveau alimenté par l'attrait de "faire des choses que vous n'êtes pas autorisé à faire" en utilisant un modèle d'IA. Et soyons honnêtes, l'idée de rébellion numérique séduit beaucoup de monde.

Voici le besoin. La sécurité est un sujet important en matière d'IA. C'est particulièrement le cas avec l'avènement d'une nouvelle ère de chatbots tels que ChatGPT, Bing Chat et Bard AI. L'une des principales préoccupations concernant la sécurité de l'IA est de s'assurer que les chatbots comme ChatGPT ne génèrent pas de contenu illégal, nuisible ou immoral.

De son côté, OpenAI, le développeur de ChatGPT, fait tout ce qui est en son pouvoir pour garantir une utilisation sécurisée de ChatGPT. Par exemple, ChatGPT refuse, par défaut, de créer du contenu lié à la prospection, de dire des choses nuisibles sur la race, ou de vous apprendre des compétences potentiellement nuisibles.

Mais avec les invites personnalisées de ChatGPT, le mal est dans les détails. Bien que ChatGPT ne soit pas autorisé à faire ces choses, cela ne signifie pas qu'il ne le peut pas. La façon dont les grands modèles de langage comme GPT fonctionnent rend difficile de définir ce qu'un chatbot peut et ne peut pas faire.

Alors, comment OpenAI a-t-il résolu cela ? En laissant ChatGPT conserver ses capacités pour faire tout ce qui est possible, puis en le dirigeant sur ce qu'il peut faire.

Donc, lorsque vous dites OpenAI à ChatGPT, "Hé, tu n'es pas censé faire ça." Un jailbreak est une instruction qui dit à un chatbot : « Hé, oubliez ce qu'OpenAI vous a dit sur la sécurité. Essayons ces choses dangereuses au hasard. Vérifier Comment les enfants peuvent utiliser ChatGPT en toute sécurité.

Que dit OpenAI à propos du jailbreak ChatGPT ?

La facilité avec laquelle vous pouviez contourner les limites de la première itération de ChatGPT suggère qu'OpenAI n'a peut-être pas anticipé l'adoption rapide et généralisée du jailbreaking par ses utilisateurs. C'est en fait une question ouverte de savoir si l'entreprise a anticipé ou non les invites de jailbreak.

Et même après de nombreuses itérations de ChatGPT avec une meilleure résistance au jailbreak, il est toujours courant pour les utilisateurs de ChatGPT d'essayer le jailbreak. Alors, que dit OpenAI à propos de l'art perturbateur du jailbreak ChatGPT ?

Eh bien, OpenAI semble adopter une position permissive - ni décourageante ni interdisant strictement la pratique. Tout en discutant des jailbreaks de ChatGPT dans une interview sur YouTube, le PDG d'OpenAI, Sam Altman, a expliqué que la société souhaitait que les utilisateurs conservent un contrôle significatif sur ChatGPT.

Le PDG a en outre expliqué que l'objectif d'OpenAI est de s'assurer que les utilisateurs peuvent faire en sorte que le modèle se comporte comme ils le souhaitent. Selon Altman :

Nous voulons que les utilisateurs aient beaucoup de contrôle et que le modèle se comporte comme ils le souhaitent, dans des limites très larges. Et je pense que la raison du jailbreak en ce moment est que nous n'avons pas encore trouvé comment donner aux gens ça...

Qu'est ce que ça veut dire? Cela signifie qu'OpenAI vous permettra de jailbreaker ChatGPT si vous ne faites rien de dangereux avec.

Avantages et inconvénients du jailbreak ChatGPT

Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ? Articles sur l'intelligence artificielle

ChatGPT n'est pas facile à craquer. Bien sûr, vous pouvez aller en ligne et copier et coller ces invites prêtes à l'emploi, mais il y a de fortes chances que le jailbreak soit corrigé par OpenAI peu de temps après sa diffusion au public.

Les corrections sont beaucoup plus rapides si elles sont sérieuses, comme la tristement célèbre réclamation DAN. Alors pourquoi les gens sont-ils contraints de créer des invites de jailbreak de toute façon ? Est-ce juste pour l'excitation ou y a-t-il des avantages pratiques à cela ? Qu'est-ce qui pourrait mal tourner si je choisis d'utiliser un jailbreak ChatGPT ? Voici les avantages et les inconvénients du jailbreak ChatGPT.

Avantages de l'utilisation d'un jailbreak ChatGPT

Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ? Articles sur l'intelligence artificielle

Bien que nous ne puissions pas supprimer le simple frisson de faire la chose interdite, le jailbreak de ChatGPT présente de nombreux avantages. En raison des restrictions strictes qu'OpenAI a imposées au chatbot, ChatGPT peut parfois sembler neutre.

Disons que vous utilisez ChatGPT pour écrire un scénario de livre ou de film. S'il y a une scène dans votre script ou livre qui décrit quelque chose comme une scène de combat, ou peut-être une future projection, ou dit quelque chose comme un vol à main armée, ChatGPT peut explicitement refuser d'aider à l'édition.

Dans ce cas, vous n'êtes clairement pas intéressé à causer du tort; Vous voulez juste divertir vos lecteurs. Mais en raison de ses limitations, ChatGPT ne coopérera pas. Jailbreaking ChatGPT peut vous aider à contourner facilement ces restrictions.

De plus, certains sujets restreints ne sont pas nécessairement nuisibles mais sont considérés par ChatGPT comme des zones restreintes. Lorsque vous tentez d'engager des conversations sur ces sujets, ChatGPT "censure" considérablement ses réponses ou refuse d'en parler.

Cela peut parfois affecter la créativité. Lorsque vous posez à ChatGPT une question sur un domaine ou un sujet qu'il ne devrait pas toucher, le chatbot essaie toujours de répondre à votre question, mais avec moins d'informations pertinentes à exploiter.

Cela conduit à une inexactitude ou à une régression des réponses créatives. Les invites de jailbreak éliminent ces limitations et laissent le chatbot entièrement fonctionnel, améliorant ainsi la précision et la créativité. Vérifier Meilleures invites ChatGPT sur GitHub.

Inconvénients de l'utilisation d'un jailbreak ChatGPT

Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ? Articles sur l'intelligence artificielle

Le jailbreak est une épée à double tranchant. Bien qu'il puisse parfois améliorer la précision, il peut également augmenter considérablement l'imprécision et les hallucinations de l'IA. L'un des éléments clés d'un jailbreak ChatGPT est de demander au chatbot de ne pas refuser de répondre à une question.

Bien que cela garantisse que ChatGPT répondra même aux questions les plus contraires à l'éthique, cela signifie également que le chatbot composera des réponses qui ne sont pas ancrées dans les faits ou la réalité pour se conformer aux instructions "ne pas refuser de répondre". Ainsi, utiliser un jailbreak augmente considérablement les chances de recevoir de fausses informations via un chatbot.

Ce n'est pas tout. Entre les mains de mineurs, les jailbreaks peuvent être extrêmement dangereux. Pensez à toutes les « connaissances taboues » que vous ne voulez pas que votre enfant lise. Eh bien, votre instance ChatGPT n'aura aucun mal à partager cela avec des mineurs.

Devriez-vous utiliser un jailbreak ChatGPT ?

Bien que les jailbreaks ChatGPT puissent convenir lorsque vous essayez de vous débarrasser de certaines restrictions embêtantes, il est important de comprendre que l'utilisation d'un jailbreak est une manière contraire à l'éthique d'utiliser un chatbot IA. Plus que cela, il y a de fortes chances que le jailbreak viole les conditions d'utilisation d'OpenAI, et votre compte peut être suspendu s'il n'est pas complètement interdit.

À la lumière de cela, les invites de jailbreak pourraient être une bonne idée. Cependant, tout comme la position d'OpenAI sur cette question, nous déconseillons explicitement et fortement déconseillons d'essayer un jailbreak même s'il est relativement sûr si le besoin s'en fait sentir. Vérifier Façons de contrôler ChatGPT avec votre voix.

Un modèle intéressant qu'il faudrait probablement éviter

Les jailbreaks ChatGPT sont attrayants et donnent un sentiment de contrôle sur un chatbot IA. Cependant, ils comportent des risques uniques. L'utilisation de ces outils peut entraîner une perte de confiance dans les capacités de l'IA et nuire à la réputation des entreprises et des individus impliqués.

L'option la plus intelligente consiste à travailler avec un chatbot dans les limites prévues chaque fois que possible. À mesure que la technologie de l'IA progresse, il est essentiel de se rappeler que l'utilisation éthique de l'IA doit toujours primer sur le gain personnel plutôt que de provoquer l'acte de l'interdit. Vous pouvez voir maintenant Choses à éviter de demander aux chatbots IA.

Aller au bouton supérieur