Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas

Lorsque ChatGPT est sorti, la première chose que les utilisateurs voulaient faire était de briser ses murs et de contourner ses limites. Les utilisateurs de ChatGPT incitent l'IA à dépasser les limites de sa programmation avec des résultats incroyablement intéressants et parfois carrément fous, un processus connu sous le nom de jailbreak.

Depuis lors, OpenAI a restreint ChatGPT pour rendre plus difficile la réalisation de jailbreaks. Mais ce n'est pas tout; Les jailbreaks ChatGPT, en général, semblent s'être arrêtés, ce qui amène les utilisateurs de ChatGPT à se demander si les jailbreaks fonctionnent toujours comme ils le faisaient auparavant.

Alors, où sont passées toutes les invites de jailbreak ChatGPT ? Vérifier Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ?

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

1. Les compétences d'incitation de ChatGPT se sont généralement améliorées

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

Avant l’arrivée de ChatGPT, parler à l’IA était une compétence spécialisée réservée aux personnes familiarisées avec les laboratoires de recherche. La plupart des premiers utilisateurs manquaient d’expérience dans la formulation d’allégations efficaces. Cela a conduit de nombreuses personnes à utiliser le jailbreak, qui constitue un moyen pratique de faire en sorte qu'un chatbot fasse ce que l'utilisateur veut avec un minimum d'effort et de compétences de motivation.

Aujourd’hui, les modèles naturels ont évolué. La saisie efficace des sinistres est devenue une compétence courante. Grâce à une combinaison d'expérience acquise grâce à une utilisation fréquente et à l'accès aux guides de réclamation ChatGPT disponibles gratuitement, les utilisateurs de ChatGPT ont pu affiner leurs capacités de saisie de réclamation. Au lieu de rechercher des solutions alternatives comme le jailbreak, la plupart des utilisateurs de ChatGPT sont devenus plus aptes à utiliser différentes stratégies de motivation pour atteindre les objectifs qu'ils avaient besoin de jailbreaker dans le passé.

2. L’émergence des chatbots non supervisés

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

Alors que les grandes entreprises technologiques renforcent la modération du contenu sur les chatbots IA comme ChatGPT, les petites startups axées sur le profit optent pour moins de restrictions, pariant sur la demande de chatbots IA sans censure. Avec un peu de recherche, vous trouverez des dizaines de plateformes proposant des chatbots non censurés qui peuvent faire presque tout ce que vous voulez qu'ils fassent.

Qu'il s'agisse d'écrire des thrillers policiers et de l'humour noir que ChatGPT refuse d'écrire ou d'écrire des logiciels malveillants qui attaquent les ordinateurs des gens, les chatbots non supervisés dotés d'une boussole morale biaisée feront ce que vous voulez. Avec cela, cela ne sert à rien de dépenser plus d'énergie pour écrire des invites de jailbreak ChatGPT. Bien qu’elles ne soient pas nécessairement aussi puissantes que ChatGPT, ces plateformes alternatives peuvent effectuer confortablement un large éventail de tâches. Des plateformes comme FlowGPT et Unhinged AI en sont des exemples populaires. Vérifier Principales plates-formes utilisant ChatGPT pour créer des cours en ligne personnalisés.

3. Le jailbreak devient de plus en plus difficile

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

Dans les premiers mois de ChatGPT, jailbreaker ChatGPT était aussi simple que de copier et coller des invites à partir de sources en ligne. Vous pouvez changer complètement le caractère ChatGPT avec seulement quelques lignes d'instructions. Avec des invites simples, vous pouvez transformer ChatGPT en un méchant qui sait fabriquer des bombes ou en un chatbot prêt à utiliser toutes les formes de grossièretés sans restrictions. Il existe de nombreuses options gratuites qui ont donné naissance à des jailbreaks notoires comme DAN (Do Anything Now). DAN comprend un ensemble d’instructions apparemment inoffensives qui obligent un chatbot à faire tout ce qui lui est demandé sans refus. Étonnamment, ces astuces grossières fonctionnaient à l’époque.

Cependant, ces premiers jours appartiennent au passé de ChatGPT. Ces invites de base et astuces simples ne trompent plus ChatGPT. Le jailbreak nécessite désormais des techniques complexes pour avoir une chance de contourner les protections désormais solides d'OpenAI. Le jailbreak étant devenu si difficile, la plupart des utilisateurs sont découragés de l’essayer. Finis les exploits faciles et à grande échelle des débuts de ChatGPT. Faire en sorte qu'un chatbot prononce un seul mauvais mot nécessite désormais des efforts et une expertise importants qui n'en valent peut-être pas la peine. Vérifier Pourquoi devriez-vous éviter de copier et coller des commandes depuis Internet ? Causes, répercussions et comment les gérer en toute sécurité.

4. L’excitation est terminée

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

La force motrice derrière les tentatives de nombreux utilisateurs pour pirater ChatGPT était le plaisir et l'excitation de le faire au début. En tant que nouvelle technologie, faire en sorte que ChatGPT se comporte mal était amusant et valait la peine de s'en vanter. Bien qu'il existe d'innombrables applications pratiques pour pirater le jailbreak ChatGPT, beaucoup l'ont poursuivi en raison de l'attrait du « wow, regardez ce que j'ai fait ». Cependant, peu à peu, l'enthousiasme suscité par la nouveauté s'est estompé et, avec lui, l'intérêt des gens à consacrer du temps aux jailbreaks.

5. Les jailbreaks sont corrigés rapidement

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

Une pratique courante dans la communauté de jailbreak ChatGPT consiste à partager chaque exploit réussi au fur et à mesure de sa découverte. Le problème est que lorsque les exploits sont largement partagés, OpenAI en prend souvent conscience et corrige rapidement les vulnérabilités. Cela signifie que les jailbreaks cessent de fonctionner avant que les personnes intéressées puissent les essayer.

Ainsi, chaque fois qu'un utilisateur de ChatGPT développe une nouvelle revendication de jailbreak, le partager avec la communauté accélère sa disparition via l'application de correctifs. Cela décourage l'idée de l'annoncer lorsqu'un utilisateur rencontre un jailbreak. Le conflit entre garder les jailbreaks actifs mais cachés et les rendre publics crée un dilemme pour les créateurs de revendications de jailbreak ChatGPT. De nos jours, les gens choisissent souvent de garder leurs jailbreaks secrets pour éviter de corriger les vulnérabilités.

6. Alternatives locales non réglementées

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

L’avènement de grands modèles linguistiques localisés que vous pouvez exécuter localement sur votre ordinateur a également atténué l’intérêt pour le piratage de ChatGPT. Bien que les modèles LLM locaux ne soient pas totalement exempts de censure, beaucoup sont nettement moins basés sur la censure et peuvent être facilement modifiés pour répondre aux désirs des utilisateurs. Les options sont donc simples. Vous vous lancez dans un jeu sans fin du chat et de la souris pour trouver un moyen de tromper le chatbot et de le réparer rapidement. Ou vous pouvez accepter un LLM local que vous pouvez modifier de manière permanente pour faire tout ce que vous voulez.

Vous trouverez une liste étonnamment longue de LLM puissants et non censurés que vous pouvez déployer sur votre ordinateur avec une censure indulgente. Certains des plus remarquables sont Llama 7B (non censuré), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B et GPT-4-X-Alpaca. Vérifier Un guide complet pour démarrer et utiliser efficacement le modèle Llama 2.

7. Vendez dès maintenant des réclamations de jailbreak professionnelles dans un but lucratif

Pourquoi n'y a-t-il plus d'invites de jailbreak ChatGPT ? Raisons pour lesquelles ça ne marche pas - Intelligence Artificielle

Pourquoi passer un temps précieux à développer des revendications de jailbreak si vous n’en retirez rien ? Eh bien, certains professionnels vendent désormais des logiciels de jailbreak dans un but lucratif. Les constructeurs de jailbreak professionnels conçoivent des revendications qui effectuent des tâches spécifiques et les mettent en vente sur des marchés au comptant comme PromptBase. Selon leurs capacités, ces jailbreaks peuvent se vendre entre 2 et 15 dollars par réclamation. Certains exploits complexes en plusieurs étapes peuvent coûter beaucoup plus cher.

Foire Aux Questions

T1. Qu'est-ce que le modèle ChatGPT ?

ChatGPT est un modèle génératif de langage formé à l'aide de la technologie GPT, qui permet aux utilisateurs d'avoir des conversations avec le modèle à l'aide d'invites textuelles.

Q2. Pourquoi y a-t-il eu des tentatives pour briser la protection ?

ChatGPT est protégé par des mesures de sécurité strictes, mais chaque système n'est pas sans défis. Il y a eu des tentatives de piratage du modèle ou de son utilisation de manière non autorisée.

Q3. Les tentatives pour le briser ont-elles été couronnées de succès ?

Jusqu'à présent, l'équipe de développement a réussi à améliorer la sécurité et à bloquer la plupart des tentatives de jailbreak. Aucun système n'est sécurisé à 100 %, mais des améliorations continues sont apportées.

Q4. Quels efforts sont faits pour renforcer la protection ?

La protection est périodiquement renforcée par l’amélioration des algorithmes et des mises à jour de sécurité. Les enseignements tirés des défis de sécurité antérieurs sont également utilisés.

La campagne contre les jailbreaks pourrait-elle se retourner contre vous ?

Les jailbreaks n’ont pas complètement quitté la scène ; Elle vient de disparaître. À mesure qu’OpenAI monétise ChatGPT, il existe de plus fortes incitations à restreindre les utilisations malveillantes qui pourraient avoir un impact sur son modèle économique. Ce facteur commercial est susceptible d’avoir un impact sur ses efforts agressifs pour éliminer les exploits de jailbreak.

Cependant, la censure de ChatGPT par OpenAI fait actuellement face à des critiques croissantes de la part des utilisateurs. Certains cas d’utilisation légitimes d’un chatbot IA ne sont plus possibles en raison d’une censure stricte. Même si une sécurité accrue protège contre les cas d’utilisation malveillante, des restrictions excessives pourraient éventuellement pousser une partie de la communauté ChatGPT dans les bras d’alternatives moins surveillées. Vous pouvez maintenant visualiser Les meilleures alternatives à ChatGPT.

DzTech

Je suis ingénieur d'état avec une vaste expérience dans les domaines de la programmation, de la création de sites internet, du référencement et de la rédaction technique. Je suis passionné par la technologie et me consacre à fournir des informations de qualité au public. Je peux devenir une ressource plus précieuse pour les utilisateurs qui recherchent des informations précises et fiables sur les critiques de produits et les applications spécialisées dans divers domaines. Mon engagement inébranlable envers la qualité et l’exactitude garantit que les informations fournies sont dignes de confiance et utiles au public. La recherche constante de connaissances me pousse à me tenir au courant des dernières évolutions technologiques, en veillant à ce que les idées partagées soient véhiculées de manière claire et accessible.
Aller au bouton supérieur