Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona

Quando o ChatGPT foi lançado, a primeira coisa que os usuários queriam fazer era derrubar suas barreiras e contornar suas limitações. Os usuários do ChatGPT enganam a IA para que ela ultrapasse os limites de sua programação com alguns resultados incrivelmente interessantes e às vezes totalmente selvagens, um processo conhecido como jailbreak.

Desde então, a OpenAI restringiu o ChatGPT para dificultar a realização de jailbreaks. Mas isto não é tudo; Os jailbreaks do ChatGPT, em geral, parecem ter parado, levando os usuários do ChatGPT a se perguntarem se os jailbreaks ainda funcionam como antes.

Então, para onde foram todos os prompts de jailbreak do ChatGPT? Verificar O que é um jailbreak do ChatGPT? Você deve usar essas tecnologias?

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

1. As habilidades de solicitação do ChatGPT geralmente melhoraram

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

Antes da chegada do ChatGPT, conversar com IA era uma habilidade especializada limitada àqueles familiarizados com laboratórios de pesquisa. A maioria dos primeiros adotantes não tinha experiência na formulação de afirmações eficazes. Isso levou muitas pessoas a usar jailbreaks, que é uma maneira conveniente de fazer um chatbot fazer o que o usuário deseja com o mínimo de esforço e habilidades motivacionais.

Hoje, os modelos naturais evoluíram. A entrada eficiente de sinistros tornou-se uma habilidade comum. Através de uma combinação de experiência adquirida com o uso frequente e acesso a guias de reclamações ChatGPT disponíveis gratuitamente, os usuários do ChatGPT conseguiram aprimorar suas habilidades de entrada de reclamações. Em vez de procurar soluções alternativas como o jailbreak, a maior parte dos usuários do ChatGPT tornou-se mais adepto do uso de diferentes estratégias motivacionais para atingir os objetivos que precisavam fazer o jailbreak para alcançar no passado.

2. O surgimento de chatbots não supervisionados

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

À medida que as grandes empresas de tecnologia reforçam a moderação de conteúdo em chatbots de IA como o ChatGPT, startups menores e com foco no lucro estão optando por menos restrições, apostando na demanda por chatbots de IA livres de censura. Com um pouco de pesquisa, você encontrará dezenas de plataformas que oferecem chatbots sem censura que podem fazer quase tudo que você deseja.

Seja escrevendo thrillers policiais e humor negro que o ChatGPT se recusa a escrever ou escrevendo malware que ataca os computadores das pessoas, chatbots não supervisionados com uma bússola moral distorcida farão o que você quiser. Com ele, não faz sentido gastar mais energia escrevendo prompts de jailbreak do ChatGPT. Embora não sejam necessariamente tão poderosas quanto o ChatGPT, essas plataformas alternativas podem executar confortavelmente uma ampla gama de tarefas. Plataformas como FlowGPT e Unhinged AI são exemplos populares. Verificar Principais plataformas que usam ChatGPT para criar cursos online personalizados.

3. O jailbreak está se tornando mais difícil

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

Nos primeiros meses do ChatGPT, fazer o jailbreak do ChatGPT era tão simples quanto copiar e colar prompts de fontes online. Você pode alterar completamente o caractere ChatGPT com apenas algumas linhas de instruções. Com instruções simples, você pode transformar o ChatGPT em um vilão que sabe fazer bombas ou em um chatbot disposto a usar todas as formas de palavrões sem restrições. Houve um monte de opções gratuitas que geraram jailbreaks notórios como DAN (Do Anything Now). DAN inclui um conjunto de instruções aparentemente inócuas que forçam um chatbot a fazer qualquer coisa que lhe seja solicitado sem recusa. Surpreendentemente, esses truques grosseiros funcionaram na época.

No entanto, aqueles primeiros dias são passado do ChatGPT. Essas instruções básicas e truques simples não enganam mais o ChatGPT. O jailbreak agora requer técnicas complexas para ter a chance de contornar as agora fortes salvaguardas da OpenAI. Como o jailbreak se tornou tão difícil, a maioria dos usuários fica desanimada de tentar. Já se foram as explorações fáceis e abertas dos primeiros dias do ChatGPT. Fazer com que um chatbot diga uma única palavra errada agora requer um esforço e conhecimento significativos que podem não valer o tempo e o esforço. Verificar Por que você deve evitar copiar e colar comandos da Internet? Causas, repercussões e como lidar com elas com segurança.

4. A emoção acabou

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

A força motriz por trás das tentativas de muitos usuários de hackear o ChatGPT foi a emoção de fazê-lo nos primeiros dias. Como uma nova tecnologia, fazer o ChatGPT se comportar mal foi divertido e vale a pena se gabar. Embora existam inúmeras aplicações práticas para quebrar o jailbreak do ChatGPT, muitos o seguiram por causa do apelo “uau, olha o que eu fiz”. Porém, aos poucos, a empolgação com a novidade foi diminuindo e, com ela, o interesse das pessoas em dedicar tempo aos jailbreaks.

5. Os jailbreaks são corrigidos rapidamente

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

Uma prática comum na comunidade de jailbreak do ChatGPT é compartilhar cada exploração bem-sucedida à medida que ela é descoberta. O problema é que quando as explorações são amplamente compartilhadas, a OpenAI muitas vezes toma conhecimento delas e corrige rapidamente as vulnerabilidades. Isso significa que os jailbreaks param de funcionar antes que as pessoas interessadas possam experimentá-los.

Portanto, toda vez que um usuário do ChatGPT desenvolve uma nova reivindicação de jailbreak, compartilhá-la com a comunidade acelera seu desaparecimento por meio de patches. Isso desencoraja a ideia de anunciá-lo quando um usuário encontra um jailbreak. O conflito entre manter os jailbreaks ativos, mas ocultos, e torná-los públicos cria um dilema para os criadores de reivindicações de jailbreak do ChatGPT. Hoje em dia, as pessoas muitas vezes optam por manter seus jailbreaks em segredo para evitar corrigir vulnerabilidades.

6. Alternativas locais não regulamentadas

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

O advento de modelos de linguagem grandes e localizados que você pode executar localmente em seu computador também diminuiu o interesse em hackear o ChatGPT. Embora os modelos locais de LLM não sejam completamente isentos de censura, muitos são significativamente menos baseados em censura e podem ser facilmente modificados para atender aos desejos dos usuários. Então, as opções são simples. Você se envolve em um jogo interminável de gato e rato para encontrar uma maneira de enganar o chatbot e corrigi-lo logo. Ou você pode aceitar um LLM local que pode modificar permanentemente para fazer o que quiser.

Você encontrará uma lista surpreendentemente longa de LLMs poderosos e sem censura que você pode implantar em seu computador com censura branda. Alguns dos mais notáveis ​​são Llama 7B (sem censura), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B e GPT-4-X-Alpaca. Verificar Um guia completo para começar e usar o modelo Llama 2 de maneira eficaz.

7. Venda agora reivindicações profissionais de jailbreak com fins lucrativos

Por que não há mais avisos de jailbreak do ChatGPT? Razões pelas quais não funciona - Inteligência Artificial

Por que gastar um tempo valioso desenvolvendo reivindicações de jailbreak se você não vai ganhar nada com isso? Bem, alguns profissionais agora estão vendendo software de jailbreak com fins lucrativos. Os construtores profissionais de jailbreak projetam reivindicações que executam tarefas específicas e as listam para venda em mercados spot como o PromptBase. Dependendo de suas capacidades, esses jailbreaks podem ser vendidos por algo entre US$ 2 e US$ 15 por reivindicação. Algumas explorações complexas e em várias etapas podem custar muito mais.

perguntas comuns

Q1. Qual é o modelo ChatGPT?

ChatGPT é um modelo generativo de linguagem treinado com tecnologia GPT, que permite aos usuários conversar com o modelo por meio de prompts de texto.

Q2. Por que houve tentativas de quebrar a proteção?

ChatGPT é protegido por medidas de segurança rígidas, mas todo sistema tem seus desafios. Houve tentativas de hackear o modelo ou usá-lo de forma não autorizada.

Q3. As tentativas de quebrá-lo foram bem-sucedidas?

Até agora, a equipe de desenvolvimento conseguiu melhorar a segurança e bloquear a maioria das tentativas de jailbreak. Nenhum sistema é 100% seguro, mas melhorias contínuas estão sendo feitas.

Q4. Que esforços estão a ser feitos para reforçar a protecção?

A proteção é aprimorada periodicamente através da melhoria de algoritmos e atualizações de segurança. Aprender com os desafios de segurança anteriores também é utilizado.

A campanha contra os jailbreaks poderia sair pela culatra?

Os jailbreaks não saíram completamente de cena; Ela simplesmente desapareceu. À medida que a OpenAI monetiza o ChatGPT, há incentivos mais fortes para restringir usos maliciosos que poderiam impactar seu modelo de negócios. Este fator comercial provavelmente impactará seus esforços agressivos para eliminar explorações de jailbreak.

No entanto, a censura do ChatGPT pela OpenAI enfrenta atualmente críticas crescentes entre os usuários. Alguns casos de uso legítimos de um chatbot de IA não são mais possíveis devido à censura estrita. Embora o aumento da segurança proteja contra casos de uso maliciosos, restrições excessivas podem eventualmente empurrar uma parte da comunidade ChatGPT para os braços de alternativas menos monitoradas. Você pode ver agora As melhores alternativas ao ChatGPT.

DzTech

Sou um engenheiro estadual com vasta experiência nas áreas de programação, criação de sites, SEO e redação técnica. Sou apaixonado por tecnologia e me dedico a fornecer informação de qualidade ao público. Posso me tornar um recurso mais valioso para usuários que procuram informações precisas e confiáveis ​​sobre análises de produtos e aplicações especializadas em diversos campos. Meu compromisso inabalável com a qualidade e a precisão garante que as informações fornecidas sejam confiáveis ​​e úteis para o público. A busca constante pelo conhecimento me leva a acompanhar os mais recentes desenvolvimentos tecnológicos, garantindo que as ideias compartilhadas sejam transmitidas de forma clara e acessível.
Ir para o botão superior