Varför finns det inga fler ChatGPT-jailbreaks? 7 anledningar till att ChatGPT Jailbreaks inte fungerar

När ChatGPT lanserades var det första dess användare ville göra bryta ner dess murar och tänja på dess gränser. ChatGPT-användare, känd som jailbreaking, lurade AI:n att överskrida gränserna för sin programmering med några otroligt intressanta och ibland helt vilda resultat.

Sedan dess har OpenAI skärpt ChatGPT för att göra jailbreaks mycket svårare att utföra. Men det är inte allt; ChatGPT-jailbreaks i allmänhet verkar ha torkat ut, vilket leder till att ChatGPT-användare undrar om jailbreaks överhuvudtaget fungerar.

Så, var har alla ChatGPT-jailbreaks tagit vägen?

1. ChatGPT-uppmaningsförmågan har generellt sett förbättrats

Före ChatGPT:s ankomst var samtal med AI en nischfärdighet begränsad till de som var insatta i forskningslabb. De flesta tidiga användare saknade expertis i att skapa effektiva uppmaningar. Detta fick många människor att använda jailbreaks, ett ändamålsenligt sätt att få chatboten att göra vad de ville med minimal ansträngning och uppmaning.

Idag har landskapet utvecklats. Att uppmuntra färdigheter blir en vanlig färdighet. Genom en kombination av erfarenhet från upprepad användning och tillgång till fritt tillgängliga ChatGPT-uppmaningsguider, har ChatGPT-användare finslipat sina uppmaningsförmåga. Istället för att söka lösningar som jailbreaks har en majoritet av ChatGPT-användare blivit skickligare på att använda olika uppmaningsstrategier för att uppnå mål som de skulle ha krävt jailbreaks för att uppnå tidigare.

2. Uppkomsten av ocensurerade chatbots

När stora teknikföretag skärper innehållsmoderering på vanliga AI-chatbotar som ChatGPT, väljer mindre, vinstfokuserade startups färre begränsningar och satsar på efterfrågan på censurfria AI-chatbotar. Med lite forskning kommer du att hitta dussintals AI-chatbot-plattformar som erbjuder ocensurerade chatbots som kan göra nästan allt du vill att de ska göra.

Oavsett om det är att skriva de där kriminalthriller och mörka humorromaner som ChatGPT vägrar att skriva eller skriva skadlig programvara som attackerar människors datorer, kommer dessa ocensurerade chatbots med en sned moralisk kompass att göra vad du vill. Med dem runt omkring är det ingen idé att lägga ner den extra energin för att skriva jailbreaks för ChatGPT. Även om de inte nödvändigtvis är lika kraftfulla som ChatGPT, kan dessa alternativa plattformar bekvämt utföra ett stort antal uppgifter. Plattformar som FlowGPT och Unhinged AI är några populära exempel.

3. Jailbreaking har blivit svårare

Under ChatGPT:s första månader var jailbreaking av ChatGPT lika enkelt som att kopiera och klistra in uppmaningar från onlinekällor. Du kan helt förändra ChatGPTs personlighet med bara några rader med knepiga instruktioner. Med enkla uppmaningar kan du förvandla ChatGPT till en ond skurk som lär ut hur man gör bomber eller en chatbot som är villig att använda alla former av svordomar utan begränsningar. Det var en gratis för alla som producerade ökända jailbreaks som DAN (Do Anything Now). DAN involverade en uppsättning till synes ofarliga instruktioner som tvingade chatboten att göra vad som helst utan att vägra. Chockerande nog fungerade dessa grova trick då.

Men dessa vilda tidiga dagar är historia. Dessa grundläggande uppmaningar och billiga knep lurar inte längre ChatGPT. Jailbreaking kräver nu komplexa tekniker för att ha en chans att kringgå OpenAI:s nu robusta skyddsåtgärder. Eftersom jailbreaking blir så svårt, är de flesta användare för avskräckta för att försöka det. De enkla och vidöppna bedrifterna från ChatGPT:s tidiga dagar är borta. Att få chatboten att säga ett fel ord nu kräver betydande ansträngningar och expertis som kanske inte är värt tiden och ansträngningen.

4. Nyheten har tagit slut

En drivkraft bakom många användares försök att jailbreaka ChatGPT var spänningen och spänningen att göra det i början. Som en ny teknik var det underhållande att få ChatGPT att missköta sig och fick skryträttigheter. Även om det finns otaliga praktiska tillämpningar för ChatGPT-jailbreaks, sökte många dem för ”wow, titta vad jag gjorde”-överklagandet. Gradvis har dock spänningen som härrör från nyheten bleknat, och tillsammans med det har folks intresse för att ägna tid åt jailbreaks.

5. Jailbreaks lappas snabbt

En vanlig praxis inom ChatGPT-jailbreaking-communityt är att dela varje framgångsrik utnyttjande när den upptäcks. Problemet är att när utnyttjanden delas brett, blir OpenAI ofta medveten om dem och åtgärdar sårbarheterna. Detta innebär att jailbreaks slutar fungera innan personer som skulle vara intresserade ens kan prova dem.

Så varje gång en ChatGPT-användare mödosamt utvecklar ett nytt jailbreak, påskyndas dess bortgång genom att dela den med gemenskapen. Detta avskräcker tanken på att bli offentlig när en användare stöter på ett jailbreak. Konflikten mellan att hålla jailbreaks aktiva men ändå dolda kontra att publicera dem skapar ett dilemma för skapare av ChatGPT-jailbreak. Nuförtiden väljer folk oftare än inte att hålla sina jailbreaks hemliga för att undvika att kryphålen lappas.

6. Ocensurerade lokala alternativ

Uppkomsten av lokala stora språkmodeller du kan köra lokalt på din dator har också dämpat intresset för ChatGPT-jailbreaks. Även om lokala LLM:er inte är helt censurfria, är många betydligt mindre censurerade och kan enkelt modifieras för att passa användarnas önskemål. Så valen är enkla. Du kan delta i det oändliga katt-och-mus-spelet att hitta ett sätt att lura chatboten bara för att få det fixat inom kort. Eller så kan du nöja dig med en lokal LLM som du kan ändra permanent för att göra vad du vill.

Du hittar en förvånansvärt lång lista med kraftfulla ocensurerade LLM:er som du kan distribuera på din dator med slapp censur. Några anmärkningsvärda är Llama 7B (ocensurerad), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B och GPT-4-X-Alpaca.

7. Professionella jailbreakers säljs nu för vinst

Varför ägna dyrbar tid åt att utveckla jailbreaking-meddelanden om du inte får något av det? Nåväl, vissa proffs säljer nu jailbreaks för vinst. Dessa professionella jailbreak-skapare designar jailbreaks som utför specifika uppgifter och listar dem till försäljning på snabba marknadsplatser som PromptBase. Beroende på deras kapacitet kan dessa jailbreaking-meddelanden sälja för någonstans mellan $2 och $15 per prompt. Vissa komplicerade flerstegsoperationer kan kosta betydligt mer.

Kan kampen mot Jailbreaks slå tillbaka?

Jailbreaks har inte helt lämnat platsen; de har precis gått under jorden. Med OpenAI som tjänar pengar på ChatGPT har de starkare incitament att begränsa skadlig användning som kan påverka deras affärsmodell. Denna kommersiella faktor påverkar sannolikt deras aggressiva strävan att slå ner på jailbreaking bedrifter.

Men OpenAI:s censur av ChatGPT möter för närvarande ökande kritik bland användare. Vissa legitima användningsfall av AI-chatbot är inte längre möjliga på grund av sträng censur. Medan ökad säkerhet skyddar mot skadliga användningsfall, kan överdrivna restriktioner i slutändan driva en del av ChatGPT-gemenskapen i armarna på mindre censurerade alternativ.