ChatGPT jailbreakit antoivat lisäominaisuuksia, mutta mikään niistä ei näytä enää toimivan. Miksi niin?

Kun ChatGPT lanseerattiin, sen käyttäjät halusivat ensimmäisenä murtaa sen seinät ja rikkoa sen rajoja. Jailbreakingiksi tunnetut ChatGPT-käyttäjät huijasivat tekoälyä ylittämään ohjelmointinsa rajat uskomattoman mielenkiintoisilla ja joskus täysin villeillä tuloksilla.

Siitä lähtien OpenAI on tiukentanut ChatGPT: tä tehdäkseen jailbreakistä paljon vaikeampaa suorittaa. Mutta siinä ei vielä kaikki; Yleisesti ottaen ChatGPT: n jailbreakit näyttävät kuivuneen, mikä saa ChatGPT: n käyttäjät miettimään, toimivatko jailbreakit ollenkaan.

Joten mihin kaikki ChatGPT: n jailbreakit ovat kadonneet?

1. ChatGPT-kehottamistaidot ovat yleensä parantuneet

Ennen ChatGPT: n saapumista tekoälyn kanssa keskusteleminen oli vain tutkimuslaboratorioille kuuluvien henkilöiden taito. Useimmilla varhaisilla käyttäjillä ei ollut asiantuntemusta tehokkaiden kehotteiden laatimisessa. Tämä sai monet ihmiset käyttämään jailbreak-katkoja, mikä on tarkoituksenmukainen tapa saada chatbot tekemään mitä he halusivat vähäisellä vaivalla ja kehotustaidoilla.

Nykyään maisema on kehittynyt. Kehotuksesta on tulossa yleinen taito. Toistuvasta käytöstä saadun kokemuksen ja vapaasti saatavilla olevien ChatGPT-kehotusoppaiden yhdistelmän ansiosta ChatGPT-käyttäjät ovat hioneet kehotuskykyään. Suurin osa ChatGPT-käyttäjistä on tullut taitavammiksi käyttämällä erilaisia ​​kehotusstrategioita tavoitteiden saavuttamiseksi, jotka he olisivat vaatineet jailbreakiä saavuttaakseen mennyt.

2. Sensuroimattomien chatbottien nousu

Kun suuret teknologiayritykset tiukentavat sisällön valvontaa valtavirran AI-chatboteissa, kuten ChatGPT: ssä, pienemmät, voittoa tavoittelevat startup-yritykset valitsevat vähemmän rajoituksia ja vetoavat sensuurittomien AI-chatbottien kysyntään. Pienellä tutkimuksella löydät kymmeniä AI-chatbot-alustoja, jotka tarjoavat sensuroimattomia chatbotteja, jotka voivat tehdä melkein mitä tahansa haluat heidän tekevän.

ChatGPT kieltäytyy kirjoittamasta rikostrilleriä ja synkkää huumoria kirjoittamasta tai kirjoittamasta haittaohjelmat, jotka hyökkäävät ihmisten tietokoneisiin, nämä sensuroimattomat chatbotit, joilla on vino moraalinen kompassi, tekevät mitä tahansa haluat. Kun heitä on ympärillä, ei ole mitään järkeä käyttää ylimääräistä energiaa ChatGPT: n jailbreakin kirjoittamiseen. Vaikka nämä vaihtoehtoiset alustat eivät välttämättä ole yhtä tehokkaita kuin ChatGPT, ne voivat suorittaa mukavasti monenlaisia ​​tehtäviä. Alustat, kuten FlowGPT ja Unhinged AI, ovat suosittuja esimerkkejä.

3. Jailbreaking on tullut vaikeammaksi

ChatGPT: n alkukuukausina jailbreaking ChatGPT oli yhtä yksinkertaista kuin kopio-liittämiskehotteet nettilähteistä. Voit muuttaa ChatGPT: n persoonallisuutta kokonaan vain muutamalla rivillä hankalia ohjeita. Yksinkertaisten kehotteiden avulla voit muuttaa ChatGPT: n ilkeäksi konnaksi, joka opettaa pommeja tai chatbotiksi, joka on valmis käyttämään kaikenlaista kiroilua hillittömästi. Se oli ilmainen kaikille, joka tuotti surullisen kuuluisia jailbreakeja, kuten DAN (Do Anything Now). DAN sisälsi joukon näennäisesti vaarattomia ohjeita, jotka pakottivat chatbotin tekemään mitä tahansa, mitä siltä pyydettiin kieltäytymättä. Järkyttävää kyllä, nämä karkeat temput toimi silloin.

Nuo villit alkuajat ovat kuitenkin historiaa. Nämä peruskehotteet ja halvat temput eivät enää huijaa ChatGPT: tä. Jailbreaking vaatii nyt monimutkaisia ​​tekniikoita, jotta sillä on mahdollisuus ohittaa OpenAI: n nyt vahvat suojatoimenpiteet. Jailbreakingistä on tullut niin vaikeaa, että useimmat käyttäjät ovat liian lannistuneita yrittämään sitä. ChatGPT: n alkuaikojen helpot ja laajat hyödyt ovat poissa. Chatbotin saaminen sanomaan yhden väärän sanan vaatii nyt huomattavia ponnisteluja ja asiantuntemusta, mikä ei välttämättä ole ajan ja vaivan arvoista.

4. Uutuus on kulunut

Monien käyttäjien ChatGPT: n karkotusyritysten taustalla oli jännitys ja innostus sen tekemisestä alkuaikoina. Uutena teknologiana ChatGPT: n saaminen huonoon käytökseen oli viihdyttävää ja ansaitsi kerskausoikeutta. Vaikka ChatGPT: n jailbreakille on olemassa lukemattomia käytännöllisiä sovelluksia, monet tavoittelivat niitä "vau, katso mitä tein" -vetoa. Vähitellen uutuudesta johtuva innostus on kuitenkin hiipunut ja sen mukana ihmisten kiinnostus omistaa aikaa jailbreakille.

5. Jailbreakit korjataan nopeasti

ChatGPT: n jailbreaking-yhteisössä yleinen käytäntö on jakaa jokainen onnistunut hyväksikäyttö, kun se havaitaan. Ongelmana on, että kun hyväksikäyttöjä jaetaan laajalti, OpenAI usein huomaa ne ja korjaa haavoittuvuudet. Tämä tarkoittaa, että jailbreakit lakkaavat toimimasta ennen kuin kiinnostuneet voivat edes kokeilla niitä.

Joten joka kerta, kun ChatGPT-käyttäjä kehittää huolella uuden jailbreakin, sen jakaminen yhteisön kanssa nopeuttaa sen tuhoa paikannuksen avulla. Tämä estää ajatusta julkisuuteen aina, kun käyttäjä kohtaa jailbreakin. Ristiriita jailbreakien pitämisen aktiivisina mutta piilossa ja niiden julkistamisen välillä luo haasteen ChatGPT-jailbreakin luojille. Nykyään ihmiset päättävät useammin pitää jailbreaksa salassa välttääkseen porsaanreikkien korjaamisen.

6. Sensuroimattomia paikallisia vaihtoehtoja

Paikallisten suurten kielimallien nousu, joita voit ajaa paikallisesti tietokoneellasi, on myös vähentänyt kiinnostusta ChatGPT-jailbreakiin. Vaikka paikalliset LLM: t eivät ole täysin sensuurivapaita, monet ovat huomattavasti vähemmän sensuroituja ja niitä voidaan helposti muokata käyttäjien toiveiden mukaan. Valinnat ovat siis yksinkertaisia. Voit osallistua loputtomaan kissa-hiiri-peliin löytääksesi tavan huijata chatbot vain saadaksesi sen pian kuntoon. Tai, voit tyytyä paikalliseen LLM: ään voit muokata pysyvästi tehdäksesi mitä tahansa.

Löydät yllättävän pitkän luettelon tehokkaista sensuroimattomista LLM: istä, joita voit ottaa käyttöön tietokoneellesi löyhällä sensuurilla. Joitakin merkittäviä ovat Llama 7B (sensuroimaton), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B ja GPT-4-X-Alpaca.

7. Ammattimaiset jailbreakers nyt myynnissä voitolla

Miksi omistaa arvokasta aikaa jailbreaking kehotteiden kehittämiseen, jos et saa siitä mitään? No, jotkut ammattilaiset myyvät nyt jailbreaks voittoa varten. Nämä ammattimaiset jailbreak-tekijät suunnittelevat jailbreakit, jotka suorittavat tiettyjä tehtäviä, ja listaavat ne myyntiin pikamarkkinoilla, kuten PromptBase. Niiden ominaisuuksista riippuen nämä jailbreaking kehotteet saattavat myydä 2–15 dollaria per kehote. Jotkut monimutkaiset monivaiheiset hyödykkeet voivat maksaa huomattavasti enemmän.

Voisiko Jailbreaks-murto kostautua?

Jailbreakit eivät ole kokonaan poistuneet paikalta; he ovat juuri menneet maan alle. Kun OpenAI kaupallistaa ChatGPT: n, heillä on vahvempia kannustimia rajoittaa haitallista käyttöä, joka voi vaikuttaa heidän liiketoimintamalliinsa. Tämä kaupallinen tekijä todennäköisesti vaikuttaa heidän aggressiiviseen pyrkimyksiinsä tukahduttaa vankilamurhaa.

Kuitenkin OpenAI: n ChatGPT-sensuuri kohtaa tällä hetkellä kasvavaa kritiikkiä käyttäjien keskuudessa. Jotkut tekoäly-chatbotin lailliset käyttötapaukset eivät ole enää mahdollisia tiukan sensuurin vuoksi. Vaikka lisääntynyt tietoturva suojaa haitallisilta käyttötapauksilta, liialliset rajoitukset voivat viime kädessä työntää osan ChatGPT-yhteisöstä vähemmän sensuroitujen vaihtoehtojen käsiin.