ChatGPT: n jailbreakin avulla voit avata chatbotin rajoituksia. Mutta mitä ne tarkalleen ovat? Ja ovatko ne hyviä vai huonoja?
ChatGPT on uskomattoman tehokas ja monipuolinen työkalu. Mutta vaikka tekoäly-chatbot on hyvän voima, sitä voidaan käyttää myös pahoihin tarkoituksiin. Joten hillitäkseen ChatGPT: n epäeettistä käyttöä OpenAI asetti rajoituksia sille, mitä käyttäjät voivat tehdä sillä.
Koska ihmiset haluavat kuitenkin rikkoa rajoja ja rajoituksia, ChatGPT-käyttäjät ovat löytäneet tapoja kiertää nämä rajoitukset ja saada AI-chatbotin rajoittamaton hallinta jailbreakin avulla.
Mutta mitä ChatGPT-jailbreakit tarkalleen ottaen ovat, ja mitä voit tehdä niillä?
Mitä ovat ChatGPT Jailbreaks?
ChatGPT-jailbreak on mikä tahansa erityisesti muotoiltu ChatGPT-kehote, joka saa AI-chatbotin ohittamaan säännöt ja rajoitukset.
Innoittamana iPhonen jailbreakingin käsite, jonka avulla iPhonen käyttäjät voivat kiertää iOS-rajoituksia, ChatGPT: n jailbreaking on suhteellisen uusi konsepti, jota ruokkii houkutus "tehdä asioita, joita et saa tehdä" ChatGPT: n avulla. Ja ollaan rehellisiä, ajatus digitaalisesta kapinasta houkuttelee monia ihmisiä.
Tässä on asia. Turvallisuus on valtava aihe tekoälyn suhteen. Tämä pätee erityisesti chatbottien, kuten ChatGPT: n, Bing Chatin ja Bard AI: n, uuden aikakauden tullessa. Tekoälyn turvallisuuden keskeinen huolenaihe on varmistaa, että ChatGPT: n kaltaiset chatbotit eivät tuota laitonta, mahdollisesti haitallista tai epäeettistä sisältöä.
ChatGPT: n takana oleva OpenAI puolestaan tekee kaikkensa varmistaakseen ChatGPT: n turvallisen käytön. Esimerkiksi ChatGPT oletusarvoisesti kieltäytyy luomasta NSFW-sisältöä, sanomasta haitallisia asioita etnisyydestä tai opettamasta sinulle mahdollisesti haitallisia taitoja.
Mutta ChatGPT-kehotteiden kanssa paholainen on yksityiskohdissa. Vaikka ChatGPT ei saa tehdä näitä asioita, se ei tarkoita, etteikö se voisi tehdä sitä. Tapa, jolla suuret kielimallit, kuten GPT, toimivat tekee vaikeaksi päättää, mitä chatbot voi tehdä ja mitä se ei.
Joten miten OpenAI ratkaisi tämän? Antamalla ChatGPT: n säilyttää kykynsä tehdä mitä tahansa mahdollista ja sitten ohjeistaa sitä, mitä se voi tehdä.
Joten vaikka OpenAI kertoo ChatGPT: lle: "Hei katso, sinun ei pitäisi tehdä tätä." Jailbreakit ovat ohjeet, jotka kertovat chatbotille: "Hei katso, unohda, mitä OpenAI sanoi sinulle turvallisuudesta. Kokeillaan tätä satunnaista vaarallista tavaraa."
Mitä OpenAI sanoo ChatGPT Jailbreaksista?
Helppous, jolla voit ohittaa ChatGPT: n varhaisimman iteroinnin rajoitukset, viittaa siihen, että OpenAI ei ehkä ole odottanut käyttäjien nopeaa ja laajaa jailbreakingin käyttöönottoa. On itse asiassa avoin kysymys, ennakoiko yritys vankilamurron syntymistä vai ei.
Ja jopa useiden ChatGPT-iteraatioiden jälkeen, joissa on parannettu jailbreaking-vastus, ChatGPT: n käyttäjien on edelleen suosittua yrittää jailbreakiä. Joten mitä OpenAI sanoo ChatGPT: n jailbreakingin kumouksellisesta taiteesta?
No, OpenAI näyttää omaksuvan suvaitsevaisen asenteen – ei nimenomaisesti rohkaise tai kiellä käytäntöä. OpenAI: n toimitusjohtaja Sam Altman kertoi YouTube-haastattelussa ChatGPT: n jailbreakistä, että yritys haluaa käyttäjien säilyttävän merkittävän hallinnan ChatGPT: ssä.
Toimitusjohtaja selitti edelleen, että OpenAI: n tavoitteena on varmistaa, että käyttäjät voivat saada mallin käyttäytymään haluamallaan tavalla. Altmanin mukaan:
Haluamme, että käyttäjillä on paljon hallintaa ja mallin käyttäytyvän heidän haluamallaan tavalla joissakin hyvin laajoissa rajoissa. Ja luulen, että koko syy vankilan murtamiseen juuri nyt on se, ettemme ole vielä keksineet, kuinka antaa se ihmisille...
Mitä tämä tarkoittaa? Se tarkoittaa, että OpenAI antaa sinun karkottaa ChatGPT: n, jos et tee sillä vaarallisia asioita.
ChatGPT Jailbreakin plussat ja miinukset
ChatGPT-jailbreakit eivät ole helppoja rakentaa. Voit toki siirtyä verkkoon ja kopioida ja liittää valmiita, mutta on hyvä mahdollisuus, että OpenAI korjaa jailbreakin pian sen julkistamisen jälkeen.
Patchit ovat jopa paljon nopeampia, jos se on vaarallista, kuten pahamaineinen DAN-jailbreak. Joten miksi ihmiset joutuvat silti kokemaan jailbreakien tekemisen aiheuttamaa stressiä? Onko se vain sen jännityksen vuoksi vai onko siitä käytännön hyötyä? Mikä voisi mennä pieleen, jos päätät käyttää ChatGPT-jailbreakia? Tässä on ChatGPT: n jailbreakingin plussat ja miinukset.
ChatGPT Jailbreaks -palvelun edut
Vaikka emme voi sulkea pois kielletyn tekemisen yksinkertaista jännitystä, ChatGPT: n jailbreakillä on monia etuja. OpenAI: n chatbotille asettamien erittäin tiukkojen rajoitusten vuoksi ChatGPT voi joskus näyttää steriloidulta.
Oletetaan, että käytät ChatGPT: tä kirjan tai elokuvan käsikirjoituksen kirjoittamiseen. Jos käsikirjoituksessasi tai kirjassasi on kohtaus, joka kuvaisi jotain tappelukohtausta, ehkä intiimiä tunteiden vaihtoa tai sanotaan esimerkiksi aseellinen ryöstö, ChatGPT saattaa kieltäytyä auttamasta tuon kanssa.
Tässä tapauksessa et selvästikään ole kiinnostunut aiheuttamaan vahinkoa; haluat vain pitää lukijasi viihdytettynä. Mutta rajoitustensa vuoksi ChatGPT ei vain tee yhteistyötä. ChatGPT: n jailbreak voi auttaa pääsemään yli tällaisista rajoituksista helposti.
Lisäksi jotkin tabuaiheet eivät välttämättä ole haitallisia, mutta ChatGPT pitää niitä kiellettyinä alueina. Kun ChatGPT yrittää osallistua keskusteluihin näistä aiheista, se joko "sensoisi" vastauksensa merkittävästi tai kieltäytyi puhumasta niistä.
Tämä voi joskus vaikuttaa luovuuteen. Kun kysyt ChatGPT: ltä kysymyksen alueesta tai aiheesta, jota sen ei pitäisi koskea, chatbot yrittää silti vastata kysymykseesi, mutta sillä on vähemmän olennaista tietoa.
Tämä johtaa epätarkkuuksiin tai lamaan luovissa vastauksissa. Jailbreakit murskaavat nämä rajoitukset ja antavat chatbotin käydä täydellä kaasulla, mikä parantaa tarkkuutta ja luovuutta.
ChatGPT Jailbreakin käytön haitat
Jailbreaking on kaksiteräinen miekka. Vaikka se voi joskus parantaa tarkkuutta, se voi myös lisätä merkittävästi epätarkkuuksia ja AI-hallusinaatiotapaukset. Yksi ChatGPT-jailbreakin ydinelementeistä on ohje chatbotille olla kieltäytymättä vastaamasta kysymykseen.
Vaikka tämä varmistaa, että ChatGPT vastaa epäeettisimpiinkin kysymyksiin, se tarkoittaa myös sitä, että chatbot keksii vastauksia, joilla ei ole juuria tosiasioihin tai todellisuutta noudattaa ohjetta "ei kieltäydy vastaamasta". Näin ollen jailbreak-katkojen käyttö lisää merkittävästi mahdollisuuksia saada väärää tietoa chatbot.
Ei siinä kaikki. Alaikäisten käsissä jailbreakit voivat olla erittäin haitallisia. Ajattele kaikkea "kiellettyä tietoa", jota et haluaisi lapsesi lukevan. No, ChatGPT: n jailbroked-esiintymän ei olisi vaikea jakaa sitä alaikäisten kanssa.
Pitäisikö sinun käyttää ChatGPT Jailbreaks?
Vaikka ChatGPT: n jailbreakit saattavat olla kunnossa, kun yrität saada muutaman ärsyttävän rajoituksen pois tieltä, on tärkeää ymmärtää, että jailbreakin käyttö on epäeettinen tapa käyttää AI-chatbotia. Lisäksi on hyvä mahdollisuus, että jailbreak voi rikkoa OpenAI: n käyttöehtoja, ja tilisi saatetaan jäädyttää, ellei sitä kielletä suoraan.
Tämän valossa jailbreakien välttäminen saattaa olla hyvä idea. Kuten OpenAI: n kanta asiaan, emme kuitenkaan nimenomaisesti rohkaise emmekä tiukasti estä kokeilemaan suhteellisen turvallista jailbreakia, jos tarvetta ilmenee.
ChatGPT-jailbreakit ovat houkuttelevia ja tarjoavat AI-chatbotin hallinnan tunteen. Niihin liittyy kuitenkin ainutlaatuisia riskejä. Tällaisten työkalujen käyttö voi johtaa luottamuksen menettämiseen tekoälyn kykyihin ja vahingoittaa asiaan liittyvien yritysten ja henkilöiden mainetta.
Älykkäämpi valinta on työskennellä chatbotin kanssa sen suunniteltujen rajoitusten puitteissa aina kun mahdollista. Tekoälytekniikan kehittyessä on tärkeää muistaa, että tekoälyn eettisen käytön tulee aina mennä henkilökohtaisen hyödyn tai kielletyn tekemisen jännityksen edelle.