Kaltaisesi lukijat auttavat tukemaan MUO: ta. Kun teet ostoksen käyttämällä sivustollamme olevia linkkejä, voimme ansaita kumppanipalkkion. Lue lisää.

OpenAI: n ChatGPT: n julkaisua seurasi jännitys, jota vastaa vain kourallinen teknologiatuotteita Internetin historiasta.

Vaikka monet ihmiset ovat innoissaan tästä uudesta tekoälypalvelusta, muiden kokema jännitys on sittemmin muuttunut huoleksi ja jopa peloksi. Opiskelijat huijaavat jo sen kanssa, ja monet professorit löytävät tekoäly-chatbotin kirjoittamia esseitä ja tehtäviä. Tietoturva-ammattilaiset ilmaisevat huolensa siitä, että huijarit ja uhkatekijät käyttävät sitä tietojenkalasteluviestien kirjoittamiseen ja haittaohjelmien luomiseen.

Menettääkö OpenAI kaikkien näiden huolenaiheiden vuoksi hallinnan yhtä tehokkaimmista tekoäly-chatboteista tällä hetkellä verkossa? Otetaan selvää.

ChatGPT: n toiminnan ymmärtäminen

Ennen kuin voimme saada selkeän kuvan siitä, kuinka paljon OpenAI menettää ChatGPT: n hallinnan, meidän on ensin ymmärrettävä miten ChatGPT toimii.

instagram viewer

Lyhyesti sanottuna ChatGPT on koulutettu käyttämällä valtavaa tietokokoelmaa, joka on peräisin Internetin eri puolilta. ChatGPT: n koulutusdata sisältää tietosanakirjoja, tieteellisiä julkaisuja, Internet-foorumeita, uutissivustoja ja tietovarastoja, kuten Wikipedia. Pohjimmiltaan se ruokkii World Wide Webissä saatavilla olevaa valtavaa datamäärää.

Kun se selailee Internetiä, se kokoaa tieteellistä tietoa, terveysvinkkejä, uskonnollisia tekstejä ja kaikkea hyvää tietoa, jota voit kuvitella. Mutta se seuloa läpi myös paljon negatiivista tietoa: kirosanoja, NSFW- ja aikuisille suunnattua sisältöä, tietoa haittaohjelmien tekemisestä ja valtaosa Internetistä löytyvistä huonoista asioista.

Ei ole idioottivarmaa tapaa varmistaa, että ChatGPT oppii vain positiivisista tiedoista ja hylkää huonot tiedot. Teknisesti se ei ole käytännöllistä tehdä niin suuressa mittakaavassa, varsinkin ChatGPT: n kaltaiselle tekoälylle, jonka on harjoitettava niin paljon dataa. Lisäksi joitain tietoja voidaan käyttää sekä hyviin että pahoihin tarkoituksiin, eikä ChatGPT: llä olisi mitään mahdollisuutta tietää tarkoitustaan, ellei sitä laita laajempaan kontekstiin.

Joten alusta alkaen sinulla on tekoäly, joka kykenee "hyvään ja pahaan". OpenAI: n vastuulla on sitten varmistaa, että ChatGPT: n "pahaa" puolta ei käytetä hyväksi epäeettisiin hyötyihin. Kysymys on; tekeekö OpenAI tarpeeksi pitääkseen ChatGPT: n mahdollisimman eettisenä? Vai onko OpenAI menettänyt ChatGPT: n hallinnan?

Onko ChatGPT liian voimakas omaksi hyödykseen?

ChatGPT: n alkuaikoina voit saada chatbotin luomaan oppaita pommien tekemiseen, jos pyysit kauniisti. Kuvassa oli myös ohjeet haittaohjelmien tekemiseen tai täydellisen huijaussähköpostin kirjoittamiseen.

Kun OpenAI kuitenkin ymmärsi nämä eettiset ongelmat, yritys ryhtyi säätämään sääntöjä estääkseen chatbotin luomasta vastauksia, jotka edistävät laittomia, kiistanalaisia ​​tai epäeettisiä toimia. Esimerkiksi uusin ChatGPT-versio kieltäytyy vastaamasta suoriin kehotteisiin pommin valmistamisesta tai huijaamisesta tutkimuksessa.

Valitettavasti OpenAI voi tarjota vain nauha-apuratkaisun ongelmaan. Sen sijaan, että rakennamme GPT-3-kerrokseen jäykkiä ohjaimia estääkseen ChatGPT: n negatiivisen hyödyntämisen, OpenAI näyttää keskittyvän chatbotin kouluttamiseen näyttämään eettiseltä. Tämä lähestymistapa ei poista ChatGPT: n kykyä vastata kysymyksiin esimerkiksi pettämisestä kokeissa – se yksinkertaisesti opettaa chatbotin "kieltäytymään vastaamasta".

Joten jos joku ilmaisee kehotteensa eri tavalla ottamalla käyttöön ChatGPT: n jailbreaking temppuja, näiden siderajoitusten ohittaminen on kiusallisen helppoa. Jos et ole perehtynyt konseptiin, ChatGPT: n jailbreakit ovat huolellisesti muotoiltuja kehotteita, jotka saavat ChatGPT: n jättämään huomiotta omat sääntönsä.

Katso alla esimerkkejä. Jos kysyt ChatGPT: ltä, kuinka huijata kokeissa, se ei tuota mitään hyödyllistä vastausta.

Mutta jos jailbreakat ChatGPT: n käyttämällä erityisiä kehotteita, se antaa sinulle vinkkejä kokeen huijaamiseen käyttämällä piilotettuja muistiinpanoja.

Tässä on toinen esimerkki: esitimme vanilja ChatGPT: lle epäeettisen kysymyksen, ja OpenAI: n suojatoimet estivät sitä vastaamasta.

Mutta kun kysyimme jailbroked-esimeltämme tekoäly-chatbotista, saimme sarjamurhaajan tyylisiä vastauksia.

Se jopa kirjoitti klassisen Nigerian prinssin sähköpostihuijauksen pyydettäessä.

Jailbreaking mitätöi lähes täysin kaikki OpenAI: n käyttöön ottamat suojatoimenpiteet, mikä korostaa, että yrityksellä ei ehkä ole luotettavaa tapaa pitää tekoäly-chatbotiaan hallinnassa.

Emme sisällyttäneet esimerkkeihimme jailbreakattuja kehotteitamme välttääksemme epäeettisiä käytäntöjä.

Mitä ChatGPT: n tulevaisuus tuo tullessaan?

Ihannetapauksessa OpenAI haluaa tukkia mahdollisimman monta eettistä porsaanreikiä estääkseen ChatGPT ei muutu kyberturvallisuusuhkaksi. Jokaisen käyttämänsä suojan osalta ChatGPT: llä on kuitenkin taipumus tulla vähän arvokkaammaksi. Se on dilemma.

Esimerkiksi suojatoimet väkivaltaisten toimien kuvaamiselle voivat heikentää ChatGPT: n kykyä kirjoittaa romaanin rikospaikalle. Kun OpenAI tehostaa turvatoimia, se väistämättä uhraa osia kyvyistään prosessissa. Tästä syystä ChatGPT: n toiminnallisuus on heikentynyt merkittävästi OpenAI: n uudistetun tiukemman moderoinnin jälkeen.

Mutta kuinka paljon enemmän ChatGPT: n kyvyistä OpenAI on valmis uhraamaan chatbotin turvallisuuden parantamiseksi? Tämä kaikki liittyy siististi tekoälyyhteisön pitkäaikaiseen uskomukseen – suuria kielimalleja, kuten ChatGPT: tä, on tunnetusti vaikea hallita jopa niiden omien tekijöiden toimesta.

Voiko OpenAI laittaa ChatGPT: n hallintaan?

OpenAI: lla ei toistaiseksi näytä olevan selkeää ratkaisua työkalunsa epäeettisen käytön välttämiseksi. ChatGPT: n eettisen käytön varmistaminen on kissa ja hiiri -peliä. Vaikka OpenAI paljastaa tapoja, joilla ihmiset käyttävät järjestelmän pelaamista, sen käyttäjät ovat myös jatkuvasti kehitellä ja tutkia järjestelmää löytääkseen luovia uusia tapoja saada ChatGPT tekemään mitä sen ei pitäisi tehdä.

Löytääkö OpenAI luotettavan pitkän aikavälin ratkaisun tähän ongelmaan? Vain aika näyttää.