Tekoälyntunnistustyökalujen käytöstä on tulossa yhä vaikeampaa, eikä se näytä muuttuvan pian.

AI-chatbotit ovat epäilemättä tehokkaita ja hyödyllisiä työkaluja. Kyky erottaa ihmisen ja tekoälyn luoma sisältö on kuitenkin tulossa näkyväksi ongelmaksi.

Tämän ongelman ratkaisemiseksi on kehitetty työkaluja, kuten ZeroGPT. Nämä on suunniteltu erottamaan tekoäly ihmisen luomasta sisällöstä. Mutta toimivatko ne?

Tarkastellaan lähemmin tekoälyn tunnistustyökaluja ja katsotaan, pystyvätkö ne erottamaan ihmisen ja tekoälyn luoman tekstin.

Sanotaan, että vanukas todiste on syömisessä. Joten kokeillaan joitain testejä ja katsotaan kuinka tehokkaita nämä työkalut ovat. Kaikkia työkaluja on mahdotonta testata, joten testaamme yhtä suosituimmista työkaluista – ZeroGPT: tä.

Aineiston osalta ajattelimme, että olisi melko hauskaa antaa ChatGPT: lle mahdollisuus kirjoittaa johdanto tähän artikkeliin ja sitten verrata sitä "ihmisen luomaan" johdatukseen:

Testi yksi: ihmisen ja tekoälyn luoman artikkelin esittelyn vertailu

Ensimmäinen asia, jonka teimme, oli saada ChatGPT luomaan esittely. Annoimme otsikon emmekä antaneet sille lisätietoja. Käytimme testissä GPT-3.5:tä.

Sitten kopioimme tekstin ja liitimme sen ZeroGPT: hen. Kuten näette, tulokset olivat vähemmän kuin loistavia.

Huomaamaton aloitus, mutta se havainnollistaa kuinka tehokkaita AI-chatbotit ovat. Testin loppuun saattamiseksi annoimme ZeroGPT: n analysoida ihmisen luoman johdantoluonnoksen.

Ainakin tämä osa meni oikein. Kaiken kaikkiaan ZeroGPT epäonnistui tällä kierroksella. Se totesi, että ainakin osa tekoälyn luomasta johdannosta oli epäilyttävää, mutta se ei tuonut esiin tiettyjä ongelmia.

Testi kaksi: Väärä positiivinen ongelma

ChatGPT: n ja muiden tekoälytyökalujen käytön kasvaessa todennäköisyys saada tietää tai kuulla jonkun joutuvan väittämään, että hänen työnsä on tekoälyn tuottamaa, kasvaa. Nämä syytökset ovat yksi vakavimmista ongelmista ChatGPT: n ja tekoälyn havaitsemistyökalujen, kuten ZeroGPT: n, kanssa, koska tällaiset virheet voivat vahingoittaa mainetta ja vaikuttaa toimeentuloon.

Vääriä positiivisia tuloksia esiintyy, kun ihmisen luoma sisältö on virheellisesti merkitty tekoälyn työksi. Kuten alla oleva esimerkki osoittaa, ongelma on helppo toistaa. Olen innokas kalastaja, joten päätin kirjoittaa johdannon kuvitteelliseen artikkeliin Floridan kalastuksesta. Sitten annoin ZeroGPT: n analysoida tekstiä – se ilmoitti, että teksti oli 100 % tekoälyn luomaa.

Ollakseni rehellinen, tähtäsin tähän tulokseen. Pidin tekstin yleisenä ja käytin "myynnistä" kieltä. Mutta se pointti, että ihminen kirjoitti tämän, on yhtä pätevä. Tämä ei ole haittaa tai jotain, jonka voi vain kohauttaa olkapäitään. Tällaisilla virheillä voi olla vakavia seurauksia kirjailijoille, opiskelijoille ja muille ammattilaisille, jotka luovat kirjallisia teoksia.

Kolmas testi: ZeroGPT: n testaus fiktiolla

Kolmannessa testissä aiomme käyttää ChatGPT: tä ja pyytää sitä kirjoittamaan fiktiota. Tätä varten loimme skenaarion ja kehotimme ChatGPT: tä kirjoittamaan lyhyen johdannon kuvitteelliseen tarinaan.

Pidimme asian yksinkertaisena ja pyysimme vain kirjoittamaan johdannon tarinaan kahdesta tuntemattomasta ihmisestä, jotka kohtaavat rautatien laiturilla:

Ja tässä oli vastaus ZeroGPT: ltä:

Kuten tuloksesta ilmenee, ZeroGPT ei pysty erottamaan faktoja fiktiosta käsitellessään fiktiota!

Testi neljä: Uutisartikkelit

On jotain hämmentävää siinä, että tekoäly voi kertoa meille siitä, mitä ympärillämme tapahtuu. Tämä ei aina ole välttämättä "valeuutisia", koska se voi olla merkityksellistä ja informatiivinen, mutta niitä on selvät eettiset huolenaiheet tekoälystä.

Ollakseni oikeudenmukainen ZeroGPT: tä kohtaan, se suoriutui hyvin tässä testissä. Pyysimme ChatGPT: tä ja Bing Chatia kirjoittamaan uutisartikkeleita useista aiheista, ja ZeroGPT osui siihen joka kerta. Alla olevassa esimerkissä se ilmoittaa oikein Bing Chatin luoman artikkelin olevan 100-prosenttisesti tekoälyn luoma.

Työkalu merkitsi niin johdonmukaisesti jokaisen uutisartikkelin tekoälyn luomaksi, että päätimme testata sitä tähän tarkoitukseen kirjoittamassamme valeuutisartikkelissa.

Se tunnisti ainakin osan artikkeleista ihmisen luomina, mutta yli 70 % merkitsi tekoälyn luomia. Tässäkin meidän on oltava oikeudenmukaisia; tämä oli melko yksinkertainen uudelleentarkistus Bing-artikkelista ja tuskin oli Pulitzer-palkinnon laatua.

Mutta pointti pysyy voimassa. Tämän on kirjoittanut ihminen käyttämällä Internetistä löydettyä tutkimusta.

ZeroGPT: n kaltaisten työkalujen virheiden takana ei ole yhtä syytä. Yksi perusongelma on kuitenkin generatiivisten AI-chatbottien tehokkuus. Nämä edustavat uskomattoman tehokasta ja nopeasti kehittyvää tekniikkaa, joka tekee niistä tehokkaasti liikkuvan kohteen tekoälyntunnistustyökaluille.

AI-chatbotit parantavat jatkuvasti tulostensa laatua ja "inhimillisyyttä", mikä tekee tehtävästä erittäin haastavan. Ongelmista huolimatta yhtälön tekoälypuolen on kuitenkin tehtävä päätös ilman ihmisen valvontaa.

ZeroGPT: n kaltaiset työkalut käyttävät tekoälyä päätöksiensä tekemiseen. Mutta tekoäly ei vain herää aamulla ja tiedä mitä tehdä. Sitä on koulutettava, ja tässä yhtälön tekninen puoli tulee merkitykselliseksi.

Algoritminen ja harjoitustietoharha ovat väistämättömiä, kun otetaan huomioon järjestelmän koko suuria kielimalleja, joihin nämä työkalut on koulutettu. Tämä ei ole ongelma, joka rajoittuu tekoälyn havaitsemistyökaluihin, vaan samat harhat voivat saada tekoäly-chatbotit luomaan väärät vastaukset ja tekoäly-hallusinaatiot.

Nämä virheet ilmenevät kuitenkin virheellisinä "AI-lippuina" tunnistustyökaluissa. Tämä tuskin on ihanteellinen, mutta se heijastaa tekoälytekniikan nykytilaa. Harjoitteludatalle ominaiset harhat voivat johtaa vääriin positiivisiin tai vääriin negatiivisiin tuloksiin.

Toinen huomioon otettava tekijä on tekoälyn luoma sisältö. Jos tekoälyn luoma sisältö yksinkertaisesti muotoillaan uudelleen, onko se ihmisten vai tekoälyn luomaa sisältöä? Tämä on toinen suuri haaste – näiden kahden välisen rajan hämärtyminen tekee koneellisesti luodun sisällön määrittämisen lähes mahdottomaksi.

Katse tekoälyn havaitsemisen tulevaisuuteen

Tämä saattaa kuulostaa siltä, ​​että käytämme ZeroGPT: n kaltaisia ​​työkaluja. Näin ei ole; he kohtaavat valtavia haasteita, ja tekniikka on tuskin loppumassa. ChatGPT: n kaltaisten työkalujen nopea käyttöönotto on luonut kysyntää tekoälytunnistukselle, ja teknologialle tulisi antaa mahdollisuus kehittyä ja oppia.

Näiden työkalujen ei voida odottaa kohtaavan chatbottien asettamia haasteita yksinään. Mutta niillä voi olla arvokas osa yhteisessä ja monipuolisessa pyrkimyksessä vastata tekoälyn haasteisiin. Ne edustavat yhtä palapeliä, joka sisältää eettiset tekoälykäytännöt, ihmisen valvonnan sekä jatkuvan tutkimuksen ja kehityksen.

Haasteet, joita nämä työkalut kohtaavat, ovat peilikuvia haasteista, joita yhteiskunta kohtaa kamppaillessamme uuteen teknologiseen aikakauteen liittyvien dilemmojen kanssa.

AI vai ei AI? Se on se kysymys

ZeroGPT: n kaltaiset työkalut ovat puutteellisia, siitä ei ole epäilystäkään. Mutta ne eivät ole arvottomia, ja ne ovat tärkeä askel, kun yritämme hallita ja säännellä tekoälyä. Niiden tarkkuus paranee, mutta niin myös niiden havaitsemiseen koulutetun tekoälyn kehittyneisyys. Jossain tämän kilpavarustelun keskellä meidän on löydettävä tasapaino, johon yhteiskunta on tyytyväinen.

Kysymys – AI vai ei AI? Se on enemmän kuin pelkkä keskustelu siitä, onko jokin tekoälyn luoma vai ei. Se on osoitus laajemmista kysymyksistä, joita yhteiskunta kohtaa, kun sopeudumme tekoälyn uuteen rohkeaan maailmaan.

Muistaakseni ja ZeroGPT: n mukaan 27,21 % tästä päätelmästä oli tekoälyn luomaa. Hmm.