Generatiivinen tekoäly on hieno, mutta se esittää aina tietonsa ehdottomalla auktoriteetilla. Mikä on hienoa, ellei se hallusinoi totuutta.

Tekoälyn (AI) hallusinaatiot kuulostaa hämmentävältä. Luultavasti ajattelet: "Eivätkö hallusinaatiot ole ihmisen ilmiö?" Kyllä, se oli ennen yksinomaan ihminen ilmiö, kunnes tekoäly alkoi osoittaa inhimillisiä ominaisuuksia, kuten kasvojentunnistusta, itseoppimista ja puhetta tunnustaminen.

Valitettavasti tekoäly sai joitain negatiivisia ominaisuuksia, mukaan lukien hallusinaatiot. Onko tekoäly-hallusinaatio siis samanlainen kuin ihmisten kokema hallusinaatio?

Mikä on AI-hallusinaatio?

Tekoälyn hallusinaatioita esiintyy, kun tekoälymalli tuottaa erilaisia ​​tuloksia kuin on odotettu. Huomaa, että jotkin tekoälymallit on koulutettu luomaan tarkoituksella lähtöjä, jotka eivät liity mihinkään todelliseen syötteeseen (dataan).

Esimerkiksi, Parhaat tekoälyn tekstistä taiteen luojat, kuten DALL-E 2, voi luoda luovasti uusia kuvia, jotka voimme merkitä "hallusinaatioiksi", koska ne eivät perustu todelliseen tietoon.

AI-hallusinaatiot suurissa kielenkäsittelymalleissa

Ajatellaanpa, miltä tekoäly-hallusinaatiot näyttäisivät suuressa kielenkäsittelymallissa, kuten ChatGPT. ChatGPT-hallusinaatio johtaisi siihen, että robotti antaisi sinulle väärän tosiasian jollain väitteellä, joten otat luonnollisesti tällaiset tosiasiat totuutena.

Yksinkertaisesti sanottuna se on keinotekoisen älykkään chatbotin keksimiä lausuntoja. Tässä on esimerkki:

Lisäkyselyssä ChatGPT ilmaisi tämän:

AI-hallusinaatio tietokonenäössä

Tarkastellaanpa toista tekoälyn alaa, joka voi kokea tekoäly-hallusinaatioita: Konenäkö. Alla oleva tietokilpailu näyttää 4x4-montaasin, jossa on kaksi kokonaisuutta, jotka näyttävät niin paljon samanlaisilta. Kuvat ovat sekoitus BBQ-perunalastuja ja lehtiä.

Haasteena on valita perunalastut lyömättä montaasin lehtiä. Tämä kuva saattaa näyttää tietokoneelta hankalalta, eikä se välttämättä pysty erottamaan BBQ-perunalastuja ja lehtiä.

Tässä on toinen montaasi, jossa on sekoitus villakoiraa ja sianlihalankaa pullakuvia. Tietokone ei todennäköisesti pystyisi erottamaan niitä toisistaan, joten se sekoittaisi kuvat.

Miksi tekoäly-hallusinaatioita esiintyy?

Tekoälyhalusinaatioita voi johtua vastakkaisista esimerkeistä – syötetiedoista, jotka huijaavat tekoälysovelluksen luokittelemaan ne väärin. Esimerkiksi AI-sovelluksia harjoittaessaan kehittäjät käyttävät dataa (kuvaa, tekstiä tai muuta); jos dataa muutetaan tai vääristetään, sovellus tulkitsee syötteen eri tavalla ja antaa väärän lähdön.

Sitä vastoin ihminen voi silti tunnistaa ja tunnistaa tiedot tarkasti vääristymistä huolimatta. Voimme merkitä tämän terveeksi järjeksi – ihmisen ominaisuus, jolla ei vielä ole tekoälyä. Katso tästä videosta, kuinka tekoäly huijataan vastakkaisilla esimerkeillä:

Mitä tulee suuriin kielipohjaisiin malleihin, kuten ChatGPT ja sen vaihtoehdot, hallusinaatioita voi syntyä muuntajan virheellisestä dekoodauksesta (koneoppimismalli).

Tekoälyssä muuntaja on syväoppimismalli, joka käyttää itsehuomiota (sanojen välisiä semanttisia suhteita lause) tuottamaan samanlaista tekstiä kuin mitä ihminen kirjoittaisi kooderi-dekooderilla (syöttö-lähtö) järjestys.

Joten muuntajat, puolivalvottu koneoppimismalli, voivat luoda uuden tekstikappaleen (tulosteen) sen koulutuksessa (syötössä) käytetystä suuresta tekstidatakorpuksesta. Se tekee sen ennustamalla sarjan seuraavan sanan edellisten sanojen perusteella.

Mitä tulee hallusinaatioihin, jos kielimallia opetettaisiin riittämättömillä ja epätarkoilla tiedoilla ja resursseilla, tulosten odotetaan olevan keksitty ja epätarkkoja. Kielimalli saattaa tuottaa tarinan tai kertomuksen ilman loogisia epäjohdonmukaisuuksia tai epäselviä yhteyksiä.

Alla olevassa esimerkissä ChatGPT: tä pyydettiin antamaan sanaa "kapina" muistuttava sana, joka alkaa kirjaimella "b". Tässä sen vastaus:

Jatkossa tutkittaessa se antoi jatkuvasti vääriä vastauksia korkealla varmuudella.

Joten miksi ChatGPT ei pysty antamaan tarkkaa vastausta näihin kehotteisiin?

Voi olla, että kielimallilla ei ole valmiuksia käsitellä melko monimutkaisia ​​kehotteita, kuten tämä tai se ei voi tulkita kehotetta tarkasti, jättäen huomioimatta kehotteen antaa samanlainen sana tietyllä sanalla aakkoset.

Kuinka havaitset tekoäly-hallusinaatiot?

Nyt on ilmeistä, että tekoälysovellukset voivat aiheuttaa hallusinaatioita – tuottaa vastauksia muutoin odotetusta tuloksesta (fakta tai totuus) ilman ilkeä tarkoitusta. Ja tekoäly-hallusinaatioiden havaitseminen ja tunnistaminen on tällaisten sovellusten käyttäjien tehtävä.

Tässä on joitain tapoja havaita tekoälyhalusinaatioita käytettäessä yleisiä tekoälysovelluksia:

1. Suuret kielenkäsittelymallit

Vaikkakin harvinaista, jos huomaat kielioppivirheen suuren käsittelymallin, kuten ChatGPT: n, tuottamassa sisällössä, sen pitäisi nostaa kulmakarvoja ja saada sinut epäilemään hallusinaatioita. Samoin, jos tekstin tuottama sisältö ei kuulosta loogiselta, korreloi annetun kontekstin kanssa tai vastaa syötetietoja, sinun tulee epäillä hallusinaatioita.

Ihmisen harkintakyky tai maalaisjärki voi auttaa havaitsemaan hallusinaatioita, sillä ihmiset voivat helposti tunnistaa, milloin tekstissä ei ole järkeä tai se ei seuraa todellisuutta.

2. Konenäkö

Tekoälyn, koneoppimisen ja tietojenkäsittelytieteen haarana tietokonenäkö antaa tietokoneille mahdollisuuden tunnistaa ja käsitellä kuvia kuten ihmissilmiä. Käyttämällä konvoluutiohermoverkot, he luottavat uskomattomaan määrään visuaalista dataa, jota he käyttävät harjoituksissaan.

Harjoittelussa käytetyn visuaalisen datan malleista poikkeaminen johtaa hallusinaatioihin. Esimerkiksi, jos tietokonetta ei ole harjoitettu tennispallon kuvilla, se voisi tunnistaa sen vihreäksi oranssiksi. Tai jos tietokone tunnistaa hevosen ihmispatsaan vieressä olevan hevosen oikean ihmisen vieressä, niin tekoäly-hallusinaatio on tapahtunut.

Joten havaitaksesi tietokonenäön hallusinaatiot vertaa tuotettua tulosta siihen, mitä [normaalin] ihmisen odotetaan näkevän.

3. Itseajavat autot

Kuvan luotto: Ford

Tekoälyn ansiosta itse ajavat autot soluttautuvat vähitellen automarkkinoille. Pioneerit, kuten Tesla Autopilot ja Fordin BlueCruise, ovat puolustaneet itseohjautuvien autojen näyttämöä. Voit tarkistaa miten ja mitä Tesla Autopilot näkee saadaksesi hieman käsitystä siitä, kuinka tekoäly toimii itseohjautuvissa autoissa.

Jos omistat yhden tällaisista autoista, haluat tietää, onko tekoälyautosi hallusinaatioita. Yksi merkki on, jos ajoneuvosi näyttää poikkeavan normaaleista käyttäytymismalleistaan ​​ajon aikana. Esimerkiksi, jos ajoneuvo jarruttaa tai käännyttää äkillisesti ilman selvää syytä, tekoälyajoneuvosi saattaa aiheuttaa hallusinaatioita.

Tekoälyjärjestelmät voivat myös hallusinoida

Ihmiset ja tekoälymallit kokevat hallusinaatiot eri tavalla. Mitä tulee tekoälyyn, hallusinaatiot viittaavat virheellisiin tuloksiin, jotka ovat kilometrien päässä todellisuudesta tai jotka eivät ole järkeviä annetun kehotteen yhteydessä. Esimerkiksi AI-chatbot voi antaa kieliopillisesti tai loogisesti virheellisen vastauksen tai tunnistaa kohteen väärin kohinan tai muiden rakenteellisten tekijöiden vuoksi.

Tekoälyhalusinaatiot eivät johdu tietoisesta tai alitajuisesta mielestä, kuten huomaat ihmisillä. Pikemminkin se johtuu tekoälyjärjestelmän koulutuksessa ja ohjelmoinnissa käytettyjen tietojen riittämättömyydestä tai riittämättömyydestä.