Tekoälyn tuntemuksesta käydyt keskustelut eivät ole mitään uutta, mutta uutiset Googlen tekoäly LaMDA: sta ovat sytyttäneet liekkejä. Kun insinööri väitti, että botti oli tajuissaan, vaikka sillä oli sielu, joitain tuttuja kysymyksiä on jälleen noussut esiin.

Voiko LaMDA: n kaltainen tekoäly todella olla tunteva tai itsetietoinen, ja jos on, mistä voit kertoa? Onko sillä väliä?

Mikä on LaMDA?

LaMDA, lyhenne sanoista Language Model for Dialogue Applications, ilmestyi ensimmäisen kerran vuonna 2021 Googlen kehittäjäkonferenssissa. Kehittyneen tekoälyjärjestelmän oletetaan auttavan rakentamaan muita pienempiä chatbotteja. Kun Google esitteli sen ensimmäisen kerran, se ilmoitti suunnitelmistaan ​​integroida se kaikkeen, mikä auttaa palveluita, kuten Google Assistant ja Search, tuntemaan olonsa inhimillisemmäksi tai ainakin luonnollisemmaksi.

Kun Googlen insinööri Blake Lemoine puhui LaMDA: n kanssa nähdäkseen, käyttikö se vihapuhetta, hän sai toisenlaisen vaikutelman. Lemoine väitti, että LaMDA oli tunteva, ja jos hän ei tietäisi, että se oli botti, hän luulisi sen olevan kahdeksanvuotias lapsi.

LaMDA: n kanssa käytyjen keskustelujensa jälkeen Lemoine yritti todistaa, että se oli tietoinen ja puolustaa sen laillisia oikeuksia, joita hän uskoi olevan. Vastauksena Google myönsi Lemoinen palkalliselle hallinnolliselle lomalle salassapitosopimusten rikkomisen vuoksi.

Onko LaMDA todella tunteva?

Joten onko LaMDA todella tunteva? Useimmat asiaa käsitellyt asiantuntijat ovat skeptisiä. LaMDA on erittäin edistynyt AI-chat-alusta, joka analysoi biljoonia sanoja Internetistä, joten se on taitava kuulostamaan oikealta henkilöltä.

Tämä ei ole ensimmäinen kerta, kun Googlen tekoäly on huijannut ihmiset ajattelemaan, että se on ihminen. Vuonna 2018 Google esitteli Duplex AI: ta soittamalla ravintolaan varaamaan pöydän. Toisessa päässä oleva työntekijä ei missään vaiheessa epäillyt, että hän puhui jonkun kanssa.

Tunteen määrittäminen on vaikeaa, vaikka useimmat ihmiset epäilen, että tekoäly on saavuttanut sen pisteen vielä. Tärkeä kysymys ei kuitenkaan ehkä ole se, onko LaMDA todella tunteva, vaan mitä eroa sillä on, jos se voi huijata ihmiset ajattelemaan, että se on.

LaMDA: n mahdolliset oikeudelliset vaikutukset

LaMDA: n tilanne herättää paljon juridisia ja eettisiä kysymyksiä. Ensinnäkin jotkut ihmiset saattavat kyseenalaistaa, oliko Google oikeassa jättäessään Lemoinen lomalle, koska hän puhui asiasta.

New Yorkin työlain pykälän 740 mukaan ilmiantajien suoja suojelee työntekijöitä seurauksia, jos he uskovat työnantajansa käytäntöjen rikkovan lakia tai aiheuttavan merkittävän riskin yleisölle turvallisuutta. LaMDA: n oletettu järki ei täysin täytä tätä lakisääteistä vaatimusta, mutta pitäisikö sen olla?

Tekoälyoikeuksien antaminen on hankala aihe. Vaikka tekoäly voi luoda asioita ja näyttää ihmiseltä, voit joutua monimutkaisiin tilanteisiin, jos näillä koneilla on laillinen suoja. Lailliset oikeudet perustuvat palkkioihin ja rangaistuksiin, jotka eivät vaikuta tekoälyyn, mikä vaikeuttaa oikeudenmukaisuutta.

Jos itse ajava auto törmää jalankulkijaan, onko tekoäly syyllinen, jos laki kohtelee sitä ihmisenä? Ja jos on, se ei anna uhrille tiukasti oikeutta, koska et voi teknisesti rangaista tekoälyä samalla tavalla kuin ihmistä.

Toinen kysymys, joka nousee esiin LaMDA: n ja vastaavien AI-chatbottien kanssa, on niiden turvallisuus. Jos nämä robotit vaikuttavat vakuuttavan todellisilta, ihmiset voivat luottaa niihin enemmän ja olla valmiita antamaan niitä arkaluontoisempaa tietoa. Tämä avaa oven suurelle määrälle yksityisyyttä ja turvallisuutta koskevia huolenaiheita, jos tämä tekniikka joutuu vääriin käsiin.

Tekoäly esittelee monimutkaisia ​​eettisiä kysymyksiä

Tekoälyt, kuten LaMDA, muuttuvat jatkuvasti kehittyneemmiksi ja todenmukaisemmiksi. Tämän suuntauksen kasvaessa yritysten ja lainsäätäjien tulisi arvioida uudelleen, miten he kohtelevat tekoälyä ja kuinka nämä päätökset voivat vaikuttaa oikeuteen ja turvallisuuteen.

Nykyisessä muodossaan Googlen LaMDA AI ei ehkä ole tunnollinen, mutta se on tarpeeksi hyvä huijaamaan ihmiset ajattelemaan niin, minkä pitäisi herättää hälytyksiä.