Asiantuntijat uskovat, että tekoäly lopettaa ihmiskunnan sellaisena kuin me sen tunnemme, joten mitä tehdään sen estämiseksi?

Jälleen kerran joukko johtavia tekoälyn tutkijoita ja teknologiayrityksiä on varoittanut, että tekoälyn nykyinen nopea kehitys voi aiheuttaa katastrofin ihmiskunnalle.

Riskit kattavat ydinkonfliktit, sairaudet, väärän tiedon ja valvonnan puutteen karanneet tekoälyt, jotka kaikki muodostavat välittömän uhan ihmisen selviytymiselle.

Mutta ei tule hukata, että monet näistä varoituksista ovat peräisin samoista ihmisistä, jotka johtavat tekoälykehitystä ja työntävät tekoälytyökaluja ja -ohjelmia omissa yrityksissään.

Miksi tekniikkayritykset ja tekoälytutkijat varoittavat tekoälyriskistä?

30. toukokuuta 2023 yli 350 tekoälyn tutkijaa, kehittäjää ja insinööriä julkaisi allekirjoitetun lausunnon, jossa varoitti tekoälyn ihmiskunnalle aiheuttamasta uhasta.

Tekoälyn aiheuttaman sukupuuttoon kuolemisen riskin lieventämisen tulisi olla globaali prioriteetti muiden yhteiskunnallisten riskien, kuten pandemioiden ja ydinsodan, rinnalla.

instagram viewer

Allekirjoittajat Safe.ai: n lausunto mukana Sam Altman OpenAI: sta, Demis Hassabis Google DeepMindistä ja Dario Amodei Anthropicista sekä Turing Palkinnon voittajat Geoffrey Hinton ja Yoshua Bengio (vaikka Yann LeCun, joka myös voitti saman palkinnon, jätti allekirjoittamatta). Lista on melkein kuka kuka tahansa tekoälykehitysmaailmasta – tekoälyn edelläkävijöitä –, mutta tässä he kaikki ovat varoittaen, että tekoäly voi aiheuttaa katastrofin ihmiskunnalle.

Se on lyhyt lausunto, joka tekee uhat selväksi ja mainitsee erityisesti kaksi avainaluetta, jotka voivat vaarantaa tuntemamme maailman: ydinsota ja globaalit terveysongelmat. Vaikka ydinkonfliktin uhka on huolestuttava, pandemian riski on konkreettisempi uhka useimmille.

Se ei kuitenkaan ole vain globaali pandemia, joka voi aiheuttaa tekoälyyn liittyviä terveysongelmia. Huoltaja raportoi useista muista tekoälyn terveysongelmista, jotka voivat vaikuttaa ihmisiin, jos niitä ei tarkisteta ennen laajaa käyttöä. Yksi esimerkki koski tekoälyllä toimivien oksimetrien käyttöä, joka "yliarvioi veren happipitoisuuden potilailla, joilla on tummempi iho, mikä johti heidän hypoksiansa alihoitoon".

Lisäksi tämä ei ole ensimmäinen kerta, kun joukko teknologiajohtajia on vaatinut tekoälyn kehityksen keskeyttämistä tai vakavaa uudelleenarviointia. Maaliskuussa 2023 Elon Musk ja muut tekoälytutkijat allekirjoittivat samanlaisen toimintakehotuksen pyytää tekoälyn kehittämisen keskeyttämistä, kunnes prosessia ohjataan lisää sääntelyä.

Mikä on AI: n riski?

Suurin osa tekoälyyn liittyvistä riskeistä, ainakin tässä yhteydessä, liittyy karanneen tekoälyteknologian kehittämiseen joka ylittää ihmisten kyvyt, jolloin se lopulta kääntyy luojansa päälle ja pyyhkii pois elämän, kuten tiedämme se. Se on tarina, jota on käsitelty lukemattomia kertoja tieteiskirjallisuudessa, mutta todellisuus on nyt lähempänä kuin uskommekaan.

Suurten kielimallien (jotka tukevat työkaluja, kuten ChatGPT: tä) ominaisuudet lisääntyvät rajusti. Kuitenkin, työkaluissa, kuten ChatGPT: ssä, on monia ongelmia, kuten luontainen ennakkoluulo, tietosuojahuolet ja tekoälyharha, puhumattakaan sen kyvystä murtautua toimimaan ohjelmoitujen käyttöehtojensa rajojen ulkopuolella.

Kun suuret kielimallit lisääntyvät ja niillä on enemmän tietopisteitä, joihin voi vedota, sekä Internet-yhteys ja enemmän Ymmärtääkseen ajankohtaiset tapahtumat, tekoälytutkijat pelkäävät, että se voisi jonain päivänä OpenAI: n toimitusjohtaja Sam Altmanin sanoin "meneä melko väärä."

Miten hallitukset säätelevät tekoälyn kehitystä estääkseen riskit?

Tekoälysääntely on avainasemassa riskien ehkäisyssä. Toukokuun alussa 2023 Sam Altman vaati lisää tekoälyn sääntelyä, jossa todetaan, että "hallitusten sääntelytoimet ovat ratkaisevan tärkeitä yhä tehokkaampien mallien riskien vähentämisessä."

Sitten Euroopan unioni julkaisi tekoälylain, asetus, joka on suunniteltu tarjoamaan paljon vahvemmat puitteet tekoälyn kehittämiselle kaikkialla EU: ssa (monet säädökset leviävät muille lainkäyttöalueille). Altman uhkasi aluksi vetää OpenAI: n pois EU: sta, mutta perui sitten uhkauksensa ja suostui siihen, että yritys noudattaisi hänen aiemmin pyytämiään tekoälysäännöksiä.

Siitä huolimatta on selvää, että tekoälyn kehittämisen ja käytön säätely on tärkeää.

Lopettaako tekoäly ihmiskunnan?

Koska suuri osa tätä aihetta koskevasta keskustelusta perustuu hypoteettisiin tekoälyn tulevien versioiden tehoon, on olemassa ongelmia, jotka liittyvät minkä tahansa tekoälysäädöksen pitkäikäisyyteen ja tehoon. Miten parhaiten säännellä toimialaa, joka liikkuu jo nopeudella tuhat mailia minuutissa ja läpimurtoja kehityksessä tapahtuu päivittäin?

Lisäksi on edelleen epäilyksiä tekoälyn kyvyistä yleensä ja mihin se päätyy. Pahinta pelkäävät viittaavat siihen, että yleisestä tekoälystä tulee ihmisen yliherra, kun taas toiset viittaavat siihen tosiasia, että tekoälyn nykyiset versiot eivät pysty edes suorittamaan matemaattisia peruskysymyksiä ja että täysin itse ajavat autot ovat edelleen tapa vinossa.

On vaikea olla samaa mieltä tulevaisuuteen katsovien kanssa. Monet ihmisistä, jotka huutavat kovimmin tekoälyn aiheuttamista ongelmista, ovat kuljettajan paikalla ja katsovat, minne saatamme olla menossa. Jos he vaativat tekoälysääntelyä suojellakseen meitä mahdollisesti kauhealta tulevaisuudelta, saattaa olla aika kuunnella.