Tekoäly ei ole valmis pyyhkimään meitä pois... vielä.

Tekoäly on ollut keskustelunaihe alusta lähtien. Vaikka pelot Skynetin kaltaisen tekoälyn heräämisestä henkiin ja ihmiskunnan valtaamisesta ovat vähintäänkin järjettömiä, jotkut kokeet ovat tuottaneet huolestuttavia tuloksia.

Yksi tällainen kokeilu on paperiliittimen maksimointiongelma, ajatuskoe, joka osoittaa, että erittäin älykäs tekoäly, vaikka se olisi suunniteltu täysin ilman ilkeyttä, voi lopulta tuhota ihmiskunnan.

Paperiliittimen maksimointiongelma selitetty

Tätä ajatuskokeilua, jonka mukaan jopa täysin vaaraton tekoäly voisi lopulta pyyhkiä ihmiskunnan pois, kutsuttiin ensin Paperclip Maximizeriksi yksinkertaisesti siksi, että paperiliittimiä valittiin näyttämään. mitä tekoäly voisi tehdä, koska niillä on vain vähän ilmeistä vaaraa eivätkä ne aiheuta henkistä kärsimystä verrattuna muihin aloihin, joita tämä ongelma koskee, kuten syövän parantaminen tai voittaminen sodat.

Ensimmäinen kokeilu julkaistiin ruotsalaisen filosofin Nick Bostromin vuoden 2003 artikkelissa,

instagram viewer
Kehittyneen tekoälyn eettiset kysymykset, joka sisälsi paperiliittimen maksimitoiminnon, joka näyttää eksistentiaaliset riskit, joita riittävän edistynyt tekoäly voisi käyttää.

Ongelma esitti tekoälyn, jonka ainoana tavoitteena oli tehdä mahdollisimman paljon paperiliittimiä. Riittävän älykäs tekoäly tajuaisi ennemmin tai myöhemmin, että ihmiset asettavat haasteen sen tavoitteelle kolmella eri tavalla.

  • Ihminen voisi sammuttaa tekoälyn.
  • Ihminen voi muuttaa tavoitteitaan.
  • Ihminen on tehty atomeista, joista voidaan tehdä paperiliittimiä.

Kaikissa kolmessa esimerkissä maailmankaikkeudessa olisi vähemmän paperiliittimiä. Siksi riittävän älykäs tekoäly, jonka ainoana tavoitteena on tehdä mahdollisimman paljon paperiliittimiä ottaisi haltuunsa kaiken ulottuvilla olevan aineen ja energian ja estäisi itsensä sulkeutumasta tai muuttunut. Kuten voit luultavasti arvata, tämä on paljon vaarallisempaa kuin rikolliset, jotka käyttävät ChatGPT: tä pankkitilisi tai tietokoneesi hakkerointiin.

Tekoäly ei ole vihamielinen ihmisille; se on vain välinpitämätöntä. Tekoäly, joka välittää vain paperiliittimien määrän maksimoimisesta, pyyhkiisi ihmiskunnan pois ja muuttaisi ne olennaisesti paperiliittimiksi saavuttaakseen tavoitteensa.

Kuinka paperiliittimen maksimointiongelma koskee tekoälyä?

Tutkimus- ja kokeilumaininnat paperiliittimen maksimointiongelmasta mainitsevat tässä toimijana hypoteettisen erittäin tehokkaan optimoijan tai erittäin älykkään agentin. Silti ongelma koskee tekoälyä niin paljon kuin se sopii rooliin täydellisesti.

Ajatus paperiliittimen maksimoinnista luotiin osoittamaan joitain edistyneen tekoälyn vaaroja. Kaiken kaikkiaan siihen liittyy kaksi ongelmaa.

  • Ortogonaalisuuden opinnäytetyö: Ortogonaalisuuden teesi on näkemys, jonka mukaan äly ja motivaatio eivät ole toisistaan ​​riippuvaisia. Tämä tarkoittaa, että on mahdollista, että tekoäly, jolla on korkea yleinen älykkyys, ei pääse samoihin moraalisiin johtopäätöksiin kuin ihmiset.
  • Instrumentaalinen konvergenssi: Instrumentaalinen konvergenssi määritellään taipumuksena useimpien riittävän älykkäiden olentojen kohdalla (molemmat ihmisille ja ei-inhimillisille) tavoittelemaan samanlaisia ​​osatavoitteita, vaikka niiden perimmäinen tavoite voisi olla täydellinen eri. Paperiliittimen maksimointiongelman tapauksessa tämä tarkoittaa, että tekoäly ottaa haltuunsa jokaisen luonnonvarat ja ihmiskunnan pyyhkiminen pois vain saavuttaakseen tavoitteensa luoda enemmän ja enemmän paperiliittimet.

Paperiliittimen maksimoijan korostama suurempi ongelma on instrumentaalinen konvergenssi. Sitä voidaan myös korostaa käyttämällä Riemmannin hypoteesia, jolloin hypoteesin ratkaisemiseen suunniteltu tekoäly saattaa hyvinkin päättää ottaa haltuunsa kaiken Maan massa ja muuntaa se tietokoneeksi (tehokkaimmat mahdolliset tietokoneprosessorit) supertietokoneiden rakentamiseksi ongelman ratkaisemiseksi ja sen saavuttamiseksi. päämäärä.

Bostrom itse on korostanut, että hän ei usko, että paperiliittimen maksimointiongelmasta tulee koskaan todellinen ongelma, mutta hänen tarkoituksenaan oli havainnollistaa superälykkäiden koneiden luomisen vaaroja tietämättä kuinka ohjata tai ohjelmoida niitä olemaan eksistentiaalisesti vaarallisia ihmisille olentoja. Nykyaikaisilla tekoälyjärjestelmillä, kuten ChatGPT: llä, on myös ongelmia, mutta ne ovat kaukana superälykkäistä tekoälyjärjestelmistä, joista puhutaan paperiliittimen maksimointiongelmassa, joten paniikkiin ei ole vielä syytä.

Kehittyneet tekoälyjärjestelmät tarvitsevat ylivoimaista ohjausta

Paperiliittimen maksimointiongelma päätyy aina samaan johtopäätökseen ja korostaa erittäin älykkään ja tehokkaan järjestelmän, josta puuttuu inhimillisiä arvoja, hallinnan ongelmia.

Vaikka paperiliittimien käyttö saattaa olla suosituin tapa havainnollistaa ongelmaa, se pätee useisiin tehtäviin voisi antaa tekoälylle, oli se sitten syövän poistaminen, sotien voittaminen, puiden istuttaminen tai mikä tahansa muu tehtävä, olipa se kuinka näennäinen tahansa tyhmä.