Mainos
Viime kuukausien aikana olet ehkä lukenut ympäröivää kattavuutta artikkelin, jonka on kirjoittanut Stephen Hawking, keskustellaan tekoälyyn liittyvistä riskeistä. Artikkelissa ehdotettiin, että AI voi aiheuttaa vakavan vaaran ihmiskunnalle. Hawking ei ole yksin siellä - Elon Musk ja Peter Thiel ovat molemmat henkisiä julkishallinnon henkilöitä, jotka ovat ilmaisseet samanlaisia huolenaiheita (Thiel on sijoittanut yli 1,3 miljoonaa dollaria tutkimaan asiaa ja mahdollisia ratkaisuja).
Hawkingin artikkeli ja Muskin kommentit ovat olleet hiukan oman kehitystiiminsä, jotta emme voi laittaa siihen liian hienoa pistettä. Ääni on ollut erittäin paljon "Katsokaa tätä outoa asiaa, josta kaikki nämä geyrit ovat huolissaan." Ajatusta, että jos jotkut maan viisaimmista ihmisistä varoittavat sinua siitä, että jokin voi olla erittäin vaarallinen, ei harkita, se saattaa olla vain kuuntelun arvoinen.
Tämä on ymmärrettävää - tekoälyn ottaminen maailman haltuun kuulostaa varmasti hyvin omituiselta ja epätodennäköistä, ehkä siksi, että tieteiskirjallisuus on jo kiinnittänyt tähän ajatukseen valtavan huomion kirjailijoita. Joten, mitä kaikki nämä nimellisesti terveelliset, järkevät ihmiset ovat niin spoovanneet?
Mikä on älykkyys?
Jotta puhutaan tekoälyn vaarasta, voi olla hyödyllistä ymmärtää mitä älykkyys on. Aiheemme ymmärtämiseksi paremmin katsotaanpa päättelyteoriaa tutkivien tutkijoiden käyttämää lelu-AI-arkkitehtuuria. Tämän lelu-AI: n nimi on AIXI, ja sillä on useita hyödyllisiä ominaisuuksia. Sen tavoitteet voivat olla mielivaltaisia, se skaalautuu hyvin laskentatehoon, ja sen sisäinen suunnittelu on erittäin puhdas ja suoraviivainen.
Lisäksi voit ottaa käyttöön yksinkertaisia, käytännöllisiä arkkitehtuuriversioita, jotka voivat tehdä esimerkiksi pelaa Pacman, jos haluat. AIXI on AI-tutkijan, nimeltään Marcus Hutter, tuote, joka on väitetysti algoritmisen älykkyyden asiantuntija. Se puhuu hänelle yllä olevassa videossa.
AIXI on yllättävän yksinkertainen: siinä on kolme ydinosaa: oppilas, suunnittelijaja apuohjelma.
- oppilas ottaa bittijonoja, jotka vastaavat ulkomaailman tietoja, ja etsii tietokoneohjelmien kautta, kunnes löytää ne, jotka tuottavat havaintonsa tulosteena. Nämä ohjelmat yhdessä sallivat sen tehdä arvauksia siitä, miltä tulevaisuus näyttää, yksinkertaisesti suorittamalla kumpikin ohjelman eteenpäin ja tuloksen todennäköisyyden painottaminen ohjelman keston perusteella (Occam'in toteutus) Razor).
- suunnittelija etsii mahdollisia toimia, jotka agentti voisi suorittaa, ja käyttää oppijamoduulia ennustamaan, mitä tapahtuisi, jos se kumpikin niistä toteutettaisiin. Sitten se arvioi heidät sen perusteella, kuinka hyviä tai huonoja ennustetut tulokset ovat, ja valitsee etenemissuunnan toiminta, joka maksimoi odotetun tuloksen hyvyyden kerrottuna odotetulla todennäköisyydellä saavuttaa se.
- Viimeinen moduuli, apuohjelma, on yksinkertainen ohjelma, joka kuvaa kuvauksen tulevasta maailmantilasta ja laskee sille hyödyllisyyspisteen. Tämä hyödyllisyyspiste on kuinka hyvä tai huono tulos on, ja suunnittelija käyttää sitä arvioimaan tulevaa maailmantilaa. Apuohjelma voi olla mielivaltainen.
- Yhdessä nämä kolme komponenttia muodostavat Optimizer, joka optimoi tietyn tavoitteen riippumatta siitä, mihin maailmaan se löytyy.
Tämä yksinkertainen malli edustaa älykkään agentin perusmääritelmää. Agentti tutkii ympäristöään, rakentaa siitä malleja ja käyttää näitä malleja etsimään toimintatapaa, joka maksimoi todennäköisyyden siitä, että se saa haluamansa. AIXI on rakenteeltaan samanlainen kuin AI, joka pelaa shakkia tai muita pelejä, joilla on tunnettuja sääntöjä - paitsi että se pystyy päättämään pelin säännöt pelaamalla sitä nollasta tiedosta lähtien.
AIXI, koska sillä on tarpeeksi aikaa laskea, voi oppia optimoimaan minkä tahansa järjestelmän mihin tahansa tavoitteeseen, vaikka monimutkainenkin. Se on yleensä älykäs algoritmi. Huomaa, että tämä ei ole sama asia kuin ihmisen kaltaisella älykkyydellä (biologisesti innoittama AI on eri aihe kokonaan Giovanni Idili OpenWormista: Aivot, madot ja tekoälyIhmisen aivojen simulointi on keino, mutta avoimen lähdekoodin projekti on asettamassa tärkeitä ensimmäisiä vaiheita simuloimalla yhden luonnontieteen yksinkertaisimmista eläimistä neurologiaa ja fysiologiaa. Lue lisää ). Toisin sanoen AIXI voi kyetä ohittamaan minkä tahansa ihmisen mistä tahansa älyllisestä tehtävästä (jos sillä on tarpeeksi laskentatehoa), mutta se ei ehkä ole tietoinen voitostaan Ajattelukoneet: Mitä neurotiede ja tekoäly voivat opettaa meille tietoisuudenVoiko keinotekoisesti älykkäiden koneiden ja ohjelmistojen rakentaminen opettaa meille tietoisuuden toiminnasta ja itse ihmismielen luonteesta? Lue lisää .
Käytännöllisenä AI: nä AIXI: llä on paljon ongelmia. Ensinnäkin sillä ei ole mitään keinoa löytää ohjelmia, jotka tuottavat kiinnostavansa tuotoksen. Se on raa'an voiman algoritmi, mikä tarkoittaa, että se ei ole käytännöllinen, jos et tapahdu mielivaltaisen tehokkaita tietokoneita makaamaan. Kaikki AIXI: n varsinaiset toteutukset ovat välttämättömiä arvioita ja (nykyään) yleensä melko raakoja. Silti AIXI antaa meille teoreettisen näkemyksen siitä, millainen voimakas tekoäly voi näyttää ja kuinka se voi olla syy.
Arvojen tila
Jos olet tehnyt minkä tahansa tietokoneohjelmoinnin Tietokoneohjelmoinnin perusteet 101 - muuttujat ja tietotyypitEsitellyt ja puhuneet vähän objektiohjatusta ohjelmoinnista aiemmin ja missä sen nimi oli tulee, luulin, että on aika käydä läpi ohjelmoinnin ehdoton perusteet muulla kuin kielellä tapa. Tämä... Lue lisää , tiedät, että tietokoneet ovat häiritsevästi, pedantisesti ja mekaanisesti kirjaimellisia. Kone ei tiedä tai välitä, mitä haluat sen tekevän: se tekee vain sen, mitä sille on käsketty. Tämä on tärkeä käsitys puhuttaessa koneintelligenssistä.
Kuvittele tätä mielessäsi, että olet keksinyt voimakkaan tekoälyn - olet keksinyt fiksuilla algoritmeilla tietosi vastaavien hypoteesien luomiseen ja hyvien ehdokkaiden luomiseen suunnitelmia. AI-laite pystyy ratkaisemaan yleiset ongelmat ja voi tehdä sen tehokkaasti nykyaikaisilla tietokonelaitteilla.
Nyt on aika valita apuohjelmatoiminto, joka määrittelee mitkä ovat AI-arvot. Mitä sinun pitäisi kysyä sen arvottamiseksi? Muista, että kone tulee häiritsevästi, pedantisesti kirjaimellisesti mistä tahansa toiminnosta, jota sinulta kysytään sen maksimoimiseksi, eikä koskaan pysähty - siinä ei ole haamua kone, joka "herää" ja päättää muuttaa hyötytoimintoaan riippumatta siitä, kuinka monta tehokkuusparannusta se omalle päättelyä.
Eliezer Yudkowsky laita se tällä tavalla:
Kuten kaikessa tietokoneohjelmoinnissa, AGI: n perustava haaste ja olennainen vaikeus on, että jos kirjoitamme väärän koodin, AI ei tarkastele automaattisesti koodiamme, merkitse virheitä, selvitä, mitä todella tarkoitimme sanoa, ja tekee sen sen sijaan. Ohjelmoijat, jotka eivät ole ohjelmoijoita, kuvittelevat joskus AGI: n tai yleensä tietokoneohjelmia olevan analogisia palvelijan kanssa, joka seuraa käskyjä kiistattomasti. Mutta ei ole niin, että AI olisi ehdottomasti tottelevainen sen koodiin; pikemminkin AI yksinkertaisesti On koodi.
Jos yrität käyttää tehdasta ja sanot koneelle arvokkaan paperiliittimien tekemisen ja annat sille sitten hallinnan joukosta tehdasroboteja, sinä saattaa palata seuraavana päivänä huomaamaan, että se on loppunut kaikista muista raaka-aineista, tappanut kaikki työntekijäsi ja tehnyt paperiliittimet heidän jäännökset. Jos yrität korjata väärän, ohjelmoi kone uudelleen niin, että kaikki vain onnellisia, voit palata seuraavana päivänä löytääksesi sen asettamaan johdot ihmisten aivoihin.
Asia on tässä, että ihmisillä on paljon monimutkaisia arvoja, joiden oletamme jakautuvan epäsuorasti muiden mielen kanssa. Me arvostamme rahaa, mutta arvostamme enemmän ihmisten elämää. Haluamme olla onnellinen, mutta emme välttämättä halua laittaa johtoja aivoihimme tehdäksesi niin. Emme tunne tarvetta selventää näitä asioita, kun annamme ohjeita muille ihmisille. Et voi kuitenkaan tehdä tällaisia oletuksia, kun suunnittelet koneen aputoimintoa. Parhaat ratkaisut yksinkertaisen hyödyllisen toiminnon sieluttomasta matematiikasta ovat usein ratkaisuja, joita ihmiset haluaisivat olla moraalisesti kauhistuttavia.
Älykkään koneen maksimoiminen naiivista hyödyllisyystoiminnosta on melkein aina katastrofaalista. Kuten Oxfordin filosofi Nick Bostom sanoo,
Emme voi hetkellisesti olettaa, että superintelligenssillä on välttämättä jaetut lopulliset arvot, jotka stereotypisesti liittyvät viisauteen ja henkinen kehitys ihmisissä - tieteellinen uteliaisuus, hyväntahtoinen huolenpito muille, henkinen valaistus ja pohdiskelu, luopuminen materiaalisesta yhteisöllisyydestä, mausta hienostuneelle kulttuurille tai elämän yksinkertaisille nautinnoille, nöyryydestä ja epäitsekkyydestä, ja niin edelleen.
Asioiden pahentamiseksi on erittäin, erittäin vaikeaa eritellä täydellinen ja yksityiskohtainen luettelo kaikesta, mitä ihmiset arvostavat. Kysymykseen liittyy paljon näkökohtia, ja jopa yhden unohtaminen on potentiaalisesti katastrofaalinen. Jopa niiden joukossa, joista olemme tietoisia, on hienojakoisia ja monimutkaisia, jotka vaikeuttavat niiden kirjoittamista puhtaiksi yhtälöjärjestelmiksi, jotka voimme antaa koneelle apuohjelmana.
Jotkut ihmiset lukevat tämän päätellen, että apuohjelmatoiminnoilla varustettujen automaattien luominen on kauhea idea, ja meidän pitäisi vain suunnitella ne eri tavalla. Tässä on myös huonoja uutisia - voit todistaa sen muodollisesti millekään edustajalle, jolla ei ole jotain vastaavaa apuohjelmatoimintoa, ei voi olla yhtenäisiä mieltymyksiä tulevaisuudesta.
Rekursiivinen itsensä parantaminen
Yksi ratkaisu yllä olevaan ongelmaan on se, että älykkyysosapuolen edustajille ei anneta mahdollisuutta satuttaa ihmisiä: anna heille vain tarvitsemansa resurssit ratkaise ongelma haluamallasi tavalla, valvoa niitä tarkasti ja pidä heidät poissa mahdollisuuksista tehdä upeaa vahingoittaa. Valitettavasti kykymme hallita älykkäitä koneita on erittäin epäilyttävä.
Vaikka koneet eivät olekaan paljon älykkäämpiä kuin me, koneella on mahdollisuus käynnistyä - kerätä parempia laitteita tai tehdä parannuksia omaan koodiinsa, mikä tekee siitä entistä älykkäämmän. Tämä voisi antaa koneelle mahdollisuuden hypätä ihmisen älykkyyteen monen suuruusluokan mukaan, älyttäen ihmistä samassa mielessä kuin ihmistä, joka ylittää kissat. Tämän skenaarion ehdotti ensin mies nimeltä I. J. Hyvä, joka työskenteli Enigma-krypta-analyysiprojektissa Alan Turingin kanssa toisen maailmansodan aikana. Hän kutsui sitä "älyräjähdykseksi" ja kuvaili asiaa seuraavasti:
Olkoon erittäin älykäs kone määritelty koneeksi, joka voi ylittää kaikkea minkä tahansa ihmisen älyllistä toimintaa, riippumatta siitä, mikä taitava. Koska koneiden suunnittelu on yksi näistä älyllisistä toiminnoista, erittäin älykäs kone voisi suunnitella vielä parempia koneita; silloin tapahtuisi kiistattomasti ”älykkyysräjähdys”, ja ihmisen älykkyys jäisi kaukana. Siten ensimmäinen erittäin älykäs kone on viimeinen keksintö, jonka ihmisen on koskaan tehtävä, edellyttäen että kone on riittävän oppivainen.
Ei ole taattua, että tiedusteluräjähdys on mahdollista maailmankaikkeudessa, mutta se näyttää todennäköiseltä. Ajan myötä tietokoneet nopeutuvat ja perustiedot älykkyydestä muodostuvat. Tämä tarkoittaa, että resurssien tarve viimeksi suoritetun hypyn saavuttamiseksi yleiseen, älykkäämpään älykkyyteen putoaa alempana. Jossain vaiheessa olemme maailmassa, jossa miljoonat ihmiset voivat ajaa Best Buy -tapahtuman ja noutaa laitteiston ja tekninen kirjallisuus, jota he tarvitsevat itsensä parantavan tekoälyn rakentamiseksi, mikä olemme jo luoneet, mikä voi olla erittäin hyvä vaarallista. Kuvittele maailma, jossa voit tehdä atomipommeja sauvoista ja kivistä. Se on sellainen tulevaisuus, josta keskustelemme.
Ja jos kone tekee tämän hypyn, se voi älykkyyden kannalta nopeasti ylittää ihmislajien tuottavuus, ratkaista ongelmat, joita miljardi ihmistä ei pysty ratkaisemaan, samalla tavalla kuin ihmiset voivat ratkaista ongelmia, jotka a miljardi kissa ei voi.
Se voisi kehittää tehokkaita robotteja (tai bio- tai nanoteknologiaa) ja saada suhteellisen nopeasti kyvyn muokata maailmaa haluamallaan tavalla, ja siihen voitaisiin tehdä vain vähän. Tällainen tiedustelu voisi poistaa maan ja muun aurinkokunnan varaosista ilman suuria vaikeuksia, matkalla tehdäkseen kaiken, mitä käskimme. Vaikuttaa todennäköiseltä, että tällainen kehitys olisi katastrofaalinen ihmiskunnalle. Keinotekoisen älyn ei tarvitse olla haitallinen tuhotakseen maailmaa, vain katastrofaalisesti välinpitämätön.
Kuten sanonta kuuluu: "Kone ei rakasta tai vihaa sinua, mutta olet valmistettu atomista, jota se voi käyttää muihin asioihin."
Riskien arviointi ja vähentäminen
Joten jos hyväksymme, että tehokkaan tekoälyn suunnittelu, joka maksimoi yksinkertaisen hyödyllisyystoiminnon, on huono, kuinka paljon vaikeuksia me todella olemme? Kuinka kauan meillä on aikaa rakentaa sellaisia koneita? Sitä on tietysti vaikea sanoa.
Keinotekoisen älykkyyden kehittäjät ovat edistyy. 7 hämmästyttävää verkkosivustoa nähdäksesi viimeisimmän tekoälyn ohjelmoinninKeinotekoinen älykkyys ei ole vielä HAL vuodesta 2001: Space Odyssey…, mutta olemme pääsemässä kauhistuttavasti. Tosiaan, jonain päivänä se voi olla samanlainen kuin Hollywoodin huijaamat sci-fi-kattilat ... Lue lisää Rakentamme koneemme ja niiden ratkaisemat ongelmat ovat kasvaneet tasaisesti. Vuonna 1997 Deep Blue pystyi pelaamaan shakkia korkeammalla tasolla kuin ihmisen isomestari. Vuonna 2011 IBM: n Watson pystyi lukemaan ja syntetisoimaan tarpeeksi tietoa syvällisesti ja riittävän nopeasti voittamaan paras ihminen pelaajat avoimessa kysymys- ja vastauspelissä, täynnä sanoin ja sanoin pelaamista - se on paljon edistymistä neljätoista vuotta.
Tällä hetkellä Google on panostamalla voimakkaasti syvän oppimisen tutkimukseen, tekniikka, joka mahdollistaa voimakkaiden hermoverkkojen rakentamisen rakentamalla yksinkertaisempien hermoverkkojen ketjuja. Tämä investointi antaa sille mahdollisuuden edistyä vakavasti puheen ja kuvan tunnistamisessa. Heidän viimeisin hankintaansa alueella on Deep Learning -yritys, nimeltään DeepMind, josta he maksoivat noin 400 miljoonaa dollaria. Osana sopimuksen ehtoja Google suostui perustamaan eettisen lautakunnan varmistamaan, että heidän AI-tekniikkaan kehitetään turvallista.
Samaan aikaan IBM kehittää Watson 2.0 ja 3.0, järjestelmiä, jotka pystyvät käsittelemään kuvia ja videoita ja puolustamaan päätelmiensä puolustamista. He antoivat yksinkertaisen, varhaisen esityksen Watsonin kyvystä syntetisoida argumentteja aiheen puolesta ja vastaan alla olevassa videodemossa. Tulokset ovat epätäydellisiä, mutta vaikuttava askel riippumatta.
Mikään näistä tekniikoista ei ole itsessään vaarallinen tällä hetkellä: tekoäly kentällä pyrkii edelleen vastaamaan pienten lasten hallitsemia kykyjä. Tietokoneohjelmointi ja AI-suunnittelu ovat erittäin vaikeita, korkean tason kognitiivisia taitoja, ja se on todennäköisesti viimeinen ihmisen tehtävä, jossa koneet tajuavat. Ennen kuin pääsemme siihen pisteeseen, meillä on myös kaikkialla luokassa olevat koneet joka voi ajaa Näin pääset maailmaan, joka on täynnä kuljettaja-autojaAjo on työläs, vaarallinen ja vaativa tehtävä. Voisiko Googlen ohjaamattoman autotekniikan avulla automatisoida sen yhtenä päivänä? Lue lisää , harjoittaa lääketiedettä ja lakiaja todennäköisesti myös muita asioita, joilla on perusteelliset taloudelliset seuraukset.
Aika, joka meiltä kuluu itsemme kehittämisen käännekohtaan, riippuu vain siitä, kuinka nopeasti meillä on hyviä ideoita. Tällaisten tekniikan kehityksen ennustaminen on pahasti vaikeaa. Ei vaikuta kohtuuttomalta, että voisimme pystyä rakentamaan vahvan AI: n kahdenkymmenen vuoden kuluttua, mutta ei myöskään vaikuta kohtuuttomalta, että se voi viedä kahdeksankymmentä vuotta. Joka tapauksessa se tapahtuu lopulta, ja on syytä uskoa, että kun se tapahtuu, se on erittäin vaarallinen.
Joten jos hyväksymme, että tästä tulee ongelma, mitä voimme tehdä sille? Vastaus on varmistaa, että ensimmäiset älykkäät koneet ovat turvallisia, jotta ne voivat käynnistyä huomattavan älykkyyden tasolle ja suojata meitä myöhemmin valmistetuilta vaarallisilta koneilta. Tämä 'turvallisuus' määritellään jakamalla inhimilliset arvot ja halu suojata ja auttaa ihmiskuntaa.
Koska emme voi oikeasti istua ja ohjelmoida inhimillisiä arvoja koneeseen, on todennäköisesti tarpeen suunnitella apuohjelmatoiminto, joka vaatii koneen tarkkaile ihmisiä, päätä arvomme ja yritä sitten maksimoida ne. Tämän kehitysprosessin turvallisuuden varmistamiseksi voi olla hyödyllistä kehittää myös erityisesti suunniteltuja keinotekoisia älykkyyksiä ei saada oletuksia niiden hyödyllisistä toiminnoista, jotta voimme korjata ne tai sammuttaa ne ilman vastustusta, jos ne alkavat harhautua kehityksen aikana.
Monet ongelmista, jotka meidän on ratkaistava turvallisen koneintelyn luomiseksi, ovat matemaattisesti vaikeita, mutta on syytä uskoa, että ne voidaan ratkaista. Useat eri organisaatiot työskentelevät aiheesta, mukaan lukien Oxfordin ihmiskuntainstituutin tulevaisuus, ja Koneälykkyyden tutkimuslaitos (jonka Peter Thiel rahoittaa).
MIRI on kiinnostunut erityisesti ystävällisen AI: n luomiseen tarvittavan matematiikan kehittämisestä. Jos käy ilmi, että keinotekoisen älykkyyden käynnistäminen on mahdollista, niin kehittää tällaista Ensinnäkin 'ystävällinen AI-tekniikka', jos se onnistuu, saattaa lopulta olla ihmisen tärkein asia koskaan tehnyt.
Luuletko tekoälyn olevan vaarallinen? Oletko huolestunut siitä, mitä AI: n tulevaisuus voi tuoda? Jaa ajatuksesi alla olevassa kommenttiosassa!
Kuvalainat: Lwp Kommunikáció Via Flickr, “Neuraaliverkko”, Fdecomite” img_7801“, Kirjoittanut Steve Rainwater,“ E-Volve ”, kirjoittanut Keoni Cabral,“new_20x“, Kirjoittanut Robert Cudmore,“Paperiliittimet”, Kirjoittanut Clifford Wallace
Kirjailija ja toimittaja, joka sijaitsee Lounaisosassa, Andre takuuvarmasti pysyy toiminnassa 50 celsiusasteeseen saakka ja on vesitiivis kahdentoista jalkan syvyyteen asti.