Kun nykyaikaiset tekoälymallit, kuten ChatGPT ja Microsoftin Bing Chat, leviävät ympäri maailmaa, monet ihmiset ovat huolissaan tekoälyn valtaamisesta maailman.

Vaikka emme törmää SkyNetiin lähitulevaisuudessa, tekoäly on tulossa ihmisiä paremmaksi useissa asioissa. Tässä kohtaa tekoälyn hallintaongelma tulee esiin.

AI Control -ongelma selitetty

Tekoälyn hallintaongelma on ajatus, että tekoäly tulee lopulta tekemään päätöksiä paremmin kuin ihmiset. Tämän teorian mukaan, jos ihmiset eivät aseta asioita oikein etukäteen, meillä ei ole mahdollisuutta korjata asioita myöhemmin, mikä tarkoittaa, että tekoälyllä on tehokas hallinta.

Nykyinen tekoäly- ja koneoppimismallien tutkimus on ainakin vuosien kuluttua ylittänyt ihmisen kyvyt. On kuitenkin järkevää ajatella, että nykyisen edistyksen valossa tekoäly ylittää ihmisen sekä älykkyyden että tehokkuuden suhteen.

Tämä ei tarkoita, etteikö AI- ja ML-malleilla olisi rajojaan. He ovat loppujen lopuksi fysiikan ja laskennallisen monimutkaisuuden lakeja sekä näitä järjestelmiä tukevien laitteiden prosessointitehoa sitovia. On kuitenkin turvallista olettaa, että nämä rajat ylittävät paljon ihmisen kyvyt.

Tämä tarkoittaa, että superälykäs Tekoälyjärjestelmät voivat muodostaa suuren uhan jos sitä ei ole suunniteltu oikein, ja siinä on suojalaitteet mahdollisen rikollisen toiminnan tarkistamiseksi. Tällaisia ​​järjestelmiä on rakennettava alusta alkaen inhimillisten arvojen kunnioittamiseksi ja niiden voiman pitämiseksi kurissa. Tätä ohjausongelma tarkoittaa, kun se sanoo, että asiat on asetettava oikein.

Jos tekoälyjärjestelmä ylittäisi ihmisen älykkyyden ilman asianmukaisia ​​suojatoimia, seuraus voisi olla katastrofaalinen. Tällaiset järjestelmät voisivat ottaa fyysisten resurssien hallinnan, koska monet tehtävät suoritetaan paremmin tai tehokkaammin. Koska tekoälyjärjestelmät on suunniteltu saavuttamaan maksimaalinen tehokkuus, hallinnan menettäminen voi johtaa vakaviin seurauksiin.

Milloin AI-hallintaongelma koskee?

Suurin ongelma on, että mitä paremmaksi tekoälyjärjestelmä tulee, sitä vaikeampaa on ihmisen valvojan valvoa tekniikkaa varmistaakseen, että manuaalinen ohjaus voidaan ottaa helposti haltuunsa, jos järjestelmä epäonnistuu. Lisäksi ihmisen taipumus luottaa automatisoituun järjestelmään on suurempi, kun järjestelmä toimii luotettavasti suurimman osan ajasta.

Hieno esimerkki tästä on Tesla Full-Self Driving (FSD) -sarja. Vaikka auto voi ajaa itse, se vaatii ihmisen pitämään kätensä ohjauspyörällä, valmiina ottamaan auton hallintaan, jos järjestelmässä ilmenee vika. Kuitenkin, kun nämä tekoälyjärjestelmät muuttuvat luotettavammiksi, jopa valppaimman ihmisen huomio alkaa muuttua ja riippuvuus autonomisesta järjestelmästä kasvaa.

Mitä sitten tapahtuu, kun autot alkavat ajaa nopeuksilla, joita ihmiset eivät voi pysyä mukana? Lopulta luovutamme hallinnan auton autonomisille järjestelmille, mikä tarkoittaa, että tekoälyjärjestelmä hallitsee elämääsi ainakin siihen asti, kunnes saavut määränpäähäsi.

Voidaanko AI-ohjausongelma ratkaista?

On kaksi vastausta siihen, voidaanko AI-ohjausongelma ratkaista vai ei. Ensinnäkin, jos tulkitsemme kysymyksen kirjaimellisesti, ohjausongelmaa ei voida ratkaista. Emme voi tehdä mitään, mikä kohdistuisi suoraan ihmisen taipumukseen luottaa automatisoituun järjestelmään, kun se toimii luotettavasti ja tehokkaammin suurimman osan ajasta.

Jos tämä taipumus kuitenkin otetaan huomioon tällaisten järjestelmien ominaisuutena, voimme suunnitella tapoja kiertää ohjausongelma. Esimerkiksi, Algoritminen päätöksenteko ja ohjausongelma Tutkimuspaperissa ehdotetaan kolmea erilaista tapaa käsitellä ahdinkoa:

  • Vähemmän luotettavien järjestelmien käyttö edellyttää, että ihminen osallistuu aktiivisesti järjestelmään, koska vähemmän luotettavat järjestelmät eivät aiheuta ohjausongelmaa.
  • Odottaa, että järjestelmä ylittää ihmisen tehokkuuden ja luotettavuuden ennen todellista käyttöönottoa.
  • Toteuttaa vain osittainen automaatio tehtävien hajottamista käyttämällä. Tämä tarkoittaa, että vain ne järjestelmän osat, jotka eivät vaadi ihmisen suorittamaan tärkeää tehtävää, ovat automatisoituja. Sitä kutsutaan dynaamiseksi/täydentäväksi funktion allokaatioksi (DCAF).

DCAF-lähestymistapa asettaa ihmisen aina automatisoidun järjestelmän johtoon ja varmistaa, että hänen panoksensa ohjaa järjestelmän päätöksentekoprosessin tärkeimpiä osia. Jos järjestelmä on riittävän aktiivinen, jotta ihminen pystyy jatkuvasti tarkkailemaan, ohjausongelma voidaan ratkaista.

Voimmeko koskaan todella hallita tekoälyä?

Kun tekoälyjärjestelmät kehittyvät kehittyneemmiksi, kykenevämmiksi ja luotettavammiksi, jatkamme niiden tehtävien purkamista. Tekoälyn hallintaongelma voidaan kuitenkin ratkaista oikeilla varotoimilla ja suojatoimilla.

Tekoäly muuttaa jo maailmaa puolestamme, lähinnä parempaan suuntaan. Niin kauan kuin tekniikka pidetään ihmisen valvonnassa, meidän ei pitäisi olla mistään huolestuttavaa.