Tekoälykehitys etenee nopeasti, mutta kenen pitäisi ohjata tekoälyä ja sen vaikutuksia maailmaan?

Avaimet takeawayt

  • Tekoäly tarvitsee tiukempaa valvontaa, koska kyberturvallisuuden haavoittuvuuksia ja tietosuojaongelmia ilmaantuu jatkuvasti.
  • Hallituksella, teknologiayrityksillä ja loppukäyttäjillä on kaikilla oma roolinsa tekoälyn säätelyssä, mutta jokaisella lähestymistavalla on rajoituksensa.
  • Mediat, voittoa tavoittelemattomat organisaatiot, teknologia-alan yhdistykset, korkeakoulut ja lainvalvontaviranomaiset osallistuvat myös tekoälyn sääntelyyn.

Suurella yleisöllä on erilaisia ​​näkemyksiä tekoälystä – jotkut uskovat, että koneet korvaavat ihmisen työntekijät kokonaan, kun taas toiset väittävät, että tekoäly on villitys. Yksi asia, josta kaikki ovat kuitenkin samaa mieltä, on se, että tekoäly tarvitsee tiukempaa valvontaa.

Tekoälysääntelyn tärkeydestä huolimatta se on jäänyt koulutukseen taka-alalle. Kehittäjät ovat niin pakkomielle seuraavan suurimman tekoälymallin rakentamiseen, että he käyvät kauppaa kyberturvallisuudella nopeaan edistymiseen. Kysymys ei ole siitä, tarvitseeko tekoäly sääntelyä; Se on se hallintoelin, jolla on riittävä rahoitus, henkilöresurssit ja teknologinen kapasiteetti, tekee aloitteen.

instagram viewer

Joten kenen pitäisi säännellä tekoälyä?

Hallituksen elimet

Erilaisia ​​ihmisiä kuluttajista teknologiajohtajat, toivon, että hallitus säätelee tekoälyä. Julkisesti rahoitetuilla laitoksilla on siihen resurssit. Jopa Elon Musk ja Sam Altman, kaksi AI-kilpailun tärkeintä kuljettajaa, uskovat, että jotkut tekoälyä koskevat yksityisyysongelmat ovat liian vaarallisia hallintoelimille jätettäväksi huomiotta.

Hallituksen tulisi keskittyä suojelemaan äänestäjiensä yksityisyyttä ja kansalaisvapauksia, jos se ottaa tekoälyn säätelyn haltuunsa. Kyberrikolliset etsivät jatkuvasti tapoja hyödyntää tekoälyjärjestelmiä järjestelmissään. Ihmiset, jotka eivät tunne tekoälyä, voivat helposti joutua syntetisoitujen äänien, syväfake-videoiden ja bot-käyttöisten verkkoprofiilien hämäykseen.

Yksi suuri ongelma hallituksen säätelemässä tekoälyä on kuitenkin se, että se saattaa vahingossa tukahduttaa innovaation. Tekoäly on monimutkainen, kehittyvä tekniikka. Elleivät käyttöönottoa, kehitystä ja koulutusta koskevia ohjeita valvovat virkamiehet ymmärrä tekoälyn toimintaa, he saattavat tehdä ennenaikaisia ​​ja tehottomia arvioita.

Tekoälykehittäjät, teknologiayritykset ja laboratoriot

Ottaen huomioon mahdolliset tiesulkut, joita hallitus valvoo tekoälyä, monet haluaisivat mieluummin teknologiayritysten sääntelyn kärjessä. He uskovat, että kehittäjien pitäisi olla vastuussa julkaisemastaan ​​tekniikasta. Itsesääntelyn ansiosta he voivat edistää innovaatioita ja keskittyä näiden järjestelmien tehokkaaseen kehittämiseen.

Lisäksi heidän syvällinen tekoälyn tuntemuksensa auttaa heitä laatimaan oikeudenmukaisia ​​ja perusteltuja ohjeita, jotka asettavat käyttäjien turvallisuuden etusijalle toimivuudesta tinkimättä. Kuten mikä tahansa tekniikka, alan asiantuntemus virtaviivaistaa seurantaa. Kouluttamattomien virkamiesten antaminen sääntelemään teknologioita, joita he tuskin ymmärtävät, saattaa aiheuttaa enemmän ongelmia kuin hyötyä.

Otetaan esimerkkinä vuoden 2018 Yhdysvaltain senaatin kuuleminen Facebookin tietosuojalaeista. Tässä raportissa kirjoittaja Washington Post, huomaat, että monet lainsäätäjät ovat hämmentyneitä Facebookin perustoiminnoista. Joten ellei Yhdysvaltain senaatti luo ainoaa teknisten asiantuntijoiden osastoa, he eivät todennäköisesti ole päteviä sääntelemään niin kehittynyttä, jatkuvasti muuttuvaa järjestelmää, kuten tekoälyä.

Itseään säätelevien teknologiayritysten pääasiallinen ongelma on kuitenkin se, että hämärät yritykset voivat käyttää väärin valtaansa. Ilman puuttuvaa kolmatta osapuolta he ovat periaatteessa vapaita tekemään mitä haluavat.

Loppukäyttäjät

Jotkut pelkäävät, että viranomaiset ja yksityiset tahot käyttävät tekoälyjärjestelmiä väärin. He eivät ole varmoja siitä, että kourallinen hallintoelimiä hallitsee näin tehokkaita teknologioita, varsinkin kun tekoäly kehittyy edelleen. He saattavat lopulta taistella auktoriteetista sen sijaan, että toimisivat tehokkaan sääntelyn puolesta.

Näiden riskien vähentämiseksi skeptikot uskovat, että loppukäyttäjät ansaitsevat vapaat kädet käyttää tekoälymalleja haluamallaan tavalla. He sanovat, että valtion elinten pitäisi puuttua asiaan vain, kun tekoälyn käyttäjät rikkovat lakia. Se on kunnianhimoinen tavoite, mutta se voitaisiin teknisesti saavuttaa, jos avoimen lähdekoodin tekoälykehittäjät hallitsevat markkinaosuuksia.

Tämä asetus kuitenkin asettaa tekniikkaa tuntemattomat henkilöt epäedulliseen asemaan. Käyttäjät ovat vastuussa rajoitusten asettamisesta järjestelmiinsä – valitettavasti kaikilla ei ole resursseja tehdä niin.

On myös lyhytnäköistä poistaa omat mallit markkinoilta. Lisääntyminen avoimen lähdekoodin tekoälymalleilla on useita myönteisiä ja kielteisiä vaikutuksia; joillekin haitat ovat etuja suuremmat.

Muut entiteetit, joilla on rooli tekoälyn säätelyssä

Vaikka suuret tahot johtavat tekoälyn sääntelyä, on olemassa elimiä, joilla on merkittävä rooli:

Medialla on ratkaiseva rooli yleisön käsityksen tekoälystä muokkaamisessa. He raportoivat alan kehityksestä, jakavat uusia työkaluja, tuovat tietoisuutta tekoälyn haitallisista käyttötavoista ja haastattelevat asiantuntijoita olennaisista huolenaiheista.

Useimmat tosiasiat, jotka loppukäyttäjät tietävät tekoälystä, tulevat periaatteessa tiedotusvälineistä. Väärän tiedon julkaiseminen, tarkoituksella tai ei, aiheuttaa peruuttamatonta vahinkoa – et voi aliarvioida, kuinka nopeasti väärä tieto leviää.

2. Valtiosta riippumattomat järjestöt

Useat voittoa tavoittelemattomat organisaatiot keskittyvät suojelemaan tekoälykäyttäjien yksityisyyttä ja kansalaisvapauksia. He kouluttavat yleisöä ilmaisilla resursseilla, kannattavat uutta politiikkaa, tekevät yhteistyötä valtion viranomaisten kanssa ja tuovat esiin huomiotta jääneet huolenaiheet.

Ainoa ongelma voittoa tavoittelemattomissa järjestöissä on, että niillä on yleensä vähän resursseja. Koska he eivät ole yhteydessä hallitukseen, he luottavat yksityisiin pyyntöihin ja lahjoituksiin päivittäisessä toiminnassa. Valitettavasti vain harvat organisaatiot saavat riittävästi rahoitusta.

3. Tekniikan alan yhdistykset

Tekoälyyn keskittyvät teknologia-alan järjestöt voivat edustaa yleisön oikeuksia ja etuja. Kuten kansalaisjärjestöt, ne työskentelevät lainsäätäjien kanssa, edustavat asianosaisia ​​henkilöitä, puoltavat oikeudenmukaista politiikkaa ja lisäävät tietoisuutta erityiskysymyksistä.

Erona on kuitenkin se, että heillä on usein siteitä yksityisiin yrityksiin. Heidän jäsenensä tekevät edelleen tarjouspyyntöjä, mutta yleensä he saavat tarpeeksi rahoitusta emojärjestöistään niin kauan kuin he tuottavat tuloksia.

4. Akateemiset laitokset

Vaikka tekoälyyn liittyy useita riskejä, se on luonnostaan ​​neutraali. Kaikki ennakkoluulot, yksityisyysongelmat, tietoturvavirheet ja mahdolliset tietoverkkorikolliset toimet ovat peräisin ihmisistä, joten tekoälyä ei sinänsä tarvitse pelätä.

Mutta hyvin harvat jo ymmärtävät kuinka modernit tekoälymallit toimivat. Väärinkäsitykset vääristävät ihmisten käsitystä tekoälystä ja pitävät yllä perusteettomia pelkoja, kuten tekoäly valloittaa ihmiskuntaa tai varastaa työpaikkoja.

Akateemiset laitokset voisivat täyttää nämä koulutusaukot saatavilla olevien resurssien avulla. Nykyaikaisista LLM- ja NLP-järjestelmistä ei ole vielä paljon tieteellisiä töitä. Yleisö voi käyttää tekoälyä vastuullisemmin ja taistella kyberrikollisuutta vastaan, jos he ymmärtävät täysin, miten se toimii.

5. Lainvalvontavirastot

Lainvalvontaviranomaisten pitäisi odottaa kohtaavansa enemmän AI-yhteensopivat kyberhyökkäykset. Generatiivisten mallien yleistyessä huijarit voivat nopeasti syntetisoida ääniä, luoda syvää väärennöskuvia, kaapia henkilökohtaisesti tunnistettavia tietoja (PII) ja jopa luoda täysin uusia persoonia.

Useimmat virastot eivät ole valmiita käsittelemään näitä rikoksia. Heidän olisi investoitava uusiin järjestelmiin ja koulutettava virkailijoitaan nykyaikaisiin tietoverkkorikoksiin. muuten heillä on vaikeuksia saada nämä roistot kiinni.

AI-asetuksen tulevaisuus

Tekoälyn nopeatempoinen luonne huomioon ottaen on epätodennäköistä, että yksittäinen hallintoelin hallitsee sitä. Kyllä, teknologiajohtajilla on enemmän valtaa kuin kuluttajilla, mutta eri tahojen on tehtävä yhteistyötä hallitakseen tekoälyn riskejä estämättä kehitystä. Valvontatoimenpiteet on parasta asettaa nyt, kun yleisten tekoäly (AGI) on vielä kaukainen tavoite.

Tekoälysääntely on kuitenkin yhtä kaukana kuin AGI. Sillä välin käyttäjien on noudatettava turvallisuuskäytäntöjä tekoälyn aiheuttamien uhkien torjumiseksi. Hyvät tavat, kuten verkkoyhteyksien rajoittaminen ja digitaalisten henkilökohtaisten tunnistetietojen suojaaminen, ovat jo pitkälle.