Ajatus tekoälytekniikoiden sääntelemisestä on yleinen mielipide. Useimmat hallitukset, tekoälytuotteiden kehittäjät ja jopa tavalliset tekoälytuotteiden käyttäjät ovat tästä samaa mieltä. Valitettavasti paras tapa säännellä tätä nopeasti kasvavaa alaa on ratkaisematon arvoitus.

Jos tekoälyteknologiaa ei valvota, ne voivat häiritä negatiivisesti elämäntapaamme ja uhata olemassaoloamme. Mutta kuinka hallitukset voivat navigoida tämän nopeasti kehittyvän alan mukanaan tuomien haasteiden labyrinttia?

1. Tietosuoja- ja tietosuojasäännökset

Yksi AI-tekniikoiden tärkeimmistä huolenaiheista on tietojen yksityisyys ja turvallisuus. Tekoälyjärjestelmät ovat datanhimoisia koneita. He tarvitsevat dataa toimiakseen, enemmän dataa ollakseen tehokkaita ja vielä enemmän tietoa parantaakseen. Vaikka tämä ei ole ongelma, tapa, jolla tämä data on peräisin, sen luonne ja se, miten niitä käsitellään ja säilytetään, on yksi suurimmista tekoälysäännöksiin liittyvistä puheenaiheista.

Tämän huomioon ottaen looginen tie on ottaa käyttöön tiukat tietosuojasäännökset, jotka hallitsevat tietoja keräämistä, tallentamista ja käsittelyä sekä niiden henkilöiden oikeuksia, joiden tietoja käytetään, pääsyyn ja hallintaan heidän tietonsa. Nämä säädökset todennäköisesti käsittelevät seuraavia kysymyksiä:

  • Millaista dataa voidaan kerätä?
  • Pitäisikö joitakin yksityisiä tietoja pitää tabuina tekoälyssä?
  • Miten tekoälyyritysten tulisi käsitellä arkaluonteisia henkilötietoja, kuten terveystietoja tai biometrisiä tietoja?
  • Pitäisikö tekoälyyrityksiä vaatia ottamaan käyttöön mekanismeja, joiden avulla ihmiset voivat pyytää henkilötietojensa poistamista tai korjaamista helposti?
  • Mitä seurauksia on tekoälyyrityksille, jotka eivät noudata tietosuojamääräyksiä? Miten noudattamista tulisi valvoa ja miten täytäntöönpano pitäisi varmistaa?
  • Ehkä tärkeintä on, mitä standardia tekoälyyritysten tulisi ottaa käyttöön varmistaakseen hallussaan olevien tietojen arkaluonteisen luonteen?

Nämä ja muutamat muut kysymykset muodostivat ytimen miksi ChatGPT kiellettiin väliaikaisesti Italiassa. Ellei näihin huolenaiheisiin puututa, tekoälyavaruus voi olla villi länsi tietosuojalle, ja Italian kielto saattaa osoittautua malliksi muiden maiden kielloille maailmanlaajuisesti.

2. Eettisen tekoälykehyksen kehittäminen

Tekoälyyritykset ylpeilevät usein sitoutumisestaan ​​eettisiin ohjeisiin tekoälyjärjestelmien kehittämisessä. Ainakin paperilla he kaikki ovat vastuullisen tekoälyn kehittämisen kannattajia. Mediassa Googlen johtajat ovat korostaneet, kuinka yritys ottaa tekoälyn turvallisuuden ja etiikan vakavasti. Samoin "Turvallinen ja eettinen tekoäly" on mantra OpenAI: n toimitusjohtajalle Sam Altmanille. Nämä ovat varsin kehuttavia.

Mutta kuka tekee säännöt? Kuka päättää, mitkä tekoälyn eettiset ohjeet ovat riittävän hyviä? Kuka päättää, miltä turvallinen tekoälykehitys näyttää? Tällä hetkellä jokaisella tekoälyyrityksellä näyttää olevan oma näkemyksensä vastuullisesta ja eettisestä tekoälyn kehittämisestä. OpenAI, Anthropic, Google, Meta, Microsoft, kaikki. Pelkästään tekoälyyritysten tekemiseen oikein luottaminen on vaarallista.

The Tarkistamattoman tekoälytilan seuraukset voivat olla katastrofaalisia. Se, että yksittäisten yritysten annetaan päättää, mitkä eettiset ohjeet omaksuvat ja mitkä hylkäävät, on kuin unissakävelyä tiellämme tekoälyn apokalypsiin. Ratkaisu? Selkeä eettinen tekoälykehys, joka takaa:

  • Tekoälyjärjestelmät eivät aseta epäoikeudenmukaisesti epäedulliseen asemaan tai syrji yksilöitä tai tiettyjä ryhmiä rodun, sukupuolen tai sosioekonomisen aseman perusteella.
  • Tekoälyjärjestelmät ovat turvallisia, turvallisia ja luotettavia, ja ne minimoivat tahattomien seurausten tai haitallisen käyttäytymisen riskin.
  • Tekoälyjärjestelmät on rakennettu tekoälyteknologioiden laajempia yhteiskunnallisia vaikutuksia silmällä pitäen.
  • Että ihmiset säilyttävät lopullisen hallinnan tekoälyjärjestelmistä ja niiden päätöksenteosta avoimesti.
  • Tekoälyjärjestelmiä on tarkoituksella rajoitettu tavoilla, jotka ovat hyödyllisiä ihmisille.

3. Omistettu sääntelyvirasto

Tekoälyn turvallisuudesta keskusteleminen liittyy tyypillisesti terveyskriisin tai ydinkatastrofin riskiin, koska se voi vaikuttaa ihmissivilisaatioon. Mahdollisten ydinonnettomuuksien välttäminen vaatii erityisviraston, kuten Yhdysvaltain NRC: n (Nuclear Regulatory Commission). Vaarallisten terveyskriisien riskin välttäminen edellyttää FDA: n (Food and Drug Administration) perustamista.

Samoin sen varmistamiseksi, etteivät asiat mene pieleen tekoälyavaruudessa, tarvitaan FDA: n ja NRC: n kaltainen omistautunut virasto, koska tekoäly jatkaa aggressiivista tunkeutumista kaikille elämämme alueille. Valitettavasti kysymys maan sisäisestä tekoälystä on hankala. Minkä tahansa omistautuneen sääntelyviraston työ on todennäköisesti tuskallisen kovaa ilman rajat ylittävää yhteistyötä. Aivan kuten Yhdysvaltain NRC: n (Nuclear Regulatory Commission) on työskenneltävä käsi kädessä kansainvälisen atomienergian kanssa. Virasto (IAEA) olisi parhaimmillaan, mikä tahansa maan sisäinen tekoälyn sääntelyvirasto tarvitsee myös kansainvälisen analogin.

Tällainen virasto olisi vastuussa seuraavista:

  • AI-säännösten kehittäminen
  • Sääntöjen noudattamisen ja täytäntöönpanon varmistaminen
  • Tekoälyprojektien eettisen arviointiprosessin valvominen
  • Tekoälyn turvallisuutta ja etiikkaa koskeva yhteistyö ja maiden välinen yhteistyö

4. Tekijänoikeuksiin ja immateriaalioikeuksiin liittyvien ongelmien käsittely

Nykyiset tekijänoikeuslait ja oikeudelliset puitteet murenevat tekoälyn edessä. Tekoälytyökalut, erityisesti generatiiviset tekoälytyökalut, on suunniteltu, joten ne näyttävät julkisesti hyväksytyiltä tekijänoikeusloukkauskoneilta, joille ei voi tehdä mitään.

Miten? No, monet nykypäivän tekoälyjärjestelmät on koulutettu käyttämällä tekijänoikeudella suojattua materiaalia. Tiedätkö, tekijänoikeudella suojatut artikkelit, tekijänoikeudella suojatut kappaleet, tekijänoikeudella suojatut kuvat jne. Näin työkalut pitävät ChatGPT, Bing AI ja Google Bard voivat tehdä mahtavia asioita, joita he tekevät.

Vaikka nämä järjestelmät selvästi hyödyntävät ihmisten henkistä omaisuutta, tapaa, jolla nämä tekoälyjärjestelmät tekevät sen ei eroa ihmisestä, joka lukee tekijänoikeudella suojattua kirjaa, kuuntelee tekijänoikeudella suojattuja kappaleita tai katselee tekijänoikeudella suojattua kuvia.

Voit lukea tekijänoikeuksilla suojattua kirjaa, oppia siitä uusia faktoja ja käyttää näitä faktoja oman kirjasi perustana. Voit myös kuunnella tekijänoikeuksilla suojattua kappaletta saadaksesi inspiraatiota oman musiikin luomiseen. Molemmissa tapauksissa käytit tekijänoikeudella suojattua materiaalia, mutta se ei välttämättä tarkoita, että johdannaistuote loukkaa alkuperäisen tekijänoikeuksia.

Vaikka tämä on looginen selitys tekijänoikeuslakien aiheuttaman sotkun selittämiseksi, se vahingoittaa silti tekijänoikeuksien ja immateriaalioikeuksien omistajia. Tämän huomioon ottaen säännökset ovat tarpeen:

  • Määritä selkeästi kaikkien tekoälyjärjestelmän elinkaareen osallistuvien osapuolten vastuut ja vastuut. Tähän sisältyy jokaisen osapuolen roolien selventäminen tekoälykehittäjistä loppukäyttäjiin vastuullisuuden varmistamiseksi osapuolet ovat vastuussa kaikista tekoälyn tekemistä tekijänoikeusloukkauksista tai immateriaalioikeuksien loukkauksista järjestelmät.
  • Vahvista olemassa olevia tekijänoikeuskehystä ja ehkä ota käyttöön tekoälykohtaisia ​​tekijänoikeuslakeja.
  • Tekoälyn innovaatioiden varmistamiseksi samalla kun alkuperäisten sisällöntuottajien oikeudet turvataan asetuksissa tulisi määritellä uudelleen kohtuullisen käytön ja muuntavan työn käsitteet Tekoälyn luoma sisältö. Selvempiä määritelmiä ja ohjeita tarvitaan sen varmistamiseksi, että tekoälytila ​​voi kehittyä jatkuvasti tekijänoikeusrajoja kunnioittaen. On välttämätöntä löytää tasapaino innovaation ja sisällöntuottajien oikeuksien säilyttämisen välillä.
  • Selkeät reitit yhteistyölle oikeudenhaltijoiden kanssa. Jos tekoälyjärjestelmät aikovat joka tapauksessa käyttää ihmisten immateriaalioikeuksia, tekoälykehittäjille ja -kehittäjille pitäisi olla selkeät reitit tai puitteet. oikeuksien omistajia tekemään yhteistyötä, erityisesti taloudellisten korvausten osalta, jos tällaisten immateriaalioikeuksien johdettu työ on kaupallistettu.

Tekoälysääntely on kipeästi kaivattu korjaus

Vaikka tekoäly on noussut lupaavaksi ratkaisuksi moniin yhteiskunnallisiin ongelmiimme, itse tekoälystä on nopeasti tulossa ongelma, joka tarvitsee pikaista korjausta. On aika ottaa askel taaksepäin, pohtia ja tehdä tarvittavat korjaukset varmistaaksesi, että tekoälyllä on myönteinen vaikutus yhteiskuntaan. Tarvitsemme kipeästi uudelleenkalibroinnin lähestymistapaamme tekoälyjärjestelmien rakentamiseen ja käyttöön.