Tekoälyn ominaisuudet kasvavat räjähdysmäisesti, ja tekoälyä käytetään nyt teollisuudessa mainonnasta lääketieteelliseen tutkimukseen. Tekoälyn käyttö herkemmillä alueilla, kuten kasvojentunnistusohjelmisto, algoritmien palkkaaminen ja terveydenhuollon tarjoaminen, on herättänyt keskustelua puolueellisuudesta ja oikeudenmukaisuudesta.

Bias on hyvin tutkittu osa ihmisen psykologiaa. Tutkimus paljastaa säännöllisesti tiedostamattomat mieltymyksemme ja ennakkoluulomme, ja nyt näemme tekoälyn heijastavan joitain näistä puolueellisuudesta algoritmeissaan.

Joten miten tekoäly tulee puolueelliseksi? Ja miksi tällä on merkitystä?

Kuinka tekoälystä tulee puolueellinen?

Yksinkertaisuuden vuoksi tässä artikkelissa viitataan koneoppiminen ja syvällinen oppiminen algoritmeja tekoälyn algoritmeina tai järjestelminä.

Tutkijat ja kehittäjät voivat tuoda esijännityksen tekoälyjärjestelmiin kahdella tavalla.

Ensinnäkin tutkijoiden kognitiiviset ennakkoarvot voidaan upottaa vahingossa koneoppimisalgoritmeihin. Kognitiiviset ennakkoluulot ovat tajuton ihmisen käsitys, joka voi vaikuttaa siihen, miten ihmiset tekevät päätöksiä. Tästä tulee merkittävä kysymys, kun puolueet koskevat ihmisiä tai ihmisryhmiä ja voivat vahingoittaa näitä ihmisiä.

instagram viewer

Nämä ennakkoluulot voidaan ottaa käyttöön suoraan, mutta vahingossa, tai tutkijat saattavat kouluttaa tekoälyä aineistoihin, joihin puolueellisuus itse vaikuttaa. Esimerkiksi kasvojentunnistuksen tekoäly voitaisiin kouluttaa tietojoukolla, joka sisältää vain vaaleat kasvot. Tässä tapauksessa tekoäly toimii paremmin, kun käsitellään vaaleanvihreitä kasvoja kuin tumma. Tämä tekoälyn ennakkoluulon muoto tunnetaan negatiivisena perintönä.

Toiseksi harhoja voi syntyä, kun tekoälyä koulutetaan puutteellisista aineistoista. Esimerkiksi, jos tekoäly koulutetaan tietojoukkoon, joka sisältää vain tietojenkäsittelytieteen tutkijoita, se ei edusta koko väestöä. Tämä johtaa algoritmeihin, jotka eivät pysty tuottamaan tarkkoja ennusteita.

Esimerkkejä reaalimaailman tekoälystä

On ollut useita viimeaikaisia, hyvin raportoituja esimerkkejä tekoälyn puolueellisuudesta havainnollistaa vaaraa antaa näiden harhojen hiipiä sisään.

Yhdysvaltain terveydenhuollon priorisointi

Vuonna 2019 koneoppimisalgoritmi suunniteltiin auttamaan sairaaloita ja vakuutusyhtiöitä määrittämään, mitkä potilaat hyötyisivät eniten tietyistä terveysohjelmista. Noin 200 miljoonan ihmisen tietokantaan perustuva algoritmi suosi valkoisia potilaita mustan potilaan sijaan.

Todettiin, että tämä johtui algoritmin virheellisestä oletuksesta, joka koski terveydenhuollon kustannusten vaihtelua mustan ja valkoisen välillä, ja harhaa vähennettiin lopulta 80%.

COMPAS

Correctional Offender Management Profiling for Alternative sankties, tai COMPAS, oli tekoälyn algoritmi, joka oli suunniteltu ennustamaan, loukkaako tietyt ihmiset uudelleen. Algoritmi tuotti kaksinkertaiset väärät positiiviset mustat rikoksentekijät verrattuna valkoisiin rikoksentekijöihin. Tässä tapauksessa sekä tietojoukko että malli olivat virheellisiä, mikä aiheutti voimakasta puolueellisuutta.

Amazon

Palkkaamisalgoritmin, jota Amazon käyttää hakijoiden soveltuvuuden määrittämiseen, havaittiin vuonna 2015 suosivan miehiä voimakkaammin naisiin nähden. Tämä johtui siitä, että tietojoukko sisälsi melkein yksinomaan miehiä ja heidän ansioluetteloitaan, koska suurin osa Amazonin työntekijöistä on miehiä.

Kuinka pysäyttää AI-ennakko

Tekoäly on jo mullistanut tapamme työskennellä kaikilla toimialoilla. Arkaluonteisia päätöksentekoprosesseja ohjaavien puolueellisten järjestelmien käyttö on vähemmän kuin toivottavaa. Parhaimmillaan se heikentää tekoälypohjaisen tutkimuksen laatua. Pahimmillaan se vahingoittaa aktiivisesti vähemmistöryhmiä.

On olemassa esimerkkejä AI-algoritmeista, joihin on jo käytetty auttaa ihmisten päätöksentekoa vähentämällä ihmisen kognitiivisten ennakkoluulojen vaikutuksia. Koska koneoppimisalgoritmit koulutetaan, ne voivat olla tarkempia ja vähemmän puolueellisia kuin ihmiset samassa asemassa, mikä johtaa oikeudenmukaisempaan päätöksentekoon.

Mutta kuten olemme osoittaneet, päinvastoin. Ihmisen ennakkoluulojen keittämisen ja vahvistamisen tekoälyn avulla aiheuttamat riskit voivat olla suurempia kuin mahdolliset hyödyt.

Päivän päätteeksi, Tekoäly on vain yhtä hyvä kuin tiedot, joiden kanssa se on koulutettu. Puolueettomien algoritmien kehittäminen edellyttää laajaa ja perusteellista tietojoukkojen ennakkoanalyysiä varmistaen, että tiedoissa ei ole implisiittisiä ennakkoluuloja. Tämä on vaikeampaa kuin miltä se kuulostaa, koska niin monet puolueistuksistamme ovat tajuton ja usein vaikea tunnistaa.

AI-ennakkoluulojen estämisen haasteet

Tekoälyjärjestelmiä kehitettäessä on arvioitava jokaisen vaiheen mahdollisuudet upottaa ennakkoluulot algoritmiin. Yksi tärkeimmistä tekijöistä ennakkoluulojen estämisessä on varmistaa, että oikeudenmukaisuus, eikä puolueellisuus, "kypsennetään" algoritmiin.

Oikeudenmukaisuuden määritteleminen

Oikeudenmukaisuus on käsite, jota on suhteellisen vaikea määritellä. Itse asiassa kyseessä on keskustelu, josta ei ole koskaan päästy yksimielisyyteen. Asioiden vaikeuttamiseksi entisestään tekoälyjärjestelmiä kehitettäessä oikeudenmukaisuuden käsite on määriteltävä matemaattisesti.

Esimerkiksi Amazonin palkkaamisalgoritmin kannalta näyttääkö oikeudenmukaisuus täydelliseltä 50/50 jakautumiselta mies- ja naispuolisille työntekijöille? Tai erilainen osuus?

Toiminnon määrittäminen

Ensimmäinen tekoälyn kehittämisen vaihe on määritellä tarkalleen, mitä se saavuttaa. Jos käytetään COMPAS-esimerkkiä, algoritmi ennustaisi rikollisten uudelleenrikkomisen todennäköisyyden. Sitten on määritettävä selkeät tietopanokset, jotta algoritmi voi toimia. Tämä saattaa vaatia tärkeiden muuttujien määrittelemistä, kuten aiempien rikkomusten lukumäärän tai tehtyjen rikosten tyypin.

Näiden muuttujien asianmukainen määrittely on vaikea, mutta tärkeä askel algoritmin oikeudenmukaisuuden varmistamiseksi.

Tietojoukon tekeminen

Kuten olemme käsittäneet, tekoälyn ennakkoluulojen pääasiallinen syy on puutteellinen, edustamaton tai puolueellinen data. Kuten kasvojentunnistustekniikan tapauksessa, syöttötiedot on tarkistettava perusteellisesti ennakkoluulojen, asianmukaisuuden ja täydellisyyden suhteen ennen koneoppimisprosessia.

Attribuuttien valitseminen

Algoritmeissa tietyt määritteet voidaan ottaa huomioon tai ei. Attribuutteihin voi sisältyä sukupuoli, rotu tai koulutus - pohjimmiltaan kaikki, mikä voi olla tärkeää algoritmin tehtävän kannalta. Riippuen siitä, mitkä attribuutit valitaan, algoritmin ennakoivaan tarkkuuteen ja ennakkoon voi vaikuttaa vakavasti. Ongelmana on, että on erittäin vaikea mitata, kuinka algoritmi on puolueellinen.

AI Bias ei ole täällä pysyä

AI-bias tapahtuu, kun algoritmit tekevät ennakoituja tai epätarkkoja ennusteita puolueellisten syötteiden takia. Se tapahtuu, kun puolueellinen tai puutteellinen data heijastuu tai vahvistuu algoritmin kehittämisen ja koulutuksen aikana.

Hyvä uutinen on, että tekoälyn tutkimuksen rahoituksen lisääntyessä näemme todennäköisesti uusia menetelmiä tekoälyn ennakkoluulojen vähentämiseksi ja jopa poistamiseksi.

Sähköposti
5 yleistä myyttiä tekoälystä, jotka eivät ole totta

Asetetaan ennätys joillekin tekoälyä ympäröiville yleisimmille väärennöksille.

Lue seuraava

Liittyvät aiheet
  • Teknologia selitetty
  • Tekoäly
  • Koneoppiminen
Kirjailijasta
Jake Harfield (6 artikkelia julkaistu)

Jake Harfield on freelance-kirjailija, joka työskentelee Perthissä Australiassa. Kun hän ei kirjoita, hän on yleensä pensaassa ja kuvaa paikallisia villieläimiä. Voit käydä hänen luonaan osoitteessa www.jakeharfield.com

Lisää Jake Harfieldiltä

Tilaa uutiskirjeemme

Liity uutiskirjeeseemme, jossa on teknisiä vinkkejä, arvosteluja, ilmaisia ​​e-kirjoja ja erikoistarjouksia!

Vielä yksi askel !!!

Vahvista sähköpostiosoitteesi juuri lähettämässäsi sähköpostiviestissä.

.