Microsoftin Tay AI muuttui lupaavasta tekoälystä täydelliseksi katastrofiksi alle päivässä. Tässä on, mitä yritys oppi.

ChatGPT: n kaltaisista AI-chatboteista on tulossa yhä kiinteämpi osa modernia tekniikkaa, mutta monille tuntematon generatiivinen tekoäly ei aina ollut yhtä hyvä kuin nykyään. Itse asiassa vuonna 2016 Microsoftin valmistama chatbot Tay osoitti meille, kuinka nopeasti tekoäly voi kostautua.

Tutkitaan, mikä Microsoftin AI-chatbot Tay oli, miksi se epäonnistui, sen ristiriidat ja mitä opetuksia yritys sai katastrofaalisen epäonnistumisensa jälkeen.

Mikä oli Microsoftin Tay?

Tay oli Microsoftin kehittämä AI-chatbot, joka julkaistiin Twitterin kautta 23. maaliskuuta 2016. Chatbot on kehitetty 18–24-vuotiaille Yhdysvalloissa "viihdetarkoituksiin" ja "keskustelun ymmärtämisen kokeilemiseen ja tutkimukseen".

Tayn ei ollut tarkoitus olla ChatGPT: n kaltainen hienostunut chatbot, vaan ystävällinen tekoälybotti Twitterissä, jonka kanssa voit keskustella – tavallaan kuin Tekoälyni Snapchatissa, vaan seurustelua varten.

Miksi Microsoft sulki Tayn?

Microsoft sulki Tayn 24 tunnin sisällä sen julkaisemisesta – hyvästä syystä. Melkein heti Tayn esittelyn jälkeen Twitterin käyttäjät alkoivat väärinkäyttää palvelua syöttämällä chatbotia väärää tietoa, opettaa sille halventavia termejä ja saada se olemaan yhä loukkaavampi vain nähdäkseen kuinka pitkälle se on menisin.

Ja pitkälle se todellakin meni. Muutaman tunnin sisällä julkaisusta Tay twiittasi joitain loukkaavimpia rodullisia herjauksia, levitti vihapuhetta, edisti natsismia ja jopa inspiroi "rotusotaa". Jep! On selvää, että Microsoftilla oli kauheaa aikaa, eikä se olisi voinut antaa palvelun jatkua.

Jonkin sisällä postaus virallisessa Microsoftin blogissa, Microsoftin varatoimitusjohtaja Peter Lee toisti saman:

Olemme syvästi pahoillamme Tayn tahattomista loukkaavista ja loukkaavista twiiteistä, jotka eivät edusta keitä olemme tai mitä edustamme, eivätkä sitä, miten suunnittelimme Tayn. Tay on nyt offline-tilassa, ja pyrimme tuomaan Tayn takaisin vasta sitten, kun olemme varmoja, että pystymme paremmin ennakoimaan haitalliset aikomukset, jotka ovat ristiriidassa periaatteidemme ja arvojemme kanssa.

Tayn romahdus on vain yksi monista tekoälyn vaaroista ja vahva muistutus siitä, miksi sen kehittäminen tulisi tehdä äärimmäisen varovaisesti ja valvonnassa.

6 oppituntia, jotka Microsoft oppi Tayn jälkeen

Tay oli täydellinen katastrofi, mutta se opetti myös Microsoftille tärkeitä opetuksia tekoälytyökalujen kehittämisessä. Ja mitä se on sen arvoista, on luultavasti parempi, että Microsoft oppi opetuksensa ennemmin tai myöhemmin, mikä antoi sille mahdollisuuden saada etumatka Googlelle ja kehittää uutta Tekoälyllä toimiva Bing-selain.

Tässä on joitain näistä oppitunneista:

1. Internet on täynnä peikkoja

Internet on täynnä peikkoja, eikä se ole varsinainen uutinen, vai mitä? Ilmeisesti se oli niin Microsoftille vuonna 2016. Emme väitä, että 18–24-vuotiaille suunnatun chatbotin "viihdetarkoituksiin" rakentamisella olisi ollut mitään tekemistä palvelun väärinkäyttöasteen kanssa. Silti se ei todellakaan ollut fiksuin idea.

Ihmiset haluavat luonnollisesti testata uusien teknologioiden rajoja, ja viime kädessä on kehittäjän tehtävä ottaa huomioon nämä haitalliset hyökkäykset. Tavallaan sisäiset peikot toimivat palautemekanismina laadunvarmistuksessa, mutta se ei tarkoita, että chatbotin pitäisi päästää irti ilman kunnollisia suojatoimia ennen julkaisua.

2. Tekoäly ei voi intuitiivisesti erottaa hyvää ja pahaa

Tekoäly ei intuitiivisesti ymmärrä hyvän ja pahan käsitettä. Se on ohjelmoitava simuloimaan tietoa siitä, mikä on oikein ja mikä väärin, mikä on moraalista ja moraalitonta ja mikä on normaalia ja omituista.

Nämä ominaisuudet tulevat enemmän tai vähemmän luonnostaan ​​ihmisille sosiaalisina olentoina, mutta tekoäly ei voi muodostaa itsenäisiä arvioita, tuntea empatiaa tai kokea kipua. Tästä syystä kun Twitterin käyttäjät ruokkivat Taylle kaikenlaista propagandaa, botti vain seurasi mukana – tietämättä keräämiensä tietojen eettisyydestä.

3. Älä kouluta tekoälymalleja ihmisten keskustelujen avulla

Tay luotiin "louhimalla asiaankuuluvaa julkista dataa ja käyttämällä tekoälyä ja toimituksellista, jonka on kehittänyt henkilöstö, mukaan lukien improvisaatiokoomikkoja." Tekoälymallin kouluttaminen ihmisten Internetin keskustelujen avulla on kamalaa idea.

Ja ennen kuin syytät tästä Twitterissä, tiedä, että tulos olisi todennäköisesti ollut sama alustasta riippumatta. Miksi? Koska ihmiset eivät yksinkertaisesti ole parhaita itseään Internetissä. He ovat tunteellisia, käyttävät slangisanoja ja käyttävät nimettömyyttään ollakseen ilkeitä.

4. Tekoälyltä puuttuu maalaisjärki, eikä se ymmärrä sarkasmia

Tekoäly näyttää nykyään intuitiivisemmalta (tai tarkemmin sanottuna se simuloi paremmin intuitiota), mutta silti joskus kamppailee sarkasmin ja puhekuvioiden tunnistamisen kanssa. Tämä piti vielä enemmän paikkansa vuonna 2016. Se, mikä on selvää ihmisille, ei ole ilmeistä tekoälylle; toisin sanoen siitä puuttuu maalaisjärkeä.

Tekoälyt, kuten Tay, eivät ymmärrä, miksi ihmiset ovat sellaisia ​​kuin olemme, toimivat kuten teemme, ja jokaisen yksilön eksentrisyyttä. Se saattaa käyttäytyä ja kuulostaa yllättävän inhimilliseltä, mutta hyvä ohjelmointi voi viedä vain niin pitkälle.

5. Tekoäly on ohjelmoitava hylkäämään virheelliset pyynnöt

Tekoäly on erittäin vaikutuksellinen, ja se on ohjelmoitava hylkäämään haittoja edistävät pyynnöt. Kaiken luonnollisen kielen käsittelyn edistymisen jälkeenkin ihmiset löytävät edelleen kielellisiä porsaanreikiä tee ChatGPT: n kaltaiset AI-chatbotit "hallusinaatioiksi" ja tuottaa tuloksia, joita oli tarkoitus rajoittaa.

Asia on tässä, että tekoäly on täysin tottelevainen, mikä on ehkä sen suurin vahvuus ja heikkous. Kaikki, mitä et halua chatbotin tekevän, on ohjelmoitava siihen manuaalisesti.

6. AI-chatbotteja ei saa koskaan jättää ilman valvontaa

Ennen kuin tekoäly pystyy säätelemään itseään, sitä ei voida jättää ilman valvontaa. Voit ajatella tämän päivän tekoälyä kuin ihmelapsia; se on jollain tapaa loistava, mutta se on silti lapsi. Jos jätetään valvomatta, ihmiset käyttävät hyväkseen sen heikkouksia – ja Tay oli tästä loistava esimerkki.

Tekoäly on työkalu, aivan kuten Internet, mutta nopeus ja laajuus, jolla asiat voivat kostautua tekoälyn kanssa, on paljon suurempi kuin mitä koimme Internetin alkuaikoina.

AI tarvitsee jatkuvaa valvontaa ja sääntelyä

Tay ei ole ainoa chatbot, joka meni huijatuksi – samanlaisia ​​tapauksia on ollut monia muitakin. Mutta se, mikä erottui joukosta, on pelkkä nopeus, jolla se teki – ja se, että sen teki Microsoftin kaltainen teknologiajätti.

Tällaiset esimerkit osoittavat, kuinka varovaisia ​​meidän on oltava tekoälytyökalujen kehittämisessä, varsinkin kun ne on tarkoitettu tavallisten ihmisten käyttöön.