Tekoäly voi kuulostaa presidentiltä. Tai se voi kuulostaa sinulta tai minulta. Millaisen kyberturvallisuusriskin tekoälypuheen kloonausohjelmisto sitten aiheuttaa?
Tekoäly (AI) on tehokas tekniikka, joka lupaa muuttaa elämäämme. Se ei ole koskaan ollut niin selvää kuin nykyään, kun tehokkaat työkalut ovat kaikkien saatavilla, joilla on Internet-yhteys.
Tämä sisältää tekoälyn äänigeneraattorit, kehittyneet ohjelmistot, jotka pystyvät matkimaan ihmisen puhetta niin taitavasti, että näiden kahden välillä voi olla mahdotonta erottaa toisistaan. Mitä tämä tarkoittaa kyberturvallisuuden kannalta?
Kuinka AI-äänigeneraattorit toimivat?
Puhesynteesi, ihmisen puheen keinotekoinen tuottaminen, on ollut olemassa vuosikymmeniä. Ja kuten kaikki teknologia, se on kokenut syvällisiä muutoksia vuosien varrella.
Ne, jotka ovat käyttäneet Windows 2000:ta ja XP: tä, saattavat muistaa Microsoft Samin, käyttöjärjestelmän oletusarvoisen tekstistä puheeksi -miesäänen. Microsoft Sam sai työnsä tehtyä, mutta sen tuottamat äänet olivat robottisia, jäykkiä ja luonnottomia. Nykyään käytössämme olevat työkalut ovat huomattavasti kehittyneempiä, suurelta osin syvän oppimisen ansiosta.
Syväoppiminen on a koneoppimisen menetelmä joka perustuu keinotekoisiin hermoverkkoihin. Näiden hermoverkkojen ansiosta nykyaikainen tekoäly pystyy käsittelemään tietoja melkein samalla tavalla kuin ihmisen aivojen neuronit tulkitsevat tietoa. Toisin sanoen mitä ihmisen kaltaisemmaksi tekoäly tulee, sitä paremmin se jäljittelee ihmisen käyttäytymistä.
Lyhyesti sanottuna nykyaikaiset AI-äänigeneraattorit toimivat näin. Mitä enemmän puhedataa he altistuvat, sitä taitavampia heistä tulee jäljittelemään ihmispuhetta. Tämän tekniikan suhteellisen viimeaikaisista edistysaskeleista johtuen huippuluokan tekstistä puheeksi -ohjelmisto voi olennaisesti kopioida sille syötetyt äänet.
Kuinka uhkanäyttelijät käyttävät tekoälyäänigeneraattoreita
Ei ole yllättävää, että uhkatoimijat käyttävät väärin tätä tekniikkaa. Eikä vain kyberrikolliset sanan tyypillisessä merkityksessä, vaan myös disinformaatioagentit, huijarit, mustahattumarkkinoijat ja peikot.
Sillä hetkellä, kun ElevenLabs julkaisi beta-version tekstistä puheeksi -ohjelmistostaan tammikuussa 2023, äärioikeistolaiset 4chan-ilmoitustaulun peikot alkoivat käyttää sitä väärin. Edistyksellisen tekoälyn avulla he toistivat henkilöiden, kuten David Attenboroughin ja Emma Watsonin, äänet, mikä sai vaikutelman siltä, että julkkikset olisivat aloittamassa ilkeitä, vihamielisiä tiraadija.
Kuten Vice tuolloin raportoitu ElevenLabs myönsi, että ihmiset käyttivät väärin sen ohjelmistoja, erityisesti äänen kloonausta. Tämän ominaisuuden avulla kuka tahansa voi "kloonata" toisen henkilön äänen; sinun tarvitsee vain ladata minuutin mittainen tallenne ja antaa tekoälyn hoitaa loput. Oletettavasti mitä pidempi tallennus on, sitä parempi tulos on.
Maaliskuussa 2023 viraalinen TikTok-video kiinnitti huomion New York Times. Videolla kuuluisa podcaster Joe Rogan ja tohtori Andrew Huberman, joka on usein vieras The Joe Rogan Experiencessa, kuultiin keskustelevan "libidoa lisäävästä" kofeiinijuomasta. Video sai vaikutelman siltä, että sekä Rogan että Huberman tukisivat yksiselitteisesti tuotetta. Todellisuudessa heidän äänensä kloonattiin tekoälyllä.
Samoihin aikoihin Santa Clarassa Kaliforniassa sijaitseva Silicon Valley Bank romahti riskinhallintavirheiden ja muiden ongelmien vuoksi, ja osavaltion hallitus otti sen haltuunsa. Tämä oli Yhdysvaltojen suurin pankkien kaatuminen vuoden 2008 finanssikriisin jälkeen, joten se lähetti shokkiaaltoja maailmanlaajuisille markkinoille.
Paniikkiin vaikutti Yhdysvaltain presidentin Joe Bidenin väärennetty äänitallenne. Nauhoitteella Biden kuultiin ilmeisesti varoittavan välittömästä "romahtamisesta" ja käskevän hallintoaan "käyttää median kaikkia voimia yleisön rauhoittamiseksi". Faktantarkistajat pitävät PolitiFact olivat nopeat kumoamaan leikkeen, mutta todennäköisesti miljoonat olivat kuulleet sen siihen mennessä.
Jos tekoälyäänigeneraattoreita voidaan käyttää julkkiksinä esiintymiseen, niitä voidaan käyttää myös tavallisiksi ihmisiksi, ja juuri sitä verkkorikolliset ovat tehneet. Mukaan ZDNet, tuhannet amerikkalaiset sortuvat huijauksiin, jotka tunnetaan nimellä vishing tai äänen tietojenkalastelu joka vuosi. Eräs iäkäs pariskunta pääsi valtakunnallisiin uutisotsikoihin vuonna 2023, kun he saivat puhelun "pojanpojaltaan", joka väitti olevansa vankilassa ja pyysi rahaa.
Jos olet joskus ladannut YouTube-videon (tai esiintynyt yhdessä), osallistunut suureen ryhmäpuheluun ihmisten kanssa, joita et ole Jos tiedät tai olet ladannut äänesi Internetiin jossain määrin, sinä tai läheisesi voi teoriassa olla vaarassa. Mikä estäisi huijaria lataamasta ääntäsi tekoälygeneraattoriin, kloonaamasta sitä ja ottamasta yhteyttä perheeseesi?
AI-äänigeneraattorit häiritsevät kyberturvallisuusmaisemaa
Ei vaadi kyberturvallisuusasiantuntijaa tunnistamaan, kuinka vaarallista tekoäly voi olla väärissä käsissä. Ja vaikka on totta, että samaa voidaan sanoa kaikesta teknologiasta, tekoäly on ainutlaatuinen uhka useista syistä.
Ensinnäkin se on suhteellisen uusi, mikä tarkoittaa, että emme oikein tiedä, mitä siltä odottaa. Nykyaikaisten tekoälytyökalujen avulla kyberrikolliset voivat skaalata ja automatisoida toimintaansa ennennäkemättömällä tavalla hyödyntäen samalla yleisön suhteellista tietämättömyyttä tässä asiassa. Myös generatiivinen tekoäly mahdollistaa uhkatoimijoille, joilla on vähän tietoa ja taitoa luoda haitallista koodia, rakentaa huijaussivustoja, levittää roskapostia, kirjoittaa tietojenkalasteluviestejä, luoda realistisia kuviaja tuottaa loputtomasti tunteja väärennettyä ääni- ja videosisältöä.
Ratkaisevaa on, että tämä toimii molempiin suuntiin: tekoälyä käytetään myös järjestelmien suojaamiseen, ja todennäköisesti tulee olemaan vielä vuosikymmeniä. Ei olisi kohtuutonta olettaa, että meitä odottaa eräänlainen tekoälyn asevarustelu kyberrikollisten välillä ja kyberturvallisuusteollisuudessa, koska näiden työkalujen puolustus- ja hyökkäämiskyvyt ovat luonnostaan yhtä suuri.
Keskivertoihmiselle laajalle levinneen generatiivisen tekoälyn tulo vaatii radikaalia turvallisuuskäytäntöjen uudelleen miettiminen. Niin jännittävä ja hyödyllinen kuin tekoäly saattaakin olla, se voi ainakin hämärtää rajan sen välillä, mikä on totta ja mitä ei ole, ja pahimmillaan pahentaa olemassa olevia turvallisuusongelmia ja luo uutta tilaa uhkatoimijoille sisään.
Äänigeneraattorit näyttävät tekoälyn tuhoisat mahdollisuudet
Heti kun ChatGPT tuli markkinoille, puheet tekoälyn sääntelemisestä kiihtyivät. Jokainen yritys rajoittaa tätä teknologiaa vaatisi todennäköisesti kansainvälistä yhteistyötä siinä määrin, mitä emme ole nähneet vuosikymmeniin, mikä tekee sen epätodennäköiseksi.
Genie on pullosta, ja parasta, mitä voimme tehdä, on tottua siihen. Se ja toivottavasti kyberturvallisuussektori mukautuu vastaavasti.