Deepfake-teknologialla voi olla hauskaa leikkiä, mutta sen haittojen mahdollisuus on merkittävä. Tässä on mitä syväväärennösten tulevaisuus voi tuoda mukanaan.
Deepfake-kuvan ilmaisevat merkit oli ennen helppo havaita, mutta generatiivinen tekoäly saa meidät kyseenalaistamaan melkein kaiken, mitä näemme ja kuulemme nyt. Jokaisen julkaistavan uuden tekoälymallin myötä väärennetyn kuvan merkit vähenevät, ja se lisää hämmennystä, voit nyt luoda syväväärennösvideoita, ääniklooneja rakkaimmistasi ja valmistaa väärennettyjä artikkeleita sekuntia.
Jotta tekoälyn syvät väärennökset eivät huijaa sinua, on syytä tietää, millaisia vaaroja ne aiheuttavat.
Deepfakesin evoluutio
Deepfake osoittaa henkilön tekevän jotain, mitä ei ole koskaan tapahtunut oikeassa elämässä. Se on täysin väärennös. Nauramme syväväärennöksille, kun niitä jaetaan Internetissä meeminä tai vitsinä, mutta vain harvat pitävät sitä hauskana, kun niitä käytetään johtamaan meitä harhaan.
Aiemmin syväväärennöksiä luotiin ottamalla olemassa oleva valokuva ja muuttamalla sitä kuvankäsittelyohjelmassa, kuten Photoshopissa. Mutta tekoälyn deepfake erottaa muista se, että se voidaan luoda tyhjästä käyttämällä syväoppimisalgoritmeja.
The Merriam-Webster sanakirja määrittelee syvän väärennöksen seuraavasti:
Kuva tai nauhoitus, jota on muutettu ja manipuloitu vakuuttavasti jonkun tekevän tai sanoneen jotain, jota ei todellisuudessa tehty tai sanottu.
Mutta tekoälytekniikan edistymisen myötä tämä määritelmä alkaa näyttää vanhentuneelta. Tekoälytyökalujen avulla syväväärennökset sisältävät nyt kuvia, tekstiä, videoita ja äänen kloonausta. Joskus kaikkia neljää tekoälyn luontitilaa käytetään kerralla.
Koska se on automatisoitu prosessi, joka on uskomattoman nopea ja edullinen käyttää, se on täydellinen työkalu syväväärennöksiä nopeudella, jota emme ole koskaan ennen nähneet – kaikki ilman, että sinun tarvitsee tietää yhtään mitään valokuvien, videoiden tai audio.
AI Deepfakesin suuret vaarat
Isäntä AI-videogeneraattorit on jo olemassa monien muiden ohella AI äänigeneraattorit. Heitä sisään a suuri kielimalli, kuten GPT-4 ja sinulla on resepti uskottavimpien syväväärennösten luomiseen, joita olemme tähän mennessä nähneet modernissa historiassa.
Yksi tapa välttää harhaan joutumista on tietoinen erilaisista tekoälyn syväväärennöksistä ja siitä, kuinka niitä voidaan käyttää huijaamaan sinua. Tässä on vain muutamia vakavia esimerkkejä siitä, kuinka AI-deepfake-tekniikka muodostaa todellisen uhan.
1. AI-identiteettivarkaus
Olet ehkä nähnyt heidät. Ensimmäisiä todella viraalisia tekoälyn syväväärennöksiä, jotka levisivät ympäri maailmaa, olivat kuva Donald Trumpista pidätettynä ja yksi paavi Franciscussta valkoisessa pukutakissa.
Vaikka se näyttää viattomalta uudelleen kuvittelemiselta siitä, mitä kuuluisa uskonnollinen henkilö saattaa pukea päälleen kylmänä päivänä Roomassa; toisella kuvalla, joka esittää poliittisen hahmon vakavassa tilanteessa lain kanssa, on paljon suuremmat seuraukset, jos sitä pidetään todellisena.
Toistaiseksi ihmiset ovat kohdistaneet kohteensa pääasiassa julkkiksiin, poliittisiin hahmoihin ja muihin kuuluisiin henkilöihin luodessaan tekoälyn syväväärennöksiä. Osittain tämä johtuu siitä, että kuuluisilla henkilöillä on paljon kuvia heistä Internetissä, mikä todennäköisesti auttoi mallin kouluttamisessa.
Midjourneyn kaltaisen tekoälykuvageneraattorin tapauksessa – jota käytetään sekä Trumpin että paavin syvässä fakessa – käyttäjän on yksinkertaisesti syötettävä tekstiä, joka kuvaa mitä hän haluaa nähdä. Avainsanoilla voidaan määrittää taidetyyli, kuten valokuva tai fotorealismi, ja tuloksia voidaan hienosäätää skaalaamalla resoluutiota.
Voit yhtä helposti oppia käyttämään Midjourneya ja testaa tämä itse, mutta ilmeisistä moraalisista ja oikeudellisista syistä sinun tulee välttää näiden kuvien julkaisemista julkisesti.
Valitettavasti keskiverto, ei-kuuluisa ihminen ei myöskään takaa, että olet turvassa tekoälyn syväväärennöksiltä.
Ongelmana on AI-kuvageneraattorien tarjoama avainominaisuus: mahdollisuus ladata oma kuvasi ja käsitellä sitä tekoälyllä. Ja sellainen työkalu Ulkomaalaus DALL-E 2:ssa voi laajentaa olemassa olevan kuvan rajojen ulkopuolelle syöttämällä tekstikehotteen ja kuvailemalla, mitä muuta haluat luoda.
Jos joku muu tekisi tämän valokuviesi kanssa, vaarat voisivat olla huomattavasti suuremmat kuin paavin valkaiseminen valkoisessa takissa – he voivat käyttää sitä missä tahansa, teeskennellen sinun itseäsi. Vaikka useimmat ihmiset käyttävät tekoälyä yleensä hyvillä aikomuksilla, on hyvin vähän rajoituksia, jotka estävät ihmisiä käyttämästä sitä vahingoittamiseen, etenkin identiteettivarkauksien yhteydessä.
2. Deepfake Voice Clone -huijaukset
Tekoälyn avulla syväväärennökset ovat ylittäneet rajan, johon useimmat meistä eivät olleet varautuneet: väärennetyt äänikloonit. Vain pienellä määrällä alkuperäistä ääntä – ehkä kerran julkaisemastasi TikTok-videosta tai YouTube-videosta, jossa näytät – tekoälymalli voi toistaa ainoan äänesi.
On kummallista ja pelottavaa kuvitella saavansa puhelun, joka kuulostaa aivan perheenjäseneltä, ystävältä tai kollegalta. Deepfake-äänikloonit ovat riittävän vakava huolenaihe Federal Trade Commission (FTC) on antanut asiasta varoituksen.
Älä luota ääneen. Soita henkilölle, joka oletettavasti otti sinuun yhteyttä ja vahvista tarina. Käytä puhelinnumeroa, jonka tiedät olevan heidän. Jos et saa yhteyttä rakkaasi, yritä ottaa häneen yhteyttä toisen perheenjäsenen tai hänen ystäviensä kautta.
Asiasta uutisoi Washington Post tapaus 70-vuotiaasta pariskunnasta, joka sai puhelun joltakulta, joka kuulosti aivan heidän pojanpojaltaan. Hän oli vankilassa ja tarvitsi kipeästi rahaa takuita varten. Koska heillä ei ollut muuta syytä epäillä kenen kanssa he puhuivat, he menivät eteenpäin ja luovuttivat rahat huijarille.
Myöskään vanhempi sukupolvi ei ole vaarassa, Asiasta uutisoi The Guardian toinen esimerkki pankinjohtajasta, joka hyväksyi 35 miljoonan dollarin liiketoimen useiden "syvästi väärennettyjen puhelujen" jälkeen joltakulta, jonka uskottiin olevan pankin johtaja.
3. Massatuotetut valeuutiset
Suuret kielimallit, esim ChatGPT ovat erittäin, erittäin hyviä tuottamaan tekstiä, joka kuulostaa aivan ihmiseltä, eikä meillä tällä hetkellä ole tehokkaita työkaluja eron havaitsemiseen. Väärissä käsissä valeuutisten ja salaliittoteorioiden tuottaminen on halpaa ja niiden kumoaminen kestää kauemmin.
Väärän tiedon levittäminen ei tietenkään ole mitään uutta, vaan tutkimuspaperi julkaistu arXiv tammikuussa 2023 selittää, että ongelma on siinä, kuinka helppoa on skaalata tuotantoa tekoälytyökaluilla. He kutsuvat sitä "AI-generated vaikuttamiskampanjoiksi", joita heidän mukaansa esimerkiksi poliitikot voisivat käyttää poliittisten kampanjoidensa ulkoistamiseen.
Useamman kuin yhden tekoälyn luoman lähteen yhdistäminen luo korkean tason syvän väärennöksen. Esimerkkinä voidaan mainita, että tekoälymalli voi tuottaa hyvin kirjoitetun ja vakuuttavan uutisen, joka kulkee Donald Trumpin pidättämistä koskevan väärennetyn kuvan rinnalle. Tämä antaa sille enemmän legitimiteettiä kuin jos kuva olisi jaettu yksinään.
Väärennetyt uutiset eivät myöskään rajoitu kuviin ja kirjoituksiin, vaan tekoälyvideoiden sukupolven kehitys tarkoittaa, että näemme lisää syväväärennösvideoita. Tässä on yksi Robert Downey Jr. oksastettuna Elon Muskin videoon, jonka on lähettänyt YouTube-kanava Deepfakery.
Deepfaken luominen voi olla yhtä helppoa kuin sovelluksen lataaminen. Voit käyttää sovellusta, kuten TokkingHeads muuttaa still-kuvista animoituja avatareja, jonka avulla voit ladata oman kuvan ja äänen saadaksesi vaikutelman siltä, että henkilö puhuu.
Suurimmaksi osaksi se on viihdyttävää ja hauskaa, mutta siinä on myös vaikeuksia. Se osoittaa meille, kuinka helppoa on käyttää kenenkään kuvaa saamaan vaikutelman siltä, että kyseinen henkilö lausui sanoja, joita hän ei koskaan puhunut.
Älä anna tekoälyn Deepfake huijata
Deepfakes voidaan ottaa nopeasti käyttöön erittäin pienin kustannuksin ja vaatimalla vähän asiantuntemusta tai laskentatehoa. Ne voivat olla luodun kuvan, äänikloonin tai tekoälyn luomien kuvien, äänen ja tekstin yhdistelmän muotoisia.
Aiemmin syväväärennösten tekeminen oli paljon vaikeampaa ja työläämpää, mutta nyt, kun siellä on paljon tekoälysovelluksia, lähes kuka tahansa voi käyttää työkaluja, joita käytetään syväväärennösten luomiseen. Tekoälytekniikan kehittyessä yhä edistyneempään, kannattaa seurata tarkasti sen aiheuttamia vaaroja.