Kaikki luulevat voivansa havaita syvän väärennösvideon, mutta nopeasti kehittyvä tekniikka, mukaan lukien tekoälytyökalut, tekee väärennettyjen videoiden havaitsemisesta vaikeampaa kuin koskaan.

Key Takeaways

  • Syväväärennökset muodostavat merkittäviä uhkia yhteiskunnalle, mukaan lukien disinformaation levittäminen, maineen vahingoittaminen toisena henkilönä esiintymisen kautta ja kansallisen turvallisuuden konfliktien lietsominen.
  • Vaikka tekoälyteknologia tarjoaa työkaluja syväväärennösten havaitsemiseen, ne eivät ole täydellisiä, ja ihmisen harkintavalta on edelleen ratkaisevan tärkeää syväväärennösten tunnistamisessa.
  • Ihmisillä ja tekoälyn tunnistustyökaluilla on erilaisia ​​vahvuuksia ja heikkouksia syväväärennösten tunnistamisessa kykyjensä yhdistäminen voi parantaa onnistumisastetta syväväärennösten vaarojen havaitsemisessa ja lieventämisessä teknologiaa.

Syväväärennökset uhkaavat kaikkia yhteiskunnan osa-alueita. Kykymme tunnistaa väärennetty sisältö on ratkaisevan tärkeää disinformaation mitätöimiseksi, mutta AI-tekniikan kehittyessä keneen voimme luottaa syväväärennösten havaitsemiseen: ihmisen vai koneen?

Deepfakesin vaarat

Tekoälytekniikan kehittyessä syväväärennösten vaaroista ovat kasvava uhka meille kaikille. Tässä on lyhyt yhteenveto joistakin syvällisimpiin väärennöksiin liittyvistä ongelmista:

  • Disinformaatio: Väärennetyt videot ja äänitallenteet voivat levittää disinformaatiota, kuten valeuutisia.
  • Toisena henkilönä esiintyminen: Esiintymällä henkilöinä syväväärennökset voivat vahingoittaa ihmisten mainetta tai pettää ketään, jonka he tuntevat.
  • Kansallinen turvallisuus: Ilmeinen tuomiopäivän skenaario syväväärennösten kanssa on tekaistua kuvamateriaalia tai ääntä maailmanlaajuisesta johtajasta, joka lietsoo konfliktia.
  • Siviililevottomuudet: Osapuolet voivat myös käyttää harhaanjohtavaa materiaalia ja ääntä herättämään vihaa ja levottomuuksia tiettyjen ryhmien keskuudessa.
  • Kyberturvallisuus: Kyberrikolliset käyttävät jo tekoälyn äänen kloonaustyökaluja kohdentaakseen ihmisiä vakuuttavilla viesteillä tutuilta ihmisiltä.
  • Yksityisyys ja suostumus: Deepfakejen haitallinen käyttö ottaa yksilöiden kaltaisen ilman heidän suostumustaan.
  • Luottamus ja luottamus: Jos et pysty erottamaan totuutta ja petosta, oikeasta tiedosta tulee yhtä epäluotettavaa.

Deepfakeista tulee vain vakuuttavampia, joten tarvitsemme vankat työkalut ja prosessit niiden havaitsemiseen. Tekoäly tarjoaa yhden tällaisen työkalun syväväärennösten havaitsemismallien muodossa. Kuitenkin, kuten algoritmeja, jotka on suunniteltu tunnistamaan tekoälyn luoma kirjoitus, Deepfake-tunnistustyökalut eivät ole täydellisiä.

Tällä hetkellä inhimillinen harkintavalta on ainoa työkalu, johon voimme luottaa. Joten olemmeko algoritmeja parempia tunnistamaan syväväärennöksiä?

Voivatko algoritmit havaita syvät väärennökset paremmin kuin ihmiset?

Deepfake on niin vakava uhka, että teknologiajätit ja tutkimusryhmät omistavat valtavia resursseja tutkimukseen ja kehitykseen. Vuonna 2019 Meta, Microsoft ja Amazon tarjosivat 1 000 000 dollarin palkintoja. Deepfake Detection Challenge tarkimman tunnistusmallin saamiseksi.

Parhaiten suoriutuneen mallin tarkkuus oli 82,56 % verrattuna julkisesti saatavilla olevien videoiden tietojoukkoon. Kuitenkin, kun samoja malleja testattiin 10 000 näkemättömän videon "mustan laatikon tietojoukkoa" vastaan, parhaiten suoriutuneen mallin tarkkuus oli vain 65,18 %.

Meillä on myös runsaasti tutkimuksia, joissa analysoidaan tekoälyn syväväärennösten havaitsemistyökalujen suorituskykyä ihmisiä vastaan. Tietenkin tulokset vaihtelevat tutkimuksesta toiseen, mutta yleensä ihmiset ovat joko yhtä hyviä tai parempia kuin syväväärennösten tunnistustyökalujen onnistumisprosentti.

Yksi vuodelta 2021 julkaistu tutkimus PNAS havaitsivat, että "tavalliset ihmistarkkailijat" saavuttivat hieman korkeamman tarkkuuden kuin johtavat syvän väärennösten tunnistustyökalut. Tutkimuksessa havaittiin kuitenkin myös, että osallistujat ja tekoälymallit olivat alttiita erilaisille virheille.

Mielenkiintoista on, että tutkimus, jonka on tehnyt Sydneyn yliopisto on havainnut, että ihmisaivot ovat alitajuisesti tehokkaampia havaitsemaan syväväärennöksiä kuin tietoiset ponnistelumme.

Visuaalisten vihjeiden havaitseminen Deepfakesista

Deepfake-tunnistuksen tiede on monimutkaista, ja vaadittava analyysi vaihtelee materiaalin luonteen mukaan. Esimerkiksi Pohjois-Korean johtajan Kim Jong-unin pahamaineinen deepfake-video vuodelta 2020 on pohjimmiltaan puhuva päävideo. Tässä tapauksessa tehokkain syväväärennösten tunnistusmenetelmä saattaa olla viseemien (suun liikkeiden) ja foneemien (foneettisten äänien) analysointi epäjohdonmukaisuuksien varalta.

Ihmisasiantuntijat, satunnaiset katsojat ja algoritmit voivat kaikki suorittaa tällaisen analyysin, vaikka tulokset vaihtelevat. The MIT määrittelee kahdeksan kysymystä avuksi tunnistaa syvät fake-videot:

  • Kiinnitä huomiota kasvoihin. Huippuluokan DeepFake-manipulaatiot ovat lähes aina kasvojen muutoksia.
  • Kiinnitä huomiota poskiin ja otsaan. Näyttääkö iho liian sileältä tai liian ryppyiseltä? Onko ihon ikääntyminen samanlainen kuin hiusten ja silmien ikääntyminen? DeepFakes voi olla epäyhtenäinen joissakin mitoissa.
  • Kiinnitä huomiota silmiin ja kulmakarvoihin. Näkyvätkö varjot paikoissa, joita voit odottaa? DeepFakes ei välttämättä edusta täysin kohtauksen luonnollista fysiikkaa.
  • Kiinnitä huomiota laseihin. Onko häikäisyä? Onko liikaa häikäisyä? Muuttuuko häikäisyn kulma henkilön liikkuessa? Jälleen kerran DeepFakes ei välttämättä edusta täysin valaistuksen luonnollista fysiikkaa.
  • Kiinnitä huomiota kasvojen hiuksiin tai niiden puutteeseen. Näyttävätkö nämä hiukset aidolta? DeepFakes voi lisätä tai poistaa viikset, pulisonkit tai parran. DeepFakes saattaa kuitenkin epäonnistua tekemässä kasvojen hiusten muutoksia täysin luonnollisiksi.
  • Kiinnitä huomiota kasvojen luomiin. Näyttääkö myyrä aidolta?
  • Kiinnitä huomiota vilkkumiseen. Räpyttääkö henkilö tarpeeksi vai liikaa?
  • Kiinnitä huomiota huulten liikkeisiin. Jotkut syväväärennökset perustuvat huulten synkronointiin. Näyttävätkö huulten liikkeet luonnollisilta?

Uusimmat tekoälyn syväfake-tunnistustyökalut voivat analysoida samoja tekijöitä jälleen vaihtelevalla menestyksellä. Tietotutkijat kehittävät jatkuvasti myös uusia menetelmiä, kuten luonnollisen verenkierron havaitsemista näytön kaiuttimien kasvoilta. Uudet lähestymistavat ja parannukset olemassa oleviin voivat johtaa siihen, että tekoälyn syväväärennösten tunnistustyökalut ylittävät jatkuvasti ihmisiä tulevaisuudessa.

Äänimerkkien tunnistaminen Deepfakesista

Deepfake-äänen havaitseminen on täysin erilainen haaste. Ilman videon visuaalisia vihjeitä ja mahdollisuutta tunnistaa audiovisuaalisia epäjohdonmukaisuuksia, syväfake havaitseminen on vahvasti riippuvainen äänianalyysistä (joissakin tapauksissa muutkin menetelmät, kuten metatietojen todentaminen, voivat auttaa tapaukset).

Tutkimus, jonka julkaisi University College London Vuonna 2023 havaittiin, että ihmiset pystyvät havaitsemaan syvän fake-puheen 73 % ajasta (englanniksi ja mandariinikiinaksi). Deepfake-videoiden tapaan ihmiskuuntelijat havaitsevat usein intuitiivisesti epäluonnollisia puhekuvioita tekoälyn luomassa puheessa, vaikka he eivät pystyisi määrittämään, mikä näyttää väärältä.

Yleisiä merkkejä ovat:

  • Slurling
  • Ilmaisun puute
  • Tausta- tai häiriökohina
  • Äänen tai puheen epäjohdonmukaisuudet
  • Äänien "täyteyden" puute
  • Liian käsikirjoitettu toimitus
  • Epätäydellisyyksien puute (vääräkäynnistykset, korjaukset, kurkun puhdistaminen jne.)

Jälleen kerran, algoritmit voivat myös analysoida puhetta samojen syväfake-signaalien varalta, mutta uudet menetelmät tekevät työkaluista tehokkaampia. Tutkimuksen tekijä USENIX tunnisti tekoälyn ääniteiden rekonstruktiossa malleja, jotka eivät jäljittele luonnollista puhetta. Se tiivistää, että AI-äänigeneraattorit tuottavat ääntä, joka vastaa kapeita äänialueita (joka on suunnilleen juomapillin kokoinen) ilman ihmisen puheen luonnollisia liikkeitä.

Aikaisemmat tutkimukset Horst Görtz -instituutti analysoinut aitoa ja syvää väärennösääntä englanniksi ja japaniksi paljastaen hienovaraisia ​​eroja aidon puheen ja syväväärennösten korkeammissa taajuuksissa.

Sekä äänikanavat että korkean taajuuden epäjohdonmukaisuudet ovat havaittavissa ihmiskuuntelijoille ja tekoälyn havaitsemismalleille. Korkeataajuisten erojen tapauksessa tekoälymalleista voisi teoriassa tulla yhä tarkempia – vaikka samaa voitaisiin sanoa myös tekoälyn syväväärennöksistä.

Ihmisiä ja algoritmeja huijaavat molemmat syvät väärennökset, mutta eri tavoilla

Tutkimukset viittaavat siihen, että ihmiset ja uusimmat tekoälyntunnistustyökalut pystyvät samalla tavalla tunnistamaan syväväärennöksiä. Onnistumisprosentit voivat vaihdella välillä 50 % - 90+ % testiparametreista riippuen.

Lisäksi syväväärennökset huijaavat ihmisiä ja koneita vastaavassa määrin. Ratkaisevaa on kuitenkin se, että olemme alttiita eri tavoille, ja tämä saattaa olla suurin voimavaramme syväfake-teknologian vaarojen torjumisessa. Yhdistämällä ihmisten vahvuudet ja syväväärennösten tunnistustyökalut lieventävät kunkin heikkouksia ja parantavat onnistumisastetta.

Esimerkiksi, MIT Tutkimukset ovat osoittaneet, että ihmiset tunnistavat paremmin maailman johtajien ja kuuluisien ihmisten väärennöksiä kuin tekoälymallit. Se paljasti myös, että tekoälymallit kamppailivat materiaalien kanssa useiden ihmisten kanssa, vaikka se ehdottikin, että tämä voisi johtua siitä, että algoritmeja on koulutettu materiaalille, jossa on yksi kaiutin.

Toisaalta samassa tutkimuksessa havaittiin, että tekoälymallit suoriutuivat ihmisistä paremmin huonolaatuisella materiaalilla (epäselvä, rakeinen, tumma jne.), joita voitiin tarkoituksella käyttää ihmisten huijaamiseen. Samoin viimeaikaiset tekoälyn havaitsemismenetelmät, kuten verenvirtauksen seuranta tietyillä kasvojen alueilla, sisältävät analyysin, johon ihmiset eivät pysty.

Kun menetelmiä kehitetään lisää, tekoälyn kyky havaita merkkejä, joita emme voi, vain paranee, mutta myös sen kyky pettää. Suuri kysymys on, ohittaako syväväärennösten tunnistustekniikka jatkossakin itse syväväärennöksiä.

Asioiden näkeminen eri tavalla Deepfakesin aikakaudella

Tekoälyn syväväärennösten tunnistustyökalut paranevat edelleen, samoin kuin itse syvän väärennössisällön laatu. Jos tekoälyn pettämiskyky ylittää sen havaitsemiskyvyn (kuten tekoälyn luoman tekstin kanssa), ihmisen harkintavalta voi olla ainoa jäljellä oleva työkalu taistella syväväärennöksiä vastaan.

Jokaisella on velvollisuus oppia syväväärennösten merkit ja tunnistaa ne. Sen lisäksi, että suojelemme itseämme huijauksilta ja turvallisuusuhkilta, kaikki, mistä keskustelemme ja jaamme verkossa, on alttiina disinformaatiolle, jos menetämme käsityksen todellisuudesta.