Deepfakes ja tekoälyn luomat videot ovat täällä jäädäkseen. Mutta viime vuosina niiden laatu ja määrä ovat kasvaneet, ja monet ihmiset ovat huolissaan kansallisesta turvallisuudesta ja yksityisyydestä.

Vaikka anonyymit verkkokäyttäjät yrittivätkin tehdä väärennetystä videostaan ​​realistisen, he eivät koskaan päässeet edistyneen kasvojentunnistusohjelmiston ohi. Tähän asti.

Fooling Face Recognition -sovellusliittymät

Tutkijat Sungkyunkwanin yliopistossa Suwonissa, Etelä -Koreassa, testannut nykyisen deepfake -tekniikan laatua. He testasivat sekä Amazonin että Microsoftin sovellusliittymiä käyttämällä avoimen lähdekoodin ja yleisesti käytettyjä syväväärennöksiä tuottavaa ohjelmistoa nähdäkseen, kuinka hyvin ne toimivat.

Tutkijat käyttivät Hollywoodin julkkisten kasvoja. Jotta voidaan luoda kiinteitä syväväärennöksiä, ohjelmisto tarvitsee paljon korkealaatuisia kuvia erilaisista samojen henkilöiden kuvakulmat, jotka ovat paljon helpompia saada julkkiksista tavallisten sijasta ihmiset.

instagram viewer

Tutkijat päättivät myös käyttää Microsoftin ja Amazonin sovellusliittymää tutkimuksensa vertailukohtina, koska molemmat yritykset tarjoavat julkkisten kasvojentunnistuspalveluja. He käyttivät julkisesti saatavilla olevia tietojoukkoja ja loivat hieman yli 8000 syväväärennöstä. Jokaisesta syväfake -videosta he poimivat useita kasvokuvia ja toimittivat sen sovellusliittymille.

Microsoftin Azure Cognitive Services -palvelun avulla tutkijat pystyivät huijaamaan järjestelmää 78 prosenttia ajasta käyttämällä syväväärennöksiä. Amazonin tulokset olivat hieman parempia, ja 68 prosenttia lähetetyistä kasvoista tunnistettiin todellisiksi.

Entä Deepfake Detectors?

Deepfake -ilmaisimet toimivat suunnilleen samalla tavalla kuin deepfake. Ilmaisimet ovat ohjelmistoja, jotka on koulutettu koneoppimismallien avulla salaisten videoiden havaitsemiseen.

Mutta sen sijaan, että keskityttäisiin luomaan hyperrealistinen video ilmaisimien huijaamiseksi, syväpetokset voivat nyt sisällyttää vastustavia esimerkkejä jokaiseen kehykseen sekoittaakseen AI-järjestelmän. Itse asiassa tämän tyyppisten syväväärennettyjen hyökkäysten onnistumisprosentit vaihtelevat 78-99 prosenttia.

Se pahenee

Deepfakes ovat koneoppimissovellus. Jos haluat luoda sellaisen, joka on jopa etäisesti vakuuttava, tarvitset satoja kuvia saman henkilön kasvoista eri näkökulmista ja erilaisten tunteiden näyttämistä.

Valtavien tietomäärien vuoksi voidaan ajatella, että vain ihmiset, joilla on suuri online -läsnäolo, ovat vaarassa, kuten julkkikset ja poliitikot. Mutta näin ei enää ole.

Deeptracen mukaan verkossa olevien syväväärennösten määrä kasvoi 330 prosenttia alle vuodessa - lokakuusta 2019 kesäkuuhun 2020. Puhumattakaan siitä, että ohjelmistot ja algoritmit, joita syväväärennösten valmistajat käyttävät, ovat tulossa vahvempia ja helpommin saatavilla ja saavutettavissa.

Kuka on Deepfakesin vaarassa?

Kun deepfakesista tuli ensin valtavirta, ensisijainen huolissaan yksityisyydestä ja kansallisesta turvallisuudesta. Ihmiset pelkäsivät, että poliitikkojen ja viranomaisten työntekijöiden videokuvaukseen ei voi enää luottaa.

Mutta vaikka olisi vastuutonta jättää huomiotta tietoturvariskin syväfake -asento, useat kyselyt osoittivat, että syväfake -päättäjät eivät ole vielä niin kiinnostuneita häiritsemään politiikkaa. Suurin osa verkossa olevista syväväärennysvideoista voidaan jakaa kahteen luokkaan: hauskoja julkkishaastatteluvideoita sekä elokuvia ja pornografista materiaalia.

Vaikka äskettäinen tutkimus tehtiin julkkisten kasvojen avulla varmistaakseen, että syväväärennökset olivat korkealaatuisia sovellusliittymien huijaamiseksi, se ei tarkoita, ettet voisi tehdä syväväärennöksiä vähemmällä tiedolla. Toki heillä ei ehkä ole mahdollisuutta huijata kehittyneitä kasvojentunnistusjärjestelmiä, mutta ne voivat olla riittävän vakuuttavia huijatakseen muita ihmisiä.

Nykyään kaikkien sosiaalisessa läsnäolossa olevien syväpetokset voidaan tehdä vakuuttavasti. He tarvitsevat vain muutaman valokuvan sinusta ja ehkä videon, jossa näytät. Tuloksena oleva deepfake saattaa olla huonolaatuinen, mutta se on silti toteutettavissa ja voi olla vahingollista.

Tulevaisuus on vielä tuntematon

Syväpetosten tilasta on monia ristiriitaisia ​​ennusteita, koska ne eivät häviä pian.

Jotkut odottavat apokalyptistä kybertulevaisuutta, jossa et voi luottaa mihinkään verkkomateriaaliin. Toiset ovat optimistisempia, vertaavat syväväärennöksiä animaatioon ja sanovat, että sisällöllä voi olla tulevaisuutta.

JaaTweetSähköposti
Kuinka suojautua vääriltä videoilta

Syväväärennökset ovat yleistyneet. Näin he voivat uhata yksityisyyttäsi verkossa ja kuinka välttyä hyväksymiseltä.

Lue seuraava

Liittyvät aiheet
  • Turvallisuus
  • Internet
  • Kasvojen tunnistus
  • Yksityisyys verkossa
  • Online -suojaus
Kirjailijasta
Anina Ot (52 artikkelia julkaistu)

Anina on freelance -tekniikka- ja Internet -tietotekniikan kirjoittaja MakeUseOfissa. Hän aloitti kyberturvallisuuden kirjoittamisen 3 vuotta sitten toivoen, että se olisi tavallisen ihmisen saatavilla. Haluaa oppia uusia asioita ja valtava tähtitieteellinen nörtti.

Lisää artistilta Anina Ot

tilaa uutiskirjeemme

Liity uutiskirjeeseemme saadaksesi teknisiä vinkkejä, arvosteluja, ilmaisia ​​e -kirjoja ja ainutlaatuisia tarjouksia!

Klikkaa tästä tilataksesi