6. kesäkuuta 2022 Chris Umé ja Thomas Graham, Metaphysicin perustajat, liittyivät America's Got Talent -lavalle Daniel Emmetin kanssa. Daniel Emmet esitti Metaphysicin kehittämän teknologian avulla "You're the Inspiration" AGT: n tuomarin Simon Cowellin kaltaisena livenä lavalla.

Tämä esitys hämmästytti tuomarit ja vangitsi yleisön, ja tuloksena oli neljä kyllä. Ryhmä etenee AGT: n seuraavalle kierrokselle – mutta mitä heidän syvän fake-tekniikan käyttö tarkoittaa viihteen tulevaisuuden kannalta?

Mitä AGT-lavalla tapahtui?

Näyttelyn pääkilpailijat olivat Chris ja Thomas. Kun he esittelivät itsensä, he sanoivat:

"Käytämme tekoälyä hypertodellisen sisällön luomiseen."

Sitten he toivat Daniel Emmetin lavalle. Kun Simon kysyi, kuinka hän pääsi pariin, hän sanoi:

"Olen heidän verkkotyöskentelynsä faneja, ja he ovat AGT: n faneja. Ja kun he pyysivät minua olemaan osa tätä upeaa, ainutlaatuista, alkuperäistä, mitä he aikovat tehdä, en voinut sanoa ei."

Joten kaiken trion ympärillä olevan mysteerin vuoksi Cowell toivotti heille onnea, ja he aloittivat esityksen.

instagram viewer

Kun Emmet valmistautui laulamaan, kamera käveli lavalle tallentaakseen hänet profiiliin, mikä esti yleisön (ja tuomarin näkymän). Musiikin alkaessa kameran syöttö lähetettiin suorana lavan näytölle, jossa näimme Simonin hypertodellisen avatarin Davidin päälle ja laulavan livenä lavalla.

Yleisö villistui sen nähdessään, mutta Simon oli aluksi hämmentynyt. Esityksen jatkuessa Cowell muuttui hämmentyneestä hämmentyneeksi viihdyttäviksi. Lopulta hän (ja muu yleisö) antoi esitykselle seisovat suosionosoitukset, ja ryhmä sai "kyllä" kaikilta neljältä tuomarilta.

Kuinka Deepfakes vaikuttaa viihteeseen

Vaikka syväväärennökset saattavat tuntua uudelta kehitykseltä useimmille ihmisille, näin ei ole, etenkään Hollywoodissa. Myönnetään, että tämä on luultavasti ensimmäinen kerta, kun deepfake-tekniikka on esillä live-ympäristössä, mutta elokuvissa on käytetty tätä tekniikkaa jo vuosia.

Yksi suosittu esimerkki on vuoden 2015 Furious 7 -elokuva, jossa yksi päähenkilöistä, Paul Walker, kuoli auto-onnettomuudessa kuvausten puolivälissä. Sen sijaan, että olisivat tappaneet hänen hahmonsa elokuvassa, tuottajat päättivät kuvata hänet käyttämällä veljiään varajäseninä ja sitten CGI: n avulla laittaakseen Paulin kasvot heidän päälleen.

Tämä tekniikka ilmestyi myös Rogue One: A Star Wars Storyssa vuonna 2016, ja sitä sovellettiin suurmoffi Tarkinille ja prinsessa Leialle. Valitettavasti näyttelijä, joka näytteli hahmoa, Peter Cushing, kuoli vuonna 1994. Ja vaikka Carrie Fisher oli vielä elossa kuvausten aikana, hänen ulkonäkönsä oli muuttunut merkittävästi vuodesta 1977.

Tässä elokuvassa tuotannossa käytettiin syväväärennösten kaltaisia ​​stand-in-laitteita ja tekniikkaa alkuperäisten hahmojen luomiseksi uudelleen digitaalisesti.

Ja vaikka saatat ajatella, että tämä on uusi kehitys, saatat olla yllättynyt tietää, että myös 2000-luvun Gladiator käytti samanlaista tekniikkaa. Kun yksi pääsivunäyttelijöistä, Oliver Reed, yhtäkkiä kuoli kuvaamisen aikana, tuotanto päätti luoda hänet uudelleen digitaalisesti ja käyttämällä varsinaisessa kuvauksessa vartalotuplaa.

Tämä tekniikka menee kuitenkin pidemmälle kuin julkkisten henkiin herättäminen ja ikääntymisen kääntäminen. He käyttivät sitä jopa Captain America: The First Avenger -elokuvassa vaihtaakseen Chris Evanin komean ruumiin Leander Deenyn pienempään runkoon. Vaikka he käyttivät myös monia muita tekniikoita saadakseen hänen pienen ulkoasun ennen Howard Starkin kokeilua, syväfake-tekniikka oli yksi heidän työkaluistaan.

Kuinka Deepfakes voi mullistaa viihdeteollisuuden

Kaikille yllä oleville esimerkeille on yhteistä se, että heidän piti käyttää kuukausia ja miljoonia dollareita saavuttaakseen halutun vaikutuksen. AGT-lavalla Metaphysic kuitenkin osoitti, että he pystyivät luomaan toisen julkkiksen laadukkaasti reaaliajassa.

Vaikka niiden tuotos AGT-lavalla ei ole 100 % realistinen, se on tarpeeksi lähellä todellista asiaa, jos et katso tarkasti. Ja yksi iso asia on, että he tekevät sen reaaliajassa. Teknologian kehittyessä löydämme pian reaaliaikaisen deepfake-sovelluksen, joka voi tuottaa välittömästi realistisen videon.

Kehitys voisi vähentää studioiden riippuvuutta edistyneistä seurantapuvuista ja laajasta jälkikäsittelystä, mikä tehostaisi entisestään niiden jälkituotannon työnkulkua. Ja samalla luomalla saumattomia deepfake-videoita ei ole niin helppoa kuin miltä se kuulostaa, sinun ei enää tarvitse olla usean miljoonan dollarin tuotantoyhtiö, jotta siihen olisi varaa.

Tekniikan valtavirran käyttöönotto antaisi pienemmille studioille ja jopa itsenäisille elokuvantekijöille varaa ja käyttää sitä luomuksiinsa. Itse asiassa jokainen, jolla on älypuhelin, voi kokeile tätä tekniikkaa kasvojenvaihtosovellusten kautta, vaikka ne eivät ole yhtä hyviä kuin AGT-lavalla.

Deepfakesin tulevaisuus elokuvissa ja TV: ssä

Deepfake-tekniikan kehittyessä saatamme pian löytää hetken, jolloin studiot voivat helposti käyttää menneisyyden julkkisten kaltaisia ​​elämyksiä uusimpiin elokuviinsa. Nämä auttaisivat säilyttämään jatkuvuuden, varsinkin kun tuotannot (ja elokuvakävijät) suosivat pitkäkestoisia franchising-ohjelmia, joissa he kohtaavat ongelmia ikääntyvien tai jopa kuolevien julkkisten kanssa.

Tällä kehityksellä on kuitenkin myös toinen puoli – sitä voidaan käyttää henkilön kaltaisuuden luomiseen ilman hänen suostumustaan. Lisäksi samaa videota voidaan käyttää kylvämään pelkoa, jännitystä ja hämmennystä ihmisten keskuudessa, varsinkin jos se on poliittiselta hahmolta ja syväfake ei ole tunnistettavissa sellaisenaan.

Vaikka olemmekin tyytyväisiä tähän teknologiaan viihteen alalla, meidän tulee myös olla varovaisia, että sitä käytetään eettisesti eikä koskaan kylvämään kaaosta.