Koti liiketoiminta Ai ja koneoppiminen hyödyntää syväfakeja, joita on nyt vaikeampi havaita

Ai ja koneoppiminen hyödyntää syväfakeja, joita on nyt vaikeampi havaita

Sisällysluettelo:

Video: Risto Siilasmaa on Machine Learning (Lokakuu 2024)

Video: Risto Siilasmaa on Machine Learning (Lokakuu 2024)
Anonim

Kun siirrymme seuraavaan presidentinvaalikampanjakauteen, sinun kannattaa olla varovainen mahdollisista vaaroista, jotka väärennetyt verkkovideot aiheuttavat tekoälyn (AI) ja koneoppimisen (ML) avulla. AI-ohjelmiston avulla ihmiset voivat luoda syväfake-videoita (lyhenne sanoista "syvä oppiminen ja väärennökset"), joissa ML-algoritmeja käytetään kasvojenvaihtona luomalla illuusio siitä, että joku joko sanoi jotain mitä ei sanonut tai on joku jota he " uudelleen ei. Deepfake-videoita näytetään erilaisilla areenoilla, viihteestä politiikkaan ja yritysmaailmaan saakka. Deepfake-videot voivat paitsi vaikuttaa väärinkäytöksillä kohtuuttomasti vaaleihin, mutta ne voivat tuoda henkilökohtaista hämmennystä tai aiheuttaa harhaanjohtavia tuoteviestejä, jos esimerkiksi toimitusjohtaja ilmoittaa ilmoittavansa tuotteen lanseeraamisesta tai yrityskaupasta, jota ei todellakaan tapahtunut.

Deepfakes ovat osa AI-luokkaa nimeltään "Generative Adversarial Networks" tai GAN, jossa kaksi hermoverkkoa kilpailevat valokuvien tai videoiden luomiseksi, jotka näyttävät todellisilta. GAN: t koostuvat generaattorista, joka luo uuden tietoryhmän, kuten väärennetyn videon, ja erottelijasta, joka käyttää ML-algoritmia syntetisoimaan ja vertailemaan todellisen videon tietoja. Generaattori yrittää edelleen syntetisoida väärennetty video vanhan kanssa, kunnes erottaja ei voi kertoa, että tiedot ovat uusia.

Kuten McAfeen vanhempi varapuheenjohtaja ja teknologiajohtaja Steve Grobman huomautti maaliskuussa San Franciscossa pidetyssä RSA-konferenssissa 2019, vääriä valokuvia on ollut valokuvan keksimisestä lähtien. Hän sanoi, että valokuvien muuttaminen on ollut yksinkertainen tehtävä, jonka voit suorittaa sovelluksessa, kuten Adobe Photoshop. Mutta nyt tämäntyyppiset edistyneet editointiominaisuudet ovat siirtymässä myös videoihin, ja he tekevät sen käyttämällä erittäin kykeneviä ja helposti käytettäviä ohjelmistotyökaluja.

Kuinka syväntekoja luodaan

Vaikka AI-käsitteiden ymmärtäminen on hyödyllistä, ei ole välttämätöntä olla tietoteknikko syväfake-videon rakentamiseksi. Grobmanin mukaan siihen tarvitaan vain joidenkin ohjeiden noudattamista verkossa. RSA-konferenssissa 2019 (katso video yllä) hän esitteli syvän kuvan videosta yhdessä tohtori Celeste Fralickin kanssa, tietotekniikan johtaja ja vanhempi pääinsinööri McAfeessa. Deepfake -video havainnollistaa tämän tekniikan uhkaa. Grobman ja Fralick osoittivat, kuinka virkamies videossa, jossa sanotaan jotain vaarallista, voi johtaa yleisöä harhaan ajattelemaan viestin todellisuutta.

Videon luomiseksi Grobman ja Fralick latasivat deepfake-ohjelmiston. Sitten he ottivat videon Grobmanista, joka todisti Yhdysvaltain senaatin edessä vuonna 2017, ja toivat Fralickin suun Grobmanin päälle.

"Käytin vapaasti saatavissa olevia julkisia kommentteja luomalla ja kouluttamalla ML-mallia; sen avulla voin kehittää syvän kuvan videosta sanojeni tulevan suusta", Fralick kertoi RSA: n yleisölle lavalla. Fralick jatkoi, että syväfilmejä voitaisiin käyttää sosiaaliseen hyväksikäyttöön ja tietosotaan.

Grobman ja Fralick käyttivät syväfake-videonsa tekemiseen Redditin käyttäjän kehittämää FakeApp-työkalua, joka käyttää ML-algoritmeja ja valokuvia videoiden kasvojen vaihtamiseen. RSA-esityksen aikana Grobman selitti seuraavia vaiheita. "Jaoimme videot still-kuviin, poimimme kasvot ja puhdistimme ne lajittelemalla ja siivoamalla ne Instagramissa."

Python-skriptit antoivat McAfee-joukkueelle mahdollisuuden rakentaa suun liikkeitä saadakseen Fralickin puheen vastaamaan Grobmanin suuhun. Sitten heidän piti kirjoittaa joitain mukautettuja skriptejä. Haasteena vakuuttavan syväfaken luomisessa on, kun ominaisuudet, kuten sukupuoli, ikä ja ihon sävy, eivät sovi yhteen, Grobman sanoi.

Hän ja Fralick käyttivät sitten lopullista AI-algoritmia sovittaakseen Grobmanin kuvat, jotka todistavat senaatin edessä, Fralickin puheeseen. Grobman lisäsi, että näiden ML-algoritmien kouluttaminen kesti 12 tuntia.

McAfee esitteli vaiheet, jotka se toteutti syväfake-videon luomiseksi, joka esitettiin vuoden 2019 RSA-konferenssissa. Se käytti FakeApp-nimistä deepfake-ohjelmistoa ja ML-mallien koulutusta muuttamaan Grobmanin videota Fralickin puheella. (Kuvan luotto: McAfee).

Deepfakes-seuraukset

Hakkereiden luomilla syväfakeilla varustetuilla videoilla on mahdollisuus aiheuttaa monia ongelmia - kaikista valtion virkamiehistä, jotka levittävät vääriä vääriä tietoja, julkkiksiin, jotka ovat hämmentyneitä videosta, jota he todella eivät olleet, yrityksiin, jotka vahingoittavat kilpailijoiden osakemarkkinoita. Tietoisina näistä ongelmista, lainsäätäjät lähettivät syyskuussa kirjeen Yhdysvaltain kansallisen tiedustelupäällikön johtajalle Daniel Coatsille pyytääkseen syväväestön aiheuttamien uhkien uudelleentarkastelua. Kirjeessä varoitettiin, että Venäjän kaltaiset maat voivat käyttää syvällisyyksiä sosiaalisessa mediassa levittää vääriä tietoja. Lainvalvojat esittivät joulukuussa laittoman syvän väärentämisen kieltävän lain (2018) syyllisten petosten torjumiseksi "audiovisuaalisten levyjen" yhteydessä. Jää vielä selvittää, hyväksytäänkö lasku.

Kuten mainittiin, kuuluisuudet voivat kärsiä hämmennyksestä videoista, joissa heidän kasvonsa on päällekkäin pornotähteiden kasvojen kanssa, kuten Gal Gadotin tapauksessa. Tai kuvittele toimitusjohtaja, jonka oletetaan ilmoittavan tuoteuutisia ja uppoavan yhtiön varastot. Tietoturva-ammattilaiset voivat käyttää ML: tä tällaisten hyökkäysten havaitsemiseen, mutta jos niitä ei havaita ajoissa, ne voivat aiheuttaa tarpeetonta vahinkoa maalle tai brändille.

"Syväfakeilla, jos tiedät tekemäsi ja tiedät kenelle kohdistaa, voit todella laatia vakuuttavan videon, joka aiheuttaa paljon vahinkoa brändille", sanoi Chares Cunningham, Forrester Researchin pääanalyytikko.. Hän lisäsi, että jos jaat näitä viestejä LinkedInissä tai Twitterissä tai käytät botimuotoa, "" voit murskata yrityksen osakekannan kokonaisen väärin videon perusteella ilman aikaa vaivaa ".

Deepfake-videoiden avulla kuluttajia voidaan huijata uskomaan, että tuote voi tehdä jotain mitä se ei voi. Cunningham huomautti, että jos suuren autonvalmistajan toimitusjohtaja sanoi väärissä videoissa, että yritys ei enää valmista kaasukäyttöisiä ajoneuvoja, ja levittää sitten viestin Twitteriin tai LinkedIniin kyseisessä videossa, kyseinen toiminta voi helposti vahingoittaa brändiä.

"Mielenkiintoista on, että tutkimukseni perusteella ihmiset tekevät otsikoihin ja videoihin perustuvat päätökset 37 sekunnissa, Cunningham sanoi." Joten voit kuvitella, että jos saat videon, joka kestää yli 37 sekuntia, voit saada ihmiset tekemään päätöksen perustuen onko tosiseikkoja vai ei. Ja se on kauhistuttavaa."

Koska sosiaalinen media on haavoittuva paikka, jossa syväfakeista tehdyt videot voivat muuttua viruksellisiksi, sosiaalisen median sivustot pyrkivät aktiivisesti torjumaan syväfaksien uhkia. Esimerkiksi Facebook lähettää suunnittelutiimit, jotka voivat havaita manipuloituja valokuvia, ääntä ja videoita. Ohjelmistojen käytön lisäksi Facebook (ja muut sosiaalisen median yritykset) palkkaavat ihmiset etsimään manuaalisesti syväkuvia.

"Olemme laajentaneet manipuloidun median torjuntaa koskevia pyrkimyksiämme kattamaan myös syvävirheiden torjunta", Facebook-edustaja sanoi lausunnossaan. "Tiedämme, että kaikenlaisen manipuloidun median jatkuva esiintyminen asettaa todellisia haasteita yhteiskunnalle. Siksi panostamme uusiin teknisiin ratkaisuihin, opimme akateemisesta tutkimuksesta ja teemme yhteistyötä alan muiden kanssa ymmärtääksesi syväkuvakkeet ja muut manipuloidun median muodot."

Kaikki syväntekeväisyydet eivät ole huonoja

Kuten olemme nähneet McAfeen kouluttamalla syväfake-videolla ja myöhäisillan TV-sarjassa esitetyillä komediavideoilla, jotkut deepfake-videot eivät välttämättä ole huonoja. Itse asiassa, vaikka politiikka voi paljastaa syväfake-videoiden todelliset vaarat, viihdeteollisuus näyttää usein vain deepfake-videoiden kevyemmän puolen.

Esimerkiksi äskettäisessä jaksossa The Late Show With Stephen Colbert, esitettiin hauska syväfaksi, jossa näyttelijä Steve Buscemin kasvot oli asetettu näyttelijä Jennifer Lawrencen vartalon päälle. Toisessa tapauksessa koomikko Jordan Peeler korvasi videon entisen presidentin Barack Obaman puhumisesta omalla äänellä. Tämänkaltaisia ​​humoristisia syväfilmejä on ilmestynyt myös verkossa, joissa presidentti Trumpin kasvot ovat päällekkäin Saksan liittokansleri Angela Merkelin kasvojen kanssa henkilön puhuessa.

Jälleen, jos syväfake-videoita käytetään satiiriseen tai humoristiseen tarkoitukseen tai yksinkertaisesti viihdeksi, niin sosiaalisen median alustoilla ja jopa elokuvien tuotantotaloilla on lupa käyttää tai käyttää niitä. Esimerkiksi Facebook sallii tämän tyyppisen sisällön käyttöympäristössään, ja Lucasfilm käytti digitaalista virkistystapaa esittelemällä nuoren Carrie Fisherin näyttelijä Ingvild Deilan vartaloon kappaleessa "Rogue One: A Star Wars Story".

McAfeen Grobman huomautti, että osa syväkuilujen takana olevasta tekniikasta on hyödynnetty elokuvien tekemisessä temppupeleillä, jotta näyttelijät pysyisivät turvassa. "Konteksti on kaikkea. Jos se on koomisiin tarkoituksiin ja on selvää, että se ei ole totta, se on jotain, joka on laillista tekniikan käyttöä", Grobman sanoi. "On tärkeätä tunnistaa, että sitä voidaan käyttää kaikenlaisiin eri tarkoituksiin."

(Kuvaluotto: Statista)

Kuinka tunnistaa syvävideot

McAfee ei ole ainoa turvayritys, joka kokeilee väärien videoiden havaitsemista. Kaksi Symantecin tietoturva-asiantuntijaa, tietoturvavastaavan päällikkö Vijay Thaware ja ohjelmistokehitysinsinööri Niranjan Agnihotri, kirjoittivat Black Hat 2018 -elokuvassa otsikolla "AI Gone Rogue: Expeminating Deep Fakes, ennen kuin ne aiheuttavat uhkaa", että he ovat luoneet työkalun havaitsemiseen vääriä videoita, jotka perustuvat Google FaceNetiin. Google FaceNet on hermoverkkoarkkitehtuuri, jonka Google-tutkijat ovat kehittäneet auttamaan kasvojen todentamisessa ja tunnistamisessa. Käyttäjät kouluttavat FaceNet-mallin tietyllä kuvalla ja voivat sitten tarkistaa henkilöllisyytensä testien aikana sen jälkeen.

Yrittääksesi estää syväfilmien leviämisen, AI Foundation, voittoa tavoittelematon organisaatio, joka on keskittynyt ihmisten ja AI: n vuorovaikutukseen, tarjoaa "Reality Defender" -nimisen ohjelmiston väärennetyn sisällön havaitsemiseksi. Se voi skannata kuvia ja videoita nähdäksesi, onko niitä muutettu AI: n avulla. Jos heillä on, he saavat "Rehellinen AI-vesileima".

  • Koneoppimisen yritysopas Koneoppimisen liiketoimintaopas
  • PornHub, Twitter kieltää 'Deepfake' AI-Modified PornHub, Twitter - Kieltää 'Deepfake' AI-Modified Porn
  • Viimeisin Deepfake Tech - Tanssitko kuin Bruno Mars Viimeisin Deepfake Tech - Tanssit kuin Bruno Mars

Toinen strategia on pitää nollaluottamisen käsite mielessä, joka tarkoittaa "älä koskaan luota, tarkista aina" - kyberturvallisuusmotona, joka tarkoittaa, että tietotekniikan ammattilaisten on varmistettava, että kaikki käyttäjät ovat laillisia ennen käyttöoikeuksien myöntämistä. Videosisällön pätevyys on skeptinen. Haluat myös digitaalisen analysoinnin ominaisuuksilla varustetun ohjelmiston väärennetyn sisällön havaitsemiseksi.

Varovainen syvälle

Jatkossa meidän on oltava varovaisempia videosisällön suhteen ja pidettävä mielessä vaarat, joita ne voivat aiheuttaa yhteiskunnalle väärinkäytön vuoksi. Kuten Grobman totesi, "lähitulevaisuudessa ihmisten on oltava skeptisempiä näkemyksensä suhteen ja tunnustettava, että video ja ääni voidaan valmistaa."

Pidä siis skeptinen silmä seuraavissa vaaleissa pidettävissä poliittisissa videoissa, joita katsot, ja älä luota kaikkiin videoihin, joissa on yritysjohtajia. Koska kuulemasi ei välttämättä ole sitä, mitä todella sanottiin, ja harhaanjohtavilla syväfaksivideoilla on mahdollisuus todella vahingoittaa yhteiskuntamme.

Ai ja koneoppiminen hyödyntää syväfakeja, joita on nyt vaikeampi havaita