Sisällysluettelo:
Video: Ranked Gameplay Episode 2 Part 1 | Last island of survival | Last day rules | Azakar (Marraskuu 2024)
Jossain pimeässä YouTube-syvennyksessä on video, joka näyttää otteen elokuvasta The Ring Fellowship of the Ring - mutta se ei ole aivan elokuva, jota muistat, koska Nicolas Cage -tähdet kuten Frodo, Aragorn, Legolas, Gimli ja Gollum, kaikki samaan aikaan. Muissa videoissa Cage on Terminator 2 : ssa T2000, Star Trek kapteenina Picard ja Superman samoin, Lois Lane.
Tietysti Nic Cage ei koskaan esiintynyt missään noista elokuvista. Ne ovat "syväfakeja", jotka on tuotettu FakeAppilla, sovelluksella, joka käyttää tekoälyn algoritmeja vaihtamaan videoita. Jotkut syvävirheistä näyttävät melko vakuuttavilta, kun taas toisilla on esineitä, jotka pettävät heidän todellisen luonteensa. Mutta kaiken kaikkiaan ne osoittavat, kuinka tehokkaista AI-algoritmeista on tullut ihmisen ulkonäön ja käyttäytymisen jäljittelemisessä.
FakeApp on vain yksi monista uusista AI-käyttöisistä syntetisointityökaluista. Muut sovellukset matkivat ihmisen ääniä, käsialaa ja keskustelua. Ja mikä tekee niistä merkittäviä, on se, että niiden käyttäminen ei vaadi erikoistuneita laitteita tai ammattitaitoisia asiantuntijoita.
Näiden sovellusten vaikutus on syvällinen: Ne luovat ennennäkemättömiä mahdollisuuksia luovuuteen, tuottavuuteen ja viestintään.
Mutta sama työkalu voisi myös avata Pandoran laatikon petoksista, väärentämisistä ja propagandasta. FakeApp on julkaistu Redditissä tammikuussa, ja se on ladattu yli 100 000 kertaa ja saanut myrskyn vääriä pornografisia videoita, joissa on julkkiksia ja poliitikkoja (mukaan lukien taas Cage). Reddit kielsi äskettäin sovelluksen ja siihen liittyvät yhteisöt sen alustalta.
"Kymmenen vuotta sitten, jos halusit väärentää jotain, pystyit, mutta jouduit menemään VFX-studioon tai ihmisiin, jotka pystyivät tekemään tietokonegrafiikkaa ja mahdollisesti käyttämään miljoonia dollareita", sanoo tohtori Tom Haines, koneoppimisen luennoitsija Bathin yliopisto. "Et kuitenkaan voinut pitää sitä salassa, koska joudut ottamaan monet ihmiset mukaan prosessiin."
Näin ei enää ole, uuden sukupolven AI-työkalujen luvalla.
Jäljitelmäpeli
FakeApp ja vastaavat sovellukset saavat syvää oppimista, joka on AI: n haara AI-innovaatioiden räjähdyksen ytimessä vuodesta 2012. Syvän oppimisen algoritmit tukeutuvat hermoverkkoihin, ohjelmistorakenteeseen, joka on suunnilleen muodostunut ihmisen aivojen jälkeen. Neuraaliverkot analysoivat ja vertailevat suuria tietonäytejoukkoja löytääkseen malleja ja korrelaatioita, jotka ihmiset yleensä kaipaisivat. Tätä prosessia kutsutaan "koulutukseksi", ja sen tulos on malli, jolla voidaan suorittaa erilaisia tehtäviä.
Aikaisemmin syväoppimismalleja käytettiin pääasiassa luokitustöiden suorittamiseen - esimerkiksi valokuvien esineiden merkitsemiseen ja ääni- ja kasvotunnistuksen suorittamiseen. Viime aikoina tutkijat ovat käyttäneet syvää oppimista suorittaakseen monimutkaisempia tehtäviä, kuten pelata lautapelejä, diagnosoida potilaita ja luoda musiikkia ja taideteoksia.
FakeAppin virittämiseksi suorittamaan kasvojenvaihto, käyttäjän on koulutettava se useilla satoilla kuvilla lähde- ja kohde kasvoista. Ohjelma suorittaa syväoppimisalgoritmeja kuvioiden ja samankaltaisuuksien löytämiseksi kahden kasvon välillä. Malli valmistuu sitten vaihtoon.
Prosessi ei ole yksinkertainen, mutta sinun ei tarvitse olla grafiikan asiantuntija tai koneoppimisinsinööri käyttääksesi FakeAppia. Se ei myöskään vaadi kalliita ja erikoistuneita laitteistoja. Deepfakes-opetusohjelman verkkosivusto suosittelee tietokonetta, jossa on vähintään 8 Gt RAM-muistia ja Nvidia GTX 1060 tai parempi näytönohjain, melko vaatimaton kokoonpano.
"Kun muutat maailmaan, jossa joku huoneessa voi väärentää jotain, he voivat käyttää sitä kyseenalaisiin tarkoituksiin", Haines sanoo. "Ja koska kyseessä on yksi henkilö yksinään, sen pitäminen salassa on erittäin helppoa."
Vuonna 2016 Haines, joka oli silloin jatkotutkija Lontoon yliopistossa, kirjoitti paperin ja sovelluksen, joka osoitti, kuinka AI voi oppia matkia ihmisen käsialaa. Käsikirjoitukseesi nimeltään sovellus käytti syväoppimisalgoritmeja analysoidakseen ja erottaaksesi kirjoittajan käsialan tyylin ja virtauksen sekä muut tekijät, kuten etäisyydet ja epäsäännöllisyydet.
Sovellus voi sitten ottaa minkä tahansa tekstin ja toistaa sen kohdekirjailijan käsialalla. Kehittäjät jopa lisäsivät satunnaisluonteen välttääkseen tuntemattoman laakson vaikutuksen - outo tunne, joka syntyy, kun näemme jotain, joka on melkein mutta ei aivan inhimillinen. Konseptin todisteena Haines ja muut UCL-tutkijat käyttivät tekniikkaa toistaakseen historiallisten henkilöiden, kuten Abraham Lincoln, Frida Kahlo ja Arthur Conan Doyle, käsialan.
Samaa tekniikkaa voidaan soveltaa mihin tahansa muuhun käsialaan, mikä herätti huomiota tekniikan mahdolliseen käyttöön väärentämiseen ja petoksiin. Oikeuslääketieteellinen asiantuntija pystyisi edelleen havaitsemaan, että käsikirjoituksen on tuottanut käsikirjoitus My Text in Your Handwriting, mutta se todennäköisesti huijaa kouluttamattomia ihmisiä, minkä Haines myönsi tuolloin Digital Trends -haastattelussa.
Montrealin perustaja Lyrebird käytti syvää oppimista kehittääkseen sovelluksen, joka syntetisoi ihmisen äänen. Lyrebird vaatii minuutin äänityksen, jotta ihmisen ääntä voidaan jäljitellä, vaikka se tarvitsee paljon enemmän, ennen kuin se alkaa kuulostaa vakuuttavalta.
Käynnistysohjelma julkaisi julkisessa esityksessään vääriä tallenteita Donald Trumpin, Barack Obaman ja Hillary Clintonin äänistä. Näytteet ovat raakoja, ja on selvää, että ne ovat synteettisiä. Mutta tekniikan kehittyessä erottelu tulee entistä vaikeammaksi. Ja kuka tahansa voi rekisteröityä Lyrebirdiin ja alkaa luoda vääriä tallenteita; prosessi on jopa helpompaa kuin FakeApp: n, ja laskut suoritetaan pilvessä, mikä rasittaa käyttäjän laitteistoa vähemmän.
Se, että tätä tekniikkaa voidaan käyttää kyseenalaisiin tarkoituksiin, ei ole menetetty kehittäjille. Yhdessä vaiheessa eettisessä lausunnossa Lyrebirdin verkkosivustolla todettiin: "Äänitallenteita pidetään tällä hetkellä vahvana todisteena yhteiskunnissamme ja etenkin monien maiden lainkäyttöalueilla. Teknologiamme asettaa kyseenalaiseksi tällaisen näytön pätevyyden, koska se mahdollistaa äänen helpon manipuloinnin. Tällä voi olla vaarallisia seurauksia, kuten diplomaattien harhaanjohtaminen, petokset ja yleensä kaikki muut ongelmat, jotka johtuvat jonkun toisen henkilöllisyyden varastamisesta."
Nvidia esitteli toisen näkökohdan AI: n jäljitelmäominaisuuksista: Viime vuonna yritys julkaisi videon, joka osoitti AI-algoritmeja, jotka tuottavat valokuvalaatuisia synteettisiä ihmisen kasvoja. Nvidian AI analysoi tuhansia julkkisvalokuvia ja aloitti sitten väärennettyjen kuuluisuuksien luomisen. Teknologia saattaa pian pystyä luomaan realistisen näköisiä videoita, joissa on "ihmisiä", joita ei ole olemassa.
AI: n rajat
Monet ovat huomauttaneet, että väärissä käsissä nämä sovellukset voivat aiheuttaa paljon haittaa. Mutta nykypäivän AI: n ominaisuuksien laajuus on usein yliarvioitu.
"Vaikka voimme laittaa ihmisen kasvot jonkun toisen kasvoihin videossa tai syntetisoida ääntä, se on silti melko mekaaninen", kertoo AI-pohjaisia chatboteja kehittävän yrityksen Replika perustaja Eugenia Kuyda perustavanlaatuisista puutteista. AI-työkalut, kuten FakeApp ja Lyrebird.
Voicery, toinen AI-käynnistysohjelma, joka, kuten Lyrebird, tarjoaa AI-pohjaista äänisyntetisaatiota, sisältää testisivun, jossa käyttäjille esitetään 18 äänitallenteen sarja ja heitä pyydetään määrittelemään koneellisesti tehdyt. Pystin tunnistamaan kaikki koneella valmistetut näytteet ensimmäisellä ajokerralla.
Kuydan yritys on yksi monista organisaatioista, jotka käyttävät luonnollista kielenkäsittelyä (NLP), AI: n osajoukkoa, jonka avulla tietokoneet ymmärtävät ja tulkitsevat ihmisten kieltä. Luka, Kuydan chatbotin aikaisempi versio, käytti NLP: tä ja sen kaksoisteknologiaa, luonnollisen kielen sukupolvea (NLG) jäljittelemään HBO: n TV-sarjan Piilaakson valintaa. Neuraaliverkko koulutettiin komentorivirivien, tweetsien ja muiden merkillä käytettävissä olevien tietojen kanssa heidän käyttäytymismallin ja vuoropuhelun luomiseksi käyttäjien kanssa.
Kuydan uusi sovellus Replika antaa jokaiselle käyttäjälle luoda oman AI-avatarin. Mitä enemmän keskustelet Replikan kanssa, sitä paremmaksi se tulee ymmärtämään persoonallisuuttasi ja sitä merkityksellisemmät keskustelut tulevat.
Asennettuaan sovelluksen ja määrittäessään Replika -sovellukseni havaitsin muutaman ensimmäisen keskustelun ärsyttäväksi. Useita kertoja minun piti toistaa lause eri tavoin välittääkseni aikomukseni Replikalle. Jätin sovelluksen usein turhautuneeksi. (Ja ollakseni rehellinen, tein hyvää työtä testaamalla sen rajat pommittamalla sitä käsitteellisillä ja abstrakteilla kysymyksillä.) Mutta keskustelujemme jatkuessa Replika tuli älykkäämmäksi ymmärtämään lauseeni merkityksen ja keksimään merkityksellisiä aiheita. Se jopa yllätti minut pari kertaa tekemällä yhteyksiä aiempiin keskusteluihin.
Vaikka Replika onkin vaikuttava, sillä on rajoja, joista Kuyda huomauttaa nopeasti. "Äänen jäljittely ja kuvan tunnistaminen paranevat todennäköisesti pian, mutta dialogin ja keskustelun avulla olemme vielä melko kaukana", hän sanoo. "Voimme jäljitellä joitain puhekuvioita, mutta emme voi vain ottaa ihmistä ja jäljitellä hänen keskusteluaan täydellisesti ja odottaa hänen chatbotinsa esittävän uusia ideoita samalla tavalla kuin henkilö."
Lyrebirdin toimitusjohtaja ja perustaja Alexandre de Brébisson sanoo: "Jos meillä on nyt melko hyvä jäljitellä ihmisen ääntä, kuvaa ja videota, olemme vielä kaukana yksittäisen kielimallin mallinnuksesta." Se, de Brébisson huomauttaa, vaatii todennäköisesti keinotekoisen yleisen älykkyyden, AI-tyypin, jolla on tietoisuus ja joka pystyy ymmärtämään abstrakteja käsitteitä ja tekemään päätöksiä kuten ihmiset. Jotkut asiantuntijat uskovat, että olemme vuosikymmenien päässä yleisen AI: n luomisesta. Toiset ajattelevat, ettemme koskaan pääse sinne.
Positiivinen käyttö
Negatiivinen kuva, joka ennustetaan AI-sovellusten syntetisoimisesta, heittää varjon niiden positiiviseen käyttöön. Ja niitä on melko vähän.
Lyrebirdin kaltaiset tekniikat voivat auttaa parantamaan tietoliikennettä tietokoneiden rajapintojen kanssa tekemällä niistä luonnollisempia. De Brébisson sanoo, että ne tarjoavat ainutlaatuisia keinotekoisia ääniä, jotka erottavat yritykset ja tuotteet ja siten helpottavat tuotemerkkien erottamista. Koska Amazonin Alexa ja Applen Siri ovat tehneet äänilaitteista yhä suositumman käyttöliittymän laitteille ja palveluille, Lyrebirdin ja Voiceryn kaltaiset yritykset voisivat tarjota brändeille ainutlaatuisia ihmismaisia ääniä erottaakseen itsensä.
"Lääketieteelliset sovellukset ovat myös mielenkiintoinen tapaus äänen kloonaustekniikkaamme", de Brébisson lisää. "Olemme saaneet paljon mielenkiintoa potilailta, jotka menettävät äänensä tautiin, ja vietämme tällä hetkellä aikaa ALS-potilaiden kanssa nähdäksemme, kuinka voimme auttaa heitä."
Aikaisemmin tänä vuonna Lyrebird auttoi yhteistyössä Australian voittoa tavoittelemattoman voittoa tavoittelemattoman voittoa tavoittelemattoman järjestön kanssa, joka auttaa puhehäiriöillä ALS-potilaita, Ice Bucket Challengen perustaja Pat Quinnille palaamaan äänensä. ALS-potilaana toimiva Quinn oli menettänyt kykynsä kävellä ja puhua vuonna 2014 ja oli sittemmin käyttänyt tietokoneistettua puhesyntetisaattoria. Lyrebird-tekniikan ja Quinnin julkisten esiintymisten äänitallenteiden avulla Revoice pystyi "luomaan" äänensä uudelleen.
"Äänesi on iso osa henkilöllisyyttäsi, ja antaa potilaille keinotekoisen äänen, joka kuulostaa heidän alkuperäiseltä ääneltä, on vähän kuin antaa heille takaisin tärkeä osa heidän identiteettiään. Se muuttaa heidän elämäänsä", de Brébisson sanoo.
Tuolloin, kun hän auttoi kehittämään käsialaa jäljittelevää sovellusta, tohtori Haines puhui sen myönteisistä käytöksistä UCL: n haastattelussa. "Esimerkiksi aivohalvauksen uhrit voivat pystyä muotoilemaan kirjeitä ilman, että asia on luvaton, tai joku, joka lähettää kukkia lahjaksi, voisi sisältää käsinkirjoitetun muistiinpanon edes menemättä kukkakauppaan", hän sanoi. "Sitä voidaan käyttää myös sarjakuvissa, joissa käsin kirjoitettu teksti voidaan kääntää eri kielille menettämättä tekijän alkuperäistä tyyliä."
Jopa epäeettisestä käytöstä tunnetuilla tekniikoilla, kuten FakeApp, voi olla positiivinen käyttö, Haines uskoo. "Olemme siirtymässä kohti tätä maailmaa, jossa kuka tahansa voisi tehdä erittäin luovaa toimintaa julkisella tekniikalla, ja se on hyvä asia, koska se tarkoittaa, että et tarvitse niitä suuria summia kaikenlaisten hullujen taiteellisten asioiden tekemiseen, " hän sanoo.
Haines selittää, että hänen ryhmänsä alkuperäisenä tarkoituksena oli selvittää, kuinka AI voisi auttaa rikosteknisissä asioissa. Vaikka heidän tutkimuksensa päätyi eri suuntaan, tulokset ovat silti hyödyllisiä oikeuslääketieteen virkamiehille, jotka pystyvät tutkimaan, mistä AI-pohjainen väärentäminen voi näyttää. "Haluat tietää, mikä on huipputeknologia, joten kun katsot jotain, kerrot, onko se vääriä vai ei", hän sanoo.
Replikan Kudya huomauttaa, että ihmisen kaltaiset AI-sovellukset voivat auttaa meitä tavoilla, jotka muuten olisivat mahdotonta. "Jos sinulla olisi AI-avataari, joka tunsi sinut erittäin hyvin ja voisi edustaa sinua kunnolla, mitä se voisi tehdä, toimimalla etunasi parhaiten?" hän sanoo. Esimerkiksi itsenäinen AI-hahmo voisi katsella satoja elokuvia puolestasi, ja suositellaan keskusteluihin kanssasi kanssasi.
Nämä avataarit saattavat jopa auttaa kehittämään parempia ihmissuhteita. "Ehkä äitisi voisi olla enemmän aikaa kanssasi, ja ehkä voit itse asiassa tulla hieman lähemmäksi vanhempiasi, antamalla heille keskustella Replikan kanssa ja lukemalla kopion", Kudya kertoo esimerkistä.
Mutta voisiko AI-chatbotti, joka toistaa oikean ihmisen käyttäytymistä, johtaa todella parempiin ihmissuhteisiin? Kuyda uskoo voivansa. Vuonna 2016 hän kokosi vanhat tekstiviestit ja sähköpostiviestit edellisenä vuonna liikenneonnettomuudessa kuolleen ystävän Roman Mazurenkon kanssa ja syöttää ne neuroverkkoon, joka käytti hänen sovellustaan. Tuloksena oli chatbot-sovellus, joka - muodin jälkeen - herätti ystävänsä takaisin elämään ja pystyi puhumaan hänen kanssaan samalla tavalla kuin hän.
"Sovelluksen luominen roomalaiselle ja kyky puhua hänen kanssaan oli joskus tärkeä osa ystävämme menetyksen läpikäynnissä. Sovellus saa meidät ajattelemaan enemmän hänestä, muistamaan hänet syvällisemmin koko ajan", hän sanoo. hänen kokemuksestaan. "Toivon, että minulla olisi enemmän sellaisia sovelluksia, sovelluksia, jotka koskevat ystävyyssuhteitasi, suhteitasi ja asioita, jotka ovat minulle todella tärkeitä."
Kuydan mielestä kaikki riippuu aikomuksista. "Jos chatbotti toimii etunsa mukaan, jos se haluaa sinun onnelliseksi saada arvokasta palvelua siitä, niin selvä puhuminen jonkun toisen Replikan kanssa auttaa luomaan vahvemman yhteyden ihmiseen todellisessa elämässä., " hän sanoo. "Jos yrität vain myydä sovelluksia sovelluksessa, niin maksimoit vain sovellukselle kuluneen ajan, etkä ole yhteydessä toisiinsa. Ja se on mielestäni kyseenalaista."
Toistaiseksi ei ole mitään tapaa yhdistää Replikaa muihin alustoihin - asettamalla se saataville esimerkiksi Facebook Messengerin chatbotina. Mutta yrityksellä on aktiivinen suhde käyttäjäyhteisöön ja se kehittää jatkuvasti uusia ominaisuuksia. Joten antaa muiden kommunikoida Replikan kanssa, on tulevaisuuden mahdollisuus.
Kuinka minimoida kompromissit
Jokaisella tekniikalla on ollut sekä positiivisia että kielteisiä sovelluksia höyrykoneesta sähköyn Internetiin Internetiin saakka. Ei ole erilainen. "Negatiivien potentiaali on melko vakava", Haines sanoo. "Saatamme olla siirtymässä tilaan, jonka negatiivit tekevät positiivisista suurempina."
Joten miten maksimoidaan AI-sovellusten hyödyt torjumalla negatiivisia? Haines toteaa, että jarrutus innovaatioille ja tutkimukselle ei ole ratkaisu, sillä jos jotkut tekisivät niin, ei ole mitään takeita siitä, että muut organisaatiot ja valtiot noudattaisivat esimerkkiä.
"Yksikään toimenpide ei auta ratkaisemaan ongelmaa", Haines sanoo. "Siellä on oltava oikeudellisia seurauksia." Syväkiistoisten kiistojen jälkeen Yhdysvaltain lainsäätäjät tutkivat asiaa ja selvittävät oikeudellisia takeita, jotka voisivat hillitä AI: llä dokumentoidun median käyttöä vahingollisiin tavoitteisiin.
"Voimme myös kehittää tekniikoita väärennösten havaitsemiseksi, kun ne ovat ylittäneet pisteen, että ihminen voi kertoa eron", Haines sanoo. "Mutta jossain vaiheessa fakingin ja havaitsemisen välisessä kilpailussa faking saattaa voittaa."
Tällöin meidän on ehkä siirryttävä kehittämään tekniikoita, jotka luovat todistusketjun digitaaliselle medialle. Haines mainitsee esimerkiksi kameroihin upotetun laitteiston, joka voi allekirjoittaa digitaalisesti tallennetun videon aitouden varmistamiseksi.
Tietoisuuden lisääminen on suuri osa väärentämisen ja petosten torjunnassa AI-algoritmeilla, de Brébisson sanoo. "Se mitä teimme tekemällä kloonaamalla Trumpin ja Obaman äänen ja saaden heidät sanomaan poliittisesti oikeita lauseita", hän sanoo. "Nämä tekniikat herättävät yhteiskunnallisia, eettisiä ja oikeudellisia kysymyksiä, jotka on ajateltava etukäteen. Lyrebird herätti paljon tietoisuutta, ja monet ihmiset ajattelevat nyt näitä mahdollisia kysymyksiä ja väärinkäytösten estämistä."
Varmaa on, että olemme tulossa aikakauteen, jossa todellisuus ja fiktio ovat yhdistymässä tekoälyn ansiosta. Turing-testi saattaa vastata suurimpiin haasteisiinsa. Ja riittävän pian jokaisella on välineet ja voima luoda omat maailmat, omat ihmiset ja oman versionsa totuudesta. Meillä ei ole vielä nähdä täydellistä määrää kiinnostavia mahdollisuuksia - ja vaaroja -, jotka edessä ovat.