Koti mielipiteitä Kuinka openai-väärennetyt varoitukset laukaisivat todelliset väärennökset

Kuinka openai-väärennetyt varoitukset laukaisivat todelliset väärennökset

Sisällysluettelo:

Video: AlphaGo - The Movie | Full Documentary (Marraskuu 2024)

Video: AlphaGo - The Movie | Full Documentary (Marraskuu 2024)
Anonim

Voittoa tavoittelematon AI-tutkimuslaboratorio OpenAI aiheutti AI: n apokalipsipanician aallon viime kuussa, kun se esitteli huipputeknologian tekstiä tuottavan AI: n, nimeltään GPT-2. Mutta vaikka se juhlii GPT-2: n saavutuksia, OpenAI ilmoitti, ettei se julkaise AI-malliaan yleisölle pelkäämällä, että väärissä käsissä GPT-2: ta voidaan käyttää haitallisiin tarkoituksiin, kuten harhaanjohtavia uutisartikkeleita tuotettaessa, muihin verrattuna muihin. ja väärennetyn sisällön tuotannon automatisointi sosiaalisessa mediassa.

Ennustettavasti OpenAI: n ilmoitus loi sensaatiomaisten uutistarinojen tulvan, mutta vaikka edistyksellistä tekniikkaa voidaankin aseistaa, AI: n on vielä tehtävä, ennen kuin se hallitsee tekstin luomisen. Silloinkin fake-news-kriisin luominen vie enemmän kuin tekstiä tuottava AI. Tässä valossa OpenAI: n varoitukset ylitettiin.

AI ja ihmisen kieli

Tietokoneet ovat historiallisesti kamppailleet ihmiskielen käsittelemiseksi. Kirjallisessa tekstissä on niin paljon monimutkaisuutta ja vivahteita, että niiden muuntaminen klassisiin ohjelmistosääntöihin on käytännössä mahdotonta. Mutta viimeaikainen edistyminen syvässä oppimisessa ja hermoverkoissa on rakentanut tietä erilaiselle lähestymistavalle sellaisten ohjelmistojen luomiseen, jotka pystyvät käsittelemään kieliin liittyviä tehtäviä.

Syväoppiminen on tuonut suuria parannuksia esimerkiksi konekääntämiseen, tekstien yhteenvetoon, kysymyksiin vastaamiseen ja luonnollisen kielen luomiseen. Sen avulla ohjelmistosuunnittelijat voivat luoda algoritmeja, jotka kehittävät omaa käyttäytymistään analysoimalla monia esimerkkejä. Kieliin liittyviä tehtäviä varten insinöörit syöttävät hermoverkkojen digitalisoitua sisältöä, kuten uutisia, Wikipedian sivuja ja sosiaalisen median viestejä. Neuraaliverkot vertailevat tietoja huolellisesti ja ottavat huomioon kuinka tietyt sanat seuraavat toisiaan toistuvissa sekvensseissä. Sitten he muuttavat nämä kuviot monimutkaisiksi matemaattisiksi yhtälöiksi, jotka auttavat heitä ratkaisemaan kieliin liittyviä tehtäviä, kuten ennustamaan puuttuvat sanat tekstisekvenssistä. Yleensä, mitä laadukkaampaa koulutustietoa annat syväoppimallille, sitä paremmaksi se tulee tehtävänsä suorittamisessa.

OpenAI: n mukaan GPT-2: ta on koulutettu 8 miljoonalla verkkosivulla ja miljardeja sanoja, mikä on paljon enemmän kuin muut vastaavat mallit. Se käyttää myös edistyneitä AI-malleja tekstikuvioiden soveltamiseen paremmin. GPT-2: n näytteen lähtö osoittaa, että malli onnistuu ylläpitämään johdonmukaisuutta pidempissä tekstisekvensseissä kuin edeltäjät.

Mutta vaikka GPT-2 on askel eteenpäin luonnollisen kielen luomisen alalla, se ei ole tekninen läpimurto kohti AI: n luomista, joka ymmärtää kirjoitetun tekstin merkityksen ja kontekstin. GPT-2 käyttää edelleen algoritmeja sanasarjojen luomiseksi, jotka ovat tilastollisesti samankaltaisia ​​kuin aiemmin nähneet miljardit tekstikatkelmat - sillä ei ole ymmärrystä siitä, mitä se tuottaa.

Perusteellisessa analyysissä ZDNetin Tiernan Ray tuo esiin useita tapauksia, joissa GPT-2: n tuotosnäytteet pettävät niiden keinotekoisen luonteen tunnetuilla esineillä, kuten termejen päällekkäisyyksillä sekä logiikan ja tosiasioiden johdonmukaisuuden puutteella. "Kun GPT-2 siirtyy kirjoittamiseen, joka vaatii enemmän ideoiden ja logiikan kehittämistä, halkeamat avautuvat melko laajasti", Ray toteaa.

Tilastollinen oppiminen voi auttaa tietokoneita tuottamaan kieliopillisesti oikean tekstin, mutta loogisen ja tosiasiallisen johdonmukaisuuden ylläpitämiseksi tarvitaan syvempää käsitteellistä ymmärrystä. Valitettavasti tämä on edelleen haaste, jota nykyiset AI-sekoitukset eivät ole voittaneet. Siksi GPT-2 voi tuottaa mukavia kappaleita tekstistä, mutta todennäköisesti siihen kohdistuu vaikeaa luoda aito pitkämuotoinen artikkeli tai matkia joku vakuuttavalla tavalla ja pitkän ajanjakson ajan.

Miksi AI Fake-News -paniikki on räjäytetty

Toinen ongelma OpenAI: n päättelyssä: Siinä oletetaan, että AI voi luoda väärennettyjen uutisten kriisin.

Vuonna 2016 joukko makedonialaisia ​​teini-ikäisiä levitti miljoonille ihmisille vääriä uutisia Yhdysvaltain presidentinvaalista. Ironista kyllä, heillä ei ollut edes asianmukaista englannin kielen taitoa; he löysivät tarinoitaan verkosta ja ompelivat erilaista sisältöä yhdessä. He olivat menestyviä, koska he loivat verkkosivut, jotka näyttivät riittävän todistusvoimaisilta vakuuttamaan kävijät luottamaan heihin luotettaviin uutisten lähteisiin. Sensaatiomaiset otsikot, huolimattomat sosiaalisen median käyttäjät ja trendi algoritmit tekivät loput.

Sitten vuonna 2017 pahantahtoiset toimijat laukaisivat diplomaattisen kriisin Persianlahden alueella hakkeroimalla Qatarin valtion ylläpitämiä uutissivustoja ja hallituksen sosiaalisen median tilejä ja julkaisemalla vääriä huomautuksia Qatarin emirin, Sheikh Tamim bin Hamad Al Thanin puolesta.

Kuten nämä tarinat osoittavat, väärennettyjen uutiskampanjoiden menestys riippuu luottamuksen luomisesta (ja pettämisestä), ei tuottamasta suuria määriä johdonmukaista englanninkielistä tekstiä.

OpenAI: n varoitukset väärennetyn sisällön tuotannon automatisoinnista julkaistakseen sosiaalisessa mediassa ovat kuitenkin perusteltuja, koska mittakaavalla ja määrällä on tärkeämpi tehtävä sosiaalisissa verkostoissa kuin perinteisissä tiedotusvälineissä. Oletuksena on, että AI, kuten GPT-2, voi tulvata sosiaalisen median miljoonilla ainutlaatuisilla viesteillä tietystä aiheesta, vaikuttaen trendialgoritmeihin ja julkisiin keskusteluihin.

Mutta silti varoitukset eivät ole todellisuutta. Viime vuosina sosiaalisen median yritykset ovat jatkuvasti kehittäneet kykyjä havaita ja estää automaattista käyttäytymistä. Joten tekstiä tuottavalla AI: llä aseistettu ilkeä toimija joutuisi selviytymään useista haasteista ainutlaatuisen sisällön luomisen lisäksi.

Esimerkiksi he tarvitsevat tuhansia vääriä sosiaalisen median tilejä, joissa he voivat postittaa AI: n tuottaman sisällön. Vielä tiukempi varmistaakseen, että vääriä tilejä ei voi yhdistää, he tarvitsevat yksilöllisen laitteen ja IP-osoitteen jokaiselle tilille.

Se pahenee: Tilit olisi luotava eri aikoina, mahdollisesti yli vuosi tai pidempään, yhtäläisyyksien vähentämiseksi. Viime vuonna New York Timesin tutkimus osoitti, että pelkästään tilien luomispäivämäärät voisivat auttaa löytämään robottitilejä. Piilottaakseen edelleen automatisoidun luonteensa muilta käyttäjiltä ja valvonta-algoritmeilta, tilien on käytettävä ihmisen kaltaista käyttäytymistä, kuten vuorovaikutusta muiden käyttäjien kanssa ja ainutlaatuisen sävyn asettamista viesteihinsä.

Mikään näistä haasteista ei ole mahdoton ratkaista, mutta ne osoittavat, että sisältö on vain yksi osa tarvittavaa vaivaa sosiaalisen median väärennettyjen uutiskampanjoiden toteuttamiseksi. Ja jälleen kerran, luottamuksella on tärkeä rooli. Muutamilla luotettavilla sosiaalisen median vaikuttajilla, jotka lähettävät muutamia vääriä uutisviestejä, on suurempi vaikutus kuin joukolla tuntemattomia tilejä, jotka tuottavat suuria määriä sisältöä.

Puolustaa OpenAI: n varoituksia

OpenAI: n liioitellut varoitukset laukaisivat median hype- ja paniikkisyklin, joka ironisesti rajoitti itse väärennettyjä uutisia ja sai arvostettujen AI-asiantuntijoiden kritiikin.

He kutsuivat mediaväkeä pääsemään varhaisessa vaiheessa tuloksiin lehdistösaartolla, joten kaikki julkistettiin samana päivänä. Yksikään tutkija, jota tiedän, ei saanut nähdä suurta mallia, mutta toimittajat tekivät. Kyllä, he räjäyttivät sen tarkoituksella.

- Matt Gardner (@nlpmattg) 19. helmikuuta 2019

Jokaista uutta ihmistä voidaan potentiaalisesti käyttää väärennettyjen uutisten tuottamiseen, salaliitoteorioiden levittämiseen ja ihmisiin vaikuttamiseen.

Pitäisikö meidän sitten lopettaa vauvojen luominen?

- Yann LeCun (@ylecun) 19. helmikuuta 2019

Halusimme vain antaa teille kaikille pään ylös, laboratorioimme löysi uskomattoman läpimurron kielten ymmärtämisessä. mutta olemme myös huolissamme siitä, että se saattaa joutua väärään käsiin. joten päätimme romuttaa sen ja julkaista sen sijaan vain tavallisia * ACL-juttuja. Suuri kunnioitus joukkueelle heidän hienosta työstään.

- (((? () (? () 'Yoav)))) (@yoavgo) 15. helmikuuta 2019

AI: n tutkija ja Approxposed Correcen päätoimittaja Zachary Lipton huomautti OpenAI: n historiasta "käyttävän blogiaan ja ylisuuria huomiota katapultin epäkypsään työhön julkisessa näkymässä ja usein pelaamassa työn ihmisturvallisuusnäkökohtia, joilla ei vielä ole intellektualia jalat seistä."

Vaikka OpenAI ansaitsee kaiken kritiikin ja kuumuuden, jonka se on saanut harhaanjohtavien huomautustensa johdosta, on myös oikein olla huolissaan tekniikansa mahdollisista haitallisista käytöistä, vaikka yritys käyttäisikin vastuutonta tapaa kouluttaa kansalaisia ​​siitä.

  • AI-teollisuuden eettisen laskennan vuosi AI-teollisuuden eettisen huomioon ottamisen vuosi
  • Epäoikeudenmukainen etu: Älä odota, että AI pelaa kuin ihminen Epäoikeudenmukainen etu: Älä odota, että AI pelaa kuin ihminen
  • Tämä AI ennustaa online-uistelua ennen kuin tapahtuu Tämä AI ennustaa online-uistelua ennen kuin tapahtuu

Viime vuosina olemme nähneet, kuinka AI-tekniikat, jotka on julkistettu ilman ajattelua ja pohdintaa, voidaan aseistaa väärin tarkoituksiin. Yksi esimerkki oli FakeApp, AI-sovellus, joka voi vaihtaa kasvoja videoissa. Pian FakeAppin julkaisun jälkeen sitä käytettiin väärennettyjen pornografisten videoiden luomiseen, joissa esiintyi kuuluisuuksia ja poliitikkoja, mikä aiheutti huolta AI-koneiden väärentämisen uhasta.

OpenAI: n päätös osoittaa, että meidän on keskeytettävä ja pohdittava julkisesti julkaistavan tekniikan mahdollisia seurauksia. Ja meidän on käytävä aktiivisempaa keskustelua AI-tekniikoiden riskeistä.

"Yksi organisaatio, joka keskeyttää yhden tietyn projektin, ei oikeastaan ​​aio muuttaa mitään pitkällä tähtäimellä. Mutta OpenAI saa paljon huomion kaikesta mitä he tekevät… ja mielestäni heille tulisi antaa kiitosta siitä, että he kääntyivät huomion keskittymiseen tähän asiaan", David Bau, tutkija MIT: n tietotekniikan ja tekoälyn laboratoriossa (CSAIL), kertoi Slatelle.

Kuinka openai-väärennetyt varoitukset laukaisivat todelliset väärennökset