Koti mielipiteitä Miksi ai: n on paljastettava, että se on ai

Miksi ai: n on paljastettava, että se on ai

Sisällysluettelo:

Video: AlphaGo - The Movie | Full Documentary (Marraskuu 2024)

Video: AlphaGo - The Movie | Full Documentary (Marraskuu 2024)
Anonim

Google toisti hiljattain Duplexin paljastaaksesi nimenomaisesti ravintola-majoittajalle ja salonkihenkilöstölle, että he puhuvat Google Assistantin kanssa ja että heidät tallennetaan.

Google jätti tämän pienen, mutta tärkeän yksityiskohdan esille, kun se esitteli Duplexin I / O-kehittäjäkonferenssissa toukokuussa. Tiedotusvälineiden takaisku seurasi, ja kriitikot toistivat vanhat pelot AI-tekijöiden vapauttamisen vaikutuksista, jotka voivat matkia ihmisen käyttäytymiseen erottamattomilla tavoilla.

Säätämällä Duplexia Google rauhoittaa osan kritiikistä. Mutta miksi on niin tärkeää, että yritykset ovat avoimia AI-edustajiensa henkilöllisyydestä?

Voivatko AI-avustajat palvella pahaa?

"On yhä odotettavissa, että kun viestit yrityksellesi, voit olla vuorovaikutuksessa AI: n käyttämän chatbotin kanssa. Mutta kun kuulet ihmisen puhuvan, oletat yleensä sen olevan oikea henkilö", sanoo toimitusjohtaja Joshua March. of Coversocial.

Maaliskuu kertoo, että olemme alussa ihmisillä, jotka tekevät säännöllisesti tarkoituksenmukaista vuorovaikutusta AI: n kanssa, ja alan edistysaskeleet ovat aiheuttaneet pelon siitä, että hakkerit voivat hyödyntää AI: n agentteja haitallisiin tarkoituksiin.

"Parhaassa tapauksessa haitallisilla aikomuksilla varustetut AI-botit voivat loukata ihmisiä", sanoo Marcio Avillez, Cujo AI: n verkkojohtaja. Mutta Marcio lisää, että saatamme kohdata vakavia uhkia. Esimerkiksi, AI voi oppia erityisiä kielellisiä malleja, jolloin tekniikan mukauttaminen on helpompaa manipuloida ihmisiä, esiintyä uhrina sekä näyttämölle (äänihuijaus) ja muut vastaavat toiminnot.

Monet asiantuntijat ovat yhtä mieltä siitä, että uhka on todellinen. CIO-sarakkeessa Steven Brykman esitti eri tapoja, joilla Duplex-tekniikan kaltaista tekniikkaa voidaan hyödyntää: "Ainakin ihmisille soittaessa ihmisiä on edelleen rajoittava tekijä - ihminen voi soittaa vain niin monta puhelua tunnissa, päivässä. Ihmisille on maksettava palkkaa, pidettävä taukoja ja niin edelleen. Mutta AI-chatbotti voisi kirjaimellisesti soittaa rajoittamattoman määrän puheluita rajattomalle määrälle ihmisiä rajattomasti monin eri tavoin!"

Tässä vaiheessa suurin osa siitä, mitä kuulemme, on spekulointia; emme vielä tiedä niiden uhkien laajuutta ja vakavuutta, joita voi syntyä äänesavustajien tullessa markkinoille. Mutta monia mahdollisista ääniperustaisten avustajien hyökkäyksistä voidaan poistaa, jos tekniikkaa tarjoava yritys kommunikoi nimenomaisesti käyttäjien kanssa, kun he ovat vuorovaikutuksessa AI-agentin kanssa.

Yksityisyyden suoja

Toinen kaksisuuntaisen tekniikan, kuten tekniikan, käyttöön liittyvä ongelma on potentiaalinen riski yksityisyydelle. AI-käyttöiset järjestelmät tarvitsevat käyttäjätietoja algoritmien kouluttamiseksi ja parantamiseksi, ja Duplex ei ole poikkeus. Kuinka se tallentaa, suojaa ja käyttää näitä tietoja, on erittäin tärkeää.

Uusia säädöksiä on tulossa, jotka edellyttävät, että yritykset saavat käyttäjien nimenomaisen suostumuksen, kun he haluavat kerätä tietojaan, mutta ne on suunniteltu enimmäkseen kattamaan tekniikat, joissa käyttäjät tahallisesti aloittavat vuorovaikutuksen. Tämä on järkevää AI-avustajille, kuten Siri ja Alexa, jotka ovat käyttäjän aktivoimia. Mutta ei ole selvää, miten uusia sääntöjä sovellettaisiin AI-avustajiin, jotka tavoittavat käyttäjät ilman, että niitä käynnistetään.

Brykman painottaa artikkelissaan tarvetta luoda sääntelyn takeita, kuten lakeja, jotka edellyttävät yrityksiä ilmoittamaan AI-edustajan läsnäolosta - tai lakia, jonka mukaan kun kysyt chatbotilta, onko kyse chatbotista, sen on sanottava: "Kyllä, Olen chatbotti. " Tällaiset toimenpiteet antaisivat keskustelukumppanille mahdollisuuden irtautua tai ainakin päättää, haluavatko he olla tekemisissä AI-järjestelmän kanssa, joka tallentaa heidän äänensä.

Jopa sellaisten lakien kanssa, yksityisyyden suojaan liittyvät ongelmat eivät katoa. "Suurin riski, jonka ennustan tekniikan nykyiseen inkarnaatioon, on se, että se antaa Googlelle vielä enemmän tietoa yksityiselämästämme, jota sillä ei vielä ollut. Tähän asti he tiesivät vain verkkoviestinnästämme; he saavat nyt todellisen käsityksen reaalimaailman keskustelumme ", sanoo Xianohin perustaja ja toimitusjohtaja Vian Chinner.

Viimeaikaiset yksityisyysskandaalit, joissa on mukana suuria teknologiayrityksiä, joissa käyttäjät ovat käyttäneet käyttäjätietoja kyseenalaisilla tavoilla omien hyötyjensä kannalta, ovat luoneet epäluottamuslauseen siitä, että heille annetaan enemmän ikkunoita elämäämme. "Ihmiset yleensä katsovat, että suuret Piilaakson yritykset näkevät heidät varastona asiakkaiden sijasta, ja heillä on suuri epäluottamus melkein mihin tahansa mitä he tekevät, riippumatta siitä, kuinka uraauurtava ja elämää muuttava se lopulta tapahtuu", Chinner sanoo.

Toimintahäiriöt

Huolimatta siitä, että niillä on luonnollinen ääni ja ääni ja käytetään ihmisen kaltaisia ​​ääniä, kuten "mmhm" ja "ummm", Duplex ei eroa muista nykyaikaisista AI-tekniikoista ja kärsii samoista rajoituksista.

Riippumatta siitä, käytetäänkö ääniä tai tekstiä käyttöliittymänä, AI-agentit kykenevät ratkaisemaan tietyt ongelmat. Siksi me kutsumme heitä "kapeaksi AI" (toisin kuin "yleinen AI" - tyyppi tekoäly, joka voi osallistua yleiseen ongelmanratkaisuun, kuten ihmisen mieli tekee). Vaikka kapea AI voi olla poikkeuksellisen hyvä suorittamaan ohjelmoituja tehtäviä, se voi epäonnistua näyttävästi, kun sille annetaan skenaario, joka poikkeaa sen ongelma-alueesta.

"Jos kuluttaja luulee puhuvansa ihmiselle, hän todennäköisesti kysyy jotain, joka on AI: n normaalin käsikirjoituksen ulkopuolella, ja saa sitten turhauttavan vastauksen, kun robotti ei ymmärrä", sanoo Conversocial's March.

Sitä vastoin, kun henkilö tietää puhumassaan AI: n kanssa, joka on koulutettu varaamaan pöytiä ravintolassa, hän yrittää välttää kielen käyttöä, joka sekoittaa AI: n ja saa sen käyttäytymään odottamattomalla tavalla, varsinkin jos se tuo heille asiakas.

"Duplexista puheluita vastaanottavien työntekijöiden tulisi myös saada suoraviivainen johdanto, että tämä ei ole oikea henkilö. Tämän avulla henkilöstön ja AI: n välinen viestintä olisi varovaisempaa ja selkeämpää", Avillez sanoo.

Tästä syystä siihen saakka, kunnes (ja jos) kehitämme AI: tä, joka pystyy toimimaan samalla tavalla kuin ihmisen älykkyys, on yritysten itsensä etujen mukaista olla avointa AI: n käytöstä.

Päivän lopussa Duplexin kaltaisten ääni-avustajien pelko johtuu siitä, että he ovat uusia, ja olemme edelleen tottuneet kohtaamaan heitä uusissa ympäristöissä ja käyttötapauksissa. "Ainakin jotkut tuntuvat erittäin epämiellyttävältä ajatukselta puhua robotille tietämättä sitä, joten se pitäisi toistaiseksi todennäköisesti paljastaa keskustelun vastapuolille", Chinner sanoo.

  • AI on (myös) voima hyvälle AI on (myös) voima hyvälle
  • Kun AI hämärtää linjan todellisuuden ja fiktion välillä Kun AI hämärtää linjan todellisuuden ja fiktion välillä
  • Keinotekoisella älykkyydellä on bias-ongelma, ja se on meidän virheemme Keinotekoisella älykkyydellä on bias-ongelma, ja se on meidän virheemme

Mutta pitkällä tähtäimellä olemme tottuneet vuorovaikutukseen älykkäämpien ja kykenevämpien AI-edustajien kanssa suorittamaan tehtäviä, joiden aiemmin ajateltiin olevan ihmisten toimijoiden yksinomainen toimialue.

"Seuraava sukupolvi ei välitä siitä, puhuuko he AI: lle tai ihmiselle, kun he ottavat yhteyttä yritykseen. He haluavat vain saada vastauksen nopeasti ja helposti, ja he ovat kasvaneet puhumaan Alexan kanssa. Odota pidä puhua ihmisen kanssa on paljon turhauttavampaa kuin vain vuorovaikutus botin kanssa ", sanoo Conversocial's March.

Miksi ai: n on paljastettava, että se on ai