Koti mielipiteitä Alueen eettisen laskennan vuosi

Alueen eettisen laskennan vuosi

Sisällysluettelo:

Video: What is Artificial Intelligence (or Machine Learning)? (Lokakuu 2024)

Video: What is Artificial Intelligence (or Machine Learning)? (Lokakuu 2024)
Anonim

Siitä lähtien, kun syvät hermostoverkot voittivat maailman tärkeimmän kuvan tunnistuskilpailun vuonna 2012, kaikki ovat olleet innostuneita siitä, mitä tekoäly voisi vapauttaa. Mutta kilpailussa kehittää uusia AI-tekniikoita ja sovelluksia mahdolliset kielteiset vaikutukset otettiin takapenkille.

Nyt olemme siirtymässä kohti enemmän tietoisuutta AI-etiikasta. Vuonna 2018 AI-kehittäjät ovat tietoisempia luomuksensa mahdollisista seurauksista. Monet insinöörit, tutkijat ja kehittäjät tekivät selväksi, että he eivät rakentaisi teknologioita, jotka vahingoittavat tai aiheuttavat vahinkoa viattomien ihmisten elämälle, ja he pitivät yrityksiä.

Kasvojen tunnustaminen lainvalvonnassa

Aikaisemmin kasvojentunnistussovellusten luominen oli vaivalloista, resursseja vaativaa ja virheille altistavaa. Mutta tietokonenäön edistyessä - AI: n osajoukossa, jonka avulla tietokoneet tunnistavat kuvien ja videon sisällön - kasvojentunnistussovellusten luominen tuli paljon helpommaksi ja kaikkien ulottuville.

Suuret teknologiayritykset, kuten Microsoft, Amazon ja IBM, aloittivat pilvipohjaisten palveluiden tarjoamisen, jonka avulla jokainen kehittäjä voi integroida kasvojentunnistustekniikan ohjelmistoihinsa. Tämä avasi monia uusia käyttötapauksia ja sovelluksia eri aloilla, kuten identiteettisuojaus ja todennus, älykkään kodin suojaus ja vähittäismyynti. Mutta yksityisyyden suoja-aktivistit ilmaisivat huolen väärinkäytön mahdollisuuksista.

Toukokuussa 2018 Yhdysvaltain kansalaisvapauksien liitto paljasti, että Amazon markkinoi reaaliaikaista videoanalyysitekniikkaa Rekognition lainvalvontaviranomaisille ja viranomaisille. ACLU: n mukaan vähintään kolmen valtion poliisi käytti tunnistusta kasvojen tunnistukseen valvontavideosyötteissä.

"Tunnistamisen avulla hallitus voi nyt rakentaa järjestelmän automatisoida kenenkään tunnistus ja seuranta. Jos esimerkiksi poliisin vartalokamerat varustetaan kasvojentunnistuksella, upseerien läpinäkyvyyteen ja vastuuvelvollisuuteen tarkoitetut laitteet muuttuisivat edelleen valvontalaitteiksi, jotka on suunnattu ", ACLU varoitti. "Automatisoimalla joukkovalvonta, kasvojentunnistusjärjestelmät, kuten Rekognition, uhkaavat tätä vapautta, muodostaen erityisen uhan yhteisöille, jotka ovat jo perusteettomasti kohdistettu nykyiseen poliittiseen ilmapiiriin. Kun näiden kaltaiset tehokkaat valvontajärjestelmät rakennetaan ja otetaan käyttöön, haittoja on erittäin vaikea poistaa.."

Amazonin työntekijät toistivat ACLU: n huolenaiheet. He kirjoittivat kesäkuussa kirjeen yhtiön toimitusjohtajalle Jeff Bezosille ja vaativat lopettamaan Rekognitionin myymisen lainvalvonnalle. "Yrityksemme ei pidä olla valvontatoimintaa; emme saa olla poliisitoimintaa; meidän ei pitäisi olla tukemaan syrjäytyneitä väestöryhmiä valvovia ja sorrosta kärsiviä", kirje luettiin.

Lokakuussa tuntematon Amazonin työntekijä paljasti, että ainakin 450 työntekijää oli allekirjoittanut toisen kirjeen, jossa kehotettiin Bezosta ja muita johtajia lopettamaan tunnustamisen myyminen poliisille. "Emme voi hyötyä voimakkaiden asiakkaiden joukosta yhteisöidemme kustannuksella; emme voi välttää silmämme liiketoiminnan inhimillisistä kustannuksista. Emme rakenna hiljaa tekniikkaa ihmisten sortamiseksi ja tappamiseksi, joko maassamme tai muissa, " se sanoi.

Googlen sotilaallisen AI-projektin pudotus

Samalla kun Amazon käsitteli tätä sisäistä takaiskua, Google kokenut samanlaisia ​​kamppailuja Yhdysvaltain armeijan AI: n kehittämistä koskevan sopimuksen kanssa, nimeltään Project Maven.

Väitettiin, että Google auttoi puolustusministeriötä kehittämään tietokonevisioteknologiaa, joka käsittelisi drone-videomateriaalia. Päivittäin droonien nauhoittamat videomateriaalit olivat ihmisanalyytikkojen mielestä liian suuret, ja Pentagon halusi automatisoida osan prosessista.

Tunnustaen tehtävän kiistanalaisen luonteen Google-edustaja totesi tarjoavansa vain sovellusliittymiä TensorFlow-koneelle, sen koneoppimisympäristölle, videoiden syötteissä olevien esineiden havaitsemiseksi. Google korosti myös kehittävänsä käytäntöjä ja suojatoimenpiteitä tekniikan eettisten näkökohtien käsittelemiseksi.

Mutta Project Maven ei istunut hyvin Googlen työntekijöiden kanssa - 3000 heistä, mukaan lukien kymmeniä insinöörejä, allekirjoitti pian toimitusjohtajan Sundar Pichain kanssa avoimen kirjeen, jossa vaadittiin ohjelman lopettamista.

"Uskomme, että Googlen ei pitäisi toimia sotatoiminnassa", kirje luettiin. Se pyysi yritystä "laatimaan, julkistamaan ja panemaan täytäntöön selkeän politiikan, jonka mukaan Google eikä sen urakoitsijat koskaan rakenna sodankäynnin tekniikkaa".

Google-työntekijät varoittivat myös, että heidän työnantajansa vaaransivat sen maineen ja kykynsä kilpailla kyvyistä tulevaisuudessa. "Emme voi ulkoistaa tekniikoidemme moraalista vastuuta kolmansille osapuolille", Google-työntekijät korostivat.

Pian sen jälkeen 90 tutkijan ja tutkijan allekirjoittamassa vetoomuksessa kehotettiin Googlen ylin johtoa lopettamaan sotilasalan tekniikka. Allekirjoittajat varoittivat, että Googlen työ asettaa alustan "automatisoidulle kohteiden tunnistamiselle ja itsenäisille asejärjestelmille". He varoittivat myös, että tekniikan kehittyessä he pysyvät "lyhyen askeleen päässä itsenäisten droonien sallimisesta tappaa automaattisesti ilman ihmisen valvontaa tai mielekästä ihmisen hallintaa".

Jännitteiden kasvaessa useat Googlen työntekijät erosivat protestina.

Kuinka tekniikan johtajat reagoivat

Paineen alla Google ilmoitti kesäkuussa, että se ei uusitse puolustusministeriön kanssa sopimusta Maven-projektista sen jälkeen, kun sen voimassaolo päättyy vuonna 2019.

Toimitusjohtaja Sundar Pichai (kuvassa alla) julkaisi blogimerkinnässä eettisiä periaatteita, jotka ohjaavat yrityksen kehittämistä ja AI-tekniikan myyntiä. Pichain mukaan yritys harkitsee tästä lähtien koko yhteiskunnan hyväksi toteutettavia hankkeita ja välttää sellaisen AI: n kehittämistä, joka vahvistaa olemassa olevia epärehellisiä puolueellisuuksia tai heikentää yleistä turvallisuutta.

Pichai totesi myös nimenomaisesti, että hänen yrityksensä ei toimi teknologioissa, jotka rikkovat ihmisoikeusnormeja.

Rekognition-järkkymä oli vähemmän Amazonin Bezosta. "Aiomme jatkaa DoD: n tukemista, ja mielestäni meidän pitäisi", Bezos sanoi lokakuussa San Franciscossa pidetyssä tekniikan konferenssissa. "Yksi ylimmän johdon tehtävistä on tehdä oikea päätös, vaikka se olisi epäsuosittu."

Bezos korosti myös teknologiayhteisön tarvetta tukea armeijaa. "Jos suuret teknologiayritykset aikovat kääntää selkänsä DoD-sopimukseen, tämä maa on vaikeuksissa", hän sanoi.

Microsoftin presidentti Brad Smith, jonka yritystä kritisoitiin työskennellessään ICE: n kanssa, julkaisi heinäkuussa blogin, jossa hän kehotti mittaamaan lähestymistapaa myytäessä arkaluonteista tekniikkaa valtion virastoille. Vaikka Smith ei sulkenut pois kasvojentunnistuspalveluiden myyntiä lainvalvonnalle ja armeijalle, hän korosti tarvetta parempaan sääntelyyn ja avoimuuteen tekniikan alalla.

  • MIT käyttää 1 miljardia dollaria AI-etiikan tutkimuksen ohjelmaan MIT käyttää 1 miljardia dollaria AI: n etiikan tutkimuksen ohjelmaan
  • Puhuuko AI todella kieltämme? Puhuuko AI todella kieltämme?
  • Kiinan pysäyttämättömän AI-tehtaan murtaminen Kiinan pysäyttämättömän AI-tehtaan rikkoutuminen

"Kongressissa valituilla edustajilla on tarvittavat välineet tämän uuden tekniikan ja sen kaikkien seurausten arvioimiseksi. Hyödynnämme sen perustuslain tarkastuksia ja tasapainoa, joka on nähnyt meidät kynttilöiden ajasta keinotekoisen älykkyyden aikakauteen. Kuten niin monta kertaa aiemmin, meidän on varmistettava, että uudet keksinnöt palvelevat demokraattisia vapauksiamme oikeusvaltion periaatteiden mukaisesti ", Smith kirjoitti.

Vuonna 2018 tappajarobotien ja joukkotyöttömyyden kaukana olevat uhat antoivat huolen AI: n välittömistä eettisistä ja sosiaalisista vaikutuksista. Tämä kehitys osoittaa monella tavalla, että teollisuus kypsyy, kun AI-algoritmeista tulee entistä merkittävämpiä kriittisissä tehtävissä. Mutta kun algoritmit ja automatisointi juurtuvat päivittäiseen elämäämme, keskusteluja syntyy lisää.

Alueen eettisen laskennan vuosi