Koti ominaisuudet 10 Noloava algoritmi epäonnistuu

10 Noloava algoritmi epäonnistuu

Sisällysluettelo:

Video: Твой мозг может использовать алгоритмы — Дэвид Мелен (Marraskuu 2024)

Video: Твой мозг может использовать алгоритмы — Дэвид Мелен (Marraskuu 2024)
Anonim

Teknologia ei ole vain geeksille, se on kaikille, ja se on paljon ihmisiä. Vain kourallinen yrityksiä, jotka hallitsevat suurinta osaa laitteistoista ja ohjelmistoista - Applesta ja Amazonista Facebookiin, Microsoftiin ja Googleen - pystyvät vain kontrolloimaan lompakkoasi ja silmämunkiasi. Mitä köyhä jättiläinen yritys tehdä? Vedä algoritmeja tehdäksesi joitain tärkeitä päätöksiä.

Oxford Living Dictionaries määrittelee algoritmin "prosessiksi tai sääntöjoukkoksi, jota on noudatettava laskelmissa tai muissa ongelmanratkaisutoiminnoissa, erityisesti tietokoneessa". Täydellinen esimerkki on Facebook-uutissyöte. Kukaan ei tiedä miten se toimii, että jotkut viestit näkyvät joidenkin ihmisten uutissyötteissä vai eivät, mutta Facebook ei. Entä miten Amazon näyttää sinulle liittyviä kirjoja? Aiheeseen liittyvät haut Googlessa? Kaikki nämä ovat tarkoin suojattuja salaisuuksia, jotka tekevät paljon työtä yrityksen hyväksi ja joilla voi olla suuri vaikutus elämääsi.

Mutta algoritmit eivät ole täydellisiä. Ne epäonnistuvat ja jotkut epäonnistuvat näyttävästi. Lisää sosiaalisen median häikäisy ja pieni häiriö voi muuttua PR-painajaiseksi todella nopeasti. Se on harvoin haitallista; nämä ovat yleensä sitä, mitä New York Times kutsuu "Frankensteinin hetkiksi", jossa jonkun luoma olento muuttuu hirviöksi. Mutta niin tapahtuu, ja olemme koonneet alla joitain räikeimmistä viimeisimmistä esimerkeistä. Kerro meille suosikkeistasi alla olevissa kommenteissa.

    1 Instagramin kyseenalaiset mainokset

    Kuten The Guardian on ilmoittanut , Facebook haluaa näyttää Instagram-palvelunsa mainoksia omien käyttäjiensä viesteillä. Mutta algoritmi valitsi väärän "valokuvan" työntääkseen The Guardianin toimittajan Olivia Solonin ystäviä valitsemaansa vuoden ikäisen kuvakaappauksen, jonka hän otti uhkaavasta sähköpostista.

    2 kohdistetut rasistimainokset

    Viime viikolla ProPublica kertoi, että Facebook salli mainostajien kohdistaa loukkaaviin ihmisryhmiin, kuten "juutalaisten viholliset". Sivusto maksoi 30 dollaria mainosta (yllä), joka oli suunnattu yleisölle, joka reagoi myönteisesti esimerkiksi "miksi juutalaiset pilaavat maailman" ja "Hitler ei tehnyt mitään väärin". Se hyväksyttiin 15 minuutissa.

    Liuskekivi löysi samankaltaisia ​​loukkaavia luokkia, ja siitä tuli toinen pitkässä rivissä, jonka Facebookin ei tarvinnut paitsi vain pyytää anteeksi, vaan myös lupaa korjata se jollain ihmisen valvonnalla. Tiedät, kuten kun se sijoitti 100 000 dollarin arvosta vaalimainoksia Venäjälle.

    Toimitusjohtaja Sheryl Sandberg sanoi Facebook-viestissä olevansa "inhoa ​​ja pettynyt näihin sanoihin" ja ilmoittanut muutoksista sen mainostyökaluihin.

    BuzzFeed tarkisti, kuinka Google käsittelisi vastaavia asioita, ja havaitsi, että oli helppo asettaa myös kohdistettuja mainoksia rasistien ja bigotien näkemykseen. Daily Beast tarkisti sen Twitterissä ja löysi miljoonia mainoksia, joissa käytettiin termejä "natsi", "märkäkantinen" ja N-sana.

    3 Facebook-vuosi katsauskaudella

    Jos olet Facebookissa, olet varmasti nähnyt sen loppuvuoden algoritmien luomia videoita, joissa on kohokohtia viimeiseltä 12 kuukaudelta. Tai joillekin heikossa valaistuksessa. Vuonna 2014 yksi isä näki kuvan hänen myöhäisestä tytärystään, kun taas toinen isä näki kodin tilannekuvia liekkeissä. Muita esimerkkejä ovat ihmiset, jotka näkevät myöhäiset lemmikkinsä, urnat täynnä vanhempien tuhkaa ja kuolleet ystävät. Vuonna 2015 Facebook lupasi suodattaa surulliset muistot.

  • 4 Teslan automaattiohjauksen kaatuminen

    Useimmat algoritmiset snafukset ovat kaukana kohtalokkaista, mutta itse ajavien autojen maailma tuo aivan uuden tason vaarat. Se on jo tapahtunut ainakin kerran. Teslan omistaja Floridan moottoritiellä käytti puoliautonomista tilaa (Autopilot) ja kaatui traktorin perävaunuun, joka katkaisi hänet. Tesla julkaisi päivitykset nopeasti, mutta oliko se todella Autopilot-tilan vika? Kansallinen valtatieliikenneturvallisuusvirasto sanoo, että ei, koska järjestelmä vaatii kuljettajaa pysymään valppaina ongelmista, kuten yllä olevasta videosta näet. Nyt Tesla estää automaattiohjausta edes toimimasta, jos kuljettaja ei reagoi ensin visuaalisiin vihjeisiin.

  • 5 Koe rasistinen Microsoft AI

    Pari vuotta sitten chatbotien piti viedä maailma myrskyllä, korvata asiakaspalvelun edustajat ja tehdä online-maailmasta chattinen paikka saada tietoa. Microsoft vastasi maaliskuussa 2016 työntämällä Tay-nimisen ammattitaidon, jonka ihmiset, erityisesti 18–24-vuotiaat, voivat olla vuorovaikutuksessa Twitterissä. Tay puolestaan ​​tekisi julkisia tweettejä massoille. Mutta vähemmän kuin 24 tunnissa, Tay: sta oppien epäsuorista massoista, hänestä tuli täysi rasisti. Microsoft veti Tayn heti alas; hän palasi uudeksi AI: ksi nimeltään Zo joulukuussa 2016 "vahvoilla tarkistuksilla ja tasapainoilla suojaamaan häntä hyväksikäytöltä".

    6 onnittelut (olemattomalle) vauvallesi!

    Täydellinen paljastaminen: Kun kirjoitan tätä, vaimoni on todella raskaana. Saimme molemmat tämän sähköpostin Amazonilta sanomalla, että joku oli ostanut jotain meille vauvarekisteristämme. Emme olleet vielä julkistaneet sitä, mutta se ei ollut niin järkyttävä. Samaan aikaan useat miljoonat muut Amazon-asiakkaat saivat myös saman muistiinpanon, mukaan lukien jotkut ilman rekisteriä… tai vauva matkalla. Se olisi voinut olla osa tietojenkalastelujärjestelmää, mutta se ei ollut. Amazon tarttui virheeseen ja lähetti anteeksipyynnön seurannasähköpostin. Siihen mennessä monet olivat valittaneet, että tämä oli sopimattomia tai tuntemattomia. Tämä oli vähemmän algoritmia kuin hoikka sähköpostipalvelin, mutta osoittaa sinulle, että se on aina helppo loukata.

    7 Amazon suosittelee pommimateriaaleja

    Kaikki hyppäsivät tämän päälle sen jälkeen, kun Ison-Britannian Channel 4 News ilmoitti siitä, Fox Newsista New York Timesiin . Sen väitettiin todenneen, että Amazonin "usein ostettu yhdessä" -ominaisuus näyttää ihmisille, mitä he tarvitsevat pommin rakentamiseksi, jos ne alkavat yhdestä aineosasta, jota sivusto ei nimeä (se oli kaliumnitraatti).

    Se mitä Amazonin algoritmi todella teki, oli näyttää ostajille ainesosat valmistaa mustaa jauhetta pieninä määrinä, mikä on täysin laillista Yhdistyneessä kuningaskunnassa ja jota käytetään kaikenlaisiin asioihin - kuten ilotulitusvälineisiin - kuten nopeasti huomautettiin uskomattoman hyvin harkitussa- ulos blogin viesti Idle Words. Sen sijaan kaikki raportit koskevat sitä, miten Amazon tutkii asiaa, koska heidän on sanottava, että he tekevät maailmassa, joka pelkää terrorismia ja logiikkaa.

    8 Google Maps saa rasistin

    Vuonna 2015 Google joutui pyytämään anteeksi, kun Google Maps haut "n ***** king" ja "n *** a house" johtaa Valkoiseen taloon, jonka Barack Obama oli silloin miehittänyt. Tämä oli seurausta "Googlebombista", jossa hakukone valitsee yhä uudelleen käytetyn termin ja merkitään "suosituksi", joten tulokset menevät haun yläreunaan. Näin sana "Santorum" sai uuden määritelmän.

    9 Google merkitsee ihmisiä Gorilloiksi

    Google Photos on uskomaton sovellus / palvelu, joka tallentaa kaikki kuvat ja paljon muuta. Yksi näistä asioista on ihmisten ja valokuvien asioiden automaattinen merkitseminen. Se käyttää ihmisten kasvojentunnistusta kaventamaan heidät oikeaan ihmiseen. Minulla on jopa kansio kaikista koiristani, enkä tunnistanut ketään niistä. Sillä niin kauan kuin se toimii, se oli hirvittävää, kun Google joutui vuonna 2015 pyytämään anteeksi tietokoneohjelmoijalta Jacky Alcinéltä, kun palvelu ja hänen ystävänsä - molemmat mustat - tunnistettiin palveluna gorilloiksi. "Olemme kauhistuneita ja todella pahoillamme, että näin tapahtui", Google kertoi PCMagille.

    10 robottiturvallisuus osuu lapsiin, tappaa itsensä

    Knightscope tekee autonomiset turvarobotit nimeltään K5 koulujen, ostoskeskusten ja lähiöiden vartiointiin. Pyörillä olevat 5 jalkaa korkeat Dalek-esque-kartiot - jotka heidän mielestään ovat edelleen beetatestauksissa - pyrkivät tekemään uutisia rikollisuuden torjumiseksi, mutta häiriöiksi.

    Esimerkiksi heinäkuussa 2016 Palo Alton Stanford-ostoskeskuksen K5 juoksi 16-kuukauden ikäisen jalkaan, ja Knightscope joutui virallisesti anteeksi. Samassa paikassa - ehkä samalla droidilla - oli hölynpölyä parkkipaikalla, mutta ainakaan se ei ollut K5: n vika. Tuomaristo on edelleen K5-yksikössä Georgetownin ranta-alueella, toimisto- / ostoskompleksissa Washington DC: ssä, jonka väitettiin kompastuneen portaiden läpi suihkulähteeksi vain yhden viikon töiden jälkeen. Se ei näytä hyvältä Skynetin armeijalle.

10 Noloava algoritmi epäonnistuu