Video: Opetellaan suomea Google kääntäjän avulla! (Marraskuu 2024)
Yksi mielenkiintoisimmista - ja odottamattomimmista - ilmoituksista, joita Google teki viime viikolla I / O-kehittäjien konferenssissa, oli, että se on suunnitellut ja toteuttanut omat sirut koneoppimiseen. Google-toimitusjohtaja Sundar Pichai esitteli pääkonferenssinsa aikana Tensor Processing Unitsiksi (TPU) nimittämäänsä yritystä AlphaGo-koneissaan, jotka voittivat Go-mestari Lee Sedolin.
"TPU: t ovat luokkaa suurempia suorituskykyä kohti watteja kohti kuin kaupalliset FPGA: t ja GPU: t", Pichai sanoi. Vaikka hän ei antanut monia yksityiskohtia, Google arvostettu laitteistoinsinööri Norm Jouppi selitti blogiviestissä, että TPU on mukautettu ASIC (sovelluskohtainen integroitu piiri). Toisin sanoen, se on siru, joka on erityisesti suunniteltu suorittamaan koneoppiminen ja räätälöity erityisesti TensorFlow-ohjelmaan, Googlen koneoppimisjärjestelmään.
Postissa Jouppi sanoi olevansa "suvaitsevampi" lasketulle tarkkuudelle, mikä tarkoittaa, että se vaatii vähemmän transistoreita operaatiota kohden. Tämän avulla Google voi saada enemmän toimintoja sekunnissa, jolloin käyttäjät saavat tuloksia nopeammin. Hänen mukaansa TPU: lla oleva taulu sopii kiintolevyaseman aukkoon sen datakeskuksen telineissä, ja näytti kuvan TPU: lla täytetyistä palvelintelineistä, joita hänen mukaansa käytettiin yrityksen AlphaGo-koneissa.
Lisäksi Jouppi kertoi, että TPU: t työskentelevät jo useissa Google-sovelluksissa, mukaan lukien RankBrain, jota käytetään parantamaan hakutulosten osuvuutta, ja Street View, karttojen ja navigoinnin tarkkuuden ja laadun parantamiseksi.
Lehdistötilaisuudessa Googlen teknisen infrastruktuurin varapuheenjohtaja Urs Hölzle vahvisti, että TPU toimii 8-bittisellä kokonaislukumatematiikalla korkeamman tarkkuuden liukulukujen matematiikan sijasta, jolle modernit CPU: t ja GPU: t on suunniteltu. Useimmat koneoppimisalgoritmit pääsevät hienommin pienemmällä tarkkuudella, mikä tarkoittaa, että siru pystyy käsittelemään enemmän toimintoja tietyllä alueella ja käsittelemään monimutkaisempia malleja tehokkaasti. Tämä ei ole uusi idea, Nvidia Drive PX 2 -moduuli, joka ilmoitettiin aiemmin tänä vuonna CES: ssä, pystyy suorittamaan 8 teraflopsia 32-bittisen liukulukujen tarkkuudella, mutta saavuttaa 24 syvän oppimisen "teraopia" (yrityksen termi 8 -bittinen kokonaisluku matematiikka).
Vaikka Hölzle kieltäytyi syventämästä yksityiskohtia, raporttien mukaan hän vahvisti, että Google käyttää tänään sekä TPU että GPU. Hänen mukaansa tämä jatkuu jonkin aikaa, mutta ehdotti, että Google näkee GPU: t liian yleisinä, mieluummin siru, joka on optimoitu koneoppimiseen. Hän sanoi, että yhtiö julkaisee myöhemmin paperin, jossa kuvataan sirun edut, mutta teki selväksi, että nämä on tarkoitettu vain sisäiseen käyttöön, ei myytäväksi muille yrityksille. Toinen hänen kuvailemansa sovellus käytti sirujen avulla osaa tietokoneen käytöstä, joka on Android-puhelimessa käytetyn äänentunnistuskoneen takana.
Valinta käyttää ASIC: ta on mielenkiintoinen veto Googlelta. Koneoppimisessa viime vuosien suurin edistysaskel - syvien hermoverkkojen voimakkaan työn taustalla oleva tekniikka - on ollut GPU: ien, etenkin Nvidia Tesla -linjan, käyttöönotto näiden mallien kouluttamiseksi. Äskettäin Intel osti Alteran, johtava FPGA (kenttä-ohjelmoitavat porttiryhmät), jotka ovat jossain keskellä; ne eivät ole niin yleiskäyttöisiä kuin GPU: t tai erityisesti TensorFlow: lle suunniteltuja kuin Googlen siru, mutta ne voidaan ohjelmoida suorittamaan erilaisia tehtäviä. Microsoft on kokeillut Altera FPGA -sovelluksia syvän oppimisen kannalta. IBM kehittää TrueNorth-neurosynaptista sirua, joka on suunniteltu erityisesti hermoverkoille ja jota on äskettäin alettu käyttää monissa sovelluksissa. Cadence (Tensilica), Freescale ja Synopsys ajavat DSP: tä (digitaaliset signaaliprosessorit) näiden mallien käyttämiseen; Mobileye ja NXP ilmoittivat hiljattain sirut, jotka on suunniteltu erityisesti ADAS: iin ja itse ajaviin autoihin; ja useita pienempiä yrityksiä, kuten Movidius ja Nervana, ovat ilmoittaneet suunnitelmistaan erityisesti AI: lle suunniteltuja siruja.
On liian aikaista tietää, mikä lähestymistapa on paras pitkällä tähtäimellä, mutta joillakin hyvin erilaisilla vaihtoehdoilla tarkoitetaan todennäköisesti mielenkiintoista kilpailua tulevina vuosina.