Video: TAITEELLISET NEURAALISET VERKOT ALGORITMI SCIKIT OPI | PYTHON-KONEEN OPPIMISKURSSIT (Marraskuu 2024)
Nvidian uusi Titan X -grafiikkaprosessori perustuu GM200-prosessoriin, joka on valtava siru, joka hyödyntää 8 miljardin transistorin, 3 072 prosessorin ytimen ja 12 Gt: n sisäisen GDDR5-muistin tehoa 7 teraflapsin huipulla yhden tarkkuuden suorituskyvyllä. Tämä siru, jota esiteltiin Game Developers -konferenssissa kaksi viikkoa sitten, perustuu samoihin Maxwell-ytimiin, jotka ovat yrityksen nykyisissä prosessoreissa, ja on valmistettu samalla 28 nm: n prosessilla.
Mutta Nvidia kertoi tällä viikolla, että sen uusi lippulaiva GeForce GPU tuottaa kaksinkertaisen suorituskyvyn ja kaksinkertaistaa edeltäjänsä tehokkuuden. Se on myös erittäin suuri siru 601 mm2: n paikkeilla, suurin piirtein nykyisin valmistettu siru, ja se kuluttaa 250 wattia tehoa. Ja tietenkin, se on kallein yleinen näytönohjain, jonka suositushinta on 999 dollaria.
Suurin osa ExtremeTech-, Anandtech- ja TechReport-sivustojen arvosteluista on melko positiivisia. Tietysti todellisessa maailmassa kukaan ei näe myyjän väittämän suorituskyvyn kaksinkertaistumista, vaikka hienoja hyötyjä onkin. Yleensä Titan X näyttää selvästi voittavan muita yhden GPU-kortteja ja tekee uskottavaa työtä verrattuna AMD: n kaksois GPU Radeon R9 295X2 tai Nvidian kaksois-GeForce GTX 980 SLI: hen. Monissa tapauksissa kummankin toimittajan kaksois-GPU-kortti on nopeampi kuin minkään yksittäisen GPU-kortin, mutta monissa peleissä ei käytetä molempia kortteja, ja toisissa tapauksissa kaksois-kortin asetukset osoittavat enemmän kokkaamista. Erityisesti suuri osa arvosteluista keskittyy siihen, kuinka hyvin Titan X toimii 4K: lla.
Tietysti Nvidian pääkilpailija PC-grafiikan kilpailevassa maailmassa ei todennäköisesti istu tiukasti - AMD: n huhujen mukaan on oma uusi kortti odottamassa siipissä.
Jälleen kerran, mielestäni mielenkiintoisimpana Titan X: n esittelyssä tiistaina GPU-teknologiakonferenssissa (GTC) oli keskittyminen sirun käyttämiseen syvän oppimisen sovelluksissa. Nvidian toimitusjohtaja Jen-Hsun Huang puhui tutkijoiden tutkimuksesta ovat huomanneet, että syvän oppimisen tekniikoita voidaan nopeuttaa dramaattisesti GPU: ien avulla.
Erityisesti Huang puhui sovelluksista kuvan tunnistamisesta automaattisen tekstityksen kirjoittamiseen lääketieteelliseen tutkimukseen autonomisiin ajoneuvoihin. Automarkkinat olivat Nvidian pääpaino CES: ssä, kun ne esittelivät Tegra X1 -sirun ja Drive PX-ratkaisun autoteollisuudelle. Ajatuksena on täydentää olemassa olevia edistyneitä kuljettajan avustusjärjestelmiä (ADAS) niin, että niistä tulee älykkäämpiä ja älykkäämpiä ajan myötä. "Uskon, että itsenäisten autojen iso banaani on tulossa lähivuosina." Huang sanoi.
Myöhemmin Tesla Motorsin toimitusjohtaja Elon Musk liittyi Huangiin GTC-vaiheessa sanoen, että itseohjautuvien autojen, jotka ovat todellisuudessa turvallisempia kuin ihmisillä ajaminen, kehittäminen ei ole niin kaukana. Muskin mukaan Teslan nykyiset anturisarjat kykenevät jo edistyneisiin kuljettajan avustusominaisuuksiin, mutta itse ajaminen kaupunkiympäristössä nopeudella 10–40 mailia tunnissa vaatii enemmän käsittelytehoa. Silti hän sanoi, että siirtyminen vie kauan, koska tien ajoneuvokanta on niin suuri. "On outoa, että olemme niin lähellä AI: n tulemista", Musk sanoi. "Toivon vain, että ihmisillä on jotain jäljellä."
Koneoppiminen on erilainen kuin useimmissa HPC-sovelluksissa, joissa Nvidia on ajautunut Tesla-kiihdyttimiin. Nämä sovellukset vaativat yleensä kaksinkertaisen tarkkuuden liukulukun, kun taas syvän oppimisen sovellukset tarvitsevat usein vain yhden tarkkuuden. Titan X tarjoaa vain yhden tarkkuuden. Syväoppimissovelluksiin Nvidia tarjoaa uuden kehyksen nimeltä DIGITS, syvä GPU-koulutusjärjestelmät tietojen tutkijoille ja uuden 15 000 dollarin laitteen DIGITS DevBox.
Ennakoivasti Huang sanoi, että Pascal GPU -arkkitehtuuri, joka otetaan käyttöön ensi vuonna, kiihdyttää syvän oppimisen sovelluksia kymmenen kertaa nykyisen sukupolven Maxwell-prosessorien nopeuden yli. Tämä tulee kolmesta uudesta ominaisuudesta: sekoitettu tarkkuus (16-bittisen liukulukujen käyttö lisää); 2, 7-kertainen muistikapasiteetti jopa 32 Gt käyttämällä 3D-pinottua muistia, jossa on kolminkertainen muistin kaistanleveys, ja NV Link -yhteys, joka mahdollistaa jopa kahdeksan huippuluokan GPU: ta DevBoxissa tai vastaavassa työasemassa (toisin kuin neljä Titan X: ää) GPU: t yhdessä toukokuussa). Sitä ei sanottu, mutta on todennäköistä, että tähän arkkitehtuuriin perustuvat sirut käyttäisivät seuraavan sukupolven prosessitekniikkaa. Loppujen lopuksi ensimmäiset 28 nanometrin sirut otettiin käyttöön vuonna 2011, ja ne alkoivat myydä vuonna 2012, joten ensi vuoteen mennessä toivon, että näemme 16 nm: n tai 14 nm: n erillisiä graafisia siruja.