Mae Nvidia yn Lansio Prawf MLPerf Newydd, Ond mae Dyfodol Google yn Edrych yn Addawol

Gall y wefan hon ennill comisiynau cysylltiedig o’r dolenni ar y dudalen hon. Telerau defnyddio.

NVIDIA DGX SuperPOD 2020

Hyd yn hyn, ni fu unrhyw aflonyddwch ym meincnod MLPerf AI. Nid yn unig enillodd Nvidia bopeth, ond nhw yw’r unig gwmni sy’n cystadlu ym mhob categori o hyd. Hyfforddiant MLPerf heddiw 0.7 nid yw’r cyhoeddiad am y canlyniadau fawr yn wahanol. Dechreuodd Nvidia anfon y GPU A100 mewn pryd i gyflwyno canlyniadau yn y categori Rhyddhawyd ar gyfer cynhyrchion sydd ar gael yn fasnachol, lle mae’n darparu’r perfformiad gorau ar draws y maes. Fodd bynnag, mae rhai canlyniadau diddorol gan Google yn y categori Ymchwil.

Hyfforddiant MLPerf 0.7 Ychwanegu Tri Meincnod Newydd Pwysig

Er mwyn helpu i adlewyrchu’r defnydd cynyddol o ddysgu peiriannau mewn lleoliadau cynhyrchu, mae MLPerf wedi ychwanegu dau feincnod hyfforddi newydd ac un uwchraddiad. Mae’r cyntaf, y Model Profiad Dysgu Mewnol (DLRM), yn cynnwys hyfforddi’r injan wrth gefn, sy’n bwysig iawn mewn cymwysiadau eFasnach ymhlith categorïau mawr eraill. Fel arwydd o’i ddefnydd, caiff ei hyfforddi gan ddefnyddio data Clic-Trwy-Gyfradd fawr iawn.

Yr ail ychwanegiad yw amser hyfforddi ar gyfer BERT, model prosesu iaith naturiol uchel ei barch (NLP). Er bod BERT ei hun wedi’i adeiladu i wneud fersiynau mwy a mwy cymhleth, mae’r meincnod hyfforddi ar y gwreiddiol yn ddirprwy da ar gyfer defnyddio NLP gan fod BERT yn un o’r dosbarthiadau model Trawsnewidydd a ddefnyddir yn helaeth at y diben hwnnw.

Yn olaf, gyda Dysgu Atgyfnerthu (RL) yn dod yn fwy a mwy pwysig mewn meysydd fel roboteg, mae’r meincnod MiniGo wedi’i uwchraddio i MiniGo Full (ar fwrdd 19 x 19), sy’n gwneud synnwyr.

Mae MLPerf Training yn ychwanegu tri meincnod newydd pwysig i'r gyfres gyda'r datganiad newydd

Mae MLPerf Training yn ychwanegu tri meincnod newydd pwysig i’r gyfres gyda datganiadau newydd

Canlyniadau

Ar y cyfan, nid yw dewisiadau amgen sydd ar gael yn fasnachol i Nvidia naill ai’n cymryd rhan mewn rhai categorïau o gwbl, neu nid ydynt hyd yn oed yn gallu gweithredu’r genhedlaeth ddiwethaf Nvidia V100 fesul prosesydd. Un eithriad yw Google’s TPU v3 gan guro’r V100 20 y cant dros y ResNet-50, ac ychydig y tu ôl i’r A100 20 y cant arall. Mae’n ddiddorol gweld Huawei hefyd yn cystadlu â’r cofnod anrhydeddus ar gyfer y ResNet-50, gan ddefnyddio ei brosesydd Ascend. Er bod y cwmni yn dal i fod ymhell y tu ôl i Nvidia a Google yn AI, mae’n parhau i’w wneud yn brif ffocws.

Fel y gwelwch o’r siart isod, mae’r A100 yn 1.5x i 2Mae perfformiad .5x V100 yn dibynnu ar feincnod:

Yn ôl yr arfer mae Nvidia yn cystadlu ag ef ei hun yn bennaf - mae'r sioe sleidiau hon fesul prosesu yn fwy na V100

Fel bob amser, mae Nvidia yn cystadlu ag ef ei hun yn bennaf. Mae’r sioe sleidiau hon ar gyfer pob prosesydd yn cyflymu’r V100

Os oes gennych gyllideb, bydd atebion Nvidia hefyd yn uwch nag eraill. Cerddwch i mewn cwmni SELENE SuperPOD sy’n cynnwys 2, 048 A100s, gellir hyfforddi modelau sydd fel arfer yn cymryd dyddiau mewn munudau:

Yn ôl y disgwyl, mae SuperPOD sy'n seiliedig ar Ampere Nvidia yn torri pob cofnod ar gyfer amser hyfforddi

Yn ôl y disgwyl, torrodd SuperPOD o Nvidia’s Ampere yr holl gofnodion am amser hyfforddi. Sylwch fod cyflwyniadau Google yn defnyddio 16 TPU yn unig, tra bod SuperPODs yn defnyddio mil neu fwy, felly ar gyfer asesiadau sglodion pen-i-ben mae’n well defnyddio siartiau blaenorol gyda rhifau fesul prosesydd.

Mae Pensaernïaeth Nvidia yn Berffaith ar gyfer Cryfhau Dysgu

Er bod llawer o fathau o galedwedd arbenigol wedi’u cynllunio’n benodol ar gyfer dysgu peiriannau, mae’r mwyafrif ohonynt yn rhagori mewn hyfforddiant neu gasgliad. Mae Dysgu Atgyfnerthu (RL) yn gofyn am gydblethu’r ddau. Mae caledwedd wedi’i seilio ar Nvidia GPGPU yn berffaith ar gyfer y dasg honno. Wrth i ddata gael ei gynhyrchu a’i ddefnyddio yn ystod y broses hyfforddi, mae cysylltiadau cyflym Nvidia hefyd yn fuddiol i RL. Yn olaf, oherwydd bod hyfforddiant robot yn y byd go iawn yn ddrud ac o bosibl yn beryglus, mae offer efelychu NPU wedi’i gyflymu gan GPU yn ddefnyddiol wrth berfformio hyfforddiant RL yn y labordy.

Mae Google yn Darparu Ei Ddefnydd Gyda Chanlyniadau Rhyfeddol TPU v4

Mae Google Research yn rhoi canlyniadau trawiadol gyda sglodion TPU v4 yn y dyfodol

Mae Google Research yn rhoi cyflwyniad trawiadol gyda’r sglodyn TPU v4 sydd ar ddod

Efallai mai’r newyddion mwyaf syfrdanol o’r meincnod newydd yw pa mor dda yw TPU v4 Google. Er bod v4 o TPU yn y categori Ymchwil – sy’n golygu na fydd ar gael yn fasnachol o leiaf 6 misoedd – mae perfformiad agos Ampere ar gyfer llawer o dasgau hyfforddi yn eithaf trawiadol. Mae hefyd yn ddiddorol gweld Intel yn pwyso a mesur gyda pherfformiad da mewn dysgu atgyfnerthu gyda’r CPU i’w ryddhau cyn bo hir. Dylai hynny ei helpu i gyflwyno cymwysiadau robotig yn y dyfodol na fydd efallai angen GPUs arwahanol. Mae canlyniadau llawn ar gael gan MLPerf.

Nawr Darllenwch: