|
北京思騰創新科技有限公司
聯系人:溫巍
先生 (銷售) |
電 話:010-51626135-807 |
手 機:13511075577 |
 |
|
 |
|
nvidia tesla k40 價格 全新 |
熟悉深度學習的人都知道,深度學習是需要訓練的,所謂的訓練就是在成千上萬個變量中尋找*佳值的計算。這需要通過不斷的嘗試實現收斂,而*終獲得的數值并非是人工確定的數字,而是一種常態的公式。通過這種像素級的學習,不斷總結規律,計算機就可以實現像像人一樣思考。如今,幾乎所有的深度學習(機器學習)研究者都在使用GPU進行相關的研究。當然,我說的是“幾乎”。除了GPU之外,包括MIC和FPGA也提供了不同的解決方案。NVIDIA如何看待不同的硬件架構對深度學習的影響,又是如何評價這些技術的呢?
除了硬件方面的因素之外,英偉達中國區技術經理賴俊杰也從軟件方面解答了GPU對于深度學習應用的價值。首先從深度學習應用的開發工具角度,具備CUDA支持的GPU為用戶學習Caffe、Theano等研究工具提供了很好的入門平臺。其實GPU不僅僅是指專注于HPC領域的Tesla,包括Geforce在內的GPU都可以支持CUDA計算,這也為初學者提供了相對更低的應用門檻。除此之外,CUDA在算法和程序設計上相比其他應用更加容易,通過NVIDIA多年的推廣也積累了廣泛的用戶群,開發難度更小。*后則是部署環節,GPU通過PCI-e接口可以直接部署在服務器中,方便而快速。得益于硬件支持與軟件編程、設計方面的優勢,GPU才成為了目前應用*廣泛的平臺。
深度學習發展遇到瓶頸了嗎?
我們之所以使用GPU加速深度學習,是因為深度學習所要計算的數據量異常龐大,用傳統的計算方式需要漫長的時間。但是,如果未來深度學習的數據量有所下降,或者說我們不能提供給深度學習研究所需要的足夠數據量,是否就意味著深度學習也將進入“寒冬”呢?對此,賴俊杰也提出了另外一種看法。“做深度神經網絡訓練需要大量模型,然后才能實現數學上的收斂。深度學習要真正接近成人的智力,它所需要的神經網絡規模非常龐大,它所需要的數據量,會比我們做語言識別、圖像處理要多得多。假設說,我們發現我們沒有辦法提供這樣的數據,很有可能出現寒冬”。
不過他也補充認為——從今天看到的結果來說,其實深度學習目前還在蓬勃發展往上的階段。比如說我們現階段主要做得比較成熟的語音、圖像方面,整個的數據量還是在不斷的增多的,網絡規模也在不斷的變復雜,F在我沒有辦法預測,將來是不是會有一天數據真不夠用了。
對于NVIDIA來說,深度學習是GPU計算發展的大好時機,也是繼HPC之后一個全新的業務增長點。正如Pandey所提到的那樣,NVIDIA將世界各地的成功經驗帶到中國,包括國外的成功案例、與合作伙伴的良好關系等等,幫助中國客戶的快速成長!耙驗楝F在是互聯網的時代,是沒有跨界的時代,大家都是同等一起的。”
K40的顯存頻率也從之前的5.2GHz提高到了6GHz,顯存位寬依然是384bit。帶寬從之前的250GB/s提高到了288GB/s,不過TDP繼續維持K20X的235W水準,整體控制的很不錯。
*大的變化要屬顯存容量了,之前K20X標配的是6GB,此次K40搭配的是12GB顯存,不過顯存顆粒的數量并沒有增加,因為NVIDIA這次使用的是4Gb顯存,此前包括桌面及Tesla、Quadro產品線上使用的顯存顆粒都是2Gb容量,因此在維持24片顯存的情況下Tesla K40的總容量提升到了12GB(24x4Gb),而K20X只有6GB(24x2Gb)。
還有一個值得注意的變化,那就是Tesla K40終于實現PCI-E 3.0支持了,雖然之前的Tesla K20X設計上也是支持PCI-E 3.0的,但是實際啟用的還是PCI-E 2.0速度,此前NVIDIA在IVB-E發布時就有過類似的兼容性問題,現在已經不存在這樣的問題了,支持PCI-E 3.0將使得K40與CPU之間的帶寬從8GB/s提高到15.75GB/s。 |
 |
|
|
|
 |
|
|