<pre id="k8ye9"><tfoot id="k8ye9"><fieldset id="k8ye9"></fieldset></tfoot></pre>
  1. <blockquote id="k8ye9"></blockquote>

    <wbr id="k8ye9"><sup id="k8ye9"></sup></wbr>

        亚洲人成色777777老人头,久久精品欧美日韩精品,久艹视频免费看,国产成a人片在线观看视频下载,凸凹人妻人人澡人人添,四虎影视永久在线精品,农民人伦一区二区三区,午夜福制92视频
        歡迎訪問深圳市中小企業公共服務平臺電子信息窗口

        權威機構預測:AI服務器需求仍舊很大,產業鏈繼續受益

        2024-02-28 來源:賢集網
        4486

        關鍵詞: 人工智能 AMD HBM

        根據TrendForce集邦咨詢最新預估,以2024年全球主要云端服務業者(CSP)對高端AI 服務器(包含搭載NVIDIA、AMD或其他高端ASIC芯片等)需求量觀察,預估美系四大CSP業者包括Microsoft、Google、AWS、Meta各家占全球需求比重分別達20.2%、16.6%、16%及10.8%,合計將超過6成,居于全球領先位置。其中,又以搭載NVIDIA GPU的AI 服務器機種占大宗。


        受國際形勢變化影響,NVIDIA后續發展仍有挑戰

        NVIDIA近期整體營收來源以數據中心業務為關鍵,主因其GPU服務器占整體AI市場比重高達6——7成,只是后續仍須留意三大狀況,可能使NVIDIA發展受限。其一,受國際形勢變化影響,中國將更致力于AI芯片自主化。而NVIDIA推出的H20等中國特規方案,性價比可能不及既有的H100或H800等,中國客戶采用度可能較先前保守,進一步影響NVIDIA市占率。



        其二,在具規模及成本考量下,美系大型CSP業者除Google、AWS外,Microsoft、Meta等亦有逐年擴大采自研ASIC趨勢。其三,來自AMD的同業競爭,AMD采高性價比策略,對標NVIDIA同級品,AMD提供僅60——70%價格,甚至代表性或具規模客戶能以更低價策略方式搶進市場,預期2024年尤以Microsoft為最積極采納AMD高端GPU MI300方案業者。


        云端需求爆發

        AI云端算力占主要需求,未來邊緣側AI算力需求也有望高增長。云端是指利用數據中心的強大算力,對海量數據進行大模型訓練和推理;邊緣側是在終端設備上利用訓練好的模型進行推理,進而開發豐富多樣的應用類型。GPT-4多模態大模型在各種專業和學術基準上已具備與人類水平相當表,未來有望賦能垂直應用,包括但不限于自然語言生成、圖像生成、視頻生成、音樂生成、藝術創作等領域。Stability AI CEO表示,隨著GPU和算力的提升,其開發的Stable Disffusion多模態大模型可能一年之內就能在智能手機上運行,未來新技術也將在更多低價的設備上進行訓練,AI推動的創意快速涌現。

        互聯網云廠商是目前AI云端算力的主要需求方。OpenAI使用多個云計算提供商的服務來支持GPT的訓練和推理,包括亞馬遜AWS、谷歌云、微軟Azure和IBM云(根據ChatGPT回答)。Trendforce預估2022年搭載GPGPU的AI 服務器年出貨量約13萬臺,占整體服務器采購量的1%。其中,互聯網大廠是核心采購來源方。

        我們認為未來AI算力領域未來呈現三點發展趨勢:(1)需求端:從GPT-4僅5個月內就實現對GPT-3.5的迭代并推廣上市來看,我們認為圖片和視頻類AIGC應用的成熟節奏在加快,將推動算力加速升級。(2)供給端:算力升級背后是更高的硬件資本支出,未來HBM/存算一體等新技術有望降低算力成本,伴隨而來的是新市場的高速增長,例如美光預計全球HBM市場有望從2021年10億美元提升至2025年70億美元;(3)除云端算力外,我們認為AI將帶來消費類硬件終端的投資機會,建議重點關注算力芯片、射頻通信芯片、攝像頭等功能芯片,以及PCB、電子元器件和功能件等。


        最終贏家還得是HBM

        AI服務器通常采用異構形式,依據所搭載的芯片類型,可以分為CPU+GPU、CPU+FPGA、CPU+ASIC等多種組合。

        目前,GPU仍然是數據中心加速的首選方案,但其他非GPU芯片的應用也在逐漸增多。

        據IDC預測,到2025年,其他非GPU芯片的占比將超過20%,顯示出多樣化的芯片應用趨勢。

        在性能上,ASIC(專用集成電路)通常表現出色,但其可編程性和靈活性相對較弱。因此,在訓練或通用場景下,GPU往往成為更合適的選擇。



        ASIC與FPGA相比,在量產后成本較低且性能優異,但缺乏FPGA的可編程特性,這意味著其靈活調整的空間較小。同時,ASIC的一次性開發成本也相對較高。隨著人工智能產業生態的逐步完善,作為全定制化芯片的ASIC有望迎來更廣闊的發展空間。

        FPGA具備快速、低功耗、靈活和高效的優點。硬件可編程的特性使得FPGA在AI訓練中既能提供充足的算力,又具有靈活性,可以重新編程以適應不同任務的需要。

        傳統的GPU(圖形處理器)最初的設計目的是進行圖形渲染計算,隨著人工智能計算需求的不斷增長,GPGPU(通用計算GPU)應運而生。GPGPU通過移除GPU的圖形顯示部分,將其余的計算資源全部用于通用計算,從而在AI、數據分析以及高性能計算(HPC)等領域得到了廣泛應用。

        通用GPU在硬件加速能力方面具有顯著優勢,尤其在深度學習訓練方面表現出色,因此成為了目前主流的AI硬件產品。

        在市場上,英偉達的A100和H100、AMD的MI250、寒武紀的思元系列以及華為的昇騰系列等產品占據了較大的市場份額。

        從AI服務器的產業鏈角度來看,AI服務器的核心組件包括GPU、DRAM(動態隨機存取存儲器)、SSD(固態硬盤)和RAID卡、CPU(中央處理器)、網卡、PCB(印刷電路板)、高速互聯芯片(板內)以及散熱模組等。

        隨著GPU算力需求的不斷提升,對硬件的傳輸速率也提出了更為嚴苛的要求。從PCB(印刷電路板)的角度來看,這一趨勢將顯著推動高頻高速板、HDI(高密度互連)以及ABF載板的需求增長。同時,為了滿足更高的傳輸效率,還需要配套損耗更低的CCL(覆銅板),這無疑對PCB及其上游材料供應端產生了顯著的促進作用。

        此外,AI服務器出貨量的持續增長也催生了HBM(高帶寬內存)需求的爆發。

        HBM憑借其高帶寬、低功耗以及小體積等獨特優勢,在AI服務器場景中得到了廣泛應用。

        HBM主要應用于高性能服務器領域,其最早落地于2016年的NVP100 GPU(采用HBM2技術)。隨后,在2017年的V100、2020年的A100以及2022年的H100中,HBM2和更先進的HBM2e/HBM3技術得到了應用。而最新一代的HBM3e技術則搭載于英偉達2023年發布的H200中,為服務器提供了更快的數據處理速度和更高的內存容量。



        主站蜘蛛池模板: 国产欧美综合在线观看第十页| 乱中年女人伦av三区| 依依成人精品视频在线观看| 樱花草视频www日本韩国| 国产免费无遮挡吃奶视频| 男女啪啪永久免费观看网站| 久久夜色国产噜噜亚洲av| 在线 国产 欧美 专区| 影音先锋男人站| 亚洲熟妇熟女久久精品综合| 精品不卡一区二区三区| 国产精品激情| 性姿势真人免费视频放| av激情亚洲男人的天堂| 色综合久久综合中文综合网| 国产精品美女黑丝流水| 综合偷自拍亚洲乱中文字幕| 久久久久久99av无码免费网站| 国产对白熟女受不了了| 国产一区二区日韩经典| 久久国产精品波多野结衣| 久久国产精品老女人| 亚洲成人午夜排名成人午夜| 一本一道av无码中文字幕麻豆| 另类 专区 欧美 制服| 男女激情一区二区三区| 免费A级毛片中文字幕| 久久久无码精品亚洲日韩蜜桃| 国产精品美女一区二区三| 亚洲成aⅴ人在线电影| 免费无码高潮流白浆视频| 人妻少妇精品中文字幕| 给我播放片在线观看| 无码国模国产在线观看免费| 国产一级r片内射免费视频| 国产精品无码成人午夜电影| 你懂的在线视频一区二区| 亚洲鸥美日韩精品久久| 久久精品国产99国产精品严洲| 国内视频偷拍久久伊人网| 亚洲午夜福利精品无码不卡|