<pre id="k8ye9"><tfoot id="k8ye9"><fieldset id="k8ye9"></fieldset></tfoot></pre>
  1. <blockquote id="k8ye9"></blockquote>

    <wbr id="k8ye9"><sup id="k8ye9"></sup></wbr>

        亚洲人成色777777老人头,久久精品欧美日韩精品,久艹视频免费看,国产成a人片在线观看视频下载,凸凹人妻人人澡人人添,四虎影视永久在线精品,农民人伦一区二区三区,午夜福制92视频
        歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺電子信息窗口

        ChatGPT出圈、相關(guān)芯片受益,這些芯片廠商將要“狂飆”?

        2023-02-15 來源:全球半導(dǎo)體觀察
        1497

        關(guān)鍵詞: 人工智能 晶體管 芯片

        最近,以ChatGPT為首的生成類模型已經(jīng)成為了人工智能的新熱點,硅谷的微軟、谷歌等都紛紛大舉投資此類技術(shù)(微軟100億美元入股ChatGPT背后的OpenAI,谷歌也于近日發(fā)布了自研的BARD模型),而在中國以百度等為代表的互聯(lián)網(wǎng)科技公司也紛紛表示正在研發(fā)此類技術(shù)并且將于近期上線。

        以ChatGPT為代表的生成類模型有一個共同的特點,就是使用了海量數(shù)據(jù)做預(yù)訓(xùn)練,并且往往會搭配一個較為強大的語言模型。語言模型主要的功能是從海量的現(xiàn)有語料庫中進(jìn)行學(xué)習(xí),在經(jīng)過學(xué)習(xí)之后可以理解用戶的語言指令,或者更進(jìn)一步根據(jù)用戶的指令去生成相關(guān)的文字輸出。

        生成類模型大致可以分成兩大類,一類是語言類生成模型,另一類是圖像類生成模型。語言類生成模型以ChatGPT為代表,如前所述其語言模型不僅可以學(xué)習(xí)理解用戶指令的意義(例如,“寫一首詩,李白風(fēng)格的”),而且在經(jīng)過海量數(shù)據(jù)訓(xùn)練之后,還能夠根據(jù)用戶的指令生成相關(guān)的文字(在上例中就是寫一首李白風(fēng)格的詩)。這意味著ChatGPT需要有一個足夠大的語言模型(Large Language Model,LLM)來理解用戶的語言,并且能有高質(zhì)量的語言輸出——例如該模型必須能理解如何生成詩歌,如何生成李白風(fēng)格的詩歌等等。這也意味著語言類生成式人工智能中的大語言模型需要非常多的參數(shù),才能完成這類復(fù)雜的學(xué)習(xí)并且記住如此多的信息。以ChatGPT為例,其參數(shù)量高達(dá)1750億(使用標(biāo)準(zhǔn)浮點數(shù)的話會占用700GB的存儲空間),其語言模型之“大”可見一斑。

        另一類生成類模型是以擴(kuò)散模型(Diffusion)為代表的圖像類生成模型,典型的模型包括來自O(shè)penAI的Dalle,谷歌的ImaGen,以及目前最熱門的來自Runway AI的Stable Diffusion。這類圖像類生成模型同樣會使用一個語言模型來理解用戶的語言指令,之后根據(jù)這個指令來生成高質(zhì)量的圖像。與語言類生成模型不同的是,這里使用到的語言模型主要用語理解用戶輸入,而無需生成語言輸出,因此參數(shù)量可以小不少(在幾億數(shù)量級),而圖像的擴(kuò)散模型的參數(shù)量相對而言也不大,總體而言參數(shù)量大約在幾十億數(shù)量級,但是其計算量并不小,因為生成的圖像或者視頻的分辨率可以很高。

        生成類模型通過海量數(shù)據(jù)訓(xùn)練,可以產(chǎn)生前所未有的高質(zhì)量輸出,目前已經(jīng)有了不少明確的應(yīng)用市場,包括搜索、對話機器人、圖像生成和編輯等等,未來可望會得到更多的應(yīng)用,這也對于相關(guān)的芯片提出了需求。




        ChatGPT有望助力高性能GPU等發(fā)展

        作為人工智能深度發(fā)展到一定階段的產(chǎn)物,ChatGPT對芯片算力需求極高,高性能GPU等產(chǎn)品有望從中受益。

        業(yè)界指出,自然語言類AI應(yīng)用底層算力芯片以高性能GPU為主,在該類芯片中英偉達(dá)占據(jù)主要市場。據(jù)悉,ChatGPT已導(dǎo)入了至少1萬顆英偉達(dá)高端GPU。花旗銀行分析,ChatGPT可能會在未來12個月內(nèi)為英偉達(dá)帶來30億美元至110億美元的銷售額。

        另一大芯片廠商AMD在今年CES上展示了下一代面向數(shù)據(jù)中心的APU產(chǎn)品Instinct MI300,計劃下半年推出。Instinct MI300采用chiplet設(shè)計,擁有13個小芯片,晶體管數(shù)量高達(dá)1460億個,超過了英特爾的1000億晶體管的Ponte Vecchio,成為了AMD投入生產(chǎn)的最大芯片。AMD表示,Instinct MI300可以將ChatGPT和DALL-E等超大型AI模型的訓(xùn)練時間從幾個月減少到幾周,從而節(jié)省數(shù)百萬美元的電力。

        隨著ChatGPT概念持續(xù)火熱,國內(nèi)AI芯片廠商同樣有望受益。除此之外,由于ChatGPT依賴非常大量的算力(芯片)來支持其訓(xùn)練和部署,目前ChatGPT在應(yīng)用時仍需要大算力服務(wù)器支持,這也有望間接帶動服務(wù)器內(nèi)存發(fā)展。


        英偉達(dá)是ChatGPT熱潮最大受益者

        英偉達(dá)是此次ChatGPT熱潮的最大受益者,因為英偉達(dá)用于服務(wù)器的AI芯片對于超大型AI 模型的學(xué)習(xí)和推理至關(guān)重要,幾乎壟斷全球服務(wù)器用AI芯片市場。

        Open AI表示,ChatGPT 是與英偉達(dá)和微軟合作完成的超級AI。 準(zhǔn)確地說,微軟已經(jīng)與英偉達(dá)合作,在其云(Azure HPC Cloud)中構(gòu)建了由大量AI芯片組成的超級計算機(HPC)集群,并將其提供給OpenAI。

        據(jù)了解,用于 ChatGTP 學(xué)習(xí)和推理的超級計算機擁有 285000個CPU(中央處理器)內(nèi)核和10000多顆AI芯片。事實上,如果你問ChatGPT是如何學(xué)習(xí)的,它會回答,“它正在使用英偉達(dá)AI芯片學(xué)習(xí)和執(zhí)行。”

        OpenAI CEO Sam Altman表示,ChatGPT處理用戶查詢的每筆成本約為2美分。這是引入和使用英偉達(dá)AI芯片所需的成本。如果ChatGPT用戶數(shù)量增加,云和AI芯片的使用將不可避免地增加,這將增加英偉達(dá)的銷售額和營業(yè)利潤。

        研究人員Uh Gyu-jin表示:“如果說游戲?qū)τミ_(dá)的增長作出了貢獻(xiàn),因為高性能GPU被用來驅(qū)動現(xiàn)有的高端游戲,那么最近數(shù)據(jù)中心銷售的增長是急劇的,因為GPU已被用作數(shù)據(jù)中心加速器。”隨著超大型人工智能的需求增加,英偉達(dá)的銷售額和營業(yè)利潤有望獲得大幅增長。

        投資者也注意到了這一點,并將英偉達(dá)列為ChatGPT熱潮的最大受益者。花旗集團(tuán)分析師Atif Malik預(yù)估,ChatGPT可能會在未來12個月內(nèi)為英偉達(dá)帶來30億美元至110億美元的銷售額。

        事實上,從今年開始,英偉達(dá)在數(shù)據(jù)中心領(lǐng)域的銷售額有望首次超過游戲,占比達(dá)到57%。隨著人工智能概念被引入數(shù)據(jù)中心,其銷售額占比將大幅提升。特別是在應(yīng)用人工智能深度學(xué)習(xí)技術(shù)時,收集和分析大規(guī)模信息的云服務(wù)必須得到有效管理。因此,英偉達(dá)GPU安裝在需要深度學(xué)習(xí)技術(shù)的地方越來越多,例如,提供云服務(wù)的亞馬遜、微軟、IBM和阿里巴巴。

        英特爾和AMD等其他半導(dǎo)體公司也生產(chǎn)用于服務(wù)器的AI芯片,但沒有英偉達(dá)AI芯片并行處理技術(shù)(CUDA)的優(yōu)勢,它們的市場份額僅個位數(shù);而蘋果、高通等都專注于為智能手機、平板電腦和物聯(lián)網(wǎng)等邊緣設(shè)備開發(fā)AI芯片,因此英偉達(dá)有望在服務(wù)器用的AI芯片領(lǐng)域繼續(xù)占據(jù)主導(dǎo)地位。




        HBM需求攀升利好三星、SK海力士

        英偉達(dá)GPU搭載了包括高帶寬存儲器(HBM)在內(nèi)的大量DRAM。三星電子、SK 海力士、美光等有望直接或間接受益于英偉達(dá)AI芯片需求的快速增長。因為AI半導(dǎo)體需要“HBM3”才能學(xué)習(xí)和推理,而 AI芯片僅用于推理需要“GDDR6”和“GDDR7”存儲器。

        ChatGPT等AI聊天機器人執(zhí)行大量計算的時候需要高性能和大容量內(nèi)存的支持。隨著AI聊天機器人服務(wù)市場爆發(fā),對內(nèi)存的需求將會增加。三星電子和 SK 海力士一致認(rèn)為,“ChatGPT 等AI聊天機器人服務(wù)中長期將對內(nèi)存半導(dǎo)體市場產(chǎn)生積極影響。”

        三星電子指出, HBM數(shù)據(jù)處理速度比DRAM快,為GPU和人工智能加速器提供數(shù)據(jù)的高性能高帶寬內(nèi)存 (HBM) 的需求將會擴(kuò)大。從長遠(yuǎn)來看,隨著AI聊天機器人服務(wù)的擴(kuò)展,對用于CPU的128GB 或更大容量的高性能 HBM 和高容量服務(wù)器 DRAM 的需求預(yù)計會增加。

        SK海力士解釋說,從內(nèi)存的角度來看,AI聊天機器人需要高性能的DRAM和高性能的計算存儲設(shè)備,可能加快市場重心轉(zhuǎn)向大容量服務(wù)器內(nèi)存的時間。SK海力士提到,服務(wù)器內(nèi)存從64GB遷移到128GB的速度可能更快。

        HBM可以消除 CPU、GPU 和內(nèi)存之間的性能差距造成的瓶頸,補充了現(xiàn)有 DRAM 的局限性,被認(rèn)為是一種具有前景的下一代內(nèi)存產(chǎn)品。CPU和GPU的性能每年都在大幅提升,但支撐它們的內(nèi)存半導(dǎo)體性能卻一直相對滯后,HBM 作為替代方案應(yīng)運而生。目前,通過與中央處理器 (CPU) 和圖形處理器 (GPU) 配對,可以明顯提高服務(wù)器性能的HBM訂單正在明顯增加。今年第一季度,HBM供應(yīng)商三星電子、SK海力士相關(guān)業(yè)務(wù)咨詢呈指數(shù)級增長。特別是SK海力士,客戶的需求電話紛至沓來。一位業(yè)內(nèi)人士透露,“目前,英偉達(dá)在大部分服務(wù)器 GPU產(chǎn)品中都使用 SK 海力士HBM3”。

        HBM唯一缺點是價格高。HBM盡管性能出色,但平均售價至少比最高性能的 DRAM 高出三倍,因為生產(chǎn)過程復(fù)雜且需要高水平的工藝。HBM2價格是16Gb DRAM的兩倍多,SK海力士HBM3價格已飆升了五倍。從存儲半導(dǎo)體企業(yè)的角度來看,HBM是一個高附加值領(lǐng)域,供應(yīng)量越大,利潤率就越高。



        主站蜘蛛池模板: 少妇高潮尖叫黑人激情在线| 亚洲成av人片天堂网老年人| 久久月本道色综合久久| 国内精品免费久久久久电影院97| 最新国产麻豆AⅤ精品无码| 浮妇高潮喷白浆视频| 亚洲综合久久精品国产高清| 精品国产中文字幕在线| 扒开双腿疯狂进出爽爽爽| 欧洲无码一区二区三区在线观看 | 国产情侣激情在线对白| 精品一区二区三区女性色| 国产精品 视频一区 二区三区| 国产精品二区中文字幕| 亚洲国产一区二区三区久| 无码专区 人妻系列 在线| 亳州市| 综合久久av一区二区三区| 国产99在线 | 亚洲| 亚洲国产成人无码电影| 国产美女被遭强高潮免费一视频 | 国产日韩入口一区二区| 日韩a∨精品日韩在线观看| 中国帅小伙gaysextubevideo| 国产精品无码无需播放器| 激情综合五月| 9191国语精品高清在线| 人人人澡人人肉久久精品| 丰满人妻一区二区三区色| 在线天堂中文新版www| 日韩黄色av一区二区三区 | 国产又色又刺激高潮视频| 精品久久人人做爽综合| 2022最新国产在线不卡a| 成人午夜在线观看日韩| 40岁大乳的熟妇在线观看| 亚洲av综合色区在线观看| 国产免费午夜福利在线播放| 亚洲国产码专区在线观看| 中文字幕人妻精品在线| 高中生粉嫩无套第一次|