ICC訊 俗話說得好,愛到不能愛,聚到終須散。都2024年了,再不AI就晚啦。時值中國農(nóng)歷龍年新春,世界的科技大門由 “文生視頻”模型 Sora推開,嶄新的時代來臨,人們對未來充滿了無限遐想。
2024年2月16日凌晨, OpenAI推出了首款文本轉(zhuǎn)視頻模型——Sora,立即在全球范圍內(nèi)引發(fā)了軒然大波。據(jù)OpenAI官方介紹,Sora可以生成長達(dá)60秒的視頻,而且每一幀都充滿了細(xì)節(jié),甚至能看清人臉上的法令紋。無論是復(fù)雜的攝像機運動,還是多角色的情感表達(dá),Sora都能游刃有余地處理。更難能可貴的是,它還能根據(jù)用戶提供的簡單提示詞,生成極具創(chuàng)意和真實感的視頻內(nèi)容。
自2022年末的ChatGPT掀起AI大模型浪潮,到2024年初的Sora再次引爆科技圈,AI正以前所未有的速度重塑世界??萍嫉娘L(fēng)口誰都想搶占,沒有人希望被時代的洪流拋下,此時人們最關(guān)心的莫過于,生成式AI究竟與哪些行業(yè)相關(guān),又將如何滲透進各產(chǎn)業(yè)鏈,受益哪些終端?
毫無疑問,光通信產(chǎn)業(yè)是受益AI的幸運兒。農(nóng)歷龍年A股開市第一天(2024年2月19日),光通信股受益Sora概念熱潮,全線飄紅,數(shù)只漲停。
那光通信產(chǎn)業(yè)鏈的各個環(huán)節(jié)與AI都有哪些深度或間接關(guān)聯(lián)呢?
光通信——搶占AI供應(yīng)鏈高地
2023年以來,科技圈最熱門的話題除了AI大模型以外,還有AI終端設(shè)備。大家都關(guān)心的一個問題是,AI時代順利開啟后,最適合搭載AI應(yīng)用的軟硬件是什么?
軟件上自然無需光通信出手了,那硬件有光通信可以努力的方向嗎?
答案是肯定的。
AI通常需要進行大量的計算和數(shù)據(jù)處理,因此需要使用一些專門針對人工智能應(yīng)用進行優(yōu)化的硬件設(shè)備,主要包括中央處理器(CPU)、圖形處理器(GPU)、專用芯片(ASIC)、神經(jīng)網(wǎng)絡(luò)處理器(NPU)、加速卡(TPU)、內(nèi)存(RAM)、存儲設(shè)備、網(wǎng)絡(luò)接口卡(NIC)、機箱、背板、主板、散熱系統(tǒng)和電源等,具體配置則可能會根據(jù)不同的應(yīng)用場景和需求有所變化。
除了以上硬件設(shè)備,還有一些專門為AI應(yīng)用優(yōu)化的服務(wù)器、存儲設(shè)備和網(wǎng)絡(luò)設(shè)備,如AI芯片服務(wù)器和NVMe SSD等。AI芯片服務(wù)器是專為AI應(yīng)用設(shè)計的服務(wù)器,通常配備多個GPU、TPU或NPU芯片,支持高性能的并行計算和分布式訓(xùn)練。AI芯片服務(wù)器還支持各種深度學(xué)習(xí)框架和算法,并提供友好的開發(fā)環(huán)境和工具。
其中,GPU是由大量核心組成的大規(guī)模并行計算架構(gòu),擁有較多運算單元(ALU)和較少緩存(cache),是一款專為同時處理多重任務(wù)而設(shè)計的芯片,具備良好的矩陣計算能力和并行計算優(yōu)勢,能滿足深度學(xué)習(xí)等AI算法的處理需求,因此成為主流云端AI芯片。
不難看出,與光通信強關(guān)聯(lián)的就是GPU(Graphics Processing Unit),一種通用并行處理器,最初用于圖形處理,但現(xiàn)在由于其高并行計算能力也被廣泛應(yīng)用于深度學(xué)習(xí)等人工智能領(lǐng)域。與傳統(tǒng)的CPU相比,GPU具有更多的計算核心和高速的內(nèi)存帶寬,可以顯著加速矩陣運算等計算密集型任務(wù)。在深度學(xué)習(xí)等大規(guī)模數(shù)據(jù)處理中,GPU能夠加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和推理過程,比CPU更適合處理大規(guī)模的矩陣運算。
具體是如何相關(guān)的,不妨先看看GPU的硬件組成及運行原理(懂的跳過)。
一塊GPU對應(yīng)需要多少光模塊?
光模塊在 GPU 中扮演著傳輸數(shù)據(jù)的關(guān)鍵角色,它能夠?qū)崿F(xiàn)高速、低延遲的數(shù)據(jù)傳輸,從而提高GPU性能。GPU通常需要處理大量的圖形或計算任務(wù),這些任務(wù)需要快速地從存儲器中讀取數(shù)據(jù),然后將計算結(jié)果寫回存儲器。光模塊可以通過高速的光信號傳輸加快GPU與其他設(shè)備之間的數(shù)據(jù)交換速度,提高數(shù)據(jù)傳輸效率。
而光模塊在GPU中的工作則是光發(fā)射器負(fù)責(zé)將電信號轉(zhuǎn)換為光信號,并通過光纖或光導(dǎo)波器將信號傳輸出去光接收器則接收從其他設(shè)備發(fā)送過來的光信號,并將其轉(zhuǎn)換為電信號,然后傳遞給GPU進行處理。
已知GPU 的硬件組成包括:
·處理器單元(Processing Units,PU):又稱為流處理器(Stream Processor),是 GPU 的核心計算單元,用于執(zhí)行計算操作。GPU 可以擁有幾十到數(shù)千個處理器單元,每個處理器單元都可以同時執(zhí)行多個線程,從而實現(xiàn)高并發(fā)的計算。
·顯存(Graphics Memory):用于存儲圖形數(shù)據(jù)、紋理等圖形相關(guān)的數(shù)據(jù),以及 GPU 計算過程中所需要的中間結(jié)果等數(shù)據(jù)。顯存的容量通常比 CPU 的內(nèi)存小,但它的讀寫速度更快,可以滿足高速的數(shù)據(jù)交換和計算要求。
·內(nèi)存控制器(Memory Controller):用于控制顯存的讀寫操作,以及與CPU的內(nèi)存之間的數(shù)據(jù)交換。
·命令/控制器(Command/Control Processor):用于控制GPU內(nèi)部的處理器單元,協(xié)調(diào)GPU和CPU之間的數(shù)據(jù)傳輸和通信。
·圖形輸出(Display Output):用于將GPU處理后的圖像數(shù)據(jù)輸出到顯示器上。
市場上已經(jīng)有不同版本的光模塊與GPU數(shù)量比例的測算,因網(wǎng)卡型號、交換機型號和單元(Scalable unit SU)數(shù)量的不同,算出來GPU與200G光模塊、400G光模塊和800G光模塊的對應(yīng)比例就不同,有GPU:200G光模塊=1:6,也有GPU:200G光模塊=1:1,還有GPU:800G光模塊=1:1.5,GPU:400G光模塊=1:1
有業(yè)內(nèi)人士測算結(jié)果顯示,如果以2024年0.85美元/GB的均價簡單計算,AI預(yù)計為光模塊帶來13.8/49.7億美金的AI增量市場空間。
需要與哪些GPU廠搞好關(guān)系?
其實只有一家,就是英偉達(dá)(NVIDIA)。英偉達(dá)被稱為AI領(lǐng)域“無可爭議的領(lǐng)導(dǎo)者”,人工智能芯片市場份額預(yù)計已達(dá)到90%,創(chuàng)下新紀(jì)錄。
在人工智能加速芯片市場中,英偉達(dá)的A100/H100系列AI GPU成為了市場的首選產(chǎn)品。研究機構(gòu)預(yù)測,英偉達(dá)計劃在2024年銷售約150萬至200萬個AI GPU,這將是其2023年銷量的三倍。
當(dāng)然,英偉達(dá)的領(lǐng)先也并非一朝一夕就能實現(xiàn)的。英偉達(dá)大約在15年前就開始與大學(xué)合作,尋找除了游戲和可視化市場之外,GPU還可以完成的新奇特事物。
2023年英偉達(dá)高端GPU曾一度供不應(yīng)求,2023年底時的交期還有8-11個月,2024年初就已經(jīng)減少到了只有3-4個月。
目前來看,在大A上市的頭部光通信企業(yè),大漲的就包括英偉達(dá)供應(yīng)商和代工廠??梢酝ㄋ椎刂v,但凡打入英偉達(dá)供應(yīng)鏈的,在過去的2023年都風(fēng)光無限。
為了不在這場全球科技競賽中掉隊,除了押注英偉達(dá)以外,也可以看看同步抗衡的微軟、亞馬遜、谷歌和Meta等國際大佬,這些公司也紛紛在自研AI芯片,準(zhǔn)備在AI生成視頻領(lǐng)域大干一場。
結(jié)語
盡管AI技術(shù)在帶來巨大便利和效率提升的同時也引發(fā)了一系列討論和擔(dān)憂,但可以相信的是,這些擔(dān)憂會隨著技術(shù)的發(fā)展完善而逐步解決磨合。
唯一需要關(guān)注的是,每一次新的技術(shù)革命都會帶來新一輪的行業(yè)洗牌,我們不得不摩拳擦掌、分秒必爭,要在這場競賽中守住行業(yè)地位,或?qū)崿F(xiàn)逆襲,除了必備的眼光和智慧以外,實力和毅力也不可或缺。
面向未來AI,我們準(zhǔn)備好了嗎?