2022年5月5日,AI計(jì)算領(lǐng)域的先驅(qū)Cerebras Systems和艾伯維 (AbbVie) 宣布,艾伯維的人工智能工作取得了里程碑式的成就。在生物醫(yī)學(xué)自然語(yǔ)言處理 (NLP) 模型上使用Cerebras CS-2,艾伯維實(shí)現(xiàn)了超過(guò)圖形處理單元 (GPU) 128倍的性能,而能耗只有1/3。
更大的復(fù)雜性需要更多的計(jì)算能力。CS-2提供數(shù)百個(gè)GPU的深度學(xué)習(xí)性能,具有單個(gè)節(jié)點(diǎn)的編程簡(jiǎn)易性。因此,設(shè)置和配置所花費(fèi)的時(shí)間更少,訓(xùn)練時(shí)間更少,可探索的想法更多。
艾伯維采用大型、復(fù)雜的AI語(yǔ)言模型來(lái)構(gòu)建其機(jī)器翻譯服務(wù)Abbelfish。該服務(wù)使用大型、最先進(jìn)的Transformer模型 (如BERT、BERT LARGE和BioBERT) 準(zhǔn)確翻譯并制作可搜索的180種語(yǔ)言的龐大生物醫(yī)學(xué)文獻(xiàn)庫(kù)。
確保Abbelfish既準(zhǔn)確又始終保持最新,需要使用特定領(lǐng)域的生物醫(yī)學(xué)數(shù)據(jù)從頭開(kāi)始訓(xùn)練和重新訓(xùn)練NLP模型。然而,Abbelfish模型非常龐大,有60億個(gè)參數(shù)。即使在最大的GPU集群上訓(xùn)練這樣的模型也是不切實(shí)際的。Cerebras使這種類(lèi)型的大規(guī)模AI訓(xùn)練變得快速而簡(jiǎn)單。
而在此前,Cerebras已與GSK達(dá)成合作(參見(jiàn)GSK和Cerebras合作開(kāi)發(fā)表觀基因組學(xué)模型)。
參考資料
https://www.pharmatimes.com/news/abbvie_and_cerebras_systems_partner_to_accelerate_ai_research_1448088
https://www.enterpriseai.news/2022/05/05/abbvie-chooses-cerebras-systems-to-accelerate-ai-biopharmaceutical-research/
聯(lián)系客服