鈦媒體App 12月21日消息,據(jù)媒體報道,
蘋果日前在arxiv發(fā)表論文,介紹了一種可以在超出可用DRAM容量的設備上運行LLM(大語言模型)的方法。論文稱,LLM密集的計算量和內存要求對于DRAM容量來說是一大挑戰(zhàn),該論文構建了一個以閃存為基礎的推理成本模型,將在兩個關鍵領域進行優(yōu)化:減少從閃存中傳輸?shù)臄?shù)據(jù)量、更多更流暢地讀取數(shù)據(jù)塊。這意味著,該項突破性研究擴大了LLM適用性和可及性,
蘋果將生成式AI集成到iOS18的計劃或將加快推進。
根據(jù)《網絡安全法》實名制要求,請綁定手機號后發(fā)表評論