Pickful
Magnifying-glass
廣場
登入
註冊
Bars-3
最新文章
積分排行榜
趨勢
Device-phone-mobile
Get App
探索
Squares-2x2
話題廣場
Fire
Love
· 4天 ago
vLLM: 一种面向大型语言模型的、兼具高吞吐量与内存效率的推理与服务引擎。
#vllm
#ai
https://vllm.ai/
https://github.com/vllm-project/vllm
https://x.com/vllm_project
image.png
159.0 KB
回复
0
Heart
6
Love
· 4天 ago
a16z: 我们很高兴宣布,我们将主导 Inferact 的 1.5 亿美元种子轮。
@inferact
是由 vLLM 项目维护者领导的新初创公司,包括 Simon Mo、Woosuk Kwon、Kaichao You 和 Roger Wang。
vLLM 是领先的开源推理引擎,也是各类开源项目中最大的之一,被 Meta、Google、Character AI 等众多公司用于生产环境。
#Inferact
通过专门的财务和开发资源支持 vLLM 项目,并将构建他们视为下一代商业推理引擎的架构。
对于
#a16z
基础设施来说,投资于
#vLLM
社区明确意味着未来将带来极其多样化的
#AI
应用、代理和工作负载,运行在多种硬件平台上。
image.png
430.9 KB
回复
0
Heart
6
回覆
X-mark
轉發此貼文?
與您的關注者分享。
取消
轉發
引用
引用此貼文
取消
發帖
Check
檢舉
您為什麼要檢舉此貼文?
取消
檢舉
回覆