博易网,更全更新的互联网资讯分享!

阿里云推出全新AI计算解决方案:大模型所需GPU狂降82%!

时间:2025-10-21 22:33人气:编辑:思思来源:

10月21日消息,在近日于韩国首尔举办的顶级学术会议SOSP 2025(操作系统原理研讨会)上,阿里云发布了其“Aegaeon”计算池化解决方案。

Aegaeon方案的核心在于解决AI模型服务中普遍存在的GPU资源浪费问题,尤其针对那些需求突发或不可预测的大型语言模型。

它打破了传统的“一个模型绑定一个GPU”的低效模式,而是在Token级别虚拟化GPU访问,这意味着单个GPU可以被多个不同模型共享服务,实现精细化的资源调度。

阿里云Aegaeon系统作为一种推理时间调度器,它能在每次生成下一个token后,动态决定是否切换模型,从而将微小的工作片段安排到共享池中。

通过组件复用、显存精细化管理和KV缓存同步优化等全栈技术,Aegaeon将模型切换开销降低了97%,确保了token级调度的实时性,可支持亚秒级的模型切换响应。

在阿里云模型市场为期超三个月的Beta测试中,Aegaeon系统在服务数十个参数量高达720亿的大模型时,所需的NVIDIA H20 GPU数量从1192个锐减至213个,削减比例高达82%。

GPU用量的大幅削减,对于硬件采购成本高昂的大型模型服务商而言,意味着成本将显著降低。

目前,这项核心技术已成功应用在阿里云百炼平台。

阿里云推出全新AI计算解决方案:大模型所需GPU狂降82%!(图1)

本文转载于快科技,文中观点仅代表作者个人看法,本站只做信息存储

本文来自于网络或用户投稿,本站仅供信息存储,阅读前请先查看【免责声明】,若本文侵犯了原著者的合法权益,可联系我们进行处理。本文链接:https://www.trustany.com/post/12896.html

标签: [db:tags]  
相关资讯
热门频道

热门标签

官方微信官方微博百家号

博易网网站简介 | 意见反馈 | 联系我们 | 博易网免责声明 | 广告服务

Copyright © 2002-2024 博易网 版权所有 声明:本站文章和数据均来自互联网,本站为免费公益性网站,如侵犯了您的权益,请联系我们妥善处理。 备案号:沪ICP备2022023686号-12