推荐一个国内可以按分钟计费的4090显卡租用公有云,一个小时24GB显存的4090只需要2.37元——仙宫云
首先说明,本文是一个推荐,也是一个推广。适合对显卡有需求的个人,目前仙宫云提供的按分钟计费的4090显卡租用,一个容器实例的规格如下:
配置项 | 配置结果 |
---|---|
显卡型号 | 4090 |
显存大小 | 24GB |
CPU型号 | AMD EPYC 7002×15核 |
内存大小 | 48GB |
系统盘存储容量 | 100GB |
带宽 | 300 Mbps |
上述配置是一个容器的配置实例,按分钟计费,一个小时的费用是2.37元。单个容器最多配4个4090显卡。相应的其它配置和价格也都是4倍。如下图所示:

总结一下,这个服务的价值:
- 按需计费,销毁容器停止计费
- 最低按照分钟级别计费,成本较低
- 一个小时的4090显卡费用2.37元(RunPod的4090价格是0.69美元一个小时,约4块多
- 官方提供免费镜像和社区镜像,社区镜像中也会包含最新的一些模型环境(可能有额外计费)
- 使用DataLearnerAI邀请链接注册可以获得8元额度使用(不限时间),自己注册只有5元哦~
DataLearnerAI专用邀请链接:https://www.xiangongyun.com/register/6WTXZM
有一点可以提一下,仙宫云部署实例的时候可以选择一些认证作者提供的社区镜像,里面有一些镜像提供了最新的如Stable Diffusion XL模型环境,部署完可以直接使用,这一点对于小白来说也比较不错~
接下来,解释这个服务适合的人群和可以做的事情:主要就是大模型相关的工作。
大模型对显卡的需求重点可能是显存
大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。而这其中,显存是很重要的一个因子。按照大模型的推理显存也等于模型参数的2倍估算(参考:需要多少GPU显存才能运行预训练大语言模型?大语言模型参数规模与显存大小的关系估算方法~),对于当前主流的入门级70亿参数的模型来说,14G显存是最低的要求。例如,ChatGLM3-6B的非量化版本模型载入最低需要13GB显存。而如果你要测试微调那么需要的显存更多。
但是,对于个人来说A100或者H100这样的企业级显卡成本非常高,而随着4090在国内的禁售传闻,国内的4090显卡价格也水涨船高。如果是入门学习或者体验大模型的实际运行效果,或者是验证方法思路,租用公有云是最合理的方式。当然,由于A100和A800的禁售 ,目前国内可租用或者可按需租用的公有云资源很少。
仙宫云4090显卡适合的事情
因此,这里DataLearnerAI推荐的仙宫云4090显卡实例可以说适合部署100亿参数及以下规模的大模型,用于推理。也可以用来对70亿参数规模的大模型(如ChatGLM-6B系列)做高效参数微调。注意,全参数微调需要的显存可能约等于模型参数的16倍,也就是说7b的模型可能需要100多GB才可能做,所以大家需要注意辨别。
当然,也可以用来部署Stable Diffusion这种模型,最新的SDXL Turbo可以用4090显卡在24秒内生成256张512×512的图像(详情参考:StabilityAI发布实时文本生成图片大模型SDXL Turbo——生成一张图片可能只需要0.207秒 )
总结
如果你的成本有限,但是对24GB及以下的显卡有需求,可以考虑使用仙宫云的显卡租用服务,一个小时2.37元,按分钟计费,做学习和技术验证是非常合适的。当然,长期部署也是可以考虑。
使用DataLearnerAI邀请链接注册可以获得8元额度,DataLearnerAI专用邀请链接:https://www.xiangongyun.com/register/6WTXZM
欢迎大家关注DataLearner官方微信,接受最新的AI技术推送
