区块链 区块链技术 比特币公众号手机端

大模型要占你多少内存?这个神器一键测量,误差低至0.5MB,免费可用

liumuhui 12个月前 (06-21) 阅读数 575 #区块链
文章标签 大模型

原文来源:量子位

图片来源:由无界 AI? 生成

大模型训练推理要用多少内存?

打开这个网页一测便知,测量误差小至0.5MB。

比如模型bert-base-case Int8估计占用413.18 MB内存,实际占用为413.68MB,相差0.5MB,误差仅有0.1%。

操作也很简单,输入模型名称,选择数据类型即可。

这就是HuggingFace Space上的最新火起来工具——Model Memory Calculator,模型内存测量器,在网页端人人可体验。

要知道,跑大模型最头疼的问题莫过于:GPU内存够吗?

现在能先预估一波、误差很小,让不少人大呼“Great”!

实际推理内存建议多加20%

使用第一步,需要输入模型的名称。

目前支持搜索在HuggingFace Transformers库和TIMM库中的模型。

比如想要看GLM-6B的情况,可以输入“THUDM/chatglm-6b”。

不过有一些模型会存在限制,需要获取API token后才能开始计算,比如Llama-2-7b。

我们找了几个大模型实测,可以看到当模型规模达到百亿参数后,内存要求被直线拉高。

基础版的BERT还是对GPU相当友好滴

而在实际推理过程,EleutherAI发现需要在预测数据基础上,预留20%的内存。具体举例如下:

作者小哥热衷开源项目

最后来介绍一下带来这个项目的小哥Zach Mueller。

他本科毕业于西佛罗里达大学,主修软件设计与开发,热衷开源,在GitHub有1k粉丝。之前做过很多和Fast.ai框架有关的开源项目。

传送门:https://huggingface.co/spaces/hf-accelerate/model-memory-usage

—-

编译者/作者:AI梦工厂

玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。

版权声明

本文仅代表作者观点,不代表区块链技术网立场。
本文系作者授权本站发表,未经许可,不得转载。

评论列表
  •   游客  发布于 2024-07-09 10:24:58  回复该评论
    今天怎么了,什么人都出来了!http://k8qm0.xiaoxiongxc.cn
  •   游客  发布于 2024-07-09 14:40:28  回复该评论
    楼上的这是啥态度呢?http://www.pzala.com
  •   游客  发布于 2024-07-10 01:00:35  回复该评论
    论坛的人气不行了!http://op9.yjhf1933.com
  •   游客  发布于 2024-07-10 14:55:10  回复该评论
    东方不败外加灭绝师太啊!http://zjsvo.storezs.com
  •   游客  发布于 2024-07-11 05:19:50  回复该评论
    经典,收藏了!http://mgu2n.tywl8888.com/42/3.html
  •   游客  发布于 2024-07-11 08:22:25  回复该评论
    雷锋做好事不留名,都写在帖子里!http://57lh05.16617.cn

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

热门