我人麻了吖提示您:看后求收藏(第200章 太没有礼貌了!(上),末世穿越指南,我人麻了吖,90后文学网),接着再看更方便。

请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。

想要搞AI大语言模型平台,其实是一件很困难的事情。

虽然自从ChatGPT震撼面世之后,国内便迅速跟风,接连出现了数个类似的语言模型。

甚至于如果放宽要求,将所有尝试着跑马圈地的公司都计算其中的话,单只是国内,就达到了‘百模大战’的程度。

各种各样的‘大模型’,甭管是独立存在的,还是挂羊头卖狗肉的,总之把看上去还像那么回事的‘大模型’加在一起,总量甚至超过了一百三十个!

这其中便有郑弘毅偷偷摸摸搞的一个试验品。

受限于资金体量和公司这几年连续步入颓势的影响,郑弘毅根本不敢大张旗鼓的进入到这个全新的赛道之中。

生怕稍有不慎,一旦发展不好的话,再给本就状况不佳的公司当头一棒。

到时候若是股价一泻千里,那乐子可就大了。

可即便只是偷偷摸摸搞的试验品,过程中遭遇的那些困难,依旧让郑弘毅感到头大。

其中最麻烦的就是成本问题!

单纯构建模型的起始费用并不算高,大概一千万到一千五百万左右,就能粗略的搭建出一个大模型平台。

可基于大模型对硬件和训练的需求,可以明显的发现,随着模型的规模越来越大,训练的成本也会越来越高昂!

首先最起码的一个成本就是数据!

大语言模型是在包含庞大数据量的大规模数据集上进行训练的,除了开源数据集以外,任何公司想要训练出合格的大语言模型,都必须具备自身长期积累的各种数据集。

并且数据成本还涉及到数据的清洗、标记、组织和存储。无论是管理成本还是处理成本,都不是普通公司能玩得转的。

更让郑弘毅头皮发麻的是,想要搞好一个大语言模型,硬件成本同样是个天文数字!

目前被普遍应用在大语言模型上的GPU、既微处理器,是英伟达A100。

由于大语言模型对于GPU的巨大需求量,导致英伟达A100的价格水涨船高,从官方标定的一万五千刀售价,直接飙升到了三万刀,并且就算是这样,你也很难买到。

因为A100被全面禁售了……

这还只是单片的售价!

按照ChatGPT目前的体量,想要满足ChatGPT的需求,至少需要三万到四万片GPU……

而如果

更多内容加载中...请稍候...

本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!

本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!

本章未完,点击下一页继续阅读。

上一章 目 录 下一页
其他小说相关阅读More+

末世禁忌之恋我的丧尸和人类女友

鸟飞二月后

盗墓:水熊虫在线求死

远离渣男健康长寿

露骨

咕噜噜大可爱