畅想华章传临>仙侠小说>末世穿越指南 > 第200章 太没有礼貌了!(上)
    想要搞AI大语言模型平台,其实是一件很困难的事情。

    虽然自从ChatGPT震撼面世之后,国内便迅速跟风,接连出现了数个类似的语言模型。

    甚至于如果放宽要求,将所有尝试着跑马圈地的公司都计算其中的话,单只是国内,就达到了‘百模大战’的程度。

    各种各样的‘大模型’,甭管是独立存在的,还是挂羊头卖狗肉的,总之把看上去还像那么回事的‘大模型’加在一起,总量甚至超过了一百三十个!

    这其中便有郑弘毅偷偷摸摸搞的一个试验品。

    受限于资金体量和公司这几年连续步入颓势的影响,郑弘毅根本不敢大张旗鼓的进入到这个全新的赛道之中。

    生怕稍有不慎,一旦发展不好的话,再给本就状况不佳的公司当头一棒。

    到时候若是股价一泻千里,那乐子可就大了。

    可即便只是偷偷摸摸搞的试验品,过程中遭遇的那些困难,依旧让郑弘毅感到头大。

    其中最麻烦的就是成本问题!

    单纯构建模型的起始费用并不算高,大概一千万到一千五百万左右,就能粗略的搭建出一个大模型平台。

    可基于大模型对硬件和训练的需求,可以明显的发现,随着模型的规模越来越大,训练的成本也会越来越高昂!

    首先最起码的一个成本就是数据!

    大语言模型是在包含庞大数据量的大规模数据集上进行训练的,除了开源数据集以外,任何公司想要训练出合格的大语言模型,都必须具备自身长期积累的各种数据集。

    并且数据成本还涉及到数据的清洗、标记、组织和存储。无论是管理成本还是处理成本,都不是普通公司能玩得转的。

    更让郑弘毅头皮发麻的是,想要搞好一个大语言模型,硬件成本同样是个天文数字!

    目前被普遍应用在大语言模型上的GPU、既微处理器,是英伟达A100。

    由于大语言模型对于GPU的巨大需求量,导致英伟达A100的价格水涨船高,从官方标定的一万五千刀售价,直接飙升到了三万刀,并且就算是这样,你也很难买到。

    因为A100被全面禁售了……

    这还只是单片的售价!

    按照ChatGPT目前的体量,想要满足ChatGPT的需求,至少需要三万到四万片GPU……

    而如果用户规模进一步扩大,最终达成足以支撑全球用户访问的目标,那需要的GPU数量,起码还得再提升一百倍,达到四百万片以上……

    如此规模的硬件使用,意味着每天光是电费的消耗,就能吓的人心肌梗塞!