huiyu
更丰富 更及时
WE ARE ENERGY
/
/
ChatGPT狂飙!哪些芯片坐镇?

ChatGPT狂飙!哪些芯片坐镇?

  • 分类:新闻媒体
  • 作者:恩纳基智能科技
  • 来源:原创
  • 发布时间:2023-02-16
  • Visits:0

AI芯片迎接算力新挑战

ChatGPT狂飙!哪些芯片坐镇?

[Summary]AI芯片迎接算力新挑战

  • 分类:新闻媒体
  • 作者:恩纳基智能科技
  • 来源:原创
  • 发布时间:2023-02-16
  • Visits:0
详情

        人工智能技术不断发展,继AlphaGO之后,ChatGPT又在全世界掀起了一波AI热潮。在问答模式的基础上ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加,其2023年1月月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。

 

 

 

 

      PART 01 :ChatGPT的“背后英雄”

 

        AI芯片——AI芯片是一种专门处理人工智能计算、应用等任务的一种芯片,也被称为AI加速器或计算卡。

 

        在架构方面来看,AI芯片主要分为:

        1)GPU:支撑强大算力需求。由于具备并行计算能力,可兼容训练和推理,目前GPU被广泛应用于加速芯片;

        2)CPU:可用于推理/预测。AI服务器利用CPU与加速芯片的组合可以满足高吞吐量互联的需求;

 

 

ChatGPT生成回答的一个例子,支持中文

 

 

        3)FPGA:可通过深度学习+分布集群数据传输赋能大模型。FPGA具备灵活性高、开发周期短、低延时、并行计算等优势;

        4)ASIC:极致性能和功耗表现。AI ASIC芯片通常针对AI应用专门设计了特定架构,在功耗、可靠性和集成度上具有优势;

 

 

图像生成模型生成的图像一例

 

 

       PART 02 :AI芯片的作用

 

        那么这些AI芯片如何使用呢?是不是一口气全都堆上呢?当然不是!在实际应用中,AI芯片又分为云端、边缘、终端三种应用场景。不同的场景根据实际情况搭配不同的AI芯片。

 

        在云端,AI不仅要处理大量的数据,同时还要进行各种各样的AI服务,包括大量的AI训练和推理工作,对AI芯片的算力要求最高;边缘就是云端与终端之间的连接网络,在此设立一些节点,用AI芯片承担部分算力,可以有效降低云端的压力,同时提高整个AI网络的效率; 终端就是我们的手机、电脑、汽车、家电、监控等设备,这里的AI芯片要嵌入设备内部,在终端采集数据,并完成数据处理,主要负责推断。

 

 

 

 

        根据以上的内容,我们可以看出云端服务器方面通常使用GPU,利用其高性能高功耗的特点,可以批量处理密集型任务;在边缘端,FPGA更适合信号处理系统,各类接口;而我们的手机、电脑、汽车则需要更专用的集成电路。

 

 

      PART 03:ChatGPT需要多少算力

 

        但无论何种类型的AI芯片,它们都需要一个共同的特性,那就是“强大的算力”。根据Open AI测算:自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。 对于AI算力的快速需求,我们也可以从各类事件中感受到。

 

 

阿尔法狗大战李世石

 

        2016年3月9日,阿尔法狗经过三个多小时鏖战,击败了围棋九段高手李世石。这是AI第一次展现出它惊人的实力。当时的阿尔法狗用了1202个CPU、176个GPU,约有800多万核并行计算,同时还花费电费3千美元。而李世石大概需要两个馒头,一碟泡菜,一瓶矿泉水就可以了吧!

        可见彼时的AI因为算力不足,只等堆加数量,同时能耗也非常高。2017年,升级版的阿尔法狗击败了国际围棋大师柯洁,再次引发人们的关注。

 

 

百度无人驾驶汽车

 

 

        2017年7月6日,百度召开AI开发者大会,百度总裁陆奇在介绍“Apollo”计划时,大屏幕出现了百度创始人、董事长李彦宏坐在无人驾驶汽车行驶在北京五环的画面。从画面中可以看到,李彦宏坐在副驾驶位置,全程不碰方向盘,全部由AI操控。李彦宏表示:“汽车行驶很平稳,感觉非常不错。”

 

        据悉百度的无人驾驶汽车Apollo,采用了英特尔和英伟达两家公司的AI芯片。自动驾驶汽车上路前需要超过100亿公里的测试,如果不采用AI芯片,而拥纯人工的话,需要100辆汽车7*24小时测试100年。而搭载了AI芯片后的Apollo一天就可以跑上百万公里。而ChatGPT的总算力消耗约为3640PF-days,至少要7-8个投资30亿规模的数据中心才能支撑ChatGPT的运行。光从模型训练算力具体来看,至少需要上万颗英伟达 GPU A100,以参数规模为1750亿的GPT-3为例,一次模型训练成本超过 1200 万美元。

 

        从这三个事件中我们可以看出,AI芯片的算力需求正在快速的增长,并且已经逼近现有芯片算力的极限,这就倒逼芯片厂商快速的迭代升级。而先进的AI芯片代表着强大的算力,强大的算力才能支持人工智能继续更新迭代,最终为人类分担大量的脑力、体力劳动。

 

 

 

 

        总体而言,ChatGPT在全球刮起人工智能应用旋风同时,也将搅动底层的半导体产业、HPC、云计算等产业协同发展,进而促成相关软硬件和生态相辅相成,乃至促进半导体行业复苏及相关行业可持续的长远发展。

 

Keywords:

扫二维码用手机看