人工智能技术不断发展,继AlphaGO之后,ChatGPT又在全世界掀起了一波AI热潮。在问答模式的基础上ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加,其2023年1月月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。
PART 01 :ChatGPT的“背后英雄”
AI芯片——AI芯片是一种专门处理人工智能计算、应用等任务的一种芯片,也被称为AI加速器或计算卡。
在架构方面来看,AI芯片主要分为:
2)CPU:可用于推理/预测。AI服务器利用CPU与加速芯片的组合可以满足高吞吐量互联的需求;
ChatGPT生成回答的一个例子,支持中文
4)ASIC:极致性能和功耗表现。AI ASIC芯片通常针对AI应用专门设计了特定架构,在功耗、可靠性和集成度上具有优势;
图像生成模型生成的图像一例
PART 02 :AI芯片的作用
那么这些AI芯片如何使用呢?是不是一口气全都堆上呢?当然不是!在实际应用中,AI芯片又分为云端、边缘、终端三种应用场景。不同的场景根据实际情况搭配不同的AI芯片。
在云端,AI不仅要处理大量的数据,同时还要进行各种各样的AI服务,包括大量的AI训练和推理工作,对AI芯片的算力要求最高;边缘就是云端与终端之间的连接网络,在此设立一些节点,用AI芯片承担部分算力,可以有效降低云端的压力,同时提高整个AI网络的效率; 终端就是我们的手机、电脑、汽车、家电、监控等设备,这里的AI芯片要嵌入设备内部,在终端采集数据,并完成数据处理,主要负责推断。
根据以上的内容,我们可以看出云端服务器方面通常使用GPU,利用其高性能高功耗的特点,可以批量处理密集型任务;在边缘端,FPGA更适合信号处理系统,各类接口;而我们的手机、电脑、汽车则需要更专用的集成电路。
PART 03:ChatGPT需要多少算力
但无论何种类型的AI芯片,它们都需要一个共同的特性,那就是“强大的算力”。根据Open AI测算:自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。 对于AI算力的快速需求,我们也可以从各类事件中感受到。
【阿尔法狗大战李世石】
2016年3月9日,阿尔法狗经过三个多小时鏖战,击败了围棋九段高手李世石。这是AI第一次展现出它惊人的实力。当时的阿尔法狗用了1202个CPU、176个GPU,约有800多万核并行计算,同时还花费电费3千美元。而李世石大概需要两个馒头,一碟泡菜,一瓶矿泉水就可以了吧!
可见彼时的AI因为算力不足,只等堆加数量,同时能耗也非常高。2017年,升级版的阿尔法狗击败了国际围棋大师柯洁,再次引发人们的关注。
【百度无人驾驶汽车】
2017年7月6日,百度召开AI开发者大会,百度总裁陆奇在介绍“Apollo”计划时,大屏幕出现了百度创始人、董事长李彦宏坐在无人驾驶汽车行驶在北京五环的画面。从画面中可以看到,李彦宏坐在副驾驶位置,全程不碰方向盘,全部由AI操控。李彦宏表示:“汽车行驶很平稳,感觉非常不错。”
据悉百度的无人驾驶汽车Apollo,采用了英特尔和英伟达两家公司的AI芯片。自动驾驶汽车上路前需要超过100亿公里的测试,如果不采用AI芯片,而拥纯人工的话,需要100辆汽车7*24小时测试100年。而搭载了AI芯片后的Apollo一天就可以跑上百万公里。而ChatGPT的总算力消耗约为3640PF-days,至少要7-8个投资30亿规模的数据中心才能支撑ChatGPT的运行。光从模型训练算力具体来看,至少需要上万颗英伟达 GPU A100,以参数规模为1750亿的GPT-3为例,一次模型训练成本超过 1200 万美元。
从这三个事件中我们可以看出,AI芯片的算力需求正在快速的增长,并且已经逼近现有芯片算力的极限,这就倒逼芯片厂商快速的迭代升级。而先进的AI芯片代表着强大的算力,强大的算力才能支持人工智能继续更新迭代,最终为人类分担大量的脑力、体力劳动。
总体而言,ChatGPT在全球刮起人工智能应用旋风同时,也将搅动底层的半导体产业、HPC、云计算等产业协同发展,进而促成相关软硬件和生态相辅相成,乃至促进半导体行业复苏及相关行业可持续的长远发展。
扫二维码用手机看


Copyright © 2021 恩纳基智能科技无锡有限公司 版权所有 苏ICP备2021039475号
