生成式AI将改变世界!?
~AI服务和支撑这些服务的电容器所需的进化~(前篇)
2024-01-24
随着生成式AI服务的迅速发展和普及,支撑其运行的硬件计算量也在飞速增加。
那么,为什么计算量会不断增加呢?为满足这一要求的硬件又是如何进化的呢? 本文将介绍生成式AI发展的背景、支撑其发展的硬件事例,以及对计算处理性能做出重大贡献的电容器。
生成式AI的发展
近年来,我们经常在新闻中听到生成式AI这个关键词。生成式AI是指活用AI来生成新内容的AI。例如,以前的AI发挥的作用是用来识别图像,而生成式AI发挥的作用则是根据输入信息生成新图像,在这一点上存在差异。生成式AI的典型例子是“ChatGPT”,它能够对任何问题都给予高级回答,一时成了热门话题。“ChatGPT”于2022年11月公开发布,并于次年1月成为全球最快超过1亿注册用户的Web服务,引起了全球范围内的广泛关注。这款ChatGPT成了推动力,随后陆续推出了许多利用生成式AI技术的各种服务。服务内容不仅限于AI回答问题的用途,还包括文档制作/摘要、企划方案的制作、设计/乐曲生成、编程代码生成等,涵盖范围广泛。生成式AI被认为具有广泛的实用价值,人们期望它能够丰富我们的生活,但与此同时,也引发了众多的争论,如著作权问题、以及对人类工作岗位消失的担忧等。此外,据说今后生成式AI的应用还将会拓展到与实体相关的物理领域(机器人和重工业等),因此每天都有许多人密切关注其发展动向。
传统的AI(预测式AI) | 生成式AI | |
---|---|---|
功能 | 根据数据进行指定对象的识别/分析/预测 | 根据数据重新生成指定的内容 |
效果 | 进行比人类更高精确的识别/分析/预测 | 在比人类更短的时间内创建新的内容 |
用途 | 文档/图像/视频等的识别、基于数据分析的预测 | 文档/图像/视频等的生成 |
生成式AI的工作原理
生成式AI是如何创建新内容的呢?它大致上是通过(1) 学习、(2) 推理的过程来实现的。(图表2)
(1) 学习
这是为了构建用来执行生成的模型而进行的过程。在这里,使用大量数据,进行捕捉数据特征的计算。其结果是构建起用来实现高级生成的推理模型。服务支持的范围/精度越高,作为其反作用,需要花费的时间就越长(甚至可能需要数个月)。为了尽快投入或更新服务,需要缩短学习时间。
(2) 推理
这是执行生成的过程(服务的正式运行)。在这里,根据学习得到的推理模型,生成针对用户输入的回答。此时被生成的,是对输入以最高概率被判定为适合的内容。通过推理模型,推理将在比学习短得多的时间内被执行(最长也只有几十秒左右)。响应慢的服务将被用户敬而远之,因此要求执行速度哪怕快1秒也好。
生成式AI面临的课题
生成式AI由于其广泛的活用范围和便利性,是一项备受期待的技术,但在实际应用方面还存在一些课题。那就是如前文所述,因为是基于概率来生成回答内容,所以可能会生成不正确的内容。这种现象被称为“幻觉”(因为AI会像看到幻觉一样编造煞有介事的谎言)。为了解决这样的课题,什么样的对策才是有效的呢? 被公认为有效的方法之一是增加学习时的数据量/计算参数数量。据报道,OpenAI公司的ChatGPT中使用的生成式AI模型在进化过程中通过使用这种方法提高了生成精度。
年 | 2018 | 2019 | 2020 | 2022 | 2023 | 202X |
---|---|---|---|---|---|---|
ver. | 1 | 2 | 3 | 3.5 | 4 | 5 |
参数数量 | 1.17亿 | 15亿 | 1750亿 | 3550亿 | >1.5兆※1 | >15兆※1 |
学习数据 | 4.5GB | 40GB | 570GB | ?TB | >5TB※1 | >50TB※1 |
支撑生成式AI的硬件
现在,以ChatGPT为首的生成式AI服务大多是Web服务。用来执行Web服务的计算处理是通过设置在所谓的云数据中心的多个服务器进行的。
传统的Web服务,通常1台服务器上只安装1-2个承担中心计算处理的CPU※1,仅用该CPU进行与服务执行有关的大部分处理。但是,进入2010年代后,CPU高性能化的主要原因——电路微缩效果减弱,陷入了难于有效地提高性能的状况。在这样的状况下应运而生的是一种称为加速器(协处理器)的方法。其目的是通过在服务器上添加其他种类的高效处理器,来有效提高处理性能。通过活用这一工作原理,将需要处理大量数据的AI展开到Web服务中成了现实。作为生成式AI用途的加速器,通常选择GPU※2或ASIC※3(参见注释)。
注释:在生成式AI中使用的处理器的区分
※1 CPU (Central Processing Unit)
由于CPU担负着通用软件处理等Web服务的核心任务,因此在服务器上必不可少。另一方面,在特定的处理中,像GPU和ASIC那样的并行处理能力强的处理器比CPU更能高效处理。因此,在AI领域,除了CPU之外,通常将这些处理器组合起来使用。
※2 GPU (Graphic Processing Unit)
正如其名称所示,GPU过去主要用于游戏等图像处理,但由于在学习/推理中也使用类似的并行处理,从2010年中期开始在AI的数据处理中被广泛使用。此外,GPU的软件灵活性在支持不断进化的AI算法方面也极具魅力,受到众多AI研究人员/AI服务工程师的青睐。因此,GPU作为生成式AI的进化/发展的土壤发挥着重要作用。
※3 ASIC (Application Specific Integrated Circuit)
由于是专门针对特定用途而设计的处理器,所以能够兼顾高性能/低功耗,降低运营成本,这是其魅力所在。相比之下,其灵活性不如GPU,处理过程在一定程度上被固定起来,因此需要在充分考虑目标处理和展开规模的基础上进行开发。由于该开发需要投入大量的资金和人力,因此ASIC的活用主要集中在资金/开发实力雄厚的大型云服务供应商,但另一方面,由于有足够的技术支持,一些处理器制造商也在促进用户企业活用ASIC。
关于市场和设备的趋势
在实现AI高性能化的“学习”和“推理”处理过程中,对提高硬件数据处理性能的要求不断增加。因为对于使用生成式AI展开服务的企业来说,服务的高精度化和提供周期的缩短两者都是重要的因素。
服务要素 | 服务企业的期望 | 硬件的任务 |
---|---|---|
❶ 精度 | 希望通过更高的AI精度来获得更多的用户。 | 需要处理更大规模的数据。 →需要更高性能的硬件 |
❷ 时间 | 希望更快地投入或更新服务。希望缩短响应时间。 | 需要缩短学习/推理时间。 →需要更高性能的硬件 |
因此,生成式AI的处理器性能都是非常高端的规格,安装数量也很多,典型的配置是2个CPU + 8个加速器的组合。进而在新硬件方面采取了一些措施,如将CPU的安装数量增加到8个,并将CPU和加速器放置在靠近或相同的处理器外壳内予以构成,以提高两者之间的通信速度/功耗效率,改善性能。
其他改善方法包括,例如使用超大ASIC来加快学习速度,或者在终端侧的移动设备/嵌入式设备的处理器中安装AI处理功能来加快推理速度等事例,但也不乏有关新事例的新闻。无论是哪一种,生成式AI在硬件方面最关键的是采用最先进的技术提高处理器的性能,以及实现整个系统的最佳组合。在生成式AI飞速发展的过程中,与软件一样,硬件方面减轻环境负荷/成本也是一个非常重要的课题,不仅是大型厂家,还有很多后起之秀的厂家都加入到了这一行列中。
如上所述,关于支撑生成式AI的硬件,这里以发挥核心作用的处理器为中心介绍了配置事例,而为了让这样的高性能处理器能够稳定运行,周围使用的电子零部件也需要满足更高的要求。在下一次报道(后篇)中,我们将结合松下机电株式会社的具体解决方案事例,介绍对处理器的电源供给做出重大贡献的电容器有哪些性能要求。