标题摘要内容
清华大学教授魏少军:新型芯片架构需强化“软件定义”
来源:中国电子报 | 作者:沈丛 | 发布时间: 2023-08-17 | 1463 次浏览 | 分享到:

8月16日,在英特尔2023中国学术峰会上,清华大学教授、国际欧亚科学院院士魏少军表示,未来人工智能技术需要从终端应用出发,以应用定义软件,再用软件来定义芯片,以满足各种人工智能终端设备的定制化需求,并提升算力的供给。

AI芯片要在通用的基础上更加“智能”

作为引领新一轮科技革命和产业变革的战略性技术,人工智能正加速发展,为数字经济社会的高质量发展提供了新动能。数字化新事物、新业态、新模式的不断涌现,推动了人工智能应用场景向多元化发展。在算力规模不断扩大、算力需求持续攀升的背景下,如何更加高效地配置、共享、调度并释放更多算力,成为人工智能发展的一个新的挑战。

魏少军表示,智能化发展已经取得了巨大进步,以谷歌为例,谷歌的智能玩家比人类专业玩家能力强10倍,智能唇语识别的精准度达93.4%,语音识别的错词率只有5.9%。“虽然,人们依旧难以完全了解人脑计算,但能基于现有的芯片和软件技术来构建类脑计算机,并实现成就,已实属不易。”魏少军说。

尽管,智能化发展已经取得了阶段性的进展,但人工智能依旧存在两个现实问题。第一,算法在不断演进,新算法层出不穷。第二,没有统一的算法,只能一种算法对应一种应用。深度学习需要一款“智能计算引擎”,既能具备各类应用的可编程能力,还具备计算和存储密集型功能以及实现数据从“云端”向“边缘端”迁移的能力。魏少军认为,这个“智能计算引擎”,便是如今人工智能领域万众期待的新芯片架构。

魏少军介绍加入联盟或商务合作,请添加官方微信账号或致电:18676667988(微信同号),基于软件可编程性和硬件可编程性两方面,可以把AI芯片划分为四个维度。第一个维度是目前最通用的CPU、DSP等处理器,具有很强的软件可编程性,但硬件可编程性弱。第二个维度是ASIC、SoC等专用集成电路,此类芯片在运行过程中通常不需要软件,也意味着软件可编程性弱,但芯片一旦完成制作,硬件不可更改。此外,在芯片制程工艺进入纳米级后,高昂的成本使得具备多品种、小批量特点的专用集成电路难以维持。第三个维度是以FPGA、EPLD等为代表的可编程逻辑器件,在硬件编程方面具备高灵活性,但是软件可编程性弱,且成本高、价格贵。第四个维度便是如今业内追求的新型芯片架构,该架构既具备很强的软件可编程性,也具备很强的硬件可编程性。因此,魏少军认为,“通用”仍然是人工智能芯片的主流架构,然而此通用非彼通用,未来的通用人工智能芯片,需要在通用的基础上,变得更加“智能”,以满足各种各样终端应用的定制化需求。

实现智能,软件是核心芯片作支撑

若想让新的芯片架构变得更加“智能”,离不开软件的加持。

魏少军表示,如今,高性能计算机的计算能力已经进入到了E级时代。E级超算是指每秒可进行百亿亿次数学运算的超级计算机,是国际上高端信息技术创新和竞争的制高点,被全世界公认为“超级计算机界的一顶皇冠”。如今已经有企业实现了该技术,美国橡树岭国家实验室的新型超算“前沿”,是全球首台实现每秒浮点运算速度超过百亿亿次超算的超级计算机。

与此同时,人们对于更高算力的追求从未停滞。魏少军表示,到2024年,全球数据量将超过100ZB(1021),这也意味着业内对于计算能力的需求不仅限于E级,未来将很快达到Zetta级(数据量达到1021量级),且需求愈发迫切,但仅依靠现有的计算难以实现。例如,仅仅通过提升芯片工艺制程,难以实现Zetta量级的计算。“下一代超算处理器若达到Zetta级,即使使用尚未量产的3nm工艺,也会因为耗电量和投资额巨大而难以落地。”魏少军说。

此外, CPU、FPGA、GPU等现有的计算芯片也难以满足下一代计算的要求,这是由于,现有的计算芯片计算资源占比低,仅不到0.1%,技术资源利用率低,仅不到5%,但数据传输能耗高达90%。

因此,在强大算力需求的推动下,若想让芯片变得更通用、更智能,可以以应用定义软件,再用软件定义芯片,保证芯片在具备灵活性的同时,还能大幅提升效率。这不仅可以满足各种人工智能应用的定制化需求,也能有效增强算力供给。

魏少军表示,智能软件是实现智能的载体,应具备自我学习能力、形成知识和经验的能力、持续改进和优化的能力、再生和组织能力、思维逻辑推理的能力以及做出正确判断和决策的能力。智能芯片是计算的载体,需要具备高性能计算能力、多任务并行计算能力、足够的吞吐量、极高的能量效率、灵活高效的存储寻址功能以及实时动态功能变化能力。因此,软件和芯片是相辅相成的存在。

“实现智能的核心是软件,支撑智能的基础是芯片。”魏少军说。


加入联盟或商务合作,请添加官方微信账号或致电:18676667988(微信同号)