新华网北京5月17日电(记者凌纪伟)随着AI向终端下沉,端侧AI让智能变得触手可及。怎样看待端侧AI发展趋势,端侧AI在“人人可享的AI未来”愿景中为何发挥关键作用?新华网就此专访中关村智用人工智能研究院院长孙明俊。
端侧AI已经成为当下的一大热点。孙明俊认为,端侧AI成为长期趋势,得益于大模型不断取得进展,也得益于近年来硬件能力的突飞猛进。“我们看到大模型的训练和推理所需要的芯片或者说整个计算能力的需求大规模下降。现在一个亿级规模的端侧推理芯片,实际上在CPU上就已经可以跑了,这其实为整个AI去改变终端侧的产品形态、商业模式、应用范围都奠定了特别好的基础。”
如今,AI智能手机、AI笔记本电脑和AI大模型上车已成为现实。孙明俊认为,AI在端侧直接部署,在响应速度、隐私保护、可持续性、成本性等方面具有独特优势。
“因为它不需要上传到系统侧,不用通过网络传输然后再返回来,所以它的响应时间有了一个非常大的提升。”孙明俊举例说,如果直接在终端上生成图片,可以实现不到一秒钟就能生成一幅图,这对用户来说,其实已没有等待时间了。而如果是借助云侧再返回来,实际上一秒钟不太可能实现。
端侧AI还兼具很好的隐私保护性。“过往我们强依赖网络和强依赖系统侧,需要把用户侧,也就是端侧的大量信息都传递到云端,去传递的过程本身就有泄露的风险。而在云端它遭受攻击的规模量也很大,各种信息泄露的风险也相对要高很多。”孙明俊认为,如果在终端侧直接实现计算,其实上传云端的这些信息可以经过端侧处理,在处理完之后只传递有效信息。“这个有效信息意味着什么呢?意味着实际上在云侧获得的有效信息其实还原不出来在端侧所获得的完整信息,使得用户的信息泄露风险降到非常低的程度。”
在绿色降碳背景下,计算必须走可持续发展之路。“从可持续性角度来看,在端侧实现AI能力,实际上可以使得计算更集中,使得性能更优,也使得整个能源消耗大幅降低。”孙明俊解释说,因为端侧只需要CPU的计算就能实现大部分的推理工作,不需要经过网络设备,也不需要经过大量的云端计算,所以从整个能源消耗来说,会呈现大幅降低的情况。
相对于云端集中计算,端侧分布式计算也有成本上的优势。孙明俊说,端侧计算对计算能力的要求低,各企业因为有端侧用户体验提升、功能提升等这些需求,企业会不断优化模型所需要的计算能力,促使端侧计算成本不断下降。
随着AI处理的重心向边缘转移,这对智能终端设备也提出一定技术挑战,端侧处理芯片首当其冲。“下一步,芯片的处理能力肯定要进一步优化。可以看到,国内外巨头都在不断优化芯片与大模型适配的能力,这是一个核心问题。”孙明俊说。
此外,标准和互操作性也是未来要去解决的问题。孙明俊认为,底层芯片存在不同供应商,终端品类、品牌之间也存在差异,大模型又有很多品类,如何通过大模型建立起它们之间的沟通,这就需要解决标准和互操作性问题。“从手机自身来说,手机的传感就是麦克风阵列,通过各种各样的图像采集设备采集到手机终端上去做计算,一个产品本身自成一个体系是没问题的。但如果A手机上的大模型采集到的信息去给B大模型用,目前来看不具备这个条件。”
随着AI越来越多地进入到终端侧,对整个终端形态、产业结构和商业模式带来显著变化。“生成式AI的能力以及它能够去做个性化的能力,使得手机、汽车它们的形态发生很大变化,而它对用户需求的满足也会呈现不一样的情况。”孙明俊认为,借助AI大模型,厂商可以实现个性化的用户体验,真正实现每个人的终端千人千面。而随着硬件形态的变化,整个终端产业链、供应链也会随之变化,未来企业除了靠硬件盈利外,更多其实是通过服务创造盈利点。