LMM大模型到TinyML:31倍增长的新商业模式
生成式人工智能(GenAI)的泡沫之争
人工智能基础设施的巨额投资令人咋舌,但GenAI如何盈利却仍是未解之谜。然而,业界普遍低估了边缘侧人工智能(Edge AI)的潜力。
不同于云端AI,Edge AI的应用场景对空间、功耗、预算、数据安全和实时性有严格要求。因此,从云端AI到Edge AI的过渡需要开发全新的模型。
TinyML、SLM和LLM:联合语言模型的“三驾马车”
在AI的领域里,终端侧、边缘侧和云端扮演着截然不同的角色。TinyML是一种优化机器学习模型的技术,使其能够在资源受限的设备上高效运行。
小型语言模型(SLM)是参数量低于100亿的轻量级神经网络模型,是为特定任务量身定制的。而大型语言模型(LLM)则擅长各种自然语言处理(NLP)任务。
联合语言模型将不同规模的AI模型分别部署在三个层面,以执行相关任务。TinyML适用于资源有限的设备,SLM可以在边缘设备上处理简单任务,而LLM则承担复杂的任务。
云端到边缘:GenAI迁移的必经之路
随着AI技术的发展,越来越多的AI模型从云端迁移到边缘设备。这种趋势是由成本、实时性和安全性等因素驱动的。
边缘计算通过将神经网络模型部署在边缘设备上,降低了成本和延迟,提高了数据安全性。然而,对于某些关键领域,直接将云端解决方案“缩小”并不是最佳选择。
EdgeGenAI的概念应运而生,即在设备上执行生成式AI。越来越多的硬件展示了EdgeGenAI的能力,预示着EdgeGenAI时代的到来。
DePIN赋能边缘AI,开创盈利新模式
去中心化物理基础设施网络(DePIN)通过区块链技术和代币经济,将分散的物理设备连接成一个去中心化的资源共享网络。
DePIN与边缘AI的结合可以促进AI设备的普及和应用。设备制造商可以通过DePIN社区预置设备,以“设备即服务”的模式销售设备使用权,降低用户成本。
AI模型提供商也可以利用DePIN网络,按需付费的方式提供训练好的模型。这种模式将显著降低边缘AI的推理成本,让所有人负担得起高质量的AI服务。
宠物智能项圈的DePIN案例
某宠物智能项圈厂商计划将智能项圈引入DePIN社区,构建一个去中心化的宠物数据共享网络。项圈内置功能将采集大量宠物行为数据,作为AI模型训练的重要数据源。
同时,该厂商开放项圈的边缘算力,允许第三方开发者部署宠物AI模型,实现场景化的AI应用。这种开放生态释放了边缘AI的想象空间,催生了创新应用和服务。
DePIN与边缘AI的结合,为设备制造商开辟了新的销售渠道和盈利模式,也为AI企业搭建了一个数据聚合和模型快速部署的基础设施。
结论
TinyML、SLM技术成熟,AI模型正大规模向边缘迁移。EdgeGenAI催生了新的应用形态,边缘AI将在汽车、零售、家居等行业创造巨大价值。
DePIN的引入通过共享资源、建立按需付费机制和构建开放生态,有效破解了边缘AI的商业化困局,开辟了新的商业模式。
原创文章,作者:睿鸿在线,如若转载,请注明出处:https://mip.orihonor.com/2024/11/11/6485.shtml