LLM大模型到TinyML:31倍增长的新商业模式

LLM大模型到TinyML:31倍增长的新商业模式

LMM大模型到TinyML:31倍增长的新商业模式

生成式人工智能(GenAI)的泡沫之争

人工智能基础设施的巨额投资令人咋舌,但GenAI如何盈利却仍是未解之谜。然而,业界普遍低估了边缘侧人工智能(Edge AI)的潜力。

不同于云端AI,Edge AI的应用场景对空间、功耗、预算、数据安全和实时性有严格要求。因此,从云端AI到Edge AI的过渡需要开发全新的模型。

TinyML、SLM和LLM:联合语言模型的“三驾马车”

在AI的领域里,终端侧、边缘侧和云端扮演着截然不同的角色。TinyML是一种优化机器学习模型的技术,使其能够在资源受限的设备上高效运行。

小型语言模型(SLM)是参数量低于100亿的轻量级神经网络模型,是为特定任务量身定制的。而大型语言模型(LLM)则擅长各种自然语言处理(NLP)任务。

联合语言模型将不同规模的AI模型分别部署在三个层面,以执行相关任务。TinyML适用于资源有限的设备,SLM可以在边缘设备上处理简单任务,而LLM则承担复杂的任务。

云端到边缘:GenAI迁移的必经之路

随着AI技术的发展,越来越多的AI模型从云端迁移到边缘设备。这种趋势是由成本、实时性和安全性等因素驱动的。

边缘计算通过将神经网络模型部署在边缘设备上,降低了成本和延迟,提高了数据安全性。然而,对于某些关键领域,直接将云端解决方案“缩小”并不是最佳选择。

EdgeGenAI的概念应运而生,即在设备上执行生成式AI。越来越多的硬件展示了EdgeGenAI的能力,预示着EdgeGenAI时代的到来。

DePIN赋能边缘AI,开创盈利新模式

去中心化物理基础设施网络(DePIN)通过区块链技术和代币经济,将分散的物理设备连接成一个去中心化的资源共享网络。

DePIN与边缘AI的结合可以促进AI设备的普及和应用。设备制造商可以通过DePIN社区预置设备,以“设备即服务”的模式销售设备使用权,降低用户成本。

AI模型提供商也可以利用DePIN网络,按需付费的方式提供训练好的模型。这种模式将显著降低边缘AI的推理成本,让所有人负担得起高质量的AI服务。

宠物智能项圈的DePIN案例

某宠物智能项圈厂商计划将智能项圈引入DePIN社区,构建一个去中心化的宠物数据共享网络。项圈内置功能将采集大量宠物行为数据,作为AI模型训练的重要数据源。

同时,该厂商开放项圈的边缘算力,允许第三方开发者部署宠物AI模型,实现场景化的AI应用。这种开放生态释放了边缘AI的想象空间,催生了创新应用和服务。

DePIN与边缘AI的结合,为设备制造商开辟了新的销售渠道和盈利模式,也为AI企业搭建了一个数据聚合和模型快速部署的基础设施。

结论

TinyML、SLM技术成熟,AI模型正大规模向边缘迁移。EdgeGenAI催生了新的应用形态,边缘AI将在汽车、零售、家居等行业创造巨大价值。

DePIN的引入通过共享资源、建立按需付费机制和构建开放生态,有效破解了边缘AI的商业化困局,开辟了新的商业模式。

原创文章,作者:睿鸿在线,如若转载,请注明出处:https://mip.orihonor.com/2024/11/11/6485.shtml

Like (0)
睿鸿在线睿鸿在线
Previous 2024年11月11日 下午1:11
Next 2024年11月11日 下午1:36

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注