当前位置 工程之家 智能工程 正文 下一篇:

边缘智能技术的主要挑战

边缘和AI的结合带来了新的挑战,在进行边缘智能训练和推理时,需要充分考虑以下这些方面。

(1)训练损失

从本质上讲,DNN训练过程解决了一个寻求最小化训练损失的优化问题。训练损失捕获了学习值和标签值之间的差距,表明训练的DNN模型与训练数据的拟合程度。因此,期望能使训练损失最小化。训练损失主要受训练样本和训练方法的影响。

(2)收敛性

收敛指标专门用于分散式方法。直观地讲,分散式方法只有在分布式训练过程收敛到共识时才有效,这是该方法的训练结果。“收敛”一词衡量分散方法是否以及以多快的速度收敛到这样一个共识。在分散训练模式下,收敛值取决于梯度同步和更新的方式。

(3)隐私性

当使用大量终端设备上产生的数据来训练DNN模型时,需要将原始数据或中间数据从终端设备传输出去,在这种情况下处理隐私问题是不可避免的。为了保护隐私,期望将隐私敏感度较低的数据从终端设备传输出去。是否实施隐私保护取决于是否将原始数据卸载到边缘。

(4)通信开销

DNN模型的训练是数据密集型的,原始数据或中间数据应该跨节点传输。直观地说,这种通信开销增加了训练延迟、能量和带宽消耗。通信开销受原始输入数据的大小、传输方式和可用带宽的影响。

(5)延迟

可以说,延迟是分布式DNN模型训练最基本的性能指标之一,因为它直接影响训练模型何时可用。分布式训练过程的延迟通常由计算延迟和通信延迟两部分组成。计算延迟与边缘节点的性能密切相关,通信延迟可能因传输的原始数据或中间数据的大小以及网络连接的带宽而异。

(6)能效

当以分散的方式训练DNN模型时,计算和通信过程都会消耗大量的能量。然而,对于大多数终端设备,它们的能量是有限的。因此,非常希望DNN训练可以节能。能效主要受目标训练模型的大小和所用设备资源的影响。

版权声明:本篇文章(包括图片)来自网络,由程序自动采集,著作权(版权)归原作者所有,如有侵权联系我们删除,联系方式(QQ:452038415)。http://www.apmygs.com/2438.html
返回顶部