边缘计算与人工智能应用开发技术
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.4 边缘计算与人工智能的发展历程

边缘计算和人工智能的发展历程如下:

1)早期阶段

边缘计算和人工智能是在不同时期被提出的。边缘计算是在2009年由IBM提出的,旨在将计算和存储资源尽可能地迁移到数据源和终端用户。人工智能作为一个学科和研究领域,始于20世纪50年代。在边缘计算的早期,边缘计算和人工智能并没有明确的联系。

2)人工智能在云计算的推动下得到快速发展

在人工智能的发展过程中,云计算起到了至关重要的作用。随着云计算技术的成熟和普及,人工智能应用可以将数据传输到云端进行大规模的计算和训练。在这种模式下,云计算提供了强大的计算和存储能力,但也存在时延和数据隐私等问题。

3)边缘计算的兴起

随着物联网、智能设备和传感器的快速发展,相关的应用对实时性和低时延的需求越来越高。边缘计算应运而生,它将计算资源迁移到数据源和终端用户的边缘位置,实现了快速响应和实时决策。边缘计算的兴起为人工智能应用提供了更好的计算和处理环境。

4)边缘计算与人工智能的结合

近年来,边缘计算和人工智能开始相互融合。边缘设备上的小型化、低功耗的计算资源使得其可以承载一部分人工智能应用的任务,如图像识别、语音识别、自然语言处理等。在这种模式下,人工智能应用中的推理和决策过程可以在边缘设备上进行,减少了人工智能应用与云端之间传输的数据量和时延。

5)分布式智能和边缘智能

边缘计算和人工智能的结合还催生了分布式智能和边缘智能的概念。边缘设备可以共享本地的数据和模型,进行联合学习和模型更新,实现智能的协同工作;同时,边缘设备上的智能模型可以不断学习和优化,提高自身的智能水平。

边缘计算提供了更接近数据源和终端用户的计算和处理能力,为人工智能应用带来了更低的时延、更高的实时性、更好的隐私保护。随着分布式智能和边缘智能的兴起,边缘计算和人工智能将进一步融合,为智能化的应用场景带来更多创新和发展。