Kubernetes 已经是 AI 革命的核心,它允许传统虚拟机和新的 AI 应用程序在一个有凝聚力的环境中共存。
引用一位专家叫 Aerosmith 的话:我们生活在边缘。世界各地的企业和组织现在都在熟悉边缘计算的概念,无论是在工厂车间跟踪事件,还是嵌入在我们购物的零售店中,地球现在都被边缘计算所覆盖。
边缘计算的扩展为使用该技术的企业带来了一些增长领域。
首先,它需要更多的传感器或物联网 (IoT) 设备。从广义上讲,这意味着第二件事:需要处理更多数据。大多数边缘计算计划的全部目的是快速本地收集、监控和分析数据。这些工厂组件的效率(或故障率)显示出它们的年龄,而客户可以获得专门的优惠或新体验,而如果没有本地化资源,这些优惠或体验是不可能实现的。
这一切都引出了一个问题:现在该怎么办?现在传感器都已到位,数据正在流动,边缘的下一步是什么?答案肯定在头条新闻中,但边缘不是流行语的附加功能,而是运行AI 应用程序的完美场所。毕竟,AI 非常适合分析数据,而边缘肯定会产生大量数据供分析。
那么,人工智能和边缘如何结合在一起呢?答案实际上需要绕开一些你可能已经非常熟悉的技术:虚拟机 (VM)。
非标准服务器:有时没有空间容纳半机架(甚至 4U 节点)。
不可靠的网络连接:并非每个位置都具有一致、高速的网络。
电力不稳定:甚至不能保证全天候供电。
不存在暖通空调:有些地方炎热、寒冷、潮湿或多尘(不利于硬件)。
海量数据:生成的设备和传感器用户数据量可能达千兆字节。
这些只是边缘计算的几个例子。当然,解决这些问题是保持数据流动的基础。
数据将一直存在
一些软件会分析这些数据并据此产生某种形式的输出
评估输出的有效性
软件更新了,数据也更新了
转到步骤 1,继续
软件开发也非常类似,因为它也是一个正反馈循环。编写的软件越多,收集的数据越多,可以评估的输出越多,软件就越好。这是一个自我延续的循环,但如果没有稳定的数据流和软件创新,这个过程也就会变得停滞不前。
因此,作为从业者有责任让这些数据流入集群。这就是Kubernetes成为人工智能革命核心的原因:它让所有基础设施都存在于所有参与者的同一个思维空间中。
在边缘位置添加虚拟机只会增强平台的功能。由于这些边缘系统在现场提取数据,有时需要比某些开发人员更老的应用程序,因此虚拟机可以覆盖那些不一定是云原生的分布式应用程序的旧工作负载。
比如,可以使用Red Hat OpenShift 让组织可以在一个环境中使用一组工具,在一个地方使用这些新的 AI 应用程序和旧 VM。
从虚拟机到人工智能,仍然在继续。
作者:小召
本文为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。