- 云原生生态兼容性不足:
- 跟随社区同步演进挑战大: 由于对Kubernetes系统的侵入式修改 , 后续跟随Kubernetes社区的演进将会遇到很大挑战 。
- 边缘节点无法运行Operator:因为云边通信机制的修改 , Cloud Hub只能往边缘推送有限的几种资源(如Pod , ConfigMap等) 。而Operator既需要自定义CRD资源 , 又需要list/watch云端获取关联资源 , 因此社区的Operator无法运行的KubeEdge的边缘节点上 。
- 边缘节点不适合运行需要list/watch云端的应用: 因为云边通信机制的修改 , 导致原来需要使用list/watch机制访问kube-apiserver的应用 , 都无法通过hub tunnel 通道访问kube-apiserver , 导致云原生的能力在边缘侧大打折扣 。
- 运维监控能力支持有限:
因为目前云边通信链路是kube-apiserver –> controller –> Cloud Hub –>EdgeHub –>MetaManager等 , 而原生Kubernetes运维操作(如kubectl proxy/logs/exec/port-forward/attch等)是kube-apiserver直接请求kubelet 。目前KubeEdge社区最新版本也仅支持kubectl logs/exec/metric , 其他运维操作目前还不支持 。
- 系统稳定性提升待确定:
- 基于增量数据的云边推送模式:可以解决边缘watch失败时的重新全量list从而引发的kube-apiserver 压力问题 , 相比原生Kubernetes架构可以提升系统稳定性 。
- Infra管控数据和业务管控数据耦合:Kubernetes集群的管控数据(如Pod , ConfigMap数据)和边缘业务数据(设备管控数据)使用同一条websocket链路 , 如果边缘管理大量设备或者设备更新频率过高 , 大量的业务数据将可能影响到集群的正常管控 , 从而可能降低系统的稳定性 。
- 设备管理能力: 这个能力直接集成在edged中 , 给iot用户提供了一定的原生设备管理能力 。

- YurtHub: 代理各个边缘组件到K8s Master的通信请求 , 同时把请求返回的元数据持久化在节点磁盘 。当云边网络不稳定时 , 则利用本地磁盘数据来用于边缘业务的生命周期管控 。同时云端的Yurt Controller Manager会管控边缘业务Pod的驱逐策略 。
- Tunnel Server/Tunnel Agent: 每个边缘节点上的Tunnel Agent将主动与云端Tunnel Server建立双向认证的加密的gRPC连接 , 同时云端将通过此连接访问到边缘节点及其资源 。
- Yurt App Manager:引入的两个CRD资源: NodePool 和 UnitedDeployment. 前者为位于同一区域的节点提供批量管理方法 。后者定义了一种新的边缘应用模型以节点池维度来管理工作负载 。
推荐阅读
- 云计算的自动化至关重要
- 大规模运营云计算服务的6个复杂性挑战
- 如何准备迁移到云平台的检查清单
- 算法实现 | 贪心算法
- 云原生应用与容器架构
- 蓝队云:美国服务器速度变慢的原因
- 怎么下载云服务 下载云服务器
- 云服务平台app下载 手机app免费下载
- 免费领取小米云服务会员 小米云服务会员激活码
- 永久免费的云游戏平台手机版 免费不限时的云游戏平台
