至顶网安全频道 12月04日 编译:Kubernetes(https://kubernetes.io/)已成为目前为止最受欢迎的云容器编排系统,因此重大安全漏洞的出现只是个时间问题。编号为CVE-2018-1002105(https://github.com/kubernetes/kubernetes/issues/71411)的Kubernetes特权升级漏洞就是个CVSS 9.8关键安全漏洞。
该漏洞使得任何用户都可以通过特制的网络请求建立Kubernetes应用程序编程接口(API)服务器与后端服务器之间的连接。攻击者一旦建立连接,就可以通过网络连接直接向后端发送任意请求。而且更槽糕的是,所发送的请求同时自动通过了Kubernetes API服务器的传输层安全性(TLS)凭证身份验证。
可成为超级用户root?
还有更糟糕的,“在默认配置中,所有的用户(经过身份验证和未经身份验证的用户)均可以调用发现API进行权限升级。”因此,任何知道这个漏洞的人都可以掌控你的Kubernetes集群。”
还有最痛苦的事情,“目前尚无简单的方法可以检测容器的漏洞是否被有心人用过。由于未经授权的请求是通过已建立的连接进行的,因此这些请求不会出现在Kubernetes API服务器审核日志或服务器日志里。这些请求确会出现在kubelet或聚合API服务器日志里,但却无法区分正确授权请求和经Kubernetes API服务器代理的请求。“
Red Hat](https://www.redhat.com/en)的另一种说法如下,“该权限升级漏洞令使用任何计算节点的用户可以在Kubernetes pod上获得绝对管理员权限。 是个很大的问题。(https://www.redhat.com/en/blog/kubernetes-privilege-escalation-flaw- innovation-still-needs-it-security-expertise)有心人不仅可以窃取敏感信息数据或注入恶意代码,他们还可以从组织的防火墙内关掉生产应用程序和服务。“
幸运的是倒是有个修复办法,但有些人不会喜欢这个修复办法。办法就是升级Kubernetes。更具体地说,升级到补丁版Kubernetes v1.10.11(https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.10.md/#v11011)、v1.11.5(https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.11.md/#v1115)、v1.12.3(https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.12.md/ #v1123)及v1.13.0-rc.1(https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.13.md/#v1130-rc1)。
如果读者仍在使用Kubernetes v1.0.x-1.9.x,请即刻停用。立即更新到上面的补丁版本。如果由于某种原因不能升级,也有救治方法,但这些救治方法几乎比病源更糟糕。方法就是必须暂停使用聚合API服务器,并删除那些不应该拥有kubelet API完全访问权限用户的pod exec/attach/portforward权限。修复该漏洞的谷歌软件工程师Jordan Liggitt表示,这些缓解措施可能会导致系统的中断。读者觉得会吗?
唯一解决方法:升级Kubernetes
任何含Kubernetes的程序都可以受到该漏洞的攻击。Kubernetes分销商已经发布了修复程序。
Red Hat发布的报告称旗下所有“基于Kubernetes的服务和产品(包括Red Hat OpenShift容器平台、Red Hat OpenShift Online和Red Hat OpenShift Dedicated)都受到影响” 。Red Hat已开始向受影响的用户提供补丁和服务更新。
到目前为止还未发现有人使用该安全漏洞攻击过别人。Rancher Labs(https://rancher.com/)的首席架构师兼联合创始人Darren Shepard发现了该漏洞并利用Kubernetes漏洞报告流程报告了该漏洞(https://kubernetes.io/docs/reference/issues-security/security/#report-a-vulnerability)。
但即便有人用过该漏洞也不会在日志里留下明显的痕迹。而且,现在有关Kubernetes特权升级漏洞的被公开,那么漏洞被有心人滥用只是个时间问题。
因此,笔者再次真心呼吁各位,务必在公司陷入困境之前升级Kubernetes系统。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。