至顶网安全频道 11月15日 编译:来自威胁检测初创公司StackRox与CyberEdge共同撰写的一份报告发现,尽管容器和Kubernetes迅速普及,但是多数企业组织并没有准备好充分保护云原生应用的安全性。
今天发布的首个“容器安全状况报告”(The State of Container Security)是基于对多个行业规模超过一万名员工的企业230多名IT人员的调查,结果发现有三分之一的受访者认为他们的企业组织根本没有考虑到容器安全。另有15%的受访者表示,现有的战略并没有足够重视对容器和Kubernetes的威胁。
容器是一种可以在多个计算机环境,如本地数据中心、私有云或者公有云中的运行方式来封装程序而无需重写代码的软件,是由开源软件Kubernetes进行管理的。
大约54%的受访者表示,错误配置和意外泄露所带来的风险是他们首要关注的问题,有44%的受访者表示,相比构建和部署阶段来说,运行期间的安全性是他们最关心的。
该报告指出,最近一系列众所周知的攻击事件和Kubernetes部署的数据泄露风险(例如2月份特斯拉公司数据泄露)可能是导致人们对错误配置担忧的主要原因。
在关注安全性的同时,该报告还提供了有关容器和Kubernetes部署的一些统计数据。有70%的受访者表示,他们在内部环境中运行容器,有32%只运行在内部环境中。有40%的受访者表示他们在混合环境中运行容器,只有30%是运行在云中。
CyberEdge研究副总裁、首席运营官Mark Bouchard在一份声明中表示:“由DevOps引发的、容器化实现的‘Shift Left’方法从根本上改变了开发人员和安全团队在企业中的互动方式,促成了前所未有的协调和协作。对于企业组织来说,要实现微服务、容器和Kubernetes的更多技术优势,就需要将容器安全技术越早地融入到软件开发生命周期中。”
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。