8月30日,以"智行·践远·就绪数字未来"为主题的2017戴尔科技峰会在上海世博中心举行。峰会汇聚市场领先的创新技术企业和各个领域的专家领袖,共议全球数字化变革的机遇与挑战。云与大数据安全的技术领导者亚信安全作为戴尔的战略合作伙伴受邀出席,并以“物联网时代安全展望”为主题,全面分享亚信安全在人工智能、IoT多层安全风险、IoT设备劫持、勒索病毒防御、物联网“云管端”等领域取得的成功实践,为各行业用户确保IoT数字化安全提供了宝贵经验。
万物互联将是人类迄今为止最美好的时代。万物互联将明显提高生活品质和生产效率,人工智能(AI)将带来期待已久的智慧生活。到2020年,全世界将有260亿的物联网设备相互连接,且平均每天还有550万设备连接到整个网络中来,新增的商业设备和系统中将会有超过一半会包含IoT组件。然而,数以万计的漏洞风险和持续演进的攻击手段,造成了物联网运行环境的进一步恶化,用户的数字化掌控能力渐失渐远。
在2017戴尔科技峰会上,亚信安全通用安全产品中心副总经理刘政平指出:IoT设备因其7×24小时在线、漏洞众多、容易渗透、缺乏管理以及相对较低的攻击成本,已经成为了黑客攻击入侵的首选目标。如今,IoT设备已经成为勒索软件和DDoS攻击重要载体,并且更据破坏性、隐蔽性,其影响范围也将从个人、企业、行业扩展到城市。因此,为应对IoT设备数量极大化的管理难题,以及IoT多层安全风险的复杂性,不仅要发挥云端集中管控、大数据威胁情报分析和人工智能等技术手段,更需要IoT设备制造者、使用者和监管层面的协同努力。
如今,我们的生活方方面面都已被智能硬件与物联网包围着,物联网的安全已成为一个不容忽视的话题。2016年,一支名为Mirai的僵尸病毒,以DDoS劫持攻击方式瘫痪了美国主要域名服务器(DNS)供应商Dyn公司的服务器,半个美国陷入断网状态。2017年,C3安全峰会上,亚信安全的研究团队通过劫持手机GPS的方式,让参会嘉宾的手机位置显示发生偏移,使所有人惊呼“物联网竟然如此弱不禁风”。不论是安全事件,还是白帽子的技术演示,都在反复提醒公众,如果上述威胁风险得不到治理,“万物互联”就有可能成为“万物恶联”。
与戴尔科技峰会上展示IoT应用依靠云计算、雾计算、边缘计算的未来前景相同,IoT多层安全风险的有效治理则依赖“云、管、端”的整体安全。所谓“云”,就是指云计算的安全,避免云运算和应用环境成为黑客对IoT设备发动“水坑式攻击”的载体;“管”是指电信运营商的网络“管道”的安全,比如C3安全峰会上演示的GPS劫持;“端”则包含了每个联网终端的安全,简陋的身份认证、不完善的密钥管理、未能修补的漏洞,以及随之潜伏的恶意代码。
目前,亚信安全已经形成了涵盖IoT云管端一体化安全解决方案,在云上提供“Deep Security SaaS深度安全防护平台”等集入侵检测、云WAF、审计等技术于一体的综合性SaaS安全解决方案;在管道方面,亚信安全和三大运营商携手为用户提供加密信道等高安全等级服务;在终端设备上通过与设备厂商向用户提供定时的补丁或者其他系统升级工具。
针对物联网(IoT) 与工业物联网 (IIoT)的网络威胁治理,刘政平表示:“物联网要大幅普及,必须移除使用者对安全性的疑虑。对于信息安全和数通领域的科技企业来说,在让人们生活变得更加智能的同时,也有责任让智能生活可以信赖。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。