6月10日,为庆祝香港回归20周年,香港特别行政区政府创新科技署应用科技研究院(应科院)主办,i春秋学院承办,腾讯安全平台部、XCTF联赛协办的首届港澳地区大专联校网络安全竞赛圆满结束。在4月份的初赛中,来自香港大学、香港科大、浸会大学、澳门科技大学的96支战队317名选手报名了比赛,最终 8支队伍从初赛中突围,最终进入决赛。本次竞赛是港澳地区首次举办的信息安全竞赛,参与院校之多、竞赛水准之高、影响范围之大,超出了预期。本次比赛得到了包括香港信息安全学院、HKT®(香港电讯)、FireEye、CyberWorld、政府电脑保安事故协调中心等企业和机构的赞助支持。
决赛采用CTF解题模式,各大战队齐聚香港应科院总部,进行现场比拼,团队通过提交正确的Flag得分。赛前,香港特区政府咨询科技总监杨德斌、应科院副总裁王世松、i春秋副总裁姚磊分别出席致辞,对参赛选手给予重视和竞赛鼓舞。本次的赛题难度和涵盖范围都接轨国际赛事,对参赛选手的知识储备、应变能力和综合协作能力提出了更高要求。
经过7个小时的激烈角逐,最终香港科技大学VXRLNXAlpha战队以总分1000分的成绩,获得第一名,并赢得50000港币大奖。来自的香港理工大学的400 pound Hackers战队和香港科技大学的VXRLNXBeta战队分获二、三名,并赢得30000元、10000元港币奖金。比赛定格的画面激动人心,似乎还能感受到赛场上的激烈夺旗的氛围。
应科院HR总监朱丽仪为一等奖获奖队伍颁奖
i春秋副总裁姚磊为二等奖获奖队伍颁奖
香港信息安全学院 CEO 庞博文为三等奖获奖队伍颁奖
i春秋姚磊表示:“这次比赛选手展现了高超的水平,i春秋很高兴能够为港澳学生带来专业水准的网络安全竞赛,同时也在这样的交流中,感受到港澳学子的活力及能量。希望通过i春秋的知识学习库和竞赛举办实力,未来进行更多的人才培养、赛事运营的合作,以及促进两岸三地的人才和教育交流,为培育信息时代的安全感而努力。“
比赛结果页
当今社会处于无处不网、无事不网、无时不网的时代,互联网已经渗透到生活的各领域。 6月1日,《网络安全法》正式实施,明确了公民的网络安全义务,对企业设定了更加严格的要求,企业必须提高运行安全能力,采取必要的措施,提高网络安全水平。人才是企业网络安全的核心,竞赛是快速提高网络安全人才水平的途径。i春秋是国内最大的信息安全在线教育平台,独创了听课-实验-交流-竞赛的人才培养模式,能为企业精准、高效的输送人才。过去的2016年,i春秋技术支持的网络安全竞赛占全国竞赛的半壁江山,覆盖从线下到线上、从职业选手至中小学生、从国内大赛到国际联赛、成绩丰硕,得到了客户、合作伙伴的认可。
比赛定格瞬间
在香港回归20周年之际,香港已经在经济发展和科技创新上取得了繁荣稳定的进步。本次首届港澳地区大专联校网络安全竞赛多方联动,对检验高校学子的学习成果,培养大学生网络安全实战能力起到十分重要的作用,为国家网络安全人才储备打下坚实基础。
i春秋如今在国内的港澳台两岸三地和海外的澳洲成功开拓网络安全合作疆域,正在为国内乃至国际输送培养更多人才而努力,以后也将继续积极投身于国家网络信息安全建设,在网络安全保障工作中贡献一方之力。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。