针对 AI 有时会提供不准确的回答,虽然微软高层日前坦言的确如此,但却直言那是「有用的错」(usefully wrong),仍能让使用者领先一步。有监於此,微软持续大动作推行生成式 AI,不仅为更多的自家应用服务注入 GPT-4 模型,并於周二宣布推出专门协助网安专家了解重大安全问题并快速祭出补救之道的 Securiy Copilot。
2022 年微软网路安全营收超过 200 亿美元,为了扩大成长之势,微软宣布推出整合 GPT-4 技术的 Security Copilot。这个微软透过所收集日常活动数据打造的安全专用模型,能掌握既定客户安全环境的相关数据,但该公司表示这些数据不会用来训练模型。
自动生成安全事件简报档,基於用户判断的 AI 训练机制
安全人员只要输入文字提示,这个网安聊天机器人会立即回应各种安全反制之道,包括生成总结安全事件的 PowerPoint 简报档、描述曝露某个安全漏洞的可能风险,或明确指出哪些帐号遭到漏洞攻击劫持。
有监於生成式 AI 有可能会犯「有用的错」,微软为自家 Security Copilot 设计了一种基於用户判断的学习训练方式,亦即用户认为该机器人的回答是正确的,可以点击确认钮。若觉得回答有误,用户可以点击「偏离目标」钮。
几杪内从上千个告警中纠出两个重大事件, 帮你逆向工程恶意程式码
目前微软内部安全工程师已将 Security Copilot 实际应用在自己的工作上,对此,微软安全性、法务遵循与身分识别企业副总裁(CVP)Vasu Jakkal 透露指出,这个聊天机器人可以处理 1,000 个安全告警,并在几秒钟之内为工程师从中归纳出两个重大安全事件。不仅如此,该工具还能为不明攻击就理的分析师展开一段恶意程式码的逆向工程作业。
由於网路安全专业知识的学习曲线很陡,所以需要很长的时间才能培养出有实战经验的专家。Jakkal …