针对 AI 有时会提供不准确的回答,虽然微软高层日前坦言的确如此,但却直言那是「有用的错」(usefully wrong),仍能让使用者领先一步。有监於此,微软持续大动作推行生成式 AI,不仅为更多的自家应用服务注入 GPT-4 模型,并於周二宣布推出专门协助网安专家了解重大安全问题并快速祭出补救之道的 Securiy Copilot。
2022 年微软网路安全营收超过 200 亿美元,为了扩大成长之势,微软宣布推出整合 GPT-4 技术的 Security Copilot。这个微软透过所收集日常活动数据打造的安全专用模型,能掌握既定客户安全环境的相关数据,但该公司表示这些数据不会用来训练模型。
自动生成安全事件简报档,基於用户判断的 AI 训练机制
安全人员只要输入文字提示,这个网安聊天机器人会立即回应各种安全反制之道,包括生成总结安全事件的 PowerPoint 简报档、描述曝露某个安全漏洞的可能风险,或明确指出哪些帐号遭到漏洞攻击劫持。
有监於生成式 AI 有可能会犯「有用的错」,微软为自家 Security Copilot 设计了一种基於用户判断的学习训练方式,亦即用户认为该机器人的回答是正确的,可以点击确认钮。若觉得回答有误,用户可以点击「偏离目标」钮。
几杪内从上千个告警中纠出两个重大事件, 帮你逆向工程恶意程式码
目前微软内部安全工程师已将 Security Copilot 实际应用在自己的工作上,对此,微软安全性、法务遵循与身分识别企业副总裁(CVP)Vasu Jakkal 透露指出,这个聊天机器人可以处理 1,000 个安全告警,并在几秒钟之内为工程师从中归纳出两个重大安全事件。不仅如此,该工具还能为不明攻击就理的分析师展开一段恶意程式码的逆向工程作业。
由於网路安全专业知识的学习曲线很陡,所以需要很长的时间才能培养出有实战经验的专家。Jakkal 表示,Security Copilot 内建许多可以扩增企业安全防护的实用技能,让企业花更少的时间与金钱,做更多的事,这尤其对一直找不到安全专家或被迫聘雇经验不足安全人员的公司有不小的帮助。
可以确定的是,Security Copilot 将会与 Sentinel 等微软安全产品协同运作,以进行安全威胁的追踪。微软会在未来几个月根据早期用户的回馈,来决定是否新增对 Splunk 等第三方工具的支援。不过,市场调研机构 IDC 安全与信任研究实务集团副总裁 Frank Dickson 却认为,如果微软要求客户使用 Security Copilot,必须同时采用 Sentinel 或其他微软产品,有可能影响他们采购该工具的意愿。
目前 Security Copilot 只会以个人预览的模式提供一小部分的微软用户试用,截至目前为止,微软尚未透露未来正式版的可能价格。总而言之,不论生成式 AI 未来在网路安全或其他领域的影响力与最终发展状况如何,微软似乎已经取得抢先一步的优势。
- Microsoft introduces an A.I. chatbot for cybersecurity experts
(首图来源:科技新报)