Archive : 生成式 AI

网安问题问 AI 就对了!微软推出能与自家 Security Copilot 合作的机器人

针对 AI 有时会提供不准确的回答,虽然微软高层日前坦言的确如此,但却直言那是「有用的错」(usefully wrong),仍能让使用者领先一步。有监於此,微软持续大动作推行生成式 AI,不仅为更多的自家应用服务注入 GPT-4 模型,并於周二宣布推出专门协助网安专家了解重大安全问题并快速祭出补救之道的 Securiy Copilot。 

2022 年微软网路安全营收超过 200 亿美元,为了扩大成长之势,微软宣布推出整合 GPT-4 技术的 Security Copilot。这个微软透过所收集日常活动数据打造的安全专用模型,能掌握既定客户安全环境的相关数据,但该公司表示这些数据不会用来训练模型。

自动生成安全事件简报档,基於用户判断的 AI 训练机制

安全人员只要输入文字提示,这个网安聊天机器人会立即回应各种安全反制之道,包括生成总结安全事件的 PowerPoint 简报档、描述曝露某个安全漏洞的可能风险,或明确指出哪些帐号遭到漏洞攻击劫持。

有监於生成式 AI 有可能会犯「有用的错」,微软为自家 Security Copilot 设计了一种基於用户判断的学习训练方式,亦即用户认为该机器人的回答是正确的,可以点击确认钮。若觉得回答有误,用户可以点击「偏离目标」钮。

几杪内从上千个告警中纠出两个重大事件, 帮你逆向工程恶意程式码

目前微软内部安全工程师已将 Security Copilot 实际应用在自己的工作上,对此,微软安全性、法务遵循与身分识别企业副总裁(CVP)Vasu Jakkal 透露指出,这个聊天机器人可以处理 1,000 个安全告警,并在几秒钟之内为工程师从中归纳出两个重大安全事件。不仅如此,该工具还能为不明攻击就理的分析师展开一段恶意程式码的逆向工程作业。

由於网路安全专业知识的学习曲线很陡,所以需要很长的时间才能培养出有实战经验的专家。Jakkal …

最新 AI 生成文本技术 GPT-4 升级程度?专家:超级多语言的口译员

OPEN AI 正式推出 GPT-4,透过大量资料训练,改善原本 GPT-3 的问题,并产生更多创造力,不仅可以解读图片,回答也变得更精准,但仍有不少人对使用 AI 语言模型有许多顾虑,台湾科技媒体中心邀请专家说明,ChatGPT 就是一个会超级多语言的口译员。

GPT-4 仍有一定模型偏见

中央大学资讯电机学院资讯工程学系教授蔡宗翰表示,GPT-4 透过学习大量的文字和图像资料,获得更高的创造力和想像力,能生成更有趣和独特的文字和图像描述,并具备解读图片的能力,可以从图像中发掘关键资讯,生成相关的文字描述。

蔡宗翰提醒,GPT-4 在生成文字时可能会编造非事实性的回答,而这可能会对使用者造成误导和负面影响,所以可以考虑引入更多的事实验证机制和检查机制,同时需要给予模型更加高品质的训练资料。

蔡宗翰认为,语言模型的训练资料可能存在一定的模型偏见,例如性别、种族、文化背景等方面的偏见,为了解决这个问题,需要更加细致的调整和训练模型,同时更加严格的审查和检查模型的输出结果。

GPT-4 是一个会超级多语言的口译员

政治大学传播学院助理教授李怡志说明,一般人因为先会使用 Google 才会使用 ChatGPT,所以常以 Google 的概念来看 ChatGPT,Google 是一个资料索引目录,当你输入关键字,索引目录协助你找到资料。

李怡志表示,ChatGPT 是学习资料後建立模型,当你输入提示,ChatGPT 会解读你的提示之後,给你 GPT 学会的东西,若将这两个角色拟人化後,Google 是一个图书馆员,它不会告诉你任何东西,只会帮你找东西,而 ChatGPT 是一个会超级多语言的口译员,它不会帮你找东西,但是很爱帮你「翻译」或「转译」,并乐於自己补充,简单来说,前者是用「查」,後者用「翻译」。

李怡志建议,使用 ChatGPT 比较好的方式是让它好好地「翻译」,让它提供开放型的内容,也就是说,如果内容有明确的「是非对错」,最好不要完全依赖它,但如果答案只有「好坏高下」,那麽可以开始练习如何使用它。

李怡志说明,如果看到一篇文章,已经注明利用 ChatGPT 或人工智慧工具完成或协作,那就要假设里面的事实可能有错、会脑补,但假如没有注明,那就跟平常看到任何文章一样,随时保持注意,保持怀疑,若对内容有任何疑虑,就回头求助图书馆员。…

和 Web3 一样都是泡沫炒作?Adobe 认为生成式 AI 是提升工作效率、挖掘商业价值利器

波动剧烈的加密货币与 NFT,让死忠支持者都怀疑一切只是春梦一场般的泡沫炒作,进而也让标榜去中心化的 Web3 面临昙花一现的担忧。同样的,当前以 ChatGPT 为首的火热生成式 AI 风潮,也被许多人视之为另一波炒作之举。

但跨国电脑软体公司 Adobe 却认为 ChatGPT 展现了 Web 3 所缺乏的价值──减少工作流程、提升生产力与工作效率,当前过度的炒作只是早期阶段的普遍现象,未来将会成为探索具备商业价值之实际商务用例的最佳利器。

面对 ChatGPT 是否和 Web3 一样,会在一阵激情炒作之後趋於平淡的质疑,Adobe 创意云产品长暨执行副总裁 Scott Belsky 认为两者间存在很大差异。Web 3 并没有承诺减少工作流程,换言之,组织中任何有关 Web3 的想法或行动,都需经历大量的工作甚至摩擦才能完成。

反观生成式 AI 的最大差异与真正价值在於,能加速组织内不同部门的工作速度,并从几小时或几分钟的工作时间缩减至几秒钟。其强大的效益与价值就和协同平台或产品所带来的助益很像。Belsky 深信,未来协作平台 / 产品取代组织中各项功能势将成为趋势。事实上,目前已有许多新创公司已经相当成功地将企业每一个功能重新设计,以协助企业将老旧且占硬碟空间的地端软体转变成 Web 式及协作性软体。

Adobe 试图收购 Figma

新诈骗诞生,生成式 AI 技术将加速新型诈骗萌芽

随着生成式 AI 如 ChatGPT 的成熟,大量的可疑资讯与农场文章产制成本将大幅下降,为提升全民识诈能力,Gogolook 利用旗下可疑讯息查证机器人美玉姨数据,联手刑事局於今日发表「Gogolook 2022 年度诈骗报告:通讯软体篇」,统整通讯软体中快速变化的诈骗与谣言趋势。

Gogolook 指出,随着通讯与传播科技的发展,包含 LINE 与 Telegram 在内的通讯软体已成为谣言与诈骗讯息滋生的温床。讯息查证机器人美玉姨最新数据统计,去年可疑讯息总查证次数已高达 167 万次,并伴随台湾时事热点更迭,诈骗集团使用的话术与手法也会跟着有所转变。

回顾去年通讯软体诈骗场景,仍以疫情诈骗随年末进入尾声。根据卫福部疾管署分析,台湾疫情最高峰时间点落在去年 5 月至 8 月,而在此同时也成可疑讯息流窜的巅峰期,许多不肖份子藉机祭出「假疫情偏方」与发送「假冒防疫补助连结」的讯息,企图利用民众不安心理以获取不法收益。

此外,8 月起也密集出现假冒中油、全家、7-11 官网的一页式中奖诈骗。紧接着在中秋节期间,兴起假超商礼券诈骗潮也不容忽视,诈骗集团以超商名义制作实体礼券并带上 QR code 随机寄出,同时间,礼券也因受到翻拍在通讯软体中传散,除礼券不仅不得使用外,扫描 QR code 後自动新增诈骗帐号为好友更成为日後受到诈骗的风险。

美玉姨也归纳出通讯软体上两大新型态诈骗讯息,分别为「假冒 LINE 辅助认证」、要求填写个资的「Google 表单诈骗」。

诈骗集团常利用通讯软体申办假帐号,导致时常有大量假投顾帐号拉民众进入投资群组外,也会藉由假冒亲友或各大品牌官方帐号要求受害者进行「LINE 辅助认证」,若不慎按照可疑连结中的指示提供电话号码、密码和手机简讯认证码等个资,则有高机率使帐号被不肖人士盗用。

另一个类型则为「Google 表单诈骗」,诈骗集团利用免费的 Google 表单将产品试用、贷款申请等内容制作成问卷发放大众填写,实则难以判断真伪,易造成个资外流。…