2

生成式人工智能:网络安全的福还是祸?

 1 year ago
source link: https://www.51cto.com/article/757702.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

生成式人工智能:网络安全的福还是祸?

2023-06-14 10:21:14
毫无疑问,组织应该关注这个新的生成式人工智能时代带来的风险。然而,这项技术也可用于防止恶意行为者,支持防病毒软件、欺诈检测以及身份和访问管理。
473062194cac10c5b3792920b3ed79f72b15b9.png

上个月,Elon Musk写了一封公开信,要求将人工智能系统的开发暂停6个月,并警告称“与人类竞争的智能可能对社会和人类构成深远的风险”。虽然这听起来有些危言耸听,但生成式人工智能带来的威胁是真实存在的,并且随着人工智能生成的网络钓鱼电子邮件、恶意软件和深度造假活动的兴起,这种威胁在网络安全领域已经非常明显。随着这项技术变得更加先进,生成式人工智能将不可避免地继续促进网络犯罪活动,并赋予“想成为”网络犯罪分子以越来越复杂的方式攻击组织的能力,通常无需编写一行代码。

毫无疑问,组织应该关注这个新的生成式人工智能时代带来的风险。然而,这项技术也可用于防止恶意行为者,支持防病毒软件、欺诈检测以及身份和访问管理。

生成式人工智能将继续存在,尤其是首席信息安全官(CISO),不能对这项新技术带来的风险视而不见。那么,风险是什么?组织如何在新的生成式人工智能驱动的威胁环境中保护自己?

网络犯罪分子利用生成式人工智能

ChatGPT和类似的生成式人工智能模型的出现创造了一个新的威胁格局,几乎任何人都可以对组织进行恶意网络活动。网络犯罪分子不再需要具备高级编码知识或技能。其所需要的只是恶意,以及对ChatGPT的访问权限。

影响欺诈应该是未来组织特别关注的领域。绝不是一个新的或新颖的概念。多年来,机器人一直被用来在社交媒体平台和主流媒体评论区生成评论,以塑造政治话语。例如,在2016年总统大选前几周,人们发现机器人转发唐纳德·特朗普的推文是希拉里·克林顿的十倍。但现在在生成式人工智能的时代,这种类型的欺骗——在历史上是为高层政治欺诈而保留的——可能会渗透到组织层面。理论上,恶意行为者可以在几秒钟内使用ChatGPT或Google Bard在社交媒体、主流新闻媒体或客户服务页面上生成数百万条有害信息。针对企业(包括其客户和员工)的精心设计的攻击可以以前所未有的规模和速度执行。

组织的另一个主要担忧是恶意机器人的激增。2021年,全球27.7%的互联网流量由恶意机器人构成,而在过去几年中,这一数字只增不减。凭借其先进的自然语言处理能力,ChatGPT可以生成真实的用户代理字符串、浏览器指纹和其他属性,使抓取机器人看起来更像合法用户。事实上,根据最近的一份报告,GPT-4非常擅长生成语言,其能让一个人相信其是盲人,以便让那个人为聊天机器人解决验证码问题。这对企业构成了巨大的安全威胁,并且随着生成式人工智能的发展,这将成为一个日益严重的问题。

生成式人工智能可以成为首席信息安全官的福音

生成式人工智能带来的风险无疑是令人担忧的,但这项技术将继续存在,并迅速发展。因此,首席信息安全官(CISO)必须利用生成式人工智能来加强其网络安全策略,并开发更强大的防御措施,以抵御新出现的复杂恶意攻击。

CISO目前面临的最大挑战之一是网络安全技能差距。到目前为止,全球大约有350万个网络职位空缺。最终,如果没有熟练的员工,组织根本无法保护自己免受威胁。然而,生成式人工智能为这一行业挑战提供了解决方案,ChatGPT和Google Bard等工具可用于加快手工工作,减少网络安全人员的工作流程。特别是,特别是ChatGPT可以帮助加速代码开发和检测漏洞代码,提高代码的安全性。GPT-4代码解释器的引入改变了人员短缺的组织的游戏规则,因为繁琐操作的自动化可以腾出时间让安全专家专注于战略问题。通过引入由GPT-4驱动的Microsoft Security Copilot,Microsoft已经在帮助网络安全人员简化这些操作。

此外,人工智能聊天机器人工具可以支持事件响应。例如,在发生机器人攻击时,ChatGPT和Google Bard可以向安全团队提供实时信息并帮助协调响应活动。该技术还可以协助分析攻击数据,帮助安全团队识别攻击源,并采取适当措施来控制和减轻其影响。

组织还可以使用ChatGPT和其他生成式人工智能模型来分析大量数据,以识别可能表明犯罪机器人存在的模式和异常情况。通过分析聊天记录、社交媒体数据和其他信息来源,人工智能工具可以帮助检测,并提醒安全团队注意潜在的机器人攻击,以免造成重大损害。

新生成式人工智能时代的保护

我们现在已经进入了生成式人工智能时代,因此组织面临着更加频繁和复杂的网络攻击。CISO必须接受这一新现实,并利用人工智能的力量来对抗这些人工智能增强的网络攻击。未能实时使用机器学习的网络安全解决方案最终注定要落后。

例如,我们知道,由于生成式人工智能,组织将见证试图在其网站上进行欺诈的恶意机器人数量激增。在一个恶意行为者使用机器人即服务来制造复杂、隐蔽威胁的世界中,选择不利用机器学习来阻止这些威胁,就像在枪战中带刀一样。因此,现在比以往任何时候都更需要人工智能驱动的机器人检测和阻止工具来确保组织网络安全。

一个恰当的例子是:传统的验证码,长期以来被认为是一种值得信赖的网络安全工具,无法与当今的机器人相提并论。机器人现在使用人工智能来传递“老派”验证码,如交通信号灯图像,促使企业需要首先升级到挑战流量的解决方案,将验证码作为最后的手段,然后仅使用网络安全丰富的验证码。此外,组织可以通过实施多重身份验证和基于身份的访问控制来保护自己,这些访问控制通过用户的生物识别数据授予用户访问权限,这将有助于减少未经授权的访问和滥用。

生成式人工智能给组织带来了重大的安全风险,但如果使用得当,也可以帮助减轻其所造成的威胁。网络安全是一场猫捉老鼠的游戏,CISO需要领先一步,以保护其组织免受毁灭性的财务和声誉损害,这些损害可能成为这种新的人工智能驱动的威胁环境的一部分。通过了解威胁,并以有效的方式使用技术,CISO可以保护其组织免受生成式人工智能带来的新出现的攻击。

责任编辑:姜华 来源: 千家网

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK