2

如何安全可靠地推进生成式AI探索?

 11 months ago
source link: https://www.51cto.com/article/769485.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

如何安全可靠地推进生成式AI探索?

作者:TechCrunch 2023-10-11 17:58:22
在本文中,我们将帮助各位团队成员和客户了解为何不能把安全视为事后因素,而应将其作为AI与业务相集成的先决条件,同时探讨这方面工作中的一系列最佳实践。

现如今,生成式AI的探索和实施工作已经不可避免地同安全问题交织在一起。根据近期的一份数据报告,49%的企业领导者认为安全风险已经成为首要问题,38%的企业领导者则将因不了解如何使用GPT工具而引发的人为错误/人为数据泄露列为头号挑战。

尽管这些担忧各有道理,但早期采用者所获得的好处将远远超过这些阻碍探索的潜在后果。

在本文中,我们将帮助各位团队成员和客户了解为何不能把安全视为事后因素,而应将其作为AI与业务相集成的先决条件,同时探讨这方面工作中的一系列最佳实践。

276a55946feac19d6a234370a225af403b3ba9.png

以安全策略为起点

企业已经感受到由AI应用所带来的新兴安全风险与现实紧迫性。事实上,根据之前提到的统计报告,81%的企业领导者表示他们的公司已经实施、或者正在制定围绕生成式AI建立的用户政策。

然而,由于该项技术的发展速度极快、新兴应用与用例时刻都在涌现,因此政策内容也必须不断更新以应对随时出现的风险和挑战。

为了在加快探索的同时最大限度降低安全风险,我们自然有必要为测试和学习工作设置“护栏”。而且相关政策的制定也绝不应孤立推进,而应从企业内各个部门的代表处充分征集意见,思考不同职能单位如何使用/是否可以使用生成式AI应对各自面临的安全风险。

总而言之,各部门对于AI技术的探索不应被粗暴禁止。如果单纯出于恐惧而在企业范围内全面封禁,那么大家也不必担心竞争对手吞噬自己的市场份额了——您本身就是在自毁长城。

以一线人员为核心

为了确保能够以安全的方式使用生成式AI,我们首先应为普通开发人员提供许可,例如允许他们全面使用大语言学习模型Insight GPT的私有实例。这一方面有助于发现潜在用例,同时也能根据输出开展压力测试,对生成式AI服务做出持续改进。

我们很快发现,一位仓库团队成员找到了一种提高订单配送效率的方法。在这种非凡的用例中,该成员要求Insight GPT在SAP中编写一份脚本,用以自动处理部分工作负载。虽然效果很棒,但如果没有设置适当的护栏,这种尝试也极易引发事故。比如说,一旦工作人员粗心之下执行了一笔订单中并不存在的交易,那么后续的自动环节将无法中断。

所以在促进民间探索并尽可能限制风险的过程中,我们需要:审查委员会应制定明确的指导方针,开展风险评估并加强AI系统的透明度。进行适当培训,教育员工如何以负责任的方式将AI纳入工作场景,特别是应当阐明对于道德标准、偏见、人类监督和数据隐私等关键问题的处理方式。开设内部论坛,鼓励团队成员在公司创新者群组内分享自己的发现和教训。

减少“幻觉”的风险

生成式AI之所以存在风险,一个重要原因就是它偶尔会产生“幻觉”。根据Insight报告,企业领导者最关心的一个共同主题,就是幻觉会如何引发错误的商业决策。然而,由幻觉导致的风险往往各不相同,有时问题不大、有时后果严重,具体影响往往因场景而异。

虽然GPT工具必然会输出某些与客观现实不符的结果,但我们很快意识到这种错误回答往往属于措辞层面的混淆。例如,在早期测试当中,我们询问Insight GPT埃迪·范·海伦曾与埃迪·范·海伦合作过哪首作品。正确答案是“Beat It”,但它的回答却是“Thriller”。可从另一角度讲,“Beat It”确实是“Thriller”专辑中的一首作品,所以它的回答也并非毫无道理。

这就完美诠释了“幻觉”问题造成的不同风险,特别是在处理各种主观性较强的工作负载时。要想在安全角度上解决这类问题,我们就必须建立并执行相关政策,将所有AI生成的内容都纳入人工监督范畴之内。此外,所有由AI辅助生成的内容都必须进行明确标记。当这些内容穿行在内部及外部各价值链时,也应始终附带标记并接受监督。

当下,生成式AI行业仍处于萌芽阶段,谁能摸索出负责任且安全的应用方式,同时减少数据泄露、信息错误、偏见及其他风险所引发的潜在威胁,谁就能建立起明确的技术优势。企业需要保证自己的AI政策与行业的变化持续保持同步,在维护合规性、缓解幻觉问题的同时逐步建立起用户信任。

责任编辑:赵宁宁 来源: TechCrunch

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK