25

为避免政府过度「插手」,美国白宫提出十条AI监管规范,公众、灵活性、技术风险等成关...

 4 years ago
source link: https://www.jiqizhixin.com/articles/2020-01-08-6
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

RJriAzm.jpg!web

该项包含监管意味的指导文件由美国第四任首席技术 Michael Kratsios 主导推进,将在今年的 CES 上正式宣布,目的在于限制主管机关「过度插手」,并表示希望欧洲当局同样能够避免采取激进措施。

文件涉及十条指导规范,其中对于人工智能技术的产业的思考深入而全面,强调公众层面的信任与参与,强调使用诚实与科学的方法,指出要进行全面而有效的风险评估机制,还要兼顾技术投入的收益与成本、灵活性,以及技术可能造成的歧视与不平等,强调信息披露和透明度,以及使用过程中的安全性、机构间的协调合作。

2019 年,技术管制是美国对外政策的关键词,到了 2020 年,这个趋势仍在延续。

上周美国宣布限制 AI 软件出口,防止敏感技术旁落。本周二,白宫发布规范人工智能发展及应用的监管原则,一份名为《人工智能应用规范指南(Guidance for Regulation of Artificial Intelligence Applications)》的文件,目的在于限制主管机关「过度插手」,并表示希望欧洲当局同样能够避免采取激进措施。

比如,在指导的第六条规范中明确指出,「为了推进美国的创新,各机构应牢记人工智能的国际应用,确保美国公司不受美国监管制度的不利影响。」

该套文件将由美国首席技术官 Michael Kratsios 在本周举行的美国拉斯维加斯 CES2020 消费电子展上宣布,以指导未来联邦政府用于医学、交通和其他行业的人工智能法规制定,在制定法规时,联邦机构必须考虑公平,不歧视,开放,透明,安全,并且尽可能减少法规监管。

例如,文件提到,美国食品药物管理局 (FDA) 目前正在考虑如何规范医疗设备制造商对 AI 和机器学习技术的使用。

文件指出, 各联邦机构就 AI 采取任何监管行动之前,应该进行风险评估及成本效益分析,将重点放在建立有弹性的架构,而非一刀切的监管做法。

白宫提出上述原则正值各企业竞相整合 AI 及深度学习至其事业,以保持公司竞争力之时。但多家公司和专家表示,这项技术引发了有关控制、隐私、网络安全及未来工作等方面的道德疑虑。

文件还表示,「欧洲以及我们的盟国应避免使用过度干预、扼杀创新的监管方式。」其补充说,「避免 AI 技术出现垄断的最佳方法就是确保美国和我们的国际伙伴仍然是全球创新中心。」

该份文件在生效前有 60 天的公众意见征询期,各个政府机构将有 180 天的时间来制定实施原则的计划。

u6bQV3i.jpg!web

首席技术官 Michael Kratsios

Kratsios 毕业于普林斯顿大学 ,曾是 Thiel Capital 公司的 CEO,今年 8 月成为美国第四任首席技术官,美国首席技术官角色是在奥巴马时期创建,首席技术官职位就技术问题向总统提出建议,致力于制定技术政策。在 Kratsios 的领导下,白宫发起了 AI、量子计算、5G 和宽带通信、自动驾驶汽车、商用无人机以及先进制造等各方面的计划。

Kratsios 在接受媒体采访时表示, 这些原则旨在确保安全、透明地开发 AI,目前诸如中国和俄罗斯这样的竞争对手在 AI  开发上 过于激进,人们越来越担心 AI 工具不受限制的普及,尤其是面部识别,此次规则的制定能够反映美国在人工智能上的态度与原则。

据了解,白宫曾于 2018 年与福特汽车、波音、亚马逊以及微软等 30 多家主要公司举行了 AI 会议,表态不会妨碍该技术的发展。

去年 2 月,美国总统特朗普签署了一项行政命令,要求联邦政府机构将更多的资源和投资用于与 AI 相关的研究、推广和相关人员培养。

但目前美国部分州已经对 AI 应用提出了担忧。加利福尼亚州的立法机关在 9 月份通过了一项针对州和地方执法机构的三年禁令:禁止使用带有面部识别软件的人体摄像机。有人说这是对公民自由构成威胁的最新技术限制。另外,美国一些城市还投票通过了执法部门禁止使用面部识别技术的法案。

此前,美国已经拒绝与其他七国集团(G7)合作开展名为全球人工智能合作计划的项目,该项目旨在建立共同的原则和法规。Kratsios 表示, 七国集团的计划以官僚主义干预、扼杀创新,他希望其他国家在制定自己的 AI 法规时能效仿美国。

但是,一些评论者质疑这些原则的有效性。

Martijn Raasser 认为,这些原则是公开地对各个独立机构进行干预;此外,原则非常模糊,机构们据此制定出来的计划都应该被否决,如果美国坚持单独行动,影响力可能会变小,与其他国家走不同的道路对美国来说是不利的。

Martijn Raasser 是新美国安全中心(CNAS)的技术和国家安全计划的高级研究员,加入 CNAS 之前,Martijn 在中央情报局(Central Intelligence Agency)担任高级情报官和分析师,在那里他从事国外新兴技术,技术创新以及武器研发等工作。

J3ErArb.jpg!web

以下是该份名为《人工智能应用规范指南(Guidance for Regulation of Artificial Intelligence Applications)》主要内容,具体包括十条指导规范。

详情可见:https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf

1 公众对人工智能的信任

人工智能将在社会和经济生活各个领域产生积极影响,包括就业、交通、教育、金融、医疗保健、个人保障和制造业。与此同时,人工智能应用可能会对隐私、个人权利、自主权和公民自由构成风险,必须仔细评估并妥善处理这些风险。

人工智能的继续采用和接受将在很大程度上取决于公众的信任和认可。

因此,政府对人工智能的监管和非监管方法促进可靠、稳健和可信的人工智能应用是非常重要的,这将有助于公众对人工智能的信任。对隐私和其他风险的适当监管或非监管响应必须取决于所呈现的风险的性质和适当的缓解措施。

2 公众参与

公众参与,特别是在人工智能使用有关个人信息的情况下,将改善机构的问责制和监管结果,并增加公众的信任和信心。

机构应在可行且符合法律要求的范围内,为公众提供充足的机会,参与规则制定过程的所有阶段。

鼓励各机构在切实可行的范围内,向公众通报情况,并提高公众对标准和其他信息性文件的认识和普及。

3 科学诚信与信息质量

政府对人工智能应用的监管和非监管方法应利用科学技术信息和流程。

各机构应以高质量、高透明度和高合规性的标准存档信息,这些信息包括可能对重要的公共政策或私营部门决策(包括消费者的决策)产生明确和实质性影响,无论这些信息是由政府提供的还是由政府从第三方获得的。

根据规则制定和指导过程中的科学完整性原则,各机构应制定有关人工智能的监管方法,既为政策决策提供信息,又可促进公众对人工智能的信任。

最佳实践包括透明地阐明人工智能应用程序的优点、缺点、预期的优化或结果、偏差缓解和结果的适当使用。

各机构还应注意,为了使人工智能应用程序产生可预测、可靠和优化的结果,用于训练人工智能系统的数据必须具有足够的质量,以达到预期用途。

4 风险评估与管理

对人工智能的监管和非监管方法应基于风险评估和风险管理在不同机构和不同技术之间的一致应用。

没有必要降低每一个可预见的风险。

事实上,监管政策的一个基本原则是,所有活动都需要权衡。 应采用基于风险的方法来确定哪些风险是可接受的,哪些风险可能造成不可接受的损害,或者损害的预期成本大于预期收益。

各机构对其风险评估应保持透明,并在适当的时间间隔内重新评估其假设和结论,以促进问责制。

相应地,如果人工智能工具失败或成功,根据产生的后果以及性质可以帮助确定适当的监管力度和类型,以识别和减轻风险。

具体而言,各机构应遵循第 12866 号行政命令「监管规划和审查」的指示,考虑其管辖范围内各种活动所构成风险的程度和性质。在适当的情况下,五种预防性监管方法将避免因不合理使用而带来不必要的危害。

5 收益与成本

在制定监管和非监管方法时,机构通常会考虑将人工智能应用和部署到已受监管的行业中。

据推测,除非这些投资提供了巨大的经济潜力,否则不会有如此重大的投资。与所有这种性质的技术转变一样,人工智能的引入也可能带来独特的挑战。

例如,虽然更广泛的法律环境已经应用于人工智能应用,但在某些情况下,现有法律对责任和责任问题的应用可能不清楚,这导致一些机构需要与他们的当局相一致, 来评估利益、成本,与任何确定的或预期的责任方法相关的分配效应。

行政命令 12866 呼吁机构「选择那些最大化净利益的方法(包括潜在的经济、环境、公共卫生和安全,以及其他优势;分配影响和公平性)。 在符合法律规定的情况下,机构在考虑与人工智能应用程序的开发和部署有关的法规之前,应仔细考虑全面的社会成本、效益和分配效果。

与设计用来补充或替代人工智能的系统相比,这种考虑将包括采用人工智能产生的潜在收益和成本,实施人工智能是否会改变系统产生的错误类型,以及与其他现有的容忍风险的程度进行比较。

各机构在评估人工智能成本和效益时,也应考虑关键的依赖性,因为技术因素(如数据质量)和人工智能实施相关的人类过程的变化可能会改变风险和效益的性质和程度。如果无法与当前系统或流程进行比较,也应评估不实施系统的风险和成本。

6 灵活性

在开发监管和非监管方法时,机构应采用基于绩效的灵活方法,以适应人工智能应用的快速变化和更新。

在大多数情况下,试图规定僵化的人工智能应用技术规范、基于设计的法规是不切实际和无效的,因为人工智能将以预期的速度发展,因此机构需要对新的信息和证据作出反应。

有针对性的机构合格评定计划,以保护健康和安全、隐私和其他价值,对一个成功的、灵活的、基于绩效的方法至关重要。

为了推进美国的创新,各机构应牢记人工智能的国际应用,确保美国公司不受美国监管制度的不利影响。

7 公平和不歧视

各机构应以透明的方式考虑人工智能应用可能对歧视产生的影响。人工智能的应用有可能减少目前由人的主观性造成的歧视。

同时,在某些情况下,应用可能会引入现实世界的偏见,产生歧视性的结果或决定,损害公众对人工智能的信任和信心。

在考虑与人工智能应用相关的法规或非法规方法时,各机构应依法考虑有关人工智能应用产生的结果和决定的公平和不歧视问题,以及有关人工智能应用是否可能降低非法、不公平的程度,或与现有过程相比,其他意想不到的歧视。

8 披露和透明度

除了改进规则制定过程外,透明度和公开还可以增加公众对人工智能应用的信任和信心。

有时,此类公开内容可能包括识别人工智能的使用时间。如果适用于解决有关应用程序如何影响人类最终用户的问题。机构应该意识到人工智能的一些应用可以提高人类的自主性。

在考虑采取更多的公开和透明措施之前,机构应该仔细考虑现有的或正在发展的法律、政策和监管环境的充分性。

适当的公开和透明要视具体情况而定的,这取决于对潜在危害的评估、危害的大小、技术水平以及人工智能应用的潜在好处。

9 安全

各机构应安全,有保障,按预期运行开发 AI 系统,并在整个 AI 设计、开发、部署和运行过程中考虑安全问题,此外还应特别注意现有的保障措施,以确保人工智能系统处理,存储和传输的信息的保密性,完整性和可用性。

各机构应进一步考虑担保人的方法监测系统的弹性,防止不法人士利用人工智能系统的弱点,包括 AI 运作中带来的网络安全风险,以及对受监管机构的人工智能技术进行对抗性使用。

在评估或介绍 AI 政策时,各机构应谨记任何潜在的安全风险,以及可能恶意部署和使用 AI 应用程序的风险。

10 机构间协调

各机构应相互协调,分享经验,确保人工智能相关政策的一致性和可预见性,以促进美国人工智能领域的创新和增长,同时保护隐私,公民自由和美国价值观,并在适当时允许采取针对具体部门和应用的方法。

根据第 12866 号行政命令,为了机构间审查的目的,签署与人工智能有关的管制行动草案 为「重大」,信息与规制事务办公室 (Office of Information and Regulatory Affairs)将确保所有可能受到某一特定行动影响或感兴趣的机构都有机会提供自己的想法意见。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK