首页 > 资讯 > 商业 > 正文
2024-05-06 07:26

在华盛顿,一场关于人工智能的混乱战斗正在进行,而且看不到结束的迹象

  • 人工智能技术正在快速发展。
  • 这让Co很难国会对其进行监管,但拜登和特朗普曾试图通过行政命令进行监管。
  • 政府中缺乏人工智能专家也使立法者难以监管。

人工智能之争并不仅仅发生在硅谷的科技巨头之间。

国会大厅和白宫内部也在发生这种情况,议员们试图找出如何在不阻碍进展的情况下控制这项技术。

国会未能通过一套全面的关于人工智能的联邦法律和法规——围绕创新进步的大部分限制都是在州一级制定的——导致乔·拜登总统和前总统特朗普通过行政命令填补空白,这些行政命令几乎没有提供任何方法来打击行业中越界的坏人。

本文仅对Business Insider订阅者开放。成为业内人士,现在就开始阅读。有账户吗?.

为什么美国没有联邦人工智能监管?

在国会通过立法可能是一个令人痛苦的缓慢过程,有时甚至是不可能的过程。议案经常在委员会和众议院被否决。许多立法者将要求在法案中加入他们自己的修正案,以便他们考虑支持该法案,这将进一步扰乱这一进程。

共和党人的内斗导致了前议长凯文·麦卡锡(Kevin McCarthy)的下台,这使得本届会议的混乱局面雪上加霜。

到目前为止,第118届国会只通过了所有提案的1%。

随着国会通过实体法和制定行业法规的难度越来越大,总统们将行政命令作为在人工智能等开创性和发展中行业建立先例的手段。

如何管理人工智能的发展?

在特朗普担任总统期间,他发布了几项与人工智能相关的行政命令。2019年,他签署了《保持美国在人工智能领域的领导地位》,这是一项行政命令,旨在确定企业优先发展人工智能的必要性。2020年,他发布了《促进在联邦政府中使用可信赖的人工智能》,为联邦雇员如何在工作中安全有效地使用人工智能制定了原则。

除了行政命令,特朗普还在2018年成立了国家科学技术委员会的“人工智能特别委员会”,该委员会继续就联邦政府如何促进美国人工智能的发展向白宫提供建议。

仅在本届第118届国会,就有80多个直接或间接涉及人工智能的法案被提出,但没有一个获得通过并成为法律,这导致拜登政府效仿特朗普,开创了使用行政命令的先例。

拜登在2023年底前签署了关于“安全、可靠和可信赖的人工智能开发和使用”的行政命令。这份长达36页的指令为人工智能研究人员设定了安全标准,尽管批评人士表示,它没有为联邦机构执行这些标准提供多少效力。

特朗普和拜登的人工智能政策有何不同?

微软和谷歌等主要人工智能巨头赞扬了拜登的努力,但特朗普在2023年12月承诺,他将推翻这一行政命令。

特朗普说:“当我再次当选时,我将取消拜登的人工智能行政命令,并在第一天禁止使用人工智能审查美国公民的言论。”

一些保守派游说者和智库批评拜登的规定,认为行政命令滥用了《国防生产法》,违反了该法案本身的目的。《国防生产法》是1950年朝鲜战争时期的一部法律,赋予总统在紧急情况下单方面向私营企业发布规定和指导的权力。

人工智能政策倡导者似乎并不完全相信这种说法。

有关的故事

人工智能政策中心执行主任杰森·格林-洛说,特朗普和拜登的“行政命令促成了两党共识,即人工智能应该是值得信赖的。”

“它改变了文化,”他说。“你看到一些更负责任的实验室在自愿的基础上推出了一些负责任的扩展政策,但随后你看到其他公司只是忽略了这一点,这现在是他们的合法权利。没有人被要求确保他们正在应对这些灾难性的风险。”

政策制定者如何平衡监管和创新?

参议院在华盛顿特区与行业领袖举行了一场人工智能论坛,参议员马丁·海因里希(Martin Heinrich)在休息期间与OpenAI首席执行官萨姆·奥特曼(Sam Altman)交谈。

几位人工智能政策专家告诉Business Insider,他们并不完全反对为人工智能制定联邦法规,只要它不会削弱研究。

非营利组织Partnership on AI的首席执行官丽贝卡·芬利(Rebecca Finlay)等一些专家表示,监管对于进一步创新是必要的。Finlay的非营利组织专注于负责任地促进人工智能的发展和监管。

芬利说:“我们一直很清楚,要想推动创新,就需要监管到位。”“如果我们真的要利用人工智能的好处,明确的道路规则可以让更多的公司在更具创新性方面更具竞争力,去做需要做的工作。我们强烈提倡的一件事是,这些系统是如何建立和开发的,要有一定程度的透明度。”

她说,她认为在开发开源或闭源人工智能工具之间没有正确或错误的决定——她说她看到了两种类型的“危害”——只要它们都是负责任的开发。

她说:“与其在开放和封闭的二元选择之间争论,我认为我们让所有模型开发人员和部署人员都有责任确保他们的模型尽可能安全地开发,这才是真正的核心。”

斯坦福大学以人为本的人工智能研究所(Stanford Institute for Human-Centered Artificial Intelligence)负责政策倡议的高级经理丹尼尔·张(Daniel Zhang)赞同芬利的观点,他希望监管不会扼杀研究。

“我们希望确保围绕开放式基金会模式的治理,从长远来看,有利于开放式创新,”张说。“我们不想过早地限制开放创新的发展,例如,学术机构赖以繁荣的开放式创新。”

制定人工智能监管的挑战是什么?

参议院议员的平均年龄超过65岁,议员们的平均年龄也超过了65岁 现在很难聘请到人工智能专家,这些专家大多选择在私营部门工作。

芬利说,立法者在监管人工智能方面面临的最大障碍之一是“跟上科学和技术的发展状况”。

她说,立法者很难起草法规,因为大多数人工智能公司不是在“公共资助的研究环境”中开发他们的模型,而是私下这样做,直到他们选择分享他们的进步。

人工智能政策中心的格林-洛说:“理想的解决方案是授权某种办公室或监管机构在法律实施时更新法律。”

这不是一件容易做到的事情。

格林-洛说:“我们也处在一个人们非常担心行政权力越权以及官僚机构或公务员的适当角色的时刻。”“因此,国会中有人怀疑国会能否跟上技术的变化,但也怀疑应该把这样做的权力下放给一个机构。”

他补充说,如果不实施一种正式的监管方式,就会有效地让公司按照自己的规则行事,他和人工智能政策中心(Center for AI Policy)并不认为这是最好的做法。

张说,另一个挑战来自人工智能专家和研究人员选择私营部门工作,而不是政府工作,这是一种“人才流失”。

他援引斯坦福大学《2024年人工智能指数报告》称:“在北美,大多数新毕业的人工智能博士都去了私营企业。“只有不到40%的政府希望制定所有这些人工智能法规和治理结构。”

绝大多数人工智能专家最终都在私营部门工作,而不是为大学或联邦政府工作。

由于缺乏能够充分理解人工智能复杂性及其未来的工作人员,老龄化的美国国会在监管这项影响深远的技术方面承担了更多责任,这是一项艰巨的任务。

张说,还有一个普遍的误解是,在政府部门工作比在私营部门工作获得的钱少。

“这不是百分之百正确的,”他说。他说:“政府要想吸引这些技术专业的学生,我认为他们只需要强调公共服务方面,然后给他们提供资源,让他们能够做好自己的工作。

今年1月,拜登政府发布了旨在解决这一问题的“服务号召”。

美国政府表示:“我们呼吁人工智能和支持人工智能的专家加入我们,推进这项研究,确保下一代人工智能模型安全、可靠、值得信赖。”