周二,包括微软(Microsoft)和谷歌(Google)高管在内的科学家和科技行业领袖就人工智能给人类带来的危险发出了新的警告。
声明称:“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球的优先事项。”
ChatGPT制造商OpenAI的首席执行官萨姆·奥特曼(Sam Altman)和被称为人工智能教父的计算机科学家杰弗里·辛顿(Geoffrey Hinton)等数百名知名人士签署了这份声明,该声明发布在人工智能安全中心的网站上。
随着ChatGPT等新一代功能强大的人工智能聊天机器人的崛起,人们对人工智能系统超越人类、失控的担忧加剧。这促使世界各国争相为这项正在发展的技术制定监管规定,欧盟率先推出了《人工智能法案》,预计将于今年晚些时候获得批准。
总部位于旧金山的非营利组织人工智能安全中心(Center for AI Safety)的执行主任丹·亨德里克斯(Dan hendricks)说,最新的警告故意简洁——只有一句话——以涵盖一个广泛的科学家联盟,这些科学家可能对最可能的风险或预防风险的最佳解决方案意见不一致。
亨德里克斯说:“来自各个不同领域的顶尖大学的许多人都对此感到担忧,并认为这是一个全球优先事项。”“所以可以说,我们必须让人们在这个问题上走出壁橱,因为很多人都在默默地互相交谈。”
今年早些时候,包括埃隆·马斯克(Elon Musk)在内的1000多名研究人员和技术人员签署了一封更长的信,呼吁暂停人工智能开发6个月,称其“对社会和人类构成了深刻的风险”。
这封信是对OpenAI发布新的人工智能模型GPT-4的回应,但OpenAI及其合作伙伴微软和竞争对手谷歌的领导人没有签署,并拒绝了行业自愿暂停的呼吁。
相比之下,最新的声明得到了微软首席技术和科学官、谷歌人工智能研究实验室DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)和两名负责谷歌人工智能政策工作的高管的支持。声明没有提出具体的补救措施,但包括奥尔特曼在内的一些人提议,按照联合国原子能机构的思路建立一个国际监管机构。
一些批评人士抱怨称,人工智能制造商发出的关于存在风险的可怕警告,助长了对其产品能力的炒作,分散了人们对更直接监管以控制其现实问题的呼吁。
亨德里克斯说,社会没有理由不能处理产生新文字或图像的产品的“紧迫、持续的危害”,同时也开始解决“即将发生的潜在灾难”。
他把它比作20世纪30年代的核科学家,他们警告人们要小心,尽管“我们还没有完全开发出炸弹”。
亨德里克斯说:“没有人说GPT-4或ChatGPT今天引起了这些担忧。”“我们试图在这些风险发生之前解决它们,而不是在事实发生后解决灾难。”
核科学、流行病和气候变化方面的专家也在这封信上签了名。作家比尔·麦基本(Bill McKibben)也是签名者之一,他在1989年出版的《自然的终结》(the End of Nature)一书中对全球变暖发出了警告,并在20年前的另一本书中对人工智能和相关技术提出了警告。
“考虑到35年前我们没有注意到气候变化的早期警告,我觉得,在一切尘埃落定所之前,把这个问题想清楚是明智的,”他周二通过电子邮件说。
一位帮助推动这封信的学者表示,尽管过去十年机器学习研究的快速发展超出了许多人的预期,但他曾经因为对人工智能存在风险的担忧而受到嘲笑。
剑桥大学(University of Cambridge)计算机科学助理教授戴维·克鲁格(David Krueger)表示,科学家们之所以犹豫不决,是因为他们不想被认为是在暗示人工智能具有“意识或会变魔术”,但他表示,人工智能系统不需要有自我意识,也不需要设定自己的目标来对人类构成威胁。
“我并不拘泥于某种特定的风险。我认为事情变糟的原因有很多。”克鲁格说。“但我认为,历史上最具争议的是灭绝的风险,特别是人工智能系统失控的风险。”
阅读更多关于聊天机器人和其他人工智能的发展
总统的国情咨文演讲有一个可预测的公式。但是如果用计算机程序来写呢?美联社要求ChatGPT机器人这样做。
欢迎来到NerdWallet的智能理财播客,在这里我们会回答你关于现实世界中金钱的问题。本周的节目从测试ChatGPT提供财务建议的能力开始。
ChatGPT的制造商正试图通过一种新工具来遏制其作为随心所欲的作弊机器的声誉,该工具可以帮助教师检测出是学生还是人工智能写的作业。
一个由人工智能驱动的热门在线聊天机器人被证明擅长制造虚假信息和宣传。
虽然很有趣,但我觉得我的评论家工作现在是安全的。