美国时间5月16日,参议院审议AI监管议题的听证会上,气氛一派祥和。
这是以ChatGPT为代表的生成式AI科技爆炸性进步后,美国国会举办的第一场听证会,可能奠定未来美国如何监管生成式AI的基调,因此尤其引人关注。
而引人关注的另一点,是因为提供ChatGPT的Open AI CEO山姆·奥特曼(Sam Altman),正是听证会的三位证人之一。另两位则是长期对AI技术持质疑态度的纽约大学荣休教授加里·马库斯(Gary Marcus)和IBM的首席隐私和信任官克里斯蒂娜·蒙哥马利(Christina Montgomery)。
欧美互联网大佬参加的国会举行的听证会,一向以剑拔弩张的紧张氛围,和不懂科技还一定要管科技的国会议员闻名。然而这场听证会,氛围却出乎预料的轻松。
不少议员在发言中表示自己试用过Open AI的产品,并据此提问。对AI已经产生的问题和未来的风险,也更多地表现出一种沟通,而非问责的态度,与此前扎克伯格、周受资的待遇形成了鲜明对比。部分原因或许来自奥特曼在听证会前已经与参议员们进行了多次私下沟通,且对AI监管表现出非常积极的态度。
听证会内容横跨了生成式AI带来的诸多影响,包括不实信息问题、信息操纵人心问题、失业问题、隐私问题、版权问题、垄断问题等。
对此,三位证人对参议员们的担忧都表示了不同程度的认同,并认可政府应该对AI行业进行监管。
‘此次听证会是历史性的。我不记得之前在任何情况下,有大企业和私营组织代表来参加听证会,请求我们去监管他们。’已经当选参议员二十几年的迪克·德宾(Dick Durbin)在听证会中感叹道。
多方共识下,问题进一步成为,对生成式AI的监管,究竟要怎么管。
无法承受像管社媒
一样慢管AI的后果
虽然听证会以AI监管为主要内容,但‘社交媒体’一词却不断出现,在不到三小时的会议中,出现了32次之多。
参议员们仿佛在对社交媒体管控‘失败’反思,并想在AI领域重新来过。‘我们无法承担像我们曾经管控社交媒体一样慢地去管控生成式AI的后果,因为其影响,不管正面的还是负面的,都会远远超出社交媒体带来的影响。’参议员克里斯·库恩斯(Chris Coons)表示。
会议虽然讨论了多个AI相关的问题,但议员们最关注的,还是生成式AI发布不实消息和操纵人心的问题,而对于尚未到来的通用人工智能的监管则几乎没有探讨。
整场听证会以主席理查德·布卢门撒尔(Richard Blumenthal)的一段以AI生成的虚拟录音开场,AI以相当接近布卢门撒尔的说话方式模拟了一段他可能发表的意见,布卢门撒尔也对AI的能力表示认可,但很快他的落点落到了本场听证会的中心——不实信息。如果AI提供的信息是与他本人立场相反的呢?听众是不是也会觉得这是他本人的立场?
参议员乔什·霍利(Josh Hawley)引用了一篇4月的学术论文,提出AI可以通过建模,成功预测出公众对于一件尚未发生的事情的反应。那是不是意味着如果利用AI,去做一些策略调整,能成功操纵民意?
对此,奥特曼的回应是,这也是他最担心的事情之一,‘一对一的,互动式的不实信息(传播)。’他认为需要监管、公司努力和公众教育结合才能解决。
其中一个可能有效的解决方案是,公众永远应当知道自己在和AI说话,而不能出现以为自己在和人类对话,实际上在和AI对话的情况。
但他总体对人类的适应能力表示乐观。‘在Photoshop出来的时候,其中有一段时间人们都很容易被Photoshop编辑过的照片欺骗。然而很快,人们有了照片可能是被Photoshop编辑过的意识。’
他也进一步强调了,这也是为什么Open AI公司要开放ChatGPT使用的原因。这样大家能从一个发展中的产品中,尽早地建立对于这种科技的认知,而避免直接放出一个非常成熟的产品,使大家在尚未建立对生成式AI的认知之时就受到科技的冲击。
使用Midjourney生成的一张图片使用Midjourney生成的一张图片
听证会还提到了更强大的AI,会不会更容易针对我们每个人,提供出最符合我们偏好的信息,更容易引走我们的注意力,和相关的Open AI如何处理这类的个人向的数据。
‘我们不使用广告作为营收,所以我们没有在建立用户画像。’奥特曼表示,‘我们也没有在努力让用户更多地使用我们。事实上,我们希望用户更少地使用我们的产品,因为我们GPU不足。’
但是他同时认为这绝对是值得担忧的问题。他非常确定有公司已经在研究相关的事情。Open AI也无法保证永远不采取广告模式盈利。
同时奥特曼也在宣誓过的状态下再次明确,Open AI会利用公开网络上的资料来训练,但不会用从API获取的用户数据中训练,且如果在ChatGPT中进行设置,用户在ChatGPT上的数据也可选不成为公司的训练材料。
支持AI研发牌照,
奥特曼有没有私心?
对AI,政府该不该进行管理,在此次听证会上几乎没有争议。在政府监管上利益相关的两位证人奥特曼和蒙哥马利都十分认同政府监管。
但到底政府该怎么管,则成为了一个激烈探讨的话题。
其中讨论最多的一个方向,是是否应该专门建立一个管理生成式AI的监管机构。这个监管机构可以在发布前和发布后,联合独立专家,全面地检查一个AI模型的安全性,并拥有对犯错的公司执行吊销做AI模型的权力。实际上,相当于为公司发放AI牌照。
‘你不能没有牌照就建一个核反应堆,你不能没有一个独立检测的牌照就建一个AI模型。我认为这是很好的类比。’一位议员这样说道。
奥特曼对此十分认同。‘超过一定门槛的任何尝试都应该得到政府的牌照,而且牌照应当可以收回,以确保其能够遵守安全标准。’
在一位议员提问政府应当禁止做了某些事情的AI,还是应当禁止有能力做某些事的AI时,他直接回答,两者皆应被监管。
至于门槛具体是什么,在参议员的要求下,他提供了一个方向,最简单的可以是以训练数据量为衡量来进行判断,更复杂的可以是模型具有了能够说服人类,改变人类想法的能力,或者能够创建新的生物制剂后,应该被监管。
说到这,你可能会想,为什么许多行业在面对监管时,都十分抗拒,而奥特曼作为AI行业的领导者却支持一个如此强力的监管方式,希望政府拥有能够吊销AI牌照的权力?
一种解释是他的确非常关心AI带来的安全问题。这点得到了曾与他私下会面过的参议员,以及同场的证人马库斯教授的认可。
奥特曼在国会回答提问图片来源:听证会截图奥特曼在国会回答提问图片来源:听证会截图
另一种解释则没那么无私。在一篇福布斯的文章中,长期关注AI发展的资深作者Jeremy Kahn提出了另一种解释:‘AI公司们面临的最大的挑战之一来自开源AI软件...开源社区已经被证明极其具有创新力,能够敏捷地匹配上大公司专利模型的表现和能力,使用的模型更小,更简单,可免费下载且训练起来更廉价。如果出现牌照政策,这些开源公司都将举步维艰。它们很难为模型装备稳健的限制,也很难控制人们如何使用它们创造的模型——开源,从本质上来说,就不能避免人们修改代码和把安全性限制的代码去掉。’
如果认同后一种解释的话,似乎也可以解释为什么奥特曼虽然大力赞成通过牌照政策确保AI安全,但是在检查模型训练数据方面,则没有那么积极。
作为AI研究者和批评者的证人马库斯教授,在认同牌照政策和新建政府机构来监管AI的同时,一直极其强调AI的透明性,强调独立专家应该能够审计大模型训练的语料。
‘我对GPT-4最担忧的一点是我们不知道它训练的数据是什么...它训练依赖的数据对AI系统的偏见会有影响。’马库斯教授表示,训练数据可能包含纽约时报,也包含Reddit,但是‘我们不知道它们的比例。’
而奥特曼则虽然原则上认同过应该对‘原料’进行审查(但主语并没有说是政府),更多提及支持‘外部审计,红队演练,提出一个模型在训练前需要达到的标准’这类的政府监管,更偏向于以标准和测试的方式让政府进行检查。
‘我们过去有建立一项测试,可以检测一个模型是否能自我复制和自己逃脱进入外界。我们可以为政府提供一个长名单,列出一个模型在被正式投放之前我们认为非常重要的一系列检测。’奥特曼讲道。
Open AI是生成式AI领域里无可争议的领军企业,如果真的按照这个建议施行,Open AI显然有机会极大影响政府设计的AI安全标准和发放召回牌照的标准,似乎完全符合福布斯这篇文章的标题《Open AI CEO山姆·奥特曼想要AI牌照监管。这或许对我们是好事。但对Open AI绝对是好事》。
除了对开源公司产生威胁,达到一定AI能力就需要牌照的政策对于不面向公众的公司也并不友好。
代表IBM的证人蒙哥马利就反对这项政策。IBM本身并不面向普通公众,而是面向商业客户,许多前述提到的风险,比如操纵选举的风险对于IBM来讲并不存在。
蒙哥马利更偏向于基于风险管理的手段。欧盟AI法案目前采取的就是这样的方式。法案围绕四类人工智能系统构建,分别是:不可接受的风险、高风险、有限风险以及最低风险。其中前三类将受到法案的监管。针对不同风险,采取不同的监管手段。
‘比如选举信息的例子。当然任何在这个场景下的算法都应该被要求披露训练所用的数据,模型的表现,任何相关的信息都非常重要。’蒙哥马利表示。
她同时也认为现有的机构如FTC已经足以能够完成这一任务,无需新建新的机构。
参议员们本身,也并不都支持创建一个新的政府机构。
参议员乔什·霍利(Josh Hawley)语出惊人,‘政府机构通常会被他们本来要监管的人所腐蚀,被他们要监管的机构所控制...为什么我们不直接让公民告你们?’他提议直接对1996年《通信规范法》中的第230条款(Section 230)进行明确,使其确认不保护生成式AI公司。‘我们就打开诉讼的大门。允许人们上法庭。允许他们来提供证据。比如说他们可以说,他们因为得到了错误的医疗不实信息而受害,或者错误的选举信息而受害,就可以起诉。为什么不这么做?’
尽管三位证人都认同第230条款不应该应用于生成式AI的公司,奥特曼和马库斯教授都立刻指出,目前法律在生成式AI方面很不清晰。马库斯教授表示,‘我们现有的法律是在人工智能出现很多年前制订的...法律官司可能会持续十年甚至更久。’
无解的议题——
垄断、就业与国际合作
在听证会上,AI大模型集中于少数公司之手的议题也被不止一次的提起。奥特曼本人也承认这一点:‘开源社区现在有很多奇妙的事情发生,但未来将只有一小部分供应商能够提供最尖端的模型。’
他认为这样自然有其风险,但是好处是监管难度也会变小。虽然与会者也都指出这种集中模式有其风险,整个听证会并没有人能够提出一个好的方法解决这一问题。
人工智能带来的就业问题也是无解。尽管与会人员有提到新科技通常能带来新就业,马库斯教授警告说‘历史不一定会重现...我认为这次将可能不同。真正的问题是在多大的时间范畴来看?我认为长期来看,通用人工智能真的会取代一大部分的人类工作。’奥特曼尽管发表了较为乐观的预测,认为人工智能只是工具,未来的工作将会更好,但也承认终究很难预测未来的发展。
在游戏底特律变人中,仿生人取代了人类的许多底层工作|图片来源:底特律变人游戏截图在游戏底特律变人中,仿生人取代了人类的许多底层工作|图片来源:底特律变人游戏截图
另一个无解的议题是国际合作。马库斯教授提出,可以建立一个欧洲核子研究中心一样的国际组织,绝对中立且关注AI安全。这一观点受到不少认可,但是参与听证会的成员也无法就这个方向继续深入探讨。
人工智能生成的作品的版权,对原创作者和新闻出版业的保护也是一个关注重点。在此次听证会上,只是略有涉及,参议员们表示,六月和七月还要举办多次听证会,专门针对知识产权问题。美国时间5月17日,美国众议院司法委员会下设的法院、知识产权和互联网小组委员会也举办了生成式AI知识产权的听证会。
AI
社交媒体
发现网登载此文出于传递更多信息之目的,并不意味赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。违法、不良信息举报和纠错,及文章配图版权问题均请联系本网,我们将核实后即时删除。