您所在的位置:首页 - 手机 - 正文手机

教母李飞飞亲自撰文:加州安全法案将损害美国生态系统|钛媒体

admin admin 08-07 【手机】 761人已围观

摘要钛媒体App8月7日消息,“AI教母”、美国国家工程院院士、美国国家医学院院士、美国艺术与科学院院士、美国斯坦福大学首位红杉讲席教授,斯坦福以人为本人工智能研究院(HAI)院长李飞飞(FeifeiLi)今晨在《Fortune》撰文指出,美国加州即将实施AI安全法案将损害开发者、学术界,甚至对整个美国AI生态系统造成伤害,但同时并不能解决AI潜在危害。“如今,教母李飞飞亲自撰文:加州安全法案将损害美国生态系统|钛媒体AI比以往任何时候都更加先进。然而,能力越大,责任越大。政策制定者、公民社会和行业

钛媒体App8月7日消息,“AI教母”、美国国家工程院院士、美国国家医学院院士、美国艺术与科学院院士、美国斯坦福大学首位红杉讲席教授,斯坦福以人为本人工智能研究院(HAI)院长李飞飞(FeifeiLi)今晨在《Fortune》撰文指出,美国加州即将实施AI安全法案将损害开发者、学术界,甚至对整个美国AI生态系统造成伤害,但同时并不能解决AI潜在危害。

“如今,教母李飞飞亲自撰文:加州安全法案将损害美国生态系统|钛媒体AI比以往任何时候都更加先进。然而,能力越大,责任越大。政策制定者、公民社会和行业人士都在寻求一种治理方式,以最大限度地减少潜在危害,并塑造一个安全、以人为本的AI社会。我赞扬其中一些努力,但也对其他努力持谨慎态度;加州的《前沿人工智能模型安全创新法案》(以下名字是SB-1047)就属于后一类。这项善意的立法将产生重大的意想不到的后果,不仅对加州,而且对整个国家。”李飞飞表示。

据悉,今年7月,美国加利福尼亚参议院已经批准SB-1047法案的一个版本,它要求开发者证明其AI模型不会被用于造成伤害,这比今年美国各州议员提出的600多项AI法案添加更多限制,引发关注。而这个极具破坏性的提案可能会在今年8月会被加州州长加文·纽森(GavinNewsom)签署成法案。

根据该法案的定义,Meta的Llama-3被定义为超过1亿美元训练成本的“前沿模型”。如果有人将该模型用于非法用途,Meta也会受到严重处罚。同时,该法案中的22603(a)(3)(4)条要求"有限职责豁免"向政府部门提交证明,并在有错误时停止模型的运行,而第22603(b)条要求开发者需要报告任何模型的潜在的AI安全事故。如果开发者无法完全掌控基于其模型的各种衍生版本,若发生安全事故,责任将归属于第一开发者——这相当于是一个连带责任。

此外,该法案中的22604(a)(b)规定,当用户使用其“前沿模型”和算力资源时,开发者需要提交客户的所有资料,包括客户的身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。而且,每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年,也会在海关、边境总署备案。

美国加州的地理位置非常特殊,这里既有斯坦福、加州理工、南加州大学等名校,也是谷歌、苹果、OpenAI、Meta等科技巨头总部的所在地。所以对此,图灵奖得主、Meta的首席AI科学家杨立昆(YannLeCun),李飞飞,投资机构a16z创始合伙人安德里森·霍洛维茨(AndreessenHorowitz)、斯坦福大学计算机科学系和电气工程系的客座教授吴恩达(AndrewNg)等人均表达反对意见。

其中,杨立昆警告称,该法案的“连带责任条款将使开源AI平台面临巨大风险……Meta不会受影响,但AI初创公司将会倒闭。”据悉,如果这些模型被他人恶意使用时,该法案要求AI开发者对其开发的模型承担民事甚至刑事责任。

霍洛维茨认为,加利福尼亚的反AI法案虽出于好意,但因误导可能会削弱美国科技产业,正当技术未来正处于关键十字路口之时。美国需要领导者认识到,现在是采取明智且统一的AI监管行动的关键时刻。

吴恩达发文指出,美国加州SB-1047法案将扼杀开源大模型发展。他进一步指出,应该监管的是AI应用程序而不是大模型本身。

而李飞飞认为,AI政策必须鼓励创新,设置适当的限制,并减轻这些限制的影响。不这样做的政策在最好的情况下无法实现其目标,在最坏的情况下会导致意想不到的严重后果。如果SB-1047法案通过成为法律,它将损害美国刚刚起步的AI生态系统,尤其是那些已经对当今科技巨头不利的部分:公共部门、学术界和“小科技”。SB-1047法案将不必要地惩罚开发人员,扼杀我们的开源社区,并阻碍学术AI研究,同时无法解决它旨在解决的实际问题。

李飞飞给出了四点理由:

首先,SB-1047将过度惩罚开发者并扼杀创新。如果AI模型被滥用,SB-1047将追究责任方和该模型的原始开发者的责任。每个AI开发者(尤其是初出茅庐的程序员和企业家)都不可能预测其模型的所有可能用途。SB-1047将迫使开发者退缩并采取防御措施——这正是我们试图避免的。

其次,SB-1047将束缚开源开发。SB-1047要求所有超过一定阈值的模型都包含一个“终止开关”,这是一种可以随时关闭程序的机制。如果开发人员担心他们下载和构建的程序会被删除,他们将更加不愿意编写代码和协作。这个终止开关将摧毁开源社区——它是无数创新的源泉,不仅在AI领域,而且在各个领域,从GPS到MRI再到互联网本身。

第三,SB-1047将削弱公共部门和学术界的AI研究。开源开发对私营部门很重要,但对学术界来说也至关重要,因为如果没有合作和模型数据,学术界就无法进步。以研究开放式AI模型的计算机科学专业学生为例。如果我们的机构无法获得适当的模型和数据,我们将如何培养下一代AI领导者?与大型科技公司相比,终止开关将进一步削弱这些学生和研究人员的努力,他们已经在数据和计算方面处于劣势。SB-1047将给学术界、本应加倍投资公共部门AI敲响“丧钟”。

最令人担忧的是,该法案并未解决AI发展的潜在危害,包括偏见和深度伪造。相反,SB-1047设定了一个任意的门槛,对使用一定计算能力或花费1亿美元进行训练的模型进行监管。这项措施非但不能提供保障,反而只会限制包括学术界在内的各个领域的创新。

李飞飞指出,今天,学术界的AI模型低于这个门槛,但如果美国重新平衡私营和公共部门AI的投资,学术界就会受到SB-1047的监管,美国的AI生态系统将因此变得更糟。因此,美国必须采取相反的做法。

“在过去一年与拜登总统的多次对话中,我都表达了需要‘登月心态’来推动我国的AI教育、研究和发展。然而,SB-1047的限制过于武断,不仅会打击加州的AI生态系统,还会对全国的AI产生令人不安的下游影响。”李飞飞指出,她并不反对AI治理。立法对于AI的安全有效发展至关重要。但AI政策必须促进开源开发,提出统一且合理的规则,并建立消费者信心。SB-1047未达到这些标准。

李飞飞强调,她向该法案的起草人、参议员斯科特·维纳(ScottWiener)提出合作建议:让我们共同制定AI立法,真正建设以技术为主导、以人为本的未来社会。

“事实上,AI的未来取决于它。加州——作为一个先驱实体,也是我们国家最强大AI生态系统的所在地——是AI运动的心脏,而加州的发展将影响整个国家的其他地方。”李飞飞在结尾表示。

Tags: 教母李飞飞亲自撰文加州安全法案将损害美国生态系统|钛媒体

icp沪ICP备2023034384号-20 icp粤公网安备 44030902003287号
取消
微信二维码
支付宝二维码

目录[+]