(2023-03-18)关于版权和AI之战
A battle royal is brewing over copyright and AI
一场版权和AI之间的激战正在酝酿(brew over,蓄势待发)之中
考虑一下AI进入音乐产业的两种方式。一种是beatles的制作人乔治马丁爵士的儿子吉尔马丁采用的方式。去年,为了对披头四的《Revolve》专辑重新混音编辑合成,他利用AI从单声道母带中学习了每个乐队成员(例如,约翰列侬的吉他)的乐器的声音,由此可以分离各种乐器的声音,并反向合成立体声。这种方式的效果是极好的。另一种方式也不错。这位澳大利亚的创作歌手,利用初创公司OpenAI的ChatGPT,用自己的风格写出歌词,再对其进行修改。他写道,“这种方式写出的歌非常吸引人。”写一首好歌不是模仿,不是复制,也不是混曲。相反,这是一种自我否定的行为,摧毁一切之前力求的创作。
Cave不太可能意识到ChatGPT的算法最新版本的重要性,这个被称为GPT-4的版本是OpenAI于3月14日发布的。马丁可能会发现新版本更有用。全球最大的唱片公司环球公司的首席数字官米歇尔·纳西举例说明,诸如文本创建的ChatGPT和图像创建的Stable Diffusion这类内容创建类的app背后的AI引发的激动和恐惧。AI可能为创作提供帮助,也可能对创作造成破坏,或者篡夺创作。对于大多数录制的音乐,机器人的出现是音乐史上一件大事:Napster,这个在千禧年之交主要用来分享盗版音乐的平台,迅速崛起随后迅速衰落。Napster被版权法彻底打败。对于势头猛劲的机器人提供商,受到的伤害控诉远超过知识产权控诉。纳西有一个简单的说法,从这个Napster时代的音乐产业的经验丰富的老手来看,这是个威胁。不要一边在市场中摆兵布阵,一边祈求谅解。那时Napster的方式。
主要问题在于,不是Cave的AI制造的模仿,也不是莎士比亚式十四行诗的仿作。而是机器人吸收有版权的海量数据,训练自己创作仿人类的内容。海量数据可以来自任何地方:社交媒体的反馈,因特网搜索,数字图书馆,电视,收音机,统计银行等等。人们指控,AI模型常常窃取数据库中的数据。负责数据源的人抱怨自己的数据在未经同意,信任,和赔偿的情况下被收集。总之,某些AI平台针对媒体做的事情和Napster当时针对音乐做的事情如出一辙,两者都完全忽略了版权问题。此类诉讼案件才刚刚开始。
将AI的应用领域从创造性产业扩展到机器学习可以应用的商业领域,诸如自动驾驶,医疗诊断,工程机器人和保险风险管理,这会进入一个潜在法律雷区(lagal minefield)。忠于官僚主义形式的欧盟,专门针对数据挖掘涉及的版权问题制定了法令(这类法令起草于最近机器人兴起之前)。专家表示,美国缺乏专门针对生成性AI的案例分析。而在"合理使用"原则下,未经授权的数据挖掘是否是允许的,美国对此有极好的历史案例。Napster曾试图用“合理使用”进行辩护,最终失败了。这并不意味着AI也会是一样的结果。
围绕“合理使用”的争辩非常有意思。借用大师讲习班里的定义,当版权作品的使用是出于有价值的社会目的时,可看做是合理使用,将原始作品转变得到的材料来源并不影响对版权所有者的核心市场。反对者认为,AI对其挖掘到的整个数据库中的数据不是转变而是利用。他们声称,机器学习背后的公司对于个人作品将“合理使用”滥用为“免费使用”。他们一致表示,这样不仅会影响到创作者的生活,在AI对监控和错误信息推波助澜时,会对整个社会造成影响。作者们认为这种论断违背了这样一个事实:AI访问的数据库越多,就会变得越来越好,而没有这些数据库,就没有AI。换言之,AI产业无从发展。他们将“版权法允许机器人学习吗”这一问题描述为本世纪最重要的问题。
早期一项知名法律诉讼来自于华盖创意公司。这家图像创意公司起诉了stability AI,理由是这家stable diffusion公司的母公司,为了建立一个与华盖公司竞争的图像生成模型,收集了上百万张图片,侵犯了这些图片的版权。如果该案件没有庭外和解,也许会成为合理使用案件的先例。美国最高法院很快会针对一项案件做出一项更重要的裁定,该案件涉及已故艺术家安迪沃霍尔对流行偶像Prince的数张有版权图像的改造。知识产权专家认为,这次司法或许从整体上提供了期待已久地对于“合理使用”的指导。
偷偷摸摸、零零碎碎地获取有版权的数据并不是生成性AI要面对的唯一的法律问题。许多地区,只有人类创造的作品才能申请版权,因此,在多大程度上,机器人产生的作品在多大程度上可以申请版权还是一个尚不明确的灰色地带。法庭之外,最大的问题是政治性问题,包括生成性AI是否和社交平台一样,对其显示的内容应当有责任保护,以及其在多大程度上破坏了数据隐私。
版权问题迫在眉睫
IP之战将是大战。纳西表示,创造性产业应当尽快明确立场(take a stand),确保艺术家们的输出用于AI模型训练是被许可的,且符合伦理的。他督促AI公司将其数据源归档化,公开化。同时,他也认为两者很难平衡。从事创造型工作的人们并不想要要阻碍科技进步,很多人所做的工作也受益于AI,从Napster的“现实疗法”得到的教训是利用新技术比赶走新技术要好。也许,这次不会刮取15年的税收才吸取这个教训。