近年来,随着人工智能技术的飞速发展,大型 AI 模型的训练数据来源问题日益成为业界关注的焦点。许多知名企业在构建其 AI 模型时,似乎都选择了使用大量未授权的版权内容作为数据。这一 「秘密配方」 引发了激烈的法律争论,并将硅谷的科技巨头们推上了风口浪尖。
2023 年,《纽约时报》
2025 年 6 月,法院在对 Anthropic 案的裁决中给出了一个重要信号: 尽管模型训练本身可能被视为一种高度 「变革性」 的使用,但如果数据来源涉及盗版,基本上就无法逃避侵权的指控。预计 Anthropic 可能面临高达 7500 亿美元的赔偿,这一消息令所有 AI 公司心惊胆战。
为了满足对数据的需求,各大模型公司采用了多种 「创意」 方式来获取数据,有的甚至游走在法律边缘。例如,OpenAI 利用网络爬虫广泛抓取网络内容,甚至在抓取过程中清除版权信息; 而在高质量文本资源逐渐枯竭后,AI 公司又转向视频和纸书等其他格式的数据,利用技术手段进行提取。
此外,有些公司甚至选择了直接使用盗版书籍。例如,Meta 在训练 Llama 模型时,就被指控使用来自 「影子图书馆」 的盗版书籍。与此相反,苹果等保守派企业则选择通过合法授权和自有数据来规避法律风险。
在法律诉讼的推进中,版权方的策略逐渐转变,焦点不再是 AI 如何使用数据,而是数据的获取是否合法。法院的裁决表明,虽然 AI 的训练行为可能不构成直接侵权,但盗版资源的使用将受到严厉打击。
如今,AI 行业面临着一场前所未有的版权战争,如何在法律边缘游走并实现创新,成为了科技巨头们亟需解决的问题。