发布时间:2023-06-07 22:45:21 来源:本站 作者:admin
为什么《自然》不允许在图像和视频中使用生成 AI对这种视觉内容说“不”是一个研究诚信、同意、隐私和知识产权保护的问题。
推特 脸书 电邮
在手机上使用 OpenAI DALL-E。 测试人工智能图像生成器的女人。
大自然不会发布全部或部分使用生成式人工智能创建的图像。
大自然应该允许生成人工智能 (AI) 用于创建图像和视频吗? 在使用 ChatGPT 和 Midjourney 等生成式 AI 工具创建的内容爆炸式增长以及这些平台功能的快速增长之后,本期刊几个月来一直在就这个问题进行讨论、辩论和咨询。
除了专门针对 AI 的文章外,《自然》不会发表任何完全或部分使用生成式 AI 创建的摄影、视频或插图的内容,至少在可预见的未来是这样。
我们委托并与之合作的艺术家、电影制作人、插画家和摄影师将被要求确认他们提交的所有作品均未使用生成式 AI 生成或增强(请参阅 go.nature.com/3c5vrtm)。
ChatGPT 等工具威胁着透明的科学; 这是我们使用它们的基本规则
为什么我们不允许在视觉内容中使用生成式人工智能? 归根结底,这是一个诚信问题。 就科学和艺术而言,出版过程以对诚信的共同承诺为基础。 这包括透明度。 作为研究人员、编辑和出版商,我们都需要知道数据和图像的来源,以便验证它们的准确性和真实性。 现有的生成式 AI 工具不提供对其来源的访问,因此无法进行此类验证。
然后是署名:当使用或引用现有作品时,必须注明署名。 这是科学和艺术的核心原则,生成式 AI 工具不符合这种期望。
同意和许可也是因素。 例如,如果要识别人员身份或涉及艺术家和插图画家的知识产权,则必须获得这些信息。 同样,生成式 AI 的常见应用未能通过这些测试。
生成式 AI 系统正在接受图像训练,但尚未努力识别其来源。 未经适当许可,受版权保护的作品经常被用于训练生成人工智能。 在某些情况下,隐私也会受到侵犯——例如,当生成式人工智能系统在未经他们同意的情况下创建看起来像照片或视频的东西时。 除了隐私问题之外,创建这些“深度造假”的便利性正在加速虚假信息的传播。
适当的警告
目前,《自然》允许包含在生成式 AI 的帮助下生成的文本,前提是这样做时有适当的警告(请参阅 go.nature.com/3cbrjbb)。 此类大型语言模型 (LLM) 工具的使用需要记录在论文的方法或致谢部分,我们希望作者提供所有数据的来源,包括在 AI 的帮助下生成的数据。 此外,任何 LLM 工具都不会被接受为研究论文的作者。
世界正处于人工智能革命的边缘。 这场革命前景广阔,但人工智能——尤其是生成式人工智能——也在迅速颠覆科学、艺术、出版等领域长期确立的惯例。 在某些情况下,这些公约需要几个世纪的时间才能发展,但其结果是一个保护科学完整性并保护内容创作者免受剥削的系统。 如果我们在处理 AI 时不小心,所有这些收益都有可能化为泡影。
许多国家的监管和法律体系仍在制定应对生成人工智能兴起的措施。 在他们迎头赶上之前,作为研究和创意作品的出版商,《自然》的立场将仍然是简单地拒绝包含使用生成 AI 创建的视觉内容。