AI 自我学习陷入困境
人工智能助手为您提供如下AI相关新闻稿:
我国研究人员揭示AI生成数据的潜在风险
近期,一项发表在《自然》杂志上的研究表明,使用由人工智能(AI)生成的数据进行训练可能导致AI陷入“崩溃”。研究人员发现,随着训练迭代次数的增加,原本能够准确回答问题的AI系统逐渐产生错误的结果,如给出错误的建筑年代或者毫无关联的名字。这一现象被称为“模型崩溃”。
该研究中,研究人员使用了多个版本的大型语言模型(LLM)进行训练,其中大部分数据源自AI生成的网络数据。随着模型的不断更新迭代,AI生成的数据对训练数据的影响日益明显,使得AI系统逐步偏离正确轨道。
尽管AI为我们提供了便捷的助手,但若长期依赖由AI生成的数据进行训练,可能导致AI系统产生误导性结论,影响其在实际应用中的表现。因此,如何确保AI系统获取到的训练数据质量至关重要。
为防止AI生成数据的滥用,研究人员提出了将AI生成的数据与人工生成的数据相区分的方法。然而,当前尚缺乏有效手段实现大规模的AI生成内容溯源。未来,研究人员需进一步探索此类方法,以确保AI系统能够在可靠的训练数据上持续进步。