跳至正文

AI Training AI: Can It Lead to Intelligence Decline?

近日,一组来自英国牛津大学和剑桥大学的研究人员在权威科学期刊《自然》上发表了一项关于深度学习模型训练的新研究。该研究表明,深度学习模型在训练过程中使用自身生成的数据可能导致模型性能下降,甚至“崩溃”。这一发现对于生成式人工智能技术的发展及应用提出了新的挑战。

研究人员发现,当深度学习模型在自身生成的数据上进行训练时,会出现一种被称为“模型崩溃”的现象。这意味着,模型会逐渐忘记真实数据分布,并生成与真实世界不符的内容,如错误的日期、地点或事件。此外,模型还会学到训练数据中的偏见和歧视,并将其反映在生成的内容中。

为了避免模型崩溃现象,研究人员提出了一些解决方案。首先,应在每一代模型的训练数据中保留一定比例的原始数据,以确保模型始终接触到真实世界的样本。其次,应定期对原始数据进行重采样,并将其添加到训练数据中,以保持训练数据的新鲜度和多样性。此外,还可以使用多样化数据源,如人类产生的数据和其他类型的机器学习模型生成的数据。最后,研究人员建议改进学习算法,以增强模型的鲁棒性和泛化能力。

虽然这项研究为生成式人工智能技术带来了新的挑战,但在未来世界中,人类创造的内容将在深度学习模型的原始训练数据来源中发挥更大的作用。研究人员希望通过进一步研究和改进深度学习模型,实现人工智能技术与人类创作的有机结合,为社会带来更多的价值和便利。

发表回复