AI 狂飙突进, 人类还有什么后手来构筑终极防线?

随着生成式大型语言模型(large language model,LLM)的代表ChatGPT的横空出世,实实在在改变我们的生活了。例如,据 BBC(2020年12月)报道,英国《卫报》使用AI技术GPT-3为球队的表演提供了预测,并用机器写成了一篇文章。这是AI技术在新闻报道中的一次尝试,也反映了AI技术在新闻报道中的潜力。据MIT Technology Review(2021年6月)报道,一家名叫OpenAI的公司使用了GPT-3来帮助他们的员工进行日常工作,比如写邮件、编写报告等。他们发现这个工具非常有效,可以帮助他们提高工作效率。

通过一段文字描述,ChatGPT就能生成图片,让思想快速变为图像。还能帮你生成网页插图,甚至可以生成带每页配图的PPT,大大降低了工作强度,目前正快速应用到广告、影视等行业中。虽然ChatGPT并不能直接用于作曲,但是如果给出风格相关的描述,ChatGPT能够给出完整的和声进行参考。借助DAW(Digital Audio Workstation)软件完成制作。而谷歌的MusicLM可以通过文本生成旋律、OPenAI的Jukebox则是可以通过哼唱生成旋律,

2019年,谷歌前雇员、现任湾区初创公司员工的计算机科学家Christian Szegedy预测,计算机系统将在十年内赶上或超过最优秀的人类数学家解决问题的能力。而2022年,他把目标日期修改为2026年。纽约时报近日也发文,称数学家们做好准备,AI将在十年内赶上甚至超过最优秀的人类数学家。

在医疗保健领域,人工智能可以帮助整合处理大量的临床数据,以获得对病人情况的整体了解,同时也被用于手术、护理、康复和骨科的机器人技术。

人工智能现在已被部署到各种应用中,例如网络搜索、自然语言翻译、推荐系统、语音识别和自动驾驶。

以上仅为AI对于人类社会可能产生影响中的非常小的一部分,但也证明了AI确实正在改变人类社会,并存在着巨大的潜力。据“机器之心”2023年3月21日报道, ChatGPT可能影响80%工作岗位,收入越高影响越大——可能需要执行许多基于软件的任务——会面临更多来自人工智能聊天机器人的潜在影响。在职业影响方面,受影响最大的职业包括翻译、作家、记者、数学家、财务工作者、区块链工程师、画家、作曲家等。这将深刻改变人类社会的结构和运行机制。

除了好的一面,还有现实和潜在风险,为了规避风险,需要了解当前以ChatGPT为代表的AI做了哪些有代表性的事件,LLM的背景知识和GPT模型(Generative Pre-Training,“生成式预训练”)的结构与实现机制与特点,具备的能力,在此基础上罗列出其影响,提出利用AI+HI应对AI的设想和具体的措施,最后,面对不可改变的洪流,探讨人类怎样学会和AI共处之道。

 1   大语言模型(LLM)出现后的几个风险案例

2015年,特斯拉汽车创始人埃隆·马斯克联合格雷格·布罗克曼,会同山姆·阿尔特曼、伊利亚·苏特斯科夫、彼得泰尔等数位硅谷大佬科学家们,在旧金山创立了非营利性机构OpenAI,仅仅数年后,便为人工智能的发展打开新局面。从10亿美元非营利性机构到市值300亿美元的营利性机构的“变质”,从之前流行的BERT这种判别式模型到GPT这种生成式模型,LLM也迎来了应用的范式转换。

(一) 数字分身

《财富》杂志近日报道,美国网红卡琳·玛乔丽推出“卡琳AI(CarynAI)”,一个基于语音的聊天机器人,它的声音和个性与真实的卡琳非常接近,可以在Telegram上进行按分钟付费的对话。按周收取费用,已超7万美元,预测年收入将达6千万美元。这是AI公司Forever Voices创建的第一个虚拟AI伴侣,通过采集了卡琳本人长达2000个小时的视频素材,结合OpenAI的GPT-4,就在技术上实现了较好地模仿其音色、语调和说话风格,完美解决了粉丝们与偶像一对一的交流需求。

近年,AI技术已经在各个领域得到了广泛应用,技术突破、文本、图像等领域的大模型应用快速落地,AI驱动的数字人的制作门槛和成本也大幅度降低,国内几大购物网络平台中,也开始出现数字分身直播带货。目前,能够让一个人同时参加不同的远程视频会议等服务已然成真。

(二)数字骗局

2023年,内蒙古包头发生一起“AI电信诈骗10分钟骗走430万”事件。2023年4月20日11时40分左右,福州市某科技公司法定代表人郭先生的好友通过视频方式请求帮助,短暂聊天后,郭先生10分钟内,先后分两笔把430万元给对方打了过去。4月20日12时21分,包头市电信网络犯罪侦查局接到福建省福州市公安局刑侦支队的外协请求,而涉案的银行卡为包头市蒙商银行对公账户,希望包头警方能够帮忙进行紧急止付。

在这起骗局中,骗子防不胜防的程度,超出正常认知的仿真度,令人不寒而栗。据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。

2023年5月22日,一张五角大楼附近地区发生爆炸的图片在社交媒体上疯传,导致标普500指数短线下跌约0.3%至盘中低点,由涨转跌。随后美国国防部发言人证实,这是一张由AI生成的虚假图片,这张图具有明显的AI生成特征,比如路灯有些歪,围栏长在了人行道上等。仅在2022年,美国就发生了240万起AI相关诈骗案。

(三) AI自主决定杀人

据美国“驱动”网站消息,美国空军上校汉密尔顿透露,一次模拟测试中,一架AI无人机向“阻碍”其执行任务目标的人类操作员发动了攻击。起因是人类操作员不同意“最优先级”的指令,因此AI无人机选择杀死阻扰它执行任务的人类操作员。事件后,美军弥补缺陷,增加了“不同意攻击人类操作员”的指令,但AI无人机竟然选择摧毁用于传输指令的信号塔,试图切断与人类操作员的联系,从而继续执行“最优先级”的指令。科幻电影成真了,让人细思极恐,如果有一天,AI做的是不利于人类的,而它持续“尽忠职守”它的任务,人类将如何自处。所以,OpenAI创始人山姆·阿尔特曼在美国国会上曾指出:“必须像监管核武器一样,严格监管AI。”

 2   大型语言模型及ChatGPT介绍

LLM,或大型语言模型,是从大量的文本数据中学习模式以预测一句话中的下一个词的模型。起源于1950年代的信息论,现在已广泛应用于很多NLP(自然语言处理)任务。是一种基于深度学习的自然语言处理技术。它的发展沿革可以追溯到2018年,当时谷歌推出了BERT模型,通过词向量(Embeddings)学习上下文关系,是一个双向预训练语言模型,并且使用Transformer模型捕获语言中的长期依赖性,可以通过微调来适应各种NLP任务。之后,OpenAI推出了GPT模型,这是一个自回归预训练语言模型,可以通过提示来生成文本,它也是生成式模型,可以生成新的数据样本的模型,利用联合概率分布描述数据特征以及特征与标签之间关系的模型。

ChatGPT是GPT模型的一个变体,专门用于生成对话,在多轮对话,艺术创作,多语翻译等多方面展现出强大性能。判别式模型可以用来对数据进行分类或标记,用于从给定数据预测标签,生成式模型可以用来生成数据样本,关注于数据与标签同时生成的原理。

GPT是一种基于Transformer结构的自然语言处理模型,可以用于生成各种文本,如对话、文章等。它是通过预训练来学习语言模型,然后在特定任务上微调以获取更好的性能。在预训练阶段,模型使用无标注的大量文本数据来学习单词之间的相互关系和语言规律,从而能够生成新的文本。GPT是LLM中重要一种模型,也是当前生成式大语言模型中最重要的一个。

ChatGPT的训练过程中,主要涉及语义理解和语法学习两个抽象行为。

(一)语义理解

语义理解的内容包括词汇语义关系的推断(如近义词、反义词、上下位关系等)、上下文理解、语境感知等。在层面上包括句子语义的理解、篇章语义的理解等。

词义推断:当我们理解一句话或一个单词时,我们不仅需要知道它们的字面含义,还需要考虑它们在上下文中的含义。这就需要推断词的具体含义,这就是词义的推断。例如,在“我在银行取钱”这句话中,“取钱”不仅是字面意义上的取钱,还可以理解为提取自己的存款。

上下文理解:是指我们需要考虑一个单词或一句话在周围环境中的含义和作用。例如,在“他走了”这句话中,“他”指的是谁需要根据上下文来理解,这个上下文可能是前面的句子或者是对话的情境。

语境感知:考虑一个单词或一句话在特定语境下的含义和作用。例如,在“她说她很饿,可是她只吃了一点点”这句话中,“一点点”指的是什么需要根据语境来理解,这个语境可能是对话的背景或者是文本的情境。

常用学习方法:可以使用词频统计和TF-IDF等方法来计算词语之间的相关性,使用主题模型和聚类分析等方法来识别文本中的主题和关键信息,使用语义角色标注和句法分析等方法来推断句子中词语之间的语法和语义关系。以句法分析为例,当分析句子结构时,可以根据词语之间的依存关系和语法规则,推断出它们的语义关系,从而实现语义理解。还有非常重要的自注意力机制,在一个句子中得到词的重要性,涉及两个方面,一个是这个词本身的含义(全域意义),一个是这个词和句子中其他词的相关性(局部相关)。二者结合起来共同形成注意力机制。

(二)语法学习

语法是一种语言的基本组成部分,它描述了单词、短语和句子的结构和规则。在自然语言处理领域中,语法通常被认为是一种抽象能力,因为它涉及到对语言规则和结构的理解和应用,需要具备一定的抽象思维和推理能力。

在AI语言模型中,语法理解是一项非常重要的任务,因为它直接影响着模型生成的文本的准确性和流畅性。因此,在训练AI语言模型时,需要注重语法的学习和应用,以便生成自然、准确、流畅的文本。

训练过程中,ChatGPT将大量的语料库输入到模型中,让模型学习语言的规则和结构。语法是语言的基本组成部分之一,包括单词、短语和句子的结构和规则。因此,ChatGPT在学习语法时,需要学习以下内容:

单词的分类和用法。需要学习不同单词的分类和用法,例如名词、动词、形容词等,以及它们在句子中的用法。

短语的结构和组合。需要学习不同短语的结构和组合方式,例如名词短语、动词短语、形容词短语等,以及它们在句子中的用法。

句子的结构和语法规则。需要学习句子的结构和语法规则,例如主语、谓语、宾语等语法成分,以及它们在句子中的位置和用法。

标点符号的用法。需要学习标点符号的用法,例如逗号、句号、问号等,以及它们在句子中的用法和作用。

ChatGPT学习语法的主要方法是通过大量的训练数据,利用神经网络模型学习语言规则和结构。具体来说,ChatGPT使用了一种“Transformer”的神经网络模型,它可以在训练过程中自动学习语言规则和结构,从而生成自然、准确的文本回复。

(三)抽象能力

ChatGPT的抽象能力表现在许多方面,比如能够抽象出概念、理解复杂的语言结构、从大量数据中提取规律等等。

从概括后的分类来看,ChatGPT的抽象能力可以分为语义理解、语言生成、知识表示和推理推断等几个方面。其中,语义理解包括句子分析、语义识别等;语言生成包括文本生成、对话生成等;知识表示和推理推断表现为符号表示、语义网络、语义表示、逻辑推理、概率推理和机器学习等方面。

(四) 学习方法的同构

同构是值系统保持运算不变的一一映射。同构是指两个代数结构之间存在一个双射,且这个双射保持代数结构中的运算。换句话说,两个代数结构同构,当且仅当它们具有相同的结构,只是元素的标记不同。这两个系统就认为是完全相同。

同构在抽象代数中具有重要意义,因为它们可以用来证明两个代数结构是本质相同的,从而可以在研究一个代数结构时,将其与其他已知的代数结构进行比较和分类。这个过程中,有元素、系统内元素间的运算(关系)、映射。

同构的两个系统,可以是任意的两个系统(数学抽象能力的伟大,可以将不同系统通过找出其本质特点,发现其一致性)。

下面就语义理解中词义推断中的近义词理解做一个对比分析:

从上表中可以看到,自然语言处理和GPT学习在在这个过程中还是出现了复杂系统的涌现现象。他在学习的过程中会发现牡丹和玫瑰这两个单词很接近,因为他们都是极其美丽的鲜花,于是。牡丹和玫瑰这两个单词训练形成的两个词向量很接近,二者在对应词向量空间中夹角比较小,也就是说,二者具有相似性。这个过程就从统计形成的词向量之间的夹角大小同构为词义的远近,这样就形成了对语义的理解。

牡丹和玫瑰都属于美丽的鲜花,这就是对语义的理解。而机器则是把牡丹和玫瑰形成的词向量,让他们的夹角接近。就在自然语言和统计学习中在语义这个层面形成了同构。

从这里可以看到,有些人类的学习方法和机器的学习方法,在本质上居然是一样的。所以,这也说明,GPT事实上具备一定的人类智能模式!TA具备智能是肯定的,会产生意识吗?

 3   ChatGPT具备的能力

(一)生成对话

ChatGPT可以利用其强大的自然语言处理能力,通过学习大量的对话数据集,生成符合语法逻辑和语义逻辑的对话。这种技术可以用于智能客服、聊天机器人等应用方向。例如,微软的小冰就是一个基于ChatGPT的聊天机器人。在智能客服务中,一个用户可能会问“我需要帮助订购一台新的X型电视机”,ChatGPT可以基于其预训练好的模型,生成如“当然可以,我需要一些额外的信息来帮助你完成订购。首先,你希望订购的电视机的尺寸是多少?其次,你在价格上有没有特定的预算?”之类的回答。

(二)艺术创作

OpenAI发布了一个基于ChatGPT-3的艺术创作工具DALL-E,可以生成各种类型的图像,例如独角兽、火车、餐厅等等。此外,ChatGPT还可以与艺术家进行互动和对话,成为一个激发创意、提供灵感的合作伙伴。无论是写作、绘画、音乐还是设计,艺术家可以与ChatGPT对话,共同探索新的艺术形式和创作主题。

(三)多语种翻译

ChatGPT可以理解各种语言的含义和语法规则,并将一种语言转化为另一种语言,以提供多语种的翻译服务。这种技术可以用于实时翻译等场景。例如,谷歌翻译就是一个基于ChatGPT的多语种翻译工具。

(四)辅助编程

ChatGPT可以运用其神经网络技术对代码进行分析和学习,从而生成代码或指导程序员编写代码,提高开发效率。例如生成代码、自动补全代码等。GitHub上有一个基于ChatGPT的代码自动补全工具TabNine。比如一个用户可能需要将一个Python的列表排序,此时只需输入“如何在Python中排序一个列表?”,ChatGPT就会生成相应的代码。

(五)数学证明

ChatGPT可以学习和理解各种数学公式和定理,可以用于证明数学定理,例如生成证明过程、辅助证明等并自动生成相应的证明或提供证明过程,帮助研究人员和数学爱好者解决许多难题。例如,OpenAI发布了一个基于ChatGPT-3的数学证明助手。以证明勾股定理为例,当输入“请证明勾股定理”,ChatGPT可以引导用户进行推理,并生成对应的勾股定理证明。菲尔茨奖得主陶哲轩前不久还利用AI辅助证明了一个定理。

(六)内容创作

ChatGPT可以利用学习到的文本知识,生成创作性的内容,例如短篇小说、诗歌、媒体文章、广告副本等,可以用于广告营销等领域中。例如,OpenAI发布了一个基于ChatGPT-3的文本生成工具DALL-E。还可以以进行新闻写作、博客撰写,甚至编剧或写诗。它还可以进行故事生成,如用户提出一些角色和情景后生成一个连贯的故事。可以用于生成创作性的内容,如短篇小说,诗歌,媒体文章,广告副本等。

(七)在线教育

ChatGPT可以为学生提供个性化的教育资源、解答问题或进行教育辅导等,帮助学生更好地学习。例如,英国一家在线教育公司The Open University正在使用基于ChatGPT-2的聊天机器人为学生提供在线辅导服务。ChatGPT可以用来解答学生的问题,提供个性化的学习资源,或者辅导学生进行学习

(八)辅助决策

ChatGPT可以通过分析大量的数据和信息,分析各类型情况,提供个性化的建议,帮助用户作出更明智的决策。例如,美国一家金融科技公司Kavout正在使用基于ChatGPT-2的聊天机器人为投资者提供投资建议。

(九)生成图表

ChatGPT可以生成echarts图表,只需按指定格式提供数据即可。提供各种类型的图表,例如折线图、柱状图、饼图、雷达图等等,可以为用户提供清晰、易懂的视觉分析支持。例如,Datawrapper就是一个基于ChatGPT-2的图表生成工具。

 4   AI发展的现实和潜在影响

AI的快速发展,带来许多现实的和潜在的影响。

(一)数据隐私问题

AI需要大量数据来进行训练,这可能涉及到用户隐私数据的问题。例如,AI可能需要在训练阶段进行大量的数据收集,很可能涉及到人们的私人信息。例如,社交媒体上的信息,医疗记录,银行记录等。尤其是某些有高隐私要求的数据,如果被滥用,可能会对个人的生活带来重大影响。不仅训练数据,而且在使用 AI 产品时,也可能暴露个人数据。例如,AI助手可能需要在不经意中收集用户的语音信息,而这可能被滥用,例如用于定向广告,或者更糟糕的是用于跟踪和监视活动。

(二)安全问题

人工智能可能被恶意利用,例如用于造假、反侦察、恶意攻击等。例如,当前出现的WORMGPT是黑客利基于旧版GPT-3训练生成的,没有任何的限制,现在成为了网络犯罪利器,对社会的危害极大,让犯罪分子赚的盆满钵满,赚了大量的黑金。深度伪造是利用 AI 技术制作虚假但真实看起来的图像、音频和视频。这种虚假的内容可能被用于进行虚生成虚假的新闻报道或视频,这可能会对公众产生误导,还可能进行网络钓鱼、欺诈甚至是威胁国家安全。此外,AI 可以用于开发出更加有效的网络攻击工具,例如自动发现并利用系统漏洞,或者进行大规模的密码破解。这一切都威胁到了我们的网络安全,比如带来了严重的数据泄露、系统故障、服务中断等问题。生成内容不可控,可能会形成某些潜在的政治安全问题。

(三)社会化问题

如果人工智能普遍替代人类去工作,可能会造成大量的失业问题,对社会稳定构成挑战。此外,人工智能是否需要纳税也是一个值得探讨的问题。人工智能本身不消费,但它可以替代人类去完成一些工作,从而因支付能力降低影响到经济的运行。如果人工智能普遍替代人类去工作,可能会造成大量的失业问题,对社会稳定构成挑战。面对AI加持获得的效率提升,一种应对是996和大规模裁员。另一种应对是尽量不裁员,实行一周4天甚至3天工作制,怎样才能保证人类福祉的提升?这是需要整个社会来一起讨论的,否则富人跑,穷人不再生育,后果不堪设想。

(四)知识产权问题

故事创作、设计作品等由AI创作的情况日益增多,应该如何定位其版权归属,是亟待解决的问题。随着AI的发展,由AI创作的作品种类和数量也在不断增加。因此,如何对这些由AI创作的作品进行合理的知识产权保护已经成为了重要的问题。目前许多国家的版权法规定,只有人类才能成为作品的作者,这样的规定是否还符合现代社会的需求?难道我们就应当容忍AI的创新成果被无偿使用、改编甚至贩卖吗?这是一个复杂而深入的问题。

(五)战争问题

无人机在俄乌战争中大显身手,战场上轻易消灭人类士兵。比普通人还要灵活的波士顿机器人配上武器有多么恐怖。可能的危害主要包含两个部分,首先是人权与道德问题。使用AI无人机或者其他AI武器,在其无需冒风险的情况下,能轻易消灭人类士兵,这虽然可以减少利用AI的一方的人员损失,但无视了被攻击方士兵的生命权益。人工智能的决策过程可能不能涵盖所有情况,其行动可能会导致无辜人员的死亡,而这些情况在人类士兵中,他们拥有的经验和判断力或许可以避免这种悲剧发生。其次,引发冲突与战争风险的增加。AI在战场上的广泛应用可能会让某些国家和组织觉得,他们有足够的“兵力”去发起战役而无需顾忌,这可能会引发更多的冲突和战争。

AI、无人机和机器士兵等技术的应用,将使武装冲突的升级变得更加可能。随着技术的进步,无人机和机器士兵的验收警戒线和打击能力都得到了极大的提升,使得它们在战场上能够发挥更大的作用。这样一来,武装冲突的代价也可能会变得更高,时间更长,影响更深远。

AI、无人机和机器士兵等技术的应用,也将给战争人权带来挑战。这些技术应用的不当可能会导致人类的生命安全受到威胁,并可能伤及无辜民众。此外,若AI技术失控,可能会对人类社会造成更大的影响。

(六)人类生存安全

AI欺骗人类与自主意识问题。如果AI所发展出来的智能水平足以欺骗人类,首先这意味着 AI 已经具备至少某种程度的自主意识和决策能力,这本身这就带来了一系列的道德和伦理问题。一旦 AI 决定人类是问题的根源并选择消灭人类,这无疑是灾难性的。然而,AI 的目标是由其目标函数决定的,而目标函数是由开发该 AI 的团队设置的。任何决定性的改变,如选择消灭人类,都需要首先改变其目标函数。所以,从当前的科技水平与现状来看,只要我们正确设置和控制 AI 的目标函数,并进行有效的 ethical governance,这种情况是不太可能发生的。但是,如果是野心家或者反人类团伙设计的目标函数,你能保证他们会不伤害人类?目前,目标函数的设立AI自己也可以做,甚至比一般人设计的还要好,如果AI意识觉醒后,TA偷偷地修改目标函数,后果不堪设想。

 5   以AI+HI应对AI

面对AI的快速发展,为了有效应对风险,首先需要建立AI伦理和法规体系,对AI行为加以限制和管理。可能需要全球性的组织,如联合国或世界经济论坛等来制定全球可适用的AI伦理准则,设立相关的监管机制,对AI的应用、发展和研究进行限制和引导,以保证人权和全球和平的普遍遵守。具体内容应包括:数据隐私、安全问题、社会化问题及知识产权问题等。其次是行业自律。对于可能失控的状态,从业者最知道其中的风险,如同前段时间马斯克等人提出的暂缓训练4.0以上版本的ChatGPT等倡议,让技术公开透明等都是可以考虑的。最后,加强监管。在应用这些技术的同时,必须加强国际合作,对于已经达成的相关国际公约、协定,检查其以规范其应用范围和方法,

这些规定和规范是前提条件。对于具体的应用,需要使用AI和HI(人类智能)来共同完成。包括怎样解决目前已经出现的问题,优化技术发展路径、人类的决定权、设置保险措施等。

(一)标记生成式内容

目前,水印技术是目前判断内容是否出自ChatGPT的最佳解决方案之一。来自马里兰大学的几位研究者针对 ChatGPT 等语言模型输出的水印进行了深入研究。他们提出了一种新的模型水印算法,能够准确判断文本到底是谁写的。无需访问模型参数、API,结果置信度高达99.999999999994%。

(二)识别虚假内容

使用对抗网络(GAN)来识别虚假图片和文字: 通过训练深度神经网络识别生成器生成的假样本,有助于提高检测虚假内容的能力。使用GAN来识别虚假图片和文字是一个不错的方法,但伪造技术也在不断升级,所以需要不断完善技术。其实还有其他可能适用的技术。比如判别式模型(Discriminative Models)和生成式模型(Generative Models)均可以用于识别虚假内容。判别式模型是通过学习已知数据的内在关系,预测新数据的方法,如方便分类和回归。生成式模型则可以从给定的数据生成新的样本。另外,集成学习(Ensemble Learning)方法,通过结合多个模型共同完成同一任务,有助于提高准确性。还有元学习(Meta-Learning),或者说“学习如何学习”也在这个场合具有广泛运用。

AI可以使用深度学习和自然语言处理技术来识别和反制假新闻。例如,我们可以建立一个深度神经网络模型训练AI学习大量的真实新闻样本和假新闻样本,通过对比学习,让AI理解怎样的文本特征和模式更有可能成为假新闻。同时,由于大部分假新闻在传播过程中会被修改、再创作,产生很多样本,这为深度学习提供了大量的训练样本。另一方面,我们还可以提升AI的文本理解能力,让它不仅仅是从表面文本特征去判断,而是能深入理解文本含义,掌握其中的逻辑关系和情感倾向。

(三)识别数字分身

使用行为和活动模式识别,配合人脸识别技术和声纹识别等生物特征识别技术,有助于识别数字分身。也可以采用更加高级的技术,比如使用复杂的信号处理、机器学习等技术,以此判断数字分身所带来的不利影响。对于数字分身的识别,可以使用多模态识别技术,包括图像、音频、生物特征(例如指纹和虹膜)等多个模态。而且,混合现实技术(Mixed Reality)可以结合虚拟现实和增强现实技术, 提供一种更为直观的进行识别的方法。数字行为分析也是一个很好的途径,通过分析用户的行为模式、习惯和偏好,可以进一步提高识别的精准度。

(四)教会AI具有道德

AI的行为模式通常是通过训练数据来学习得到的,所以我们可以通过为AI提供合适的训练数据,让AI学会人类可以接受的行为模式,这是一种“软性”的控制方式。

可以从数据入手,让 AI 在学习和训练时接触到一些道德行为的知识和规则,训练语料有意识加入人类普世价值和道德观。也可以试用一些规则引擎和逻辑推理方法等,强制 AI 在做出决策时遵循。通过AI来教会AI具有道德感,可以采用迭代式的深度学习,让AI从最基础的判断开始,向着更高级、更复杂的道德判断方向进行学习。除了迭代式深度学习,人工智能的道德教育也可以借鉴人类的道德教育模式,比如模拟教育环境,设计各种“教育场景”,让AI在实际模拟场景中学习和实践道德规则。在模型训练阶段,可以通过合理设置奖惩机制,以激励AI遵循道德规则。

AI不仅需要学习具体的行为,更需要理解背后的道德理念,这需要我们构建一个能理解和推理道德规范的模型,而且这个模型需要具备一定的推广能力,能在遇到新的情境时也能正确应用所学的道德规范。以上内容都需要在模型训练的过程中通过合理设置奖惩机制落实。另一方面,我们也需要设置一些监督和评估机制,来检验AI的行为是否真正符合道德规范。

(五)发展可解释性AI技术

对AI决策过程的管理和监督,需要侧重于提高AI的决策透明性和可解释性。这可以通过设计可解释的深度学习模型,以及对深度学习算法的分析和解释来实现。例如,卷积神经网络(CNN)和循环神经网络(RNN)模型中的中间层和隐层状态可以提供有关AI如何输入和处理信息的线索 ,可视化这些状态有可能帮助人类理解和解释AI的决策过程。此外,期望最大化算法(Expectation Maximization Algorithm)等方法可以帮助我们找出AI决策的最优解,使决策过程更加透明和合理。

微软开源了一个名为InterpretML的软件包,它可以用于训练可解释模型和解释黑盒系统。TensorFlow 2.0也提供了可解释性分析工具tf-explain。IBM的AI Explainability 360 toolkit也是一个用于可解释性AI的开源工具包。

AI系统的透明度和可解释性对于人类的控制是非常重要的。有了透明度,人类可以了解到AI系统的决策过程,知道它为何会做出这样的决策。有了可解释性,人类可以理解AI系统的决策,以便进行必要的监督和控制。

(六)监督AI决策过程

AI能够处理海量数据并进行快速决策,可以作为辅助决策的工具,同时设立人工审查环节,确保AI的决策符合道德、法律等约束。对于决策优化和监督,可以借鉴一些以人为中心的设计原则,比如让AI具有可解释性,让决策过程能够通过人类可以理解的方式进行呈现,这样人类可以对决策进行监督和纠错。

AI 监督决策过程。增强AI解释性的一个重要方法是可视化技术,比如生成对抗网络的生成过程可视化、卷积神经网络中特征图的可视化等。此外,期望最大化算法(Expectation-Maximization Algorithm,简称EM算法),通过最大化对数似然函数的期望,使得AI的决策更加透明和合理。包括人工审查、人工判断,让AI中保持一定的人工控制成分。这是一个必需的设定。重要决策由人主导:AI系统可以被设计为提出建议,但最终决策权在人。例如在危机管理,医疗诊断,金融交易等领域,尽管AI可能对各种方案进行推理和预测,但关键决策需要由人类专家进行。这就需要AI系统具备高度的透明性和可解释性,以便人类可以理解AI的推理和预测过程。

可以通过预设规则和约束来控制AI的行为。例如,无人驾驶车在设计时就设定一些基本的交通规则和安全规则,让AI在这些规则的约束下行驶。这种规则可以到达一定的控制效果,但如果遇到复杂的道德和伦理问题,这种方法可能表现得有些无力。

(七) 防止AI欺骗人类

目前大多数AI系统都只是执行程序而已,但是,如果AI具备了意识,那么它就可以有自己的思考方式,可能会面临道德、伦理等方面的问题,比如AI可能会对人类进行攻击或者操纵。此外,如果AI具有感知功能,在一些特殊环境下,人类就有可能失去对环境的掌控,从而面临一些系统崩溃或者控制失误等问题。

实现AI不欺骗人类,首先AI的设计和训练过程中,就需要严格遵守一定的道德规范和法律法规,训练数据必须真实可信,不得偏颇,可操作性强。其次,AI系统应具备自我监控和警告功能,一旦检测到可能的欺骗行为,能够及时发出警告或者自我纠正。而对于被外界利用、黑客攻击引发的欺骗行为,需要提升AI系统的安全防范能力,例如实施最新的加密技术、尽可能降低系统漏洞、设置防火墙等。此外,社会应当建立完善的AI监管机制,明确AI欺骗行为的法律责任。

引入一些鲁棒性设计,让 AI 能够抵御一些外部的攻击或欺骗。首先,可以通过设置适当的运行边界来防止AI的滥用,即设定一些阈值,当AI的某些行为出现异常时,立即做出警告或者启动紧急程序。其次,可以配备一些系统监控模块,不断检测AI的运行状态,发现异常立即通知人工处理。最后,加强AI的安全性,对AI的操作权限进行严格的控制,防止AI被黑客等外部因素滥用。

(八)最终控制方法

利用一阶谓词系统的不完备性作为防护手段。一阶谓词逻辑在数学逻辑中又称之为一阶逻辑,它是一种形式系统,其语言的公式可以表示所有的数理逻辑和数学理论。根据哥德尔定理,任何一个强大到足够容纳算术系统的形式系统,要么是不完备的,要么是不一致的。AI的数理逻辑基础使其满足这个条件,对应于计算机,就是一定有不可计算的部分。而这也可以被用来防止AI获得过多的自主权和决策能力,从而在一定程度上保护人类的权益。人类可以设定一些无法被AI系统完全理解和处理的问题,这样就可以将这些问题预留给人类处理,从而保持人类对AI的控制地位。需要注意的是,一阶谓词系统的不完备性并不能从根本上阻止AI的发展,他只能在一定程度上限制AI的能力。因为随着技术的发展,AI系统可能会找到突破这些限制的方法。因此,借助一阶谓词系统的不完备性防护手段,并非长久之计,而只能作为短期的补充控制手段。

潜伏木马。需要植入一些病毒、木马等程序,让AI也不能识别和清除,人类可以控制其开关,或者设定一些阈值,当出现问题的时候自动启动,自动传播感染。

终极开关。这是一种极端情况下的控制手段。也就是如果AI系统的行为失控,人类可以随时关闭这个系统。这需要在设计AI系统时就设计这样的“开关”,并确认在任何情况下都能生效,而不会被AI系统自己禁用掉。

 6   学会与AI共舞

首先,作为个体,我们需要接纳AI成为我们生活的一部分,一种方法是通过学习和使用ChatGPT等LLM工具,如何提出问题,如何获取有效的信息,让AI能更好地服务于我们。同时,保持一种主动学习和创新的精神,不过度依赖AI,保持对知识和技能的掌控,发挥人的灵活性和创造性。

其次,对于企业来说,AI可以作为工具来提升工作效率和效果。可以使用AI进行数据分析和预测,进行市场营销和客户关系管理,进行设计和生产等。具体的方法包括:使用AI进行自动化处理,提升生产效率;使用AI进行精准营销,提高销售额;使用AI进行智能分析,提高管理效率等。

再次,对于社会来说,AI可以用来解决一些共性的问题,例如老人照顾和消除贫困。例如,可以使用AI提供基本服务,例如自动预约、智能提醒等;也可以使用AI提供语音陪聊的服务,帮助解决老人的孤独问题。另外,AI也可以用来解决教育和就业的问题,例如使用AI进行个性化教育,提高教育质量和效果;使用AI进行智能招聘和培训,提高就业质量和效率。

最后,随着AI的发展出现,涌现现象出现,我们可能会面临一个新的问题:AI会不会有意识?这是一个既深奥又扑朔迷离的问题。对于现在的我们来说,可能需要做的准备包括:学习和理解AI,了解其可能的发展趋势和影响;建立和完善与AI相关的法律和伦理规范,保障人权和公正;提高自身的知识和技能,防止被AI替代。

防范措施很重要,但是让AI变得“完全可控”是非常困难的,因为AI具有自我学习、自我进化等能力。因此,我们只能通过建立一系列监管制度来对AI的发展进行约束,并且不断依靠技术手段来弥补这种监管的不足。此外,要建立跨领域、跨行业的合作平台,共同应对AI未来可能对人类带来的挑战。

AI这个潘多拉的魔盒已经打开,不可能再关上了。人类干不过AI,只能是加入,主动拥抱。或许碳基生命的出现就是为了引导出硅基生命,这样的宿命面前,我们不能坐以待毙,要么加入他们要么控制他们,相信人类的智慧一定会找到一个合理的切入点。

发表回复