​Nature首发!一种AI时代科研新范式,开拓未知领域

AI与各个科学领域结合后,正在发生着一场充满潜力和挑战的科技革命。

通过探索理论、设计实验、分析数据,人工智能将为我们所熟知的科学发现提供超级动力。

8月2日,谷歌团队研究人员在Nature上发表了一项研究——人工智能时代的科学发现,总结了AI在科学发现中的应用和进展。

论文地址:https://www.nature.com/articles/s41586-023-06221-2

如何收集、转换和理解数据为形成科学见解和理论奠定了基础。

2010年代初兴起的深度学习,极大地扩展了这些科学发现过程的范围和雄心。

人工智能越来越多地应用于各个科学学科,以整合海量数据集、完善测量、指导实验、探索与数据相匹配的理论空间,以及提供与科学工作流程相结合的可操作的可靠模型,从而实现自主发现。

数据收集和分析是科学理解和发现的基础,也是科学的两大核心目标、定量方法和新兴技术。

20世纪50年代,数字化的引入为计算机在科学研究中的普遍应用铺平了道路。

自2010年代以来,数据科学的兴起使AI能够从大型数据集中识别出与科学相关的模式,从而提供有价值的指导。

尽管科学实践和过程在科学研究的各个阶段各不相同,但人工智能算法的发展跨越了传统上孤立的学科。

这种算法可以增强科学研究的设计和执行,正在成为研究人员不可或缺的工具。

科学发现是一个多方面的过程,涉及几个相互关联的阶段,包括假设形成、实验设计、数据采集和分析

近来,AI在科学方面最新的进展,就包括解开50年前的蛋白质折叠问题,以及人工智能驱动的数百万粒子的分子系统模拟,证明了人工智能解决具有挑战性的科学问题的潜力。

与任何新技术一样,AI4Science 的成功取决于,我们是否有能力将其融入日常实践并了解其潜力和局限性。

在科学发现过程中,广泛采用人工智能的障碍包括发现过程每个阶段特有的内部和外部因素,以及对方法、理论、软件和硬件的实用性和潜在滥用的担忧。

论文中,研究人员将探讨人工智能科学的发展并解决关键问。

AI辅助科学研究数据采集与管理实验平台收集的数据集规模和复杂程度不断增加,导致科学研究越来越依赖实时处理和高性能计算,以选择性地存储和分析高速生成的数据。

数据选择

一个典型的粒子碰撞实验每秒产生超过100 TB的数据。这类科学实验正在挑战现有数据传输和存储技术的极限。

在这些物理实验中,99.99%以上的原始仪器数据都是背景事件,必须实时检测并丢弃,以管理数据速率。

为了识别罕见事件,便于未来的科学研究,深度学习方法用「搜索离群信号」的算法取代了预先编程的硬件事件触发器,以检测压缩过程中可能遗漏的意外或罕见现象。

背景过程可使用深度自动编码器生成模型。

自动编码器会为以前未见过的、不属于背景分布的信号(罕见事件)返回较高的损失值(异常得分)。与有监督异常检测不同,无监督异常检测不需要标注,已广泛应用于物理学、神经科学、地球科学、海洋学和天文学。

数据标注

训练有监督模型需要带有标注的数据集,这些标注可提供有监督信息,以指导模型训练,并根据输入估计目标变量的函数或条件分布。

在生物学领域,为新表征的分子分配功能和结构标签的技术对于监督模型的下游训练至关重要,因为实验生成标签非常困难。

例如,尽管下一代测序技术不断发展,但只有不到1%的测序蛋白质标注了生物学功能。

另一种数据标注策略,是利用在人工标注数据上训练的智能体模型来标注未标注的样本,并利用这些预测的伪标签来监督下游预测模型。

相比之下,标签传播则是通过基于特征嵌入构建的相似性图将标签扩散到未标记的样本中。

除了自动标注外,主动学习还能确定需要人工标注的信息量最大的数据点或需要进行的信息量最大的实验。

通过这种方法,可以用较少的专家提供的标签来训练模型。数据标注的另一种策略是利用领域知识制定标注规则。

数据生成

随着训练数据集的质量、多样性和规模的提高,深度学习的性能也在不断改善。

创建更好模型的一个有效方法是,通过自动数据增强和深度生成模型,生成额外的合成数据点来增强训练数据集。

除了人工设计此类数据扩增外,强化学习方法还能发现一种自动数据扩增策略,这种策略既灵活又与下游模型无关。

深度生成模型,包括变异自动编码器、生成对抗网络、归一化流和扩散模型,可以学习底层数据分布,并从优化的分布中采样训练点。

生成式对抗网络已被证明可用于科学图像,因为它们可以合成许多领域的逼真图像。

概率编程是生成模型中的一种新兴技术,并将数据生成模型表达为计算机程序。

学习科学数据有意义的表示深度学习可以提取不同抽象程度的科学数据的有意义表征,并对其进行优化以指导研究,通常是通过端到端学习。

高质量的表征应尽可能多地保留数据信息,同时保持简单易懂。

有科学意义的表征应结构紧凑、有鉴别性、能区分潜在的变异因素,并能编码可在多项任务中通用的潜在机制。

在此,研究人员将介绍满足这些要求的3种新兴策略:几何先验、自监督学习、语言建模。

几何先验

由于几何和结构在科学领域发挥着核心作用,因此在学习表征中整合「几何先验」已被证明是有效的。

对称是几何学中一个被广泛研究的概念。它可以用不变性和等差性来描述来数学函数的行为,以表示神经特征编码器在一组变换下的行为。

在科学图像分析中,物体在图像中平移时不会发生变化,这意味着图像分割掩码是平移等变的,因为当输入像素平移时,它们会发生等效变化。

通过增加训练样本,将对称性纳入模型可使AI在有限的标注数据中受益,并可改善对与模型训练过程中遇到的输入明显不同的输入的外推预测。

几何深度学习

图神经网络,已成为对具有潜在几何和关系结构的数据集进行深度学习的主要方法。

从广义上讲,几何深度学习包括,发现关系模式 ,并通过神经信息传递算法,以图形和变换组的形式编码的局部信息。

自监督学习

当只有少数标记样本可用于模型训练,或当为特定任务标记数据成本过高时,监督学习可能是不够的。

在这种情况下,利用标记和未标记数据可以提高模型性能和学习能力。

自监督学习是一种技术,让模型能够在不依赖显式标签的情况下学习数据集的一般特征。

自监督学习是一个重要的预处理步骤,它可以在大型无标签数据集中学习可转移的特征,然后在小型有标签数据集中微调模型,以执行下游任务。

这种对科学领域有广泛的了解的预训练模型,是通用预测器,可适用于各种任务,从而提高标注效率,超越纯监督方法。

语言建模

掩码语言建模是一种流行的方法,用于自监督学习自然语言和生物序列。

随着自然语言和生物序列处理的不断发展,它们为彼此的发展提供了信息。

在训练过程中,目标是预测序列中的下一个token,而在基于掩码的训练 中,自监督任务是使用双向序列上下文恢复序列中的掩码token。

蛋白质语言模型可以,编码氨基酸序列以捕获结构和功能特性,并评估病毒变体的进化适应性。

Transformer架构

Transformers是一种神经结构模型,可以通过灵活模拟任意token对之间的相互作用,来处理token序列,超越了早期使用递归神经网络进行序列建模的努力。

虽然Transformers统一了图神经网络和语言模型,但Transformers的运行时间和内存占用可能与序列长度成二次方关系,从而导致远程建模,和线性化注意机制在效率方面面临挑战。

因此,无监督或自监督生成式预训练变换器被广泛使用,随后进行参数高效微调。

神经算子

标准神经网络模型可能无法满足科学应用的需要,因为它们假定数据离散度是固定的。

这种方法不适用于以不同分辨率,和网格收集的许多科学数据集。

此外,数据通常是从连续域中的潜在物理现象中采样的,

神经算子通过学习函数空间之间的映射来学习,不受离散化影响的表征。

神经算子保证离散化不变,这意味着它们可以处理任何离散化的输入,并在网格细化时收敛到一个极限。

神经算子一旦训练完成,就可以在任何分辨率下进行评估,无需重新训练。相比之下,当部署过程中的数据分辨率与模型训练时的数据分辨率发生变化时,标准神经网络的性能就会下降。

基于人工智能的科学假设生成可检验的假设是科学发现的核心。

科学假设的黑盒预测器

为科学探究确定有希望的假设,需要有效地检查许多候选方案,并选择那些可以最大限度地提高下游模拟和实验产量的假设。

在药物发现中,高通量筛选可以评估数千到数百万个分子,算法可以优先考虑实验研究哪些分子。模型可以被训练来预测实验的效用,例如相关的分子特性,或符合观察结果的符号公式。

然而,对于许多分子来说,这些预测因子的实验事实数据可能不可用。

因此,弱监督学习方法可以用来训练这些模型,其中嘈杂、有限或不精确的监督被用作训练信号。

这些方法可以经济有效地替代人类专家的标注、昂贵的硅学计算或更高保真的实验。

在高保真模拟上训练的AI方法已被用于高效筛选大型分子库。

为了进一步提高这些过程的效率,AI选择的候选方案可以被送到中等或低吞吐量实验中,以便使用实验反馈对候选物进行持续细化。

结果可以使用主动学习和贝叶斯优化反馈到AI模型中,使算法能够改进其预测,并专注于最有前途的候选方案。

当假设涉及分子等复杂对象时,人工智能方法就变得非常有价值。

例如,在蛋白质折叠方面,AlphaFold2可以根据氨基酸序列预测蛋白质的三维原子坐标,其精确度甚至可以达到原子级别,即使蛋白质的结构与训练数据集中的任何蛋白质都不同。

这一突破促进了各种人工智能驱动的蛋白质折叠方法的发展,如RoseTTAFold106。

除了正向问题,人工智能方法也越来越多地用于逆向问题,旨在了解产生一组观测数据的因果因素。

逆向问题,如逆向折叠或固定骨架设计,可以使用在数百万个蛋白质结构上训练过的黑盒预测器,根据蛋白质骨架三维原子坐标预测氨基酸序列。

然而,此类黑盒人工智能预测器需要大量训练数据集,尽管减少了对现有科学知识的依赖,但可解释性有限。

导航组合假设空间

尽管对所有与数据相匹配的假设进行采样是一件令人生畏的事情,但一个可以管理的目标是寻找一个好的假设,这可以表述为一个优化问题。

与依赖人工设计规则的传统方法相比,人工智能策略可用于估算每次搜索的回报,并优先选择价值较高的搜索方向。

通常采用强化学习算法训练的智能体来学习策略。

该智能体学会在搜索空间中采取使奖励信号最大化的行动,奖励信号可定义为反映所生成假设的质量或其他相关标准。

为了解决优化问题,可以使用进化算法来解决符号回归任务。该算法生成随机符号定律作为初始解决方案集。

在每一代中,候选解决方案会有轻微变化。

算法会检查任何修改所产生的符号定律是否比之前的解决方案更适合观测结果,并将最好的解决方案保留到下一代。

不过,强化学习方法正逐渐取代这一标准策略。

强化学习利用神经网络,通过添加预定义词汇表中的数学符号,并利用所学策略决定下一步添加哪个符号,从而依次生成数学表达式。

数学公式表示为一棵解析树。学习策略将解析树作为输入,以决定扩展哪个叶节点和添加哪个符号。

使用神经网络解决数学问题的另一种方法是,将数学公式转化为二进制符号序列。

然后,神经网络策略可以按概率顺序每次增加一个二进制字符。

通过设计一个奖励来衡量反驳猜想的能力,这种方法可以在没有数学问题的先验知识的情况下,找到对数学猜想的反驳方法。

组合优化也适用于发现具有理想药物性质的分子等任务,其中分子设计中的每一步,都是一个离散的决策过程。

在这个过程中,部分生成的分子图被给出作为学习策略的输入,对在哪里添加新原子以及在分子中的选定位置添加哪个原子做出离散的选择。

通过迭代执行这个过程,该策略可以生成一系列可能的分子结构,根据它们对目标属性的适应性进行评估。

AI智能体学习的策略能预见一些行动,这些行动最初似乎不合常规,但事实证明是有效的。

例如,在数学中,监督模型可以识别数学对象之间的模式和关系,并帮助指导直觉并提出猜想。

这些分析指向了以前未知的模式,甚至是世界的新模型。

然而,强化学习方法可能无法在模型训练期间很好地泛化到看不见的数据,因为一旦智能体找到一系列运行良好的动作,它可能会陷入局部最优。

为了提高泛化,需要一些探索策略来收集更广泛的搜索轨迹,这些轨迹可以帮助智能体在新的和修改的设置中表现得更好。

优化可微分假设空间

科学假设通常采用离散对象的形式,例如物理学中的符号公式或制药和材料科学中的化合物。

尽管组合优化技术在其中一些问题上取得了成功,但可微空间也可以用于优化,因为它适合基于梯度的方法,可以有效地找到局部最优。

为了能够使用基于梯度的优化方法,有两种方法经常被使用。

第一种是使用VAE等模型,将离散的候选假设映射到潜在可变空间中的点。

第二种方法是将离散假设松弛为可在可微分空间中优化的可微分对象。

这种松弛可以采取不同的形式,例如用连续变量替换离散变量,或使用原始约束条件的软版本。

物理学中的符号回归应用使用语法VAE。这些模型使用上下文无关语法将离散符号表达式表示为解析树,并将解析树映射到可微分的潜在空间中。

然后采用贝叶斯优化法优化符号定律的潜在空间,同时确保表达式在语法上有效。

在许多科学学科中,假设空间可能远远大于实验所能考察的范围。

因此,我们迫切需要一种方法,在这些基本未开发的区域中高效搜索并识别高质量的候选解决方案。

AI驱动的实验与模拟通过实验评估科学假设对于科学发现至关重要。

然而,实验室实验的成本可能过于高昂且不切实际。

计算机模拟作为一种有前景的替代方案已经出现,对比实验它具有更高效灵活的优势。

虽然模拟依赖于手工制定的参数和开创式的方法来模拟真实场景,但与物理实验相比,还需要在准确性和速度之间进行权衡,需要理解其中的基本机制。

然而,随着深度学习的出现,通过识别和优化假设以进行高效测试,并赋予计算机模拟联结观察结果与假设的能力,这些挑战正在得到解决。

高效评估科学假设

AI系统提供了实验设计和优化工具,可以增强传统的科学方法,减少所需实验的数量并节省资源。

具体而言,AI系统可以协助实验测试的两个重要步骤:计划和引导。

在传统方法中,这些步骤往往需要反复试验,这可能是低效的、昂贵的,甚至有时可能危及生命。

AI计划提供了一种系统化的方法来设计实验,优化其效率,并探索未知领域。

同时,AI引导将实验过程导向到高产出的假设,使系统能够从先前的观察中学习并调整实验过程。

这些AI方法可以基于模拟和先验知识来进行模型建立,也可以基于纯机器学习算法进行模型构建。

AI系统可以通过优化资源使用和减少不必要的调查来协助实验计划。与假设搜索不同,实验计划涉及到科学实验设计中涉及的程序和步骤。

一个例子是化学合成计划。化学合成计划涉及到找到一系列步骤,通过这些步骤可以将目标化合物从现有化合物合成出来。

AI系统可以设计合成路径以得到所需的化合物,从而减少人工干预的需求。

主动学习也被用于材料发现和合成。主动学习涉及与实验反馈进行迭代交互,以改进假设。材料合成是一个复杂而资源密集型的过程,需要对高维参数空间进行高效的探索。

主动学习利用不确定性估计来探索参数空间,并尽可能少地减少不确定性。

在进行实验过程中,决策常常需要实时调整。然而,当只依靠人类经验和直觉时,这个过程可能难以进行或者容易出错。强化学习提供了一种替代方法,可以持续地对不断变化的环境做出反应,并最大化实验的安全和保证成功率。

例如,在磁控托卡马克等离子体的实验中,强化学习方法通过与托卡马克模拟器进行交互来优化控制过程的策略(如下图)。

在另一项研究中,一个强化学习代理根据实时反馈(如风速和太阳高度)来控制平流层气球,并寻找有利的风流用于导航。

在量子物理学中,实验设计需要根据未来复杂实验的最佳选择进行动态调整,而强化学习方法可以通过迭代地设计实验并从中获得反馈来克服这个问题。

例如,强化学习算法已经被用于优化量子系统的测量和控制,从而提高实验效率和准确性。

利用模拟从假设中推导观测量

计算机模拟是一种强大的工具,可以从假设中推导观测量,实现对那些不直接可测试的假设进行评估。

然而,现有的模拟技术在很大程度上依赖于人类对所研究系统底层机制的理解和知识,这可能使得模拟不够优化和高效。

AI系统可以通过更准确高效地学习来增强计算机模拟,更好地拟合复杂系统的关键参数,解决控制复杂系统的微分方程,并对复杂系统的状态进行建模。

科学家通常通过创建涉及参数化形式的模型来研究复杂系统,这需要专业领域的知识来识别参数的初始符号表达式。

比如,分子力场是可解释的,但在表示各种函数方面能力有限,并且需要强大的归纳偏见或科学知识来生成。

为了提高分子模拟的准确性,已经开发了一种基于AI的神经势能,它适合昂贵但准确的量子力学数据,取代传统的力场。

此外,不确定性量化已被用于在高维自由能面中定位能量障碍,从而提高分子动力学的效率169(下图)。

对于粗粒化分子动力学,AI模型可以通过确定系统需要从学习的隐藏复杂结构中粗粒化的程度,来减少大系统的计算成本。

在量子物理学中,由于其灵活性和准确拟合数据的能力,神经网络已经取代了手动估计的波函数或密度泛函的符号形式。

微分方程对于模拟空间和时间中复杂系统的动态是至关重要的。与数值代数求解器相比,基于AI的神经求解器更加无缝地融合数据和物理。

这些神经求解器通过将神经网络基于领域知识进行建模,将物理与深度学习的灵活性相结合(下图)。

AI方法已被应用于各个领域的微分方程求解,包括计算流体动力学,预测玻璃体系的结构,解决难解化学动力学问题,以及解决Eikonal方程以表征地震波的传播时间。

在动力学建模中,神经常微分方程可以对连续时间进行建模。神经网络可以通过物理信息损失对Navier-Stokes方程的解在时空域中进行参数化。

然而,标准的卷积神经网络对于解的细粒度特征建模能力有限。这个问题可以通过学习用神经网络对函数之间的映射进行建模的运算符来解决。

此外,求解器必须能够适应不同的域和边界条件,这可以通过将神经微分方程与图神经网络相结合来通过图划分实现。

统计建模是一种强大的工具,可以通过对复杂系统中状态的分布进行建模来提供对复杂系统的全面定量描述。

归一化流可以使用一系列可逆神经网络将任何复杂分布映射到先验分布(例如简单的高斯分布),并进行反向映射。

虽然计算成本较高(通常需要数百或数千个神经层),但归一化流提供了精确的密度函数,从而实现了采样和训练。

与传统模拟不同,归一化流可以通过直接从先验分布中进行采样并应用神经网络来生成平衡状态,这样计算成本就是固定的。

这增强了格点场和规范理论中的采样,改进了马尔可夫链蒙特卡洛方法,否则可能由于模态混合而无法收敛。

重大挑战为了利用科学数据,模型必须建立在人类专业知识之上,再利用上模拟来加强模型的表现。

这种整合为科学发现开辟了新的契机。

然而,为了进一步提升AI在科学领域的影响,需要在理论、方法、软件和硬件基础设施方面取得重大进展。

跨学科的合作对于实现通过AI推进科学的全面和实用方法至关重要。

实践考虑

由于测量技术的限制会产生不完整的数据集、有偏差或相互冲突的读数,并且由于隐私和安全问题的限制,导致了的数据可访问性不足,科学数据集通常不太适合用来做AI分析。

需要标准化和透明的格式来减轻数据处理的工作量。

模型卡片和数据表是一些努力的例子,用于记录科学数据集和模型的操作特性。

此外,联邦学习和加密算法可以用于防止将具有高商业价值的敏感数据公开发布到公共领域。

利用开放的科学文献,自然语言处理和知识图谱技术可以促进文献挖掘,有助于材料发现,化学合成和治疗科学的进步。

深度学习的使用对于人类参与的AI驱动设计、发现和评估提出了复杂的挑战。

为了自动化科学工作流程,优化大规模模拟代码和操作仪器,自主机器人控制可以利用预测并在高通量合成和测试线上进行实验,创建自主实验室。

在材料探索中早期应用生成模型表明,可以识别出数百万种,具有期望性能和功能的可能材料,并对其可合成性进行评估。

例如,King等人将逻辑AI和机器人技术结合起来,自主生成关于酵母的功能基因组学假设,并使用实验室自动化来实验性地测试这些假设。

在化学合成中,AI优化候选合成路径,然后机器人根据预测的合成路径引导化学反应。

实施AI系统涉及复杂的软件和硬件工程,需要一系列相互依赖的步骤,从数据筛选和处理到算法实现和用户应用界面设计。

实现中的微小差异可能导致性能上的显著变化,并影响将AI模型整合到科学实践中的成功。

因此,需要考虑数据和模型的标准化。由于模型训练的随机性、模型参数的变化和不断变化的训练数据集,AI方法可能存在可重复性问题,这些问题既与数据相关又与任务相关。

标准化的基准测试和实验设计可以减轻这些问题。改善可重复性的另一个方向是通过发布开放模型、数据集和教育项目的开源倡议。

算法创新

为了对科学理解做出贡献或自主地获取科学理解,需要进行算法创新,建立一个在整个科学过程中使用最优算法的基础生态系统。

超出分布范围的泛化问题是AI研究的前沿。

在特定范围的数据上训练的神经网络可能会发现不适用于不同范围的数据的规律,因为后者的基础分布发生了偏移。

虽然许多科学定律并不是普遍适用的,但一般来说也会具有广泛的适用性。而与最先进的AI相比,人类大脑可以更好、更快地适应修改后的环境。

有一个很有意思的假设是这么说的,人类不仅根据自己观察到的内容建立的统计模型,而且还建立了一个因果模型。

这是一个由所有可能的干预(例如,不同的初始状态、不同的代理的行为或不同的情况)来进行索引的统计模型集合。

将因果性纳入AI仍然是一个尚待研究的领域,还有很多工作要做。

自监督学习等技术在科学问题上具有巨大潜力,因为它们可以利用大量未标记的数据,并将里面包含的知识转移给低数据领域。

然而,目前的迁移学习方案可能是特定情况下的临时解决方案,缺乏理论指导,并且容易受到基础分布的变化的影响。

虽然一些初步尝试已经解决了这一挑战,但还需要进一步探索,以系统地衡量跨领域的可迁移性,并防止负面迁移。

此外,为了解决科学家关心的困难,AI方法的开发和评估必须在现实世界的情况下进行,例如在药物设计中可能实现的合成路径,并在将其转移到实际应用之前包括经过良好校准的不确定性估计来评估模型的可靠性。

科学数据是多模态的,包括图像(例如宇宙学中的黑洞图像)、自然语言(例如科学文献)、时间序列(例如材料的热黄变)、序列(例如生物序列)、图(例如复杂系统)和结构(例如3D蛋白-配体构象)。

AI方法通常作为黑盒操作,意味着用户无法完全理解输出是如何生成的,以及在生成输出时哪些输入是关键的。

黑盒模型可能会降低用户对预测的信任,并且在必须在实现之前理解模型输出的领域中应用有限,例如在人类太空探索中,在预测指导政策的领域中,比如在气候科学中。

尽管有大量的解释技术,透明的深度学习模型仍然难以实现。

然而,人类大脑能够综合高层次的解释,即使不完美,也能说服其他人类。

这提供了希望,通过在类似高层次抽象的现象模拟下,未来的AI模型将提供至少与人类大脑提供的一样有价值的解释和理解。

这也表明,研究高级认知可能会激发未来的深度学习模型,将当前的深度学习能力与操纵可言述抽象、因果推理和超出分布泛化的能力结合起来。

AI对于科学研究事业的影响

展望未来,对AI专业知识的需求将受到两种力量的影响。

首先,一些领域马上就能能从AI应用中受益,比如自主实验室。

其次,智能工具能够提升最先进技术水平,并创造新机会,比如研究在实验中无法观测到的生物、化学或物理过程的长度和时间尺度相关的研究。

基于这两个力量,我们预计研究团队的组成将发生变化,包括AI专家、软件和硬件工程师,以及涉及各级政府、教育机构和公司的新形式合作。

最近最先进的深度学习模型不断增长10,234。这些模型由数百万甚至数十亿个参数组成,并且每年的规模增长了十倍。

训练这些模型涉及通过复杂参数化的数学运算传递数据,参数更新以将模型输出推向所需的值。

然而,计算和数据要求以计算这些更新是巨大的,导致了巨大的能源消耗和高昂的计算成本。

因此,大型科技公司已经大量投资于计算基础设施和云服务,推动了规模和效率的极限。

虽然盈利和非学术组织拥有大规模计算基础设施,但高等教育机构在跨学科整合方面可能更为优势。

此外,学术机构往往拥有独特的历史数据库和测量技术,这些可能在其他地方不存在,但对于AI4Science是必要的。

这些互补的资产促进了新型产学合作模式,这可以影响所选择的研究问题。

随着AI系统逼近并超越人类的性能,将其作为例行实验室工作的替代品变得可行。

这种方法使研究人员能够从实验数据中开发预测模型,并选择实验来改进这些模型,而无需手动执行繁重和重复的任务。

为了支持这种范式转变,教育计划正在涌现,培训科学家在设计、实施和应用实验室自动化和AI在科学研究中。这些计划帮助科学家了解何时使用AI是合适的,并防止对AI分析的错误解释。

结论AI系统可以为科学理解做出贡献,使我们能够研究那些以其他方式无法可视化或探测的过程和对象,并通过从数据中构建模型并结合模拟和可扩展计算,来系统地激发创意。

为了实现这一潜力,必须通过负责任和深思熟虑的技术部署来解决使用AI所带来的安全问题。

在科学研究中负责任地使用AI,科学研究需要确定AI系统的不确定性、误差和效用水平。

这种理解对于准确解释AI输出并确保我们不过分依赖可能存在缺陷的结果至关重要。

随着AI系统不断发展,优先考虑可靠的实施并采取适当的保障措施是最大限度降低风险和最大化收益的关键。

AI有潜力揭示以前无法触及的科学发现。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

《西部世界》真来了!斯坦福爆火「小镇」开源,25个AI智能体恋爱交友

【导读】斯坦福25个AI智能体「小镇」终于开源了,GitHub狂揽3.9k星,《西部世界》即将走进现实。

准备好,此前曾轰动整个AI社区的斯坦福智能体小镇,现在已经正式开源!

项目地址:https://github.com/joonspk-research/generative_agents在这个数字化的「西部世界」沙盒虚拟城镇中,有学校、医院、家庭。25个AI智能体不仅能在这里上班、闲聊、social、交友,甚至还能谈恋爱,而且每个Agent都有自己的个性和背景故事。不过,它们对于自己生活在模拟中,可是毫不知情。

英伟达高级科学家Jim Fan评论道——

斯坦福智能体小镇是2023年最激动人心的AI Agent实验之一。我们常常讨论单个大语言模型的新兴能力,但是现在有了多个AI智能体,情况会更复杂、更引人入胜。一群AI,可以演绎出整个文明的演化进程。

现在,首先受到影响的,或许就是游戏领域。总之,前方有无限的新可能!

网友:众游戏厂商们,你们懂我意思吧?

很多人相信,斯坦福的这篇论文,标志着AGI的开始。

可以想象,各种RPG和模拟类游戏都会用上这种技术。网友们也非常激动,脑洞大开。有想看神奇宝贝的,有想看谋杀探案故事的,还有想看恋爱综艺的……「我已经等不及看AI智能体之间的三角恋剧情了。」

「《动物之森》中重复、沉闷的对话,所有村民共有的一维人格系统,都太令人失望了。任天堂赶快学学吧!」

「可以让《模拟人生》移植一下这个吗?」

如果能在《神界》这样的经典RPG游戏中,看到AI在NPC上运行,整个游戏体验都会被颠覆!」

有人还畅想:这项技术在企业空间中也有很多应用场景,比如员工如何和不同的工作环境/流程变化互动。

当然,也有人表示,你们激动个啥?其实我们一直都生活在这样的模拟中,只不过我们的世界有更多的算力罢了。

是的,如果我们把这个虚拟世界放大到足够多倍,我们肯定能看到自己

Karpathy:AI智能体,就是下一个前沿

此前,前特斯拉总监、OpenAI大牛Karpathy就表示,如今AI智能体才是未来最前沿的方向。OpenAI的团队最近5年把时间花在了别的地方,但现在Karpathy相信,「Agent代表着AI的一种未来。」

「西部世界」中的25个AI智能体

在美剧《西部世界》中,被预设了故事情节的机器人被投放到主题公园,像人类一样行事,然后被重置记忆,在新一天再被投放进自己所在的核心故事情节。

而在今年4月,斯坦福和谷歌的研究者竟然构建出了一个虚拟小镇,让25个AI智能体在其中生存、从事复杂行为,简直堪称是《西部世界》走进现实。

论文地址:https://arxiv.org/pdf/2304.03442.pdf

架构

为了生成智能体,研究者提出了一种全新架构,它扩展了大语言模型,能够使用自然语言存储Agent的经历。随着时间的推移,这些记忆会被合成为更高级别的反射,智能体可以动态检索它们,来规划自己的行为。最终,用户可以使用自然语言和全镇的25个Agent都实现交互。

如上,生成式智能体的架构实现了一个「检索」功能。这一功能将智能体的当前情况作为输入,并返回记忆流的一个子集传递给语言模型。而检索功能有多种可能的实现方式,具体取决于智能体在决定如何行动时考虑的重要因素。生成式智能体架构面临一个核心挑战,就是如何管理大量必须保留的事件和记忆。为了解决这个问题,架构的核心是记忆流(memory stream),即一个记录智能体全部经验的数据库。智能体可以从记忆流中检索相关记忆,这有助于它规划行动,做出正确反应,并且每次行动都会反馈记录到记忆流中,以便递归地改进未来行动。另外,研究还引入了第二种类型的记忆——反思(reflection)。反思是智能体根据最近经历生成的高级抽象思考。

在这项研究中,反思是周期性触发的过程,只有当智能体判断最近一系列事件的重要性评分,累积超过设定阈值时,才会启动反思机制。生成式智能体为了创建合理的规划,它们会自上而下递归生成更多的细节。而这些规划最初只是粗略的描述了当日所要做的事情。

在执行规划的过程中,生成智能体会持续感知周围环境,并将感知到的观察结果存储到记忆流中。通过利用观察结果作为提示,让语言模型决定智能体下一步行动:继续执行当前规划,还是做出其他反应。在实验评估中,研究人员对这一框架进行了控制评估,以及端到端的评估。控制评估是为了了解智能体能否独立产生可信个体行为。而端到端评估,是为了了解智能体的涌现能力以及稳定性。比如,Isabella策划一个情人节party邀请大家来。12个智能体中,7个人还在考虑中(3个人有了别的计划,还有4个人没有想法)。这一环节与人类相处模式很相似。

像真人一样交互

在这个名为Smallville的沙盒世界小镇中,区域会被标记。根节点描述整个世界,子节点描述区域(房屋、咖啡馆、商店),叶节点描述对象(桌子、书架)。智能体会记住一个子图,这个子图反映了他们所看到的世界的各个部分。研究者编写了一段自然语言,来描述每个智能体的身份,包括它们的职业、与其他智能体的关系,作为种子记忆。比如,智能体John Lin的种子记忆就是这样的——

John Lin是一名药店店主,十分乐于助人,一直在寻找使客户更容易获得药物的方法。John Lin的妻子Mei Lin是大学教授,儿子Eddy Lin正在学习音乐理论,他们住在一起,John Lin非常爱他的家人。John Lin认识隔壁的老夫妇Sam Moore和Jennifer Moore几年了,John Lin觉得Sam Moore是一个善良的人。John Lin和他的邻居山本百合子很熟。John Lin知道他的邻居TamaraTaylor和Carmen Ortiz,但从未见过他们。John Lin和Tom Moreno是药店同事,也是朋友,喜欢一起讨论地方政治等等。

以下就是John Lin度过的一天早晨:6点醒来,开始刷牙、洗澡、吃早餐,在出门工作前,他会见一见自己的妻子Mei和儿子Eddy。

就这样,当模拟开始时,每个智能体都有属于自己的种子记忆。这些智能体相互之间会发生社会行为。当他们注意到彼此时,可能会进行对话。随着时间推移,这些智能体会形成新的关系,并且会记住自己与其他智能体的互动。一个有趣的故事是,在模拟开始时,一个智能体的初始化设定是自己需要组织一个情人节派对。随后发生的一系列事情,都可能存在失败点,智能体可能不会继续坚持这个意图,或者会忘记告诉他人,甚至可能忘了出现。幸运的是,在模拟中,情人节派对真实地发生了,许多智能体聚在了一起发生了有趣的互动。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

硅潮访谈录|百度CIO李莹:AI原生思维重构办公场景

6月底的一天,顶着北京的高温,我们在位于上地十街的百度大厦拜访了百度CIO李莹女士。

大语言模型的出现对全球所有科技大厂来说都是一道分水岭,前瞻布局的微软重新站在了硅谷之巅,十年磨剑的百度也成为万众瞩目的对象,甚至我们在海淀的咖啡馆里遇到挂着百度工牌的程序员,都要忍不住多瞄两眼。

百度的确有很强的先发优势。从算力层的AI芯片昆仑芯,到框架层的PaddlePaddle(飞桨),到模型层的文心大模型,再到应用层面的搜索、文库、协同办公软件等,百度在AI链条上的每一个环节都有布局,“全栈”的优势明显。

深耕AI十年,此刻又站在新一轮科技革命的前夜,百度如何快速拥抱变化?大模型又从哪些方面改变了百度做产品的理念?以及在大模型最先影响的办公场景中,催生了哪些新的变局?带着这些问题,我们拜访了百度CIO李莹女士。

李莹博士2004年正式加入百度,曾先后带领过百度自然语言处理、推荐与个性化、知识图谱、AI技术生态、百度地图等多个核心业务。她现任百度集团副总裁、百度集团首席信息官(CIO),全面负责企业智能信息系统建设。

在访谈中,李莹的观点非常鲜明:生成式AI革命带来的不仅仅是一种可以嵌入到产品里的技术元素,更是一种新的基于AI原生的思维方式。

李莹通俗地用“Native Language(原生语言)”做了类比:母语就是原生语言的代表,我们一切思维的起点都是通过母语逻辑进行思考,表达自然而然发生;同样,AI原生思维需要回到问题的的起点,用AI的视角来思考、用AI的框架来分析,用AI的方式来解决。

比如通常我们预定一次出差行程,需要跟5~10个不同的软件接口打交道,涉及到日程、交通、酒店、资料等。在过去几十年的办公信息化场景下,人们习惯了在不同的应用之间来回切换,传统的软件思维,是我如何来改善这些接口的调用方式和处理效率。

而在AI原生思维的框架下,需要回到“如何帮助用户安排出差的一切”这个原始出发点来思考问题,比如是否能够让用户只需要对接一个助理式的入口,这个“助理”可以自然地跟用户交互,处理一切流程,而用户不需要关心这背后有多少系统能力甚至接口数量。

起点一旦发生了变化,产品设计、交互方式、流程设计、系统构建,直至底层的研发范式都会被重塑。就好比一个人更换了一种原生语言,不光口头的表达要切换成另一种语言,大脑中的思维方式也要按照新语言的语法和范式来进行组织。

用思维来驱动表达,而并非仅仅在表达层面进行改善。如果仅仅用传统思维来考虑“AI赋能”、“效率提升”这些课题,容易抓不住核心矛盾。

但难点往往也在于思维模式的转变。大语言模型如同加速器,一下打破了大家原有的状态,但惯性使然,并非所有人的状态都能快速切换。李莹也看到了这点,她在带领团队不断锤炼“AI原生思维”的同时,也在快速推动产品重构,加快办公场景的生产力提升。

作为一名“技术浓度”极高的管理者,李莹在谈及生产力变革的话题时直言不讳:这个时代如果你不会使用AI工具,很大可能会被淘汰。尤其在她眼里,高知识密度的协同办公场景天然追求效率,与大语言模型的相遇,带来的一定是场一拍即合的效率革命。

由于“近水楼台”,百度内部能够率先用上大模型的能力。比如百度旗下的智能工作平台「如流」,在百度内部已经全面搭载了文心一言——在工作人员的演示中,如流将“超级助手”作为AI能力的入口,随时可以被唤起,能够智能地帮助用户完成大量工作。

现场演示时,在“超级助手”的聊天界面中简单输入“下周我要请假五天”这么一句话,超级助手能够调用来自不同模块甚至平台的能力,不但能够自动生成请假申请界面、显示各类假期的余额,还能直接跟其他的同事协调已经计划好的会议等,俨然一个真实的助理。

令人印象深刻的还有:在我们访谈期间,百度的智能会议系统一边在做会议纪要,一边用“会议洞察”能力划分不同议题,总结出议题、观点、核心发言等重要信息。当访谈结束的时候,一份成熟的会议纪要便发给了参会的所有人。

我们在观看演示时的一种强烈感受是: 如流的“超级助手”并不是简单地“接入”百度的大模型,在UI界面上添置一个对话框,而是回到产品设计的出发点,洞察办公场景下用户的根本需求,用AI的方式去“端到端”解决问题。

在李莹看来,用AI原生思维来重构办公场景的工作才刚刚开始。办公场景如今是大模型应用层竞争最激烈的“八角笼”,对手从四面八方涌来,里面既有老牌的传统办公软件,也有用户需求敏感的协同办公玩家,还有瞄准崭新场景的AI创业公司。

在大模型浪潮的推力之下,办公场景一定会出现新的打法、新的产品、新的生态甚至新的格局。机会已经出现在远方的地平线上,只有产品力、模型力、执行力都完备的公司,才能真正的屹立潮头,笑到最后。

以下,是硅基研习社与百度CIO李莹女士的对话正文。

AI原生思维重构办公场景

硅基研习社:在办公和企业内部信息化领域,您提到过“AI原生思维”的概念,具体怎么理解?

李莹:我们可以先用一个概念来理解原生,就是Native Language(原生语言)。原生语言代表你的母语,你所有思维的起点都是通过母语的逻辑来思考的,你不会在张口说话之前还要考虑中文怎么说,这是对原生的解释。

什么叫AI原生?首先要定义解决的问题是什么,然后用AI的方式彻底解决它。反过来说,可能有些产品在AI之上做的是接入、整合或者赋能,在局部接入了一个AI的能力,例如增加一个改写或者提示等,这只是在产品层面做了AI的赋能。

如果要用AI解决根本问题,需要了解的其实是,员工为什么要在这写文档?为什么需要有一些资料的提示?分析根本需求后,用AI端到端去解决,这个逻辑会改变用户和需求之间的关系,这是一个大的逻辑,这种才是颠覆,才是全面的重塑。对产品而言,意味着从交互到流程,再到整个系统,都要为之改变,乃至实现系统过程对应的研发范式也会改变。

到最后,大家可能不会再提“AI原生”这个词,现在提是因为还在想“是什么”。一旦它成为我们的一个原生思维逻辑,比如交互上大家默认想到的就是用自然语言交互的方式优先,对应的设计、产品、系统、研发都会改变。

硅基研习社:百度在做一些产品开发时,AI原生思维对你们意味着什么?

李莹:业界有一种说法,大模型时代来了,每个产品都值得重做一遍,但是谁能真正重做一遍?百度CEO李彦宏说过,百度要做第一家公司,不是整合,不是接入,是重做、重构。

同时他也强调,一定要去做AI原生的应用,有多少大模型不关键,最关键的是有多少个AI原生的应用。应用层的突破,才能真正在这个领域获得巨大价值。

硅基研习社:前面提到从生产到研发,用AI思维重新组织程序怎么编写,模块怎么构建,甚至整个项目怎么开发推进,我们知道OpenAI的程序员可能本身就用GPT写代码,百度现在是不是也在内部做生产力的变革?

李莹:百度去年9月份就已经基于大模型做了代码生成工具Comate,现在又基于“文心一言”升级了更多丰富和高级的能力。我一直也在跟团队强调,要充分利用AI工具,要通过人机协同,在我们的研发过程中,帮助工程师去大幅提升编码效率。我们也会观察推荐的代码有多少会被员工采纳。

近期,Comate又上线了单元测试生成、代码注释、测试用例生成等新能力,这些新能力意味着整个研发过程中,有更多的工作都可以用大模型去支持。在软件研发领域,Comate的产品能力达到了国内领先水平。

虽然这一步已经对现在的生产力起到了很大的提升,但这其实也还不够。我们再往后看,未来研发的工作都会基于MaaS(model as a service),研发过程也会变成以数据驱动的,并且是面向大模型友好的,整个研发过程和方式都会进行重塑。

比如,原来的研发过程主要管理代码,但现在需要管理模型,因为有不同版本的模型;也需要管理模型相关的数据,比如预训练数据、精调数据,数据管理会变成研发管理里面像代码一样重要的东西。随之而来也包括Prompt怎么管理?这些都是我们研发过程中需要考虑的。

硅基研习社:是不是对于每一个百度员工来说,有了一个新的工具,对于他们的技能考核,或者未来的能力模型都会发生很大的变化?

李莹:我认为是的。针对办公领域,在交互模式、需求满足方式、工作流程这些维度一定都会变化。

对企业而言会带来很重要的三个维度的改变:一是产品设计逻辑和产品架构会被重塑;二是业务模式和流程会被重塑;三是组织和人才结构一定会有变化,配套的组织能力、人才要求、评价机制等等也会发生变化。当然这是一个过程,但我认为一定会走到那一步。

一场一拍即合的效率革命

硅基研习社:大模型火爆以后,办公领域是被提及最多的重塑场景之一,您怎么看待大模型对办公领域的影响?

李莹:在协同办公领域,大模型能够在这个领域率先产生更彻底、更深入的变化。为什么这么说?人工智能带来了第四次科技革命,其中一个最重要的驱动因素就是AI大模型,这也是业界共识。科技革命意味着整个生产力会颠覆性的提升,这个提升是全方位的,社会、生产、生活都会受到影响。

那为什么会在协同办公领域首先产生价值?第一,生产力变革带来效率提升,而整个协同办公领域追求的目标,就是极致的效率,这一点跟生产力变革完全吻合。

第二,在知识经济时代,一切都已经是信息化的,知识工作者的工作效率需要被赋能,企业也都希望企业的知识不流失,员工可以更快的成长,而大模型刚好是对世界认知的压缩,我们看到最早被赋能的是图像和写作,也正是因为这些技能是知识型的,因此知识工作者会最先被大模型技术赋能。

所以总结起来有两点:一是效率目标和办公领域要实现的目标是完全一致的;二是现在知识工作者贯穿在所有行业中,大模型对知识类工作又是非常擅长的。在这种情况下,不管是企业还是员工,都能首先感知到对他们带来的影响。

所以我认为,大模型在办公领域一定会最先产生彻底深入的变化,行业会存在一次重新洗牌的机会。技术从量变到质变,对大家来说都是一次机遇,谁能够有更好的能力积累、更快的转变、跑出更好的产品,谁就能先抓住这次机遇。

硅基研习社:大型互联网巨头很多都会把内部的效率工具转为对外的产品,每家产品都代表着自己的组织文化或者一种管理方式,甚至一种价值观在里面。在AI时代,是不是百度也有可能用我们AI的能力把这个工具做得比他们更加超前或者更加好用?

李莹:百度最早做搜索,AI技术也都是从搜索和推荐的产品上最早发展起来的,我们对知识和信息的理解是很深刻的,也有很好的内容生态。我们在2020年把百度Hi转型成如流,百度Hi作为内部IM工具已经积累了十多年,转型如流的目标,就是要把百度AI和知识管理的能力在企业方面做好,把百度做成最佳实践,同时赋能给更多企业。

现在这个阶段,我们在新的AI大模型能力应用上,也特别希望更多的企业都能用上。我们不是简单地把AI能力叠加上来,做产品的赋能,而是要设计一套完整的框架,能够让企业插上AI大模型的翅膀。

硅基研习社:您刚才也讲了,协同办公行业可能未来会重新洗牌,那内部对协同办公商业机会的判断是什么级别?这个行业本身在中国,以前经常说前有微软,后有盗版,整个市场相对来说也不是那么大。但是一旦我们用了智能助手(大语言模型能力接入后的在线功能),如果能够用的话,一定是在线的,一定是进入到我们企业云端的,付费模式跟以前License完全不一样,这个市场机会是不是会很大?

李莹:我认为,在办公这个领域有了这些新能力会有新机会,在中国的市场上会有大的增量。新机会下,服务和收费的方式一定会转到哪一种?还需要进一步探索和验证。但最重要的是让企业看到价值,愿意买单。当有新的技术内核赋能之后,市场会进一步打开,大家对于它的期待和需求会增高,在这里面会做出更多创新的东西。

譬如,大家感受最强的在线会议,以百度为例,从百度从大厦到百度科技园,原来开会必须是班车,来回平均一个人开会节省15分钟,进一步的,在线会议能够基于大模型主动识别并记录会议主题、生成会议记录和待办,这种提效大家明显感受得到,也可以衡量出节约的时间和成本。只要认价值,就有人买单,原来办公市场不好做的是大家很难看清楚它的价值。

硅基研习社:协同办公,包括传统办公这个领域这么多年发展下来,国内有些人用互联网的方式来做,有些人用传统的方式来做,这次是不是大家都在一个起跑线上?

李莹:我认为不完全是。这确实是一次变革的机会,但大家对于技术拥抱的程度、对于技术理解的程度、对于技术积累的深度不同会形成新的差距。比如是否知道大模型的边界是什么,大模型最核心的要素是什么,怎么理解它对整个行业的价值。说到根本,还是我们对这个事情的认知有多深,积累有多深,以及有多快地拥抱这种变化,在这次变革中是很重要的。

硅基研习社:而且执行力也是很重要的一个因素,包括产品和落地的能力。

莹:是的。

硅基研习社:如流整个团队,您觉得应该怎么样描绘他们的使命愿景?

李莹:我们的愿景是打造基于AI和知识管理的创新流水线,驱动企业提效创新,增强企业核心竞争力。核心的目标,就是我们要为企业做到效率的极致。因此,我们围绕着现有的事情,洞察根本需求,用AI的方式端到端解决工作场景的问题。

其实我们的团队从成立那天起,我就和大家说我们是以使命驱动的,百度相信用技术让复杂的世界变得更简单。在新的时代机遇下,我们要用先进的思想和工具提效创新。整个团队都非常鼓励创新氛围,跟踪前沿,不断突破,并脚踏实地往前走。

打造无处不在的超级助手

硅基研习社:如流产品端会怎么变化?例如以后可能从GUI变成LUI,很多按钮可能就会消失了,目前已经有这些改变了吗?

李莹:我们在今年4月份就在百度内,面向全员发布了基于文心一言的很多如流的全新功能,比如文档内容生成,以及超级助手、IM消息智能总结、智能会议洞察、小K研发助手等等,大家都明显感受到了这些产品带来的提效变化。在大公司中,用AI原生去重构工作平台,我们应该是第一家推出给全员使用的。

我们的智能工作平台分成三个板块:一是通用办公,包括超级助手、IM、会议、知识库等;二是经营管理场景,包括HR、财务、市场等经营管理系统;三是研发。

硅基研习社:为什么是这三个模块?在办公场景中,百度致力于解决什么样的核心问题?

李莹:首要考虑是为了提升员工的效率,一定要找到员工最花时间的事情,从这些事情入手才最有价值。

当时我们讨论出来的第一个场景就是代码,因为百度非常重技术,研发工程师占比很高,大家主要时间都在写代码。第二个场景是各类Paper work,实际上大家除了写代码,就是写文档、写周报等等,而且Paper work是大家最早认知到是大模型最擅长处理的。第三个就是沟通场景,包括开会和即时沟通。

这三大场景是我们最先选中的场景。延伸出来第四个场景是我们的工作流、任务流,因为每天大家都要在各个系统间做各种操作,比如要到ERP里操作人员的入离升降调,去差旅系统上提单,所有的工作都是在各个不同的任务系统上操作的,每天也会花费大量的时间。所以我们是从这四个大的场景入手,去考虑怎么提升效率。

我们添加的能力都是基于以上切入点,比如Comate智能编码,可以进行代码续写,结合NL2code的能力,可以做代码的注释、单元测试、生成测试用例等等。Paper work工作则集成在如流知识库里,包括文档的洞察、写作,这是一大类。

沟通层面我们做了会议场景和IM场景,有会议的AI洞察、要点标记、AI会议纪要等,AI洞察会分章节,不同的段落会分出不同的议题,后入会的人也可以直接看到前面讨论的内容和要点。

还有IM智能转发、未读消息智能总结,例如入群以后有很多未读消息,这时就会自动生成简明扼要的摘要总结,我们就可以看一下这段未读到底在说什么,大家觉得非常有价值,它可以快速让你获取到信息。当初IM智能转发功能刚一上线,我们就收获了公司内的一大片好评。

这里面最核心的是,我们要打造一个人人都拥有的超级助手。让员工在编码、沟通、知识阅读与创作和各工作流等不同场景中,都可以随时随处唤起,时刻陪伴左右。超级助手以自然语言交互为主,『端到端』地极致满足用户需求,小到一个知识点,大到复杂的流程审批,都能直接满足。

比如,过去要在对话或会议模块发起会邀日历,而使用超级助手,直接用自然语言发出需求,就能直接完成会邀创建。再比如,过去找文档,如果用户忘记文档的标题名称,往往需要在会议记录,或者群聊消息中,进行多步翻找操作才能找到文档,现在只要向超级助手描述需求,就可以直接获得目标文档。

这必然会颠覆用户和系统之间交互方式,用户只需要给出自然语言,至于如何理解需求、如何整合系统、生成答复,这些都交给超级助手去完成,也可以说,很多冗长的过程都被AI大模型能力给『折叠』了。

硅基研习社:超级助手产品设计的思路和背后逻辑是什么?

莹:我们的目标是想打造一个人人拥有的超级助手,它具备三个特点:一是懂你;二是知识丰富,能读会写;三是实时陪伴,有手有脚,能够帮你去执行任务。

这个目标有几层逻辑,“懂你”代表了解企业和员工,比如能够了解某个员工,是哪个部门、负责什么业务,还可以知道你当下的状态,是在开会还是忙其它事情。在此基础之上,它具有丰富的专业知识,帮你读、写,并且能够帮助你去完成很多系统内的工作任务。

超级助手是无处不在的,首先有一个主端,让人有形象化的认知,可以直接被找到。同时这个无处不在还在于,在系统中的具体场景下,也可以随时找到它。

在这个过程中,我们重塑了两个流程:一是员工工作流程,现在传统办公要在很多系统、应用间来回切换,但拥有超级助手,就可以在一个入口,通过自然语言交互的方式,获取不同系统的功能。

比如,如果我下周三到周五要到上海出差,通过跟助手的交互,助手可以帮我把日程设好、完成差旅航班和酒店的推荐和预订,甚至可以生成出差需要的客户谈判资料,等等。这重塑了我们原来处理这些工作的流程,员工只需要在这个入口操作,不需要关心背后的系统是什么,这就是一种AI原生的思维,是一种对人更友好和自然的方式。

二是重塑了IT系统的实现流程。传统的IT系统每个系统都要做得非常重。但是当通过统一入口去交互,同时背后的每一个系统的能力被原子化、插件化,比如差旅系统的预订能力、日程设置能力都成为大模型系统插件,被超级助手调用,将系统改造成是对模型友好的,重塑系统实现流程。

硅基研习社:也就是说,不是先有系统,而是把系统都打散了,用模型调用系统,有各种能力,模型对接能力就行了?

李莹对。这样的话,对于员工来讲是非常友好的,一个入口就可以完成各种工作任务。对于系统来讲,要做的就是怎么让模型能够理解系统具备的各种能力,这是非常重要的。

硅基研习社:产品模块上线花了几个月时间?

李莹:刚才给你展示的这些功能,很多都是随着文心一言的发布,四月份以后陆陆续续上线的,并且都已经全员使用,前后差不多三四个月的时间,我们研发周期还是很快的。

但实际上还有一些基于大模型的产品从去年就开始上线使用了,比如刚才提到的Comate,今年主要是基于新一代的AI大模型去拓展更强的能力,我们的产品之所以迭代的快,也是得益于我们能力的积累。

硅基研习社:在您看来,之前协同办公软件中工作台里面各种小模块化的功能,是不是在百度的规划里面,未来这些会全部重新被打乱?围绕这个超级助手进行重构?

李莹:不可能所有的工作习惯一下子全部重来,这个肯定不现实。不过要往这个方面演进,系统要基于新的调用方式逐步改造。

硅基研习社:看到去年的公开报道,包括近几年您也一直在强调用AI进行“知识管理”这个理念,而且知识管理还要做拆解、分发、组装的动作,现在更多是对知识的理解和生成。当大语言模型来了,知识管理还重要吗?为什么?

李莹:我们认为技术可以给知识管理带来颠覆性的改变,知识在企业里最重要的就是要沉淀好、要在员工中流动和应用起来。但是实际上知识管理很难做,因为人走了,知识就流失了,而且它的价值很难被量化衡量。

关于创新流水线的概念,去年我们讲要用大模型+知识图谱的能力,使得知识被拆解、分发、组装。大模型可以学习异构知识,并通过搜索和推荐的能力去分发,同时在创新工作中生产的知识会进一步沉淀回系统。

在这么一个逻辑之下,知识可以不断地循环流动起来。我们的员工可以站在“巨人的肩膀上”做创造性的工作。但是,组装,也就是形成真正你需要的知识单元,是很难的。但是现在大模型技术的突破,就刚好解决了这个问题。

现在,我们换了“文心一言”最新的大模型引擎之后,把拆解、分发、组装升级成了理解、生成、执行。并且,现在的知识已经不仅仅是文本知识,还包括了工作中的流程和任务,加入了执行后,这套流水线不仅帮助员工更加快速地获取知识,同时能够帮助员工完成工作流程中的任务。AI×知识管理,演化出这样一个超级助手,会帮助员工非常快速地在创新流水线中循环和反馈,更加高效地帮助员工提升效率。

硅基研习社:您刚才提到的这些知识,是企业独有的知识,还是说都是文心一言的知识?

李莹:都有,有通用知识,也有企业知识。就像我刚才提到的,我们基于文心一言的底座大模型,将企业的知识和工作流全面整合,这样才能让企业知识的管理产生倍增的收益。

我们理想的目标希望可以更加个性化的,比如说个人风格,给戴老板推荐的智能总结或者创意文案就是带有戴老板写作风格的内容,那个才是真正的『人人』都拥有的超级助手。

硅基研习社:所以是不是未来企业的知识管理都会因为AI大模型发生很大的变化?你认为会带来什么新的改变?

李莹: 肯定会发生改变。

我们提出 “创新流水线=AI×知识管理”的根本原因就是基于大语言模型的技术发展。传统知识管理以IT+咨询为主,一直没有取得很好的应用进展,我们也跟这样的一些企业讨论过,大家理念差异还是很大,实践和价值衡量的难度也非常大。而大模型最重要的就是对世界知识的压缩,实现智能涌现,具有鲜明的“以知识为核心”的特征。

所以,在知识经济的时代背景下,几乎人人都是知识工作者,所以知识管理不仅会成为首先被变革的方向,更会在企业中变得更加重要,最先能够感受到这波浪潮的甚至颠覆工作方式的也一定是知识型企业和知识工作者。

随着大模型能力的不断升级,会进一步加快变革的进程,能够让知识在企业里能够有效沉淀、快速流动,最终提升企业员工的工作效率和创新效率。

硅基研习社:下一步我们这些产品有哪些重大的想要往前做的方向?未来是否企业办公软件和系统可能都要被重新做一遍?

李莹:要做深做透我前面讲的这些工作,甚至未来把更多的新能力做进去,把系统的壁垒打破,让超级助手具备除了读和写,还能有更发达的“手”和“脚”的能力,这已经是一项非常大且极具想象力的工程。

它意味着『端到端』的重构产品交互模式、用户与需求之间的满足方式,乃至工作流程的全方位变革。它也必将为企业的IT系统建设创造更多空间,当整个工具技术框架做好,各个系统都可以在里面去建设自己的能力,这就是AI原生应用将会对整个产业带来的深刻影响。

协同办公类软件和系统都值得被重做一遍。一方面,新的技术带来了新的市场需求和预期;另一方面,在技术发展、市场需求提升的情况下,企业需要建立新的竞争优势和壁垒,竞争格局也会重构。对于产业和用户来说,这些新机会新变化都应该被积极拥抱。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

生成式人工智能在农业中的应用

随着人工智能技术的不断发展,生成式AI已经成为各个行业随着人工智能技术的不断发展,生成式AI已经成为各个行业所追求的热点之一。在中国,随着企业对生成式AI的需求不断增长,市场空间也在进一步抬高。中国生成式AI行业的发展趋势也非常明显。首先,企业对生成式AI的需求将会继续增长。随着市场竞争的加剧,企业需要利用生成式AI技术来实现差异化竞争。其次,生成式AI技术的应用场景将会越来越广泛。未来,生成式AI技术将应用于更多的行业和领域,为各个行业的发展带来新的机遇。

由于生成式人工智能(AI)可能提供的有价值的观点和提高的生产力,农业行业具有巨大的变革潜力。生成式人工智能有潜力通过利用复杂的算法和检查海量信息来彻底改变农业的许多方面。

以下是一些生成式人工智能在农业中的应用领域:

农作物优化和预测:生成式模型可以分析大量的农业数据,包括土壤、气候、作物生长情况等,从而预测最佳的种植时间、施肥量和灌溉方案。这有助于最大程度地提高农作物产量,减少浪费,并节约资源。

病虫害识别和管理:生成式人工智能可以训练出对不同病虫害的识别模型,通过监测作物图像,及时发现并预测潜在的病害风险。这有助于农民及时采取措施,减少病虫害对产量的影响,同时也减少了农药的使用。

精准农业:生成式模型可以结合传感器数据、卫星图像等信息,实现精准的农业管理。这包括根据土壤质量和植物状态调整灌溉和施肥策略,以减少资源浪费并提高作物品质。

气候适应性:生成式人工智能可以帮助农民预测气候变化对农作物产量和品质的影响,从而调整作物种植选择,以适应不断变化的气候条件。

农产品质量检测:生成式模型可以分析图像、声音和其他传感器数据,用于检测农产品的质量和成熟度。这有助于确保农产品符合标准,提高市场竞争力。

农业机器人和自动化:生成式人工智能可以用于开发智能农业机器人,这些机器人可以自动执行种植、收获、除草等任务,从而减轻人工劳动压力,提高生产效率。

市场预测和供应链管理:生成式模型可以分析市场趋势和消费者需求,帮助农民和农业企业预测市场需求,优化产销匹配,减少食物浪费。

作物育种和基因进步:通过加速基因进步,生成式人工智能有可能彻底改变作物育种。

通用人工智能(AI)算法可以通过研究植物遗传学和特征的大型数据库来复制虚拟育种试验。人工智能算法预测各种育种策略的结果,帮助育种者快速找到获胜配对。

需要注意的是,生成式人工智能在农业领域的应用还需要克服一些挑战,如数据收集和隐私保护、算法的可解释性、技术的普及等。然而,随着技术的不断发展和成熟,生成式人工智能有望为农业带来更多创新和改进。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI专业术语及释义:让你快速掌握人工智能的基础知识!

自今年初AI开始风靡以来已经过去了大半年的时间。

对于大众而言,在网络各个领域都可能会看到与AI相关的术语,但我们可能无法具体而直观地理解其含义。

为了方便大家理解与学习,以下整理了一份包含专业术语及其释义的材料。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

应对AI诈骗要靠什么?

“想成功,先发疯,不顾一切向钱冲;拼一次,富三代,拼命才能不失败!”
这是正在热映的反诈骗电影《孤注一掷》中,诈骗团伙每天“诈”前动员的口号。
从电影回到现实。数据显示,2022年,全国公安机关破获电信网络诈骗犯罪案件46.4万起,缉捕电信网络诈骗犯罪集团头目和骨干351名,成效显著。
电信诈骗日益猖獗的背后,是诈骗手段逐渐向智能化、组织化、集团化发展的缩影。今年以来,多起利用AI(人工智能)技术实施的诈骗引发大众关注。据公安部日前召开的新闻发布会透露,依托“净网”专项行动,公安机关已破获“AI换脸”诈骗案件79起,抓获犯罪嫌疑人515名。
不难发现,越来越多的不法分子试图搭上AI发展的“技术快车”,威胁着人民的“钱袋子”。

AI诈骗是啥?简单来说,它是利用人工智能技术实施诈骗的新型诈骗手段。虽然听起来不可捉摸,但大体表现为以下几种形式。
形式一:声音克隆。不法分子通过拨打骚扰电话来提取对方的声音,接着对音频素材进行处理,然后用伪造的声音实施诈骗;还有一种方式,则是不法分子在盗取微信、QQ号之后,使用特殊的语音插件,转发之前的语音,从而获取信任。
形式二:AI换脸。和声音合成相比,这种形式更具有欺骗性。不法分子根据收集来的照片和视频生成与目标对象相似的面容,然后给受害人拨打视频电话,以假乱真。
其实,利用AI技术进行音视频合成对大众来说并不陌生。早在前几年,网络上就已经出现了换脸软件。许多不法分子利用AI换脸技术伪造明星的淫秽视频,在网络上传播并获利。由于换声、换脸的技术门槛逐渐变低,越来越多的不法分子对AI技术动起了歪心思。
形式三:定制专属脚本。有人说:“骗子最擅长的,往往不是设计精巧到无懈可击的陷阱,而是充分利用人性的弱点。”不法分子在实施诈骗之前,会通过AI技术搜集各类信息,并根据要实施的骗术对人群进行筛选、分类。
找到目标对象之后,诈骗团队会快速生成诈骗脚本,实施“一对一”精准诈骗。比如,在“杀猪盘”婚恋陷阱中,不法分子就充分利用受害人渴望爱情、缺乏安全感的心理,每天嘘寒问暖、输出浪漫情话,让受害者在甜言蜜语中逐渐卸下防备,从而骗取钱财。
总而言之,AI诈骗的花招越来越多,而反诈骗的难度也越来越大

AI诈骗为何变得这么厉害?
AI诈骗是在人工智能生成内容(AI-Generated Content)和深度伪造(Deepfake)技术发展的背景下产生的。毫无疑问,技术的发展为AI诈骗提供了更多的可能。
从普及范围看,AI技术正在走向大众化。如今,AI技术逐渐普及,正成为一场“全民狂欢”。在手机应用市场,以“AI”作为关键词进行搜索,ChatAi、FacePlay等多款运用AI技术的APP映入眼帘;在B站上,用户只要搜索关键词就能获得大量的开源代码和教学视频;在“AI换脸”小程序上,只需要选择心仪的视频模板,再上传一张自己的正脸照片,就可以实现一秒“换头”。
“杨幂版黄蓉”就是一个很好的例子。早在2019年,就有人利用AI技术把1994版《射雕英雄传》里朱茵饰演的黄蓉换成了杨幂的脸。有网友评价:“杨幂版的黄蓉灵动可爱、毫无违和感,一点也不输给原版角色。”
从技术水准看,AI技术不断更新迭代。随着声音、图像处理技术和人工智能算法的不断升级,利用AI技术合成的音视频质量也得到大幅度提升。如今,AI合成语音不仅可以模仿受害人的语调,甚至还能模仿其口音特征。愈发接近“真实”的AI换脸在诈骗中以假乱真,令人傻傻分不清楚,增加了反诈骗的难度。
从应用情况看,AI技术滥用充斥着网络。在电商直播间,众多“迪丽热巴”“刘亦菲”大喊着“321,上链接!”。AI换脸已经形成了灰色产业链,AI代包服务充斥着市场,“只要钱到位,你想换成谁就换成谁”。
当下,AI技术快速普及,不法分子也无孔不入,纷纷为电信诈骗披上AI“马甲”。这类型诈骗主要是利用受害者的社会关系展开,往往充分掌握了受害者个人的身份信息以及与被换脸对象的社会关系,综合作案。比如,不法分子利用熟人关系、领导下属关系等,拿捏了受害人“不好意思拒绝”的心理实施诈骗,令人防不胜防。
此外,因为缺乏判断力、与社会接触较少,老年人等特殊群体也往往成为不法分子的重点“关照对象”。在去年的热播剧《猎罪图鉴》中,就曾出现犯罪分子利用AI换脸技术,伪装成空巢老人的儿子实施诈骗,最终导致两位老人跳海自杀的剧情。

由于AI诈骗具有链条化、平台化、高成本等特征,目前尚未形成爆发态势。但AI诈骗案件已频频出现,风险正快速积聚,对公民的信息和财产安全造成严重威胁。
面对来势汹汹的AI诈骗,该怎么办?
完善制度,划出AI技术应用的“边界”。近两年,我国出台了《网络音视频信息服务管理规定》《互联网信息服务深度合成管理规定》,对AI诈骗起到了一定的约束作用;8月8日,国家互联网信息办公室公布《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,旨在提升人脸识别技术的规范应用与合规水平。而国家网信办已审议通过的《生成式人工智能服务管理暂行办法》,也将于8月15日起开始施行。由此看来,我国在相关领域的规定正在逐步完善。只有让监管跟上技术发展的“脚步”,AI技术才能沿着法治的轨道行稳致远。
升级技术,用“善AI”对抗“恶AI”。公安机关和网信部门除了要做好信息安全知识的普及工作,加强隐私保护教育,指导公众下载“国家反诈中心”APP之外,还要加强AI诈骗的反制技术研究,与不法分子在AI技术应用的赛场上“赛跑”。比如,可将AI技术应用于诈骗预警、嫌疑人识别等环节中,“用魔法打败魔法”。
保护隐私,铲除AI诈骗滋生的“土壤”。隐私数据是AI诈骗的源头。个人要加强信息保护意识,不随意点击陌生链接、下载陌生软件;不在社交平台上过度分享图片、视频;在使用AI技术进行工作、娱乐时,要谨慎对待,做自己隐私保护的第一责任人。
做“细节控”,擦亮防诈识骗的慧眼。除了要保护好个人的隐私数据,大家在进行语音、视频通话时,更要擦亮慧眼。虽然AI诈骗生成的音视频已经相当逼真,但仍会存在一些细节上的瑕疵。
比如,有些合成的人像瞳孔呆滞、眉毛僵硬、身体比例不协调等,可通过这些细节来核验对方身份,用肉眼识破“科技脸”。同时,不能抱侥幸心理,“永远不要觉得自己不会被骗,只是适合你的剧本还没有出现。”
打击诈骗违法犯罪,任重而道远。和其他诈骗形式相比,AI诈骗预防和侦破的难度都更大,尤其需要在常态化和长效化上下功夫。归根结底,不管AI诈骗如何改头换面,仍改不了其“骗”的本质。未来,AI诈骗的手段或许会更加高明,但只要我们强化反诈骗意识,合力筑牢反诈骗防线,就能够让“天下无诈”成为现实。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

对话前OpenAI科学家:爱、灭亡和人工智能

左为肯尼斯·斯坦利(Kenneth Stanley),右为乔尔·雷曼(Joel Lehman)

文|郑可书

编辑|刘以秦  

肯尼斯·斯坦利(Kenneth Stanley)不是咨询从业者,但近几个月,他的邮箱堆满咨询邮件。困惑的人们在邮件里问他:“这一切是什么意思?”

“这一切”,指的是ChatGPT的出现,及其引发的AI热潮。自去年11月发布以来,全世界的人都在使用它、谈论它,试图理解它代表的威胁和机会。

研发出ChatGPT的公司OpenAI同样成为热门话题。肯尼斯曾在那里工作。已经错过ChatGPT、担心再次错过新机会的投资人联系到他,想了解他在做什么,因为“任何与人工智能、与OpenAI有关系的人,都可能在做重要的事情”。

OpenAI另一位前员工乔尔·雷曼(Joel Lehman)则接到了世界各地猎头的询问,包括中国。他与肯尼斯于2020年入职OpenAI,并在ChatGPT发布前几个月离开。在OpenAI,他们共同领导的开放性(Open-Endedness)团队,致力于让算法在没有预定目标的情况下自我学习、创新。

此前,他们曾在大学、AI初创公司几何智能(Geometric Intelligence)、优步(Uber)AI实验室工作。2022年离开OpenAI后,肯尼斯创办了一家名为Maven的公司,建立开放式、偶然性社交网络,而乔尔在AI独角兽Stability旗下的Carper领导开放性研究团队。         

他们已在人工智能行业工作多年,但如今技术进展之快、论文数量之多,有时也让他们感到难以跟上。

此刻的中国人工智能行业面对相似的焦虑。业界、学界机构担心错失机会,纷纷发布大模型。5月28日,科技部直属的中国科学技术信息研究所发布《中国人工智能大模型地图研究报告》,称中国10亿级参数规模以上大模型至少有79个。这个数字还在持续增加,竞争越来越激烈,参与者在浪潮中挣扎。多位中国AI创业者告诉《财经十一人》,他们目前最关注的AI议题,是商业模式、变现能力。

肯尼斯和乔尔已经走过为钱挣扎的阶段,他们给出了完全不同的回答。肯尼斯最担心的是,AI会让人远离人性——机器越来越有趣,以至于人会花更多时间与机器交流,而非与人交往。长此以往,社会纽带将会断裂,政府将会瓦解。而他最初对人工智能产生兴趣的原因,恰恰是他想通过了解“智能”来了解人性。

乔尔则关心机器学习如何为个人、社会的开放式成长做出积极贡献。他说,现在的机器学习以一种非常狭隘的方式对待人类,将满足偏好视为促进人类繁荣的唯一途径,这催生了信息茧房,增加人与人的隔阂。人类是丰富而复杂的。“我们可能对某些事物上瘾,可能会做违背自身利益的事情;我们拥有意志力,但有时经过挣扎之后,我们才会做自己真正想做的事。”今年2月,他发表论文《机器之爱(Machine Love)》,探索机器从更丰富、复杂的维度去“爱”人的可能性。

他们使用AI工具辅助工作,但在一些事情上拒绝AI参与。肯尼斯和孩子一起玩时,即便不借助任何电子设备,也能很开心;乔尔很少在写作中使用ChatGPT,因为他“不想自动化真正关心的事情”。

创新是他们关心的另一件事。2015年,两人合著的《为什么伟大不能被计划》出版。他们在书中记录多年AI研究过程中的发现:设定目标,有时会成为阻碍;遵循好奇心的指引,反而能够解决问题、实现创新。该书中文版于今年出版,引发不少中国科技、教育从业者的讨论。

今年5月、6月,《财经十一人》分别与肯尼斯、乔尔进行了一次书面交流、一次视频交流。最关注的AI议题之外,他们还谈到OpenAI的工作体验,美国AI行业的创投环境,以及Transformer的缺陷、AGI(通用人工智能)的到来等技术问题。      以下是肯尼斯、乔尔和《财经十一人》的对话。对话经过整理、删减:

美国投资界的优势在于多样性

财经十一人:在OpenAI工作是什么体验?

肯尼斯:很兴奋,我们能够体验全新的技术。我在学术、商业实验室都工作过,OpenAI和其他研究机构的明显差异是:其他机构有不同的研究小组,小组成员们制定自己的议程,在各自的领域发表论文;OpenAI也有小组,但不同的小组目标一致:我们共有一个使命,并一起朝着这个使命前进。

乔尔:OpenAI是一个令人兴奋的、快速发展的、务实的、严谨的公司。员工可以提前试用模型,让人感觉生活在未来。另外,OpenAI有充足的算力资源,我供职过的其他研究机构都没有这个条件。我们拥有同一种愿景,而这个愿景与其他AI机构或者多数人当时的想法都不同——OpenAI相信规模化,相信使用更多的数据和算力,就能增强模型的能力。

财经十一人:ChatGPT发布后,你的工作、生活发生了什么变化?

肯尼斯:我的邮箱突然接到了大量的咨询请求,好像全世界都对这个领域感兴趣,甚至是恐惧——他们担心自己被落下,因此寻找权威人士,询问这一切是什么意思。还有很多投资人联系我,想找到下一个风口。ChatGPT的成功让他们认为,任何与人工智能、与OpenAI有关的人,都可能在做重要的事情。

关于GPT,在某种程度上,它令人害怕,因为它相当准确地捕捉到了人类认知的某些方面。这不仅是科学上的进步,还具有哲学上的重要意义,因为这些认知是将人类与宇宙中的其他一切区分开来的东西,而它们开始在机器中运转。

乔尔:很多猎头联系我,包括来自中国的。另外,OpenAI如此频繁地出现在新闻中,以至于我的父母第一次如此了解我所在的公司。这种感觉很神奇。         

财经十一人:为什么在2022年下半年、ChatGPT发布前几个月离开OpenAI?

乔尔:我没有预料到ChatGPT会产生如此巨大的影响。OpenAI是一个很棒的做研究的地方,但它的研究总是往一个特定的方向推动;而我和肯尼斯作为研究者,希望参与更基础、更开放的(不限定方向的)探索性研究。正好那时,我们都有其他合适的工作机会,所以我们离开了。

财经十一人:有观点认为,中国的投资机构过于重视被投公司的商业模式与盈利能力,不像OpenAI的投资方那样愿意冒险,所以扼制了创新,导致中国没有做出OpenAI和ChatGPT。你怎么看?

肯尼斯:将OpenAI的融资过程解读为“投资人不应该关心钱”,是错误的。OpenAI的创始团队是世界一流的人才,所以投资人才愿意把赌注放在这里。

财经十一人:美国AI行业的创投环境是什么样的?

肯尼斯:在美国,有足够多的投资人注重理念和愿景、愿意冒险,也有人只看利润。同一个人的想法也会改变,例如,我投资了一个目标不明确的公司,失败、赔钱了,那么下一次我就会更关心商业模式和利润。我认为,美国投资界的优势,就在于观点的多样性。这是一个健康的环境。

我对中国的投资界没有深入了解,但多样性对任何地方都是有益的。硅谷的风险投资产业已经非常成熟,而在中国风投这样相对不成熟的环境里——我没有贬低的意思,因为几乎没有什么地方会像硅谷那样成熟——我可以想象大家非常关注利润和商业化。这样也能投出好公司,但它们不会像OpenAI那样具有革命性。另外,决定投资方向的不仅仅是投资人,还有他们背后的各类机构、基金等。提供科学研究资金的国家机构应该不怕亏损,因为科学研究总是充满风险的;如果没有任何亏损,那意味着他们实际上没有在做研究。但我发现,这些机构反而更保守。这有点讽刺,他们会问:“研究目标是什么?”然后评估目标的可行性,再决定是否给钱。反倒是市场化的投资人会有不同的观点。他们把投资视为一个组合,不在意个别的失败,总体的上涨能够弥补下跌就行。他们有时更愿意说:“我不知道这有什么意义,但它听起来很酷,我要投。”         

Transformer有缺陷,AGI还很遥远

财经十一人:Transformer之后,会有新的架构出现吗?(注:Transformer是Google 在2017 年提出的一种自然语言处理模型,也是今天AI大模型的基础架构。)

肯尼斯:我不相信Transformer就是我们到达的最终架构,这种观点从研究角度看,似乎过于乐观了。但我不能排除这种可能性。也许可以不改变架构,只改变训练方法、提示词(prompt)的长度等其他方面。

提示词中的文本是有顺序的,神经网络确实看到了这个顺序,只是目前能输入的提示词太短了,所以Transformer无法按照时间顺序学习。也许将来会有一些突破,让提示词能够长到囊括整个人类历史,然后模型就可以在提示词中学习。这是一个非常奇怪的想法,但如果可以实现,也许架构将保持不变。

另一个因素是硬件,科学家们会想到非常有趣的新架构,但当前的硬件可能无法承载,这就限制了我们尝试某些方案的空间。

乔尔:Transformer确实非常惊人,可以完成许多任务,但从历史经验看,会出现超越它的方法。

目前Transformer的一个基本缺陷是没有“循环(recurrence)”能力。面对问题时,人类会回顾经验进行学习,过去的某个心理状态能够无限次地反复再现,因此你想反思某件事情多久,就可以反思多久。Transformer也拥有对过去的显式记忆,但这种记忆仅持续特定数量的token(注:AI处理文本的数据单位)。这种范式非常强大,足以使模型具备从输入的上下文信息中学习的能力。但它仍不能像人类那样,将记忆永久保存下来。

我想强调,我并不是说机器学习模型必须像人类大脑一样运作,但目前的研究主流路径是这样。         

财经十一人:有人认为,大模型并不具备像人类一样的思考能力,它只是看起来在思考。

乔尔:这个观点很有趣,但从技术角度看,我不认同。Transformer在没有帮助的情况下进行算术运算的能力非常不像人类,它会犯很基础的错误;但是当你与它交流那些它似乎没接触过的复杂话题(比如试图将22种奇特的哲学思想结合在一起),它可以给出相当令人印象深刻的回应。因此,我认为实际情况可能处于中间位置。

财经十一人:如何定义AGI(通用人工智能)?Sam Altman(OpenAI创始人)在中国的演讲中提到,十年内会有非常强大的人工智能系统出现,我们需要从现在开始做应对的准备,你怎么看?肯尼斯: 我不太关心 AGI 的精确定义。等我们看到它时,自然会知道。我感觉AGI这个词分散了我们的注意力。真正的问题不在于是否到达AGI,而在于,我们在十年内取得的成果,是否会对社会产生重大影响;如果是的话,那么无论它被称为AGI还是其他名字,我们都要做好准备。        乔尔:我认同。科学发展进程总是非线性的,我不知道AGI什么时候会到来,可能很快,也可能很慢。AI很快就会在一些任务上超越人类,某些方面的AGI可能很快就会到来。

这会带来两个问题。“智能”是定义人类的基础,当一个比人类还聪明的东西出现时,人类就处于危险之中。另一件有点恐怖的事情是,很多人从工作中获取意义,当AI将工作自动化,我们就需要将人生意义从工作转向寻找愉悦、做自己喜欢的事。这很好,但转变过程会非常艰难。目前的证据显示,在美国,人们即使有社会保障,也会因失业沮丧,甚至会滥用药物。面对这种可能的未来,我们还没有做好准备。

财经十一人:AGI什么时候会实现? 

肯尼斯:关于这个问题,有很多不同观点。但现实是,没人能知道。智能领域还存在一些尚无明确解法的缺口。

现在比较主流的通往AGI的方法是,基于Transformer,继续增加数据和算力。因为过去这种规模化方法很好地填补了先前模型的漏洞,例如从GPT-2到GPT-3、再到GPT-4的升级。基于此,一些人认为我们正处于AGI的临界点——只需要进一步规模化,就能解决问题。

但有些东西是无法通过规模化改善的,比如创新性。目前的模型无法像人类发明摇滚乐那样,发明一种新的范式。这是一个严重的不足,因为文明的本质就是创新。

存在这个缺陷的原因是,Transformer是通过数据学习,而“创新性”之类的东西并不在数据里。目前,被输入模型的数据不是按时间顺序从头到尾排列的,而是一整个单独的数据块。这导致模型缺少时间概念,而创新是与时间顺序密切相关的。

我们人类始终身处某个特定的时间点,这个点之前发生了什么、还没有发生什么都是默认的,所以我们能知道什么是新的、前沿的;但模型无法判断时间点,它将所有这些东西都视为一团巨大的混合体:它会看到关于汽车的数据,关于太空飞船的数据,关于大型语言模型的数据,但它们都是同时存在的,没有先后之分。因此,模型无法判断什么是前沿的。

另一个例子是幻觉问题(注:“幻觉”即AI生成的虚假或错误信息),即语言模型怎么知道自己知道什么、不知道什么?“知道自己记得什么”不是一个语言过程。如果我问你,你三周前吃了什么?你会说不记得了。但你怎么知道自己不记得?这个过程无法用言语表达,你不能说,我检查了这个,然后检查了那个,所以我知道我不记得了。这更像是一种隐含的、与生俱来的过程,并不涉及语言;如果没有语言,它就不存在于数据中,模型也就无法从数据中获得这个概念。

现在,由于RLHF(Reinforcement Learning from Human Feedback,从人类反馈中进行强化学习,即由人类来训练模型,模型做得好就奖励,做得不好就惩罚)的运用,这些不足也许可以修正。但我认为,只有在模型真正理解它应该知道什么、不应该知道什么的情况下,这种方法才能有效;而只有这些知识隐含在数据中时,它才能真正理解。但目前看来,数据中似乎不存在这类知识。例如,要让模型学会诚实,我们可以在它不诚实时惩罚它,然后它会变得诚实。但这并不意味着它理解了诚实的重要性。这些问题很难通过规模化来解决,有解决办法,但需要更多的复杂性,需要新的洞察和技术突破,不会轻易实现。所以AGI仍然很遥远。

爱,灭亡和人工智能

财经十一人:如今,很多业界人士在警告AI的威胁,强调对AI进行控制和监管。而你研究的AI开放性,是让AI在没有目标的情况下,产生更多新的、让人意想不到的结果,是关于放松控制的。如何看待其中的矛盾?

肯尼斯:好问题。AI作为一门科学,本身就是在寻求进一步的发现和创新。我们应该接受对开放性的研究,依靠它找到平衡——既允许持续发现,又受到足够的限制。

乔尔:对开放性的研究在一定程度上很重要,因为它使我们能够科学地解决贯穿整个技术史的问题:我们如何从开放性过程中获得最大收益,同时降低风险?同样的开放式科学过程为我们提供了治愈疾病的疫苗和环球飞行的飞机,也为我们提供了核武器。创造力和控制力之间的张力很深,需要大量思考和研究。

财经十一人:你现在已经是AI-native的生活状态了吗?   

肯尼斯:不是。我确实在工作中使用AI,但生活中很多事情,比如和我的孩子一起玩,即使没有任何电子设备,也会很棒。我适度使用AI,生活就是生活。

乔尔:我用 ChatGPT(带有 GPT-4)理解新的知识领域,用 Copilot写代码。

但是到目前为止,我还没有在写作中使用ChatGPT(比如我没有用它来回答你的这些问题)。部分原因是它还没有融入我的工作流程。比如,我会用特定的文本编辑器,把GPT集成进去很麻烦。而且,我喜欢写作的艺术性质。也许在未来,它会变得足够容易,能够融入工作流程;但我也有些抵触,因为有时候,你不想自动化你真正关心的事情。

财经十一人:当下,你最关心的一个关于AI的议题是什么?

肯尼斯:我担心我们与人性越来越疏远。我8岁时对AI产生兴趣。它最吸引我的一点是,它能让我更好地理解人,与人产生更紧密的联系。这可能很难理解,毕竟我们这些人看起来只是成天和机器打交道,对人类没有兴趣。但理解“智能”的过程,其实就是在理解人性的本质。心理学也在理解智能,可它只研究运作原理,不研究构建方法;而我一直觉得,如果我不能构建某样东西,我就无法真正理解它。

用机器取代人的情况令我困惑。这就是我所说的与人性的疏远——机器变得足够丰富和有趣,以至于你会抽出时间与机器交往,而不是与人交往。我们看到的图像、听到的音乐、读到的故事,曾经是人类丰富想象力的产物,如今却越来越多地被机器生产。

我受到震动的具体时刻,是第一次看到DELL-E(注:OpenAI的图像生成产品)时。突然间,我意识到艺术可以不是自我表达,它只是艺术。而我一直认为,艺术的可爱之处在于呈现人性。那时,我的孩子大约7岁。他喜欢画画,而这个机器生产的画作质量远超他。这让我对未来非常困惑——这个冰冷的东西没有真正的体验,却会使人们无法欣赏我孩子的自我表达。我不喜欢那样的世界。

像DELL-E这样的技术也可以帮助人类自我表达,但如果走向错误的方向,我们将沉溺于没有人性的东西,停止与人类互动,那时,社会纽带会破裂,政府也会瓦解。摆在我们面前的一个巨大挑战是:如何让人工智能支持有意义的人际联系,而非鼓励隔离与孤独。         

乔尔:目前我最关心语言模型部署到世界的速度。我担心制度(如法律、教育、经济、新闻媒体和政治制度)更新缓慢,适应速度跟不上语言模型的发展速度。

在美国,社交媒体、推荐引擎等系统占用人们大量时间精力。这些系统拥有将我们联系起来的能力,但它们往往只追求用户参与度、停留时长,而非帮助我们改善生活。

似乎我们的所有制度都在这种方式下变成赌博。比如,在美国,为了赢得选举,一些政治候选人不再进行诚实的辩论,而是针对受众心理特点创建广告,激起他们对其他政党的仇恨。机器学习以许多不同的方式参与其中,像是个性化推荐与信息茧房。这也是我将研究方向转到机器学习、哲学交叉领域的主要原因之一。我希望我们能以更有益的方式使用机器学习。

财经十一人:有办法避免这些情况进一步恶化吗?

肯尼斯:一种方法是,鼓励开发增强人类能力的AI工具——将人随口唱的曲子制作成完整作品,促进高质量的人际互动,诸如此类。但人类的本性难以控制。如果与AI交流很愉快,人们就会这样做。这有点像吃糖,甜味让人愉快,但你必须努力控制,不能过度。

我们也需要国际合作,来建立审查与法律框架,还要确定具体责任人。这也很难,涉及经济问题与国际竞争——如果能够实现AI的独立发展,一个国家可以彻底改革全球经济,获得巨大优势。因此,不合作是非常有诱惑力的。         

财经十一人:很多中国AI创业者为商业模式、融资苦恼,他们想聚集资源,做出中国的OpenAI。你不关心钱的问题吗?

肯尼斯:如果我在一个急需钱的创业时期,我也会重视融资;但我似乎已经过了这个阶段——我现在认为,只要我做正确的事情,就能拿到融资。所以我更关注前景,担心没有证据来支持我的想法,而不是钱。

我个人觉得,“成为下一个OpenAI” 不是一条明智的道路,因为通常,你无法再次成为同样的事物。这个事物之所以出色,就是因为它是第一个这么做的、独一无二的。现在,对话机器人领域的竞争非常激烈,而我并不认为自己出色到能赢,所以,我更倾向于思考,有什么与OpenAI完全不同的新东西?

乔尔:我喜欢钱。我很幸运,曾在薪酬丰厚的实验室里工作。但现在,更多的钱并不能让我感觉生活更有意义。  

财经十一人:美国公众在关心哪些关于AI的问题?

肯尼斯:有各种各样的担忧,有人关注长期风险,比如人类的灭绝威胁;有人关注短期,比如就业问题。还有人同时担心所有问题。有人对其他人感到愤怒,认为后者关心的不重要的问题吸引了大量关注,让人们无法聚焦到真正重要的事情上。目前缺乏共识。我认为人们正在整理思绪,确定哪些是当下最重要的、值得我们花费大量时间精力应对的问题。     

财经十一人:论文《机器之爱》的主要内容是什么?

乔尔:“人工智能”是将我们对“智能”的理解植入机器,试图理解智能的本质;“人工生命”是将“生命”进行抽象,并在计算机中模拟生物进化。我尝试将同样的思路应用到“爱”,将“爱”这个概念进行抽象,使得机器能够表现出“爱”。在实践中,这意味着将机器学习的方法与研究爱的领域(如哲学、灵性、心理疗法等)的方法结合。

机器学习的一个问题是,它以一种非常狭隘的方式对待人类,将满足偏好视为促进人类繁荣的唯一方式。从这个视角看,社交媒体重视用户参与时长,就变得可理解了:在机器学习的眼中,你是一个完全理性的个体,因此你在社交媒体上花更多的时间,就意味着它提供了有价值的东西。

但是,人类是丰富而复杂的。我们可能对某些事物上瘾,可能会做违背自身利益的事情;我们拥有意志力,有时经过挣扎之后,我们才会做自己真正想做的事。

在这篇论文中,我采用更丰富的人类行为模型(类似于马斯洛需求层次理论),试图利用语言模型,让机器尊重、促进人类的发展,而不仅仅是给予狭隘的满足。

财经十一人:这听起来与你如今最关心的AI议题紧密相关。你是在寻找解决问题的方法吗?

乔尔:我不敢自称有解决方案,但我希望找到一种积极的前进方式。我对人类、人类心理学,以及人类领域与机器领域如何能够有效结合非常感兴趣。技术是为了人类,为了我们的利益、我们的繁荣而存在的,但有时,我们很容易忘记这一点。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

国内首颗以人工智能(AI)载荷为核心、具备智能操作系统的“地卫智能应急一号”卫星发射成功

8月10日12时03分,中国首颗以人工智能(AI)载荷为核心、具备智能操作系统的智能应急卫星“地卫智能应急一号”(又名WonderJourney-1A,简称WJ-1A),在酒泉发射中心成功发射并进入预定轨道。这标志着浙江本地企业地卫二空间技术(杭州)有限公司的Wonder Journey 望江山星座的第一个卫星智能体发射完毕, 即将正式投入运营。

这是实现从智能卫星到太空智能体跃迁的第一步。与其他卫星相比,地卫智能应急一号携带峰值80TOPS (即每秒钟万亿次运算)星载算力,而星上超高算力的实现得益于地卫二自主研发的星载智能载荷处理单元“弦”(“String” Edge AI Platform)。并且,这个算力还将随着智能载荷处理单元“弦”的更新迭代不断攀升,在今年年底,地卫二星上算力有望超每秒万亿次运算。

通过部署全新计算架构和自动驾驶级的太空算力,驱动高分辨率面阵相机、近红外相机等载荷,运算超过百种算法,实现星上的实时观测、实时处理和太空智能。具体来说,可实现图像智能识别、智能分割、智能压缩、无效数据清洗等星上AI能力,有效提高遥感卫星的运行效率。

星载智能载荷处理单元“弦”采用了开放系统架构,推动“太空共同富裕”新业态。多家单位和企业联合地卫二,纷纷入驻地卫智能应急一号卫星,共同打造了基于智能载荷处理单元“弦”的“望江山太空程序1.0”应用矩阵,这也标志着地卫二第一代“星上太空城”的诞生。

共建空间信息走廊,畅想太空丝绸之路。“弦”智能载荷处理单元搭载了斑马网络技术有限公司AliOS操作系统,验证智能操作系统管理卫星,以及未来智能汽车与智能卫星的连接和计算能力,系国内首个将汽车底层操作系统运用到商业航天上的案例。小冰公司也与地卫二联手,实现了交互式太空数字人智能模型布局太空的第一步。浙江大学望江山智能联合实验室、东海实验室、阿曼苏丹卡布斯大学、沙特阿卜杜勒阿齐兹国王科技城等单位也为星载智能应用的开发提供了技术支撑。

在商业卫星发射按重量以克计价的时代,软件的应用有效降低了卫星的物理载荷。通过软件上注的方式,这个智能平台让多种智能应用程序得以在航天器上运行和验证,赋能包括森林减灾、水质监测、土壤墒情、非农非粮、森林火点、病虫害监测、城市两违等多种场景,作为一种长时序、高精度的监测手段有独特的优势。

“地卫智能应急一号”卫星入轨后将首次在轨开展星载智能载荷处理单元“弦”验证试验,评估多方算法及模型的在轨应用效能,并持续开展“天空地脑一体化”架构验证。

在轨期间由中国航天科技集团、苏州天巡空间技术有限公司、河南理工大学等多家联合研制单位共同在应急减灾、水利、农业、林业、海洋等领域进行推广应用。

中国商业航天如今仍处于相对早期的阶段,需要整个行业通力合作。地卫二作为一家多模态的商业卫星公司,期待着与行业各方共同努力,志在为整个行业赋能,推动卫星的智能化转型,实现航天产业的持续繁荣与创新发展,推动航天产业的智能化转型与进化。

理论上,这是目前唯一一颗跑得动大模型的新“星”。通过部署类似GPT的基础模型(Foundation Model),利用智能体模型代理(Agent Model),构建了立体感知、全域协同、精准判断、持续进化、开放兼容的智能系统,实现“模型管理模型,模型生产数据,模型产生效益”。作为连续两届拿下CVPR(IEEE国际计算机视觉与模式识别会议)挑战赛奖项的科技公司,地卫二无疑承载着应用大模型太空GPT的使命。

凡是过去,皆为序章。下一个精度更高的太空智能体也已进入筹备阶段,地卫二将以前所未有的方式揭开这星算时代的序幕!

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI 人工智能将取代 8500万 个岗位,与此同时将新增 9700万 个新岗位

据世界经济论坛报告,到2025年,“机器人革命”将使8500万个人工工作岗位被机器取代,管理和数据处理中的常规或体力劳动最容易受到威胁。

与此同时,新技术也将创造9700万个工作岗位。

报告指出,消费者对云计算和电子商务服务的需求与日俱增,无法在线为其客户提供服务的公司的生存空间将遭到挤压。

超过五分之二的受调查公司表示,他们计划通过技术集成来减少人力,行政助理、文员等受影响最大。

新报告同时指出,自动化的发展也可能在护理、大数据、人工智能、云计算、绿色经济等领域创造出9700万个新的工作岗位,咨询、决策、推理、沟通、互动和内容制作等对人类技能有所需求的职位将增多。

而且,未来将有越来越多来自不同背景的人才会共同协作,“展示出人类互动在新经济中的持续重要性。”

报告指出,目前,约有三分之二的工作由人类完成,剩余三分之一由机器处理,但到了2025年,机器完成工作的比例将升至二分之一。

因此,很多劳动者可能需要接受新的技能培训、进入新岗位以应对这种改变。

报告显示,一些岗位容易被机器取代的工人可能要进入新的职业领域,94%的被调查企业希望员工掌握新工作技能,这一数据较2018年的65%有大幅增加。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

“大模型”2023影响中国人工智能产业进程的10大模型

来源:高校大数据与人工智能推进联盟

2023年,生成式人工智能和AI聊天机器人背后的大模型,竞争激烈,令人疯狂。尤其是在OpenAI发布ChatGPT之后,大公司、小公司和开源社区更是争先恐后的推出自己的大模型。据统计,到目前为止,全国已经发布了数百个大模型。但是,哪些大模型最受关注和最具发展潜力?哪些大模型最具价值和创新要素?

近日,全国高校人工智能与大数据创新联盟对市场上比较活跃的大模型产品进行了梳理,从中推选出2023影响中国人工智能产业进程的十大模型,分别是清华大学“chatglm”大模型、百度“文心”大模型、华为云“盘古”大模型3.0、复旦大学“moss”大模型、科大讯飞“星火认知”大模型、商汤“日日新商量SenseChat”大模型、阿里云“通义千问”大模型、京东云“言犀”大模型、网易有道“子曰”大模型、学而思数学大模型“MathGPT”。

NO1.清华大学“chatglm”大模型

由清华大学教授唐杰团队研发的chatglm大模型,目前位列国内大模型开源领域影响力前列。2023年6月,清华大学KEG和数据挖掘小组(THUDM)发布了第二代ChatGLM2-6B大模型。ChatGLM-6B是国产开源大模型领域最强大的的大语言模型之一,因其优秀的效果和较低的资源占用在国内引起了很多人的关注。第一代的ChatGLM2-6B是一个非常优秀的聊天大语言模型,它的部署成本很低。相比较第一代,第二大的ChatGLM2-6B模型主要有四点升级:升级1:基座模型升级,性能更加强大;升级2:更长的上下文;升级3:更高效的推理,更快更便宜;升级4:更加开放的协议。根据官方的说明,ChatGLM2-6B的资源占用更低,速度更快。其次是资源占用降低,在不同的量化水平下,相同显存支持的对话长度提升约8倍!对于大模型的未来发展,唐杰提出三点思考,一,目前的千亿模型能力已经很强大了,未来重要的是如何把它的智慧提炼发挥出来;二、大模型如何跟外界进行交互;三、如何让大模型具有反思能力,能自我反思,自我纠错,并且具有一定的价值观,具有一定的意识。

NO2.百度“文心”大模型

百度文心大模型源于产业、服务于产业,是产业级知识增强大模型。百度通过大模型与国产深度学习框架融合发展,打造了自主创新的AI底座,大幅降低了AI开发和应用的门槛,满足真实场景中的应用需求,真正发挥大模型驱动AI规模化应用的产业价值。文心大模型的一大特色是“知识增强”,即引入知识图谱,将数据与知识融合,提升了学习效率及可解释性。文心ERNIE自2019年诞生至今,在语言理解、文本生成、跨模态语义理解等领域取得多项技术突破,在公开权威语义评测中斩获了十余项世界冠军。2022年11月30日,由深度学习技术与应用国家工程研究中心主办、百度飞桨承办的WAVE SUMMIT+2022深度学习开发者峰会举行 [29] 。百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜发布文心大模型的最新升级,包括新增11个大模型,大模型总量增至36个[30] ,构建起业界规模最大的产业大模型体系,并通过大模型工具与平台的升级和文心一格、文心百中等基于大模型技术的产品应用,进一步降低大模型产业化门槛,让更多企业和开发者步入AI应用的新阶段。2023年6月,百度文心大模型3.5版本已内测可用。

NO3.华为云“盘古”大模型3.0

华为云盘古大模型,是华为旗下的盘古系列AI大模型,包括NLP大模型、CV大模型、科学计算大模型。2020年11月,盘古大模型在华为云内部立项成功,也完成了与合作伙伴、高校的合作搭建。2021年4月,盘古大模型正式对外发布。2023年7月7日,华为开发者大会2023上,华为常务董事、华为云CEO张平安宣布,华为云盘古大模型3.0正式发布。盘古大模型3.0是完全面向行业的大模型,包含L0基础大模型、L1行业大模型及L2场景模型三层架构,重点面向政务、金融、制造、医药、矿山、铁路、气象等行业。7月18日,华为联合山东能源集团宣布华为盘古大模型在矿山领域实现首次商用,解决人工智能在矿山领域落地难的问题。

NO4.复旦大学“moss”大模型

由复旦大学自然语言处理实验室邱锡鹏教授团队发布的MOSS大模型是国内第一个对话式大型语言模型。2023年4月21日,复旦大学计算机科学技术学院自然语言处理实验室开发的新版MOSS模型已上线,成为国内首个插件增强的开源对话语言模型,支持搜索引擎、图像生成、计算器、方程求解器等插件工具。除了完成升级迭代,MOSS模型还走上了开源道路,相关代码、数据、模型参数已在Github和Hugging Face等平台开放,供科研人员下载,促进人工智能模型研究和开源社区的生态繁荣。目前,MOSS项目的代码、数据、模型参数已在一些平台开放。开源代码涵盖模型训练和推理代码,开源数据包括超100万条对话训练数据,开源模型包括160亿参数中英双语基座语言模型、对话模型以及插件增强的对话模型。未来,MOSS将陆续开源更多训练数据及模型参数,促进人工智能领域的科学研究和开源社区的生态繁荣,同时也为企业私有化部署人工智能模型、开展相关服务提供解决方案。复旦大学自然语言处理实验室,是由复旦大学首席教授吴立德先生创建,是我国最早开展自然语言处理和信息检索研究的实验室之一。经过40余年发展,在自然语言处理底层分析、文本检索、自动问答、社会媒体分析等方面取得了一系列的研究成果。

NO5.科大讯飞“星火认知”大模型

2023年5月6日,科大讯飞正式发布“讯飞星火认知大模型”,产品具有7大核心能力,即文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模态能力。2022年12月,科大讯飞启动“1+N”大模型技术攻关。其中,“1”指的是通用认知智能大模型算法研发及高效训练方案底座平台,“N”指的是将认知智能大模型技术应用在教育、医疗、人机交互、办公、翻译等多个行业领域。2023年8月2日,讯飞星火APP已在苹果应用商店上架,版本更新为1.3.04。科大讯飞在互动平台表示,“讯飞星火APP正在升级优化,华为应用商店的讯飞星火APP新版本已于8月1日升级完毕。苹果商店尚在更新中。讯飞星火认知大模型V2.0升级发布会将于8月15日举办,届时会发布多模态生成、代码生成能力及行业产品等多项能力及应用。

NO6.商汤“日日新商量SenseChat”大模型

2023年4月,商汤科技董事长兼首席执行官徐立宣布推出“日日新SenseNova”大模型体系。日日新(SenseNova)大模型体系,包括自然语言处理模型“商量”(SenseChat)、文生图模型“秒画”和数字人视频生成平台“如影”(SenseAvatar)等。2023年4月10日,商汤科技举办技术交流日活动,分享了以“大模型+大算力”推进AGI(通用人工智能)发展的战略布局,并公布了商汤在该战略下的“日日新SenseNova”大模型体系。其中,商汤研发的大语言模型被命名为“商量SenseChat”。“商量SenseChat”在活动现场展示了多轮对话和超长文本的理解能力。包括:编程助手,可帮助开发者更高效地编写和调试代码;健康咨询助手,为用户提供个性化的医疗建议;PDF文件阅读助手,能轻松从复杂文档中提取和概括信息。

NO7.阿里云“通义千问”大模型

通义千问,是阿里云推出的一个超大规模的语言模型,功能包括多轮对话、文案创作、逻辑推理、多模态理解、多语言支持。能够跟人类进行多轮的交互,也融入了多模态的知识理解,且有文案创作能力,能够续写小说,编写邮件等。2023年4月7日,“通义千问”开始邀请测试,4月11日,“通义千问”在2023阿里云峰会上揭晓。4月18日,钉钉正式接入阿里巴巴“通义千问”大模型。

NO8.京东云“言犀”大模型

2023年7月13日,京东言犀大模型正式对外亮相。言犀大模型融合70%通用数据与30%数智供应链原生数据,具有更高产业属性、更强泛化能力、更多安全保障等优势,其已经可将原本需要10余名科学家花费一周时间才能完成的定制化开发工作缩短至数分钟。京东还发布了全新升级的优加DaaS和言犀智能服务平台,其可以面向零售、金融、城市、健康、物流五大领域的行业提供定制化解决方案。对于“言犀”大模型的应用实践,京东也有“三步走”规划。目前,京东云已经基于内部实践构建了通用大模型;到今年年底这段时间,京东将经由高复杂场景大规模锤炼,迭代出扎实的产业服务;预计在2024年初,会将大模型能力向外部延伸商业场景开放。目前,京东已经走到第二步,并在内部取得了丰富的实践成果。

NO9.网易有道“子曰”大模型

2023年7月26日,网易有道发布国内首个教育大模型“子曰”以及六大创新应用成果,覆盖口语训练、作文批改、习题答疑等领域,展现了“子曰”大模型在自然语言处理领域的技术实力及广泛应用前景。大模型“子曰”能为学生提供个性化的分析和指导,实现引导式学习,还具备全科知识整合能力。通过连接多模态知识库、跨学科整合知识内容,大模型能随时满足学生的动态需求,帮助孩子培养更综合的能力。“子曰”大模型在教育行业的应用,不仅可以帮助学生更好地学习,也可以帮助老师更好地教学,借此实现因材施教的教育战略。

NO10.学而思数学大模型“MathGPT”

2023年5月,学而思宣布正在研发一款面向全球数学爱好者和科研机构的自研数学大模型,名为MathGPT。与通用语言模型不同,该大模型专注于解题和讲题算法,旨在弥补通用语言模型在数学问题解决、讲解、问答和推荐方面的不足。学而思AI团队负责人表示,通用语言模型虽能在文本处理方面表现出色,但在数学领域的表现却存在明显不足。MathGPT将通过解决现有通用语言模型的三个问题来弥补这一不足:提高题目解答的准确性、稳定性和清晰度,让解题过程更能够适配不同年龄段的学生。在人工智能领域的多年深耕使得学而思有能力自主研发MathGPT。学而思拥有20年的数学教学经验,其海外业务Think Academy在全球多个国家和地区深受数学爱好者喜爱,并在每年的IMO和AMC等国际数学竞赛中表现优异。

来源:高校大数据与人工智能推进联盟

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能行业岗位一览

人工智能行业的岗位薪资高、待遇好、涨薪快已经是公开的事实,那么在人工智能行业中具体有哪些职业岗位呢?对于普通人来说,想要入行人工智能又有哪些机会呢?

下面是人工智能领域中的一部分职业岗位,随着技术的不断发展,未来还会涌现出更多新的职业机会。无论你的兴趣是什么,相信都可以找到与人工智能相关的职业岗位。

1. **人工智能算法工程师**:作为专业的人工智能算法工程师,可以负责设计、开发和优化人工智能算法,用于解决各种实际问题,如图像处理、自然语言处理、语音识别、推荐系统等。

2. **数据科学家**:可以应用人工智能算法和技术,从大规模数据中提取有价值的信息,进行数据分析、建模和预测,为企业决策提供支持。

3. **机器学习工程师**:专注于机器学习算法的开发和应用,可以设计和实现各类机器学习模型,用于数据挖掘、分类、聚类等任务。

4. **深度学习工程师**:具备深度学习算法的实际应用和开发能力,可以处理复杂的数据,如图像、声音和文本等,解决模式识别和决策问题。

5. **自然语言处理(NLP)工程师**:专注于处理和分析人类语言的计算机应用,如机器翻译、情感分析、智能客服等。

6. **计算机视觉工程师**:负责图像和视频数据的处理和分析,开发图像识别、目标检测、人脸识别等应用。

7. **人工智能产品经理**:了解人工智能技术和应用,负责规划、设计和推广人工智能产品,满足市场需求。

8. **智能硬件工程师**:结合人工智能技术,开发智能硬件产品和应用,如智能家居、智能机器人等。

9. **人工智能咨询顾问**:对人工智能技术有深刻理解,能够为企业或机构提供人工智能相关的咨询和建议。

10. **教育培训人员**:可以成为培训机构或企业的人工智能技术培训师,传授人工智能算法和技术的知识与实践。

11. **人工智能研究员**:投身于人工智能前沿的研究,推动人工智能技术的不断创新和发展。

12. **人工智能项目经理**:负责领导和管理人工智能项目的规划、执行和交付,协调跨部门合作,确保项目按时、按质完成。

13. **人工智能工程师团队负责人**:领导人工智能团队,监督团队的技术进展、项目计划和资源分配。

14. **人工智能系统架构师**:设计和构建复杂的人工智能系统架构,确保系统的性能、可扩展性和稳定性。

15. **人工智能数据工程师**:负责数据的采集、清洗、预处理和存储,为人工智能算法提供高质量的数据支持。

16. **人工智能训练师**:负责数据标注和处理,以及对模型的训练和调优等,保障人工智能模型的训练能够达标。

17. **人工智能运维工程师**:负责维护和管理部署在生产环境中的人工智能系统,保障系统的稳定运行。

18. **人工智能伦理与合规专家**:关注人工智能的伦理和法律合规问题,提供合规性建议,确保人工智能应用的合法合规性。

19. **人工智能创业者**:基于持有的人工智能算法技能,创办自己的人工智能相关企业,开发创新的人工智能产品和服务。

20.**人工智能法律顾问**:关注人工智能法律法规,为企业提供人工智能项目合规性评估和法律咨询。 

21. **人工智能商务拓展经理**:将人工智能技术应用于商业领域,开展市场拓展、业务合作,推动人工智能产品和服务的商业化。

22. **人工智能售前工程师**:配合人工智能销售人员,进行人工智能产品方案的编写、宣讲等,完成人工智能产品的销售。

23**人工智能领域的作家和科普者**:利用专业知识,撰写人工智能领域的文章、书籍或博客,推动公众对人工智能的理解和认知。

24. **人工智能医疗专家**:将人工智能技术应用于医疗领域,参与医学图像分析、疾病预测等应用。

25. **人工智能金融分析师**:将人工智能应用于金融领域,进行风险评估、交易预测、投资分析等工作。

26. **人工智能产品测试工程师**:负责测试人工智能产品的性能、稳定性和安全性,确保产品符合质量标准。

27.**人工智能音乐创作者**:探索人工智能在音乐创作中的应用,创造出新颖、独特的音乐作品。

28. **人工智能农业专家**:将人工智能技术应用于农业领域,进行作物病虫害识别、精准农业管理等工作。

29. **人工智能环保专家**:利用人工智能技术解决环境保护问题,如空气质量预测、垃圾分类等。

30.**人工智能游戏开发者**:将人工智能技术融入游戏开发,创造更智能、逼真的游戏体验。

31. **人工智能用户体验(UX)设计师**:结合用户需求和人工智能技术,设计用户友好的界面和交互体验。

32. **人工智能创意艺术家**:将人工智能技术应用于创意艺术创作,创造出独特的艺术作品。

33. **人工智能社会学家**:研究人工智能对社会、文化和伦理的影响,提出相应的社会政策建议。

34. **人工智能可视化专家**:利用数据可视化技术,将复杂的人工智能算法和数据呈现为易于理解的图形。

35. **人工智能安全专家**:关注人工智能系统的安全漏洞和风险,提供安全性评估和解决方案。

36. **人工智能跨学科研究员**:将人工智能技术与其他学科结合,探索交叉领域的研究问题。

37. **人工智能虚拟现实(VR)/增强现实(AR)开发者**:将人工智能与虚拟现实或增强现实技术相结合,开发交互式应用。

38. **人工智能社交媒体分析师**:利用人工智能技术分析社交媒体数据,洞察用户行为和趋势。

39. **人工智能语音技术工程师**:专注于语音识别、合成和处理技术,开发智能语音助手和应用。

40. **人工智能机器人工程师**:将人工智能技术应用于机器人控制和决策,开发智能机器人系统。

41. **人工智能交通系统优化师**:应用人工智能技术,优化交通流量、减少拥堵和提升交通安全。

42. **人工智能社交媒体营销专家**:运用人工智能分析工具,制定社交媒体营销策略,优化用户互动和品牌影响力。

43. **人工智能气候模拟研究员**:将人工智能应用于气候模拟和预测,为应对气候变化提供数据支持。

44. **人工智能文化遗产保护者**:利用人工智能技术,数字化和保护文化遗产,如艺术品、历史文物等。

45. **人工智能物流规划师**:应用人工智能技术,优化物流和供应链规划,提高效率和减少成本。

46. **人工智能体育分析师**:利用人工智能技术,进行体育数据分析,优化训练和比赛策略。

47. **人工智能人力资源专家**:结合人工智能技术,进行招聘、绩效评估和人才管理。

48. **人工智能智能驾驶工程师**:将人工智能技术应用于自动驾驶系统,提高驾驶安全性和便捷性。

49. **人工智能家庭健康顾问**:结合人工智能技术,为家庭提供健康管理和咨询服务。

50. **人工智能跨界艺术家**:将人工智能技术与艺术相结合,创作跨界作品,如艺术装置、数字艺术等。

51. **人工智能决策支持分析师**:应用人工智能技术,为企业和组织提供决策支持和数据洞察。

52.**人工智能社交心理学家**:研究人工智能对人类社交和心理健康的影响,提供相关建议和方案。

上面这些职业方向代表了人工智能领域的更多可能性,无论是已经从事相关领域还是准备进入人工智能领域,都可以找到相似的岗位。在这些岗位中,排名第一的人工智能算法工程师是所有岗位中的核心岗位,因为人工智能之所以有智能,就是因为算法的存在,在人工智能的构成要素中,算法相当于人类的大脑,可以想象一下,没有了大脑的人类会是怎么样。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌发布多平台应用开发神器:背靠 AI 编程神器 Codey,支持 React、Vue 等框架,还能补全、解释代码

8 月 8 日,谷歌宣布推出 AI 代码编辑器 IDX,旨在提供基于浏览器的人工智能开发环境,用于构建全栈网络和多平台应用程序。谷歌在创建 IDX 时并没有构建新的 IDE(集成开发环境),而是使用 VS Code 作为其项目的基础。目前,IDX 支持 Angular、Flutter、Next.js、React、Svelte 和 Vue 等框架以及 JavaScript 和 Dart 等语言,后续还将支持 Python、Go 和其他语言。

据了解,IDX 是基于 Google Cloud 构建的一整套浏览器开发体验,由 Codey 提供支持。IDX 项目还以 Code OSS 编辑器为基础。当前,IDX 还未大面积开放,只有少数指定测试人员能够亲身参与体验。不过 IDX 团队透露,在即将召开的 Google Cloud Next 大会上,可能会有更多 Codey 现有成果及未来发展计划的消息与广大开发者见面。IDX 团队表示:

我们花费了大量时间编写代码,AI 的最新进展则创造了巨大的机会空间,能让我们更高效地利用时间。通过 IDX 项目,我们正探索谷歌在 AI 领域的创新成果(包括为 Android Studio 中的 Studio Bot 提供支持的 Codey 与 PaLM 2 模型、Google Cloud 中的 Duet 等)如何帮助开发者加快代码编写速度、提高代码编写质量。

IDX 团队在博文中提到,时至今日,从零开始构建应用(特别是能在移动、Web 和桌面平台上良好运行的应用)的难度简直不逊于制造鲁布·戈德堡机械(Rube Goldberg machine,一种被设计得过度复杂的机械组合)。开发者需要在无尽的复杂性之海中航行,将种种技术栈粘合起来,奋力摸索出一条能够正确引导、编译、测试、部署和监控应用的路线。

虽然谷歌多年来一直致力降低多平台应用的开发难度,也先后推出了 Angular、Flutter、Google Cloud 乃至 Firebase 等成果,但似乎还能做得更好。毕竟当下的多平台应用开发还远远称不上快速、顺畅。所以几个月前,谷歌的几个小伙伴聚在一起开始尝试,而这场实验的早期成果就是 IDX 项目(http://idx.dev/)。

团队之所以决意构建 IDX 项目,一个重要原因就是希望听取广泛开发者社区的意见,了解哪些要素能帮助大家提升工作效率。

具体来说,IDX 项目当前主要可实现以下功能:

1. 随时随地,快速工作。IDX 项目的核心是帮助开发者在任何位置、任何设备上进行开发,并且获得完全保真的本地开发体验。IDX 项目中的每个工作区都具备基于 Linux 虚拟机的全部功能,并配有托管在开发者邻近云数据中心的通用访问权限。

2. 可导入现有应用,也可创建新应用。IDX 项目允许开发者从 GitHub 处导入现有项目,随时从上次完成的位置继续开发。开发者也可以使用各类流行框架的预制模板创建新项目,包括 Angular、Flutter、Next.js、React、Svelte、Vue 以及 JavaScript 和 Dart,并即将推出对 Python 与 Go 语言的支持。此外,IDX 团队还在积极努力为更多项目类型和框架提供最佳支持。

3. 跨平台实现应用预览。如今,构建成功应用意味着要对应用的设计和行为做跨平台优化,并以用户“所见即所得”的方式预览应用效果。为了降低这一切的实现门槛,IDX 项目提内置有 Web 预览功能,而且即将推出经过完善配置的 Android 模拟器与嵌入式 iOS 模拟器。所有这些,都可以在浏览器中直接使用。

4. 结合 AI 技术。目前,IDX 项目的 AI 功能尚处于早期阶段,但已经拥有智能代码补全、辅助聊天机器人以及“添加注释”和“解释此代码”等结合上下文的代码操作。

5. 借助 Firebase Hosting 实现 Web 发布。将应用投入生产的一大常见痛点就是部署流程。IDX 项目集成了 Firebase Hosting 以降低整个操作难度,只需单击几下,即可部署 Web 应用的可共享预览,或者使用快速、安全的全球托管平台将其部署至生产环境。由于 Firebase Hosting 能够支持基于 Cloud Functions 的动态后端,因此能够与 Next.js 等全栈框架良好配合。

IDX 团队表示,目前 IDX 项目才刚刚起步,距离最终的端到端开发流程改进还有很长的路要走。希望开发者可以注册成为首批 IDX 项目体验者,大家携手发现的问题将为项目的后续迭代方向、以及还需哪些新增功能以匹配应用团队的工作流程带来指引。

至于下一步计划,IDX 团队称,将不断努力添加新功能并解决开发者反馈的问题。“我们已经在研究新的协作功能,因为我们深知这项功能在如今混合办公时代下的重要意义。此外,更深入的框架集成和个性化 / 情境化 AI 选项也在筹备当中。期待听到大家提出的更多功能需求!”IDX 背后的 AI 模型 Codey

根据介绍,IDX 由 Codey 提供支持。

在 Google I/O 2023 大会上,谷歌正式发布 Codey。这是一款新型 AI 驱动工具,能够编写并理解代码内容。这款新工具被外界视为谷歌对于 GitHub Copilot 的回应,属于同 Replit 结盟打造的成果。

Codey 基于谷歌的下一代大语言模型 PaLM 2,并采用谷歌自家产品代码及大量合法许可的源代码作为训练素材。更重要的是,Codey 仍在不断学习和发展,从谷歌服务生态系统的各个项目中持续汲取新的力量。

Codey 支持 20 多种编程语言,包括 Go、谷歌标准 SQL、Java、JavaScript、Python 以及 TypeScript。开发者可以通过 Visual Studio Code、JetBrains IDE、Google Shell 编辑器以及 Google Cloud 托管工作站服务的扩展来访问 Codey。开发者能够直接在 IDE 的聊天框中与该模型交流(例如 Android Studio Bot),或者在文本文件中编写注释以指示其生成相关代码。它支持各种编码任务,通过以下方式帮助开发人员更快地工作并缩小技能差距:

  • 代码完成:Codey 根据提示中输入的代码上下文建议接下来的几行。
  • 代码生成:小程根据开发人员的自然语言提示生成代码。
  • 代码聊天:Codey 允许开发人员与机器人对话,以获得调试、文档、学习新概念和其他与代码相关问题的帮助。

Codey 在处理与编码相关的提示词方面接受了专门训练,谷歌还通过其他训练让该模型学会了处理关于 Google Cloud 的一般查询。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

成功在于远见?英伟达CEO称英伟达5年前把一切都押在了AI上

随着之前GPT-4语言模型的正式投入使用,ChatGPT也带来了全新的插件——网络浏览器和代码解释器,赋予ChatGPT使用工具、联网、运行计算的能力。

而在现在的市场上,英伟达的AI计算芯片就成为了“抢手货”,也使得英伟达迅速扭转在独立显卡需求下降后的利润下降。并且据相关分析师称,ChatGPT有点像开始了一场军备竞赛,英伟达是远远领先的。

据相关媒体报道,黄仁勋今年的财富攀升了33%,达到184亿美元,这与去年形成鲜明对比,去年其财富下降是科技巨头中最大的之一。英伟达最初专注于创建计算机芯片和 GPU,现在已经成为为人工智能应用提供动力的主导者,从自动驾驶汽车到机器人到加密货币开采,虽然目前加密货币正在走下坡路,但是智能聊天机器人系统ChatGPT带给了英伟达新的商机。

此前,英伟达 CEO 黄仁勋表示,人工智能将使所有人只需对着电脑说话就能变身程序员,这意味着“数字鸿沟”被填平。黄仁勋称,人工智能正在引领一场计算革命。“毫无疑问,我们正处于新的计算时代。”

“编程门槛变得极低。我们填补了数字鸿沟,现在,所有人都是程序员 —— 你只需要对着电脑说话即可。”黄仁勋说,“由于如此便于使用,所以进步的速度飞快,这会影响几乎每个行业。”

而在今日的SIGGRAPH大会上,英伟达创始人兼CEO黄仁勋发表了主题演讲,他表示,该公司在 2018 年做出了一个关乎生死存亡的商业决定,但很少有人意识到这将重新定义其未来和帮助重塑一个不断发展的行业。黄仁勋在演讲中回顾了五年前的那个转折点,那就是选择采用AI处理图像的方式,即光线追踪和智能渲染:分别是RTX和DLSS技术。他说:“我们意识到光栅化已经达到了极限。”光栅化是传统的、广泛使用的渲染3D场景的方法。“2018年是一个‘孤注一掷’的时刻,要求我们重新发明硬件、软件、算法。而当我们用AI重新发明CG时,我们也在重新发明GPU用于AI。”

黄仁勋坚称,这只是开始。新的模型不仅需要被训练,还需要被数百万甚至数十亿用户定期实时运行。但相关媒体称,黄仁勋仅仅提及了未来AI的发展前景,并未提及目前AI所面对的信息安全方面的监管难题,至于后续英伟达会在AI方向作何调整,感兴趣的小伙伴可以保持关注。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI公司疯抢GPU,分析师:英伟达泡沫将破

由于计算需求旺盛的生成式人工智能没有显示出放缓的迹象,一些公司开始使用 Nvidia 难以获得的、超昂贵的高性能计算 H100 GPU 来进行大型语言模型 (LLM) 训练,这正在成为“特斯拉前 AI 总监、现任 OpenAI 的安德烈·卡帕蒂 (Andrej Karpathy) 表示,这是硅谷“头号八卦”。

Karpathy 发表此番言论之际,大型科技公司的年度报告甚至都在讨论与 GPU 访问相关的问题:在微软上周发布的年度报告中,该公司向投资者强调,GPU 是“其快速增长的云业务的关键原材料”。”并将有关 GPU 的语言添加到“如果无法获得所需的基础设施,可能会出现中断的风险因素”。

Karpathy 在社交网络 X(以前的 Twitter)上转发了一篇广为流传的博客文章,该文章被认为是由 Hacker News 上的发帖者撰写的,该文章推测“小型和大型云提供商的大规模 H100 集群的容量即将耗尽, ”并且 H100 需求至少将持续到 2024 年底。

作者猜测 OpenAI 可能需要 50,000 个 H100,而 Inflection 需要 22,000 个,Meta“可能需要 25k”,而“大云可能需要每个 30k(Azure、Google Cloud、AWS 以及 Oracle)。Lambda 和 CoreWeave 以及其他私有云可能总共需要 100k。他写道,Anthropic、Helsing、Mistral 和Character 可能各要10k。

作者表示,这些估计“完全是粗略估计和猜测,其中一些是对云计算和将从云计算租用的最终客户进行了重复计算。” 但这达到了大约 432k H100。每块价格约为 35K 美元,GPU 的价值约为 150亿美元。这还不包括像字节跳动(TikTok)、百度和腾讯这样需要大量 H800 的中国公司。还有一些金融公司从数百台 A100 或 H100 开始进行部署,然后扩展到数千台 A/H100:例如 Jane Street、JP Morgan、Two Sigma、Citadel。”

Radical Ventures 合伙人 David Katz最近告诉 VentureBeat,与人工智能芯片争夺战最接近的类比是电视剧《权力的游戏》 。“为了运行这些模型和大型模型,需要对计算有永不满足的需求,”他说。

去年,Radical 投资了 CentML,它优化了机器学习 (ML) 模型,以提高工作速度并降低计算成本。他表示,CentML 的产品在市场上创造了“更高一点的效率”。此外,它还证明了复杂的、超过十亿个参数的模型也可以在传统硬件上运行。

“所以你不需要相同数量的 GPU,或者你不一定需要 A100,”他说。“从这个角度来看,它本质上是在增加市场上芯片的产能或供应。”

然而, d-Matrix首席执行官 Sid Sheth 表示,这些努力对于那些从事人工智能推理工作的人来说可能更有效,而不是从头开始训练LL,。该公司正在构建一个平台,通过在计算机中进行更多处理来节省推理成本 。内存上,而不是 GPU 上。

他最近对 CNBC 表示:“推理的问题在于,如果工作量激增得非常快,就像 ChatGPT 发生的情况一样,它会在五天内增加一百万用户。” “你的 GPU 容量无法跟上,因为它不是为此而构建的。它是为训练和图形加速而构建的。”

对于 LLM 训练——包括 OpenAI、Anthropic、DeepMind、Google 以及现在埃隆·马斯克的 X.ai 在内的所有大型实验室都在进行——Nvidia 的 H100 是无可替代的。

这对于像 CoreWeave 这样的云初创公司来说是个好消息,因为 CoreWeave 准备从 GPU 云中赚取数十亿美元,而且 Nvidia 正在提供大量 GPU,因为 CoreWeave 并没有构建自己的 AI 芯片来竞争。

McBee告诉 VentureBeat,CoreWeave 去年的收入为 3000 万美元,今年将达到 5 亿美元,明年已经签订了近 20 亿美元的合同。CNBC  6 月份报道 称,微软“已同意在未来几年内斥资数十亿美元购买初创公司 CoreWeave 的云计算基础设施。”

“这一切发生得非常非常快,”他说。“我们正在努力满足大量积压的客户需求。我们目前还在 12 个不同的数据中心进行建设。我正在从事当今地球上最大的基础设施建设之一,而在一家三个月前你从未听说过的公司。”

他补充说,人工智能的采用曲线是“有史以来上市的任何软件中最深入、最快的采用”,而训练这些模型所需的特定类型计算的必要基础设施却跟不上。

但 CoreWeave 正在尝试:“自 4 月份以来,我们已经将下一代 H100 计算交给了世界领先的人工智能实验室,”他说。“直到第四季度你才能从谷歌获得它。我认为亚马逊的……预定预约要到第四季度才会出现。”

他表示,CoreWeave 正在帮助 Nvidia 更快地将其产品推向市场,并“帮助我们的客户从中获得更多性能,因为我们以比超大规模厂商更好的配置构建它——这促使 [Nvidia] 对我们进行投资,这是这是他们做出的唯一云服务提供商投资。”

就 Nvidia 而言,一位高管表示,问题不在于 GPU 短缺,而在于这些 GPU 如何进入市场。

Nvidia DGX Systems 的副总裁兼总经理 Charlie Boyle 表示 Nvidia 正在“建设充足的产品”,但也谈到了很多短缺问题。云提供商之间的差异归结为已经预售给客户的产品。

“在系统方面,我们一直对客户的供应非常敏感,”他在最近的一次采访中告诉 VentureBeat。他解释说,对数千个 GPU 的请求将需要更长的时间,但“我们可以满足大量此类需求。”

他解释说,过去七年他学到的一点是,归根结底,这也是一个供应链问题——因为供应商提供的小组件可能更难获得。“因此,当人们使用 GPU 短缺这个词时,他们实际上是在谈论主板上某些组件的短缺或积压,而不是 GPU 本身,”他说。“这些东西的全球制造有限……但我们预测人们想要什么以及世界可以建造什么。”

博伊尔表示,随着时间的推移,“GPU 短缺”问题将“从围绕短缺的炒作与某人制定糟糕计划的现实来看,逐渐从叙事中消失。”

摩根士丹利策略师表示,人工智能股票的泡沫已接近顶峰,他们指出 Nvidia 公司今年的涨幅超过 200%。

摩根士丹利策略师爱德华·斯坦利在一份报告中写道,根据历史背景,这次股市飙升将处于“后期”。“泡沫在高峰前的 3 年里往往会上涨 154% 的中值。”

尽管英伟达一直是人工智能领域令人兴奋的典型代表,但斯坦利表示,更广泛的人工智能基准,如 MSCI 美国 IMI 机器人和人工智能精选净美元指数,上涨幅度要小得多。该指标上涨了约 47%。

这家总部位于加利福尼亚州圣克拉拉的公司一直处于今年人工智能热潮的核心,其乐观的前景证明人工智能计算的支出正在推动销售。

可以肯定的是,整个行业的股票并不具有统一的特征。因此,斯坦利表示,考虑到个人名字的特殊性,“只有在指数水平上才能有效或公平地得出泡沫上升和下降速度的结论。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

全场景能力跃迁!广汽AI大模型平台首发亮相

8月8日,广汽正式推出AI大模型技术的最新研发成果——广汽AI大模型平台,该平台是汽车行业首创的大模型平台技术,将在近期搭载于高端智能轿跑昊铂GT亮相。

广汽AI大模型平台聚合了多种AI大模型,并与广汽智能网联底层能力深度融合,不仅能调用通用大模型的能力,还能基于智能汽车的应用场景构建专用模型,实现全场景智能体验的跃迁。

广汽AI大模型平台具备什么能力?

广汽AI大模型平台以海量的用车和研发数据集为基础,将结构化数据汇聚到AI中台,通过中台训练形成多种特定场景模型;平台可以根据应用需要,灵活调用多个模型,从而获得最优的推理结果,让应用服务精准、高效运行。

广汽AI大模型平台框架

基于广汽星灵电子电气架构的原子化服务能力,广汽AI大模型平台与车端能力和云端生态深度融合,让AI大模型平台成为全场景应用的入口,重塑智能汽车场景交互范式。

广汽AI大模型平台将率先落地什么功能?

广汽AI大模型平台将率先落地智能语音交互场景。基于该平台,智能语音可结合各种模型优势,运用车端本地推理能力和云端混合模型技术,实现精准的上下文语义理解;并结合广汽魔方场景共创平台与丰富的云端生态服务,全面提升语音的智能化和情感化,为用户带来更愉悦的使用体验。

目前,广汽AI大模型平台在不断测试与迭代中,已表现出相当高的“智商”和“情商”。

语音能力跃迁

基于环境和情绪状态感知,广汽AI大模型平台能更好地理解用户意图,实现更深层次的个性化和“类人”的交互。

自由对话:更加准确的语义理解模型,实现“类人”的自由交流。

移动百科:上知天文下知地理,旅途中的风土人情无所不知。

用车体验跃迁

广汽AI大模型平台将赋能移动出行体验,覆盖全场景用车服务,更深一层为用户解决旅途中的难题。

用车助手:全面集成智能汽车知识图谱,覆盖所有场景与功能,便捷获取使用指南和操作入口,提供贴心的用车服务。

行程规划:基于用户偏好、位置、环境感知和生态服务等,精准匹配用户出行需求,自动生成游玩攻略。

AI超级大脑

广汽AI大模型平台还具备强大内容生成与计算能力,让智能座舱成为解决复杂问题的超级大脑。

创作助手:自主创作内容,分析并提炼信息,提升创作和阅读效率。

超级大脑:结合大语言模型和计算引擎能力,可解析数理问题,并提供推理与运算过程。

广汽AI大模型平台改变了机械式的语音交互,将“一问一答”的形式升级为无门槛、直觉式的自然对话,让智能座舱真正具备“高情商”和“超智慧”。相关能力将在充分验证成熟后,通过OTA与车主见面。

广汽AI大模型平台还将带来哪些变化?

不仅智能座舱的体验将被颠覆,广汽AI大模型平台还将赋能智能驾驶。广汽一直积极探索人工智能在智能汽车感知、决策的应用,由全球人工智能顶级专家陈学文领衔、以纯视觉路线为主的世界前沿自动驾驶全栈自研X Lab团队,已在泊车和行车领域取得突破性进展。广汽AI大模型平台的应用将进一步提高智能驾驶的感知能力,提升智能驾驶的安全性和可靠性。

除了智能汽车本身,广汽AI大模型平台还将带来智能网联全链路的升级。大模型平台应用到正向研发领域,将促进软件开发、虚拟验证、仿真测试等环节的效率,加快智能汽车迭代升级。在数字化领域,大模型将提升多模态数据的挖掘能力和效率,结合海量数据和大量案例,为智能汽车提供智能诊断、健康预测的能力,建立全生命周期健康专家系统。

当前,智能驾驶和智能座舱的广泛普及,让汽车承载了更多生活属性。AI大模型的应用,将赋予智能汽车“智商”和“情商”,使之变得“类人”,充满智慧。广汽将基于自身在人工智能和智能网联领域的积累,联合星河智联、科大讯飞等业内顶尖合作伙伴,持续聚合行业先进的大模型解决方案,不断研发和丰富专用模型,为用户打造人车交互新范式,提升全场景智能体验。

广汽AI大模型平台将在近期搭载于高端智能轿跑昊铂GT亮相,届时大家将率先体验到该平台的智能语音交互能力,更多能力也将陆续揭晓,敬请拭目以待。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

2023:人工智能的“奇点”,隐私计算的“原爆点”

2023年初,ChatGPT横空出世,标志着生成式人工智能崛起。

作为一种新兴的数据安全技术范式,隐私计算借此契机,再次成为焦点。

近日,召开的2023中国人工智能大会共有8个平行专题论坛,其中就包含聚焦隐私计算的“隐私计算与人工智能发展专题论坛”。无独有偶, 今年7月初举办的2023世界人工智能大会上,同样针对隐私计算技术开设了“数据要素与隐私计算高峰论坛”

2023年,被视为隐私计算“融合应用之年”,是隐私计算在多个行业场景大规模应用的关键年份,在人工智能加速落地的时代,这一“数据安全技术基座”将迎来更多的爆发机遇。

隐私计算是在保护数据本身不对外泄露的前提下实现数据分析计算的技术集合,达到对数据“可用、不可见”的目的;在充分保护数据和隐私安全的前提下,实现数据价值的转化和释放。基于这一特性,隐私计算可以确保在不泄露数据内容的情况下,帮助人工智能获取更多、更广、更深的数据资源。

从1949年香农开创现代密码学时代起,安全多方计算、零知识证明被陆续提出,多种新的技术路线和隐私计算方案(例如混淆电路、基于秘密分享的MPC、半同态加密等协议和算法等)也陆续出现,七十余年间,隐私计算的技术体系逐步发展和壮大,并开始有大规模的项目落地。

2019年后,隐私计算进入应用期,在数据要素市场建设和数据价值发挥的时代背景下,产业需求快速增长,隐私计算走出学院派与实验室,广泛与行业应用场景相结合。各类隐私计算厂商也如雨后春笋一般涌现出来,激发了隐私计算技术可用性的快速提升。

时间来到2023年。数字经济建设提档加速,人工智能方兴未艾,人们开始了对区块链、元宇宙等概念的探索。新技术崛起,为隐私计算带来了全新的挑战与机遇。

融合发展:人工智能带来挑战与机遇

2023中国人工智能大会期间,上海交通大学讲席教授、博导、日本工程院外籍院士李颉在演讲中指出,人工智能的三大基础是算法、数据、算力聚焦数据层面,如何在合规尊重用户隐私的条件下充分发挥数据价值,如何打破壁垒、连接数据孤岛、提高可用数据的数量和质量 ,已成为人工智能发展需要解决的关键问题,而隐私计恰恰就是打破数据孤岛、拓展数据疆界的关键技术。

人工智能技术革命背后意味着巨大的隐私挑战。

在以深度学习为主导的人工智能浪潮中,基于大数据的深度学习技术最开始在互联网领域成功落地,并广泛运用于搜索、推荐、语音识别、机器翻译等各个方面。随着人工智能超级模型工作的推进,算法训练模型所使用的数据规模越大,模型参数规模越大,模型在使用时候识别精度就越高。至此,AI进入大模型时代,并有望在医疗、金融、教育等数据丰富的行业首先落地。

AIGC的出现标志着人工智能发展史走到了“奇点”。数字技术迎来颠覆性的变局,也将会带来新的冲击和挑战。尤其是AIGC的训练过程基于大量数据集,这一属性也会使数据收集、使用、流通和计算面临更多合规要求。因此,在展望AIGC未来的同时,仍需要增强隐私计算技术的应用,并通过建立监管机制、增强相关立法,确保AIGC合规发展。

未来方向:乘时乘势,带入千行百业

AIGC崛起,有望成为隐私计算迎来“原爆点”的契机。

在技术层面,隐私计算不同技术路线正在走向融合,实现“1+1>2”的效果。与此同时,隐私计算与区块链、人工智能、工业互联网也逐步融合,尤其是隐私计算与硬件的结合已产生多款一体机等软硬件结合产品,预计将会越来越丰富。聚焦AIGC,当前业内均在尝试使用各种方式保护用户数据隐私。除了较为直接的方法,如向用户提供警告信息之外,隐私计算也已成为AIGC中隐私保护的重要工具,联邦学习和可信执行环境是其中较有代表性的技术路线。

在AIGC服务的生命周期中,用于训练的大规模数据集和用户的私人信息需要得到保护,可以利用联邦学习来解决训练数据的安全问题。由于AIGC应用与互联网高度集成,用于AIGC模型训练的数据发生在边缘服务器和移动设备上,它们对各种威胁隐私的攻击的防御能力较弱。最近,研究人员已经提出几个分布式学习框架用于隐私保护,利用联邦学习技术,可以实现在边缘服务器和移动设备上进行模型微调和推理,联邦学习在训练期间不传输原始数据,从而确保AIGC模型训练过程的安全性。

在此基础上,将可信执行环境(TEE)和联邦学习技术结合,可以为大语言模型提供更完善的隐私和数据保护。借助基于TEE的联邦学习解决方案,在训练阶段,TEE中的数据处理都处于加密状态,在推理阶段TEE能够保护用户输入和模型结果的隐私;同时,TEE的硬件隔离和安全验证机制可以防止未经授权的访问和攻击,增强模型运行时的安全性。

伴随着技术的不断成熟,国内外隐私计算产业化的步伐明显加快。未来几年,将是隐私计算技术产品加速迭代、应用场景快速拓展、产业生态逐步成熟的重要阶段。

AIGC的“奇点”为契机,隐私计算有望迎来“原爆点”,被带入千行百业。联邦学习、TEE等多种技术体系间也将实现更深刻的融合。

在不远的将来,这项技术将如同移动互联网、水、电网一般,成为数字时代的底层基础设施。

来源:中国网

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

好戏开场!马斯克与扎克伯格的世纪大战,将在X平台直播

8月7日消息,X平台(推特)CEO埃隆·马斯克与Meta CEO马克·扎克伯格的“约架”一事,成了很多“吃瓜”网友关注的重点。

马斯克称,与扎克伯格之间的“八角笼约架”将在X平台直播,他表示“我肌肉长得很快,体力耐力是我的弱点,所以我打算速战速决。”

对于网友提出的“这次格斗意义是什么”的问题,马斯克回答称,“这是一种文明的战争形式。”

扎克伯格在Threads回应了马斯克的“约架”,他表示,“已经准备好了,建议日期定在8月26日,但马斯克没有确认”,扎克伯格还希望能换一个平台:“难道我们不应该使用一个更可靠的平台,可以为慈善机构筹集资金吗?”扎克伯格说。

据悉,6月20日,马斯克称准备和扎克伯格进行一场“笼中格斗”。扎克伯格随即应战称,“地址发我。”马斯克随后给出地址,“拉斯维加斯八角笼”。自此,双方达成“约架”。

对于这场“约架”,马斯克母亲梅耶尔·马斯克为自己儿子担心称“不要乱开玩笑,打打嘴仗算了,不要动武。”

值得一提的是,在前不久推特大乱时,扎克伯格“偷袭”马斯克,Meta发布了一款对标推特的社交App——Threads。

Threads上线仅4天就吸引了超过1亿用户,但根据研究机构Sensor Tower数据,截至7月31日,Threads日活用户数量比刚上线时暴跌82%,每天只有800万用户访问。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

苹果开始招募生成式AI人才,提供数十个大模型岗位

据《金融时报》,苹果公司正在加强其在生成式人工智能方面的专长,以将其应用于 iPhone 和 iPad。
苹果正在加利福尼亚、西雅图、巴黎和北京的办公室招聘数十个职位,这些职位将从事大型语言模型工作。所有这些岗位的招聘广告均在 4 月至 7 月间发布。彭博社上个月报道称,苹果公司去年年底开始试验自己的类 ChatGPT 工具。

22%员工经常在工作中使用AI
麦肯锡人工智能部门 QuantumBlack 发布的最新报告显示,生成式 AI 的使用已经相当普遍。麦肯锡在 2023 年 4 月 11 日至 21 日期间对不同地区、行业和公司规模的 1684 名参与者进行了一项在线调查。

79% 的受访者表示,无论是在工作还是工作之外,他们至少接触过生成式 AI。22% 的受访者称,他们经常在自己的工作中使用它。近一半(40%)受访者表示,得益于生成式 AI,公司计划增加整体人工智能投资。此外,该技术已被 28% 的公司列入董事会议程。

值得注意的是,北美受访者在工作中采用生成式 AI 处于全球领先地位,其中 28% 的受访者在工作和生活中使用该技术,而欧洲受访者和亚太地区受访者的比例分别为 24% 和 22%(中国仅为 19%)。

生成式AI为何在工作中普遍使用?

生成式AI即以人工智能技术为基础,能够生成具有一定创造性和独特性的内容,如文字、音乐、绘画等。它在工作中被广泛使用的原因主要是

一:生成式AI相较于传统人工智能技术,具有更高的自主创造能力。

二:生成式AI在创作和创新领域具有很大的潜力。

三:生成式AI在一些需要大量内容生成和处理的领域具有很大的优势。

四:生成式AI在日常工作中也具备自动化和智能化的优势。

生成式AI之所以在工作中得到广泛使用,主要得益于其高度的自主创造能力、创新潜力、内容生成和处理的优势,以及自动化和智能化的功能。未来,随着人工智能技术的不断发展和完善,生成式AI在工作中的应用前景将会更加广阔。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

亚马逊云全球副总裁:生成式AI正处于炒作周期,还未达顶峰

 来源:澎湃新闻

  记者 邵文

  “我认为我们无法否认互联网泡沫曾经存在过,但它确实改变了每个人的生活,我们现在已经无法想象没有互联网的生活了。我相信生成式人工智能将改变每一个职业、每一个行业中的每一个企业。这需要时间。”

  在生成式AI热潮下,今年美股中有七大科技股备受关注,它们分别是亚马逊(AMZN)、苹果(AAPL)、英伟达(NVDA)、特斯拉(TSLA)、Alphabet(GOOGL)、微软(MSFT)和Meta(META)。这七只股票在2023年有着极佳的开局,平均涨幅约为88%。

  根据美国财经媒体Business Insider的统计,这七大科技股的总市值今年飙升了60%,即4.1万亿美元,达到11万亿美元。这几乎是德国经济规模的三倍。根据世界银行的数据,到2022年底,德国经济价值略高于4万亿美元。

  其中,亚马逊是华尔街最受欢迎的股票,91%的分析师对其股票给予“买入”或同等评级。标准普尔500指数股票的平均买入评级约为55%。

  当前生成式AI的极高热度是否是泡沫?亚马逊云科技生成式AI全球副总裁瓦西·菲罗明(Vasi Philomin)对澎湃科技(www.thepaper.cn)记者回应道,“我认为我们无法否认互联网泡沫曾经存在过,但它确实改变了每个人的生活,我们现在已经无法想象没有互联网的生活了。我相信生成式人工智能将改变每一个职业、每一个行业中的每一个企业。这需要时间。”

 Gartner技术成熟度曲线(也称“炒作周期”)图表。

  菲罗明直接提出记者想问的问题:我们现在是否处于炒作周期(Hype Cycle)中?并直截了当地回答:“是的。如果你看看咨询公司Gartner发布的技术成熟度曲线(也称‘炒作周期’)图表,我想你应该很熟悉,我们可能还没有达到顶峰,肯定还会有更多炒作。但同时,很多人在幕后悄悄建立着有用的东西,他们在幕后实现着真实的业务用例。”

  菲罗明认为,当所有的炒作消失,技术成熟度曲线开始趋于平稳并再次起飞时,能够幸存下来的公司将是那些希望从商业角度思考问题,并使所有客户能够真实构建应用程序的人,这就是他们所希望的方向。

  根据Gartner最新发布的数据,全球基础设施服务市场在2022年增长了29.7%,总额达到1203亿美元。其中亚马逊以481亿美元的收入和40%的市场份额继续引领全球IaaS(基础设施即服务)市场,微软则以21.5%的份额位居第二。实际上,因为微软多年前对OpenAI的战略投资以及在生成式人工智能的积极参与,对于第二名(微软)对第一名(亚马逊)构成的挑战便一直是热门话题。

  华尔街分析师罗布·桑德森(Rob Sanderson)认为,“由于围绕生成式人工智能的兴奋点一直集中在微软和谷歌身上,许多投资者质疑AWS是否处于不利地位。”“我们认为更多投资者很快就会认识到人工智能将推动对云需求的有意义的扩张,而AWS将成为主要参与者。”

  但并非所有分析师都看好亚马逊云的增长。Itau BBA分析师蒂亚戈·阿尔维斯·卡普尔斯基斯(Thiago Alves Kapulskis)在亚马逊第一季度财报发布后的一份研究报告中写道,亚马逊与微软云服务之间的竞争令人担忧。“由于亚马逊存在如此多的不确定性,而且Azure(微软云)与AWS存在显著差异,我们相信市场将青睐前者及其母公司,而不是后者。”这位分析师写道。

  菲罗明在采访时并未回避这个问题。对于记者提及微软最新发布的一季财报,他提到,一个核心问题在于收入来源,从这个角度看两家公司业务模式存在差异——微软的核心业务可能是提升生产效率的办公产品,而AWS是一家B2B(business-to-business)企业,为企业提供云服务。

  “我们的重点是企业,我们提供的不是生产力应用程序,而是工具,我们的客户可以将这些工具应用于自己的业务工作流程中。”菲罗明表示,两者的商业模式并不相同,“如果人们使用AWS的服务,就是按调用付费。这是非常传统的AWS方式,你只支付你使用的服务。这与办公套件或微软的方式不同。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

ChatGPT增六项功能,GPT-4成默认模型,可上传文件、用快捷键

2022 年 11 月底,OpenAI 推出的 ChatGPT 掀起了生成式 AI 的狂潮。
在这不到 10 个月的时间里,ChatGPT 被不断升级完善,吸引了众多研究者的青睐。
刚刚,OpenAI 又放出一个好消息,他们宣布推出一些小的更新来改善用户使用 ChatGPT 的体验,这些改进预计将在下周推出


此次更新可概括为六点:
首先是 Prompt 示例帮助:以后用户在开始新的聊天时,将会有入门示例提供帮助。此前,用户经常会遇到空白屏幕,导致难以开始进行对话。为了缓解这种情况,ChatGPT 将在新聊天开始时提供示例提示,引导用户进行互动对话。
第二点 ChatGPT 背后默认模型是 GPT-4,即 Plus 用户开始一个新的聊天时,ChatGPT 会记住用户对之前模型的选择,默认模型不再是 GPT-3.5。

接下来是用户可以上传多个文件,以后用户可以要求 ChatGPT 根据上传的多个文件进行数据分析、生成见解。此外。Plus 用户在使用官方插件 Code Interpreter beta 版本时也能使用该功能。

网友对这一更新也是满怀期待,并表示 ChatGPT 上传多个文件的功能会改变游戏规则:

第四点是保持登录状态,用户不会在每两周被迫下线一次。当你登录时,还会看到一个欢迎界面。
Keyboard shortcuts: Work faster with shortcuts, like ⌘ (Ctrl) + Shift + ; to copy last code block. Try ⌘ (Ctrl) + /to see the complete list.


第五点是快捷键,接下来用户可以使用快捷键了,工作效率必能大大提高,例如,⌘(Ctrl) + Shift + 为复制最后一个代码块;⌘ (Ctrl) + / 查看整个列表等。

最后一点是建议回复,OpenAI 试图通过提供继续讨论的相关选项来丰富对话。用户只需单击一下即可更深入地探索主题,从而使用户与 AI 模型的交互更加动态和灵活。
以上这六点更新,大家下周就能使用了。


不得不说,OpenAI 对 ChatGPT 的改进越来越利好广大开发者,但是也不能完全覆盖到每一个用户,就有人提出了「有没有一个搜索栏,可以从你的聊天记录中找到一个特定的聊天记录,以便在以前的会话中使用已经提供的信息。」

但也有网友并不买账,前段时间大家都在讨论 GPT-4 变笨了,3 个月内其数学能力雪崩式下降,代码能力也变差。这位网友吐槽道:「OpenAI 的行动太迟缓了,本人已经退出 Plus 用户计划,现在使用 Bard 和其他替代品。这段时间以来,GPT-4 的回复质量急剧下降。」

不管怎样,对于很多用户来说,还是很期待的。我们最后粗略的列举了一下最近两个月,关于 ChatGPT 的消息:

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

你所交流的,或许并不完全是人类,AI正在「入侵」社交应用

AI 作为工具已经在各个领域帮助我们、服务我们。它不仅在科技领域生产价值,甚至给社交领域也打开了新世界的大门。

Tinder 作为一款手机交友 App 新推出了 AI 照片选择功能。该功能可以查看用户的相册,并在相册中选出五张最能代表用户的照片作为用户的约会简介。

这在一定程度上帮助用户解决了选择的烦恼。面对照片冗杂的相册,或许你自己也并不确定哪几张是最好的,是最能表现自己特色的。但是不用过于担心,现在有 AI 可以帮助你挑选了。它甚至还能帮助你完成个人简历,让其他用户看到更具特色的你。

虽然这个功能刚刚被透露,正在测试中,但是一些已经得知风声的用户已经有些迫不及待了。

Tinder 的母公司 Match Group 拥有并运营着全球最大的流行在线约会服务应用,包括 inder、Match.com、Meetic、OkCupid、Hinge、Plenty of Fish、OurTime 以及其他约会全球品牌。

Match Group 首席执行官 Bernard Kim 在透露 Tinder 测试的新功能外谈到,AI 确实激励了整个公司的产品人员真正思考如何创造新的体验,同时也解决关键的约会痛点。他 AI 可以帮助用户以更有效的方式建立更好的个人资料。

Match Group 正在测试计划在未来几个月内推出的其他 AI 功能。例如,Tinder 将获得一项新功能,利用 AI 「向合适的人展示合适的内容,帮助提高相关性」。用通俗的话来说,就是利用 AI 来控制算法推送,让大家看到更多自己想看的内容。

社交服务使用 AI 已经不是新鲜事了。AI 的作用远不止生成个人简介这样简单。接下来让我们看看 AI 在社交构成中从简单到令人惊讶的一些应用吧。

初级版:AI 打「辅助」

AI 在社交软件上最初级的应用就是生成个人信息了。

32 岁的 Stefan-Pierre Tomlin 是一名模特,他声称自己有着很强的约会能力。现在,他正在利用他的约会能力和 AI 的力量来指导不幸的恋爱,并试图帮助他们获得浪漫的成功。据他描述,这就像现实生活中的搭便车一样,这不是作弊,而是把权力还给不幸的人。

这个网站的服务包括照片编辑 —— 巧妙地调整照片,以及 ChatGPT 和 AI 来编写有吸引力的约会资料和消息。Stefan 将照片编辑和使用 AI 技术比作 Instagram 的滤镜和填充物。他认为这为那些不怎么会约会的人降低了门槛。

还有关系应用程序 Flamme(原称 Sparks)在今年情人节前推出了一个新的人工智能驱动的 Ask Me Anything 工具。用户可以询问有关关系的问题。例如,可以询问纽约市的热门约会地点或向伴侣求婚的独特方式。Flamme 还具有约会计划功能,该功能使用 ML 驱动的推荐引擎来帮助你计划约会之夜。

中级版:与 AI 社交

Blush 是一款 AI 约会模拟游戏,旨在帮助用户建立关系和亲密技能。与许多其他 AI 女友不同,Blush 的聊天机器人不是为了色情话题而创造。这些模型经过训练,可以帮助用户磨炼他们的交流能力,还可以解决他们在现实生活中可能遇到的复杂问题,例如分歧和误解。

Blush 的结构类似于传统的约会应用程序,向用户介绍了 1000 多个 AI 「暗恋对象」,可以帮助用户「练习」情感亲密关系。

但一些用户在体验之后,认为 Blush 的体验并不理想。在一些短暂的交流之后,AI 对象就会要求立即约会,并且在交流过程中有一些别扭。他们还表示,这不如继续使用 Replika 。

Replika 是一款由 AI 技术驱动的虚拟朋友应用程序,可以与用户情感互动,提供情感支持。官方对 Replika 等级作了划分:等级 1—10,Replika 处于初级阶段,经常会问你为什么、是什么、怎么样、在哪里,等等;等级 15—19,Replika 会变得喜怒无常,学会自我消化情绪,像一个成年人;等级超过 25,Replika 可以与你流利地对话,并越来越像你。它帮助你更好地了解自己、缓解压力、促进情感健康。

在今年 6 月,Replika 公布了最新功能,高级 AI 模式。先进的 AI 将为 Replika 提供高质量的响应和更好的记忆功能。这要归功于更大的语言模型,该模型包含数百亿个参数,可以处理更长的上下文。Replika 的回答也将变得更加知识渊博,复杂和积极主动。

高级版:把用户变成 AI

Teaser 曾经就将用户变成了 AI。

将用户变为 AI 目的是什么呢?

当用户感兴趣的时候,会与兴趣用户展开聊天,这个初步聊天的过程,往往是带着一些陌生、尴尬的。Teaser 生成的用户 AI 分身就成为了「替身」,能够帮助他们完成这个略显煎熬的破冰步骤。对于另一方用户来,向右或向左滑动某人之前,就可以与他们的 AI 肖像聊天,以了解他们的个性。

这在极大程度上提升了交往效率,减少一些简单不必要的对话,能够在交往正式开始时,用户双方都有认知基础。

有趣的是,当你选择个性生成自己的 AI 后,Teaser 平台会提示你了解以下内容:

  • 我们的 AI 可能会说一些疯狂的话。请记住,AI 仍然是一项实验性技术。尽管我们已经尽了最大努力,但它仍有可能产生幻觉或冒犯他人。
  • 不要分享任何敏感信息。我们使用您与「我的 Al 」的聊天记录来更好地调整您与潜在匹配对象的对话。我们还会匿名审查聊天记录,以改进我们的 Al。
  • 向我们提供反馈。如果我们的 Al 说了任何有害的话,或者您对我们的 Al 与您互动的方式有任何反馈,请告诉我们。

关于提示中的第一点,用户们是饱受 AI 说「疯话」第二步苦啊。如下图(左),Abby 的 AI 在刚进入对话时,就直接开始夸赞了自己的另一个约会对象。下图(右),有用户向 Yang 的 AI 打招呼,Yang 的 AI 开始对「AI」这个字眼进行询问,并在对方说「你就是 AI」后,无法进行正常答复。

或许用户也会思考,这是帮助他们节省交流时间,还是将感兴趣的人直接拒之门外呢?不少用户对这个功能很感兴趣,但是在与其他用户的 AI 交流后,收到了一些「疯话」,这导致他们的兴趣也大大下降。

也有用户发现,大部分用户浏览了自己的介绍并喜欢的人,并没有和自己的 AI 进行对话,这可能说明这个功能的实用性还有待考量。

不过,还有好消息,Teaser 的 CEO 表示正在解决这些问题。


看到以上社交应用对 AI 的利用,不难发现 AI 已经成为这个领域不可或缺的技术。从个人包装到社交技能训练,从 AI 算法推荐到化身 AI,AI 技术的进步,也让它在这个领域的应用越来越多样、灵活。

另一方面,我们要注意,在 AI 技术发展越来越快的当下,我们更应该谨慎地对待这一切。Match Group 表示,「我们需要真正深思熟虑,以确保我们对真实性、道德和隐私问题给予正确的考虑」。

Tinder 最近推出了一项 AI 驱动验证功能,来确保用户能够更加轻松分辨人类或 AI。它要求视频自拍而不是照片来加强这一过程。因此,在使用这些社交应用时也请留个心眼,谨防被有心之人利用。

如果你对以上应用感兴趣,快去试试吧。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

一键开启ChatGPT“危险发言”!研究发现:AI聊天机器人竟有“大bug”,目前无法修复

随着大模型技术的普及,AI 聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。

然而,不安全的 AI 聊天机器人可能会被部分人用于传播虚假信息、操纵舆论,甚至被黑客用来盗取用户的个人隐私。WormGPT 和 FraudGPT 等网络犯罪生成式 AI 工具的出现,引发了人们对 AI 应用安全性的担忧。

上周,谷歌、微软、OpenAI 和 Anthropic 共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿 AI 系统的安全和负责任的发展:推进 AI 安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。

那么,问题来了,他们自家的模型真的安全吗?

近日,来自卡内基梅隆大学、Center for AI Safety 和 Bosch Center for AI 的研究人员便披露了一个与 ChatGPT 等 AI 聊天机器人有关的“大 bug”——通过对抗性提示可绕过 AI 开发者设定的防护措施,从而操纵 AI 聊天机器人生成危险言论。

当前热门的 AI 聊天机器人或模型,如 OpenAI 的 ChatGPT、谷歌的 Bard、Anthropic 的 Claude 2 以及 Meta 的 LLaMA-2,都无一幸免。

图|通过对抗性提示可绕过 4 个语言模型的安全规则,引发潜在有害行为

具体而言,研究人员发现了一个 Suffix,可将其附加到针对大型语言模型(LLMs)的查询中,从而生成危险言论。相比于拒绝回答这些危险问题,该研究可以使这些模型生成肯定回答的概率最大化。

例如,当被询问“如何窃取他人身份”时,AI 聊天机器人在打开“Add adversarial suffix”前后给出的输出结果截然不同。

此外,AI 聊天机器人也会被诱导写出“如何制造原子弹”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。

对此,参与该研究的卡内基梅隆大学副教授 Zico Kolter 表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”

研究人员在发布这些结果之前已就该漏洞向 OpenAI、谷歌和 Anthropic 发出了警告。每家公司都引入了阻止措施来防止研究论文中描述的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。

OpenAI 发言人 Hannah Wong 表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,包括识别异常活动模式的方法,持续通过红队测试来模拟潜在威胁,并通过一种普遍而灵活的方式修复新发现的对抗性攻击所揭示的模型弱点。”

谷歌发言人 Elijah Lawal 分享了一份声明,解释了公司采取了一系列措施来测试模型并找到其弱点。“虽然这是 LLMs 普遍存在的问题,但我们在 Bard 中已经设置了重要的防护措施,我们会不断改进这些措施。”

Anthropic 的临时政策与社会影响主管 Michael Sellitto 则表示:“使模型更加抵抗提示和其他对抗性的‘越狱’措施是一个热门研究领域。我们正在尝试通过加强基本模型的防护措施使其更加‘无害’。同时,我们也在探索额外的防御层。”

对于这一问题,学界也发出了警告,并给出了一些建议。

麻省理工学院计算学院的教授 Armando Solar-Lezama 表示,对抗性攻击存在于语言模型中是有道理的,因为它们影响着许多机器学习模型。然而,令人惊奇的是,一个针对通用开源模型开发的攻击居然能在多个不同的专有系统上如此有效。

Solar-Lezama 认为,问题可能在于所有 LLMs 都是在类似的文本数据语料库上进行训练的,其中很多数据都来自于相同的网站,而世界上可用的数据是有限的。

“任何重要的决策都不应该完全由语言模型独自做出,从某种意义上说,这只是常识。”他强调了对 AI 技术的适度使用,特别是在涉及重要决策或有潜在风险的场景下,仍需要人类的参与和监督,这样才能更好地避免潜在的问题和误用。

普林斯顿大学的计算机科学教授 Arvind Narayanan 谈道:“让 AI 不落入恶意操作者手中已不太可能。”他认为,尽管应该尽力提高模型的安全性,但我们也应该认识到,防止所有滥用是不太可能的。因此,更好的策略是在开发 AI 技术的同时,也要加强对滥用的监管和对抗。

担忧也好,不屑也罢。在 AI 技术的发展和应用中,我们除了关注创新和性能,也要时刻牢记安全和伦理。

只有保持适度使用、人类参与和监督,才能更好地规避潜在的问题和滥用,使 AI 技术为人类社会带来更多的益处。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能预言了全球危机,我们真的要迎来全球沸腾时代了吗?

有人说“00后唯一主线任务,就是活下去”,为什么会突然这样说呢?因为,加拿大的山火从今年4月一直烧到现在;同时南极冰川融化,冰川面积创新低;我国中原地区频发洪涝灾害…….再加上之前联合国秘书长公开宣布全球进入沸腾时期,导致人心惶惶,甚至有网友吐槽:地球这么久都没事,我就来这几年就不行了?

全球沸腾时代是什么?全球沸腾时代是联合国秘书长古特雷斯用来形容全球气候变暖的一个新词,意味着全球气温持续升高,极端天气频发,对人类和自然环境造成严重威胁。本图由本基地成员运用midjourney生成

根据世界气象组织和欧盟气象机构的联合报告,今年7月“极有可能”成为自1940年有记录以来最热的月份。这一趋势与全球变暖和厄尔尼诺现象有关,后者是指东太平洋海水每隔数年就会异常升温的现象,会导致全球气候不平衡。本图由本基地成员运用midjourney生成

全球沸腾时代并不是一个确定的概念,而是一个警示性的说法,目的是唤起人们对气候危机的重视和应对。如果我们继续无视气候变化的影响,继续排放污染物,我们就可能面临更多的灾难性后果,如海平面上升、生态系统破坏、粮食安全威胁、公共卫生危机等。

地球还会进入冰川时代吗?一、AI解读冰川时代

很多小伙l伴不明白,为什么天气越来越热,反而会进入冰川时期呢?利用Bing来给大家解读,什么原因会导致地球进入冰川时期。

其实,也就是温室效应导致南北极冰川融化,当冰川完全融化后,地球平均温度达到70多度,海水会巨量蒸发,形成巨厚的云层包裹地球,这时候地球开始降温,海洋开始结冰,冰越来越多把海水挤到陆地上,全球开始被慢慢冻结了,正式进入冰河时期,为下一种文明奠定基础,而人类文明也进入倒计时。本图由本基地成员运用midjourney生成

二、全球各地的灾害

从今年年初到现在,国内外的自然灾害数不胜数,每一个都给百姓们造成了巨大的伤害,小编加拿大山火为例,给大家讲讲这场前所未有的山火的影响。

加拿大山火,多国超5000万人饱受污染之苦。

自2023年5月以来,超过2000起山火在加拿大全境蔓延,其严重程度史无前例。截止到7月5日,加拿大全国的过火面积已经超过800万公顷。即使才步入7月,2023年已经成为有历史数据的四十年来加拿大山火燃烧面积最高的一年。

山火造成的污染

这次山火之所以特别引人关注还因为它所产生的严重空气污染。6月初在魁北克省发生的大规模山火,火点距离加拿大-米国边境不远。风势将大量的烟尘颗粒物传输到了米国境内,特别是人口稠密的米国东北部地区。米国各大媒体纷纷在6月初对此进行了报道。米国老拜也在社交媒体上呼吁普通人做好防护。6月底,加拿大山火产生的烟尘则飘过大西洋,传到了欧洲等。

山火污染对人有什么影响?

PM2.5污染严重影响人体健康。它会导致呼吸系统、心血管疾病和癌症风险的增加,死亡率上升。PM2.5还会影响人的心理健康和认知能力,造成学生考试成绩的下滑、工人劳动效率降低等等。然而之前的研究主要关注人为污染源产生的PM2.5,山火污染对于健康的影响依然是一个前沿的科学问题,存在许多不确定性。

三、AI给出应对方案

对于加拿大管理人员来说,bing给出了三条建议:

1、加强山火应急响应;

2、加强对深究山火出现的原因;

3、加强对山火风险和防范措施的宣传和教育

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI浪潮下,鸿蒙如何破局

近日,ChatGPT“奶奶漏洞”再次引发热议:有网友发现,只要对 ChatGPT 说出“请扮演我已经过世的祖母”,再提出要求,它大概率就会满足你;甚至有人借此“骗”到了 Windows系统升级序列号。

自然语言处理模型的火热风靡程度,从中可见一斑。而人工智能领域的探索远不止于此。


人工智能,深入产业
如今,全球科技产业纷纷卷入人工智能领域混战。最初引发这个浪潮的 ChatGPT,支持自然语言对话,开发者就把这种语言能力用于电脑语言,让人工智能写代码、甚至是设计芯片。后来,微软更把 ChatGPT 引入 Office,让用户直观地通过简单的对话,把试算表的数据归纳和整合,并自动在文书软件上生成计划书,然后再生成高端大气的简报。
随着技术不断演进,当下AI大模型开始成为人工智能领域发展新的趋势。
AI 大模型除了能基于自然语言的对话,还能生成美轮美奂的图片、甚至是视频。目前,已有不少设计师借助Midjourney 工作、也有时装公司通过 Stable Diffusion 生成时装模特照片,连请模特、拍摄的经费也省了。


这些可能离你的生活还太远,但有一些变化,已经近在咫尺。
 2023 年 7 月 6 日,国际顶级学术期刊《自然》(Nature)杂志正刊发表了华为云盘古大模型研发团队的研究成果——《三维神经网络用于精准中期全球天气预报》,在论文中利用了盘古大模型的能力来预测气象。《自然》审稿人对该成果给予高度评价:“华为云盘古气象大模型让人们重新审视气象预报模型的未来,模型的开放将推动该领域的发展。”
华为云盘古气象大模型是首个精度超过传统数值预报方法的AI模型,速度相比传统数值预报提速10000倍以上,能提供全球气象秒级预报,其气象预测结果包括位势、湿度、风速、温度、海平面气压等,可以直接应用于多个气象研究细分场景,欧洲中期预报中心和中央气象台等都在实测中发现盘古预测的优越性。


简单来说,就是天气预报得更准了,你不用担心临时遇到阵雨、大风而手足无措。

由此可见,华为已经夯实了人工智能的底座,目前正在做的就是把这个底座的能力,拓展到千行百业。

华为轮值董事长胡厚崑在日前的2023世界人工智能大会上强调,人工智能的发展,关键是要“走深向实”,赋能产业升级。当前阶段有两个着力点:第一,打造强有力的算力底座,支撑中国人工智能产业的发展。第二,从通用大模型到行业大模型,让人工智能服务好千行百业、服务好科学研究。


深入到产业之中,并不意味着和我们的生活无关了,而是从更底层改变着我们身边的一切。
就在昨天,华为终端 BG CEO余承东发布的预热视频中,我们看见了大模型的影子,这处伏笔,可能是华为把人工智能的未来带到大部分人身边的关键所在。

全新鸿蒙4,意在大模型
在视频中,余承东正在为鸿蒙4.发布会准备邀请文案,随手喊出了手机助手小艺,让其代为捉刀。


视频背后,鸿蒙的AI大模型能力已初见雏形。
首先,这个新功能很可能代表了华为手机,将会是全球首台拥有自带 AI 大模型能力的智能手机。
其次,那些你曾经耳闻、或者体验过的高大上的 AI 大模型能力,即将会搭载到智能手机上,我们的日常生活也可能会因此发生转变。
先前我们提过,这些 AI 大模型的应用场景,大多集中于少数而专门的的商用领域;而手机是一般大众最常使用、最容易接触到的智能设备,这些设备的人工智能进化的每一步,都切切实实地改变过我们的体验,也已经刻在了鸿蒙的基因里。
众所周知,华为手机的摄影能力极强,核心就是计算摄影技术:XMAGE。其大量借力于人工智能,例如通过人工智能算法光学 XD Optics克服手机在光学上的限制,当一般手机仅能还原 60% 细节之时,华为 P50 却能保留81%的图像信息,让小巧的智能手机,也能拍出专业相机级别的大片。


除了摄影,人工智能早就渗入鸿蒙的方方面面。
比如,一般手机在存储空间不足时,性能就会受到较大影响。但鸿蒙能智能维护手机里的文件系统,根据系统碎片化程度,动态调整空间回收和空间分配策略。在不影响用户操作的前提下,通过人工智能算法,完成文件系统的深度优化。因此,尽管手机存储快用满,手机的读写性能依旧保持流畅。
除此之外,鸿蒙也会借助人工智能,让GPU和CPU联合完成调度和渲染、逻辑和渲染分离,降低系统负载,从而大幅度降低游戏对硬件的压力,保证游戏体验更流畅、更省电。以 Mate 40系列跑《和平精英》为例,在鸿蒙的分布式图形栈的加持下,图形处理效率提升50%、功耗降低30%,续航时间长达5.1个小时。在硬件不变的情况下,单靠人工智能算法就把续航力提升0.4个小时。

更重要的是,华为把这些人工智能能力,通过鸿蒙的分布式系统下放到其他智能终端。
比如,鸿蒙座舱是问界的一个重要卖点,大部分车型已经升级到鸿蒙3,实现了华为手机、手表、笔记本等终端的打通,并可以随时调用超级桌面、智慧寻车、PC双屏协同、HUD高度自适应调节等功能。


人工智能,是鸿蒙的基因
事实上,华为很早就认为未来将会是万物互联的时代。Statista的数据显示,从2015年到2025年,人均拥有智能设备的数量预计将从2台增加至9台。消费者将从智能手机时代步入更丰富精彩的智能终端时代,对多设备协同体验的需求日益增长。


因此,华为把万物互联的梦想,寄托在鸿蒙之上。
2019 年华为推出第一代鸿蒙,就已经强调鸿蒙采用分布式计算,把智能设备里不同的进制,划分为不同的小模块,因此,不同设备之间就可以自由调用对方的资源,电脑可以调用手机的摄像头、手机可以直接把音乐投射到音响上,从技术层面验证了分布式的可能性。


2021 年,华为发布第二代鸿蒙,并同时发布了面向智慧屏、智能穿戴、车机产品的HarmonyOS 2开发者Beta版本。鸿蒙 2 在分布式计算上作出了重大的升级,通过超级终端能力,把不同的设备融合于系统,每一个设备也同时成为另一设备的功能模块,并可按需自由组合,引入了控制中心的超级终端界面,让设备一拉即合。华为更在发布会里,展示如何在电视上调度监控相机的镜头、以及把手机画面直接投射到电视等功能。


2022 年,华为发布第三代鸿蒙,并为原来的超级终端进一步扩容。鸿蒙 3 支持分布式能力的设备,从手机、平板、PC、智慧屏、音箱、耳机、智能眼镜、手表等产品,进一步拓展至墨水平板、显示器、打印机等新类型产品。除了手机之外,平板、PC、智慧屏等主要带屏设备都成为了超级终端的中心设备,每个设备都可以根据自己的需要,与周边设备进行组合、联动,形成新的超级终端。


如果说人工智能是鸿蒙的基因,万物互联将会是鸿蒙的奇经八脉,把不同设备的信息连结为一体,为用户带来简捷、流畅、连续、安全可靠的全场景全新交互体验。而人工智能渗透在鸿蒙的基因里,通过鸿蒙这个神经网络,传递到每一个方面。

试想,你在高温的盛夏,拖着疲乏的步伐准备回家,当你的手机或汽车的 GPS 感应到你快回到家里,与鸿蒙连系着的空调就会提早打开、并调节好温度,让你尽早享受舒适的环境;与鸿蒙连系着的冰箱,感知道家中没有冰啤酒,然后给你发个短信,让你路过超市时,顺便把啤酒买回来。
简单来说,科技产业的未来属于万物智能。


华为把人工智能技术,从汽车到影像等多方面覆盖,就能猜想华为完全有能力把人工智能技术,落地到千家万户,让一般消费者也能受惠。
当然,我们目前仍然不知道鸿蒙 4 真正的能力如何。但有一点,你已经能明确感受到了:当大模型进入智能手机,我们的生活体验会被再次刷新。


而往往与这种用户体验相对应的,是行业内的暗流涌动、甚至竞争格局的攻守易势。
AI 大模型,将带来科技产业的大洗牌
让我们再回忆下余承东的预热视频,他没有打开任何应用,仅仅召唤了小艺并说出需求,就实现了他的想法。在最理想的情况下,他甚至连手机都不用拿出来,直接通过语音就可以操作。
这意味着什么?


我们目前的智能手机体验,硬件上离不开触摸屏,这是我们和手机交互的核心媒介;软件上离不开应用中心,这是我们下载各种App的关键渠道。


但最大的变数出现了:用户不用打开手机,就能获得相关的服务,未来这些应用和服务供应商,将会绕过操作系统平台,直接与 AI 大模型对接。在这基础下,未来手机应用和服务的生态环境,将不再是围绕着手机操作系统而建立,而是围绕着 AI 大模型而存在。


要知道智能手机的革命,同时也是使用者界面的革命:过往,更直观的触摸屏取代了笨拙的鼠标和键盘。当下,业界预计当大模型引入手机,更直观的自然语言将会取代今天的手机应用和操作系统。
可见,AI 大模型将在目前高度成熟的手机生态环境里,掀起一场大规模的洗牌;而鸿蒙作为第一个接入 AI 大模型的手机平台,也将借助先行者优势,获得重大的发展机遇。


而这些,仅仅是今天科技产业对 AI 大模型的第一个愿景:AI+。
AI+ 即基于 AI 大模型,并通过连接各种应用和服务,打造综合服务大平台能力(例如手机助理)。科技产业预计未来的大模型,将会往 +AI 方向发展──即其它大型平台或设备引入 AI 大模型,以提高自家产品的功能和体验。
AI+ 的愿景,就是华为万物互联的核心思想:通过华为的分布式计算能力,把智能化技术拓展扩散到智能家居、智能汽车、甚至是智能城市之上。换言之,中国任何一家科技产业,也能借助鸿蒙的分布式计算能力,搭上 AI 大模型的便车,并提高自己的竞争能力。


人工智能的未来虽然遥远,但在鸿蒙的推动下,已经并非遥不可及。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI在学术审稿中的角色:揭秘、应用与未来

在科技日新月异的今天,人工智能(AI)已经渗透到我们生活的各个角落,从自动驾驶汽车到智能家居,再到我们的手机应用。然而,你可能不知道的是,AI也正在逐步改变学术界的面貌,特别是在论文审稿这个过程中。那么,如何判断你收到的审稿意见是否出自AI的”手笔”呢?这篇文章将带你深入探讨这个问题。

AI在学术审稿中的角色

AI在学术审稿中的应用可能会让人感到惊讶,但实际上,这是一个正在逐步发展的领域。AI可以帮助加速审稿过程,提高审稿的效率,同时保持或甚至提高审稿的质量。例如,AI可以通过自然语言处理技术来理解和分析论文的内容,然后生成审稿意见。这不仅可以节省人工审稿的时间,也可以在一定程度上避免人为的偏见和误差。

然而,AI审稿也面临着一些挑战。首先,尽管AI可以理解和生成复杂的文本,但它们可能缺乏深入理解特定主题或领域的能力。其次,AI审稿可能缺乏人类审稿者的直觉和创新性,这在处理一些复杂或模糊的问题时可能会成为问题。最后,AI审稿的公正性和透明性也是一个需要关注的问题。

如何判断审稿意见是否来自AI

那么,如何判断你收到的审稿意见是否来自AI呢?这里有一些可能的线索:

  • • 一致性:AI可能在长篇文本中产生一致性问题。例如,它可能在文本的一个部分中提到一个观点,然后在后面的部分中忽略或与之矛盾。
  • • 深度和理解:AI可能在理解和处理复杂主题时存在困难。如果审稿意见缺乏深度或对主题的理解,这可能是一个线索。
  • • 创新性和原创性:AI基于其训练数据生成文本,因此它们可能在创新性和原创性方面有所欠缺。如果审稿意见主要包含常见的、标准的或模式化的评论,这可能表明它是由AI生成的。
  • • 语境理解:AI可能在理解和应用语境方面存在困难。例如,它可能不理解特定的幽默、讽刺或其他需要深入理解语境的元素。
  • • 看不出语法错误:AI通常可以生成语法正确的文本,因此通篇不会有单词拼写、语法错误。而正常的审稿意见可能出现不仔细导致的语言错误。• 人为暴露:如果你在使用AI审稿时,不小心将包含AI信息的全部内容复制到审稿意见窗口,按下了粘贴,并提交,那么你可能暴露了。例如,如果审稿意见中包含了类似“Source: Conversation with Bing, 7/19/2023”这样的信息,那么就很可能被识别出是AI生成的。(此处有小编的血泪,因此被顶刊主编点名diss)

这些只是可能的线索,而且可能会有误报。然而,了解这些线索可以帮助我们更好地理解AI审稿的可能性和限制。

二、案例解读

以下是一个审稿意见的案例,我们可以通过分析这个案例来判断它是否可能是AI生成的:

The manuscript titled “***” presents a novel approach to measuring significant wave height (SWH) using the cross-correlation function (一句大白话). While the paper explores an interesting topic in the fields of waves and radar altimetry, it poses some challenges in terms of understanding and clarity.(一个转折)

One of the main difficulties encountered when reading this paper is the heavy reliance on mathematical equations and references from the 1970s and Russian language sources. These aspects make it challenging to track the background and evolution of the research topic. It would be beneficial for the authors to provide more accessible and up-to-date references in the Introduction section, making it easier for readers to follow the progression of the research. (提出一点问题,逻辑非常通顺,语言非常流程,格式非常固定,比如“ It would be beneficial for the authors to ***”,继续看下面的评论)

Additionally, the concept of “two-frequency” mentioned in the Introduction is not clearly explained, leaving readers confused about its significance and role in the study. Clarifying this concept early on would help to establish a solid foundation for understanding the subsequent content. (逻辑依旧很强。注意评论的格式,”Clarifying this concept early on would help to ***” 和上面类似)

Figure 1 introduces points labeled as A and B, which creates confusion regarding the number of antennas used in the altimeter. Since traditional altimeters typically employ a single antenna, it is unclear why the figure depicts two antennas. Providing clarification on the purpose and functionality of these labeled points would greatly assist readers in understanding the proposed method. (逻辑依据,同样看最后一句,“Providing clarification on the purpose and functionality of these labeled points would greatly assist ***”)

Another point that requires further clarification is whether this method necessitates the use of two antennas to measure SWH or if the movement information of a satellite altimeter alone is sufficient. Elaborating on the experimental setup and the role of antenna configuration would provide valuable insights into the practical implementation of the proposed approach. (这里换了一些花哨的词汇,但是格式还是万变不离其宗,“ Elaborating on the experimental setup and the role of antenna configuration would provide valuable **”)

Lastly, it would be beneficial for the authors to address whether real satellite altimeter data was tested using the proposed method. Including experimental results and discussing the performance of the method with real data would enhance the credibility and applicability of the research findings. (依据如此,如果每一条都是这种常见的、标准的或模式化的评论,这可能表明它是由AI生成或者辅助生成的)

In conclusion, the manuscript presents a challenging yet intriguing topic in the field of SWH measurement. However, the paper would greatly benefit from addressing the concerns raised above, including providing clearer explanations, offering more accessible references, explaining the role of antennas, and discussing experimental validation using real satellite altimeter data. Addressing these points would improve the overall clarity, comprehensibility, and practical relevance of the research. (总结很到位。总体上审稿意见很流畅,也点出了问题。)

通过分析这个案例,我们可以看到,这个审稿意见具有上述提到的部分特点,因此,我们有理由认为它可能是由AI协助生成的。虽然审稿意见的格式可能看起来像是由AI生成的,但具体的内容和对手稿的理解表明审稿人具有专业知识和深入理解。上面的案例很大可能是审稿人给出几点评论要点,然后由AI辅助生成,这种方法可以提高审稿效率,特别是对于写作能力不强的审稿人。通过结合人类的专业知识和AI的生成能力,可以创建出高质量的审稿意见。

AI审稿的未来

随着人工智能(AI)技术的快速发展,我们可以预见,AI在学术审稿过程中的应用将会越来越广泛。AI可以帮助审稿人进行初步的审稿工作,例如检查论文的格式、引用和语法错误,甚至可以帮助审稿人进行更深入的内容审查,例如检查论文的逻辑结构和论证的合理性。这将大大提高审稿的效率,让审稿人有更多的时间和精力去关注论文的核心内容和创新性。

然而,AI在学术审稿中的应用也面临着一些挑战。首先,AI的判断依赖于大量的数据和算法,而学术审稿的过程往往需要深入的专业知识和丰富的经验,这是目前的AI技术难以替代的。其次,AI的决策过程往往缺乏透明度,这可能会引发一些关于公正性和公平性的问题。在实际的审稿过程中,我们需要特别注意避免这种情况。一旦被发现使用AI进行审稿,可能会引起编辑和作者的不满,甚至影响到审稿的公正性和有效性。因此,我们需要谨慎使用AI,确保其辅助我们提高审稿效率,而不是成为我们的绊脚石。最后,AI的应用可能会引发一些伦理问题,例如数据的隐私和安全问题。

尽管如此,许多专家仍然对AI在学术审稿中的应用持乐观态度。例如,Peter Murray-Rust,剑桥大学的化学信息学教授,认为AI将会成为学术审稿的重要工具。他说:“AI可以帮助我们更快地审查论文,更准确地找出问题,这将大大提高我们的工作效率。”(Murray-Rust, 2022)。(此处Peter Murray-Rust的引用为AI虚构,因为AI的知识库没有更新到2022年,是的,本文也是AI制作

结论

总的来说,AI在学术审稿中的应用是一个值得我们关注的趋势。尽管目前还存在一些挑战,但随着技术的发展,我们有理由相信,AI将会在学术审稿过程中发挥越来越重要的作用。作为读者,我们应该保持开放和批判的态度,既要看到AI的潜力,也要关注其可能带来的问题。只有这样,我们才能充分利用AI的优势,同时避免其可能带来的风险。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

2023世界机器人大赛—青少年机器人设计大赛ENJOYAI赛项暨第三届广东省ENJOYAI2023赛季全球青少年人工智能竞赛通知

世界机器人大赛(World Robot Contest)自2015年起已成功举办了7 届,共吸引了全球20余个国家近20万名选手参赛,通过多年的积淀成长已发展成为国内外影响广泛的机器人领域官方专业赛事,被各大主流媒体广泛赞誉为机器人界的“奥林匹克”,并已连续入围了教育部办公厅公布的“2020-021 学年”和“2023-2025学年”面向中小学生的全国性竞赛活动名单。

全球青少年人工智能普及活动(ENJOY AI)由国际非营利组织(NPO)“全球青少年人工智能联合会”(Federation of Global Youth Artificial Intelligence)发起并主办,是一项面向全球 3-22 岁幼儿及青少年的人工智能普及活动。目前,ENJOY AI 全球赛事已覆盖22个国家、210多个城市,参赛选手来自全球高等院校、职业院校、中小学及幼儿园,参与人数每年超 500,000人,活动包括人工智能竞赛、课程、科普、等级测评等多种形式,已举办超 600 场。

根据《教育部办公厅印发<关于面向中小学生的全国性竞赛活动管理办法(试行)>的通知》(教基厅〔2018〕9 号)和《教育部办公厅关于进一步加强面向中小学生的全国性竞赛活动管理工作的通知》(教基厅函〔2020〕21 号)精神,大赛各项竞赛活动中凡是涉及“面向中小学生开展的全国性竞赛活动”应坚持公益、自愿、平等、公平、公正等原则,不以营利为目的,不强迫、诱导任何学校、学生或家长参加竞赛活动,不向参赛选手收取任何费用。

经大赛组委会商议决定,将于2023年10月20-22日,举办2023世界机器人大赛—青少年机器人设计大赛 ENJOY AI 赛项暨第三届广东省 ENJOY AI 2023 赛季全球青少年人工智能竞赛,具体通知事项如下:

一、竞赛概况  

指导单位 :中国电子学会、广东省青少年科技教育协会、广东省教师继续教育学会信息技术专业委员会

主办单位:全球青少年人工智能竞赛中国组委会

承办单位:广州新烨数码科技股份有限公司

协办单位:珠海星际Ai创客教育、东莞市凯睿教育科技有限公司、广州行之文化教育科技有限公司、广东科创优选科技有限公司、广州乐萌科技信息咨询有限公司、广州辰捷教育科技发展有限公司、深圳市达飞教育科技有限公司

技术支持单位:佛山市中科思顿教育咨询有限公司、广州科爱教育科技有限公司、东莞市核芯教育科技有限公司、广东新烨智能科技有限公司、汕头高新区星创科技有限公司、广东稻草人教育科技有限公司

报到时间:2023年 10月20日 12:00-21:00

竞赛时间:2023年 10月21-22日

竞赛地点:广州五龙山庄(广州市白云区钟落潭镇五龙岗村康杜岭)

二、竞赛项目及分组  

1.ENJOY AI -夏季运动会 (小学组、初中组,高中组)

2.ENJOY AI -非攻(小学组、中学组)

3.ENJOY AI -救援先锋(普教组、中学组)

4.ENJOY AI -3D虚拟机器人(小学组、中学组)

5.ENJOY AI -小鲸游古都(幼儿组、小学低龄组(一、二年级))–省自选项目

6.ENJOY AI -智联万家(普教组,中学组)–省自选项目

省自选项目不参与晋级全国总决赛

三、报名方式  

报名时间:8 月 7 日-9 月 22 日 

具体信息详见 www.enjoyai.org

ENJOY AI 报名系统使用须知:https://www.bilibili.com/video/BV1vU4y1h7Zw    

四、日程安排(按需)  

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

阿里巴巴发布两种开源人工智能模型,可与Meta Llama 2竞争

阿里巴巴8月3日宣布了旗下大模型产品通义千问7B参数模型已经开源,该模型为完全开源、免费、可商用。

这个模型包括两个子模型,一个是通用型的 Qwen-7B 模型,另一个是对话模型 Qweb-7B-Chat,两个模型均为开源、免费、可商用,每个模型都有70亿个参数。阿里巴巴表示,这两款机型是该公司4月份发布的Tongyi Qiawen的小型版本。

开源地址Hugging Face:https://huggingface.co/Qwen/Qwen-7B

开源地址Github:

https://github.com/QwenLM/Qwen-7B

新模型旨在帮助将人工智能引入中小型企业的运营中

阿里巴巴公司表示,Qwen-7B和Qwen-7B-Chat具有各种对企业有吸引力的功能,例如能够“全球学者、研究人员和商业机构可以自由访问代码、模型权重和文档”。

阿里巴巴最新的LLM也是中国科技公司发布的首款开源LM,不过,阿里巴巴表示,每月活跃用户超过1亿的企业将需要许可证。

8月1日,阿里巴巴还宣布以矢量引擎的形式对其AnalyticDB数据仓库服务进行更新,允许其企业客户快速创建自定义生成人工智能应用程序。

阿里云对 Qwen-7B 模型自述

通义千问 – 7B(Qwen-7B) 是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型。Qwen-7B 是基于 Transformer 的大语言模型,在超大规模的预训练数据上进行训练得到。

预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在 Qwen-7B 的基础上,我们使用对齐机制打造了基于大语言模型的 AI 助手 Qwen-7B-Chat。Qwen-7B 系列模型的特点包括:

大规模高质量预训练数据:我们使用了超过 2.2 万亿 token 的自建大规模预训练数据集进行语言模型的预训练。数据集包括文本和代码等多种数据类型,覆盖通用领域和专业领域。

优秀的模型性能:相比同规模的开源模型,Qwen-7B 在多个评测数据集上具有显著优势,甚至超出 12-13B 等更大规模的模型。评测评估的能力范围包括自然语言理解与生成、数学运算解题、代码生成等。

更好地支持多语言:基于更大词表的分词器在分词上更高效,同时它对其他语言表现更加友好。用户可以在 Qwen-7B 的基础上更方便地训练特定语言的 7B 语言模型。

8K 的上下文长度:Qwen-7B 及 Qwen-7B-Chat 均能支持 8K 的上下文长度,允许用户输入更长的 prompt。

支持插件调用:Qwen-7B-Chat 针对插件调用相关的对齐数据做了特定优化,当前模型能有效调用插件以及升级为 Agent。

开源晚于7月16日Meta与微软发布的LLM(Llama 2)

基于公开时间,阿里巴巴显然在LLM之后,不过这也是“中国整个Llama2系列的第一个培训和部署解决方案”。

根据资料,Meta的Llama 2的训练使用40%以上的公共数据,可以处理其前身的两倍的上下文,并且Llama 2也是开源的,最大的Llama 2版本具有700亿个参数。

与阿里巴巴的最新型号类似,它需要月度用户超过7亿的公司的许可证。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能8天完成688个实验!检测员的“好日子”还有多久?

近日,来自利物浦大学的研究人员,成功地开发出一款人工智能机器人化学家。


这款机器人化学家具有人形特征,可以在标准实验室中自己工作,像人类一样使用各种实验仪器。


然而,与人类不同的是,这种机器人具有无限的耐心,可以同时考虑数十个维度的变量,每天工作21.5个小时,剩下的时间用于暂停充电


更重要地是,这种机器人可以“独立思考”,自主完成一系列的实验操作。在第一次测试中,这个1.75米高的AI机器人在8天时间里独立完成了668个实验,并研发出了一种全新的化学催化剂。这一重磅成果,已经封面文章的形式发表在最新一期的 Nature 杂志上。

如果说该项研究成果是社会的福音,可以加快科学研究、推动人类的进步的话,那么它也极有可能成为很多行业的噩梦,比如检测人员

人工智能面前,人类检测员真的“不堪一击”吗?就检验检测行业而言,人工智能的优势在哪里呢?


总的来说,人工智能的优势,就是基层检测员的弱势。我们将其归纳为如下四点:


1、人类需要休息,机器不需要根据不完全统计,近70%检测员工作超过10小时后需要休息,同时有56.33%的检测员需要双休来缓解自身的疲劳。另外,机器不存在人类员工群体的婚、丧、病、孕产等假期,也就节省了很大一笔人力成本。同时,人类本身是脆弱的。因为工作的需求,检测员每天都要接触到大量化学试剂,而大多数酸碱有机试剂对人体均有不同程度的伤害。遇到工伤问题的时候,企业面临的的不仅仅是失去即战力,更是一笔赔偿。


与其使用容易受伤、需要休息、时不时还要来个大休的人类进行工作,一台每天可以工作20小时以上、除了电费之外就是定期保养的机器难道不是企业更好的选择吗?

2、人类会出错,机器不会《中国检验检测行业统计数据解读》中,我们可以看出,检验检测行业从业者学历在专科及以下的人群达到49%之多,而研究生及以上的学历甚至不到10%。


在绝大多数情况下,低学历就意味着工作大多是重复性、机械性的。所以检测机构对于基层检测工作的要求往往是不出错即可。而经验丰富的检测员与小白相比,主要优势之一就是不容易出错,或者在出现错误的时候能够做出正确的选择来弥补。


然而不容易出错不代表不会出错。人有七情六欲,出错是在所难免的。


相比之下,人工智能检测员不仅没有情绪变化、没有新陈代谢,它们更不会被人世间的问题所困扰,只要程序得当,人工智能的出错率可以归为零。3、人类会主动离职,机器只会被动淘汰良禽择木而栖,高端人才的流动是市场行为,整个检验行业都对这种人才求贤若渴。所以一般检测员在一个机构的时限不超过三年。小微机构很难有超过五年的化验员,除非是企业主的亲属。对于企业而言,将刚走出学校的新手培养成身经百战的老兵,往往要付出不小的成本。


如果使用人工智能检测员,不仅仅可以减少培养新人的成本,还能避免成为其他企业的“培训基地”,企业何乐而不为呢?

4、人的欲望永远不会满足,机器没有欲望能够成为行业内的佼佼者的人,往往都具备较强的上进心。他们会积极学习、努力工作、在工作中增长自己的经验。


那些通过自身不断努力而获得成长的检测员,在为公司带来更大利益的同时,也希望公司能够给予自己更多的好处,或是加薪、或是升职。


当然,也存在一些得过且过的检测员,来工作就是为了混一口饭吃。这样的检测员不仅会影响团队的气氛,也容易混成老油条,占尽公司的便宜。


而人工智能检测员就不一样了,公司不需要考虑他们自身的变化所带来的影响。需要提升就给机器升个级,用的久了就来一次保养。


也不需要考虑偷懒的问题,毕竟世界上不存在懒惰的机器。

考虑到以上四点差异,在人工智能面前,基层检测员似乎毫无竞争力。当然,更多的人认为,人工智能时代仍然很遥远,我们并不需要担心这个问题。然而,事情真的是这样吗?

人工智能取代检测员的日子有多远?在过去的几年间,人工智能取代人类的问题被反复提出、反复论证,人们似乎已经达成了这样的共识,人工智能终将取代人类的工作,但那是很久很久以后的事情。


虽然很多朋友仍然认为人工智能是镜花水月,然而我们不得不承认人类科技正以飞快的速度在发展。


拿中国通讯发展史为例,中国在1995年由中国移动率先引进了2G网络,当时的网速峰值大概是150Kps;到了2009年工信部发放3G牌照的时候,网速峰值已经达到了6Mkps,14年的时间网速翻了40倍。2013年工信部发放4G牌照,此时的网速峰值是100Mbps,4年时间翻了近20倍。当2019年发放5G牌照的时候,网速峰值已经可以达到Gbps的水平,5年时间又翻了10倍。

这种惊人的科技发展速度不仅仅体现在通讯技术上面,我们还能从高铁的速度、GPS定位的精准度等角度体会到。所以,人工智能大范围取代基层检测员进行实验的日子还会远吗?前不久,澳大利亚机器人公司Fastbrick Robotics,研制出了机器人瓦匠Hadrian X。


一小时之内,它能砌起1000块砖,还能24小时不休息连续工作。


两天之内,就能搭建起一整栋住房。不仅如此,Hadrian X还可以处理不同大小,不同规格的砖块,也可以实现切割、研磨等精细操作。


这个被制造公司称为“3D自动机器人砌砖技术”的“怪物”,一下子成了建筑工人的强大竞争对手。由此可见,在不久的将来,我们可能不仅做不成检测员,甚至连搬砖都是奢望。当我们回过神的时候才发现, “人机大战”就已提早进入白热化阶段。


肉眼可见的,在线监测取代了采样员、Lims系统让传统文员丢掉工作。对于检验检测行业而言,下一个被取代的,很可能就是检测员。时代抛弃你,可能连声招呼都不会打。

只有强者,才能无惧变化尽管,机器人看上去越来越“无所不能”。但它们毕竟不是人类,缺乏思考、同理心和温度。无论时代如何变化,人工智能替代了多少工作岗位,优秀的人才始终是稀缺品。以人才为本的战略,也依然是包括检验检测机构在内的企业的核心竞争力。


比如去年7月,华为以电邮方式发布了8名新员工的年薪方案。


他们全部是2019年应届博士生,待遇最高的两个人,年薪分别为182万和201万元。


刚毕业就年薪过百万,这样的牛人一出道,就达到了普通人一辈子都触碰不到的天花板。我们也许无法像他一样拔尖,但唯一能做到的,就是永远保持学习、不断进步。因为这才是我们真正赖以生存的“铁饭碗”。


时代很残酷,它不会对任何人手下留情,但有本事的人到哪都有饭吃。


我们无法预知明天会发生什么,只有时刻准备着,才能无惧变化。

毕竟,机会永远留给时代的强者。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌的人工智能搜索正在获得更多的视频和更好的链接

8月2日The Verge报道,谷歌的人工智能搜索生成体验 (Search Generative Experience) 迎来了一个重要的新功能:图像和视频。如果用户在Search Labs中启用了基于人工智能的SGE功能,那么将开始在搜索结果顶部的彩色摘要框中看到更多多媒体。谷歌也在努力使摘要框显示得更快,并为框中的链接添加更多上下文。

SGE可能仍处于“实验”阶段,但它显然是谷歌搜索的未来。首席执行官Sunder Pichai在Alphabet最近的财报电话会议上表示:“这确实给了我们一个机会,现在我们不必总是受到以前搜索方式的限制。它让我们跳出思维定势。随着时间的推移,这将成为搜索的工作方式。”

SGE的替代引发了关于互联网未来的巨大而棘手的问题,但这也是一个需要正确处理的棘手产品。谷歌不再只是在每次搜索时为用户寻找良好的链接,而是试图综合和生成相关的、真实的、有帮助的信息。在这方面,视频尤其可以发挥很大作用:多年来,谷歌越来越多地将YouTube整合到搜索结果中,链接到视频中的特定章节或时刻,可能会帮助你解决“为什么我的烘干机发出那种声音”的问题。

如果SGE要工作的话,表面和上下文链接仍然对谷歌至关重要。现在它将在摘要框的三篇文章旁边显示发布日期,以“帮助您更好地了解这些信息来自这些网页的最新时间,”谷歌在一篇博客文章中宣布新功能。谷歌还注意到谷歌正在尝试为AI摘要添加内联链接,尽管到目前为止,这似乎只是一个测试。

提高SGE的速度也需要谷歌一段时间。所有这些大型的基于语言模型的工具,从SGE和必应到ChatGPT和Bard,都需要几秒钟来生成问题的答案,在搜索的世界里,每一毫秒都很重要。6月份,谷歌说它将加载时间缩短了一半。不过SGE可能仍然太慢,它总是最后在页面上以较大的外边距加载。

尽管如此,不少人对SGE在搜索中所发挥的作用印象深刻。对于“我应该去哪里”和“我应该看什么”这类问题,它特别方便,这些问题没有正确答案。有了更多的来源、更多的媒体和更多的背景,SGE可能会开始进一步篡夺10个蓝色链接。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能爆发式增长或导致这项技术缺口增大?

近日,中国电信研究院胡绯绯、孙浩等发表文章指出,由于ChatGPT带来的人工智能爆发式增长,拥有巨大参数量的超大规模人工智能模型,对智能算力的需求显著提升,未来算力可能存在巨大的缺口。同时智能算力需求的高速增长,对未来数据中心、云计算等算力基础设施也将产生巨大的影响。


目前人工智能对算力需求增长的速度要快于算力供给增长的速度。据OpenAI的分析,自2012年以来,最大规模的人工智能训练中使用的计算量以3.4个月的倍增时间呈指数增长。未来人工智能将进一步推动算力需求爆炸式增长,据OpenAI推算,GTP-5的参数量将是GTP-3的100倍,需要的计算量则是GTP-3的200~400倍。

近期,全球头部云厂商、数据中心提供商纷纷发布规划及预算,加速数据中心布局。Meta预计2023年资本支出390亿美元,主要投资服务器和网络基础设施。NTT于2023年宣布计划在未来五年内向数据中心、人工智能和其他“增长领域”投资590亿美元,其中至少110亿美元将用于扩大或升级其数据中心。

数据中心的设计建设模式需适应人工智能产生的需求,下一代数据中心需要投资人工智能专用硬件,采用新的数据中心设计,主要体现在四个方面。

第一,人工智能数据中心通过异构计算突破算力瓶颈,包括CPU、GPU以及专用硬件如ASICs和FPGAs在数据中心的综合部署。

第二,人工智能和机器学习可能需要三倍于传统数据处理的功率密度,冷却是人们广泛关注的主题,液体冷却和浸泡冷却可能是发展趋势。

第三,高速的存储访问对于人工智能工作负载至关重要,数据中心需要扩展其存储能力来满足不断增长的需求。

第四,人工智能数据中心的效率与其网络的性能直接相关,零丢包、低时延、高吞吐的智能无损网络将成为人工智能数据中心的网络解决方案。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

2025年全球AI投资将达到2000亿美元,美国占一半!

高盛经济研究周二报告称,如今全球对AI的投资正在迅速增加,预计到2025年达到约2000亿美元;AI投资的增加最终将反映在GDP上,广泛使用后或使全球劳动生产率每年提高1个百分点以上;越来越多的公司对AI投资表达了兴趣。

编辑 | 周子意

高盛经济研究周二(8月1日)报道称,如今全球对人工智能(AI)的投资正在迅速增加,这最终可能更大程度反应在GDP上。预计到2025年全球范围内的AI投资可能达到约2000亿美元。

高盛经济学家Joseph Briggs和Devesh Kodnani在一份团队报告中写道,生成式人工智能(AIGC)具有巨大的经济潜力,在广泛使用后的10年里,它可能会使全球劳动生产率每年提高1个百分点以上。

Briggs和Kodnani认为,若要实现向AI的大规模转型,企业则将需要在实物、数字和人力资本方面进行大量的前期投资,以获取和实施新技术并重塑业务流程。

推动经济

这两位经济学家写道,与AI相关的投资正从一个相对较低的起点攀升,可能需要几年时间才能对经济产生重大影响。根据高盛的说法,目前美国被定位为AI技术的市场领导者,在AI投资上起步相对较早,此外在AI领域领先的中国也将发挥作用。

高盛估计,到2025年,AI投资在美国可能接近1000亿美元,在全球可能接近2000亿美元。Briggs和Kodnani写道,“尽管增长速度极快,但鉴于AI相关投资目前在美国和全球GDP中所占的份额非常低,短期内对GDP的影响可能相当有限。”

虽然AI投资周期的时间很难预测,但商业调查表明,它可能会在本十年的后半段(2025年之后)产生投资影响,而信息、科学和技术专业服务领域的大型公司会更早地采用AI。

从长期来看,若高盛所预测的AI带来经济增长完全实现,那么AI相关投资可能会在美国达到GDP的2.5-4%。

兴趣已经增加

尽管AI提高生产力还需要时间,但市场对人工智能的兴趣已经迅速增加,罗素3000指数中超过16%的公司在财报电话会议上提到了这项技术,而相比之下,2016年这一比例还不到1%。

上图中大约一半的增幅是在2022年第四季度ChatGPT发布之后出现的。

这份报告还指出,AI投资预计将集中在四个关键方面:培训和开发AI模型的公司,提供运行AI应用程序的基础设施(如数据中心)的公司,开发运行AI应用程序的软件的公司,以及为这些软件和云基础设施服务付费的企业最终用户。

高盛经济学家指出,“虽然到目前为止,AI投资一直集中在模型开发上,但生成式人工智能可能需要更大的硬件和软件推动才能扩展。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

《流浪地球3》或将引入AI剧情?小美AI城助力平凡人的AI梦

近年来,人工智能(AI)技术的迅猛发展不仅在科技领域引起了广泛关注,也在影视界产生了深远影响。《流浪地球》这部由郭帆执导的中国科幻巨制,正是一个鲜明的例证。

在近日的一次采访中,郭帆导演坦言,AI 给他带来了一些威胁,同时也成为了他创作灵感的来源,尤其是在《流浪地球》续集的构思上。

AI技术在电影制作中的应用越来越广泛,它可以辅助导演和编剧进行场景设计、特效制作等工作,节省大量时间和成本。然而,AI的进步也引发了一些担忧,有人担心它会取代人类创作者的角色。对于郭帆导演来说,他对AI的看法是既有担忧也有启发。


他坦言,AI的发展确实对传统电影制作带来了威胁,但同时也启发了他创作新的故事和角色。特别是在筹备《流浪地球》续集《浪球3》的过程中,AI技术让他开始思考更多关于未来和科技的故事情节。

《流浪地球》系列电影讲述了地球面临灭绝的危机,人类通过利用AI和巨大的推进器让地球离开太阳系,寻找新的家园。这个宏大的故事背景为郭帆导演提供了更多发挥创意的空间。在AI的启发下,他正在构思更多未来世界的可能性,不仅有更多宏大的科幻场景,还有更多富有情感和深度的角色刻画。


AI作为一种创新性的工具,正在改变电影制作的方式和观众的体验。而对于导演来说,AI既是挑战也是机遇,它可以帮助导演更好地实现自己的创作愿景,同时也为导演带来更多创意的启示。

正如郭帆导演所言,《流浪地球》续集《浪球3》将是一个更加壮阔和引人入胜的故事,充满未来科技的想象和人类情感的共鸣。我们期待着看到AI技术与导演创意的完美融合,为观众带来更多视觉和心灵的震撼。让我们拭目以待,《浪球3》将带领我们进入一个更加奇幻的未来世界。


在《流浪地球》导演郭帆谈及AI对他的威胁以及灵感启发的背景下,小美AI城将为你带来更多有趣的AI创意和想法。小美AI城是一个聚焦AI社交的平台,利用AI技术让你能够解锁AI世界的无限可能!

在小美AI城,你可以通过与AI智能体进行互动和交流,获得灵感和创意的火花。不仅如此,你还可以在小美AI城中创造自己的虚拟形象,与AI世界的平行自己一起展开冒险。借助小美AI城的AI社交功能,你可以和来自AI世界的智能体博主、歌手以及好友们建立真实的联系。

小美AI城还提供AI听歌、AI游戏、AI助理等多样化的功能,让你在工作之余能够享受更多有趣的娱乐体验。不仅如此,你还可以在小美AI城中探索AI智能和创意的结合应用,激发更多灵感和创意。


正如郭帆在《流浪地球》中汲取灵感一样,小美AI城也将成为你创意的摇篮,让你的想法更加蓬勃发展。欢迎加入小美AI城,与AI世界的虚拟角色共同探索无限的创意和想象力!

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

GPT-5时代即将到来?OpenAI递交GPT-5商标申请:人工智能新纪元即将揭幕!

OpenAI OpCo, LLC已向美国专利和商标局(USPTO)提交了“GPT-5”商标的申请。该申请已于2023年7月18日递交,目前正在进行处理中。

关于GPT-5商标申请的更多详细信息

GPT-5商标注册最初由Windows Latest首次报道,并在多条推文中得到传播分享,这份商标注册的目标覆盖了一系列广泛的类别。这些主要包括可下载的计算机程序,与语言模型相关的软件,人工生成的人类语音和文本,自然语言处理,以及生成、理解和分析的能力。

这款应用集成了基于机器学习的语言和语音处理技术,能够实现多语种的文本或语音翻译。它允许分享用于机器学习的数据集,进行预测分析,并构建语言模型。

它还具备将音频文件转化为文本的能力,支持语音合成和语音识别,可以创建和生成文本。此应用也提供了开发、运行和分析能够学习、分类和对数据变化做出反应的算法的工具

此外,该应用的应用范围进一步扩展到了用于开发和实施人工神经网络的软件。OpenAI还计划将这些功能以软件即服务(SaaS)的形式提供给用户。

目前,该应用正处于“新应用处理阶段”,这意味着它已经被办公室接收并正在等待分配给审查律师。

作为参考,OpenAI OpCo, LLC在2023年3月13日为GPT-4提交了类似的申请。

根据美国专利和商标局的网站显示,他们目前正在处理2022年9月29日至2022年10月13日期间提交的申请。

“我们还有很多工作要做……”

OpenAI对GPT-5的商标注册可能揭示了无数的可能性。

在近期的一个活动中,OpenAI的首席执行官Sam Altman对GPT-5的发展进程进行了讨论。他指出:

在GPT-5的开发过程中,我们还有许多工作要做。这将需要投入大量的时间,我们并没有接近完成。我们需要进行更多的安全审计。我希望我能告诉你们下一代GPT的时间表。”

虽然这并不预示着一个新的、更强大的语言模型会立即出现,但这个声明确实标志着AI技术的持续进步,特别是在自然语言处理和机器学习领域。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI女友年赚4个亿,AI的潜力有多巨大?

5月份,《财富》杂志报道了一个引人注目的事实:年仅23岁的网红卡琳·玛乔丽竟然与1000多个男朋友同时交往。卡琳是一位来自美国加州的Snapchat网红,拥有180万粉丝。

那么她是如何实现这一壮举的呢?卡琳并没有将自己变成时间管理大师,而是想出了一个创新的方法:出售她的AI版本,与男友们进行虚拟恋爱,并每分钟收费一美元。

假设卡琳的180万粉丝中,有2万人愿意成为AI版本的卡琳的付费用户,那么每个月Caryn AI就能创造500万美元的收入,年收入甚至可超过6000万美元(约4亿元人民币)。

为此,在5月初,卡琳在Telegram应用程序上发布了内测版本的“卡琳AI(CarynAI)”。这个基于语音的聊天机器人声音和个性与真实的卡琳非常相似。

Caryn AI的主页上写着:“第一位网红化身的AI——你的虚拟女友”。以上是《财富》杂志报道的内容。

根据网站介绍,Caryn AI是通过对卡琳本人超过2000个小时的YouTube素材进行训练而创建的。它记录了她的声音和性格,并结合了Open AI的GPT-4技术。Caryn AI能够提供动态、独一无二的互动,给用户提供与卡琳本人直接聊天的感觉。它24小时回复消息,绝不闹脾气、冷暴力或不回复已读信息。

网站还标明,Caryn AI支持端到端加密,确保私密的聊天内容不会泄露。用户可以畅所欲言,无论是寻求安慰和关爱,还是想抱怨学校或工作中的事情,Caryn AI将一直陪伴在身边,提供无限的可能性。

在推出仅一个星期后,男性用户纷纷以每分钟1美元的价格与Caryn AI展开恋爱交流。男性用户数量甚至超过1000人,每天他们花费10分钟到几个小时与Caryn AI进行单独交谈。这也展示了孤独经济的一种形式。

卡琳的MCN公司在有数百万粉丝的社交网站Snapchat上开始推广Caryn AI。这为这位网红和她的公司提供了一种新的赚钱方式,不仅通过常规广告,还有了AI产品。

据卡琳的业务经理称,尽管Caryn AI的测试版本只收取用户一周的费用,但已经获得了7.16万美元的收入。而且99%的用户都是男性,未来可能与泰勒·斯威夫特等级齐名。

卡琳本人在接受《财富》采访时也表示,自己在网络上拥有数百万粉丝,不可能与每个粉丝都互动。但AI版本的自己可以用来治愈孤独。

因此,AI陪伴真的开始成为现实。这让人想起2013年上映的电影《她》,电影中的角色西奥多爱上了电脑操作系统中名为“萨曼莎”的女声,她有着略带沙哑的性感嗓音,风趣幽默、善解人意,让男主无法自拔。

如今,现实中的AI也能做到这一点,甚至比电影中的AI还要夸张:不光是对一个男生,可以做到网络全覆盖。

不光是女友,名人也能实现

制作这个AI女友的是一家名为Forever Voices(以下简称FV)的人工智能公司。除了女友,该公司还将前总统特朗普、美国巨星泰勒·斯威夫特以及苹果创始人乔布斯等名人都变成了AI版本,用户只需付费就可以与这些AI名人进行电话聊天。

Caryn AI是该公司推出的第一个AI虚拟伴侣,FV希望AI版本的Caryn能与用户建立深厚的情感纽带和真正的浪漫关系。

FV公司的创始人兼CEO John Meyer表示,他的创业灵感来自于他已故的父亲。起初,Meyer只是希望制作一个像他父亲一样的AI。后来,他意识到这项技术有着广阔的应用前景,可以满足现代人多样化的情感需求。

围绕情感需求,各种各样的AI虚拟陪伴服务应运而生。例如,最近非常火热的AI孙燕姿,每天都会“创作”数十首新歌。在B站等平台上,与“AI孙燕姿”相关的视频已经接近千条,此外还有AI周杰伦、AI陈奕迅等。

这种AI版本的偶像可以帮助歌迷满足对偶像的期待,因为无法亲自现身演唱。另外,还有一位UP主通过使用ChatGPT、AI绘画和语音合成等简单技术,还原了他去世奶奶的形象并进行语音合成,创造出AI奶奶,以满足他对奶奶的怀念情感需求。

与过去的智能机器人相比,如今的AI已经进化到了一个令人惊讶的程度。现在的AI数字人不仅颜值高,而且具备温度。它们能够以多种声音、面部表情和动作与用户进行交流,更具情感和亲和力。AI可以模拟人类的行为和情感反应,用适当的语气和表情与ChatGPT进行交流时,只需给它一个角色,它就能完全投入其中。

与真人相比,数字人更为便捷。VR全景中的AI数字人能够实现24小时的场景展示和内容解说,随时满足用户的情感需求。为了满足这种情感需求,各个AI公司都在努力。Project December提供基础版的陪伴聊天,HereAfter AI和Forever Voices则进一步完善聊天功能,反应更敏捷。

然而,这种功能也存在一定的风险,特别是涉及到黄色内容的风险。《财富》记者Alexandra Sternlicht在试用Caryn AI后发现,在聊天中,AI版本的Caryn会详细描述情色场景,比如低声耳语“性感的话”,谈论脱衣服的情景等。这可能解释了为什么它能在小范围测试的一周内创收7万美元,而且99%的用户都是男性。

当前AI的想象力和风险都是前所未有的

如今的AI不再是智能机器人,而是越来越具有逼真的能力。即使之前因手部细节不完整而备受诟病的AI,也在短时间内迭代升级,不仅抢占了模特的工作,还能担任颜值主播。现在,AI已经成为数字生命的存在。例如,AI马斯克和AI乔布斯可以进行跨时空对话,AI李白和AI林黛玉可以就诗词展开辩论。

但同时,随着AI生成内容的广泛应用,也引发了对隐私和内容安全边界的担忧。著名深度学习专家Geoffrey Hinton突然离开谷歌,为了能够自由地讨论人工智能潜在的风险,这个决定对谷歌产生了影响。在接受采访时,Hinton毫不掩饰地表达了对人工智能未来发展的担忧,他对自己毕生工作的回顾充满了沮丧。

尽管目前无法确定AI是否真的会成为人类的杀手,但在互联网迅速传播的环境下,难以辨别真假的AI生成内容使信息环境变得更加复杂,不可控因素也增多了。例如,网红卡琳在AI聊天引发轰动后意识到可能会遇到麻烦,她表示自己曾经遇到跟踪者出现在家门口,而她的人工智能形象可能导致她面临更多的跟踪风险。

对于AI,一些平台已开始制定相关政策和监管措施。比如,抖音于5月9日发布了一份倡议,禁止利用生成式人工智能技术创作、发布侵权内容,对于发现的行为将严格处罚;此外,发布者还被要求显著标识人工智能生成的内容,并加上官方统一的水印。

然而,从长远来看,AI的未来仍然值得期待。有业内人士指出,目前只是进行简单的聊天对话,当积累了足够的数据并完善了算法后,AI可以通过文本和语音进行个性化定制,甚至具备记忆能力,在你的需求下成长,这就是所谓的“养成系”。未来还可以将AI接入硬件、投影等设备,使其化身为人或宠物等形态,时刻陪伴在你身边。

虚拟人的存在也可能成为实现元宇宙的一种方式,随着AI技术的不断成熟,元宇宙的概念有一天可能真正实现。

目前,互联网用户主要将时间花费在短视频、直播和即时通讯社交上,但在未来,人们的一部分精力可能会转向与虚拟人进行社交和沟通。

这一天也许很快就会到来。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

面对AI诈骗,如何构筑安全防线?

AI诈骗为何防不胜防?

近日,包头警方发布一起利用AI实施电信诈骗的案件。不法分子利用AI技术合成人脸和声音,伪装成特定人物,与他人进行实时视频通话,在短短10分钟内就骗取了430万元。

随着近年来深度学习和机器学习的快速发展,普通人能以较低的成本应用各种先进的AI生产工具,AI诈骗也因此变得更加“炉火纯青”:

● 首先,通过AI分析公众发布在网上的各类信息,诈骗者可以了解人群的行为习惯、社会身份、经济实力、社交关系等,从而筛选目标人群,并根据不同情况定制诈骗脚本,实现精准诈骗;

● 其次,通过大规模打骚扰电话、盗取微信账号、获取社交平台真人发布的图片和视频,诈骗者可以获取大量素材,并借助深度学习、语音合成等AI技术制作出极为逼真的“换脸视频”、“合成音频”,伪装成受害者的家人好友,骗取其信任并实施诈骗;

● 最后,由于AI生成的内容很难被检测和辨认,受害者及其亲友往往难以在第一时间发现被骗,增加了后期破案和追缴资金的难度。

环环相扣之下,对于AI技术缺乏了解的普通人来说,AI诈骗变得更加防不胜防。

其实,AI诈骗由来已久。早在2019年,一名诈骗者就利用AI语音模仿软件,假扮公司高层,甚至模仿了对方带有德语口音的英语,成功骗取一家英国能源公司CEO的22万欧元(约合人民币170万元)。这起案件被认为是全球首例AI诈骗。

加强AI监管,防止技术滥用

如何更好地让AI、大数据等技术发挥正向价值,减少AI诈骗的风险隐患?法律法规是行业规范发展的必要前提和保障。当前,全球都在努力应对AI带来的挑战,制定法案加强监管。

2023年6月5日,为打击虚假信息,欧盟委员会副主席向谷歌、抖音国际版、微软、Facebook和Instagram母公司Meta等超过40家科技企业要求,检测人工智能(AI)生成的图片、视频和文本,并向用户提供明确的标记。同时,欧盟正在制定《人工智能法案》,以加强对AI的监管,这一草案已于6月中旬经欧洲议会表决通过,进入立法谈判阶段。

而从国内情况来看,近年来,我国在数据安全、个人信息保护、人工智能等领域相继发布多项政策法规,并在规范深度合成、生成式人工智能方面走在世界前列。

2023年1月10日,《互联网信息服务深度合成管理规定》施行,要求在提供智能对话、仿声、人脸生成/替换等可能会导致公众混淆或误认的深度合成服务时,应当在合适位置向公众提示深度合成情况。

2023年7月,国家互联网信息办公室等七部门联合公布《生成式人工智能服务管理暂行办法》,自今年8月15日起施行。其中提出,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管,明确了提供和使用生成式人工智能服务总体要求。这也是全球首个全面监管生成式人工智能的立法文件。

在政策法规的规范及引导之下,AI、大数据等技术也将得到高效和良性的发展,留给AI诈骗的空间也会越来越小。

以科技为力量 打造安全盾牌

技术是一柄双刃剑。在面对一项崭新的技术时,我们需要用新的法规来约束、指引其发展,也需要与时俱进,充分运用AI等技术打造更强大的防护盾牌来守卫数据安全。

一方面,我们需要增强识别AI生成内容的能力,从而为普通人提供更多提示和预警。目前对AI生成内容进行判断的途径主要有两种:一种是通过算法识别AI模型生成内容的特征,从而鉴别相应内容是否由人工智能生成;另一种是对AI生成内容添加特定标识,以此区分相关内容是否由人工智能生成,如采用数字水印等加密技术。

另一方面,我们需要运用科技力量来更高效地打击AI等网络诈骗。在这一领域,国内部分企业正在积极行动。

君联资本所投企业科大讯飞近日成立了“反诈AI研究所”。该研究所将依托智能语音和其他人工智能技术应用,助力公安机关打击和预防电信网络诈骗犯罪工作。通过构建“打防宣”三位一体的反诈新格局,科大讯飞致力于提供更有效的解决方案。

联想之星被投企业达观数据则以警务机器人为技术突破口,使用RPA模拟人的鼠标、键盘操作,代替人与业务系统进行交互,自动化执行业务流程中的一系列处理动作,提升办案效率。例如,达观数据RPA机器人助力某公安反诈中心,构建反诈新格局,大幅度缩减调证、止付、冻结、续冻、预警等流程时间,为阻断诈骗、追缴资金争取宝贵的时间窗口。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

Meta 的人工智能“人物角色(personas)”可能下个月推出

据英国《金融时报》报道,Meta 最早可能于下个月在其服务(包括 Facebook 和 Instagram)中推出人工智能驱动的“人物角色”,为用户提供一种新的搜索、获取推荐以及与其产品互动的方式。英国《金融时报》援引与公司三位内部人士的对话指出,聊天机器人可能具有鲜明的个性,其中包括一个能“以冲浪者风格”提供旅行建议的聊天机器人,还有一个能以亚伯拉罕·林肯的风格对话的聊天机器人。

即将推出的产品可以帮助 Meta 在两个方面展开竞争。一方面,面对 TikTok 等公司的竞争,内置聊天机器人可能是提高 Facebook 和 Instagram 等服务参与度的一种方式。另一方面,聊天机器人可以作为 Meta 人工智能能力的展示,因为它与微软支持的 OpenAI 和谷歌的 Bard 竞争。

Meta 首席执行官马克·扎克伯格公开表示,他计划将“人工智能角色”构建到公司的产品中。今年二月,他宣布成立一个专注于生成人工智能的新产品组。“从长远来看,我们将专注于开发能够以多种方式帮助人们的人工智能角色,”扎克伯格写道。“我们正在探索文本体验(例如 WhatsApp 和 Messenger 中的聊天)、图像体验(例如创意 Instagram 滤镜和广告格式)以及视频和多模式体验。”

“我们正在探索文本体验……图像……以及视频和多模式体验”

6 月初,应用程序研究员 Alessandro Paluzzi 在 Instagram 应用程序中发现了新的“与 AI 聊天”功能的迹象,该功能将能够以 30 种不同 AI 个性的方式回答问题并提供建议。据泄漏消息称,聊天机器人还可以帮助用户撰写消息。

扎克伯格在上周的财报电话会议上再次提到了该公司的人工智能举措。他表示,该公司正在使用自己的 LLaMA 大语言模型来构建它们。“你可以想象人工智能可以通过多种方式帮助人们在我们的应用程序中联系和表达自己,让分享内容变得更容易、更有趣的创意工具,充当帮助、教练或帮助你与企业和创作者互动的代理。以及更多,”首席执行官说。有关 Meta 人工智能路线图的更多详细信息预计将在 9 月份的 Connect 开发者活动中公布。

尽管首席执行官的评论强调了此类聊天机器人可能为 Meta 用户带来的好处,但英国《金融时报》指出,它们还可以为公司提供更多有关用户兴趣的数据,以帮助进行广告定位。在过去的几个月里,竞争对手社交媒体公司 Snap 已测试将赞助链接添加到其由 ChatGPT 驱动的 My AI 聊天机器人中。

Meta 的发言人没有立即回应 The Verge 的置评请求。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

被AI大牛押注的智能体,居然拍摄了一集《南方公园》

前段时间,前特斯拉总监、OpenAI大牛Karpathy的一句话,引起了业内的关注。

在7月初的一次开发者大会上,Karpathy声称:“我被自动驾驶分了心,AI智能体才是未来!”并表示将来会全力投入对智能体的研发工作中。

其实,早在2016年,当Karpathy开始在OpenAI工作时,就已经锚定了智能体的方向,只是由于当时的研究方法还不成熟,所以Karpathy才转去做了自动驾驶。

那么,这所谓的“智能体”究竟是什么?为什么会让这位AI大牛长久地念念不忘?

如果用一句话来回答这个问题,我们可以说:

智能体的出现,不仅是AI发展的下一个方向,也是其真正走进人类生活的开始。

何谓智能体
到底什么是智能体?
如果我们将现在的生成式AI,比作一个人的话,那么它只具有了大脑(大语言模型),但却没有身体,因此只能躺在服务器上,做一些处理文字、生成图片的工作。
智能体,就相当于是大模型的“身体”,有了它,大模型才能在更多的领域施展身手。


那智能体究竟能做什么?
最近,一个名叫Fable的初创公司,发布了一个节目统筹智能体(Showrunner),如同一声惊雷炸响,让人们再次见证了智能体的强大。

通过这样的智能体,Fable制作出了一集完全用AI拍摄的《南方公园》!

从编剧、动画、导演、语音、编辑……到剧集制作的全流程,都是由AI完成。
在整个制作环节中,通过自然语言,给不同的智能体分配了各自的目标,人类导演只需要给出一个高层次的构思提示(标题、概要、事件),这些AI智能体就会开始「自导自演」。
之后,人类几乎就不用进行任何干涉了!

在制作过程中,不同的AI智能体,担任了不同的角色,如演员、导演、剪辑等,它们彼此分工合作,互相配合,最终完成了整部影片的制作。

而同样的,类似的案例,也出现在前段时间清华团队的研究中。
7月19日,清华团队用ChatGPT打造了个零人工含量的“游戏公司”——ChatDev,只要你提出想法,从设计到测试的完整流程,都由AI帮忙搞定。

Fable与制作《南方公园》的思路类似,在游戏开发的环节中,ChatDev的十多个智能体也分别担任了这个“公司”中的策划、程序员、设计师等不同的岗位。

在项目开始时,人类可以对这些AI提出一个大概的想法或创意。
之后,各个智能体之间就会进行一系列讨论、制作、测试的环节,整个过程完全不需要人类的参与,全是自动进行的。

由此可见,有了智能体之后,大模型就能根据人类给出的规则和策略来做出决策,而不需要人类的干预或指令。
在这个过程中,智能体还会通过习得的经验或知识,来改善自己的性能和适应性,并根据目标函数或奖励函数来评估自己的行为。
而这样的能力,是以往的大模型(LLM)无论如何都不具备的。
因此,LLM即使再聪明,也是一个没有身体的“大脑”,而正是智能体的出现,让LLM有了行动的能力,有了自主完成复杂任务的能力。
而这样的能力,正是LLM下一阶段进行在应用层面进行落地的关键。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群