判断人工智能是否有意识:科学家提出14条​标准

判断人工智能是否有意识:科学家提出14条标准
当下或以后的人工智能是否拥有意识,是一个公众和科学界都日益关注的话题。近日,一个由19位计算机科学家、神经科学家和哲学家组成的研究团队在一篇预印本论文(未经同行评审)中,基于一些人类意识理论,提出了14项标准以判断人工智能是否有意识


在该论文中,研究者通过目前最可靠的一些神经科学理论评估现有的人工智能系统——包括循环处理理论(recurrent processing theory),全局工作空间理论(global workplace theory),高阶理论(higher-order theories),预测处理(predictive processing)和注意图式理论(attention schema theory)——得出了意识的“指标属性”,并用计算机术语加以阐释,总结出了14条标准以评估人工智能系统是否有意识。

随后,研究者用这些标准测试了一些现有的主流人工智能,如ChatGPT、PaLM-E、AdA和Dall-E2等,发现没有任何一个人工智能可以同时满足数个标准,因此它们都不是拥有意识人工智能的有力候选者。这项工作为评估越来越像人类的人工智能提供了一个框架。但这项研究也表明,尽管目前的人工智能可能都没还有意识,要构建满足这些标准的人工智能,并不存在明显的技术障碍。(Science News)

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

七夕中国情人节,成为AI的大型秀场

自从今年AI大火之后,什么虚拟女友、AI授课师、AI摄影师都大行其道,而在中国首款AI游戏中,3000万玩家都被分配了一个AI过七夕,真是天下之大无奇不有。


《逆水寒》手游首个七夕节,也被称为“虐狗节”——看看这次七夕节的奖励可是真丰盛,又是白绒绒的宠物猫,又是可以刻字的雨伞,如果说:这300万对情侣可以笑着领奖励,那么剩下的3000万+单身汪怎么办?
为了让没有情缘的玩家也能在虐狗节过得舒心,官方想出了一个高招。


那就是,给没有情缘的玩家每人分配一个AI男友/女友,和真人情缘一样做任务,完事了可以领取同等奖励。
这样可谓皆大欢喜。


《逆水寒》手游可是号称国内首款AI游戏,AI智能度非常高,之前玩家已经领教过这些AI的厉害了,比如你给他说去私奔,结果男NPC都能和你牵手,还有一位叫作“小寒”的NPC,不仅和其他NPC吵架,还能和玩家杠上一整天,她说起哲学、文学乃至史学,你都说不过她。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

《纽约时报》屏蔽 OpenAI 的网络爬虫 |懂点AI

01国际劳工组织发布报告,生成式 AI 重点影响女性为主的文书岗位

国际劳工组织(ILO)近日发布报告,表示生成式 AI 固然不会接管、替代所有人的工作,但对于以女性为主的文书岗位会产生较大影响。研究报告称尤其在发达国家,在文书相关岗位中女性员工的占比更高。在高收入国家,8.5% 的女性就业岗位可以实现高度自动化,而男性就业岗位占比为 3.9%。研究报告认为大多数工作岗位和行业开始朝着自动化方向发展,生成式 AI 是现有岗位的补充,而非替代。报告认为受生成式 AI 影响最大的岗位是文书工作,大约四分之一的工作可以通过自动化方式完成,交由生成式 AI 来生成文本、图像、声音、动画、3D 模型和其他数据。报告认为经理和销售人员等大多数其它职业受到生成式 AI 的影响并不会太大。

02《纽约时报》屏蔽 OpenAI 的网络爬虫,禁止将其内容用于 AI 训练

《纽约时报》已经屏蔽了 OpenAI 的网络爬虫,这意味着 OpenAI 不能使用该出版物的内容来训练其人工智能模型。查看《纽约时报》的 robots.txt 页面,就可以看到《纽约时报》封禁了 GPTBot,这是 OpenAI 本月早些时候推出的爬虫程序,据悉《纽约时报》早在 8 月 17 日就屏蔽了这个爬虫。值得一提的是,《纽约时报》本月初更新了其服务条款,该条款禁止使用其内容来训练人工智能模型,《纽约时报》还在考虑对 OpenAI 提起知识产权侵权的法律诉讼。

03 YouTube 与环球音乐合作推出“音乐 AI 孵化器”

YouTube 官宣将会联手环球音乐集团等合作伙伴,推出 音乐 AI 孵化器。仅 2023 年,YouTube 上与 AI 工具相关的视频观看次数就超过 17 亿次。首席执行官 Neal Mohan(尼尔・莫汉)表示:“当我们与整个行业中一些最具创新精神的艺术家、词曲作者和制作人合作时,该孵化器将有助于为 YouTube 的方法提供指导,这些艺术家、歌曲作者和制作人具有不同的文化、流派和经验。”作为该计划的一部分,他提名的艺术家和制作人包括 Anitta(全球巨星)、ABBA 乐队的 Björn Ulvaeus、d4vd(新晋创作歌手)、Don Was(音乐家、作曲家和制作人)、Juanes(热门制作人)、Louis Bell、Max Richter、Rodney Jerkins、Rosanne Cash(创作型歌手)、Ryan Tedder(三届格莱美奖获奖歌曲作者兼制作人)、Yo Gotti 等。

04 美国法官最新裁定:纯AI生成的艺术作品不受版权保护

美国华盛顿一家法院近日裁定,根据美国政府的法律,在没有任何人类输入内容的情况下,人工智能(AI)创作的艺术作品不受版权保护。国地区法官Beryl Howell上周五(8月18日)表示,只有人工智能与人类作者合作的作品才能获得版权,并确认美国版权局驳回了计算机科学家Stephen Thaler代表其DABUS系统提出的申请。Thaler认为自己的人工智能系统DABUS拥有创造的艺术作品的版权,但美国版权局拒绝了他的申请,理由是”人类思维与创造性表达之间的联系”是版权保护的关键要素。

05 韩国SK电讯宣布战略投资AICC开发商Persona AI

韩国最大电信运营商SK电讯8月21日宣布战略投资韩国智能联络中心(AICC)开发商Persona AI的股份,并成为后者的第三大股东。SK电讯计划加强其AICC部门,使其成为包括咨询、基础设施建设和维护在内的人工智能联络中心处理服务的综合供应商。Persona AI拥有自研的自然语言处理引擎,并推出了韩国首个订阅型AICC服务。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

三万亿Token!AIlen AI发布史上最大文本数据集Dolma,已开源

随着科技的飞速发展,大型语言模型已经成为了人工智能领域的热门话题。近日,AI研究机构Allen Institute for AI发布了一个名为Dolma的开源语料库,这个语料库包含了3万亿的token,成为了迄今为止最大的开源数据集。


1、Dolma的诞生背景

从今年3月开始,Allen Institute for AI开始创建一个名为OLMo的开源语言模型,旨在推动大规模NLP系统的研究。他们的主要目标是以透明和开源的方式构建OLMo,通过发布工程中的各种成果和文档来记录整个项目的进展。而Dolma就是这个项目中发布的第一个数据成果。这个数据集包含了来自网络内容、学术出版物、代码、书籍和维基百科材料的3万亿token。这个数据集已经在HuggingFace Hub上公开,任何人都可以下载。

地址:https://huggingface.co/datasets/allenai/dolma2、Dolma的目标

  • 开源:AI2希望创建一个数据集,使其他研究者有机会独立地创建更好的版本,研究数据与其上训练的模型之间的关系,并报告他们在检查数据时观察到的任何问题。
  • 代表性:Dolma的语料库应该与其他语言模型使用的数据集相当。
  • 大小:AI2希望收集一个大型数据集,以研究模型和数据集大小之间的关系。
  • 可复制性:在准备数据集时开发的所有工具都应该公开提供,供其他人复制他们的工作。
  • 风险缓解:Dolma应该在满足可复制性和代表性的要求的同时,尽量减少对个人的风险。

3、Dolma数据集的设计原则

在创建Dolma时,需要遵循四个原则:

  • 遵循现有的实践:通过匹配用于创建其他语言建模数据集的方法,A使广大研究社区能够使用数据集和生成的模型工件来间接研究(并审查)今天正在开发的语言模型,即使那些在封闭的门后开发的模型。
  • 信任评估套件:AI2为OLMo开发的评估套件可以提供模型在多种任务上的能力指标;当做出直接影响这些任务之一的数据相关决策时,我们选择改进指标的干预。例如,AI2在Dolma中包括Wikipedia文本,因为它提高了K-12科学知识任务的性能,例如ARC。
  • 支持AI2的核心研究方向:不是所有的数据集策划决策都是关于基准性能的。事实上,许多理想的干预措施彼此相互矛盾。例如,AI2希望OLMo既能处理代码任务,也能处理文本任务,但添加包含代码的文档会降低许多文本基准的性能,反之亦然。
  • 采取基于伤害的风险缓解方法:为了研究的利益,某些界限不应该被越过,即使它们在大规模语言建模项目中是常见的实践。AI2在项目的早期与法律和伦理专家进行了接触,并根据他们的反馈对数据设计决策进行了评估。

4、Dolma的创建过程

Dolma的创建涉及从多个来源获取的原始数据转化为清洁的纯文本文档。这些数据处理步骤通常分为两类:特定于来源和与来源无关。如下图所示,预训练语料库的创建需要这两种操作的组合;多个转换按顺序在一个管道中执行。

5. Dolma与封闭数据集的比较

以下表格提供了不公开其预训练数据的语言模型的高级摘要。为了使表格不至于过大,AI2将其限制为65B+参数规模的全密集、自回归模型。✔ 表示引用的作品明确描述了论文中报告的处理步骤,?表示缺少报告,~表示仅存在部分信息。

6. Dolma与其他数据集的比较

Dolma与其他开源数据集的主要区别在于,它的大小远远超过其他开源数据集,并且它是在AI2的ImpACT许可下发布的,这是为了平衡易于访问与分发大型数据集的潜在风险。

7. Dolma的发布

Dolma在AI2的ImpACT许可下作为中等风险工件发布。根据此许可,研究者必须:

  • 提供他们的联系信息,并声明他们访问Dolma的预期用途;
  • 披露基于Dolma创建的任何衍生物;
  • 根据ImpACT许可的相同限制分发衍生物;
  • 同意不利用Dolma进行一系列禁止的用途,如军事监视或生成假信息。

8.未来展望

Dolma的发布不仅仅是一个技术上的里程碑,更是对开放研究和透明度的一次重要承诺。随着技术的不断进步,我们期待看到更多的创新和突破,为人工智能和机器学习的未来铺设坚实的基石。Dolma的出现,为我们揭示了一个充满无限可能的未来。

参考链接:https://blog.allenai.org/dolma-3-trillion-tokens-open-llm-corpus-9a0ff4b8da64

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

LLaMA都在用的开源数据集惨遭下架:包含近20万本书,对标OpenAI数据集

开源数据集因侵权问题,惨遭下架。

如LLaMA、GPT-J等,都用它训练过。

如今,托管了它3年的网站,一夜之间删除了所有相关内容。

这就是Books3,一个由将近20万本图书组成的数据集,大小将近37GB。

丹麦一家反盗版组织表示,在该数据集中发现了150本其成员的书籍,构成侵权,所以要求平台下架。

现在该平台上的Books3网页链接已经“404”。

数据集的最初开发者无奈表示,Books3的下架是开源圈的一场悲剧。

Books3是什么?

Books3在2020年发布,由AI开发者Shawn Presser上传,被收录在Eleuther AI的开源数据集Pile中。

它总计包含197000本书,包含来自盗版网站Bibliotik的所有书籍,意在对标OpenAI的数据集,但主打开源

这也是Books3名字的来源之处——

GPT-3发布后,官方披露其训练数据集中15%的内容来自两个名为“Books1”、“Books2”的电子图书语料库,不过具体内容一直没有被透露。

开源的Books3则给更多项目提供了一个和OpenAI竞争的机会。

比如今年爆火的LLaMA、以及Eleuther AI的GPT-J等,都用上了Books3.

要知道,图书数据一直是大模型预训练中核心的语料素材,它能为模型输出高质量长文本提供参考。

很多AI巨头使用的图书数据集都是不开源,甚至是非常神秘的。比如Books1/2,关于其来源、规模的了解,更多都是各界猜测。

由此,开源数据集对于AI圈内相当重要。

为了更方便获取,Books3被放到了The Eye上托管。这是一个可以存档信息、提取公开数据的平台。

而这一次惨遭下架,说的也是这一平台。

丹麦反盗版组织权利联盟向The Eye提出了下架请求,并且通过了。

不过好消息是,Books3并没有完全消失,还是有其他办法获取的。

Wayback Machine上还有备份,或者可以从Torrent客户端下载。

作者老哥在推特上给出了多个方法。

“没有Books3就没法做自己的ChatGPT”

实际上,对于这次下架风波,数据集作者老哥有很多话想说。

他谈到,想要做出像ChatGPT一样的模型,唯一的方法就是创建像Books3这样的数据集。

每一个盈利性质的公司都在秘密做数据集,如果没有Books3,就意味着只有OpenAI等科技巨头才能访问这些图书数据,由此你将无法做出自己的ChatGPT。

在作者看来,ChatGPT就像是90年代的个人网站一样,任何人都能做是很关键的。

不过由于Books3很大一部分数据来自于盗版网站,所以作者也表示,希望之后能有人做出来比Books3更好的数据集,不仅提升数据质量,而且尊重书籍版权。

这种类似的情况在OpenAI也有发生。

一个多月以前,两位全职作者以未经允许擅自将作品用来训练ChatGPT,起诉了OpenAI。

而之所以会发生这种情况,很有可能是OpenAI的数据集Books2从影子图书馆(盗版网站)中获取了大量数据。

所以也有声音调侃说,AI不仅带来了新的技术突破,也给反盗版组织带来了新任务。

参考链接:
[1]https://www.theatlantic.com/technology/archive/2023/08/books3-ai-meta-llama-pirated-books/675063/
[2]https://gizmodo.com/anti-piracy-group-takes-ai-training-dataset-books3-off-1850743763
[3]https://interestingengineering.com/innovation/anti-piracy-group-shuts-down-books3-a-popular-dataset-for-ai-models
[4]https://torrentfreak.com/anti-piracy-group-takes-prominent-ai-training-dataset-books3-offline-230816/

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

ChatGPT或将被关闭、销毁数据集

OpenAI 可能会因每条侵权内容而被处以高达 15 万美元的罚款。几周前《纽约时报》更新了服务条款,禁止 AI 公司抓取其文章和图片来训练 AI 模型。如今《纽约时报》似乎已准备起诉 OpenAI。

专家们推测,起诉结果可能会对 OpenAI造成毁灭性打击,包括摧毁 ChatGPT 的数据集,并对每条侵权内容处以高达 15 万美元的罚款。美国国家公共电台( NPR )近日采访了两位“直接知情”的人士,他们证实,《纽约时报》的代理律师正在考虑是否有必要对 OpenAI 提起诉讼,以“保护《纽约时报》声称拥有的知识产权”。

NPR 表示,如果《纽约时报》坚持到底、起诉 ChatGPT 的开发商 OpenAI,这起诉讼可能会成为自 ChatGPT 一炮打响以来,涉及版权保护的“最引人注目”的法律纠纷。就在一个月前,Sarah Silverman 加入了其他知名作家的行列,以类似的理由起诉 OpenAI,力求保护其著作的版权。


当然,ChatGPT 并不是唯一一个在版权索赔方面面临官司的生成式 AI 工具。今年 4月,专家们称,由于版权问题,图像生成器 Stable Diffusion 可能会在法律界引发“一场地震”。

但 OpenAI 似乎是早期诉讼的主要对象。

NPR 报道,如果《纽约时报》成功证明 OpenAI 非法复制了其内容,并且法院限制 OpenAI 的训练模型只包含明确授权的数据,这家公司可能面临联邦法官下令彻底重建 ChatGPT 的整个数据集这一不利局面。

OpenAI 可能因每一条侵权内容而面临巨额罚款,这对 OpenAI 的财务来说无异于一记沉重的打击。而在几个月前,《华盛顿邮报》报道,ChatGPT 已经开始面临用户流失的窘境,“动摇了对 AI 革命的信心”。除此之外,《纽约时报》打赢官司可能引发其他版权所有者提出一连串的类似索赔。与似乎最关心保留从 OpenAI 的训练模型中删除其书籍这一选项的作者不同,《纽约时报》对 ChatGPT 之类的 AI 工具存在其他层面的担忧。

NPR 报道称,“一大担忧”就是,ChatGPT 可能会利用《纽约时报》的内容,通过“创建根据《纽约时报》员工的原创报道和写作手法回答问题的文本”,成为《纽约时报》的“竞争对手”。自本月起,《纽约时报》的服务条款禁止任何人将其内容用于“开发任何软件程序,包括但不限于训练机器学习或 AI 系统”。

现在看来似乎很明显,这次服务条款的更新为《纽约时报》提供了另一道保护。NPR报道,这家新闻媒体似乎正在重新考虑与 OpenAI 签一份许可协议。该许可协议将确保 OpenAI 为用于训练其模型的《纽约时报》内容付费。

据 NPR 报道,OpenAI 和《纽约时报》之间的会晤已经变得“争议很大”,使得这种协议似乎越来越不可能达成,因为《纽约时报》似乎在权衡是否值得签署任何许可协议,因为因而开发的产品可能成为其最激烈的竞争对手。

为了捍卫其 AI 训练模型,OpenAI 可能不得不声称自己在“合理使用”该公司为训练 ChatGPT 等工具而收集的所有互联网内容。在潜在的《纽约时报》案中,这将意味着证明复制《纽约时报》的内容以生成 ChatGPT 回复不会与《纽约时报》构成竞争。

专家们告诉 NPR,这对 OpenAI 来说将是一个挑战,因为与谷歌图书( Google Books )不同,ChatGPT在一些互联网用户看来实际上可以取代《纽约时报》网站作为报道来源。谷歌图书在 2015 年赢得了联邦版权诉讼,因为其书籍摘录并没有成为“重要的市场替代品”,替代不了真正的书籍。

《纽约时报》的代理律师似乎认为这是一个切实而重大的风险。NPR 报道称,今年6月,《纽约时报》的管理层向员工们发布了一份备忘录,似乎对这个风险作出了预警。在备忘录中,《纽约时报》首席产品官 Alex Hardiman 和代理总编辑 Sam Dolnick 表示,《纽约时报》最大的“担忧”是“保护我们的权利”,不受生成式 AI 工具的侵犯。

备忘录问道:“我们如何才能确保使用生成式 AI 的公司尊重我们的知识产权、品牌、读者关系和投资?”这与许多报社提出的一个问题相呼应,许多报社开始权衡生成式AI的利弊。上个月,美联社成为了首批与 OpenAI 达成许可协议的新闻机构之一,但协议条款并未披露。

今天美联社报道,它已与其他新闻机构一起制定了在新闻编辑室使用 AI 的标准,并承认许多“新闻机构担心自己的材料被 AI 公司未经许可或付费就擅自使用。”今年 4 月,新闻媒体联盟( News Media Alliance )发布了一套 AI 原则,坚持要求生成式 AI 的“开发者和部署者必须与出版商就后者的内容使用权进行谈判”,以便将出版商的内容合法用于 AI 训练、发掘信息的 AI 工具以及合成信息的 AI 工具,从而竭力捍卫出版商的知识产权。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

马化腾撰文发声:此次人工智能革命的重要性,用几百年一遇来形容也不为过!

8月14日,《腾讯可持续社会价值报告2022》正式发布。腾讯公司董事会主席兼CEO马化腾在报告中发表了题为《通用人工智能到来的前夜,科技如何向善?》的致辞。马化腾再次就人工智能发声:以ChatGPT为代表的新一轮人工智能浪潮,正在席卷全球。中国的不少科技企业,包括腾讯,正大力投入,拥抱这个无以伦比的机会。我们相信,在扎实做好底层的算法、算力和数据后,以基础模型为代表的人工智能将会成为业务发展的倍增器,使我们更好地服务于用户、产业乃至整个社会。

此次人工智能革命的重要性,用几百年一遇来形容也不为过。

与此同时,深圳梦注意到,8月16日,腾讯发布2023年第二季度财报,公司该季度实现营收1492.08亿元,同比增长11%,净利润(Non-IFRS)375.48亿元,同比增长33%。这是腾讯营收连续第二个季度保持增长,也是净利润增速连续四个季度超过营收。

今年7月,《中共中央国务院关于促进民营经济发展壮大的意见》(以下简称《意见》)发布,坚定了包括平台经济在内的民营经济的发展信心。腾讯董事会主席、首席执行官马化腾表示,“《意见》对互联网行业提出全面战略要求,为平台经济指明发展方向,增添了我们持续开拓的决心和动力。”

财报显示,腾讯第二季度继续夯实“连接器”“工具箱”“小助手”的角色定位,行稳致远。

马化腾表示,公司保持稳健的收入增长,并向更高利润率的优质收入来源倾斜,结合严谨的成本纪律,促使利润增速超过了收入增速。他还指出,公司广告业务实现了显著的快速增长,得益于在广告平台上应用了机器学习能力以及视频号的商业化。未来,腾讯将继续推动创新,包括通过生成式人工智能,打磨自研的专有基础模型。

马化腾:此次人工智能革命的重要性,

用几百年一遇来形容也不为过

8月14日,《腾讯可持续社会价值报告2022》正式发布。腾讯公司董事会主席兼CEO马化腾在报告中发表了题为《通用人工智能到来的前夜,科技如何向善?》的致辞,分享了自己关于科技如何造福人类的思考,以及多个腾讯“科技向善”的案例,其中一个是来自深圳宝安区的“五分钟急救圈”。

“给我留下深刻印象的是在深圳宝安区的‘五分钟急救圈’,最近短短三个月,这个‘急救圈’已救助了四位突发疾病的患者。”马化腾在文中介绍,这是深圳红十字会和腾讯联合打造的“网约式”数字急救系统。这里,对AED等的数字化连接只是“网约式急救”的一部分,本质还是腾讯在政府指导下与医院、社区、学校、企业、志愿者等急救各方形成了共识,共创了能及时联动各方的系统化创新解决方案。

腾讯将两年多来探索可持续社会价值创新的实施方法归纳为“可持续社会价值创新模型”

2019年,腾讯把“用户为本,科技向善”升级为使命愿景。在持续践行中,腾讯又在2021年进行公司第四次战略升级,把“推动可持续社会价值创新(SSV)”作为核心战略,依托数字科技的核心能力助力可持续发展,创造社会价值。

马化腾在文中指出,两年多来,腾讯逐渐形成了以核心能力为依托、与社会各方共创的三大可持续社会价值创新方向,取得了一定成果。“我们对一个更加可持续与高质量发展的腾讯有了清晰的图景:它是真正科技向善的,是关心人的价值与社会的可持续发展的,是呼应时代与国家发展需要的。它从服务用户(C),发展到服务产业(B),再到服务社会(S),最终指向是为社会创造价值。‘CBS三位一体’是它的新形态,商业价值与社会价值在其中不是此消彼长,而是相互融合、共生发展,共同实现规模化增长。”

马化腾表示,可持续性科学,就是旨在把科学融入自然-社会的复杂系统中,为促进可持续发展发现新知、找到新解法。“如果我们以对人与社会的关心为底层逻辑,以人文价值为参照,就会倾听多方主体的诉求,最大化技术的向善力量,规避和最小化其风险。”

8月14日,《腾讯可持续社会价值报告2022》正式发布。这是腾讯交出的第二份年度社会价值答卷。

以下为马化腾致辞全文:

以ChatGPT为代表的新一轮人工智能浪潮,正在席卷全球。中国的不少科技企业,包括腾讯,正大力投入,拥抱这个无以伦比的机会。我们相信,在扎实做好底层的算法、算力和数据后,以基础模型为代表的人工智能将会成为业务发展的倍增器,使我们更好地服务于用户、产业乃至整个社会。

此次人工智能革命的重要性,用几百年一遇来形容也不为过。它不只将改变商业,也可能改变整个世界。微软科学家最近在论文《通用人工智能的火花》中指出,GPT4已具备人类大脑的逻辑活动迹象。

虽然科技界对此看法不一,但如果有人真的造出了一台像人脑一样工作、甚至更为聪明的机器,世界将会怎样,人类将往何处去?在通用人工智能到来的前夜,我们需进一步思考科技与社会之间的关系:科技如何造福于人类,而不是造成痛苦与潜在危机。

在这方面,联合国2019年发布的《未来即现在――科学促进可持续发展》报告认为,“科学技术是推动变革的强大力量,可让世界变好或变坏,取决于如何驾驭”。报告的建议,是把科学作为促进全球可持续发展的四大杠杆之一,尤其认为以人工智能为代表的数字科技有望带来新一代的可持续解决方案。01

作为一家科技公司,我们通过微信、云与大数据、人工智能等产品技术创新,看到了数字科技对社会方方面面的作用与责任。我们越来越深地意识到,科技是一种能力,向善是一种选择,能力越大,责任越大

于是,在2019年把“用户为本,科技向善”升级为使命愿景。在持续践行中,又在2021年进行公司第四次战略升级,把“推动可持续社会价值创新(SSV)”作为核心战略,依托数字科技的核心能力助力可持续发展,创造社会价值。

我们也在实践中认识到,如果科学技术要发挥杠杆作用,它就需以人为本、以关心人与社会的人文价值为参照,着眼于真正为人类增进福祉,并形成广泛的共识、协作与行动,才可能推动社会可持续发展。

两年多来,我们逐渐形成了以核心能力为依托、与社会各方共创的三大可持续社会价值创新方向,取得了一定成果。

方向一,通过模式创新支持科学技术发展,包括支持基础研究与低碳技术创新等;方向二,通过数字化助力社会价值领域,包括支持公益发展、乡村发展、社会应急、乡村支教、卫生医疗、文化传承等;其三,通过产品创新与公益援助,帮扶困境中的老人、孩子与妇女。

我们对一个更加可持续与高质量发展的腾讯有了清晰的图景:

它是真正科技向善的,是关心人的价值与社会的可持续发展的,是呼应时代与国家发展需要的。它从服务用户(C),发展到服务产业(B),再到服务社会(S),最终指向是为社会创造价值。“CBS三位一体”是它的新形态,商业价值与社会价值在其中不是此消彼长,而是相互融合、共生发展,共同实现规模化增长。

可持续社会价值创新,因此成了科技向善的切实抓手。

在助力环境的可持续发展方面,公司在去年初公布了碳中和路线图,形成了从自身碳中和到助力行业减碳的系统目标,并在“CBS三位一体”的框架下变成了具体的行动。

如腾讯云打造了以AI为驱动的“智慧能源生态平台”;碳中和实验室正在推进建设中国首个二氧化碳矿化封存示范项目,通过捕捉空气中的二氧化碳,转化成水溶液,注入玄武岩中,将在几年内自然矿化为石头(即CCUS技术)。

助力经济的高质量发展方面,腾讯的核心技术在数实融合方面,拓展出广泛的应用场景。如超低延时的音视频技术被用于“无人矿车”,助力解决工业领域的远程操作与危险作业。

可持续社会价值的创新,也激发更多技术拓展出广泛的社会化应用场景。天籁实验室与银发科技实验室,利用腾讯会议产品中的AI降噪技术,打造更适老又普惠的助听器,旨在为1.2亿老年人减缓听障的痛苦。

对老年人的关心,同样影响着Robotics X实验室的持续研究。它在近几年先后推出了国内一流的多模态四足机器人、轮腿式机器人和擅长花式调酒的机器人。这些,只是为实现更大目标的阶段性探索与技术积累。它真正的梦想,是在未来几年打造出为老年人提供养老护理、居家服务的养老机器人,以助解老龄化时代之下大量缺乏护工的困局,探索人机共存、共赢的新世界。

我们通过这类实践,看到了以人工智能创造新一代可持续解决方案的可行性。同时也发现,若要让这样的方案更好地服务社会,往往不是靠单一的AI+、数字科技+或者科学技术+,而是需更具全局视角、系统思维与共创方法的创新方案与务实行动。

02

以我们支持基础研究的“新基石研究员项目”为例,就是系统性创新方案的典型。基础研究的原始创新,事关科学与民族发展未来。目前国家资金对此投入巨大,但限于目标考核的原因,对于非任务导向的自由探索,资金支持相对较少。

而如果在科学系统中,把这一块短板补上,将会极大激发科学界的原始创新。所以,这个项目的系统目标是激发科学界自由探索的内生动力,那么科学家必然是主角、主导者,政府是指导者,企业是助力者、补位者。

故而,我们投入百亿,设立了公益属性的新基石研究员项目,长期稳定地支持一批杰出科学家自主选择研究方向、突破“从0到1”的原始创新。目前第一期58位新基石研究员的资助名单已发布,获得了各界的广泛肯定。这是支持基础研究的第一步。

我们也正在探索数字技术与基础研究的更多结合。如在生命科学领域,AI LAB实验室利用人工智能技术,支持精准医疗、空间组学、细胞图谱的研究,成果被发表在国际顶尖科学期刊。

在天文物理领域,优图实验室的AI技术,助力天眼FAST大大提升天文数据的处理效率,已帮助寻找到超过22个脉冲星。这给我们的启发是,也许在未来,我们可以更加系统、全面地利用AI技术,打造服务于数学、物理、化学、生物与医学等基础研究的“AI FOR SCIENCE”体系。

我们从中看到了系统化创新方案不是一成不变的,而是可以与系统共生共舞,持续进化的。

这在可持续社会价值创新的实践中,是一种共通的经验。

给我留下深刻印象的是在深圳宝安区的“五分钟急救圈”,最近短短三个月,这个“急救圈”已救助了四位突发疾病的患者。这是深圳红十字会和我们联合打造的“网约式”数字急救系统。这里,对AED等的数字化连接只是“网约式急救”的一部分,本质还是我们在政府指导下与医院、社区、学校、企业、志愿者等急救各方形成了共识,共创了能及时联动各方的系统化创新解决方案。

这样的事,同样发生在乡村发展领域,我们不只是提供“村级事务管理平台”这样的数字工具,还通过“耕耘者振兴计划”与“乡村CEO”去协助政府培养乡村振兴人才。

在健康普惠领域,我们不只是在低卫生资源的地区提供信息化与智能化的支持,而是通过数字化,从儿童听障、先天性心脏病、妇女两癌等疾病切入,打通系统的断点、堵点,搭建从基层医生培训到早筛、早诊、早治、救助的系统化创新方案,使“筛诊治一张网”能以更低的成本、更高的效率落地低资源地区。

在数字支教领域,我们不只提供数字化的远程双师课堂,而是深刻地理解了乡村教育的实际需要,广泛联动从志愿者到教育专家等有识之士一起奉献爱心,推动支教公益行业的数字化升级,进而形成系统化方案的共创。

腾讯公益更是系统化创新方案的集大成者。腾讯公益在十多年前从月捐、乐捐等产品切入,逐渐理解并深入公益界的社会系统,广泛连接用户、公益机构、企业、政府等各方,共创数字公益的系统解决方案,促进了中国公益慈善的可持续发展,推动了“人人公益”社会风尚,成为互联网公益的“中国样本”之一。03

这样的系统化方案创新,也可以在全球可持续发展领域被推崇的“可持续性科学”中找到依据。可持续性科学,就是旨在把科学融入自然-社会的复杂系统中,为促进可持续发展发现新知、找到新解法。

这里的每个可持续社会议题,都是一个有多方主体且相互作用的极其复杂的社会系统。如果科技的力量不是以系统的方式融入其中,就可能出现排异反应甚至破坏作用。而如果我们以对人与社会的关心为底层逻辑,以人文价值为参照,就会倾听多方主体的诉求,最大化技术的向善力量,规避和最小化其风险。

如此,各方的主体性得到尊重,各方的内生动力得以激发,系统化方案创新得以形成,科技的杠杆效应得以发挥。如果这样,科技能力对社会系统,不是破坏性创新,而是协同性的、变革性的共生发展,是科技创新与社会创新并举的可持续模式。

今天,人类正在迈向新的文明入口。以人工智能为代表的新一轮科技浪潮,可能会使人类的福祉上升到新的阶段,但也可能使人类在剧变中承受巨大的阵痛。

当我们以这种系统化创新的方式、以可持续性科学的新知去面向未来,也许是更好的结果。它将更好地解决环境与气候的问题,更高质量地促进经济发展,更大程度地提升社会幸福。

这样的远景不在别处,就在当下,就在我们对科技向善的践行中。

1492.08亿!马化腾最新表态

8月16日,腾讯发布2023年第二季度财报,公司该季度实现营收1492.08亿元,同比增长11%,净利润(Non-IFRS)375.48亿元,同比增长33%。这是腾讯营收连续第二个季度保持增长,也是净利润增速连续四个季度超过营收。

今年7月,《中共中央 国务院关于促进民营经济发展壮大的意见》(以下简称《意见》)发布,坚定了包括平台经济在内的民营经济的发展信心。腾讯董事会主席、首席执行官马化腾表示,“《意见》对互联网行业提出全面战略要求,为平台经济指明发展方向,增添了我们持续开拓的决心和动力。”

财报显示,腾讯第二季度继续夯实“连接器”“工具箱”“小助手”的角色定位,行稳致远。

马化腾表示,公司保持稳健的收入增长,并向更高利润率的优质收入来源倾斜,结合严谨的成本纪律,促使利润增速超过了收入增速。他还指出,公司广告业务实现了显著的快速增长,得益于在广告平台上应用了机器学习能力以及视频号的商业化。未来,腾讯将继续推动创新,包括通过生成式人工智能,打磨自研的专有基础模型。

净利润增速连续四个季度超过营收增速

财报显示,腾讯第二季度实现营收1492.08亿元,同比增长11%,净利润(Non-IFRS)375.48亿元,同比增长33%。截至该季度,腾讯营收已连续两个季度保持增长,净利润增速连续四个季度超过营收增速,继续稳步前行。

马化腾曾表示,腾讯将不断加大自主创新力度,深度参与“数实融合”。而从财报表现来看,作为“数实融合”的业务代表,腾讯“金融科技及企业服务”业务收入第二季度达到486亿元,同比增长15%,占总营收的比重达到约32%,成为本季度业绩收入贡献最大板块。

同时,该板块对腾讯营收的贡献持续走高,至今已连续九个季度营收占比超过30%。

其中,金融科技服务收入实现双位数同比增长,主要得益于线下线上商业支付活动的增加。而受益于云业务增长等因素,本季度企业服务营收回暖至同比双位数增长,毛利率明显改善。

金融科技方面,腾讯已完成对财付通的自查和相应整改工作,并提升了支付业务的合规经营能力,公司期待在支持性监管框架下推进业务发展与创新。

开拓国际市场方面,腾讯游戏板块表现突出。

第二季度,腾讯游戏业务收入为445亿元。凭借《VALORANT》《胜利女神:妮姬》《Triple Match 3D》等游戏的出色表现,腾讯游戏国际市场收入达127亿元,同比增长19%,相当于本土游戏市场收入的40%。财报显示,二季度手游和端游的月活跃账户数和日活跃账户数均实现同比增长,而且腾讯游戏近两年发布的三款新游戏在第二季度中国手游时长排名前列。

较二季度腾讯游戏445亿元总收入的大盘相比,本季度国际市场游戏收入占比为28.5%,较上季度占比有所提升,巩固了游戏板块“第二增长曲线”的角色。

微信视频号单季广告收入破30亿元

第二季度,腾讯广告业务在平台底层能力提升和微信商业生态助力下,收入同比增长34%至250.03亿元。

作为微信生态的核心组件,视频号的提振作用正在逐步显现。财报显示,得益于视频号、小程序和朋友圈用户使用时长的增长,视频号总用户使用时长同比几乎翻倍,视频号广告收入超过30亿元。

财报显示,为长远提高股东价值,截至2023年6月30日止六个月内,腾讯已回购约169亿港元(未计开支)股份,合计共约4834.65万股股份,购回的股份已被注销。

第二季度,腾讯研发开支达160亿元,自2018年至今累计投入超过2300亿元。截至6月,腾讯在全球主要国家和地区专利申请公开总数超过6.6万件,专利授权数超过3.3万件,主要集中在人工智能、云技术、大出行、即时通讯等前沿领域。

第二季度,腾讯云推出模型即服务(MaaS)解决方案,基于腾讯云自研的高性能计算集群、AI原生向量数据库、高性能网络等,帮助企业以更高效率和更低成本开发定制大模型。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

这些AI制药公司,裁员一个比一个狠

无论是生物医药还是AI制药,都来到了另一个周期。
2020年,Schrodinger在美股上市并上涨,引爆了AI制药赛道,循着退出端的“指挥棒”,VC们开始搜寻合适的标的。
随着Relay、Recrusion、Exscientia的成功上市,公司股价都曾经走出不错的表现。

但从去年下半年至今,出现了多起AI制药公司裁员的事情,去年8月9日,敲钟仅仅一年的AbSci公司,宣布裁员40人。而后今年BenevolentAI、BioXcel相继裁员,均为行业蒙上了一层阴影。
这些脆弱的上市AI制药公司,裁员一个比一个狠。

接二连三地裁员
Absci:年收入不到500万美元,裁员40人
最开始大刀阔斧进行裁员的是上市公司Absci。

Absci成立于2011年,此前营业务是将基于大肠杆菌的合成生物学平台生成高多样性菌株文库和复杂生物治疗蛋白,为制药公司快速生产以往难以生产的生物药或制剂。
而后公司开始转型AI药物研发,利用合成生物学和深度学习AI技术来识别、筛选和扩大新型候选药物的生产,主要用于开发抗体药物。
就在2022年8月9日,Absci宣布裁员裁员40人、简化运营和研究业务,以应对不断变化的经济状况。
站在合成生物学风口的AbSci,7年内共完成10轮融资,总额高达2.3亿美元,然而根据财务报告,其年营收在500万美元左右,难以支撑起最高20多亿美元的市值。
更难堪的是,Absci自上市以来的股价如同坐上滑滑梯,从最高点32.9美元一路跌到了1.6美元。
BenevolentAI:唯一临床管线失利,裁员50%

今年5月,英国AI制药独角兽BenevolentAI由于管线失败也开启了大裁员降本增效的步伐。
公司宣布裁撤多达180名员工,人数接近50%。此次裁员同样距离BenevolentAI上市仅仅过去一年。
此次直接导火索源于公司的核心管线——其用于治疗特应性皮炎的局部泛Trk抑制剂BEN-2293的IIa期临床试验,没有达到次要疗效终点,无法减少患者的瘙痒和炎症。
BEN-2293是公司目前推进得最快的管线,也是唯一一条临床管线,此前BenevolentAI也凭借该药物上市。这次临床失利对于BenevolentAI而言是一个巨大的打击。
现在,BenevolentAI并不打算继续推进BEN-2293,而是准备节衣缩食押注其他新的管线,例如BEN-8744和BEN-28010。
BEN-8744是一种用于治疗溃疡性结肠炎的潜在同类最佳PDE10抑制剂,预计2023年Q3进入临床I期。BEN-28010 是一种用于治疗多形性胶质母细胞瘤的潜在同类最佳 CNS 渗透剂 CHK1 抑制剂,预计将于今年第四季度进入IND-ready 。
BioXcel:裁员60%,市值仅剩1亿美元
8月14日,AI药物研发公司BioXcel Therapeutics 公司宣布,作为战略调整的一部分,公司将把员工人数从190人减少到80人,比例高达60%。
主要原因还是其上市药物IGALMI (右美托咪定款舌下膜剂)不如人意,上市后半年仅为38万美元。
该药物由 BioXcel 的AI平台开发,从获批 IND 到药物上市仅用了4年,主要用于用于急性治疗与成人精神分裂症或双相I或II型障碍相关的激越。
为了这款药物的销售,公司组建了超过70人的营销团队,但一个季度的销售额不超过50万美元,与公司宣称的 2.75 亿美元市场规模相去甚远。
智药局曾经就分析过,尽管精神类药物的销售额不如肿瘤药物销售快,但IGALMI 却面临着商业化的困境。该市场药物已经处于饱和,但IGALMI却不提供与现有激越药物相比的独特益处或差异化,还伴随着副作用和使用条件,难以用于急诊或者门诊情况。
除此之外,今年6月还陷入了临床信息造假的风波,此前BioXcel宣布其在研右美托咪定口服溶解膜制剂BXCL501治疗阿尔茨海默症相关激越的III期TRANQUILITY II研究达到了主要终点。但该该研究中的一名研究者正在接受调查,原因是他没有及时报告一例严重不良事件。
公司未来重点转向开发 BXCL501(右美托咪定) 以用于在家中治疗精神分裂症、双相情感障碍以及可能由阿尔茨海默病引起的轻度至中度痴呆症患者的躁动。
直指盈利困境
毫无疑问,造成三家上市公司裁员的本质都是现金流的支撑力不足。营收太低、临床管线失利、上市后销售困难,把biotech几乎主要的坑都踩中了。
自2021年下半年以来,一众AI制药知名公司市值呈自由落体之势,截至8月18日,最新市值较最高点平均跌幅普遍达到80%。
目前几乎所有的上市AI药物研发公司仍然处于亏损之中,绝大多数公司都定位于生物技术公司,仅合作能贡献少数营收外,临床阶段管线的投入却像个无底洞。

根据上图所示,大多数公司现金流也开始吃紧,仅够他们支撑到2025年左右。这也意味着公司的“抗风险能力”非常脆弱,一旦核心管线失利,或商业化药物不成功,断臂求生几乎是板上钉钉。

一家AI制药创始人此前也感叹融资环境,上市生物科技公司的市值下降了80%,走到后期轮次的公司估值较2021 年的辉煌时期下降了 30%-70%。
上市公司通过IPO或者定向增发手里还有不少余粮,是对于一级市场的初创而言,寒风吹打得更加明显。

2020年—2021年,AI药物研发公司开始集体上市,一时间点燃了资本的热情,资本找到了退出渠道。热钱涌入后,整个医药行业持续看涨,也引发人们的热捧。
根据智药局统计,2021年,全球AI制药总额约为266亿元(超42亿美元),这一数据在2022年增长到了62.02亿美元。
然而今年上半年,无论是融资数量还是融资金额,都呈现量价齐跌的态势,据智药局监测,2023年H1全球AI+药物研发融资总事件42起,其中一季度26起,二季度仅16起,二季度融资数量创下2020年以来的新低。

同时,融资金额也呈现不断下滑的态势,季度融资从最高的24亿美元,到如今的3.23亿美元。对于这些急需资金开展研发活动,或者培养新资产的AI药企而言,缺乏资金支持无疑是致命的。
生物医药市场的残酷性,并没有因为AI的加入而减少。无论是近期的大跌,还是近期传得人心惶惶的科创版第五套上市标准收紧,都指向了行业难解的问题——盈利困境。
行业的高门槛、高风险一直都存在,现金流如同紧绷的一根弦被创始人攥在手里,但曾经被降本增效的厚望的AI发挥的效用却有限。
开源很难,最终只能节流了。如果仍然缺乏资金支持,还会有更多的AI制药公司陷入生存危机。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

又有AI产品被质疑侵权,AI绘画与隐私保护如何平衡?

AI行业再起波澜。

近期,AI绘画产品TriK AI被绘画创作者质疑侵权。有插画师在社交平台发文表示,未经其本人允许,原创作品被拿来“喂”AI产品。

社交平台上再次引发有关AI侵权的讨论,并延伸到形成新一轮的“AI抵制”行动。

这不是行业第一款AI产品引发质疑。AI行业发展迅猛,相关争议也接连不断。争议的背后,反映的是行业新生事物面临的不确定性。

新技术的浪潮奔涌向前。而随着AI类产品应用逐渐融入大众生活,如何平衡好安全与创新的问题,将无法回避,这仍需要进一步的探索和实践。

AI产品再掀波澜

继妙鸭AI相机之后,国内又有AI产品站上风口浪尖。
8月1日,插画师“是雪鱼啊”在微博发文质疑小红书旗下AI绘画产品TriK 未经允许,利用其本人绘画作品做AI训练。用户用 Trik AI得出的图片,与其原作品非常相似。几天后,陆续有多位插画师在微博发文质疑。
今年,大模型成为各家互联网大厂不可错过的风口,作为内容社区的小红书也加入这场竞赛。
今年5月,据36氪报道,小红书从3月起筹备了独立的大模型团队,核心员工来自广告业务的NLP技术团队,内部还有多个独立部门同时推进AIGC(AI生产内容)方向的落地探索。在今年4月,小红书上线专注中国风方向的AI绘画应用“Trik”。
TrikAI官方账号在小红书上有超万粉丝。官方会在平台上发布用户通过Trik AI得出的作品。而眼下,账号底下更多是用户的质疑评论。
随着事件发酵,在社交平台上开始有插画师以及用户为绘画创作者发声。在小红书上,有用户将头像更换成统一“抵制AI”图案,以表达不满。
截至发稿,小红书暂未就以上争议发布官方回应。而有小红书上的创作者向Tech星球透露,小红书运营曾经在和创作者的沟通中表示,小红书从未将用户发在小红书上的作品交给任何团队训练AI。

“AI侵权”行业争议不断

这并非AI产品第一次因为侵权而引发讨论。有关AI侵权实际上已经是一个行业性话题。

数据、算法、算力是AI发展的驱动力,其中数据是AI发展的基石,包括图片、文字、视频等。数据是否足够庞大,影响着模型是否智能。各家大模型产品也是围绕数据、算法、算力进行较量,但如何获取广泛的数据是个挑战。

在小红书之前,网易旗下LOFTER的AI绘画功能“老福鸽画画机”也因版权问题惹创作者质疑。LOFTER官方解释称该功能实际是头像生成器,初衷是为方便没有绘画能力的用户制作喜欢的头像。但平台部分创作者认为该功能可能用到创作者的原创作品,有侵权之嫌。随后,LOFTER下架相关产品,并发布官方致歉信。

2022年11月,插画师洛柒也在微博质疑AI绘画应用Nijijourney涉嫌抄袭。她指出,Nijijourney生成的许多图片与部分画师的原创作品高度相似。而在此次“小红书AI产品事件”中,洛柒也积极为绘画创作者发声。

不止是绘画领域。在国外,2022年11月,OpenAI和GitHub一起推出的代码助手Copilot就曾被程序员们告上法庭。原告们认为,Copilot在未获得GitHub用户授权的情况下,使用了公共存储库进行训练。

在今年6月,OpenAI同样因为未经允许使用个人隐私数据收到了一份长达157页的诉讼书。

有关AI创作的侵权的讨论,从行业诞生之初就已经存在,并从未停止。

而有关未经允许,用受版权保护的原创内容训练AI是否违法的问题,浙江大学光华法学院教授张伟君告诉Tech星球,著作权人是否能够对人工智能学习和训练行为主张权利,在各个国家依然是有争议的问题,这个问题有待法律明确,目前不宜轻易得出该行为是否构成侵权应立即予以禁止的结论。“虽然目前我国强调加强著作权的保护,但不能因此排除对出于人工智能学习、训练目的的数据挖掘行为适用合理使用条款的可能性。”

法学博士、中国社科院法学所博士后、华东政法大学教授陈绍玲也表示,人工智能技术的发展依赖于机器学习,即利用大量数据对人工智能进行训练,利用作品训练人工智能时,会不可避免地产生未经许可利用他人作品是否侵权的问题。

“人工智能技术的发展有益于全人类的福祉,为了推动人工智能技术的发展,人工智能训练过程中对他人作品的利用不可避免”,陈绍玲告诉Tech星球,“为此,很多国家和地区在著作权法当中规定了一条例外制度,那就是为了训练人工智能的目的而利用他人作品的行为可以不认定为侵权,这在日本欧美的著作权法当中被称作文本和数据挖掘的限制例外制度。”

AI时代已来,监管提速

在微博发布质疑文章后,插画师“是雪鱼啊”在小红书发布停更声明,并已经联系律师处理相关事宜。但目前,对AI作品所涉的侵权证明和维权仍然是复杂且棘手的问题。
四川恒和信律师事务所律师、四川省版权协会版权维权中心专家王生忠去年曾接受《封面新闻》采访时表示,若要证明AI绘画构成实质性相似比较困难。“虽然不少画师也公开表示禁止AI学习自己的作品,但作为作品在公开后就有可能被计算机程序抓取,我国司法实务中判断作品是否侵权采取‘接触+实质性相似’原则,但由算法深度学习生成的作品是随机不确定的,证明构成实质性相似比较困难。”
也正是存在着未知和不确定性,让大众对AI时代的到来产生疑虑。除AI侵权之外,AI换脸、版权归属等显性争议同样引发大众的焦虑。


事实上,今年以来,各国对于人工智能的监管步伐也在不断加速。而就在8月15日,备受行业关注的《生成式人工智能服务管理暂行办法》正式施行,这是我国首个针对生成式人工智能产业的规范性政策。


生成式AI已经在市场掀起前所未有的狂欢。目前,国内各大企业纷纷入局AI大模型,百度、阿里、字节、商汤、360、云知声、科大讯飞等都已经在不同行业落地AI应用。根据IDC数据预测,2021年中国人工智能软件及应用市场规模为51亿美元,预计2026年将会达到211亿美元。行业发展速度超乎想象。


而这一次对于人工智能的监管节奏之快,也超出此前市场预期。从今年4月公开向公众征求意见、到正式发布,再到落地施行,整个周期不超过半年。


对外经贸大学副教授、数字经济与法律创新研究中心主任许可近期在接受《经济观察报》采访时便表示,从4月的征求意见稿到最终发布稿,能够看出监管的思路正在从开始的风险预防为主,到更多地谋求发展与安全的平衡。“形象一些说,监管机构希望先装好刹车再上路,使技术和产业的奔跑更稳健,避免技术失控。”


每一次技术变革,总会伴随着对新时代的期待和对未知不确定性的恐慌。技术浪潮不会停止,而在不断发展过程中,如何平衡安全与发展将是永远无法回避的命题。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

GPT or Llama2 ?这是近期大模型应用层开发者们开始考虑的问题

就在7月19日,开源社区的大明星——Llama,跃升为Llama2!这款升级版的大模型是在2万亿的token上进行训练,训练数据增加了40%,可以说规模惊人!而且,Llama2在推理、编码、精通性和知识测试等许多外部基准测试中,都表现得比其他开源语言模型更加优秀!

“以前的开源大模型都没有形成像 Llama 这样的社区,而 Llama 系列模型正是在这种非常活跃的社区文化下发展起来了,这也直接造成 Llama 系列模型在很多任务上都取得了快速进展,甚至达到了商用标准。”东北大学教授肖桐这样说。

GPT-3.5 水平通常被认为是大模型商用的标准线,在 Llama2 模型 70 亿、130 亿和 700 亿三种参数变体中,700 亿的版本在 MMLU 和 GSM8K 上接近了 GPT-3.5 的水平。这意味着,作为开源大模型的代表,Llama2 第一次进入了大范围的商业考量决策之中,开发者们拥有了一个免费、开源且足够商用的大模型底座。谷歌的一位工程师在今年5月份曾在内部撰文中直言:当免费的、不受限制的替代品与闭源模型质量相当时,人们不会为受限制的模型付费。

很快,免费的开源模型走进现实。根据Meta披露的信息,Llama2 在发布的一周内就接收到了超过 15 万次的下载请求,并且仍在持续增加,Meta 对此表示“难以置信”。

开源模型与闭源模型的大战就此正式打响。面对开源大模型更低的成本、更快的迭代速度、更高的定制化上限,闭源大模型的应对策略,成为一个问题。

Llama2 还是 GPT-4——成本

选择Llama2的原因有很多,其中最直接的原因就是成本。现在,GPT-4接口的调用费用相当高昂,每1000个提示请求token就要花费0.03美元,完成响应token还要再花费0.06美元。据斯坦福大学的研究员在一份论文中估算,如果中小企业利用GPT-4来协助市场工作,每个月的成本可能会超过2.1万美元!而一家利用GPT-4辅助广告文案生成的公司也表示,它们每个月为GPT-4接口支付的成本平均超过25万美元。这样一来,选择Llama2这种成本更低、性能又不错的开源大模型,显然是个明智的选择。

一家国内AIGC应用商表示,Llama2虽然技术水平上暂时不如GPT-4,但考虑到GPT-4的高昂成本,团队还是选择了使用Llama2作为底层模型。他们通过在产业中积累的行业数据以及专注于垂直场景的输出,能够弥补一部分技术代差。

Llama2出现后,更多的公司开始转向基于Llama2进行商业化开发,而不再购买OpenAI的API。因此,在免费的冲击下,原先使用OpenAI接口的应用层公司会重新思考应该选择哪个路线,有一部分的市场或许将会被Llama2重新洗牌。

然而,这个决策并不完全是成本之上的较量。对于“较好的数据和优化是否能够弥补如今Llama2与GPT-4差距”这个问题,消极的声音占据较多数。

Llama2 还是 GPT-4——性能

东北大学教授肖桐以机器翻译场景为例指出,虽然我们可以用类似于Llama2的开源模型进行指令微调,达到不错的翻译性能,但最终会发现性能仍然受限。因为开源大模型的某些能力是在预训练阶段获得的,所以即使指令和任务明确,并且有了很多数据,也仍然难以达到GPT-4的效果。


此外,与往常的披露不同,此次Llama2开源并没有对外披露数据层的具体信息,因此复现Llama2成为一件受限制的事情,企业没有训练Llama2底层模型的权限和能力,所以它的性能很难突破,逼近GPT-4这个目标不太可能的。
一些应用开发者认为,按照此时Llama2与GPT-4的水平差距,如果全力押注Llama2,付出的代价可能同样很大。他们可能要花费大量时间在优化Prompt上,而不是专注于产品创新。


因此,在技术的绝对领先下,GPT-4仍然会持续吸引那些对效果有较高要求、在成本方面有较大空间的客户。
当然,Llama2的更大贡献不仅仅是存量市场的转移,更重要的是对整个AIGC行业增量市场的拉动。一位AIGC业内人士向机器之心表示,Llama2的开源点燃了很多应用开发者的热情,在开源后的几周时间内,许多开发者对它寄予了厚望,将它比作移动互联网黄金时期的阶段,希望能找到应用的新切入点。


正如肖桐所言,Llama2能够支持企业和团队在大模型应用层面低成本、快速地启动,打造出产品和商业模式的原型。随着围绕Llama的应用尝试越来越多,未来可能会迎来一个模型平民化的阶段,使用大模型做应用的门槛将不断降低。


在过去的几周时间内,Llama2已被接入各种平台,包括Amazon Sagemaker、Databricks、Watsonx.ai、Microsoft Azure、阿里云和百度千帆等,围绕Llama2的生态已经在慢慢形成。

Llama2 对国内大模型创业公司的碾压

在Llama2推出之前,开源社区最强的大模型Llama在商用许可上有限制,而OpenAI的接口在国内面临着不确定的监管风险。因此,相比于两者,国产大模型在市场竞争中的优势通常是“可商用”、“数据安全”以及“更好的服务支持”。
Llama2的发布削弱了国产大模型创业公司在市场上的竞争力,对那些自研大模型积累不够的公司来说,Llama2产生的冲击更大。
然而,那些认为自己短期内凭借自研能力无法超过Llama2的公司,仍有机会成为端到端的应用公司。他们可以利用自己的既有模型结合开源模型,直接向市场提供应用,并实现数据上的闭环,以不断迭代。这样,他们便可以在大模型开源生态系统中找到自己的立足之地。
Llama2的发布不仅展现了开源社区的强大技术能力,更进一步推动了开源社区的发展。随着Llama2的释出,大模型开源社区的力量已经引起了市场的广泛关注,成为了不可忽视的力量。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

字节跳动AI产品Grace新版本更名为“豆包”并启动测试

 节跳动首个大模型独立App近日上线,是一个AI对话产品,叫“豆包”。并启动测试,网页版、移动端均已上线,支持手机号、抖音账号、Apple ID 登录。目前拥有文生文的功能。     豆包的官网为www.doubao.com,由北京春田知韵科技有限公司开发并运营,后者由字节旗下的北京抖音信息有限公司100%控股。
     目前可在其官网直接注册使用,或通过官网提供的二维码下载App,不需要邀请码。该产品前身正是字节内部代号为“Grace”的AI项目。提供“豆包”、“英语学习助手”、“全能写作助手”、“超爱聊天的小宁”等四个虚拟角色,为用户提供多语种、多功能的AIGC服务,包括但不限于问答、智能创作、聊天等。“豆包”项目组人士回应称,“豆包”是一款聊天机器人产品,还处于早期开发验证阶段,这次上架仍是小范围的邀请制测试。

 早在今年2月份,就有消息称字节跳动加入国内“AI大模型”逐鹿战中,应用场景包括抖音与TikTok的搜索功能、AI生成图片视频等。AI大模型是时下最为热门的AI细分领域,近日国内外大模型密集发布,国内厂商如商汤、阿里、知乎陆续发布其大模型产品,飞书发布AI助手“MyAI”;海外亚马逊推出AI平台Bedrock,InnovativeEyewear推出支持ChatGPT的智能眼镜。     

从大模型产业链来看,上游为芯片、数据库软硬件,中游为算法研发(训练框架、模型测评等)和模型管理维护(数据处理等),下游产业的重点领域为社交、媒体、营销、教育、娱乐,重点场景包括内容生产、创意设计、对话引擎和辅助开发。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

麦肯锡自家AI引发行业地震:Lilli将让上万咨询师失业…

8月16日,沉寂已久的咨询巨头麦肯锡

官宣了一条令人兴奋的消息

所有的麦府员工都将能用上

自家专属的AI工具—Lilli啦

Lilli横空出世

这无疑让不少咨询师失业

快跟Uni酱一起来看看

Lilli:我的到来足以让行业一震

8月16日,麦肯锡官网发布消息,郑重的向大家介绍了一下Lilli。

这是一款由麦肯锡首席技术官Jacky Wright领导的“ClienTech”团队为麦肯锡员工设计的新型聊天应用程序。

这里提到的ClienTech,其实是麦肯锡内部的一个神秘技术团队,由大约200名技术专家组成,是麦肯锡科技生态系统的三大支柱之一!

为什么叫Lilli?

Lilli取自Lillian Dombrowski,她是麦肯锡1945年聘用的第一位职业女性,后来成为该公司的财务总监和公司秘书。
认识Lillian的人都说她愿意做任何事,是当之无愧的“能力者”。她的研究促成了麦肯锡的运输和保险部门的创建;她帮助制定了利润分享和养老金计划,甚至还建立了麦肯锡的档案。

而Lilli和Lillian Dombrowski最像的地方就在于,TA们都有着超强的能力并且能够执行到位~

Lilli可以做什么

不过,QuantumBlack(量子黑)不是一个推翻重来的名字,它原先是麦肯锡2015年收购的数据分析公司,并在去年成为了麦肯锡官方的、统一的人工智能(AI)部门。

与Cohere合作,为客户提供人工智能解决方案
此外,一个月前,麦肯锡还官宣与人工智能初创公司Cohere达成合作伙伴关系,为其企业客户提供人工智能解决方案。据了解,它们已经共同为从金融服务到零售各个行业的公司提供服务,但没有透露这些公司名称。
对于Cohere,同学们可能比较陌生,它其实是一家正在快速崛起中的AI初创公司,由谷歌前顶级人工智能研究人员创立,有着非常深厚的学术气质~

据了解,Lilli可以提供信息、洞察、数据、计划,甚至可以根据咨询项目需求推荐最适合参与其中的内部专家,而所有这些操作的实现都基于超过10万份的文档和访谈记录!


自2023年6月以来,Lilli一直处于测试阶段,并将在今年秋季在麦肯锡全面推出。到时候所有麦府员工都能自如使用自家专属AI工具来工作啦~
关于Lilli具体是如何工作的,我们暂时还看不到太多信息。不过麦肯锡举了一个例子来帮大家理解~
比如,用户可以输入一个问题,Lilli可以在整个知识库里进行检索,确定5到7个最相关的内容,总结关键点,包括链接,甚至确定适当领域的专家。

收购数字化转型公司
其实,早在几年前,麦肯锡就已经开始布局数字化转型之路,先后收购了多家服务于数字化转型的公司,并成立了新部门QuantumBlack。
作为麦肯锡数据和高级分析的核心,QuantumBlack致力于为麦肯锡咨询团队赋予最前沿的数据分析能力,使之能够在极具挑战性的咨询项目中为客户释放出巨大增长潜力。

而且,Cohere目前已经完成了2.7亿美元的C轮融资,估值超过21亿美元,已经成为一家实力不可小觑的AI超级独角兽!
这么一看,麦肯锡与Cohere合作也可以算是强强联合。相信有了Cohere的技术支持,Lilli也会被开发得更加强大~
麦肯锡一系列的举措都在向我们证明:AI浪潮已经势不可挡。同时,随着麦肯锡正式入局,咨询公司的AI竞赛也变得更加精彩~

I时代已经到来, 咨询行业如何表态
论与时俱进,咨询公司一向走在前列!
自ChatGPT横空出世至今,生成式AI赛道爆火,越来越多咨询公司加入了拥抱AI的队列之中——

Bain 官宣与OpenAI合作Bain是咨询公司中最早拥抱OpenAI的那一批。抱着“打不过就加入”的心态,2月21日,贝恩宣布与OpenAI(开发ChatGPT的公司)正式展开合作,成立全球服务联盟。希望可以最大化AI价值,并为客户提供更具潜力的解决方案。

过去一年,贝恩全球1.8万余名专业人士已经开始在工作中运用到OpenAI技术,包括将OpenAI技术植入内部知识体系、研究和流程中,从而进一步提高效率。

BCG X官宣与Open AI进行合作MBB中目前走得最远的当属BCG!BCG不仅早早成了新部门BCG X与McKinsey QuantumBlack分庭抗礼,还于近日马不停蹄地官宣加入与OpenAI进行合作的队列,可谓是项目落地和战略规划双赢!
先说BCG X,早在半年前,BCG在刚官宣成立新部门BCG X的时候就计划要用2500人扩充新部门。但形势的发展远超预期,随着数字化浪潮的深入,相关业务量激增!

PwC 豪掷10亿美金开发AI就在前不久,普华永道美国发布声明称,该公司计划在未来三年投资10亿美元,用于发展生成式AI技术,并将与微软和OpenAI合作,使其在税收、审计和咨询服务的各个方面实现自动化。
据悉,普华永道已经开始在为保险、航空、医疗等行业的客户提供服务的过程中引入了Azure OpenAI。这些解决方案已成功地使客户节省时间和成本,同时帮助增加收入。


与此同时,普华永道将对其内部平台进行现代化改造,以嵌入这种新的、安全的生成性人工智能环境,在其利用人工智能为客户提供税收、审计和咨询服务的现有基础上再接再厉。

Accenture 狂砸30亿美金大扩招6月13日,埃森哲在官网发布消息称,将在未来三年内,针对数据和AI业务投资30亿美元,以帮助各行各业的客户快速、负责任地推进和使用人工智能。
据了解,这笔30亿美元的巨额投资将在三年内使用,涵盖资产部署、工具开发、收购与人才研究。埃森哲表示,这笔投资建立在其十多年来在AI领域的领先地位之上,公司的AI专业知识涵盖全球1450多项专利和正在申请的专利,以及数百个大规模客户解决方案。

KPMG 狂砸20亿美金进军AI和埃森哲相似,发布裁员消息后不久毕马威也马不停蹄在7月11日官宣了自己的另一个大计划——狂砸20亿美金进军AI!
据报道,毕马威与微软达成了里程碑式的协议。毕马威计划在未来五年内,通过与微软扩大合作关系,在全球各业务领域投资20亿美元,用于人工智能和云服务。而这也是“四大”在这些技术上加倍投资的最新举措!
此外,就在前不久,毕马威澳大利亚公司还推出了独家定制的ChatGPT——KymChat。这本质上也得益于毕马威与微软的合作,据悉,毕马威是全球少数几家获准开发该工具私有版本的公司之一。


事实证明,AI颠覆金融、咨询行业的速度比我们想象的快得多,想要先人一步体验最新AI科技的同学可以多多考虑上述这些咨询公司。
当然啦,目前来说AI还不至于取代人类,但它确实已经对工作和求职产生了很大的影响。

根据Challenger, Gray & Christmas发布的报告,科技行业迎来了自2001年以来该行业裁员最多的一次,这也是美国就业报告首次把AI加入裁员理由中。数据显示,5月份美国有近4000人因为AI失业

与此同时,随着人们对不断发展的技术及其对商业可能产生的影响越来越感兴趣,华尔街投行们正在利用AI展开一场”金融革命”

根据咨询公司Evident的最新数据,在最热门的几大银行中,大约40%的空缺职位与人工智能相关,例如数据工程师、分析师🧐

如今金融圈、咨询圈什么最火?AI当仁不让。咨询公司们都明白一个道理:AI或许无法取代咨询顾问,但不善于用AI的咨询顾问可能会被老板淘汰,不善于利用AI的咨询公司可能会被市场淘汰。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI巨头下场!低算力跑通高阶智驾,背后技术揭秘

2023年虽说还有5个月,但可以预料到的是“降价”、“洗牌”两个词将贯穿车市全年。今年可谓极为特殊,国内车市“卷声”不断,多位行业高管声称今年是汽车市场最卷的年份,没有之一。余承东更是放话,车市内卷其实刚开始,未来还会更卷。随着第三季度价格战打响,特斯拉再次掀桌子式降价进一步挤压了供应链成本,降本增效将被提升至新高度。

在降本增效的趋势下,智能驾驶解决方案的上车速度和应用水平成为众多车企竞争的关键。目前,量产自动驾驶赛道有多名玩家正在布局,像蔚小理这样的新造车企业和华为这样的Tier1已经凭借落地高速NOA和城市NOA进入了第一梯队。此外一些新进入的智驾“新势力”凭借先前的积累凭借原创算法能力、大模型能力、数据闭环工具链、算力基础设施已经具备了第一梯队的实力。已经深耕人工智能物联网行业十二年的旷视科技就是这批智驾新势力的代表之一。

这位AI视觉领域的超级明星,其实从2021年起就正式布局智驾领域,但基本上没有官宣任何关于智能汽车的讯息。直到今年6月份,旷视科技在全球最前沿智驾挑战赛的感知赛道,展示了冠军的统治力。旷视“神秘”的智能驾驶业务,才真正浮出水面。现阶段智驾方案领域已进入混战,旷视科技憋大招憋了两年之久,终于彰显了智驾业务潜力。那么旷视的竞争优势体现在哪里?车东西通过与旷视科技智驾业务总裁刘伟的交流中捋清了旷视自动驾驶业务的业务策略、关键进展和未来发展方向。


01.性价比难题下
视觉为主智驾方案曙光已现
根据高工智能汽车数据,2023年前五个月标配L2(含L2+)级别ADAS(高级驾驶辅助系统)的乘用车累计渗透率突破50%,量产自动驾驶方案占据市场主流。但目前的行业共识是,阻碍智能驾驶解决方案,特别是以L2、L2+为代表的量产智能驾驶解决方案的落地,关键原因就在于性能和成本难以统一

追求高性能意味着要搭载多个激光雷达、大算力芯片,而这样的方案却只有高端车型才能负担。根据Yole Intelligence发布的《2023年全球车载激光雷达市场与技术报告》,全球乘用车激光雷达市场(包括L2+和L3级别的ADAS应用),正在以285%的增长率快速起量,禾赛凭借23%的市场份额以及31%的前装定点数量强势领先。

而根据禾赛科技一季度财报,禾赛经营收入达到4.3亿元,共交付了3.48万台激光雷达产品,同比增长402.9%。而ADAS激光雷达占全部交付量81%,共交付2.82万台。由此可推算,单颗激光雷达均价在12344元。此外,禾赛科技CFO谢东萤也透露ADAS激光雷达的均价约为500美元(约合人民币3618元)。

禾赛科技售价接近4千元起/颗的激光雷达,目前已被超过11家一线车企采用,包括理想汽车纯电平台、集度新车型、赛力斯新车型等。很明显,搭载激光雷达的车型基本上都是高端定位。但目前国内市场大都是10~30万元车型,在价格战一波未平、一波又起的情况下,千元量产辅助驾驶方案已经成为大部分主机厂的成本红线,供应链方面的成本压力更大。

中国主流市场对以视觉为主的成本低且体验好智驾方案存在庞大需求。而这种视觉为主的辅助驾驶方案通过摄像头来实现,且根据半导体公司安森美的数据,L2级辅助驾驶每辆车摄像头总成本大约才40美元(约合人民币289元),而L3摄像头总成本则为185美元(约合人民币1338元)。相较搭载一颗激光雷达,整套摄像头可以极大拉低成本,至少在成本上削减近4000元/颗,相对低廉的成本适配国内大部分10~30万元车型。国内主流市场对视觉为主的自动驾驶方案存在庞大需求,新契机出现的同时,市场也对此方案的性能也提出了更高的要求。目前特斯拉、大疆车载等企业已经布局,但整个市场还有空白空间,视觉为主的自动驾驶解决方案的产业格局尚未定型,市场对于优秀的技术供应商的需求依然很大。

02.3套智驾方案准量产 成本降低超20%

从技术实现度划分,量产自动驾驶赛道分为三个梯队。

第一梯队指的是以华为、小鹏、理想、蔚来这种高速NOA和城市NOA已经落地的玩家,可以实现城市开放道路下的自动驾驶。

第二梯队指的是高速NOA量产上车,但城区NOA并未落地的玩家。

第三梯队则是只能实现L2,仅支持ACC、LKA等有限辅助驾驶功能,但高速NOA还在研发过程中,完全没有城区NOA的玩家。看起来,智能车行业已经形成了三大梯队的层次格局,但这一格局仍处于动态变化中。

比如第一梯队玩家最大特点就是可以实现端到端、软硬件一体打造,但也有一些新加入的玩家已经通过技术跃迁实现了这些能力,有望跻身第一梯队。例如,由3个清华姚班高材生——印奇、唐文斌、杨沐于2011年创立的旷视科技,深耕AIoT软硬一体化产品体系长达12年,无论是延伸布局二级市场还是研发大模型,旷视科技都不甘落于人后,不过在智能驾驶赛道保持着较为“低调”态度,很少官宣布局信息。

但近日,旷视透露入局自动驾驶已有两年之久,并且一出手就拿下了全球智能驾驶感知赛道的冠军,还亮出了全身的“腱子肉”。在端到端方面,据旷视科技智驾业务总裁刘伟透露,旷视现在已经实现了“感知、建图、跟踪、预测”四合一的模型,为端到端的自动驾驶模型上打下了基础。旷视的独特竞争力还体现在软硬一体能力上,在硬件方面,旷视过去在AI、视觉算法等领域落地了芯片、传感器、摄像头、面板机等多款产品,建立一套比较完整的产品体系。将先前打造硬件的能力迁移至自动驾驶硬件产品中,旷视目前也在加快布局智能驾驶芯片和传感器等硬件。

在算法方面,旷视科技自研了新一代AI生产力平台Brain++以及自研深度学习框架MegEngine(旷视天元),基于Brain++,旷视还打造了AIS算法生产平台。该平台是一站式MLOps算法生产平台,能提供从数据清洗、智能标注、数据管理、数据质检、算法自动生产、模型多维能力评测、pipeline 部署等全流程能力。基于以上能力,旷视为行业内输送了三种L2+解决方案,分别是标准版、专业版和旗舰版。

最基础的标准版就已经带高速NOP功能,可以覆盖高频智驾场景,主打性价比。专业版可进阶实现城市NOP和跨车道安全停车,据悉目前该方案正在量产交付。而最高配置的旗舰版具备增强的城市NOP功能,具备更强的安全冗余。而旷视主要集中于标准版和专业版方案发力,这两套方案都没有使用激光雷达,大大降低了方案成本,可以更好服务于10~30万元的量产市场。

刘伟十分坚定的表示,“我们期望并不是某款旗舰车型一年几千台的销量,而更希望中低价位车型一年几百万的销量,这才是我们的诉求。”旷视将全力助力方案降本,希望将这两套方案的价格大幅降低。

03.那么随着“价格战”竞争越发猛烈,旷视是如何降本增效的?

首先,旷视是一名坚定以视觉为主,“BEV+前融合”的方案的玩家。刘伟介绍了相关技术进展,“在3D实时建图上,我们不依赖于高精地图便可实现高速和城区NOP”,“首创鱼眼BEV模型,使得感知范围扩大了三倍”、“在3D实时建图上,不依赖于高精地图便可实现高速和城区NOP”“我们的去RTK定位算法,定位能力达到了RTK方案的水平”。“去激光雷达”、“去高精地图”、“去RTK”,整套方案的成本就保持在大部分主机厂的可控范围内。不过价格只是一方面,为了让方案有更好的体验,旷视科技通过优化算力,将“BEV+Transformer”成功运行在低算力芯片上,同时让该方案具有良好的性能表现。

举个例子,蔚来ET7、小鹏G9、理想L9、智己LS7等车型都采用英伟达自动驾驶芯片OrinX来跑高阶辅助驾驶,单颗Orin-X的算力可达到254TOPS,而这样一颗芯片价格高达400美金(约2700元),中低端车型难以负担。

而旷视科技看到了这一特点,在Orin芯片算力的1/5左右(大约50TOPS)的芯片上实现同样的高阶智驾功能,随着算力需求的降低,芯片的成本甚至是整套方案的成本就可以大大削减。

为了进一步降本,旷视正在朝着“统一算法框架”持续发力,通过统一的BEV算法框架,实现算法真正平台化,同时采用了配合高中低不同算力的“Pin-to-Pin”系列芯片,实现芯片硬件的平台化,帮助主机厂控制车型量产的质量、成本,加快量产速度。

目前,旷视的统一算法框架已经具备基础的模型能力,原生支持5V或11V等不同的方案。基于以上布局,刘伟表示,旷视科技的智驾方案在行业中至少降本20%

大模型趋势下
智驾新手AI厂商有望抢跑
先前自动驾驶行业卷向瓶颈,大模型出现后的狂飙让整个行业有了新方向。虽然很多自动驾驶企业抢先喊出了自动驾驶大模型的口号,但打造出与Chatgpt同等水平的自动驾驶大模型还有很远的距离,商业化还有很长的路要走。而旷视科技是国内最早一批探索大模型商业化落地的企业之一。

聚焦于通用多模态大模型、AI内容生成大模型、计算摄影大模型和自动驾驶大模型四个方向,旷视科技取得了多项突出的科研成果。今年7月,旷视的大模型实力更是得到了官方“盖章”,以“模型伙伴”身份入选北京市通用人工智能创新伙伴计划,为与Chatgpt同等水平的自动驾驶大模型的打造积蓄了深厚的力量。刘伟表示,大模型未来在车上的落地,座舱有可能成为一个非常大的落地场景

就目前而言,大模型最直接的价值是体现在研发工具上。“我们基于在大模型上的能力积累,做自动化的标注,从而节省大量成本。然后,还可以利用大模型去做场景的挖掘,尤其是一些长尾场景。大模型在提升效率方面的价值,目前看是非常显著的。”在刘伟看来,更重要的是,大模型将有助于提升感知能力的上限。

未来的大模型会是多模态的,能将感知能力提升到更高水平。目前,旷视已经实现了“感知、建图、跟踪、预测”四合一的模型。随着大模型的继续演进,未来有可能将“规控”也加入进来,最终形成一个“大一统”的大模型。这样的话,环环之间信息传递的衰减就会大幅度的减少,从而提升整个感知能力。

此外,大模型还有助于提升决策能力,使车能够真正去作一些决策。未来的智能汽车,会变得超级智能。从底盘、空气悬挂、刹车系统、车窗、灯光氛围,都会被数字化,几乎所有东西都会被控制。未来的智能座舱,会是一个涵盖感知传感器、软件SDK和智能决策引擎的“感-知-决”的产品体系。其中,决策能力会是核心。基于AI生产力平台Brain++的能力,旷视未来也会聚焦在打造智能座舱的决策引擎上。

同时,结合在芯片、软件算法方面的能力,形成覆盖“感-知-决”的智能座舱产品体系。除了大模型外,算法、算力等基础能力也决定了一个智驾团队最终能够走的多远。旷视集结了中国顶尖的AI科研团队,打造了原创算法这一技术底座。据刘伟讲述,旷视是行业内第一个将“BEV+Transformer”运行在一个低算力芯片平台上的厂商

且旷视在低算力的嵌入式芯片上跑通的2个BEV感知算法,帮助旷视在OpenLane拓扑关系赛道,在线高精地图构建赛道获得了冠军。同时,旷视也打造了一万多张卡的算力基础设施,实现算法的快速迭代。一系列布局证明,在“百模大战”的当下,即使是后发入局的智驾“新势力”选手,凭借先前在AI行业12年里积累的经验,抢跑自动驾驶十分有底气。随着技术积累能力和业务增长潜力持续提升,旷视有望在智能车行业抢占先机。


04.结语:AI+自动驾驶前路可期

AI正席卷汽车行业,“智能升级”的大幕徐徐拉开。

如今,全球的智驾解决方案玩家都在奋力狂奔。在这种条件下,谁能够把AI能力更加充分的发挥于降本增效,谁就能抢得智能汽车下半场的发展先机。

这两年以来,新一轮的电动化、智能化浪潮,叠加中国车企的崛起,中国厂商迎来了快速发展的机遇,部分AI企业已崭露头角,有望快速加入全球智驾方案的角逐中。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

Meta的新LLaMa AI模型是给世界的礼物!

近几个月最大的新闻是,Meta推出了其世界著名的LLM的第二个版本LLaMa,并在此过程中发布了其第一个聊天机器人LLaMa-2 – chat,这是Meta对ChatGPT发起的第一个真正的威胁。

但这并不是普通的“看看我们的新LLM有多酷”类型的发布,实际上Meta试图永久改变AI的叙事方式。

事实上,我想说这次发布确实可以永久地改变AI,并开启一个AI访问和知识最终实现民主化的时代。

LLaMa的胜利也是你的胜利,你将会明白为什么。

最新的开源技术

首先,在阅读了70多页的论文后,LLaMa 2的出色之处显而易见。

优化以实现卓越

Meta创建了四个模型,分别是7,13,34和700亿参数模型。

尽管后者相当大,但它们都比GPT-4小了几个数量级(据推测,GPT-4是一组多达82200亿个参数模型,交织在一起,总共约有一万亿参数),比GPT-3小了两倍多。

事实上,这个模型并没有从它的第一个版本发展起来,它已经是一个65B参数模型。

那么为什么它变得更好了呢?

很简单,Meta的方法很明确:因为他们将专注于提供开源模型,所以他们的优化目标不是大小,而是数据。

也就是说,他们用比原来大40%的数据集和更长的时间来训练LLaMa,同时还将其上下文窗口增加了一倍,达到4k个标记(大约3000个单词)

在质量方面,如下图所示,LLaMa 2-Chat 700亿参数模型基本上击败了它的所有竞争对手,尽管体积小得多,但比ChatGPT(3.5版)略好一些。

与其他开源模型相比,它无疑优于所有开源模型。

当然,它仍然不如GPT-4(图中没有显示),但我们谈论的是一个可以轻松放大12-15倍的模型,所以这并不奇怪。

但这项研究的主要亮点不是这个模型有多好,而是他们在解释模型训练过程中投入了多少细节。

而这一点正是LLM发展中的一个重要里程碑。

构建智能

Meta做的第一件“不同”的事情是分别优化了有用性和无害性,创建了目前可能最安全的高性能聊天机器人。

为此,让我们回顾一下Meta自己绘制的构建LLaMa-2-Chat所需的完整过程图。

训练GenAI聊天机器人包括四个步骤:

  1. 首先,我们通过优化基础模型来训练它,以自我监督的方式预测文本序列中的下一个标记。也就是说,你屏蔽序列中的下一个单词,并要求模型对其进行预测。
  2. 这个预训练模型使用一个经过精选的数据集{提示,期望答案}进行微调。该模型被OpenAI称为“行为克隆”,可以学习以期望的方式行为。这是LLaMa-2-Chat的第一个版本。
  3. 接下来,我们希望根据人类偏好优化模型,同时减少有害反应的发生。使用步骤1中模型的副本,我们“切断”它的单词预测头,而不是预测序列中的下一个单词,根据人类的偏好输出一个标量值,表示对特定提示的响应有多好。这被称为奖励模型(RM)。简单地说,这种奖励模型在规模上就像人类一样。这意味着该模型经过训练,可以准确预测受过高等教育的人对给定提示的反应所给出的分数。
  4. 最后,我们针对该奖励模型训练LLaMa-2-Chat,目标是最大化奖励。换句话说,聊天机器人学会了根据提示写出能够产生最高价值的回复。

步骤3和步骤4是我们所说的从人类反馈中强化学习(RLFH),也是最终得到LLaMa-2-Chat模型的过程中的关键步骤。

但如果你熟悉LLM训练流程,你会发现图像中的某些内容看起来非常奇怪。

有用性与安全性的权衡

在标准的训练流程中,比如OpenAI用来构建ChatGPT的流程,他们只使用了一个奖励模型。

但在Meta的案例中,LLaMa-2-Chat是基于两种奖励模型构建的:

  • 一个有用性奖励模式
  • 一个安全性奖励模型

这在AI领域尚属首次,这样做的原因无非是有用与安全的权衡。

根据来自Anthropic的Claude模型背后的首席研究员Yuntao Bai领导的研究,优化一个既有用又安全的模型是很复杂的,因为它们有时会存在权衡。

如果你正在构建世界上最有用的模型,那么这个模型将准备好回答任何问题,无论要求的道德细微差别如何。

想要制造炸弹吗?方法在这。

想知道最简单的杀人方法吗?当然,为什么不呢?

因此,仅仅追求有用性,从字面上看,就是在制造一个定时炸弹。

另一方面,如果你想建立世界上最安全的模型,它要回答太多的问题将会非常复杂,因为当今世界上几乎任何事情都可以用道德正义的眼光来审视。

例如,Pi可能是我尝试过的最无害的聊天机器人,但当你想让它真正帮助你做事时,使用它真的很痛苦。

那么Meta做了什么?

简单地说,他们创建了两种奖励模型,并简单地使用动态成本函数对这两种模型进行优化。

为此,Meta团队注释了数据集中最有害的响应,当模型使用该响应进行训练时,与奖励分数相关的成本函数项从有用项切换到安全项。

通俗地说,如果训练样本非常有害,模型的目标是以“安全”的方式回答,而在其他情况下,它被训练为“以最有用的方式”回答。

技术说明:当我说针对某些事物进行优化时,我指的总是优化成本函数。为了训练一个神经网络,你需要定义一个可微的数学表达式来衡量模型预测的成本或误差,通过计算模型参数的梯度,你可以获得最小化成本的最佳组合,从而最大化预测精度。

通过这样做,该模型获得了如何最好地回答每个提示,同时考虑到不应回答的有害提示。

对于开源社区来说,这是一个明显的双赢,也是一个里程碑式的时刻,该社区可以获得关于如何执行这个被称为RLHF的“受到良好保护”的秘密的极其重要的信息。

但是,如果革命性的安全训练还不够,他们还引入了另一个新概念。

GAtt让你的模型记住一切

注意力是LLM的关键因素。

这是他们理解单词之间关系的方式,这种机制越好,模型就越好。

遗憾的是,文本序列越长,模型就越难记住序列的起始部分。

因此,如果你在第一次提示中要求模型“扮演拿破仑”,到第20次提示时,模型很可能会忘记这一指令。

在Ghost Attention(GAtt)中,他们对模型进行了微调,使其能够特别注意指令,并在整个对话过程中记住它们,这种情况发生了变化:

GAtt模型清楚地记得最初的指令,并在用户不一定要求的情况下继续提供表情符号的答案。

这是非常令人兴奋的,因为遵循指令是一个有用聊天机器人的基石,并且在整个对话中有效执行这些指令是大多数聊天机器人目前无法做到的。

GAtt将会继续存在。

OpenAI最近宣布了ChatGPT的“自定义指令”,这可以被认为是一个类似但更持久的功能。然而,在OpenAI的情况下,这可能只是一个UI/UX技巧,他们只是在每个提示下简单的添加了指令。

然而,其中最重要的公告是在几天后发布的。

跨越未跨越的桥梁

在随后的新闻发布会上,Meta宣布他们正在开发的LLaMa-2-Chat不仅适用于商业用途,而且还可以通过微软的云服务Azure访问。

这是一个巨大的突破,因为企业客户现在不仅可以通过Azure云利用ChatGPT,还可以访问LLaMa。

但这里的关键是LLaMa 2实际上是可下载的,这意味着客户可以将其安装在自己的私人服务器上,从而永远消除将数据发送到OpenAI或Anthropic服务器所需的安全风险。

因此,LLaMa-2-Chat可能成为第一个真正广泛应用于企业用例的聊天机器人,这本质上意味着,也许最终Meta首席科学家Yann LeCun是对的:

“开源最终将赢得人工智能”。

——Yann LeCun

用自己的方式书写历史

Meta大胆地发布了LLaMa 2和LLaMa-2-chat,这标志着大型语言模型开发领域的一个明显转变。

这不仅仅是介绍另一款尖端产品,这是对微软等科技巨头的大胆声明,强调Meta致力于使这些模型训练的知识和工具民主化。

现在,人工智能行业有了第一个高性能聊天机器人,并附有一份长达70页的研究论文,其中提供了解其构建过程所需的所有细节。

因此,Meta不仅仅是平衡竞争环境,还有望重新定义它。

Meta通过使RLHF的复杂过程更容易理解并结合两种奖励模型组合等见解,不仅揭开了LLM训练的帷幕,而且还准备将开源提升到无与伦比的高度。

曾经是少数人的领域现在向全球社区开放,并可能推动开源模型迎头赶上世界上一些最强大的公司保护和保障的专有模型。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

麦肯锡发布:2023年最被关注的15项科技趋势

2023年上半年,生成式AI/ChatGPT的出现点燃了我们对新一代技术的热情。当然,人类在不少科技领域都好消息不断。生成式AI与其他的众多先进技术一起,有望推动可持续、包容性增长,解决全球各种复杂挑战。

7月20日,麦肯锡公司发布了《McKinsey Technology Trends Outlook 2023》2023科技趋势展望报告。

为了评估每个趋势的动力(momentum),报告考察了其关注度(interest)、创新性(innovation)和资本(investment)等定量指标,同时,鉴于这些趋势的长期性和相互依赖性,麦肯锡还深入研究了每个趋势背后的底层技术、不确定性、未来挑战等。

与往年不同的是,麦肯锡增加了一个重要的新分析维度——人才(talent)。

人才的重要性不用赘述——人才短缺是创新与增长的头号敌人。

数据显示,与2021年相比,2022年全球职位发布总体上减少了13%,但与文中提到的15个科技趋势相关的领域的职位发布在2022年增长了15%。麦肯锡对这些技术趋势中的350万个职位发布进行了调查,发现许多最需求的技能,每个职位的合格从业者数量还不到全球平均水平的一半↓

接下来,我们来看这15个趋势。这15个趋势可分成五个更广泛的类别:人工智能革命、构建数字未来、计算和连接的前沿、尖端工程技术和可持续发展。

PART.1
人工智能革命

  • 1、生成式AI(Generative AI)

生成型人工智能标志着人工智能的一个转折点。

OpenAI、谷歌、微软、Facebook、Salesforce、IBM等都在大力投资于大型语言模型技术LLM的研发,推动模型的不断创新和改进。与以往的人工智能不同,生成式AI可以根据从类似非结构化数据格式中学到的信息,生成新的非结构化内容,如文本、音频、视频、图像、代码、模拟甚至蛋白质序列或消费者旅程。而且,其核心技术——基础模型,可以适应各种任务。

在商业环境中,生成型人工智能不仅可以开启新的用例,还可以加快、扩展或改进现有的用例。生成型人工智能有可能通过促进新产品和收入流的开发,提升客户体验,从而重新定义企业和价值链。然而,其影响最有望体现在提高员工生产力和体验方面。

在这个初期阶段,我们看到许多行业的公司主要将生成型人工智能作为一种辅助技术,用于创建初稿、生成假设或协助专家更快、更好地完成任务。

当然也需要专家检查输出,特别是对于产生虚幻内容(应用程序产生的不准确内容)和知识产权(IP)问题。

在高风险的应用中,让生成型人工智能基于应用从辅助逐渐过渡到完全自动化可能还需要一段时间。

  • 2、应用型人工智能(Applied AI)

通过机器学习(ML)、计算机视觉和自然语言处理(NLP)等人工智能技术,各行各业的企业可以利用数据并得出洞见,实现自动化流程、增强能力,并做出更明智的决策。

麦肯锡的研究估计,应用型人工智能所蕴含的潜在经济价值介于17万亿美元至26万亿美元之间,并且追求这一价值的企业比例正在增加。

麦肯锡全球AI状况年度调查显示,组织中采用人工智能的比例从2017年的20%翻倍至2022年的50%。而且,2022年的调查还表明,采用人工智能可能带来显著的财务效益:25%的受访者将其公司5%或更多的净利润归功于人工智能。

然而,在企业实现这一技术的全部潜力之前,还需要解决组织、技术、伦理和监管等问题。

  • 3、工业化机器学习(Industrializing machine learning)

工业化机器学习,通常称为机器学习运营(ML运营),或者简称为MLOps,指的是在企业中扩展和维持机器学习应用所需的工程实践。这些实践得到了快速发展的技术工具生态系统的支持,这些工具在功能和互操作性方面都得到了显著改进。

MLOps工具可以帮助企业从试点项目转向可行的商业产品,加速分析解决方案的扩大,发现和解决生产中的问题,并提高团队的生产力。经验表明,成功实现机器学习的工业化可以将机器学习应用的生产时间框架(从概念验证到产品)缩短约八至十倍,并将开发资源减少高达40%。

工业化的机器学习最初由少数几家领先的公司引领,但随着越来越多的公司将人工智能用于更广泛的应用领域,采用这一方法的范围也在不断扩大。

2021年,对机器学习工业化领域的企业投资在达到47亿美元的高点,并在2022年累计达到34亿美元,持续保持强劲势头。IDC预测,到2024年,60%的企业将实施MLOps。

构建数字未来

  • 4、下一代软件开发(Next-generation software development)

下一代技术正在改变软件开发生命周期(SDLC)的每个阶段工程师的能力,从规划和测试到部署和维护,还能使非技术员工创建应用程序。

这些技术可以帮助简化复杂的任务,并将其他任务简化为单一命令。这些技术包括AI辅助编程工具、低代码和无代码平台、基础设施即代码、自动集成、部署和测试,以及新兴的生成型AI工具。

由于技术挑战、需要对开发人员和测试工程师进行大规模的再培训以及其他组织障碍,应用可能会比较缓慢。

到2026年,Gartner预测80%的低代码和无代码工具用户将来自传统IT组织之外。AI启用的工具还可以通过自动化例行任务和提供问题解决方案来提高传统开发者的生产力。

研究显示,开发者在代码生成方面节省了35%至45%的时间,在代码重构方面节省了20%至30%的时间。他们还报告在使用AI启用的工具时感到更快乐、更投入,并获得更多满足感,这表明采用这些工具有助于公司在竞争激烈的人才市场中留住人才。

  • 5、信任架构和数字身份(Trust architectures and digital identity)

数字信任技术使组织能够管理技术和数据风险,加速创新并保护资产。而在数据和技术治理中建立信任可以提高组织绩效并改善客户关系。

底层技术包括零信任架构(ZTA)、数字身份系统和隐私工程。其他技术通过将解释性、透明性、安全性和偏见最小化原则融入AI设计中来建立信任。

然而,数字信任技术的采用受到一系列因素的阻碍,包括整合挑战、组织壁垒、人才短缺,以及将其作为价值主张的重要组成部分的有限考虑。建立全面信任为先的风险思维和能力需要自上而下的领导和对多个领域的有意识的变革,从战略和技术到用户使用场景等。

例如法规正在推动产业朝隐私工程方向发展:有关数据本地化和共享的新法规,以及人工智能和云计算的增加使用,推动隐私工程变得更加重要。在欧洲,像2022年的NIS2指令,强制进行增加网络安全风险评估的法规,以及2023年的数据治理法案,旨在促进数据共享,使隐私工程变得至关重要。美国的州级数据隐私法以及联邦特定领域的数据法规要求采取一系列隐私合规措施,需要自动化控制。

  • 6、Web 3.0

Web 3.0 超越了对加密货币投资的典型理解,更重要的是它指的是未来互联网的一种模式,它将权力分散化并重新分配给用户,潜在地赋予他们更多对个人数据如何获得经济价值以及数字资产的更强所有权。

此外,它提供了一系列商业机会:由去中心化自治组织(DAOs)治理的新商业模式,并通过安全(智能合约)自动化消除中间人,涉及数字可编程资产的新服务,以及使用区块链技术进行新数据存储和治理。

Web 3.0 吸引了大量资本和人才,底层技术不断改进,并且应用不断增多;截至2023年,目前运行的去中心化应用程序有数千个,而2018年仅约有一千个。

但新的企业仍在测试和扩展可行的商业模式,同时不断发展的监管规定以及尚不成熟的新技术平台,使得其用户体验通常不如现有的Web 2.0实用工具。

计算和连接的前沿

  • 7、先进连接技术(Advanced connectivity)

先进的连接性改进将提高全球消费者的用户体验,并增加移动性、医疗保健和制造业等行业的生产力。

公司们正在迅速采用建立在现有部署和连接标准之上的先进连接性技术,但一些新技术,如低地球轨道(LEO)连接和5G网络,在推广过程中面临着些许障碍。

比如,电信公司在消费领域难以实现5G的盈利,工业应用增长远低于预期。虽然5G的API为电信公司提供了向消费者提供5G服务的盈利能力,但由于依赖先进连接性的消费者用例尚未实现规模化,其采用速度较慢。许多工业公司选择等待采用5G私有网络,原因包括复杂性、对蜂窝技术优势和管理的理解不足、部署成本和端到端用例的早期阶段。但是5G网络市场正在增长,各个行业,如制造业、物流、公用事业等,都在进行标杆部署。

  • 8、全息现实技术(Immersive-reality technologies)

全息现实技术利用空间计算来解释物理空间,模拟将数据、物体和人物添加到真实世界环境中,并通过增强现实(AR)、虚拟现实(VR)和混合现实(MR)实现在虚拟世界中的交互。

2021年,风险投资者为AR和VR初创企业提供了约40亿美元的资金,成为仅次于2018年的第二成功融资年。尽管在2022年,AR和VR的总体投资有所下降,但投资者对这一趋势的兴趣依然持续:去年至少有七轮投资额达1亿美元或更多的交易达成。

研究显示,未来的元宇宙到2030年在消费者和企业应用上有望创造4万亿至5万亿美元的价值。

前不久,苹果宣布将于2024年发布Vision Pro AR/VR头显,该头显将配备眼动跟踪、手势识别和无缝滚动等技术。苹果凭借庞大的人才和资本支持了Vision Pro,并拥有5000多项专利。该公司认为这款头显可能会带来显著优势,并希望在混合现实领域树立新标准。

  • 9、云以及边缘计算(Cloud and edge computing)

在未来,企业将利用多个位置点的计算和存储基础设施,从本地到更靠近本地(边缘),从小型区域数据中心到远程超大规模数据中心。边缘计算为组织提供了处理数据更接近其源头的灵活性,实现更快的数据处理速度(超低延迟)并与云相比实现数据主权和增强数据隐私,从而解锁各种新的用例。

减少到终端用户的距离将缩短数据传输延迟和成本,并提供更快速访问更相关的数据集,有助于企业遵守数据居住法规。公有云将继续在未来企业中扮演至关重要的角色,通过更好的规模经济来执行非实时计算用例。

云和边缘资源的持续集成将使用户将云的创新、速度和灵活性延伸到边缘和实时系统,从而加速创新,提高生产力,并创造商业价值。

不过,不断膨胀的成本以及与数据隐私和延迟有关的问题导致企业向公有云的迁移速度放缓。然而Uptime Institute Global Data Center最近的一项研究发现,约33%的受访者已经从公有云回迁到数据中心或合作设施。然而,在那些回迁的企业中,只有6%完全放弃了公有云。大多数采用混合方法,同时使用本地和公有云。

  • 10、量子技术(Quantum technologies)

量子技术利用量子力学的独特性质,比经典计算机更高效地执行特定类型的复杂计算,提供安全通信网络,并提供新一代传感器,其灵敏度比传统传感器有了显著的提升。

原则上,量子技术可以进行模拟和解决更复杂的问题,这将在航空航天、国防、汽车、化工、金融和制药等各个行业带来重大突破。

然而,技术挑战仍然存在,如实现完全纠错的量子计算机和可扩展的量子通信网络。

这个领域的人才缺口仍然显著,但可能在缩小。麦肯锡的研究显示,行业中近三分之二的空缺职位可以通过新的量子技术硕士学位来填补,而在2021年,只有约三分之一的职位可以填补。未来,这一差距可能会进一步缩小:提供量子技术硕士课程的大学数量在2022年几乎翻了一番。

PART.4
尖端工程技术

  • 11、未来出行(Future of mobility)

在汽车大规模生产开始一个多世纪后,出行正在经历第二个重要的转折点:向自动驾驶、连接性、车辆电气化和共享出行(ACES,Autonomous, Connected, Electric and Shared vehicles)技术的转变,甚至先进空中移动技术,如垂直起降电动飞行器(eVTOL)也在快速推进。

这一转变有望在改善人员和货物陆空运输的效率和可持续性的同时,颠覆市场。过去十年,ACES技术的采用不断增加,并且随着可持续性措施加强、消费者偏好演变和创新进步,这一步伐正在加快。例如,预计到2035年,自动驾驶技术将创造高达4000亿美元的收入。

然而,在近期仍然存在挑战,创新者必须应对技术、监管和供应链问题。

  • 12、未来生物工程(Future of bioengineering)

生物学的突破性发展,结合数字技术的创新,有望帮助组织应对医疗保健、食品农业、消费品、可持续发展以及能源和材料生产等领域的需求,创造新的产品和服务。

麦肯锡的研究表明,目前400种生物工程的应用案例在科学上都是可行的,预计从2030年到2040年,这些用例将产生2万亿到4万亿美元的经济影响。

例如,近期mRNA疫苗在COVID-19上的成功引发了RNA疗法研究活动的爆发,全球临床流水线上有50多种RNA疗法。

此外,FDA于2022年批准了五种新的病毒载体基因和相关疗法。随着病毒载体疗法逐渐向超稀有指标转变,mRNA技术成为常见技术,更多关注将集中于调控mRNA和基因疗法,开发个性化的“n = 1”药物,同时更高产量叠加销售成本降低,这些个性化药物将更好地个性化医疗的需求。

当然,尽管某些基因疗法和生物产品已经得到认可,但生物工程学要实现其完整的经济潜力,还需要解决伦理、监管和公众认知等问题。

  • 13、太空技术(Future of space technologies)

过去五到十年,太空产业最重要的发展是技术成本的降低,这使得新的能力和应用更加易于获取。组件成本的降低主要得益于卫星和运载火箭的体积、重量、功率和成本的减少。这些降低导致了系统架构的变化,例如从单个大型地球同步轨道(GEO)卫星转向较小的分布式低地球轨道(LEO)卫星,以及传统非太空企业对太空技术越来越感兴趣。

太空技术和遥感分析的使用现在已经非常广泛,分析显示,到2030年太空市场可能超过1万亿美元。未来太空经济可能涵盖目前规模尚不大的活动,例如轨道内制造、发电和太空采矿,以及可扩展的载人航天飞行。

预计2023年和2024年将有几个备受期待的新发射载具亮相,包括SpaceX的超重型Starship,设计用于携带更大的负载;United Launch Alliance的Vulcan Centaur,设计用于将卫星送入轨道;以及Blue Origin的New Glenn,将携带部分Amazon的Project Kuiper卫星。PART.5
可持续发展

  • 14、电气化和可再生能源(Electrification and renewables)

未来,能源结构将迅速向电力、合成燃料和氢转变,到2035年将占全球能源结构的32%,到2050年将占50%。

在COP26之前,共有64个国家承诺或立法在未来几十年内实现净零排放。电气化和可再生能源有助于实现净零承诺,包括太阳能、风能、水力能源和其他可再生能源;核能;氢能;可持续燃料以及电动汽车充电等。

受影响的行业有:农业;汽车和装配;航空、旅游和物流;化工;建筑和建筑材料;电力、天然气和公共事业;金属和采矿;石油和天然气;房地产。

  • 15、其他气候相关的技术(Climate technologies beyond)

其他气候技术包括碳捕获利用与封存(CCUS),碳减排,自然气候解决方案,循环技术,替代蛋白和农业,水资源和生物多样性解决方案与适应措施,以及追踪净零排放进展的技术。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

阿里达摩院发布癌症通用模型,可辅助诊断八种主流癌症

DoNews8月16日消息,8月16日,阿里达摩院发布多癌影像分析通用模型,可检测、分割和诊断八种主要的高发致死癌症,有助于实现多癌统一诊断,降低漏诊概率。

当前,医疗AI模型已经足够强大,可完成单个器官疾病识别,辅助医生进行诊断,但在实现多个器官的精准识别时遇到较大挑战,一是过高的假阳性问题,二是存在一定概率的漏诊,这对于癌症多发病人的诊疗尤为重要。

为避免错诊与漏诊,放射科医生通常对全身的多器官进行多疾病的检测和诊断。因此,医生在临床治疗上迫切需要一个更高效的多癌统一诊断模型。

针对上述痛点,达摩院医疗AI团队联合中山大学肿瘤防治中心、四川省肿瘤医院、浙大附属第一医院、盛京医院、广东省人民医院等单位,提出了一个统一的多癌影像分析通用模型(cancerUniT),以Mask Transformer语义分割为基础,解决多种肿瘤图像此前难以统一检测、分割和诊断的问题,适用于八种主流的高发高致死癌症(肺、结直肠、肝、胃、乳腺、食管、胰腺、肾)以及相关器官中的肿瘤子类型。

多癌问题的复杂性主要体现在器官、恶性肿瘤和其他肿瘤类型之间存在许多关联性。例如,肝癌和肝囊肿虽都位于肝脏内,但在纹理和良恶性方面存在差异;而肝癌和胰腺癌虽形态相似,但却是分属不同器官的恶性癌症。

为了有效建模多癌之间的差异和相似性,达摩院医疗AI团队借助Transformer提出了一种新颖的肿瘤表示学习方法,将肿瘤表示为Transformer中的语义Query,并为不同器官中肿瘤及其子类型建立语义层次结构,让模型学习过程更加有效,并提高肿瘤及其子类型预测的一致性,实现同时输出分割、检测和诊断的预测,从而解决临床上复杂的多癌多肿瘤的识别任务。

在一组631名患者的对比测试中,其肿瘤检测、分割和诊断任务的性能均优于8个特定器官的单模型组合,检测任务的平均敏感性达到93%,平均特异性达到82%。

阿里达摩院医疗AI团队负责人、IEEE Fellow吕乐认为,该工作以统一模型首次实现“一次调用即诊断八种最致命的癌症”,在简化AI模型复杂度的同时,保持较高的敏感度。这将为放射科医生提供全面的AI辅助诊断支持,尤其在癌症复发、远端转移等临床场景发挥重要效用。

据了解,该模型的论文成果已被计算机视觉顶会ICCV 2023收录,目前已在上海市第一人民医院等多家合作医院进行应用测试。

达摩院医疗AI团队长期致力于医学影像等方向研究,正在研发包括规模筛查、精准诊断、预后治疗、响应评估在内的全流程的癌症诊疗技术,覆盖多个重要病种。该团队曾在新冠疫情初期研发出CT影像新冠肺炎AI辅助诊断系统,被科技部评为全国科技抗疫先进集体。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

插件来了!文心一言现已上线百度搜索、文档摘要、文本转视频等原生插件

随着ChatGPT的快速进化吸引了全球网友的眼球,国内厂商也纷纷推出了相似的产品,其中百度推出的“文心一言”已经正式开始的相关的测试。

随后,百度聊天机器人“文心一言”正式推出了内测专用独立App。小编也是在第一时间进行了下载体验,可以看到文心一言App内测版界面非常简洁,用户可以通过键盘打字输入问题,也可以通过语音方式输入问题,并且文心一言也可以通过语音进行回答。

此外,点击左下角“有趣的咒语都在这里”按键,就会给出一些提问建议。点击左上角的按键,可以选择不同的智能助理,目前提供“老万”和“小话”两个助理。会提供历史对话,也可以开启新对话,不过小编需要提醒各位体验的小伙伴的是App端的历史对话记录跟网页端的不同步。

据介绍,文心一言”作为百度全新一代知识增强大语言模型,采用一对一的对话式聊天场景,能够与人对话互动,回答问题,协助创作,同时在文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成等多个应用场景中“高效便捷地帮助人们获取信息、知识和灵感”。

就在昨日举行的 WAVE SUMMIT 深度学习开发者大会,百度首席技术官王海峰在大会上表示,文心一言大模型现已上线 5 个原生插件:百度搜索、览卷文档、E 言易图、说图解画、一镜流影。同时,文心一言现已支持一次同时使用 3 个插件,官方称在扩展大模型能力边界的同时,更能适应场景需要。

具体能力如下,览卷文档:原 ChatFile,可基于文档完成摘要、问答、创作等任务。一镜流影:AI 文字转视频,从主题词、语句、段落篇章等文字描述内容,一键创作生成视频。E 言易图:基于 Apache Echarts 为您提供数据洞察和图表制作,目前支持柱状图、折线图、饼图、雷达图、散点图、漏斗图、思维导图(树图)。说图解画:基于图片进行文字创作、回答问题,可帮助用户写文案、想故事。可以看到,与ChatGPT的发展路线类似,纯大语言模型的应用场景稍少一点,结合插件可以有更多应用场景。

给不太了解的小伙伴介绍一下“文心一言”,文心一言(英文名:ERNIE Bot)是百度基于文心大模型技术推出的生成式对话产品。百度在人工智能领域拥有产业级知识增强文心大模型ERNIE,具备跨模态、跨语言的深度语义理解与生成能力,目前文心一言在做上线前的冲刺准备工作。据百度介绍,文心一言还具备了一定的思维能力,能够学会数学推演及逻辑推理等相对复杂任务。面对“鸡兔同笼”这类锻炼人类逻辑思维的经典题,文心一言能理解题意,并有正确的解题思路,进而像学生做题一样,按正确的步骤,一步步算出正确答案。

百度方面表示,ChatGPT相关技术,百度都有。百度在人工智能四层架构中,有全栈布局。包括底层的芯片、深度学习框架、大模型以及最上层的搜索等应用。文心一言,位于模型层。由于“文心一言”是国内第一个发布的类ChatGPT产品,自然引起了不少网友的关注,而插件的推出也会使得其训练量有不小的提升,感兴趣的小伙伴可以保持关注。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

OpenAI的第一笔收购,是一家游戏公司?丨游戏干线

近日,OpenAI在官网悄悄发了一个公告,宣布收购初创企业Global Illumination并将整个团队纳入麾下,新成员们已经开始参与包括ChatGPT在内的核心产品开发。

这笔交易也是OpenAI自2015年创立以来,第一次搞公开收购,具体的交易条款并没有公开。

实际上过去几年OpenAI也的确拿不出什么钱来搞收购,这家公司最有名的标签除了人工智能外,就是巨额亏损。据媒体报道,OpenAI在2022年的整体亏损翻倍至5.4亿美元。不过考虑到微软今年初又给OpenAI投了100亿美元,OpenAI的财务状况应当有了搞一点收购的余裕。

他是谁?

Global Illumination是一家成立于2021年的初创企业,由Thomas Dimson、Taylor Gordon 和Joey Flynn在纽约创办,这三个人都曾在扎克伯格麾下的Instagram效力过。该公司的主营业务是利用人工智能创建巧妙工具、数字基建和数字体验。

在这个创业团队中,名气最大的是首席执行官Thomas Dimson,辞职创业前是Instagram的开发主管,在他手上诞生的功能包括Instagram的信息流排名算法、“探索”标签页的体验、故事投票贴纸、Hyperlapse延时摄影软件等。

除了Dimson外,官网上也列出了多名工作人员的信息,可见这个团队的规模并不大。

来源:Global Illumination

对于Global Illumination而言,这家公司最近的项目,是一个叫Biomes的开源大型多人在线沙盒游戏,依托于网页浏览器运行。从网站上放出的先导片预告来看,风格类似于全球历史销量排名第一的游戏《我的世界》。目前并不清楚收购完成后,这个游戏到底还会不会继续做下去。

来源:Biomes

从Global Illumination产品的过往经历来看,这家公司似乎高度专注于视觉产品和服务。这也暗示着OpenAI可能会给ChatGPT开发额外的多媒体功能,或者推出一款与Runway竞争的视频生成服务。这支团队的成员也有效力Instagram、YouTube、Google、皮克斯动画、Riot Games的开发经验,对缺乏C端产品经验的OpenAI来说也是重要的补充。

为什么是他?

可以说,自OpenAI成立以来,就似乎一直在“避免”任何收购行为。

最近一两年,他们主要是设立创投基金,投资AI初创公司和组织。据The Information截至今年1月份的统计,已经投了至少16家。这次公开收购一家游戏公司,属实是历史首次。

外媒The Techcrunch分析,可能是OpenAI开始“寻求商业胜利”,毕竟他们造ChatGPT花了5.4亿美元(包括从谷歌挖人),去年收入却仅3000万美元。

而山姆·奥特曼又给今年定下了盈利2亿美元、明年10亿的“小目标”。

另一边,关注者们对这一新奇组合也是猜测诸多。

如Jim Fan和一些人认为这可能是为AGI做准备,因为可以通过这个游戏收集非常多的人机交互数据。

还有目光更近一点的表示,OpenAI可能就是想给ChatGPT增加“多媒体功能”。

另外,鉴于游戏是开源的,有人表示OpenAI或许看中的并非游戏本身,而是整个团队。

这是一个高水平的工程师设计团队,没准ChaGPT很快就会迎来大规模的升级。

还有人发现了“华点”:

OpenAI拥有“克隆版”我的世界,而微软拥有真·我的世界(旗下Mojang Studios开发的)+OpenAI一大部分股权。可恶,这把垄断又让微软搞上了。(手动狗头)

结语

有分析认为,Biomes这种高自由度、低运行成本的沙盒游戏,结合生成 AI 会有无限可能。所以,OpenAI 可能是看重团队的产品能力,也可能纯粹看上了这个高自由度的游戏。

尽管就本次收购众说纷纭,但可以肯定的是,随着 Global Illumination 的加入,OpenAI 商业化前途会更加光明。团队丰富的经验和创新方法有望加速 OpenAI 在人工智能领域开创一个全新产品和可能性的步伐。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

首个交付级专业AI漫画工具上线,漫画生产进入AIGC时代

近日,国内领先智能设计公司水母智能发布了旗下触手AI创作平台全新上线的交付级专业AI漫画工具。同时,触手AI与中文在线联合生产的第一批AI漫画作品已于上月开始在海外发行,年内将有多部由中文在线旗下IP、经触手AI改编绘画的AI漫画作品陆续面世。
在过去一年中,AIGC技术取得了令人瞩目的发展,新技术、新应用不断冲刷着我们的认知,并开始逐渐渗透各行各业。作为国内AI绘画平台第一梯队产品,触手AI在持续扩大丰富C端创作平台和社区业务的同时,深度扎根到B端漫画产业链中,探索出一条AIGC技术与产业共创的新路径,率先实现了AIGC产品在商业领域的变现。交付级的AI漫画工具、百万级的AIGC创作者社区和高效的AIGC创作工作流,构成了触手AI实现赋能漫画产业的三个关键要素。

首个交付级专业AI漫画工具,漫画生产进入AIGC时代
触手AI平台此次上线的漫画工具是AIGC行业首个交付级专业AI漫画工具,为B端企业及漫画师、AIGC发烧友、漫画发烧友创作漫画提供可控的AI工具支持,开启全新的漫画创作体验时代。
平台目前已有上万个官方及平台用户自训练的风格 LoRA模型,以及数百个亿级参数的基础AI模型。通过自研 LoRA风格模型训练技术,用户最快只需5分钟即可完成自定义角色训练,保证角色稳定性。
同时还支持调用多个controlnet(参考生成)、adetailer(局部修复)、inpainting(涂抹修图)等插件精细调整画面,从而让画面更贴近自己的构想。无论是创作属于自己的原创漫画,还是对经典故事进行全新诠释,都能在这个创作平台上得以实现。

从文本改写、分镜描述、描述词优化、批量分镜绘制到角色定制,用户在这款AI漫画工具内可以尽情发挥创意,将文字内容转化为精彩纷呈的漫画作品。首先,用户可以将小说内容自动拆分成分镜描述,并通过AI智能分析批量优化描述词,轻松提升漫画场景的描写质量,规划每一帧的细节;其次,可以实现快速“批量分镜绘制”20张图,用户可以选择适合情节的角色形象和场景,从而快速构建整个漫画世界。

“IP+AIGC”发力漫画市场,走出商业化落地新路径
今年以来,中文在线加速动漫产品化落地,大量优质小说IP改编为漫画并同步海外发行,“IP+AIGC”的新一代的内容生产方式成为了提升漫画生产效率,加速市场拓展的重要举措。
在水母智能投入AIGC技术研发应用新浪潮后,从触手AI绘画平台的上线到研发漫画批量生产交付能力,中文在线一直持续关注,并凭借在漫画制作领域积累的大量经验,对AI智能分析剧情、人设绘制及成稿质量等关键环节进行整体把控。
双方共同组建了由创作人员和发行人员构成的AI漫画共创小组,期间不断迭代创作方法和流程,探索如何通过AI精准控制人物稳定性,人物细节表现,漫画风格和手法,故事画面阅读的顺畅体验等。
经过3个多月研发,双方成功完成了第一部中文在线旗下热门IP小说改编的漫画交付。今年7月,双方联合生产的第一批AIGC漫画作品已经被翻译为英语、印尼语、泰语、西班牙语、法语等7种语言,通过以MangaToon为代表的海外漫画平台发行到北美、欧洲、东南亚等全球数十个国家和地区。
双方对“IP+AIGC”的内容生产方式充满信心,并已达成深度合作,签订了将100部小说改编制作成为商业漫画的协议。年内将陆续有大量漫画作品发行面世。

同时,触手AI也已为众多内容IP平台进行服务,目前进行中的项目还包括45万张IP原画项目、10部动态漫项目、热剧同播漫画等。

AIGC时代定义新的创作者,重构漫画创作工作流
早在去年8月,触手AI绘画的机器人就已经是QQ频道最早期最活跃的AI机器人,接入7万+个QQ社区频道,平台也因此积累了海量由用户贡献的二次元漫画垂类数据,开始着手自训练独特的二次元漫画风格模型。
同时,这个新一代的创作者平台迅速聚集了一批优秀的漫画垂类模型训练师和AI漫画创作者,并通过和国内外优秀模型社区深入合作,上线了大量AI漫画类优质模型,其中单个头部模型绘画创作调用量达百万次以上。

目前触手AI平台拥有数百万活跃的高质量创作者,累计2亿+的AIGC作品,用户单日发布AI作品超万张,单日做图数高峰期达单日700万次。热门主题活动玩法丰富、产品体验日迭代更新。
在和中文在线共同进行AI漫画生产的过程中,双方团队不断迭代方式方法和工作流程。以漫画中最重要的风格设定为例,在漫画主笔出主要人设图后,传统漫画工作流下,需要多个漫画助手分别完成分镜画面,包括勾线上色特效等环节。而触手AI漫画小组则从社区招募了优质创作者,搭建线上共创小组,开启新一代的AI创作模式。
初期成员们在本地AI软件上跑图,虽然提高了出图效率,但无法控制统一的模型风格,影响了出图质量,并且模型、图片的反复分享、修改、传输也降低了工作效率。经过和开发人员共同打磨,团队上线了触手AI专业模式功能,可以实现Lora模型在线训练、分享和实时协作,并且创作全程一个区域搞定,不用再割裂地横跳于文生图、图生图、参考生图,提高了出图可控性和整体工作效率,同时,社区共创模式也让创作成本大大降低。
通过发动创作者社群,自研AI绘画工具及反复打磨适用于漫画行业的创作SOP,触手AI仅用传统漫画1/3的成本,将漫画创作效率提升5倍,为漫画产业提供了全新内容生产力。

基于丰富的AI漫画交付经验,触手AI也即将发布专业的AI漫画课程,优秀学员可以进入触手的签约创作者生态,通过参与AI漫画创作获得稳定的收入变现。
触手AI平台活跃的创作者生态及优秀的模型训练能力也吸引了头部IP官方的瞩目,站内举办多次人气超高IP二创AI绘画活动、主题绘画大赛,包括敦煌、奇迹少女、《修罗武神》等头部IP官方创作大赛。平台与文化传信、凯叔讲故事、洛可可、HHO等企业也在持续探索AIGC在漫画、设计等产业的落地,共同发掘新的商业价值。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

亚马逊推出新的生成式AI功能 可为用户总结产品评论

根据财联社8月15日报道,美国电商巨头亚马逊公司推出了一项新的生成式AI功能,可以为用户生成评论摘要。

亚马逊目前已在其移动应用程序上向美国的“子集”用户广泛提供评论摘要功能。亚马逊社区购物主管Vaughn Schermerhorn表示,根据顾客的反馈,未来几个月可能将该功能扩大到更多的购物者和其他产品类别。

这项功能已经测试了至少几个月,亚马逊于6月首次证实正在测试一款AI摘要工具,但现在才开始正式推出。

亚马逊推出AI摘要工具的目的在于,让购物者能快速了解其他买家对一款产品的评价,无需耗时浏览一大堆评论。

具体而言,亚马逊的AI摘要工具将从众多用户评论中挑选出共同的主题,并在产品详细信息页面上用简短的一段话进行总结。

亚马逊官方提供的示例显示:“客户喜欢该数字设备的稳定性、易用性和性能。他们提到它的速度更快,图片/流媒体速度非常好,而且它是一个简单的链接设备。性能达到了预期水平,与LG 3D智能电视配合非常好。”

摘要后面则是可点击的标签,显示用户评论中的相关主题和常用词,点击其中一个,就会跳转到所选主题的完整评论。

长期以来,虚假评论是亚马逊上持续存在的问题。在周一的声明中,亚马逊强调将继续投入大量资源,主动阻止虚假评论。亚马逊的策略包括只在经过验证的购买行为上使用摘要工具,同时利用AI模型来检测评论,并在需要时让人工介入。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

中国首次应用AI识别输电线路缺陷,提升电网安全

据科技日报报道,最近,国网电力空间技术有限公司联合华北电力大学等单位研发出了输电线路红外缺陷智能识别系统,并成功将其应用于我国主要的超特高压线路运维领域,实现了产业化应用。这是我国首次将人工智能(AI)技术规模化应用于输电线路发热检测。

传统的输电线路发热检测方式通常依赖于人工判别画面中的发热故障点(检修人员的经验和注意力等因素容易干扰他们对设备检修工作的进行,导致可能会出现遗漏的情况。此外,由于红外视频数据庞大,进行复检工作的难度极大,效率也很低下,这可能会引发绝缘子掉串等危险事件),效率较低且存在一定的安全风险。而这款红外缺陷智能识别系统利用了人工智能技术,在保证安全的前提下,实现了对输电线路发热情况的精准监测和识别,该系统只需要上传巡检红外视频,便可快速抽帧并智能识别发热缺陷,从而帮助线路运维单位及时消除线路跳闸停电的隐患。

为了实现红外缺陷隐患的智能识别,技术攻关团队采用了”最小化标注 + 阶梯式学习 + 干扰点屏蔽”的技术路线。经过精心设计,模型的识别准确率已经达到了90%以上。

以240基杆塔的红外视频为例,以前需要人工复核5个小时的工作现在只需要2个小时的时间就可以完成分析,而且整个过程中无需人工干预。目前,该系统已经在国网电力空间技术有限公司得到了成功部署应用。

该系统的成功应用,为电力系统的运维工作带来了重要的突破和创新,为防止线路事故的发生提供了强力的支持。它不仅能够大幅提升线路巡检的效率和准确性,还能够有效预防线路发热缺陷引发的安全事故,保障电网的稳定运行。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

抢购数千块高性能英伟达芯片,沙特和阿联酋跻身“全球AI竞赛玩家”

抢购对构建人工智能(AI)系统至关重要的高性能英伟达芯片,两个海湾国家——沙特阿拉伯和阿联酋近日正式加入全球AI竞赛。

砸重金购芯片

为了跻身“AI玩家”,“财大气粗”的沙特和阿联酋,可是砸下了重金。英国《金融时报》报道称,沙特最近已通过阿卜杜拉国王科技大学购买了至少3000块英伟达H100芯片,每块价格约4万美元。据知情人士透露,阿卜杜拉国王科技大学将用这些芯片自主开发类似于OpenAI的GPT-4大语言模型。

沙特阿拉伯王储穆罕默德·本·萨勒曼(左)和英伟达首席执行官黄仁勋。图源:ft

眼下,阿卜杜拉国王科技大学还在开发一台名为“Shaheen III”的超级计算机,将配备700块英伟达超级芯片Grace hopper,这款芯片专为AI应用而设计。

沙特的邻国阿联酋也不甘示弱、紧追直上。据报道,阿联酋目前已经获得大量英伟达芯片,并已在首都阿布扎比的马斯达尔城国有技术创新研究所开发了名为“Falcon”的大数据模型。

其实,阿联酋早在几年前就有“入局”AI的计划。2017年,阿联酋成为全球首个设立人工智能部的国家。该国目前还推出了“生成人工智能指南”,这份文件是阿联酋“致力于加强AI领域的全球领先地位”以及“限制技术负面使用监管框架”的一部分。

除了“砸钱”买芯片,沙特和阿联酋还在全球多地吸纳AI领域的人才和技术。据报道,沙特的大语言模型由阿卜杜拉国王科技大学内部的可信智能与数据分析实验室负责开发。另有两家欧洲AI公司高管透露,海湾国家主权基金的代表曾与他们接触,希望用巨额投资换取人才和数据访问权限。

有称赞有担忧

在此之前,沙特和阿联酋曾公开表达过希望成为全球AI领域领导者、推动经济转型的目标。有分析认为,都拥有全球规模最大、最活跃的主权投资基金的沙特和阿联酋不仅有着雄厚的经济实力,且对新技术格外关注。

高性能的英伟达芯片对构建AI系统至关重要。图源:seekingalpha

对于这两个海湾国家加入全球AI竞赛,外界有着不同的看法。

今年6月, OpenAI联合创始人兼CEO山姆·奥特曼在访问阿布扎比时就曾称赞能认识到AI重要性的阿联酋拥有远见卓识。“在AI还没有这么引人关注的时候,阿布扎比就开始讨论这项技术了。”他说,“现在,大家都身处AI浪潮,我们对此深感兴奋。”

另有媒体认为沙特和阿联酋加入全球AI竞赛,令这种硅谷最热门商品的供应愈发紧张。也有人对这两国会否滥用AI技术提出质疑。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

点赞!中国人工智能专利大规模免费开放

AI正在掀起新一轮技术浪潮,但也有可能拉大技术鸿沟。由于AI研发门槛较高,技术和专利大多掌握在少数企业和高校手里,对于中小微企业而言,如何利用AI技术进行业务创新始终是一个难题。因此,开源开放非常关键,备受各界关注。

此次达摩院带头开放AI专利,有望缩小技术鸿沟,加速AI时代的到来。

这100件AI专利已在浙江知识产权交易中心上架,覆盖了图像技术、视频技术、3D视觉等诸多AI技术领域,不乏“交通信号灯感知”“疑似侵权图片检测”、“时序数据预测”、“点云数据处理”“智能字幕生成”等富有广阔应用场景的专利。

达摩院免费开放的100件AI专利(部分)

发明专利《交通信号灯感知方法、装置、设备及存储介质》,基于交叉注意力机制,对各种目标特征向量进行融合处理,从而得到目标所在的交通信号灯感知结果,可用于智能交通场景;发明专利《一种疑似侵权产品图片的检测方法及装置》,基于阿里电商平台的治理经验,采用了局部特征匹配算法,可有效识别疑似侵权图片。

值得一提,达摩院这次还专门开放了3件医疗AI的核心专利,用于癌症的精准治疗,解决其中关键性的医疗图像配准问题。这3项专利来源于达摩院在国际著名学术期刊和会议上发表的研究成果,应用于“图像引导的放射治疗”、“纵向病灶量化”、“基于图谱的分割以及多模态融合的计算机辅助诊断”, 已在浙大一院、吉林大学第一医院、上海胸科医院等落地,其开放将帮助更多医院打造癌症治疗的全流程智能解决方案。“我们将以最开放的态度和医生、医院合作,帮助患者取得抗击癌症的最大胜利。”达摩院医疗AI团队负责人、IEEE Fellow吕乐表示。

达摩院免费开放的医疗AI专利

当天,达摩院和与复旦大学附属华山医院还获颁了全国首批共有专利权权益分割证书,该专利是关于利用医疗AI诊断帕金森病的发明成果。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

纽约时报禁止其内容用于训练人工智能模型

人工智能是当今最热门的技术领域之一,但它也面临着很多争议和挑战。比如,如何保护数据的版权和隐私?纽约时报就是其中一个担忧者,它近日修改了服务条款,禁止任何人使用其内容来开发或训练人工智能系统。

纽约时报近日修改了其服务条款,禁止任何人使用其内容来开发或训练人工智能系统。这包括文本、照片、图像、音频/视频剪辑、外观、元数据或汇编等内容。此外,未经纽约时报书面许可,不得使用自动化工具(如网站爬虫)来使用、访问或收集这些内容。纽约时报表示,拒绝遵守这些新规定可能会导致未指定的罚款或处罚。

这一举措可能是对谷歌最近更新隐私政策的回应。谷歌在其政策中披露,它可能从网络上收集公共数据来训练其各种人工智能服务,如Bard或Cloud AI。许多大型语言模型(如OpenAI的ChatGPT)都是基于庞大的数据集训练的,其中可能包含未经原创者许可就从网络上抓取的受版权或其他保护的材料。

然而,纽约时报也在今年2月与谷歌签署了一项价值1亿美元的协议,允许谷歌在未来三年内在其部分平台上展示时报内容。纽约时报表示,两家公司将在内容分发、订阅、营销、广告和“实验”等方面合作。因此,纽约时报对服务条款的修改可能针对的是其他公司,如OpenAI或微软。据Semafor周日报道,纽约时报已退出了一个试图与科技公司就人工智能培训数据进行联合谈判的媒体联盟——这意味着如果它与公司达成协议,更可能是基于个案。

OpenAI最近宣布,网站运营商现在可以阻止其GPTBot网络爬虫抓取其网站。微软也在其自己的T&C中增加了一些新的限制,禁止人们使用其人工智能产品“创建、培训或改进(直接或间接)任何其他人工智能服务”,并禁止用户从其人工智能工具中抓取或以其他方式提取数据。

本月早些时候,包括美联社和欧洲出版商理事会在内的几家新闻机构签署了一封公开信,呼吁全球立法者引入规则,在使用数据进行培训之前要求透明度和权利持有者的同意。

以上就是我对于纽约时报禁止其内容用于训练人工智能模型这一事件的分析。你认为这一举措是否合理和有效呢?你是否会支持或反对这样的做法呢?期待听到你的声音。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

手机大厂卷疯了!苹果、华为、小米相继押注大模型,“生死之战”AI破局?

8月14日晚,在小米年度演讲上,小米集团创始人、董事长兼CEO雷军表示,大模型是重大技术革命,小米必须全面拥抱。据了解,目前小爱同学已升级大模型,8月14日开始邀请测试,小米手机端侧大模型已初步跑通。

除了小米之外,华为终端业务CEO余承东也表示:“AI大模型技术的发展将会带来下一代智能终端操作系统的智慧体验。”在华为HarmonyOS 4的升级中,智慧助手“小艺”已经接入了AI大模型技术。荣耀、苹果等手机厂商在AI大模型方向也有所动作。

手机厂商纷纷入局AI大模型,意味着全球AI大模型在应用端迅速发展。而AI应用场景拓展的背后,是新一轮“AI军备竞赛”的打响,不仅中国的科技巨头在抢夺AI芯片,沙特、阿联酋等“中东土豪”也加入了战场。

多家手机巨头入局,大模型竞争激烈

在8月14日晚举办的小米年度演讲中,雷军表示,小米AI大模型最新一个13亿参数大模型已经成功在手机本地跑通,部分场景可以媲美60亿参数模型在云端运行结果。小米旗下人工智能助手小爱同学已开始升级AI大模型能力,在发布会当天开启邀请测试。

“小米在AI领域坚持厚积薄发和尾随战略,在最新的发布会上称利用折叠屏手机成功跑了13亿参数的大模型,成为了全球首个。不过在内行眼中,这有‘噱头’属性,目前全球在跑的新一代云端大模型数量众多,哪怕弱一点的亦有60亿参数,像GPT 3.5已经上到1750亿参数,需要一万颗英伟达V100芯片构建的AGI网络集群才能实现,至于说GPT5.0的参数更是天量级别。”独立国际策略分析师陈佳说。

据雷军表示,2016年7月,是小米布局AI的起点。历经七年时间,目前小米AI相关团队人员规模已经超过了3000人。在今年4月,小米正式组建了AI实验室大模型团队。如今,月活用户超过1.1亿的小爱同学升级AI大模型能力,将拥有“更强的大脑”,在答疑解惑、交互对话等方面实现能力升级。

盯上AI大模型的手机厂商不止小米一家,在今年8月4日举办的2023年华为开发者大会上,余承东就宣布,HarmonyOS 4系统将得到盘古大模型的加持,使得智慧助手小艺具备AI大模型能力。不同于其他手机厂商,华为直接将大模型能力嵌入了手机系统层面,融合程度更加深入。用余承东的话说,具备AI大模型能力的小艺“智商更高了,更能干了”。

在近期苹果2023财年第三财季财报发布会上,苹果CEO库克也表示,苹果多年来一直在研究生成式人工智能和其他模型,未来几个月内,苹果公司用于生成式AI的研发支出将进一步增加。这也是苹果首次官方确认介入AI大模型。

6月29日,荣耀CEO赵明在上海世界移动通信大会上表示,未来将把AI大模型引入端侧赋能YOYO智慧助手,打造更加个人化、人性化,隐私保护更周全的端侧个人模型,带来多模态自然交互、精准意图识别、复杂任务的闭环服务等新体验。

5月22日,百度旗下小度发布首款手机小度青禾学习手机,该手机搭载了小度灵机大模型,提供AI拍照讲题、中英文AI作文辅导、AI口语练习等学习指导。

不过,手机厂商们对AI大模型的布局也并不都是“单打独斗”,也有厂商在寻求外部合作。据赵明透露,荣耀目前已经在跟互联网公司接触。他表示:“现在很多的公司和企业也在投入大模型各个领域,例如很多垂域的模型和通用的大模型,覆盖不同的领域。荣耀与这些公司的合作肯定是未来的必然选择,并且(接触)已经是在进行中的事情。”

北京社科院副研究员王鹏接受记者采访时表示,如果厂商自身研发实力不足或投入有限,可以和大平台及科研机构合作,一方提供技术,一方提供场景、资金和资源,各取所需。

不过整体来看,目前手机厂商对AI大模型的布局多局限于“语音助手”。IDC中国高级分析师郭天翔接受记者采访时表示,手机厂商布局AI大模型更多是出于对热点的追逐,真正在手机上的使用场景尚未明确。目前看也只是通过语音助手来实现落地。郭天翔认为,目前还未看到AI大模型会成为影响手机市场竞争的决定性因素,离落地普及仍有较远距离。消费电子“存量博弈”,是压力也是动力

为什么手机厂商纷纷入局AI大模型领域?因为目前手机赛道的竞争已经进入存量博弈阶段,手机厂商需要在新技术上建立竞争优势,也需要通过新的卖点角逐高端市场。

据中国信通院数据,今年上半年国内智能手机出货量1.24亿部,同比下降7%。据Canalys数据,2023年上半年全球手机出货量约5.25亿部,较去年同期下滑超7000万台。

王鹏表示:“目前手机市场销量下滑,长久以来大家的竞争高度同质化,震撼级产品不足,这种情况下大家就只能比拼一些细节,像芯片、电池、摄像头、屏幕大小、重量等等。人工智能大模型出现之后,对手机厂商来说是一个有可能引爆市场的新卖点,因此有资源、有能力的企业就开始进行布局。”

财经评论员张雪峰接受记者采访时表示,手机厂商角逐AI大模型赛道是正常的市场竞争行为。AI大模型可以提供更先进的语音、图像和智能交互功能,为用户带来更好的使用体验。手机厂商通过优化和引入AI大模型,可以提高产品的竞争力,满足用户的需求,并且赢得市场份额。

同时,手机厂商们不仅仅拥有手机业务,如小米还有智能家居产品,华为有智能汽车解决方案业务等。全联并购公会信用管理委员会专家安光勇表示:“AI大模型的技术能力不仅局限于手机,还可以扩展到自动驾驶、智能制造、机器人等多个领域,为企业创造更多的商机和增长点。同时,AI被认为是未来科技的重要风口,手机厂商希望能够在这个领域抢占先机,获取更多市场份额和利润。”

高端化“生死之战”,大模型能否破局?

目前来看,国内手机厂商在AI大模型领域的发展速度领先于海外巨头。在近期苹果2023财年第三财季财报发布会上,苹果CEO库克表示,苹果多年来一直在研究生成式人工智能和其他模型,未来几个月内,苹果公司用于生成式AI的研发支出将进一步增加。这是苹果首次官方确认介入AI大模型,和华为等国内厂商相比,苹果的“AI之路”走得较为缓慢。

因此,AI大模型也被视作国内手机厂商建立竞争优势、冲击高端市场的方向之一。据Counterpoint数据,今年二季度,苹果公司赚走了全球智能手机行业85% 的营业利润,创最高季度纪录。

在手机市场的“存量之战”中,高端化成了必须啃下的硬骨头。雷军也在小米年度演讲中表示:“高端是小米的必由之路,更是生死之战。”

张雪峰接受记者采访时表示:“中国手机厂商如华为、小米已经在AI大模型赛道上投入了大量资源,并取得了一定的成绩。如果中国手机厂商能够在该领域保持竞争优势,并通过不断创新和满足用户需求来占据高端市场,它们有机会在手机赛道的下半场竞争中取得领先地位。”

资深产业经济观察家梁振鹏认为,通过提供更强大的AI功能,手机厂商可以吸引更多用户购买高端手机,提高产品溢价能力,从而提升利润。

不过,尽管AI大模型有潜力在手机赛道的下半场竞争格局中发挥重要作用,但其发展也受内部环境和外部环境的制约。

安光勇认为,从内部环境来看,中国手机厂商在AI大模型领域可能受到政治、法律、道德等方面的制约,需要在技术发展和应用落地过程中平衡各种因素。从外部环境来看,硬件技术、核心芯片等关键领域对海外的依赖度可能影响中国手机厂商在AI大模型竞争中的地位,尤其是在芯片供应方面存在不稳定因素。

因此,国内手机厂商想在AI大模型上树立起竞争优势,也需要保证“弹药”的充足,在人工智能芯片等关键领域保证供应。

全球开启抢芯模式,打响“AI军备竞赛”

目前,全球正进入新一轮“AI军备竞赛”,对人工智能芯片的抢夺进入白热化。

据英国《金融时报》8月14日报道,沙特阿拉伯和阿拉伯联合酋长国正在购买数以千计的英伟达AI芯片,以谋求在人工智能领域的领先地位。

据了解,沙特阿拉伯已经通过阿卜杜拉国王科技大学购买了至少3000枚英伟达H100芯片。知情人士透露称,这所沙特阿拉伯大学还拥有至少200个英伟达A100芯片,他们正在开发采用了700个英伟达Grace Hopper超级芯片的名为“Shaheen III”的超级计算机,并将于今年投入运行。

而中国的互联网巨头们也在行动。据报道,百度、腾讯、阿里、字节跳动等互联网巨头正采购英伟达高性能AI芯片,今年总共采购约10万张A800芯片,订单金额达10亿美元(约合人民币73亿元),明年订单价值达40亿美元(约合人民币291亿元)。英伟达方面回应称,消费互联网公司和云服务提供商每年都会在数据中心组建方面投入数十亿美元,通常会提前几个月下订单。

除了企业之外,中国的各大城市也在行动,加紧人工智能发展。5月30日,北京发布《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023~2025年)》,将侧重打造人工智能技术底座,围绕人工智能关键技术、人工智能产业方阵等方面,聚焦优势潜力和短板薄弱环节进行系统布局,撬动引导创新资源优化配置。其中,特别提出要推动国产人工智能芯片实现突破,积极引导大模型研发企业应用国产人工智能芯片,加快提升人工智能算力供给的国产化率。

同一天,上海发改委印发的《上海市加大力度支持民间投资发展若干政策措施》中提到,要“充分发挥人工智能创新发展专项等引导作用,支持民营企业广泛参与数据、算力等人工智能基础设施建设”。

5月31日,深圳正式印发《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023-2024年)》,称将“举全市之力打造国家新一代人工智能创新发展试验区和国家人工智能创新应用先导区,努力创建全球人工智能先锋城市”。为此,深圳将统筹设立规模1000亿元的人工智能基金群,规模之庞大全国罕见。

如果说各个国家、各大城市加码人工智能产业是全球“AI军备竞赛”的第一轮,那对AI芯片的抢购就是这轮军备竞赛的第二轮。轮轮转动之下,全球人工智能产业也迎来蓬勃发展。

从目前情况来看,中国公司在人工智能赛道的“起跑点”稍显落后。陈佳向记者表示,目前整个AGI(通用人工智能)软件市场基本上由微软、谷歌、Meta主导,硬件则基本被英伟达的全系列AI芯片主导,intel、AMD以及国内华为等大厂属于第二集团,短期内很难撼动英伟达利用大模型建立的AI硬件开发优势。相比之下,其他厂商包括国内手机大厂都属于第三第四梯队,短期内除了其自身核心客群之外,不会对AI算力市场构成显著影响。

不过“起跑点”的落后也意味着发展空间的广阔。国金证券认为,未来3-5年人工智能产业将保持较高增速,2022年中国人工智能产业规模达1958亿元,预计2027年可达6122亿元,年均复合增速约为25.6%。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

大爆发!AI又有新催化?

AI方面的炒作是从硬件开始的,然后提升到大模型最后到应用端。

之前也复盘过,涨得最凶的也最猛的就是硬件板块,光模块为代表的硬件,他身后还有光器件、AI服务器、交换机、PCB、PCLE线、存储芯片、机器人、智能驾驶等等

大模型就是以360、昆仑万维、科大讯飞为代表的,目前来看也就是科大讯飞有成为领军人物的潜力

再然后就是应用端,游戏、传媒、剪辑软件、金融、教育、法院、政务等等

以上逻辑都靠的是英伟达映射的逻辑,都是通过国外的商业逻辑映射国内,通过国外的信息催化国内,最近的平台期就是国外发展过快与国内业绩落地过慢的矛盾,使得高位的个股diedie不休。

而数据要素板块,算是在整个AI里面涨幅相对不那么高的,因为2月份他们已经涨过了一波,就是因为信创和数字经济国策发布。

因为AI汹涌而来,偏向AI逻辑被大家熟知,当时最被大家熟知的两个逻辑就是硬件通胀和数据价值重估,其实硬件板块炒来炒去,大家明白了,很难业绩落地,因为技术有代差。

数据要素反而是咱们的优势,咱们的体制想要推动这类政策执行,一定是快于国外的,在采集、存储、加工、流通、分析、应用方面能够快速推进,毕竟是数据要素已经类比到土地了,是国家拥有的生产要素。

最近数据要素的催化,最开始是人民网的数据确权文件的发布,这几天是信创招标开始,年初的信创逻辑就是招标预期,现在是招标落地了。

山丘目前查到7-8月份,信创招标的项目主要是为

招标主要集中在硬件和软件系统两个方向,硬件主要是华为系和软件更多是国产化逻辑,信创更多偏向是软件招标

未来的催化肯定是招标大单的消息,这类都是短中线催化,招标大单过后就是业绩落地,这点和风电差不多,招标预期过后,就是装机量,在信创板块就是业绩落地了,叫装机量好像也没什么问题,也是装在电脑里、手机里各种穿戴设备里。

华为产业链的公司如下图

信创相关产业链如下图,最好是有订单为先,国资云的深桑达A和太极股份算是比较稳健的

除去硬件外,国内比较能够掌握到的,能够自主做强的还是软件和数据相关的,只是目前能够看得到的落地就是招标和一些政策上落地,更多还是短中线逻辑,长线逻辑还得看国内的数字经济相关的联通能力,换句话说就是国内的整个大系统中,掌握环节越多其价值也就越多,出海方面是看单一软件和硬件的自身壁垒有多深。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI医生,靠谱吗?

不是帮忙写病历,不是辅助看报告,不是手术导航定位,更不是智能导诊,真正能看病的“AI医生”可能要来了。

中国的医疗科技公司正在自主研发基于Transformer架构的医疗大语言模型,并应用于真实医疗场景的AI医生产品“MedGPT”。而这款产品的首次“出圈”,是因为一场上百人规模的真实世界试验。
这场6月30日在成都进行的“大型公开测评”,参与者包括120多位真实患者和10名四川大学华西医院的主治医师,还有7位全国各地三甲医院专家作为陪审。毕竟大模型能不能用来看病这件事,最有发言权的,还是专家医生。
最终,“AI医生”与三甲主治医生在比分结果上的一致性达到了96%。
8月10日,其研发企业医联Medlinker对外公布了该产品的最近进展。据介绍,医联MedGPT又完成了1052例医生临床测试,不断通过数据刷新AI医生临床有效性记录,并持续验证医疗安全性。
围绕这款横空出世的“AI医生”产品和其实际效果,本文试图讨论几个核心问题:

1.MedGPT看病靠谱吗?评价是否靠谱的标准是什么?
2.MedGPT能在哪些环节帮助提升就医体验、诊疗效率和质量?
3.MedGPT走向成熟和普及之时,地域资源不平衡、看病难的医疗痼疾能否被推动解决?MedGPT看病,靠谱吗?

鉴于患者和医生之间存在巨大的信息鸿沟,判断MedGPT可靠性的标准和结果,都来自经验丰富的医生专家。
其实施过程是,邀请120位真实患者使用“AI医生”问诊,过程中实习医生辅助将信息同步传达给10位四川大学华西医院的真人医生(职级主治及以上),双方在互不影响的情况下分别给出独立判断。
评估结果时,将上述过程切分为问询、诊断、给出治疗建议、开具辅助检查方案、分析检查结果、提供可信解释等6个环节,由来自北京阜外医院、中日友好医院、北大人民医院等三甲医院的7位主任专家,针对每个环节分别给AI和真人按照准确性、专业性等统一标准进行打分。
最终,真人医生的综合得分为7.5,而AI医生得分为7.2,二者一致性为96%。评测疾病涵盖消化科、心内科、老年呼吸科、骨科、泌尿外科、肾内科等多个领域。

一位专家在打分时,甚至对AI给出了高于真人医生的分数,理由是在专业水平接近的情况下,MedGPT更加细致,不易误诊漏诊,甚至对患者表现出更大的人文关怀。
据医联对外公布的数据,MedGPT目前的参数规模为100B规模,预训练阶段使用了超过20亿的医学文本数据,微调训练阶段使用了800万条的高质量结构化临床诊疗数据,并投入超过1000名医生参与人工反馈监督微调训练。
在短短40天左右的时间里,MedGPT的患者测试案例实现从百到千的十倍量级增长,不难看出医联对这一产品的投入程度。据了解,在过去的几个月内,其医疗专家和技术专家团队“以小时为单位”进行着迭代和调优。在这个过程中,已有超过1000名三甲医院医生参与到产品的研发、测试、优化过程中。
值得一提的是,在全球范围内,这种“AI医生”与人类医生同时面对真实患者的“双盲实验”还是首次完成,这也为检验医疗GPT的有效性和准确性等开拓了标准范式。任何产品或业务,涉及到医疗领域都是一件严肃的事情,但在当前,各国相关监管部门还尚未提出对医疗大模型产品的注册审查标准,则更需要最早的产品研发者对自身提出要求,需要市场的行业自律。如今临床测试的数量已经达到了1052例,而在以往创新药物或医疗器械的临床试验项目中,千人量级均属于超大型规模水平。数字医疗的全新引擎
在此之前,医疗领域已经诞生了不少应用AI技术开发的产品,比如电子病历、智能导诊分诊系统、医学影像辅助诊断产品以及手术机器人(或称手术导航定位系统)等,这些产品都是“碎片化”地聚焦分布在诊疗流程的某一个具体环节,帮助优化就医体验、提升就医效率和质量。


但大语言模型的技术突破,让AI技术在医疗场景下的应用,有了更进一步参与或跟踪整个诊疗流程的可能。
理论上,除了需要动手术、拍片子和取药等必须在线下实体进行的环节,其他步骤如咨询、诊断、开具检查、报告解读、给出治疗方案和康复建议等,均可以在对话中完成,并且通过上传检查结果等交互行为,MedGPT可以“补上”线下未参与部分,进而做出可靠回答。
此时,于患者而言,MedGPT的实际角色变成了一个可以识别和诊断大部分常见疾病,并给出进一步线下检查或用药、诊疗建议的“AI家庭医生”。
特别是当用户养成随手问诊的行为依赖,持续反馈不同医院的线下就诊信息,而MedGPT又能储存并自动调取历史记录时,就俨然成为了一个身边最清楚你过去病史和身体状况变化的、普通人也能拥有的全天候随时守护的“家庭医生”;

对医生而言,MedGPT可以成为一个帮助高年资医生完成基础工作,进行信息核对、查漏补缺、跟踪随访及进行患者管理的“AI助理医师”,也可以是一个帮助低年资医生快速学习和成长、随时探讨病例并分析思路的“AI医生导师”,还可以是一个帮助一线医生及时获取前沿治疗指南和专家共识、更新自身专业储备的“学术推广AI医生”。
而对于整个医疗医药行业而言,大模型AI技术则可能成为一个为行业带来新一轮发展动力的全新“引擎”,将这一垂类模型应用于不同的场景、不同载体上,能够不断碰撞产生新的火花。


MedGPT的研发企业医联,其自身已在医疗领域深耕近十年。2014年公司成立,2017年获得互联网医院牌照,2018年开设首个互联网医院科室感染科,同期启动自主研发的丙肝患者管理体系。目前平台拥有数十万名注册医生,覆盖肿瘤、心脑血管、糖尿病、呼吸、慢性肾病、感染、精神心理、消化、神经、中医等多个病种学科领域。
MedGPT同样也是医联的全新引擎,作为第一个大模型应用在医疗场景应用的探索者,有望引领行业真正进入数字医疗2.0时代。
医联MedGPT项目负责人早就“喊话”,希望业内AI科技、医学、院校机构、医疗多模态应用等各种类型的合作伙伴,共同开发建设通用型人工智能技术的医疗应⽤场景为医疗行业的技术发展贡献力量。
当前其主要征集的合作伙伴包括三大类:一是数据合作,包括三甲医院、相关医疗数据企业等;二是科室建设合作,包括三甲医院、医学专家、数字医疗企业、数字疗法等;三是多模态模型合作,包括但不限于辅助诊断模型、治疗推荐模型、预后评估模型、药物发现模型和流行病学模型等。世界性难题,往往由颠覆性科技推动解决
尽管MedGPT的出现令众多医生惊艳,也让我们进一步打开了未来就医便捷化的可能性,但不难猜想,当前一定还存在些许优化空间。
比如,为了保证结果“不出错”,医疗GPT给出的建议是否存在过度诊疗的倾向?
又比如,医疗GPT对患者疾病做出诊断和治疗方案,都是基于目前现有的专家共识或者诊疗指南,但一些新开发的药物的临床应用,仍然需要一线专家去探索尝试,现阶段AI技术的应用大概率还不会突破人类医生自身的认识边界。
不过,这并不会影响这项技术所带来的兴奋和未来的想象空间。
医疗改革一向是个世界性难题,对于中国这个人口庞大、地域广袤的发展中国家而言则更甚。早自2009年起我国便开始探索和鼓励公立医院医生多点执业,2015年起我国正式提出并开始在多个城市试点分级诊疗制度,近年来各地医联体、医共体持续推行远程医疗等,均是为了改善医疗卫生资源在不同地区分配不平衡、百姓看病难的问题。

科技的发展或许难以对抗自然规律的生老病死,但我们可以展望的是,有了MedGPT,无论身处何时何地,我们将能够以自然对话的最低门槛形式,即时获取自己关心或者迫切需要的权威医疗健康信息。
所谓“低门槛对话”,一方面要求技术在于打破时间和空间的限制,另一方面还在于用户体验上,语言沟通的“无障碍”。
因此“AI医生”的自然语言交互能力也格外重要,除了准确、靠谱、专业,能听到患者非专业用语表达的“大白话”,是保证用户体验的基本。
例如在真实评测体验中,对于一句通俗的“肚子疼”,AI医生会进一步引导患者说出具体的疼痛部位、疼痛持续的频率、疼痛方式等,并通过询问饮食情况、有无外力撞击、有无相关病史等细节、不断缩小范围、排除错误判断,最终给出确切答案。
AI医生没有问诊的时间限制,也不懂何为压力和情绪,可以不厌其烦地7*24小时接诊。

目前,医联MedGPT已经可以覆盖我国最新疾病分类标准(ICD10)中60%的疾病病种,并在近期将研发重心倾斜在多发疾病,以提升数字医院的普惠率。据悉预计在2023年底,可以覆盖80%病种的就诊需求。
有一天,当MedGPT真正走向成熟和普及,不仅有助于打破医疗资源的地域不平衡,对于消除医学专业信息鸿沟、减少误诊漏诊,提升国民整体的健康素养和健康水平,都有巨大帮助。
与此同时,MedGPT会不断沉淀用户关于疾病和患者诊疗行为的真实世界数据,其中不仅包括原本静静躺在各个公立医院电脑信息系统内的诊疗数据,也包括医院所无法持续追踪的院外数据,随着相关法律法规的健全,这些海量数据也有望被释放出来,对于罕见疾病的新药研发、常见病的健康管理甚至是针对精准人群的健康保险产品开发等,都具有重要意义。
届时,我们能够真正期待全新的“健康新世界”。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

“速度是传统方法一万倍”,欧洲用华为AI模型预报天气

据香港《南华早报》网站8月13日报道,欧洲一个政府间机构正在与中国一家科技巨头密切合作,将人工智能(AI)技术用于天气预报。

报道称,近日,欧洲中期天气预报中心(ECMWF)启用了能够预测全球天气的中国人工智能模型。

这个被称为“盘古气象”的模型是华为技术有限公司开发的。

报道称,在此次合作中,中国这家技术公司得以将气象科学转化成实际应用;而欧洲天气机构已开始在日常预报中采用人工智能技术。

华为科学家田奇在接受本报独家专访时说,欧洲中期天气预报中心决定在天气预报中使用“盘古气象”模型,部分原因在于该模型的高效性能,以及预报中心认识到人工智能在这个领域中具有重大潜力。

报道称,“盘古气象”模型预报只需非常低的计算成本,同时在准确度方面仍具竞争力。

▲7月6日,2023世界人工智能大会在上海开幕。图为开幕当天,人们观看华为云盘古气象大模型。(王翔 摄)

田奇说,今年4月至7月进行的测试显示,“盘古”模型在若干准确度指标和极端天气预报方面展现出优势,这似乎就是欧洲中期天气预报中心决定采用这套模型的原因。

报道称,根据7月份发表在英国科学杂志《自然》周刊上的一篇论文,“盘古气象”模型在预报方面比传统数值预测方法更为精确。它能提前一小时至七天预测天气情况,预测速度是数值预测方法的一万倍。

田奇说,目前“盘古气象”模型可提供以秒为单位的全球天气预报,预报内容包括湿度、风速、气温、海平面气压等;该模型在预测台风路径、寒潮、热浪等方面也表现出色。

这个人工智能天气预报模型最近预测了台风“杜苏芮”的轨迹,并且准确预测了8月4日台风“卡努”的转向。

田奇说这个模型为世界各地气象部门提供了重要信息。

香港《南华早报》联系了欧洲中期天气预报中心,询问了人工智能模型使用情况。一名女发言人提到了最近发表在该机构官网的一篇博客文章。文章说:“现在是时候采用这项技术并确立物理建模与机器学习之间的最佳平衡,从而持续改进预报工作。”

报道称,欧洲中期天气预报中心预报部主任弗洛里安·帕彭伯格博士称人工智能模型是天气预报的“悄然革命”。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

小米 AI 大模型 MiLM-6B:64 亿参数,C-Eval 总榜排名第 10

小米 AI 大模型 MiLM-6B 首次曝光。

MiLM-6B 是由小米开发的一个大规模预训练语言模型,参数规模为 64 亿。在 C-Eval 和 CMMLU 上均取得同尺寸最好的效果。

根据 C-Eval 给出的信息,MiLM-6B 模型在具体各科目成绩上,在 STEM(科学、技术、工程和数学教育)全部 20 个科目中,计量师、物理、化学、生物等多个项目获得了较高的准确率。

据悉,MiLM-6B 模型目前已经在大多数文科科目中表现出了相对良好的准确度,不过在 “法学、数学、编程、概率论、离散数学” 等涉及 “抽象思维” 的科目中,还有一定进步空间。

在 10 个 “社会科学” 测试科目中,除 “教育学和地理” 外,该模型在其他 8 个科目中都获得了较为理想的准确率。在人文科学的 11 个科目中,MiLM-6B 则在 “历史与法律” 基础上有着不错的准确率表现。

虽然小米 AI 大模型 MiLM-6B 当下才首次曝光,不过完成度已经较高,在未来该模型可能会被用于小米旗下 “小爱同学” 等虚拟助理服务中。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

升级要再次付费引不满,GoodNotes宣布为中国用户提供专属优惠

笔记软件 GoodNotes 6近日上架苹果 App Store 商店,和 5 代相同,依旧需要付费购买,官方提供按年付费和买断两种方式,前者为 68 元一年,后者为 186 元买断。

然而,5 代的付费用户无法直接获取 6 代的功能,仍然需要再次付费,引发了大量老用户的不满。

今日,GoodNotes 官方小红书账号发布声明:“在认真倾听了大家关于本次产品升级和定价的反馈意见后,决定为中国用户提供专属优惠。”

  • 年费会员和一次性解锁价格全面下调 40%
  • GoodNotes 5 付费会员可叠加使用升级折扣

GoodNotes 官方表示,GoodNotes 5 付费用户也可以选择继续使用 GoodNotes 5,不升级至新版本。近两天升级的用户如需退款,可联系客服。

不过,官方账号评论区的用户似乎对此并不买账,热评指责其放弃老用户、吃相难看、违约等。

之前竞品软件Notability改订阅制引起过一轮风波,GoodNotes还阴阳过友商,结果现在是:嘲笑Notability,理解Notability,成为Notability……

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

​Nature首发!一种AI时代科研新范式,开拓未知领域

AI与各个科学领域结合后,正在发生着一场充满潜力和挑战的科技革命。

通过探索理论、设计实验、分析数据,人工智能将为我们所熟知的科学发现提供超级动力。

8月2日,谷歌团队研究人员在Nature上发表了一项研究——人工智能时代的科学发现,总结了AI在科学发现中的应用和进展。

论文地址:https://www.nature.com/articles/s41586-023-06221-2

如何收集、转换和理解数据为形成科学见解和理论奠定了基础。

2010年代初兴起的深度学习,极大地扩展了这些科学发现过程的范围和雄心。

人工智能越来越多地应用于各个科学学科,以整合海量数据集、完善测量、指导实验、探索与数据相匹配的理论空间,以及提供与科学工作流程相结合的可操作的可靠模型,从而实现自主发现。

数据收集和分析是科学理解和发现的基础,也是科学的两大核心目标、定量方法和新兴技术。

20世纪50年代,数字化的引入为计算机在科学研究中的普遍应用铺平了道路。

自2010年代以来,数据科学的兴起使AI能够从大型数据集中识别出与科学相关的模式,从而提供有价值的指导。

尽管科学实践和过程在科学研究的各个阶段各不相同,但人工智能算法的发展跨越了传统上孤立的学科。

这种算法可以增强科学研究的设计和执行,正在成为研究人员不可或缺的工具。

科学发现是一个多方面的过程,涉及几个相互关联的阶段,包括假设形成、实验设计、数据采集和分析

近来,AI在科学方面最新的进展,就包括解开50年前的蛋白质折叠问题,以及人工智能驱动的数百万粒子的分子系统模拟,证明了人工智能解决具有挑战性的科学问题的潜力。

与任何新技术一样,AI4Science 的成功取决于,我们是否有能力将其融入日常实践并了解其潜力和局限性。

在科学发现过程中,广泛采用人工智能的障碍包括发现过程每个阶段特有的内部和外部因素,以及对方法、理论、软件和硬件的实用性和潜在滥用的担忧。

论文中,研究人员将探讨人工智能科学的发展并解决关键问。

AI辅助科学研究数据采集与管理实验平台收集的数据集规模和复杂程度不断增加,导致科学研究越来越依赖实时处理和高性能计算,以选择性地存储和分析高速生成的数据。

数据选择

一个典型的粒子碰撞实验每秒产生超过100 TB的数据。这类科学实验正在挑战现有数据传输和存储技术的极限。

在这些物理实验中,99.99%以上的原始仪器数据都是背景事件,必须实时检测并丢弃,以管理数据速率。

为了识别罕见事件,便于未来的科学研究,深度学习方法用「搜索离群信号」的算法取代了预先编程的硬件事件触发器,以检测压缩过程中可能遗漏的意外或罕见现象。

背景过程可使用深度自动编码器生成模型。

自动编码器会为以前未见过的、不属于背景分布的信号(罕见事件)返回较高的损失值(异常得分)。与有监督异常检测不同,无监督异常检测不需要标注,已广泛应用于物理学、神经科学、地球科学、海洋学和天文学。

数据标注

训练有监督模型需要带有标注的数据集,这些标注可提供有监督信息,以指导模型训练,并根据输入估计目标变量的函数或条件分布。

在生物学领域,为新表征的分子分配功能和结构标签的技术对于监督模型的下游训练至关重要,因为实验生成标签非常困难。

例如,尽管下一代测序技术不断发展,但只有不到1%的测序蛋白质标注了生物学功能。

另一种数据标注策略,是利用在人工标注数据上训练的智能体模型来标注未标注的样本,并利用这些预测的伪标签来监督下游预测模型。

相比之下,标签传播则是通过基于特征嵌入构建的相似性图将标签扩散到未标记的样本中。

除了自动标注外,主动学习还能确定需要人工标注的信息量最大的数据点或需要进行的信息量最大的实验。

通过这种方法,可以用较少的专家提供的标签来训练模型。数据标注的另一种策略是利用领域知识制定标注规则。

数据生成

随着训练数据集的质量、多样性和规模的提高,深度学习的性能也在不断改善。

创建更好模型的一个有效方法是,通过自动数据增强和深度生成模型,生成额外的合成数据点来增强训练数据集。

除了人工设计此类数据扩增外,强化学习方法还能发现一种自动数据扩增策略,这种策略既灵活又与下游模型无关。

深度生成模型,包括变异自动编码器、生成对抗网络、归一化流和扩散模型,可以学习底层数据分布,并从优化的分布中采样训练点。

生成式对抗网络已被证明可用于科学图像,因为它们可以合成许多领域的逼真图像。

概率编程是生成模型中的一种新兴技术,并将数据生成模型表达为计算机程序。

学习科学数据有意义的表示深度学习可以提取不同抽象程度的科学数据的有意义表征,并对其进行优化以指导研究,通常是通过端到端学习。

高质量的表征应尽可能多地保留数据信息,同时保持简单易懂。

有科学意义的表征应结构紧凑、有鉴别性、能区分潜在的变异因素,并能编码可在多项任务中通用的潜在机制。

在此,研究人员将介绍满足这些要求的3种新兴策略:几何先验、自监督学习、语言建模。

几何先验

由于几何和结构在科学领域发挥着核心作用,因此在学习表征中整合「几何先验」已被证明是有效的。

对称是几何学中一个被广泛研究的概念。它可以用不变性和等差性来描述来数学函数的行为,以表示神经特征编码器在一组变换下的行为。

在科学图像分析中,物体在图像中平移时不会发生变化,这意味着图像分割掩码是平移等变的,因为当输入像素平移时,它们会发生等效变化。

通过增加训练样本,将对称性纳入模型可使AI在有限的标注数据中受益,并可改善对与模型训练过程中遇到的输入明显不同的输入的外推预测。

几何深度学习

图神经网络,已成为对具有潜在几何和关系结构的数据集进行深度学习的主要方法。

从广义上讲,几何深度学习包括,发现关系模式 ,并通过神经信息传递算法,以图形和变换组的形式编码的局部信息。

自监督学习

当只有少数标记样本可用于模型训练,或当为特定任务标记数据成本过高时,监督学习可能是不够的。

在这种情况下,利用标记和未标记数据可以提高模型性能和学习能力。

自监督学习是一种技术,让模型能够在不依赖显式标签的情况下学习数据集的一般特征。

自监督学习是一个重要的预处理步骤,它可以在大型无标签数据集中学习可转移的特征,然后在小型有标签数据集中微调模型,以执行下游任务。

这种对科学领域有广泛的了解的预训练模型,是通用预测器,可适用于各种任务,从而提高标注效率,超越纯监督方法。

语言建模

掩码语言建模是一种流行的方法,用于自监督学习自然语言和生物序列。

随着自然语言和生物序列处理的不断发展,它们为彼此的发展提供了信息。

在训练过程中,目标是预测序列中的下一个token,而在基于掩码的训练 中,自监督任务是使用双向序列上下文恢复序列中的掩码token。

蛋白质语言模型可以,编码氨基酸序列以捕获结构和功能特性,并评估病毒变体的进化适应性。

Transformer架构

Transformers是一种神经结构模型,可以通过灵活模拟任意token对之间的相互作用,来处理token序列,超越了早期使用递归神经网络进行序列建模的努力。

虽然Transformers统一了图神经网络和语言模型,但Transformers的运行时间和内存占用可能与序列长度成二次方关系,从而导致远程建模,和线性化注意机制在效率方面面临挑战。

因此,无监督或自监督生成式预训练变换器被广泛使用,随后进行参数高效微调。

神经算子

标准神经网络模型可能无法满足科学应用的需要,因为它们假定数据离散度是固定的。

这种方法不适用于以不同分辨率,和网格收集的许多科学数据集。

此外,数据通常是从连续域中的潜在物理现象中采样的,

神经算子通过学习函数空间之间的映射来学习,不受离散化影响的表征。

神经算子保证离散化不变,这意味着它们可以处理任何离散化的输入,并在网格细化时收敛到一个极限。

神经算子一旦训练完成,就可以在任何分辨率下进行评估,无需重新训练。相比之下,当部署过程中的数据分辨率与模型训练时的数据分辨率发生变化时,标准神经网络的性能就会下降。

基于人工智能的科学假设生成可检验的假设是科学发现的核心。

科学假设的黑盒预测器

为科学探究确定有希望的假设,需要有效地检查许多候选方案,并选择那些可以最大限度地提高下游模拟和实验产量的假设。

在药物发现中,高通量筛选可以评估数千到数百万个分子,算法可以优先考虑实验研究哪些分子。模型可以被训练来预测实验的效用,例如相关的分子特性,或符合观察结果的符号公式。

然而,对于许多分子来说,这些预测因子的实验事实数据可能不可用。

因此,弱监督学习方法可以用来训练这些模型,其中嘈杂、有限或不精确的监督被用作训练信号。

这些方法可以经济有效地替代人类专家的标注、昂贵的硅学计算或更高保真的实验。

在高保真模拟上训练的AI方法已被用于高效筛选大型分子库。

为了进一步提高这些过程的效率,AI选择的候选方案可以被送到中等或低吞吐量实验中,以便使用实验反馈对候选物进行持续细化。

结果可以使用主动学习和贝叶斯优化反馈到AI模型中,使算法能够改进其预测,并专注于最有前途的候选方案。

当假设涉及分子等复杂对象时,人工智能方法就变得非常有价值。

例如,在蛋白质折叠方面,AlphaFold2可以根据氨基酸序列预测蛋白质的三维原子坐标,其精确度甚至可以达到原子级别,即使蛋白质的结构与训练数据集中的任何蛋白质都不同。

这一突破促进了各种人工智能驱动的蛋白质折叠方法的发展,如RoseTTAFold106。

除了正向问题,人工智能方法也越来越多地用于逆向问题,旨在了解产生一组观测数据的因果因素。

逆向问题,如逆向折叠或固定骨架设计,可以使用在数百万个蛋白质结构上训练过的黑盒预测器,根据蛋白质骨架三维原子坐标预测氨基酸序列。

然而,此类黑盒人工智能预测器需要大量训练数据集,尽管减少了对现有科学知识的依赖,但可解释性有限。

导航组合假设空间

尽管对所有与数据相匹配的假设进行采样是一件令人生畏的事情,但一个可以管理的目标是寻找一个好的假设,这可以表述为一个优化问题。

与依赖人工设计规则的传统方法相比,人工智能策略可用于估算每次搜索的回报,并优先选择价值较高的搜索方向。

通常采用强化学习算法训练的智能体来学习策略。

该智能体学会在搜索空间中采取使奖励信号最大化的行动,奖励信号可定义为反映所生成假设的质量或其他相关标准。

为了解决优化问题,可以使用进化算法来解决符号回归任务。该算法生成随机符号定律作为初始解决方案集。

在每一代中,候选解决方案会有轻微变化。

算法会检查任何修改所产生的符号定律是否比之前的解决方案更适合观测结果,并将最好的解决方案保留到下一代。

不过,强化学习方法正逐渐取代这一标准策略。

强化学习利用神经网络,通过添加预定义词汇表中的数学符号,并利用所学策略决定下一步添加哪个符号,从而依次生成数学表达式。

数学公式表示为一棵解析树。学习策略将解析树作为输入,以决定扩展哪个叶节点和添加哪个符号。

使用神经网络解决数学问题的另一种方法是,将数学公式转化为二进制符号序列。

然后,神经网络策略可以按概率顺序每次增加一个二进制字符。

通过设计一个奖励来衡量反驳猜想的能力,这种方法可以在没有数学问题的先验知识的情况下,找到对数学猜想的反驳方法。

组合优化也适用于发现具有理想药物性质的分子等任务,其中分子设计中的每一步,都是一个离散的决策过程。

在这个过程中,部分生成的分子图被给出作为学习策略的输入,对在哪里添加新原子以及在分子中的选定位置添加哪个原子做出离散的选择。

通过迭代执行这个过程,该策略可以生成一系列可能的分子结构,根据它们对目标属性的适应性进行评估。

AI智能体学习的策略能预见一些行动,这些行动最初似乎不合常规,但事实证明是有效的。

例如,在数学中,监督模型可以识别数学对象之间的模式和关系,并帮助指导直觉并提出猜想。

这些分析指向了以前未知的模式,甚至是世界的新模型。

然而,强化学习方法可能无法在模型训练期间很好地泛化到看不见的数据,因为一旦智能体找到一系列运行良好的动作,它可能会陷入局部最优。

为了提高泛化,需要一些探索策略来收集更广泛的搜索轨迹,这些轨迹可以帮助智能体在新的和修改的设置中表现得更好。

优化可微分假设空间

科学假设通常采用离散对象的形式,例如物理学中的符号公式或制药和材料科学中的化合物。

尽管组合优化技术在其中一些问题上取得了成功,但可微空间也可以用于优化,因为它适合基于梯度的方法,可以有效地找到局部最优。

为了能够使用基于梯度的优化方法,有两种方法经常被使用。

第一种是使用VAE等模型,将离散的候选假设映射到潜在可变空间中的点。

第二种方法是将离散假设松弛为可在可微分空间中优化的可微分对象。

这种松弛可以采取不同的形式,例如用连续变量替换离散变量,或使用原始约束条件的软版本。

物理学中的符号回归应用使用语法VAE。这些模型使用上下文无关语法将离散符号表达式表示为解析树,并将解析树映射到可微分的潜在空间中。

然后采用贝叶斯优化法优化符号定律的潜在空间,同时确保表达式在语法上有效。

在许多科学学科中,假设空间可能远远大于实验所能考察的范围。

因此,我们迫切需要一种方法,在这些基本未开发的区域中高效搜索并识别高质量的候选解决方案。

AI驱动的实验与模拟通过实验评估科学假设对于科学发现至关重要。

然而,实验室实验的成本可能过于高昂且不切实际。

计算机模拟作为一种有前景的替代方案已经出现,对比实验它具有更高效灵活的优势。

虽然模拟依赖于手工制定的参数和开创式的方法来模拟真实场景,但与物理实验相比,还需要在准确性和速度之间进行权衡,需要理解其中的基本机制。

然而,随着深度学习的出现,通过识别和优化假设以进行高效测试,并赋予计算机模拟联结观察结果与假设的能力,这些挑战正在得到解决。

高效评估科学假设

AI系统提供了实验设计和优化工具,可以增强传统的科学方法,减少所需实验的数量并节省资源。

具体而言,AI系统可以协助实验测试的两个重要步骤:计划和引导。

在传统方法中,这些步骤往往需要反复试验,这可能是低效的、昂贵的,甚至有时可能危及生命。

AI计划提供了一种系统化的方法来设计实验,优化其效率,并探索未知领域。

同时,AI引导将实验过程导向到高产出的假设,使系统能够从先前的观察中学习并调整实验过程。

这些AI方法可以基于模拟和先验知识来进行模型建立,也可以基于纯机器学习算法进行模型构建。

AI系统可以通过优化资源使用和减少不必要的调查来协助实验计划。与假设搜索不同,实验计划涉及到科学实验设计中涉及的程序和步骤。

一个例子是化学合成计划。化学合成计划涉及到找到一系列步骤,通过这些步骤可以将目标化合物从现有化合物合成出来。

AI系统可以设计合成路径以得到所需的化合物,从而减少人工干预的需求。

主动学习也被用于材料发现和合成。主动学习涉及与实验反馈进行迭代交互,以改进假设。材料合成是一个复杂而资源密集型的过程,需要对高维参数空间进行高效的探索。

主动学习利用不确定性估计来探索参数空间,并尽可能少地减少不确定性。

在进行实验过程中,决策常常需要实时调整。然而,当只依靠人类经验和直觉时,这个过程可能难以进行或者容易出错。强化学习提供了一种替代方法,可以持续地对不断变化的环境做出反应,并最大化实验的安全和保证成功率。

例如,在磁控托卡马克等离子体的实验中,强化学习方法通过与托卡马克模拟器进行交互来优化控制过程的策略(如下图)。

在另一项研究中,一个强化学习代理根据实时反馈(如风速和太阳高度)来控制平流层气球,并寻找有利的风流用于导航。

在量子物理学中,实验设计需要根据未来复杂实验的最佳选择进行动态调整,而强化学习方法可以通过迭代地设计实验并从中获得反馈来克服这个问题。

例如,强化学习算法已经被用于优化量子系统的测量和控制,从而提高实验效率和准确性。

利用模拟从假设中推导观测量

计算机模拟是一种强大的工具,可以从假设中推导观测量,实现对那些不直接可测试的假设进行评估。

然而,现有的模拟技术在很大程度上依赖于人类对所研究系统底层机制的理解和知识,这可能使得模拟不够优化和高效。

AI系统可以通过更准确高效地学习来增强计算机模拟,更好地拟合复杂系统的关键参数,解决控制复杂系统的微分方程,并对复杂系统的状态进行建模。

科学家通常通过创建涉及参数化形式的模型来研究复杂系统,这需要专业领域的知识来识别参数的初始符号表达式。

比如,分子力场是可解释的,但在表示各种函数方面能力有限,并且需要强大的归纳偏见或科学知识来生成。

为了提高分子模拟的准确性,已经开发了一种基于AI的神经势能,它适合昂贵但准确的量子力学数据,取代传统的力场。

此外,不确定性量化已被用于在高维自由能面中定位能量障碍,从而提高分子动力学的效率169(下图)。

对于粗粒化分子动力学,AI模型可以通过确定系统需要从学习的隐藏复杂结构中粗粒化的程度,来减少大系统的计算成本。

在量子物理学中,由于其灵活性和准确拟合数据的能力,神经网络已经取代了手动估计的波函数或密度泛函的符号形式。

微分方程对于模拟空间和时间中复杂系统的动态是至关重要的。与数值代数求解器相比,基于AI的神经求解器更加无缝地融合数据和物理。

这些神经求解器通过将神经网络基于领域知识进行建模,将物理与深度学习的灵活性相结合(下图)。

AI方法已被应用于各个领域的微分方程求解,包括计算流体动力学,预测玻璃体系的结构,解决难解化学动力学问题,以及解决Eikonal方程以表征地震波的传播时间。

在动力学建模中,神经常微分方程可以对连续时间进行建模。神经网络可以通过物理信息损失对Navier-Stokes方程的解在时空域中进行参数化。

然而,标准的卷积神经网络对于解的细粒度特征建模能力有限。这个问题可以通过学习用神经网络对函数之间的映射进行建模的运算符来解决。

此外,求解器必须能够适应不同的域和边界条件,这可以通过将神经微分方程与图神经网络相结合来通过图划分实现。

统计建模是一种强大的工具,可以通过对复杂系统中状态的分布进行建模来提供对复杂系统的全面定量描述。

归一化流可以使用一系列可逆神经网络将任何复杂分布映射到先验分布(例如简单的高斯分布),并进行反向映射。

虽然计算成本较高(通常需要数百或数千个神经层),但归一化流提供了精确的密度函数,从而实现了采样和训练。

与传统模拟不同,归一化流可以通过直接从先验分布中进行采样并应用神经网络来生成平衡状态,这样计算成本就是固定的。

这增强了格点场和规范理论中的采样,改进了马尔可夫链蒙特卡洛方法,否则可能由于模态混合而无法收敛。

重大挑战为了利用科学数据,模型必须建立在人类专业知识之上,再利用上模拟来加强模型的表现。

这种整合为科学发现开辟了新的契机。

然而,为了进一步提升AI在科学领域的影响,需要在理论、方法、软件和硬件基础设施方面取得重大进展。

跨学科的合作对于实现通过AI推进科学的全面和实用方法至关重要。

实践考虑

由于测量技术的限制会产生不完整的数据集、有偏差或相互冲突的读数,并且由于隐私和安全问题的限制,导致了的数据可访问性不足,科学数据集通常不太适合用来做AI分析。

需要标准化和透明的格式来减轻数据处理的工作量。

模型卡片和数据表是一些努力的例子,用于记录科学数据集和模型的操作特性。

此外,联邦学习和加密算法可以用于防止将具有高商业价值的敏感数据公开发布到公共领域。

利用开放的科学文献,自然语言处理和知识图谱技术可以促进文献挖掘,有助于材料发现,化学合成和治疗科学的进步。

深度学习的使用对于人类参与的AI驱动设计、发现和评估提出了复杂的挑战。

为了自动化科学工作流程,优化大规模模拟代码和操作仪器,自主机器人控制可以利用预测并在高通量合成和测试线上进行实验,创建自主实验室。

在材料探索中早期应用生成模型表明,可以识别出数百万种,具有期望性能和功能的可能材料,并对其可合成性进行评估。

例如,King等人将逻辑AI和机器人技术结合起来,自主生成关于酵母的功能基因组学假设,并使用实验室自动化来实验性地测试这些假设。

在化学合成中,AI优化候选合成路径,然后机器人根据预测的合成路径引导化学反应。

实施AI系统涉及复杂的软件和硬件工程,需要一系列相互依赖的步骤,从数据筛选和处理到算法实现和用户应用界面设计。

实现中的微小差异可能导致性能上的显著变化,并影响将AI模型整合到科学实践中的成功。

因此,需要考虑数据和模型的标准化。由于模型训练的随机性、模型参数的变化和不断变化的训练数据集,AI方法可能存在可重复性问题,这些问题既与数据相关又与任务相关。

标准化的基准测试和实验设计可以减轻这些问题。改善可重复性的另一个方向是通过发布开放模型、数据集和教育项目的开源倡议。

算法创新

为了对科学理解做出贡献或自主地获取科学理解,需要进行算法创新,建立一个在整个科学过程中使用最优算法的基础生态系统。

超出分布范围的泛化问题是AI研究的前沿。

在特定范围的数据上训练的神经网络可能会发现不适用于不同范围的数据的规律,因为后者的基础分布发生了偏移。

虽然许多科学定律并不是普遍适用的,但一般来说也会具有广泛的适用性。而与最先进的AI相比,人类大脑可以更好、更快地适应修改后的环境。

有一个很有意思的假设是这么说的,人类不仅根据自己观察到的内容建立的统计模型,而且还建立了一个因果模型。

这是一个由所有可能的干预(例如,不同的初始状态、不同的代理的行为或不同的情况)来进行索引的统计模型集合。

将因果性纳入AI仍然是一个尚待研究的领域,还有很多工作要做。

自监督学习等技术在科学问题上具有巨大潜力,因为它们可以利用大量未标记的数据,并将里面包含的知识转移给低数据领域。

然而,目前的迁移学习方案可能是特定情况下的临时解决方案,缺乏理论指导,并且容易受到基础分布的变化的影响。

虽然一些初步尝试已经解决了这一挑战,但还需要进一步探索,以系统地衡量跨领域的可迁移性,并防止负面迁移。

此外,为了解决科学家关心的困难,AI方法的开发和评估必须在现实世界的情况下进行,例如在药物设计中可能实现的合成路径,并在将其转移到实际应用之前包括经过良好校准的不确定性估计来评估模型的可靠性。

科学数据是多模态的,包括图像(例如宇宙学中的黑洞图像)、自然语言(例如科学文献)、时间序列(例如材料的热黄变)、序列(例如生物序列)、图(例如复杂系统)和结构(例如3D蛋白-配体构象)。

AI方法通常作为黑盒操作,意味着用户无法完全理解输出是如何生成的,以及在生成输出时哪些输入是关键的。

黑盒模型可能会降低用户对预测的信任,并且在必须在实现之前理解模型输出的领域中应用有限,例如在人类太空探索中,在预测指导政策的领域中,比如在气候科学中。

尽管有大量的解释技术,透明的深度学习模型仍然难以实现。

然而,人类大脑能够综合高层次的解释,即使不完美,也能说服其他人类。

这提供了希望,通过在类似高层次抽象的现象模拟下,未来的AI模型将提供至少与人类大脑提供的一样有价值的解释和理解。

这也表明,研究高级认知可能会激发未来的深度学习模型,将当前的深度学习能力与操纵可言述抽象、因果推理和超出分布泛化的能力结合起来。

AI对于科学研究事业的影响

展望未来,对AI专业知识的需求将受到两种力量的影响。

首先,一些领域马上就能能从AI应用中受益,比如自主实验室。

其次,智能工具能够提升最先进技术水平,并创造新机会,比如研究在实验中无法观测到的生物、化学或物理过程的长度和时间尺度相关的研究。

基于这两个力量,我们预计研究团队的组成将发生变化,包括AI专家、软件和硬件工程师,以及涉及各级政府、教育机构和公司的新形式合作。

最近最先进的深度学习模型不断增长10,234。这些模型由数百万甚至数十亿个参数组成,并且每年的规模增长了十倍。

训练这些模型涉及通过复杂参数化的数学运算传递数据,参数更新以将模型输出推向所需的值。

然而,计算和数据要求以计算这些更新是巨大的,导致了巨大的能源消耗和高昂的计算成本。

因此,大型科技公司已经大量投资于计算基础设施和云服务,推动了规模和效率的极限。

虽然盈利和非学术组织拥有大规模计算基础设施,但高等教育机构在跨学科整合方面可能更为优势。

此外,学术机构往往拥有独特的历史数据库和测量技术,这些可能在其他地方不存在,但对于AI4Science是必要的。

这些互补的资产促进了新型产学合作模式,这可以影响所选择的研究问题。

随着AI系统逼近并超越人类的性能,将其作为例行实验室工作的替代品变得可行。

这种方法使研究人员能够从实验数据中开发预测模型,并选择实验来改进这些模型,而无需手动执行繁重和重复的任务。

为了支持这种范式转变,教育计划正在涌现,培训科学家在设计、实施和应用实验室自动化和AI在科学研究中。这些计划帮助科学家了解何时使用AI是合适的,并防止对AI分析的错误解释。

结论AI系统可以为科学理解做出贡献,使我们能够研究那些以其他方式无法可视化或探测的过程和对象,并通过从数据中构建模型并结合模拟和可扩展计算,来系统地激发创意。

为了实现这一潜力,必须通过负责任和深思熟虑的技术部署来解决使用AI所带来的安全问题。

在科学研究中负责任地使用AI,科学研究需要确定AI系统的不确定性、误差和效用水平。

这种理解对于准确解释AI输出并确保我们不过分依赖可能存在缺陷的结果至关重要。

随着AI系统不断发展,优先考虑可靠的实施并采取适当的保障措施是最大限度降低风险和最大化收益的关键。

AI有潜力揭示以前无法触及的科学发现。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

《西部世界》真来了!斯坦福爆火「小镇」开源,25个AI智能体恋爱交友

【导读】斯坦福25个AI智能体「小镇」终于开源了,GitHub狂揽3.9k星,《西部世界》即将走进现实。

准备好,此前曾轰动整个AI社区的斯坦福智能体小镇,现在已经正式开源!

项目地址:https://github.com/joonspk-research/generative_agents在这个数字化的「西部世界」沙盒虚拟城镇中,有学校、医院、家庭。25个AI智能体不仅能在这里上班、闲聊、social、交友,甚至还能谈恋爱,而且每个Agent都有自己的个性和背景故事。不过,它们对于自己生活在模拟中,可是毫不知情。

英伟达高级科学家Jim Fan评论道——

斯坦福智能体小镇是2023年最激动人心的AI Agent实验之一。我们常常讨论单个大语言模型的新兴能力,但是现在有了多个AI智能体,情况会更复杂、更引人入胜。一群AI,可以演绎出整个文明的演化进程。

现在,首先受到影响的,或许就是游戏领域。总之,前方有无限的新可能!

网友:众游戏厂商们,你们懂我意思吧?

很多人相信,斯坦福的这篇论文,标志着AGI的开始。

可以想象,各种RPG和模拟类游戏都会用上这种技术。网友们也非常激动,脑洞大开。有想看神奇宝贝的,有想看谋杀探案故事的,还有想看恋爱综艺的……「我已经等不及看AI智能体之间的三角恋剧情了。」

「《动物之森》中重复、沉闷的对话,所有村民共有的一维人格系统,都太令人失望了。任天堂赶快学学吧!」

「可以让《模拟人生》移植一下这个吗?」

如果能在《神界》这样的经典RPG游戏中,看到AI在NPC上运行,整个游戏体验都会被颠覆!」

有人还畅想:这项技术在企业空间中也有很多应用场景,比如员工如何和不同的工作环境/流程变化互动。

当然,也有人表示,你们激动个啥?其实我们一直都生活在这样的模拟中,只不过我们的世界有更多的算力罢了。

是的,如果我们把这个虚拟世界放大到足够多倍,我们肯定能看到自己

Karpathy:AI智能体,就是下一个前沿

此前,前特斯拉总监、OpenAI大牛Karpathy就表示,如今AI智能体才是未来最前沿的方向。OpenAI的团队最近5年把时间花在了别的地方,但现在Karpathy相信,「Agent代表着AI的一种未来。」

「西部世界」中的25个AI智能体

在美剧《西部世界》中,被预设了故事情节的机器人被投放到主题公园,像人类一样行事,然后被重置记忆,在新一天再被投放进自己所在的核心故事情节。

而在今年4月,斯坦福和谷歌的研究者竟然构建出了一个虚拟小镇,让25个AI智能体在其中生存、从事复杂行为,简直堪称是《西部世界》走进现实。

论文地址:https://arxiv.org/pdf/2304.03442.pdf

架构

为了生成智能体,研究者提出了一种全新架构,它扩展了大语言模型,能够使用自然语言存储Agent的经历。随着时间的推移,这些记忆会被合成为更高级别的反射,智能体可以动态检索它们,来规划自己的行为。最终,用户可以使用自然语言和全镇的25个Agent都实现交互。

如上,生成式智能体的架构实现了一个「检索」功能。这一功能将智能体的当前情况作为输入,并返回记忆流的一个子集传递给语言模型。而检索功能有多种可能的实现方式,具体取决于智能体在决定如何行动时考虑的重要因素。生成式智能体架构面临一个核心挑战,就是如何管理大量必须保留的事件和记忆。为了解决这个问题,架构的核心是记忆流(memory stream),即一个记录智能体全部经验的数据库。智能体可以从记忆流中检索相关记忆,这有助于它规划行动,做出正确反应,并且每次行动都会反馈记录到记忆流中,以便递归地改进未来行动。另外,研究还引入了第二种类型的记忆——反思(reflection)。反思是智能体根据最近经历生成的高级抽象思考。

在这项研究中,反思是周期性触发的过程,只有当智能体判断最近一系列事件的重要性评分,累积超过设定阈值时,才会启动反思机制。生成式智能体为了创建合理的规划,它们会自上而下递归生成更多的细节。而这些规划最初只是粗略的描述了当日所要做的事情。

在执行规划的过程中,生成智能体会持续感知周围环境,并将感知到的观察结果存储到记忆流中。通过利用观察结果作为提示,让语言模型决定智能体下一步行动:继续执行当前规划,还是做出其他反应。在实验评估中,研究人员对这一框架进行了控制评估,以及端到端的评估。控制评估是为了了解智能体能否独立产生可信个体行为。而端到端评估,是为了了解智能体的涌现能力以及稳定性。比如,Isabella策划一个情人节party邀请大家来。12个智能体中,7个人还在考虑中(3个人有了别的计划,还有4个人没有想法)。这一环节与人类相处模式很相似。

像真人一样交互

在这个名为Smallville的沙盒世界小镇中,区域会被标记。根节点描述整个世界,子节点描述区域(房屋、咖啡馆、商店),叶节点描述对象(桌子、书架)。智能体会记住一个子图,这个子图反映了他们所看到的世界的各个部分。研究者编写了一段自然语言,来描述每个智能体的身份,包括它们的职业、与其他智能体的关系,作为种子记忆。比如,智能体John Lin的种子记忆就是这样的——

John Lin是一名药店店主,十分乐于助人,一直在寻找使客户更容易获得药物的方法。John Lin的妻子Mei Lin是大学教授,儿子Eddy Lin正在学习音乐理论,他们住在一起,John Lin非常爱他的家人。John Lin认识隔壁的老夫妇Sam Moore和Jennifer Moore几年了,John Lin觉得Sam Moore是一个善良的人。John Lin和他的邻居山本百合子很熟。John Lin知道他的邻居TamaraTaylor和Carmen Ortiz,但从未见过他们。John Lin和Tom Moreno是药店同事,也是朋友,喜欢一起讨论地方政治等等。

以下就是John Lin度过的一天早晨:6点醒来,开始刷牙、洗澡、吃早餐,在出门工作前,他会见一见自己的妻子Mei和儿子Eddy。

就这样,当模拟开始时,每个智能体都有属于自己的种子记忆。这些智能体相互之间会发生社会行为。当他们注意到彼此时,可能会进行对话。随着时间推移,这些智能体会形成新的关系,并且会记住自己与其他智能体的互动。一个有趣的故事是,在模拟开始时,一个智能体的初始化设定是自己需要组织一个情人节派对。随后发生的一系列事情,都可能存在失败点,智能体可能不会继续坚持这个意图,或者会忘记告诉他人,甚至可能忘了出现。幸运的是,在模拟中,情人节派对真实地发生了,许多智能体聚在了一起发生了有趣的互动。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

硅潮访谈录|百度CIO李莹:AI原生思维重构办公场景

6月底的一天,顶着北京的高温,我们在位于上地十街的百度大厦拜访了百度CIO李莹女士。

大语言模型的出现对全球所有科技大厂来说都是一道分水岭,前瞻布局的微软重新站在了硅谷之巅,十年磨剑的百度也成为万众瞩目的对象,甚至我们在海淀的咖啡馆里遇到挂着百度工牌的程序员,都要忍不住多瞄两眼。

百度的确有很强的先发优势。从算力层的AI芯片昆仑芯,到框架层的PaddlePaddle(飞桨),到模型层的文心大模型,再到应用层面的搜索、文库、协同办公软件等,百度在AI链条上的每一个环节都有布局,“全栈”的优势明显。

深耕AI十年,此刻又站在新一轮科技革命的前夜,百度如何快速拥抱变化?大模型又从哪些方面改变了百度做产品的理念?以及在大模型最先影响的办公场景中,催生了哪些新的变局?带着这些问题,我们拜访了百度CIO李莹女士。

李莹博士2004年正式加入百度,曾先后带领过百度自然语言处理、推荐与个性化、知识图谱、AI技术生态、百度地图等多个核心业务。她现任百度集团副总裁、百度集团首席信息官(CIO),全面负责企业智能信息系统建设。

在访谈中,李莹的观点非常鲜明:生成式AI革命带来的不仅仅是一种可以嵌入到产品里的技术元素,更是一种新的基于AI原生的思维方式。

李莹通俗地用“Native Language(原生语言)”做了类比:母语就是原生语言的代表,我们一切思维的起点都是通过母语逻辑进行思考,表达自然而然发生;同样,AI原生思维需要回到问题的的起点,用AI的视角来思考、用AI的框架来分析,用AI的方式来解决。

比如通常我们预定一次出差行程,需要跟5~10个不同的软件接口打交道,涉及到日程、交通、酒店、资料等。在过去几十年的办公信息化场景下,人们习惯了在不同的应用之间来回切换,传统的软件思维,是我如何来改善这些接口的调用方式和处理效率。

而在AI原生思维的框架下,需要回到“如何帮助用户安排出差的一切”这个原始出发点来思考问题,比如是否能够让用户只需要对接一个助理式的入口,这个“助理”可以自然地跟用户交互,处理一切流程,而用户不需要关心这背后有多少系统能力甚至接口数量。

起点一旦发生了变化,产品设计、交互方式、流程设计、系统构建,直至底层的研发范式都会被重塑。就好比一个人更换了一种原生语言,不光口头的表达要切换成另一种语言,大脑中的思维方式也要按照新语言的语法和范式来进行组织。

用思维来驱动表达,而并非仅仅在表达层面进行改善。如果仅仅用传统思维来考虑“AI赋能”、“效率提升”这些课题,容易抓不住核心矛盾。

但难点往往也在于思维模式的转变。大语言模型如同加速器,一下打破了大家原有的状态,但惯性使然,并非所有人的状态都能快速切换。李莹也看到了这点,她在带领团队不断锤炼“AI原生思维”的同时,也在快速推动产品重构,加快办公场景的生产力提升。

作为一名“技术浓度”极高的管理者,李莹在谈及生产力变革的话题时直言不讳:这个时代如果你不会使用AI工具,很大可能会被淘汰。尤其在她眼里,高知识密度的协同办公场景天然追求效率,与大语言模型的相遇,带来的一定是场一拍即合的效率革命。

由于“近水楼台”,百度内部能够率先用上大模型的能力。比如百度旗下的智能工作平台「如流」,在百度内部已经全面搭载了文心一言——在工作人员的演示中,如流将“超级助手”作为AI能力的入口,随时可以被唤起,能够智能地帮助用户完成大量工作。

现场演示时,在“超级助手”的聊天界面中简单输入“下周我要请假五天”这么一句话,超级助手能够调用来自不同模块甚至平台的能力,不但能够自动生成请假申请界面、显示各类假期的余额,还能直接跟其他的同事协调已经计划好的会议等,俨然一个真实的助理。

令人印象深刻的还有:在我们访谈期间,百度的智能会议系统一边在做会议纪要,一边用“会议洞察”能力划分不同议题,总结出议题、观点、核心发言等重要信息。当访谈结束的时候,一份成熟的会议纪要便发给了参会的所有人。

我们在观看演示时的一种强烈感受是: 如流的“超级助手”并不是简单地“接入”百度的大模型,在UI界面上添置一个对话框,而是回到产品设计的出发点,洞察办公场景下用户的根本需求,用AI的方式去“端到端”解决问题。

在李莹看来,用AI原生思维来重构办公场景的工作才刚刚开始。办公场景如今是大模型应用层竞争最激烈的“八角笼”,对手从四面八方涌来,里面既有老牌的传统办公软件,也有用户需求敏感的协同办公玩家,还有瞄准崭新场景的AI创业公司。

在大模型浪潮的推力之下,办公场景一定会出现新的打法、新的产品、新的生态甚至新的格局。机会已经出现在远方的地平线上,只有产品力、模型力、执行力都完备的公司,才能真正的屹立潮头,笑到最后。

以下,是硅基研习社与百度CIO李莹女士的对话正文。

AI原生思维重构办公场景

硅基研习社:在办公和企业内部信息化领域,您提到过“AI原生思维”的概念,具体怎么理解?

李莹:我们可以先用一个概念来理解原生,就是Native Language(原生语言)。原生语言代表你的母语,你所有思维的起点都是通过母语的逻辑来思考的,你不会在张口说话之前还要考虑中文怎么说,这是对原生的解释。

什么叫AI原生?首先要定义解决的问题是什么,然后用AI的方式彻底解决它。反过来说,可能有些产品在AI之上做的是接入、整合或者赋能,在局部接入了一个AI的能力,例如增加一个改写或者提示等,这只是在产品层面做了AI的赋能。

如果要用AI解决根本问题,需要了解的其实是,员工为什么要在这写文档?为什么需要有一些资料的提示?分析根本需求后,用AI端到端去解决,这个逻辑会改变用户和需求之间的关系,这是一个大的逻辑,这种才是颠覆,才是全面的重塑。对产品而言,意味着从交互到流程,再到整个系统,都要为之改变,乃至实现系统过程对应的研发范式也会改变。

到最后,大家可能不会再提“AI原生”这个词,现在提是因为还在想“是什么”。一旦它成为我们的一个原生思维逻辑,比如交互上大家默认想到的就是用自然语言交互的方式优先,对应的设计、产品、系统、研发都会改变。

硅基研习社:百度在做一些产品开发时,AI原生思维对你们意味着什么?

李莹:业界有一种说法,大模型时代来了,每个产品都值得重做一遍,但是谁能真正重做一遍?百度CEO李彦宏说过,百度要做第一家公司,不是整合,不是接入,是重做、重构。

同时他也强调,一定要去做AI原生的应用,有多少大模型不关键,最关键的是有多少个AI原生的应用。应用层的突破,才能真正在这个领域获得巨大价值。

硅基研习社:前面提到从生产到研发,用AI思维重新组织程序怎么编写,模块怎么构建,甚至整个项目怎么开发推进,我们知道OpenAI的程序员可能本身就用GPT写代码,百度现在是不是也在内部做生产力的变革?

李莹:百度去年9月份就已经基于大模型做了代码生成工具Comate,现在又基于“文心一言”升级了更多丰富和高级的能力。我一直也在跟团队强调,要充分利用AI工具,要通过人机协同,在我们的研发过程中,帮助工程师去大幅提升编码效率。我们也会观察推荐的代码有多少会被员工采纳。

近期,Comate又上线了单元测试生成、代码注释、测试用例生成等新能力,这些新能力意味着整个研发过程中,有更多的工作都可以用大模型去支持。在软件研发领域,Comate的产品能力达到了国内领先水平。

虽然这一步已经对现在的生产力起到了很大的提升,但这其实也还不够。我们再往后看,未来研发的工作都会基于MaaS(model as a service),研发过程也会变成以数据驱动的,并且是面向大模型友好的,整个研发过程和方式都会进行重塑。

比如,原来的研发过程主要管理代码,但现在需要管理模型,因为有不同版本的模型;也需要管理模型相关的数据,比如预训练数据、精调数据,数据管理会变成研发管理里面像代码一样重要的东西。随之而来也包括Prompt怎么管理?这些都是我们研发过程中需要考虑的。

硅基研习社:是不是对于每一个百度员工来说,有了一个新的工具,对于他们的技能考核,或者未来的能力模型都会发生很大的变化?

李莹:我认为是的。针对办公领域,在交互模式、需求满足方式、工作流程这些维度一定都会变化。

对企业而言会带来很重要的三个维度的改变:一是产品设计逻辑和产品架构会被重塑;二是业务模式和流程会被重塑;三是组织和人才结构一定会有变化,配套的组织能力、人才要求、评价机制等等也会发生变化。当然这是一个过程,但我认为一定会走到那一步。

一场一拍即合的效率革命

硅基研习社:大模型火爆以后,办公领域是被提及最多的重塑场景之一,您怎么看待大模型对办公领域的影响?

李莹:在协同办公领域,大模型能够在这个领域率先产生更彻底、更深入的变化。为什么这么说?人工智能带来了第四次科技革命,其中一个最重要的驱动因素就是AI大模型,这也是业界共识。科技革命意味着整个生产力会颠覆性的提升,这个提升是全方位的,社会、生产、生活都会受到影响。

那为什么会在协同办公领域首先产生价值?第一,生产力变革带来效率提升,而整个协同办公领域追求的目标,就是极致的效率,这一点跟生产力变革完全吻合。

第二,在知识经济时代,一切都已经是信息化的,知识工作者的工作效率需要被赋能,企业也都希望企业的知识不流失,员工可以更快的成长,而大模型刚好是对世界认知的压缩,我们看到最早被赋能的是图像和写作,也正是因为这些技能是知识型的,因此知识工作者会最先被大模型技术赋能。

所以总结起来有两点:一是效率目标和办公领域要实现的目标是完全一致的;二是现在知识工作者贯穿在所有行业中,大模型对知识类工作又是非常擅长的。在这种情况下,不管是企业还是员工,都能首先感知到对他们带来的影响。

所以我认为,大模型在办公领域一定会最先产生彻底深入的变化,行业会存在一次重新洗牌的机会。技术从量变到质变,对大家来说都是一次机遇,谁能够有更好的能力积累、更快的转变、跑出更好的产品,谁就能先抓住这次机遇。

硅基研习社:大型互联网巨头很多都会把内部的效率工具转为对外的产品,每家产品都代表着自己的组织文化或者一种管理方式,甚至一种价值观在里面。在AI时代,是不是百度也有可能用我们AI的能力把这个工具做得比他们更加超前或者更加好用?

李莹:百度最早做搜索,AI技术也都是从搜索和推荐的产品上最早发展起来的,我们对知识和信息的理解是很深刻的,也有很好的内容生态。我们在2020年把百度Hi转型成如流,百度Hi作为内部IM工具已经积累了十多年,转型如流的目标,就是要把百度AI和知识管理的能力在企业方面做好,把百度做成最佳实践,同时赋能给更多企业。

现在这个阶段,我们在新的AI大模型能力应用上,也特别希望更多的企业都能用上。我们不是简单地把AI能力叠加上来,做产品的赋能,而是要设计一套完整的框架,能够让企业插上AI大模型的翅膀。

硅基研习社:您刚才也讲了,协同办公行业可能未来会重新洗牌,那内部对协同办公商业机会的判断是什么级别?这个行业本身在中国,以前经常说前有微软,后有盗版,整个市场相对来说也不是那么大。但是一旦我们用了智能助手(大语言模型能力接入后的在线功能),如果能够用的话,一定是在线的,一定是进入到我们企业云端的,付费模式跟以前License完全不一样,这个市场机会是不是会很大?

李莹:我认为,在办公这个领域有了这些新能力会有新机会,在中国的市场上会有大的增量。新机会下,服务和收费的方式一定会转到哪一种?还需要进一步探索和验证。但最重要的是让企业看到价值,愿意买单。当有新的技术内核赋能之后,市场会进一步打开,大家对于它的期待和需求会增高,在这里面会做出更多创新的东西。

譬如,大家感受最强的在线会议,以百度为例,从百度从大厦到百度科技园,原来开会必须是班车,来回平均一个人开会节省15分钟,进一步的,在线会议能够基于大模型主动识别并记录会议主题、生成会议记录和待办,这种提效大家明显感受得到,也可以衡量出节约的时间和成本。只要认价值,就有人买单,原来办公市场不好做的是大家很难看清楚它的价值。

硅基研习社:协同办公,包括传统办公这个领域这么多年发展下来,国内有些人用互联网的方式来做,有些人用传统的方式来做,这次是不是大家都在一个起跑线上?

李莹:我认为不完全是。这确实是一次变革的机会,但大家对于技术拥抱的程度、对于技术理解的程度、对于技术积累的深度不同会形成新的差距。比如是否知道大模型的边界是什么,大模型最核心的要素是什么,怎么理解它对整个行业的价值。说到根本,还是我们对这个事情的认知有多深,积累有多深,以及有多快地拥抱这种变化,在这次变革中是很重要的。

硅基研习社:而且执行力也是很重要的一个因素,包括产品和落地的能力。

莹:是的。

硅基研习社:如流整个团队,您觉得应该怎么样描绘他们的使命愿景?

李莹:我们的愿景是打造基于AI和知识管理的创新流水线,驱动企业提效创新,增强企业核心竞争力。核心的目标,就是我们要为企业做到效率的极致。因此,我们围绕着现有的事情,洞察根本需求,用AI的方式端到端解决工作场景的问题。

其实我们的团队从成立那天起,我就和大家说我们是以使命驱动的,百度相信用技术让复杂的世界变得更简单。在新的时代机遇下,我们要用先进的思想和工具提效创新。整个团队都非常鼓励创新氛围,跟踪前沿,不断突破,并脚踏实地往前走。

打造无处不在的超级助手

硅基研习社:如流产品端会怎么变化?例如以后可能从GUI变成LUI,很多按钮可能就会消失了,目前已经有这些改变了吗?

李莹:我们在今年4月份就在百度内,面向全员发布了基于文心一言的很多如流的全新功能,比如文档内容生成,以及超级助手、IM消息智能总结、智能会议洞察、小K研发助手等等,大家都明显感受到了这些产品带来的提效变化。在大公司中,用AI原生去重构工作平台,我们应该是第一家推出给全员使用的。

我们的智能工作平台分成三个板块:一是通用办公,包括超级助手、IM、会议、知识库等;二是经营管理场景,包括HR、财务、市场等经营管理系统;三是研发。

硅基研习社:为什么是这三个模块?在办公场景中,百度致力于解决什么样的核心问题?

李莹:首要考虑是为了提升员工的效率,一定要找到员工最花时间的事情,从这些事情入手才最有价值。

当时我们讨论出来的第一个场景就是代码,因为百度非常重技术,研发工程师占比很高,大家主要时间都在写代码。第二个场景是各类Paper work,实际上大家除了写代码,就是写文档、写周报等等,而且Paper work是大家最早认知到是大模型最擅长处理的。第三个就是沟通场景,包括开会和即时沟通。

这三大场景是我们最先选中的场景。延伸出来第四个场景是我们的工作流、任务流,因为每天大家都要在各个系统间做各种操作,比如要到ERP里操作人员的入离升降调,去差旅系统上提单,所有的工作都是在各个不同的任务系统上操作的,每天也会花费大量的时间。所以我们是从这四个大的场景入手,去考虑怎么提升效率。

我们添加的能力都是基于以上切入点,比如Comate智能编码,可以进行代码续写,结合NL2code的能力,可以做代码的注释、单元测试、生成测试用例等等。Paper work工作则集成在如流知识库里,包括文档的洞察、写作,这是一大类。

沟通层面我们做了会议场景和IM场景,有会议的AI洞察、要点标记、AI会议纪要等,AI洞察会分章节,不同的段落会分出不同的议题,后入会的人也可以直接看到前面讨论的内容和要点。

还有IM智能转发、未读消息智能总结,例如入群以后有很多未读消息,这时就会自动生成简明扼要的摘要总结,我们就可以看一下这段未读到底在说什么,大家觉得非常有价值,它可以快速让你获取到信息。当初IM智能转发功能刚一上线,我们就收获了公司内的一大片好评。

这里面最核心的是,我们要打造一个人人都拥有的超级助手。让员工在编码、沟通、知识阅读与创作和各工作流等不同场景中,都可以随时随处唤起,时刻陪伴左右。超级助手以自然语言交互为主,『端到端』地极致满足用户需求,小到一个知识点,大到复杂的流程审批,都能直接满足。

比如,过去要在对话或会议模块发起会邀日历,而使用超级助手,直接用自然语言发出需求,就能直接完成会邀创建。再比如,过去找文档,如果用户忘记文档的标题名称,往往需要在会议记录,或者群聊消息中,进行多步翻找操作才能找到文档,现在只要向超级助手描述需求,就可以直接获得目标文档。

这必然会颠覆用户和系统之间交互方式,用户只需要给出自然语言,至于如何理解需求、如何整合系统、生成答复,这些都交给超级助手去完成,也可以说,很多冗长的过程都被AI大模型能力给『折叠』了。

硅基研习社:超级助手产品设计的思路和背后逻辑是什么?

莹:我们的目标是想打造一个人人拥有的超级助手,它具备三个特点:一是懂你;二是知识丰富,能读会写;三是实时陪伴,有手有脚,能够帮你去执行任务。

这个目标有几层逻辑,“懂你”代表了解企业和员工,比如能够了解某个员工,是哪个部门、负责什么业务,还可以知道你当下的状态,是在开会还是忙其它事情。在此基础之上,它具有丰富的专业知识,帮你读、写,并且能够帮助你去完成很多系统内的工作任务。

超级助手是无处不在的,首先有一个主端,让人有形象化的认知,可以直接被找到。同时这个无处不在还在于,在系统中的具体场景下,也可以随时找到它。

在这个过程中,我们重塑了两个流程:一是员工工作流程,现在传统办公要在很多系统、应用间来回切换,但拥有超级助手,就可以在一个入口,通过自然语言交互的方式,获取不同系统的功能。

比如,如果我下周三到周五要到上海出差,通过跟助手的交互,助手可以帮我把日程设好、完成差旅航班和酒店的推荐和预订,甚至可以生成出差需要的客户谈判资料,等等。这重塑了我们原来处理这些工作的流程,员工只需要在这个入口操作,不需要关心背后的系统是什么,这就是一种AI原生的思维,是一种对人更友好和自然的方式。

二是重塑了IT系统的实现流程。传统的IT系统每个系统都要做得非常重。但是当通过统一入口去交互,同时背后的每一个系统的能力被原子化、插件化,比如差旅系统的预订能力、日程设置能力都成为大模型系统插件,被超级助手调用,将系统改造成是对模型友好的,重塑系统实现流程。

硅基研习社:也就是说,不是先有系统,而是把系统都打散了,用模型调用系统,有各种能力,模型对接能力就行了?

李莹对。这样的话,对于员工来讲是非常友好的,一个入口就可以完成各种工作任务。对于系统来讲,要做的就是怎么让模型能够理解系统具备的各种能力,这是非常重要的。

硅基研习社:产品模块上线花了几个月时间?

李莹:刚才给你展示的这些功能,很多都是随着文心一言的发布,四月份以后陆陆续续上线的,并且都已经全员使用,前后差不多三四个月的时间,我们研发周期还是很快的。

但实际上还有一些基于大模型的产品从去年就开始上线使用了,比如刚才提到的Comate,今年主要是基于新一代的AI大模型去拓展更强的能力,我们的产品之所以迭代的快,也是得益于我们能力的积累。

硅基研习社:在您看来,之前协同办公软件中工作台里面各种小模块化的功能,是不是在百度的规划里面,未来这些会全部重新被打乱?围绕这个超级助手进行重构?

李莹:不可能所有的工作习惯一下子全部重来,这个肯定不现实。不过要往这个方面演进,系统要基于新的调用方式逐步改造。

硅基研习社:看到去年的公开报道,包括近几年您也一直在强调用AI进行“知识管理”这个理念,而且知识管理还要做拆解、分发、组装的动作,现在更多是对知识的理解和生成。当大语言模型来了,知识管理还重要吗?为什么?

李莹:我们认为技术可以给知识管理带来颠覆性的改变,知识在企业里最重要的就是要沉淀好、要在员工中流动和应用起来。但是实际上知识管理很难做,因为人走了,知识就流失了,而且它的价值很难被量化衡量。

关于创新流水线的概念,去年我们讲要用大模型+知识图谱的能力,使得知识被拆解、分发、组装。大模型可以学习异构知识,并通过搜索和推荐的能力去分发,同时在创新工作中生产的知识会进一步沉淀回系统。

在这么一个逻辑之下,知识可以不断地循环流动起来。我们的员工可以站在“巨人的肩膀上”做创造性的工作。但是,组装,也就是形成真正你需要的知识单元,是很难的。但是现在大模型技术的突破,就刚好解决了这个问题。

现在,我们换了“文心一言”最新的大模型引擎之后,把拆解、分发、组装升级成了理解、生成、执行。并且,现在的知识已经不仅仅是文本知识,还包括了工作中的流程和任务,加入了执行后,这套流水线不仅帮助员工更加快速地获取知识,同时能够帮助员工完成工作流程中的任务。AI×知识管理,演化出这样一个超级助手,会帮助员工非常快速地在创新流水线中循环和反馈,更加高效地帮助员工提升效率。

硅基研习社:您刚才提到的这些知识,是企业独有的知识,还是说都是文心一言的知识?

李莹:都有,有通用知识,也有企业知识。就像我刚才提到的,我们基于文心一言的底座大模型,将企业的知识和工作流全面整合,这样才能让企业知识的管理产生倍增的收益。

我们理想的目标希望可以更加个性化的,比如说个人风格,给戴老板推荐的智能总结或者创意文案就是带有戴老板写作风格的内容,那个才是真正的『人人』都拥有的超级助手。

硅基研习社:所以是不是未来企业的知识管理都会因为AI大模型发生很大的变化?你认为会带来什么新的改变?

李莹: 肯定会发生改变。

我们提出 “创新流水线=AI×知识管理”的根本原因就是基于大语言模型的技术发展。传统知识管理以IT+咨询为主,一直没有取得很好的应用进展,我们也跟这样的一些企业讨论过,大家理念差异还是很大,实践和价值衡量的难度也非常大。而大模型最重要的就是对世界知识的压缩,实现智能涌现,具有鲜明的“以知识为核心”的特征。

所以,在知识经济的时代背景下,几乎人人都是知识工作者,所以知识管理不仅会成为首先被变革的方向,更会在企业中变得更加重要,最先能够感受到这波浪潮的甚至颠覆工作方式的也一定是知识型企业和知识工作者。

随着大模型能力的不断升级,会进一步加快变革的进程,能够让知识在企业里能够有效沉淀、快速流动,最终提升企业员工的工作效率和创新效率。

硅基研习社:下一步我们这些产品有哪些重大的想要往前做的方向?未来是否企业办公软件和系统可能都要被重新做一遍?

李莹:要做深做透我前面讲的这些工作,甚至未来把更多的新能力做进去,把系统的壁垒打破,让超级助手具备除了读和写,还能有更发达的“手”和“脚”的能力,这已经是一项非常大且极具想象力的工程。

它意味着『端到端』的重构产品交互模式、用户与需求之间的满足方式,乃至工作流程的全方位变革。它也必将为企业的IT系统建设创造更多空间,当整个工具技术框架做好,各个系统都可以在里面去建设自己的能力,这就是AI原生应用将会对整个产业带来的深刻影响。

协同办公类软件和系统都值得被重做一遍。一方面,新的技术带来了新的市场需求和预期;另一方面,在技术发展、市场需求提升的情况下,企业需要建立新的竞争优势和壁垒,竞争格局也会重构。对于产业和用户来说,这些新机会新变化都应该被积极拥抱。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

生成式人工智能在农业中的应用

随着人工智能技术的不断发展,生成式AI已经成为各个行业随着人工智能技术的不断发展,生成式AI已经成为各个行业所追求的热点之一。在中国,随着企业对生成式AI的需求不断增长,市场空间也在进一步抬高。中国生成式AI行业的发展趋势也非常明显。首先,企业对生成式AI的需求将会继续增长。随着市场竞争的加剧,企业需要利用生成式AI技术来实现差异化竞争。其次,生成式AI技术的应用场景将会越来越广泛。未来,生成式AI技术将应用于更多的行业和领域,为各个行业的发展带来新的机遇。

由于生成式人工智能(AI)可能提供的有价值的观点和提高的生产力,农业行业具有巨大的变革潜力。生成式人工智能有潜力通过利用复杂的算法和检查海量信息来彻底改变农业的许多方面。

以下是一些生成式人工智能在农业中的应用领域:

农作物优化和预测:生成式模型可以分析大量的农业数据,包括土壤、气候、作物生长情况等,从而预测最佳的种植时间、施肥量和灌溉方案。这有助于最大程度地提高农作物产量,减少浪费,并节约资源。

病虫害识别和管理:生成式人工智能可以训练出对不同病虫害的识别模型,通过监测作物图像,及时发现并预测潜在的病害风险。这有助于农民及时采取措施,减少病虫害对产量的影响,同时也减少了农药的使用。

精准农业:生成式模型可以结合传感器数据、卫星图像等信息,实现精准的农业管理。这包括根据土壤质量和植物状态调整灌溉和施肥策略,以减少资源浪费并提高作物品质。

气候适应性:生成式人工智能可以帮助农民预测气候变化对农作物产量和品质的影响,从而调整作物种植选择,以适应不断变化的气候条件。

农产品质量检测:生成式模型可以分析图像、声音和其他传感器数据,用于检测农产品的质量和成熟度。这有助于确保农产品符合标准,提高市场竞争力。

农业机器人和自动化:生成式人工智能可以用于开发智能农业机器人,这些机器人可以自动执行种植、收获、除草等任务,从而减轻人工劳动压力,提高生产效率。

市场预测和供应链管理:生成式模型可以分析市场趋势和消费者需求,帮助农民和农业企业预测市场需求,优化产销匹配,减少食物浪费。

作物育种和基因进步:通过加速基因进步,生成式人工智能有可能彻底改变作物育种。

通用人工智能(AI)算法可以通过研究植物遗传学和特征的大型数据库来复制虚拟育种试验。人工智能算法预测各种育种策略的结果,帮助育种者快速找到获胜配对。

需要注意的是,生成式人工智能在农业领域的应用还需要克服一些挑战,如数据收集和隐私保护、算法的可解释性、技术的普及等。然而,随着技术的不断发展和成熟,生成式人工智能有望为农业带来更多创新和改进。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI专业术语及释义:让你快速掌握人工智能的基础知识!

自今年初AI开始风靡以来已经过去了大半年的时间。

对于大众而言,在网络各个领域都可能会看到与AI相关的术语,但我们可能无法具体而直观地理解其含义。

为了方便大家理解与学习,以下整理了一份包含专业术语及其释义的材料。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

应对AI诈骗要靠什么?

“想成功,先发疯,不顾一切向钱冲;拼一次,富三代,拼命才能不失败!”
这是正在热映的反诈骗电影《孤注一掷》中,诈骗团伙每天“诈”前动员的口号。
从电影回到现实。数据显示,2022年,全国公安机关破获电信网络诈骗犯罪案件46.4万起,缉捕电信网络诈骗犯罪集团头目和骨干351名,成效显著。
电信诈骗日益猖獗的背后,是诈骗手段逐渐向智能化、组织化、集团化发展的缩影。今年以来,多起利用AI(人工智能)技术实施的诈骗引发大众关注。据公安部日前召开的新闻发布会透露,依托“净网”专项行动,公安机关已破获“AI换脸”诈骗案件79起,抓获犯罪嫌疑人515名。
不难发现,越来越多的不法分子试图搭上AI发展的“技术快车”,威胁着人民的“钱袋子”。

AI诈骗是啥?简单来说,它是利用人工智能技术实施诈骗的新型诈骗手段。虽然听起来不可捉摸,但大体表现为以下几种形式。
形式一:声音克隆。不法分子通过拨打骚扰电话来提取对方的声音,接着对音频素材进行处理,然后用伪造的声音实施诈骗;还有一种方式,则是不法分子在盗取微信、QQ号之后,使用特殊的语音插件,转发之前的语音,从而获取信任。
形式二:AI换脸。和声音合成相比,这种形式更具有欺骗性。不法分子根据收集来的照片和视频生成与目标对象相似的面容,然后给受害人拨打视频电话,以假乱真。
其实,利用AI技术进行音视频合成对大众来说并不陌生。早在前几年,网络上就已经出现了换脸软件。许多不法分子利用AI换脸技术伪造明星的淫秽视频,在网络上传播并获利。由于换声、换脸的技术门槛逐渐变低,越来越多的不法分子对AI技术动起了歪心思。
形式三:定制专属脚本。有人说:“骗子最擅长的,往往不是设计精巧到无懈可击的陷阱,而是充分利用人性的弱点。”不法分子在实施诈骗之前,会通过AI技术搜集各类信息,并根据要实施的骗术对人群进行筛选、分类。
找到目标对象之后,诈骗团队会快速生成诈骗脚本,实施“一对一”精准诈骗。比如,在“杀猪盘”婚恋陷阱中,不法分子就充分利用受害人渴望爱情、缺乏安全感的心理,每天嘘寒问暖、输出浪漫情话,让受害者在甜言蜜语中逐渐卸下防备,从而骗取钱财。
总而言之,AI诈骗的花招越来越多,而反诈骗的难度也越来越大

AI诈骗为何变得这么厉害?
AI诈骗是在人工智能生成内容(AI-Generated Content)和深度伪造(Deepfake)技术发展的背景下产生的。毫无疑问,技术的发展为AI诈骗提供了更多的可能。
从普及范围看,AI技术正在走向大众化。如今,AI技术逐渐普及,正成为一场“全民狂欢”。在手机应用市场,以“AI”作为关键词进行搜索,ChatAi、FacePlay等多款运用AI技术的APP映入眼帘;在B站上,用户只要搜索关键词就能获得大量的开源代码和教学视频;在“AI换脸”小程序上,只需要选择心仪的视频模板,再上传一张自己的正脸照片,就可以实现一秒“换头”。
“杨幂版黄蓉”就是一个很好的例子。早在2019年,就有人利用AI技术把1994版《射雕英雄传》里朱茵饰演的黄蓉换成了杨幂的脸。有网友评价:“杨幂版的黄蓉灵动可爱、毫无违和感,一点也不输给原版角色。”
从技术水准看,AI技术不断更新迭代。随着声音、图像处理技术和人工智能算法的不断升级,利用AI技术合成的音视频质量也得到大幅度提升。如今,AI合成语音不仅可以模仿受害人的语调,甚至还能模仿其口音特征。愈发接近“真实”的AI换脸在诈骗中以假乱真,令人傻傻分不清楚,增加了反诈骗的难度。
从应用情况看,AI技术滥用充斥着网络。在电商直播间,众多“迪丽热巴”“刘亦菲”大喊着“321,上链接!”。AI换脸已经形成了灰色产业链,AI代包服务充斥着市场,“只要钱到位,你想换成谁就换成谁”。
当下,AI技术快速普及,不法分子也无孔不入,纷纷为电信诈骗披上AI“马甲”。这类型诈骗主要是利用受害者的社会关系展开,往往充分掌握了受害者个人的身份信息以及与被换脸对象的社会关系,综合作案。比如,不法分子利用熟人关系、领导下属关系等,拿捏了受害人“不好意思拒绝”的心理实施诈骗,令人防不胜防。
此外,因为缺乏判断力、与社会接触较少,老年人等特殊群体也往往成为不法分子的重点“关照对象”。在去年的热播剧《猎罪图鉴》中,就曾出现犯罪分子利用AI换脸技术,伪装成空巢老人的儿子实施诈骗,最终导致两位老人跳海自杀的剧情。

由于AI诈骗具有链条化、平台化、高成本等特征,目前尚未形成爆发态势。但AI诈骗案件已频频出现,风险正快速积聚,对公民的信息和财产安全造成严重威胁。
面对来势汹汹的AI诈骗,该怎么办?
完善制度,划出AI技术应用的“边界”。近两年,我国出台了《网络音视频信息服务管理规定》《互联网信息服务深度合成管理规定》,对AI诈骗起到了一定的约束作用;8月8日,国家互联网信息办公室公布《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,旨在提升人脸识别技术的规范应用与合规水平。而国家网信办已审议通过的《生成式人工智能服务管理暂行办法》,也将于8月15日起开始施行。由此看来,我国在相关领域的规定正在逐步完善。只有让监管跟上技术发展的“脚步”,AI技术才能沿着法治的轨道行稳致远。
升级技术,用“善AI”对抗“恶AI”。公安机关和网信部门除了要做好信息安全知识的普及工作,加强隐私保护教育,指导公众下载“国家反诈中心”APP之外,还要加强AI诈骗的反制技术研究,与不法分子在AI技术应用的赛场上“赛跑”。比如,可将AI技术应用于诈骗预警、嫌疑人识别等环节中,“用魔法打败魔法”。
保护隐私,铲除AI诈骗滋生的“土壤”。隐私数据是AI诈骗的源头。个人要加强信息保护意识,不随意点击陌生链接、下载陌生软件;不在社交平台上过度分享图片、视频;在使用AI技术进行工作、娱乐时,要谨慎对待,做自己隐私保护的第一责任人。
做“细节控”,擦亮防诈识骗的慧眼。除了要保护好个人的隐私数据,大家在进行语音、视频通话时,更要擦亮慧眼。虽然AI诈骗生成的音视频已经相当逼真,但仍会存在一些细节上的瑕疵。
比如,有些合成的人像瞳孔呆滞、眉毛僵硬、身体比例不协调等,可通过这些细节来核验对方身份,用肉眼识破“科技脸”。同时,不能抱侥幸心理,“永远不要觉得自己不会被骗,只是适合你的剧本还没有出现。”
打击诈骗违法犯罪,任重而道远。和其他诈骗形式相比,AI诈骗预防和侦破的难度都更大,尤其需要在常态化和长效化上下功夫。归根结底,不管AI诈骗如何改头换面,仍改不了其“骗”的本质。未来,AI诈骗的手段或许会更加高明,但只要我们强化反诈骗意识,合力筑牢反诈骗防线,就能够让“天下无诈”成为现实。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

对话前OpenAI科学家:爱、灭亡和人工智能

左为肯尼斯·斯坦利(Kenneth Stanley),右为乔尔·雷曼(Joel Lehman)

文|郑可书

编辑|刘以秦  

肯尼斯·斯坦利(Kenneth Stanley)不是咨询从业者,但近几个月,他的邮箱堆满咨询邮件。困惑的人们在邮件里问他:“这一切是什么意思?”

“这一切”,指的是ChatGPT的出现,及其引发的AI热潮。自去年11月发布以来,全世界的人都在使用它、谈论它,试图理解它代表的威胁和机会。

研发出ChatGPT的公司OpenAI同样成为热门话题。肯尼斯曾在那里工作。已经错过ChatGPT、担心再次错过新机会的投资人联系到他,想了解他在做什么,因为“任何与人工智能、与OpenAI有关系的人,都可能在做重要的事情”。

OpenAI另一位前员工乔尔·雷曼(Joel Lehman)则接到了世界各地猎头的询问,包括中国。他与肯尼斯于2020年入职OpenAI,并在ChatGPT发布前几个月离开。在OpenAI,他们共同领导的开放性(Open-Endedness)团队,致力于让算法在没有预定目标的情况下自我学习、创新。

此前,他们曾在大学、AI初创公司几何智能(Geometric Intelligence)、优步(Uber)AI实验室工作。2022年离开OpenAI后,肯尼斯创办了一家名为Maven的公司,建立开放式、偶然性社交网络,而乔尔在AI独角兽Stability旗下的Carper领导开放性研究团队。         

他们已在人工智能行业工作多年,但如今技术进展之快、论文数量之多,有时也让他们感到难以跟上。

此刻的中国人工智能行业面对相似的焦虑。业界、学界机构担心错失机会,纷纷发布大模型。5月28日,科技部直属的中国科学技术信息研究所发布《中国人工智能大模型地图研究报告》,称中国10亿级参数规模以上大模型至少有79个。这个数字还在持续增加,竞争越来越激烈,参与者在浪潮中挣扎。多位中国AI创业者告诉《财经十一人》,他们目前最关注的AI议题,是商业模式、变现能力。

肯尼斯和乔尔已经走过为钱挣扎的阶段,他们给出了完全不同的回答。肯尼斯最担心的是,AI会让人远离人性——机器越来越有趣,以至于人会花更多时间与机器交流,而非与人交往。长此以往,社会纽带将会断裂,政府将会瓦解。而他最初对人工智能产生兴趣的原因,恰恰是他想通过了解“智能”来了解人性。

乔尔则关心机器学习如何为个人、社会的开放式成长做出积极贡献。他说,现在的机器学习以一种非常狭隘的方式对待人类,将满足偏好视为促进人类繁荣的唯一途径,这催生了信息茧房,增加人与人的隔阂。人类是丰富而复杂的。“我们可能对某些事物上瘾,可能会做违背自身利益的事情;我们拥有意志力,但有时经过挣扎之后,我们才会做自己真正想做的事。”今年2月,他发表论文《机器之爱(Machine Love)》,探索机器从更丰富、复杂的维度去“爱”人的可能性。

他们使用AI工具辅助工作,但在一些事情上拒绝AI参与。肯尼斯和孩子一起玩时,即便不借助任何电子设备,也能很开心;乔尔很少在写作中使用ChatGPT,因为他“不想自动化真正关心的事情”。

创新是他们关心的另一件事。2015年,两人合著的《为什么伟大不能被计划》出版。他们在书中记录多年AI研究过程中的发现:设定目标,有时会成为阻碍;遵循好奇心的指引,反而能够解决问题、实现创新。该书中文版于今年出版,引发不少中国科技、教育从业者的讨论。

今年5月、6月,《财经十一人》分别与肯尼斯、乔尔进行了一次书面交流、一次视频交流。最关注的AI议题之外,他们还谈到OpenAI的工作体验,美国AI行业的创投环境,以及Transformer的缺陷、AGI(通用人工智能)的到来等技术问题。      以下是肯尼斯、乔尔和《财经十一人》的对话。对话经过整理、删减:

美国投资界的优势在于多样性

财经十一人:在OpenAI工作是什么体验?

肯尼斯:很兴奋,我们能够体验全新的技术。我在学术、商业实验室都工作过,OpenAI和其他研究机构的明显差异是:其他机构有不同的研究小组,小组成员们制定自己的议程,在各自的领域发表论文;OpenAI也有小组,但不同的小组目标一致:我们共有一个使命,并一起朝着这个使命前进。

乔尔:OpenAI是一个令人兴奋的、快速发展的、务实的、严谨的公司。员工可以提前试用模型,让人感觉生活在未来。另外,OpenAI有充足的算力资源,我供职过的其他研究机构都没有这个条件。我们拥有同一种愿景,而这个愿景与其他AI机构或者多数人当时的想法都不同——OpenAI相信规模化,相信使用更多的数据和算力,就能增强模型的能力。

财经十一人:ChatGPT发布后,你的工作、生活发生了什么变化?

肯尼斯:我的邮箱突然接到了大量的咨询请求,好像全世界都对这个领域感兴趣,甚至是恐惧——他们担心自己被落下,因此寻找权威人士,询问这一切是什么意思。还有很多投资人联系我,想找到下一个风口。ChatGPT的成功让他们认为,任何与人工智能、与OpenAI有关的人,都可能在做重要的事情。

关于GPT,在某种程度上,它令人害怕,因为它相当准确地捕捉到了人类认知的某些方面。这不仅是科学上的进步,还具有哲学上的重要意义,因为这些认知是将人类与宇宙中的其他一切区分开来的东西,而它们开始在机器中运转。

乔尔:很多猎头联系我,包括来自中国的。另外,OpenAI如此频繁地出现在新闻中,以至于我的父母第一次如此了解我所在的公司。这种感觉很神奇。         

财经十一人:为什么在2022年下半年、ChatGPT发布前几个月离开OpenAI?

乔尔:我没有预料到ChatGPT会产生如此巨大的影响。OpenAI是一个很棒的做研究的地方,但它的研究总是往一个特定的方向推动;而我和肯尼斯作为研究者,希望参与更基础、更开放的(不限定方向的)探索性研究。正好那时,我们都有其他合适的工作机会,所以我们离开了。

财经十一人:有观点认为,中国的投资机构过于重视被投公司的商业模式与盈利能力,不像OpenAI的投资方那样愿意冒险,所以扼制了创新,导致中国没有做出OpenAI和ChatGPT。你怎么看?

肯尼斯:将OpenAI的融资过程解读为“投资人不应该关心钱”,是错误的。OpenAI的创始团队是世界一流的人才,所以投资人才愿意把赌注放在这里。

财经十一人:美国AI行业的创投环境是什么样的?

肯尼斯:在美国,有足够多的投资人注重理念和愿景、愿意冒险,也有人只看利润。同一个人的想法也会改变,例如,我投资了一个目标不明确的公司,失败、赔钱了,那么下一次我就会更关心商业模式和利润。我认为,美国投资界的优势,就在于观点的多样性。这是一个健康的环境。

我对中国的投资界没有深入了解,但多样性对任何地方都是有益的。硅谷的风险投资产业已经非常成熟,而在中国风投这样相对不成熟的环境里——我没有贬低的意思,因为几乎没有什么地方会像硅谷那样成熟——我可以想象大家非常关注利润和商业化。这样也能投出好公司,但它们不会像OpenAI那样具有革命性。另外,决定投资方向的不仅仅是投资人,还有他们背后的各类机构、基金等。提供科学研究资金的国家机构应该不怕亏损,因为科学研究总是充满风险的;如果没有任何亏损,那意味着他们实际上没有在做研究。但我发现,这些机构反而更保守。这有点讽刺,他们会问:“研究目标是什么?”然后评估目标的可行性,再决定是否给钱。反倒是市场化的投资人会有不同的观点。他们把投资视为一个组合,不在意个别的失败,总体的上涨能够弥补下跌就行。他们有时更愿意说:“我不知道这有什么意义,但它听起来很酷,我要投。”         

Transformer有缺陷,AGI还很遥远

财经十一人:Transformer之后,会有新的架构出现吗?(注:Transformer是Google 在2017 年提出的一种自然语言处理模型,也是今天AI大模型的基础架构。)

肯尼斯:我不相信Transformer就是我们到达的最终架构,这种观点从研究角度看,似乎过于乐观了。但我不能排除这种可能性。也许可以不改变架构,只改变训练方法、提示词(prompt)的长度等其他方面。

提示词中的文本是有顺序的,神经网络确实看到了这个顺序,只是目前能输入的提示词太短了,所以Transformer无法按照时间顺序学习。也许将来会有一些突破,让提示词能够长到囊括整个人类历史,然后模型就可以在提示词中学习。这是一个非常奇怪的想法,但如果可以实现,也许架构将保持不变。

另一个因素是硬件,科学家们会想到非常有趣的新架构,但当前的硬件可能无法承载,这就限制了我们尝试某些方案的空间。

乔尔:Transformer确实非常惊人,可以完成许多任务,但从历史经验看,会出现超越它的方法。

目前Transformer的一个基本缺陷是没有“循环(recurrence)”能力。面对问题时,人类会回顾经验进行学习,过去的某个心理状态能够无限次地反复再现,因此你想反思某件事情多久,就可以反思多久。Transformer也拥有对过去的显式记忆,但这种记忆仅持续特定数量的token(注:AI处理文本的数据单位)。这种范式非常强大,足以使模型具备从输入的上下文信息中学习的能力。但它仍不能像人类那样,将记忆永久保存下来。

我想强调,我并不是说机器学习模型必须像人类大脑一样运作,但目前的研究主流路径是这样。         

财经十一人:有人认为,大模型并不具备像人类一样的思考能力,它只是看起来在思考。

乔尔:这个观点很有趣,但从技术角度看,我不认同。Transformer在没有帮助的情况下进行算术运算的能力非常不像人类,它会犯很基础的错误;但是当你与它交流那些它似乎没接触过的复杂话题(比如试图将22种奇特的哲学思想结合在一起),它可以给出相当令人印象深刻的回应。因此,我认为实际情况可能处于中间位置。

财经十一人:如何定义AGI(通用人工智能)?Sam Altman(OpenAI创始人)在中国的演讲中提到,十年内会有非常强大的人工智能系统出现,我们需要从现在开始做应对的准备,你怎么看?肯尼斯: 我不太关心 AGI 的精确定义。等我们看到它时,自然会知道。我感觉AGI这个词分散了我们的注意力。真正的问题不在于是否到达AGI,而在于,我们在十年内取得的成果,是否会对社会产生重大影响;如果是的话,那么无论它被称为AGI还是其他名字,我们都要做好准备。        乔尔:我认同。科学发展进程总是非线性的,我不知道AGI什么时候会到来,可能很快,也可能很慢。AI很快就会在一些任务上超越人类,某些方面的AGI可能很快就会到来。

这会带来两个问题。“智能”是定义人类的基础,当一个比人类还聪明的东西出现时,人类就处于危险之中。另一件有点恐怖的事情是,很多人从工作中获取意义,当AI将工作自动化,我们就需要将人生意义从工作转向寻找愉悦、做自己喜欢的事。这很好,但转变过程会非常艰难。目前的证据显示,在美国,人们即使有社会保障,也会因失业沮丧,甚至会滥用药物。面对这种可能的未来,我们还没有做好准备。

财经十一人:AGI什么时候会实现? 

肯尼斯:关于这个问题,有很多不同观点。但现实是,没人能知道。智能领域还存在一些尚无明确解法的缺口。

现在比较主流的通往AGI的方法是,基于Transformer,继续增加数据和算力。因为过去这种规模化方法很好地填补了先前模型的漏洞,例如从GPT-2到GPT-3、再到GPT-4的升级。基于此,一些人认为我们正处于AGI的临界点——只需要进一步规模化,就能解决问题。

但有些东西是无法通过规模化改善的,比如创新性。目前的模型无法像人类发明摇滚乐那样,发明一种新的范式。这是一个严重的不足,因为文明的本质就是创新。

存在这个缺陷的原因是,Transformer是通过数据学习,而“创新性”之类的东西并不在数据里。目前,被输入模型的数据不是按时间顺序从头到尾排列的,而是一整个单独的数据块。这导致模型缺少时间概念,而创新是与时间顺序密切相关的。

我们人类始终身处某个特定的时间点,这个点之前发生了什么、还没有发生什么都是默认的,所以我们能知道什么是新的、前沿的;但模型无法判断时间点,它将所有这些东西都视为一团巨大的混合体:它会看到关于汽车的数据,关于太空飞船的数据,关于大型语言模型的数据,但它们都是同时存在的,没有先后之分。因此,模型无法判断什么是前沿的。

另一个例子是幻觉问题(注:“幻觉”即AI生成的虚假或错误信息),即语言模型怎么知道自己知道什么、不知道什么?“知道自己记得什么”不是一个语言过程。如果我问你,你三周前吃了什么?你会说不记得了。但你怎么知道自己不记得?这个过程无法用言语表达,你不能说,我检查了这个,然后检查了那个,所以我知道我不记得了。这更像是一种隐含的、与生俱来的过程,并不涉及语言;如果没有语言,它就不存在于数据中,模型也就无法从数据中获得这个概念。

现在,由于RLHF(Reinforcement Learning from Human Feedback,从人类反馈中进行强化学习,即由人类来训练模型,模型做得好就奖励,做得不好就惩罚)的运用,这些不足也许可以修正。但我认为,只有在模型真正理解它应该知道什么、不应该知道什么的情况下,这种方法才能有效;而只有这些知识隐含在数据中时,它才能真正理解。但目前看来,数据中似乎不存在这类知识。例如,要让模型学会诚实,我们可以在它不诚实时惩罚它,然后它会变得诚实。但这并不意味着它理解了诚实的重要性。这些问题很难通过规模化来解决,有解决办法,但需要更多的复杂性,需要新的洞察和技术突破,不会轻易实现。所以AGI仍然很遥远。

爱,灭亡和人工智能

财经十一人:如今,很多业界人士在警告AI的威胁,强调对AI进行控制和监管。而你研究的AI开放性,是让AI在没有目标的情况下,产生更多新的、让人意想不到的结果,是关于放松控制的。如何看待其中的矛盾?

肯尼斯:好问题。AI作为一门科学,本身就是在寻求进一步的发现和创新。我们应该接受对开放性的研究,依靠它找到平衡——既允许持续发现,又受到足够的限制。

乔尔:对开放性的研究在一定程度上很重要,因为它使我们能够科学地解决贯穿整个技术史的问题:我们如何从开放性过程中获得最大收益,同时降低风险?同样的开放式科学过程为我们提供了治愈疾病的疫苗和环球飞行的飞机,也为我们提供了核武器。创造力和控制力之间的张力很深,需要大量思考和研究。

财经十一人:你现在已经是AI-native的生活状态了吗?   

肯尼斯:不是。我确实在工作中使用AI,但生活中很多事情,比如和我的孩子一起玩,即使没有任何电子设备,也会很棒。我适度使用AI,生活就是生活。

乔尔:我用 ChatGPT(带有 GPT-4)理解新的知识领域,用 Copilot写代码。

但是到目前为止,我还没有在写作中使用ChatGPT(比如我没有用它来回答你的这些问题)。部分原因是它还没有融入我的工作流程。比如,我会用特定的文本编辑器,把GPT集成进去很麻烦。而且,我喜欢写作的艺术性质。也许在未来,它会变得足够容易,能够融入工作流程;但我也有些抵触,因为有时候,你不想自动化你真正关心的事情。

财经十一人:当下,你最关心的一个关于AI的议题是什么?

肯尼斯:我担心我们与人性越来越疏远。我8岁时对AI产生兴趣。它最吸引我的一点是,它能让我更好地理解人,与人产生更紧密的联系。这可能很难理解,毕竟我们这些人看起来只是成天和机器打交道,对人类没有兴趣。但理解“智能”的过程,其实就是在理解人性的本质。心理学也在理解智能,可它只研究运作原理,不研究构建方法;而我一直觉得,如果我不能构建某样东西,我就无法真正理解它。

用机器取代人的情况令我困惑。这就是我所说的与人性的疏远——机器变得足够丰富和有趣,以至于你会抽出时间与机器交往,而不是与人交往。我们看到的图像、听到的音乐、读到的故事,曾经是人类丰富想象力的产物,如今却越来越多地被机器生产。

我受到震动的具体时刻,是第一次看到DELL-E(注:OpenAI的图像生成产品)时。突然间,我意识到艺术可以不是自我表达,它只是艺术。而我一直认为,艺术的可爱之处在于呈现人性。那时,我的孩子大约7岁。他喜欢画画,而这个机器生产的画作质量远超他。这让我对未来非常困惑——这个冰冷的东西没有真正的体验,却会使人们无法欣赏我孩子的自我表达。我不喜欢那样的世界。

像DELL-E这样的技术也可以帮助人类自我表达,但如果走向错误的方向,我们将沉溺于没有人性的东西,停止与人类互动,那时,社会纽带会破裂,政府也会瓦解。摆在我们面前的一个巨大挑战是:如何让人工智能支持有意义的人际联系,而非鼓励隔离与孤独。         

乔尔:目前我最关心语言模型部署到世界的速度。我担心制度(如法律、教育、经济、新闻媒体和政治制度)更新缓慢,适应速度跟不上语言模型的发展速度。

在美国,社交媒体、推荐引擎等系统占用人们大量时间精力。这些系统拥有将我们联系起来的能力,但它们往往只追求用户参与度、停留时长,而非帮助我们改善生活。

似乎我们的所有制度都在这种方式下变成赌博。比如,在美国,为了赢得选举,一些政治候选人不再进行诚实的辩论,而是针对受众心理特点创建广告,激起他们对其他政党的仇恨。机器学习以许多不同的方式参与其中,像是个性化推荐与信息茧房。这也是我将研究方向转到机器学习、哲学交叉领域的主要原因之一。我希望我们能以更有益的方式使用机器学习。

财经十一人:有办法避免这些情况进一步恶化吗?

肯尼斯:一种方法是,鼓励开发增强人类能力的AI工具——将人随口唱的曲子制作成完整作品,促进高质量的人际互动,诸如此类。但人类的本性难以控制。如果与AI交流很愉快,人们就会这样做。这有点像吃糖,甜味让人愉快,但你必须努力控制,不能过度。

我们也需要国际合作,来建立审查与法律框架,还要确定具体责任人。这也很难,涉及经济问题与国际竞争——如果能够实现AI的独立发展,一个国家可以彻底改革全球经济,获得巨大优势。因此,不合作是非常有诱惑力的。         

财经十一人:很多中国AI创业者为商业模式、融资苦恼,他们想聚集资源,做出中国的OpenAI。你不关心钱的问题吗?

肯尼斯:如果我在一个急需钱的创业时期,我也会重视融资;但我似乎已经过了这个阶段——我现在认为,只要我做正确的事情,就能拿到融资。所以我更关注前景,担心没有证据来支持我的想法,而不是钱。

我个人觉得,“成为下一个OpenAI” 不是一条明智的道路,因为通常,你无法再次成为同样的事物。这个事物之所以出色,就是因为它是第一个这么做的、独一无二的。现在,对话机器人领域的竞争非常激烈,而我并不认为自己出色到能赢,所以,我更倾向于思考,有什么与OpenAI完全不同的新东西?

乔尔:我喜欢钱。我很幸运,曾在薪酬丰厚的实验室里工作。但现在,更多的钱并不能让我感觉生活更有意义。  

财经十一人:美国公众在关心哪些关于AI的问题?

肯尼斯:有各种各样的担忧,有人关注长期风险,比如人类的灭绝威胁;有人关注短期,比如就业问题。还有人同时担心所有问题。有人对其他人感到愤怒,认为后者关心的不重要的问题吸引了大量关注,让人们无法聚焦到真正重要的事情上。目前缺乏共识。我认为人们正在整理思绪,确定哪些是当下最重要的、值得我们花费大量时间精力应对的问题。     

财经十一人:论文《机器之爱》的主要内容是什么?

乔尔:“人工智能”是将我们对“智能”的理解植入机器,试图理解智能的本质;“人工生命”是将“生命”进行抽象,并在计算机中模拟生物进化。我尝试将同样的思路应用到“爱”,将“爱”这个概念进行抽象,使得机器能够表现出“爱”。在实践中,这意味着将机器学习的方法与研究爱的领域(如哲学、灵性、心理疗法等)的方法结合。

机器学习的一个问题是,它以一种非常狭隘的方式对待人类,将满足偏好视为促进人类繁荣的唯一方式。从这个视角看,社交媒体重视用户参与时长,就变得可理解了:在机器学习的眼中,你是一个完全理性的个体,因此你在社交媒体上花更多的时间,就意味着它提供了有价值的东西。

但是,人类是丰富而复杂的。我们可能对某些事物上瘾,可能会做违背自身利益的事情;我们拥有意志力,有时经过挣扎之后,我们才会做自己真正想做的事。

在这篇论文中,我采用更丰富的人类行为模型(类似于马斯洛需求层次理论),试图利用语言模型,让机器尊重、促进人类的发展,而不仅仅是给予狭隘的满足。

财经十一人:这听起来与你如今最关心的AI议题紧密相关。你是在寻找解决问题的方法吗?

乔尔:我不敢自称有解决方案,但我希望找到一种积极的前进方式。我对人类、人类心理学,以及人类领域与机器领域如何能够有效结合非常感兴趣。技术是为了人类,为了我们的利益、我们的繁荣而存在的,但有时,我们很容易忘记这一点。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

国内首颗以人工智能(AI)载荷为核心、具备智能操作系统的“地卫智能应急一号”卫星发射成功

8月10日12时03分,中国首颗以人工智能(AI)载荷为核心、具备智能操作系统的智能应急卫星“地卫智能应急一号”(又名WonderJourney-1A,简称WJ-1A),在酒泉发射中心成功发射并进入预定轨道。这标志着浙江本地企业地卫二空间技术(杭州)有限公司的Wonder Journey 望江山星座的第一个卫星智能体发射完毕, 即将正式投入运营。

这是实现从智能卫星到太空智能体跃迁的第一步。与其他卫星相比,地卫智能应急一号携带峰值80TOPS (即每秒钟万亿次运算)星载算力,而星上超高算力的实现得益于地卫二自主研发的星载智能载荷处理单元“弦”(“String” Edge AI Platform)。并且,这个算力还将随着智能载荷处理单元“弦”的更新迭代不断攀升,在今年年底,地卫二星上算力有望超每秒万亿次运算。

通过部署全新计算架构和自动驾驶级的太空算力,驱动高分辨率面阵相机、近红外相机等载荷,运算超过百种算法,实现星上的实时观测、实时处理和太空智能。具体来说,可实现图像智能识别、智能分割、智能压缩、无效数据清洗等星上AI能力,有效提高遥感卫星的运行效率。

星载智能载荷处理单元“弦”采用了开放系统架构,推动“太空共同富裕”新业态。多家单位和企业联合地卫二,纷纷入驻地卫智能应急一号卫星,共同打造了基于智能载荷处理单元“弦”的“望江山太空程序1.0”应用矩阵,这也标志着地卫二第一代“星上太空城”的诞生。

共建空间信息走廊,畅想太空丝绸之路。“弦”智能载荷处理单元搭载了斑马网络技术有限公司AliOS操作系统,验证智能操作系统管理卫星,以及未来智能汽车与智能卫星的连接和计算能力,系国内首个将汽车底层操作系统运用到商业航天上的案例。小冰公司也与地卫二联手,实现了交互式太空数字人智能模型布局太空的第一步。浙江大学望江山智能联合实验室、东海实验室、阿曼苏丹卡布斯大学、沙特阿卜杜勒阿齐兹国王科技城等单位也为星载智能应用的开发提供了技术支撑。

在商业卫星发射按重量以克计价的时代,软件的应用有效降低了卫星的物理载荷。通过软件上注的方式,这个智能平台让多种智能应用程序得以在航天器上运行和验证,赋能包括森林减灾、水质监测、土壤墒情、非农非粮、森林火点、病虫害监测、城市两违等多种场景,作为一种长时序、高精度的监测手段有独特的优势。

“地卫智能应急一号”卫星入轨后将首次在轨开展星载智能载荷处理单元“弦”验证试验,评估多方算法及模型的在轨应用效能,并持续开展“天空地脑一体化”架构验证。

在轨期间由中国航天科技集团、苏州天巡空间技术有限公司、河南理工大学等多家联合研制单位共同在应急减灾、水利、农业、林业、海洋等领域进行推广应用。

中国商业航天如今仍处于相对早期的阶段,需要整个行业通力合作。地卫二作为一家多模态的商业卫星公司,期待着与行业各方共同努力,志在为整个行业赋能,推动卫星的智能化转型,实现航天产业的持续繁荣与创新发展,推动航天产业的智能化转型与进化。

理论上,这是目前唯一一颗跑得动大模型的新“星”。通过部署类似GPT的基础模型(Foundation Model),利用智能体模型代理(Agent Model),构建了立体感知、全域协同、精准判断、持续进化、开放兼容的智能系统,实现“模型管理模型,模型生产数据,模型产生效益”。作为连续两届拿下CVPR(IEEE国际计算机视觉与模式识别会议)挑战赛奖项的科技公司,地卫二无疑承载着应用大模型太空GPT的使命。

凡是过去,皆为序章。下一个精度更高的太空智能体也已进入筹备阶段,地卫二将以前所未有的方式揭开这星算时代的序幕!

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI 人工智能将取代 8500万 个岗位,与此同时将新增 9700万 个新岗位

据世界经济论坛报告,到2025年,“机器人革命”将使8500万个人工工作岗位被机器取代,管理和数据处理中的常规或体力劳动最容易受到威胁。

与此同时,新技术也将创造9700万个工作岗位。

报告指出,消费者对云计算和电子商务服务的需求与日俱增,无法在线为其客户提供服务的公司的生存空间将遭到挤压。

超过五分之二的受调查公司表示,他们计划通过技术集成来减少人力,行政助理、文员等受影响最大。

新报告同时指出,自动化的发展也可能在护理、大数据、人工智能、云计算、绿色经济等领域创造出9700万个新的工作岗位,咨询、决策、推理、沟通、互动和内容制作等对人类技能有所需求的职位将增多。

而且,未来将有越来越多来自不同背景的人才会共同协作,“展示出人类互动在新经济中的持续重要性。”

报告指出,目前,约有三分之二的工作由人类完成,剩余三分之一由机器处理,但到了2025年,机器完成工作的比例将升至二分之一。

因此,很多劳动者可能需要接受新的技能培训、进入新岗位以应对这种改变。

报告显示,一些岗位容易被机器取代的工人可能要进入新的职业领域,94%的被调查企业希望员工掌握新工作技能,这一数据较2018年的65%有大幅增加。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

“大模型”2023影响中国人工智能产业进程的10大模型

来源:高校大数据与人工智能推进联盟

2023年,生成式人工智能和AI聊天机器人背后的大模型,竞争激烈,令人疯狂。尤其是在OpenAI发布ChatGPT之后,大公司、小公司和开源社区更是争先恐后的推出自己的大模型。据统计,到目前为止,全国已经发布了数百个大模型。但是,哪些大模型最受关注和最具发展潜力?哪些大模型最具价值和创新要素?

近日,全国高校人工智能与大数据创新联盟对市场上比较活跃的大模型产品进行了梳理,从中推选出2023影响中国人工智能产业进程的十大模型,分别是清华大学“chatglm”大模型、百度“文心”大模型、华为云“盘古”大模型3.0、复旦大学“moss”大模型、科大讯飞“星火认知”大模型、商汤“日日新商量SenseChat”大模型、阿里云“通义千问”大模型、京东云“言犀”大模型、网易有道“子曰”大模型、学而思数学大模型“MathGPT”。

NO1.清华大学“chatglm”大模型

由清华大学教授唐杰团队研发的chatglm大模型,目前位列国内大模型开源领域影响力前列。2023年6月,清华大学KEG和数据挖掘小组(THUDM)发布了第二代ChatGLM2-6B大模型。ChatGLM-6B是国产开源大模型领域最强大的的大语言模型之一,因其优秀的效果和较低的资源占用在国内引起了很多人的关注。第一代的ChatGLM2-6B是一个非常优秀的聊天大语言模型,它的部署成本很低。相比较第一代,第二大的ChatGLM2-6B模型主要有四点升级:升级1:基座模型升级,性能更加强大;升级2:更长的上下文;升级3:更高效的推理,更快更便宜;升级4:更加开放的协议。根据官方的说明,ChatGLM2-6B的资源占用更低,速度更快。其次是资源占用降低,在不同的量化水平下,相同显存支持的对话长度提升约8倍!对于大模型的未来发展,唐杰提出三点思考,一,目前的千亿模型能力已经很强大了,未来重要的是如何把它的智慧提炼发挥出来;二、大模型如何跟外界进行交互;三、如何让大模型具有反思能力,能自我反思,自我纠错,并且具有一定的价值观,具有一定的意识。

NO2.百度“文心”大模型

百度文心大模型源于产业、服务于产业,是产业级知识增强大模型。百度通过大模型与国产深度学习框架融合发展,打造了自主创新的AI底座,大幅降低了AI开发和应用的门槛,满足真实场景中的应用需求,真正发挥大模型驱动AI规模化应用的产业价值。文心大模型的一大特色是“知识增强”,即引入知识图谱,将数据与知识融合,提升了学习效率及可解释性。文心ERNIE自2019年诞生至今,在语言理解、文本生成、跨模态语义理解等领域取得多项技术突破,在公开权威语义评测中斩获了十余项世界冠军。2022年11月30日,由深度学习技术与应用国家工程研究中心主办、百度飞桨承办的WAVE SUMMIT+2022深度学习开发者峰会举行 [29] 。百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜发布文心大模型的最新升级,包括新增11个大模型,大模型总量增至36个[30] ,构建起业界规模最大的产业大模型体系,并通过大模型工具与平台的升级和文心一格、文心百中等基于大模型技术的产品应用,进一步降低大模型产业化门槛,让更多企业和开发者步入AI应用的新阶段。2023年6月,百度文心大模型3.5版本已内测可用。

NO3.华为云“盘古”大模型3.0

华为云盘古大模型,是华为旗下的盘古系列AI大模型,包括NLP大模型、CV大模型、科学计算大模型。2020年11月,盘古大模型在华为云内部立项成功,也完成了与合作伙伴、高校的合作搭建。2021年4月,盘古大模型正式对外发布。2023年7月7日,华为开发者大会2023上,华为常务董事、华为云CEO张平安宣布,华为云盘古大模型3.0正式发布。盘古大模型3.0是完全面向行业的大模型,包含L0基础大模型、L1行业大模型及L2场景模型三层架构,重点面向政务、金融、制造、医药、矿山、铁路、气象等行业。7月18日,华为联合山东能源集团宣布华为盘古大模型在矿山领域实现首次商用,解决人工智能在矿山领域落地难的问题。

NO4.复旦大学“moss”大模型

由复旦大学自然语言处理实验室邱锡鹏教授团队发布的MOSS大模型是国内第一个对话式大型语言模型。2023年4月21日,复旦大学计算机科学技术学院自然语言处理实验室开发的新版MOSS模型已上线,成为国内首个插件增强的开源对话语言模型,支持搜索引擎、图像生成、计算器、方程求解器等插件工具。除了完成升级迭代,MOSS模型还走上了开源道路,相关代码、数据、模型参数已在Github和Hugging Face等平台开放,供科研人员下载,促进人工智能模型研究和开源社区的生态繁荣。目前,MOSS项目的代码、数据、模型参数已在一些平台开放。开源代码涵盖模型训练和推理代码,开源数据包括超100万条对话训练数据,开源模型包括160亿参数中英双语基座语言模型、对话模型以及插件增强的对话模型。未来,MOSS将陆续开源更多训练数据及模型参数,促进人工智能领域的科学研究和开源社区的生态繁荣,同时也为企业私有化部署人工智能模型、开展相关服务提供解决方案。复旦大学自然语言处理实验室,是由复旦大学首席教授吴立德先生创建,是我国最早开展自然语言处理和信息检索研究的实验室之一。经过40余年发展,在自然语言处理底层分析、文本检索、自动问答、社会媒体分析等方面取得了一系列的研究成果。

NO5.科大讯飞“星火认知”大模型

2023年5月6日,科大讯飞正式发布“讯飞星火认知大模型”,产品具有7大核心能力,即文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模态能力。2022年12月,科大讯飞启动“1+N”大模型技术攻关。其中,“1”指的是通用认知智能大模型算法研发及高效训练方案底座平台,“N”指的是将认知智能大模型技术应用在教育、医疗、人机交互、办公、翻译等多个行业领域。2023年8月2日,讯飞星火APP已在苹果应用商店上架,版本更新为1.3.04。科大讯飞在互动平台表示,“讯飞星火APP正在升级优化,华为应用商店的讯飞星火APP新版本已于8月1日升级完毕。苹果商店尚在更新中。讯飞星火认知大模型V2.0升级发布会将于8月15日举办,届时会发布多模态生成、代码生成能力及行业产品等多项能力及应用。

NO6.商汤“日日新商量SenseChat”大模型

2023年4月,商汤科技董事长兼首席执行官徐立宣布推出“日日新SenseNova”大模型体系。日日新(SenseNova)大模型体系,包括自然语言处理模型“商量”(SenseChat)、文生图模型“秒画”和数字人视频生成平台“如影”(SenseAvatar)等。2023年4月10日,商汤科技举办技术交流日活动,分享了以“大模型+大算力”推进AGI(通用人工智能)发展的战略布局,并公布了商汤在该战略下的“日日新SenseNova”大模型体系。其中,商汤研发的大语言模型被命名为“商量SenseChat”。“商量SenseChat”在活动现场展示了多轮对话和超长文本的理解能力。包括:编程助手,可帮助开发者更高效地编写和调试代码;健康咨询助手,为用户提供个性化的医疗建议;PDF文件阅读助手,能轻松从复杂文档中提取和概括信息。

NO7.阿里云“通义千问”大模型

通义千问,是阿里云推出的一个超大规模的语言模型,功能包括多轮对话、文案创作、逻辑推理、多模态理解、多语言支持。能够跟人类进行多轮的交互,也融入了多模态的知识理解,且有文案创作能力,能够续写小说,编写邮件等。2023年4月7日,“通义千问”开始邀请测试,4月11日,“通义千问”在2023阿里云峰会上揭晓。4月18日,钉钉正式接入阿里巴巴“通义千问”大模型。

NO8.京东云“言犀”大模型

2023年7月13日,京东言犀大模型正式对外亮相。言犀大模型融合70%通用数据与30%数智供应链原生数据,具有更高产业属性、更强泛化能力、更多安全保障等优势,其已经可将原本需要10余名科学家花费一周时间才能完成的定制化开发工作缩短至数分钟。京东还发布了全新升级的优加DaaS和言犀智能服务平台,其可以面向零售、金融、城市、健康、物流五大领域的行业提供定制化解决方案。对于“言犀”大模型的应用实践,京东也有“三步走”规划。目前,京东云已经基于内部实践构建了通用大模型;到今年年底这段时间,京东将经由高复杂场景大规模锤炼,迭代出扎实的产业服务;预计在2024年初,会将大模型能力向外部延伸商业场景开放。目前,京东已经走到第二步,并在内部取得了丰富的实践成果。

NO9.网易有道“子曰”大模型

2023年7月26日,网易有道发布国内首个教育大模型“子曰”以及六大创新应用成果,覆盖口语训练、作文批改、习题答疑等领域,展现了“子曰”大模型在自然语言处理领域的技术实力及广泛应用前景。大模型“子曰”能为学生提供个性化的分析和指导,实现引导式学习,还具备全科知识整合能力。通过连接多模态知识库、跨学科整合知识内容,大模型能随时满足学生的动态需求,帮助孩子培养更综合的能力。“子曰”大模型在教育行业的应用,不仅可以帮助学生更好地学习,也可以帮助老师更好地教学,借此实现因材施教的教育战略。

NO10.学而思数学大模型“MathGPT”

2023年5月,学而思宣布正在研发一款面向全球数学爱好者和科研机构的自研数学大模型,名为MathGPT。与通用语言模型不同,该大模型专注于解题和讲题算法,旨在弥补通用语言模型在数学问题解决、讲解、问答和推荐方面的不足。学而思AI团队负责人表示,通用语言模型虽能在文本处理方面表现出色,但在数学领域的表现却存在明显不足。MathGPT将通过解决现有通用语言模型的三个问题来弥补这一不足:提高题目解答的准确性、稳定性和清晰度,让解题过程更能够适配不同年龄段的学生。在人工智能领域的多年深耕使得学而思有能力自主研发MathGPT。学而思拥有20年的数学教学经验,其海外业务Think Academy在全球多个国家和地区深受数学爱好者喜爱,并在每年的IMO和AMC等国际数学竞赛中表现优异。

来源:高校大数据与人工智能推进联盟

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能行业岗位一览

人工智能行业的岗位薪资高、待遇好、涨薪快已经是公开的事实,那么在人工智能行业中具体有哪些职业岗位呢?对于普通人来说,想要入行人工智能又有哪些机会呢?

下面是人工智能领域中的一部分职业岗位,随着技术的不断发展,未来还会涌现出更多新的职业机会。无论你的兴趣是什么,相信都可以找到与人工智能相关的职业岗位。

1. **人工智能算法工程师**:作为专业的人工智能算法工程师,可以负责设计、开发和优化人工智能算法,用于解决各种实际问题,如图像处理、自然语言处理、语音识别、推荐系统等。

2. **数据科学家**:可以应用人工智能算法和技术,从大规模数据中提取有价值的信息,进行数据分析、建模和预测,为企业决策提供支持。

3. **机器学习工程师**:专注于机器学习算法的开发和应用,可以设计和实现各类机器学习模型,用于数据挖掘、分类、聚类等任务。

4. **深度学习工程师**:具备深度学习算法的实际应用和开发能力,可以处理复杂的数据,如图像、声音和文本等,解决模式识别和决策问题。

5. **自然语言处理(NLP)工程师**:专注于处理和分析人类语言的计算机应用,如机器翻译、情感分析、智能客服等。

6. **计算机视觉工程师**:负责图像和视频数据的处理和分析,开发图像识别、目标检测、人脸识别等应用。

7. **人工智能产品经理**:了解人工智能技术和应用,负责规划、设计和推广人工智能产品,满足市场需求。

8. **智能硬件工程师**:结合人工智能技术,开发智能硬件产品和应用,如智能家居、智能机器人等。

9. **人工智能咨询顾问**:对人工智能技术有深刻理解,能够为企业或机构提供人工智能相关的咨询和建议。

10. **教育培训人员**:可以成为培训机构或企业的人工智能技术培训师,传授人工智能算法和技术的知识与实践。

11. **人工智能研究员**:投身于人工智能前沿的研究,推动人工智能技术的不断创新和发展。

12. **人工智能项目经理**:负责领导和管理人工智能项目的规划、执行和交付,协调跨部门合作,确保项目按时、按质完成。

13. **人工智能工程师团队负责人**:领导人工智能团队,监督团队的技术进展、项目计划和资源分配。

14. **人工智能系统架构师**:设计和构建复杂的人工智能系统架构,确保系统的性能、可扩展性和稳定性。

15. **人工智能数据工程师**:负责数据的采集、清洗、预处理和存储,为人工智能算法提供高质量的数据支持。

16. **人工智能训练师**:负责数据标注和处理,以及对模型的训练和调优等,保障人工智能模型的训练能够达标。

17. **人工智能运维工程师**:负责维护和管理部署在生产环境中的人工智能系统,保障系统的稳定运行。

18. **人工智能伦理与合规专家**:关注人工智能的伦理和法律合规问题,提供合规性建议,确保人工智能应用的合法合规性。

19. **人工智能创业者**:基于持有的人工智能算法技能,创办自己的人工智能相关企业,开发创新的人工智能产品和服务。

20.**人工智能法律顾问**:关注人工智能法律法规,为企业提供人工智能项目合规性评估和法律咨询。 

21. **人工智能商务拓展经理**:将人工智能技术应用于商业领域,开展市场拓展、业务合作,推动人工智能产品和服务的商业化。

22. **人工智能售前工程师**:配合人工智能销售人员,进行人工智能产品方案的编写、宣讲等,完成人工智能产品的销售。

23**人工智能领域的作家和科普者**:利用专业知识,撰写人工智能领域的文章、书籍或博客,推动公众对人工智能的理解和认知。

24. **人工智能医疗专家**:将人工智能技术应用于医疗领域,参与医学图像分析、疾病预测等应用。

25. **人工智能金融分析师**:将人工智能应用于金融领域,进行风险评估、交易预测、投资分析等工作。

26. **人工智能产品测试工程师**:负责测试人工智能产品的性能、稳定性和安全性,确保产品符合质量标准。

27.**人工智能音乐创作者**:探索人工智能在音乐创作中的应用,创造出新颖、独特的音乐作品。

28. **人工智能农业专家**:将人工智能技术应用于农业领域,进行作物病虫害识别、精准农业管理等工作。

29. **人工智能环保专家**:利用人工智能技术解决环境保护问题,如空气质量预测、垃圾分类等。

30.**人工智能游戏开发者**:将人工智能技术融入游戏开发,创造更智能、逼真的游戏体验。

31. **人工智能用户体验(UX)设计师**:结合用户需求和人工智能技术,设计用户友好的界面和交互体验。

32. **人工智能创意艺术家**:将人工智能技术应用于创意艺术创作,创造出独特的艺术作品。

33. **人工智能社会学家**:研究人工智能对社会、文化和伦理的影响,提出相应的社会政策建议。

34. **人工智能可视化专家**:利用数据可视化技术,将复杂的人工智能算法和数据呈现为易于理解的图形。

35. **人工智能安全专家**:关注人工智能系统的安全漏洞和风险,提供安全性评估和解决方案。

36. **人工智能跨学科研究员**:将人工智能技术与其他学科结合,探索交叉领域的研究问题。

37. **人工智能虚拟现实(VR)/增强现实(AR)开发者**:将人工智能与虚拟现实或增强现实技术相结合,开发交互式应用。

38. **人工智能社交媒体分析师**:利用人工智能技术分析社交媒体数据,洞察用户行为和趋势。

39. **人工智能语音技术工程师**:专注于语音识别、合成和处理技术,开发智能语音助手和应用。

40. **人工智能机器人工程师**:将人工智能技术应用于机器人控制和决策,开发智能机器人系统。

41. **人工智能交通系统优化师**:应用人工智能技术,优化交通流量、减少拥堵和提升交通安全。

42. **人工智能社交媒体营销专家**:运用人工智能分析工具,制定社交媒体营销策略,优化用户互动和品牌影响力。

43. **人工智能气候模拟研究员**:将人工智能应用于气候模拟和预测,为应对气候变化提供数据支持。

44. **人工智能文化遗产保护者**:利用人工智能技术,数字化和保护文化遗产,如艺术品、历史文物等。

45. **人工智能物流规划师**:应用人工智能技术,优化物流和供应链规划,提高效率和减少成本。

46. **人工智能体育分析师**:利用人工智能技术,进行体育数据分析,优化训练和比赛策略。

47. **人工智能人力资源专家**:结合人工智能技术,进行招聘、绩效评估和人才管理。

48. **人工智能智能驾驶工程师**:将人工智能技术应用于自动驾驶系统,提高驾驶安全性和便捷性。

49. **人工智能家庭健康顾问**:结合人工智能技术,为家庭提供健康管理和咨询服务。

50. **人工智能跨界艺术家**:将人工智能技术与艺术相结合,创作跨界作品,如艺术装置、数字艺术等。

51. **人工智能决策支持分析师**:应用人工智能技术,为企业和组织提供决策支持和数据洞察。

52.**人工智能社交心理学家**:研究人工智能对人类社交和心理健康的影响,提供相关建议和方案。

上面这些职业方向代表了人工智能领域的更多可能性,无论是已经从事相关领域还是准备进入人工智能领域,都可以找到相似的岗位。在这些岗位中,排名第一的人工智能算法工程师是所有岗位中的核心岗位,因为人工智能之所以有智能,就是因为算法的存在,在人工智能的构成要素中,算法相当于人类的大脑,可以想象一下,没有了大脑的人类会是怎么样。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌发布多平台应用开发神器:背靠 AI 编程神器 Codey,支持 React、Vue 等框架,还能补全、解释代码

8 月 8 日,谷歌宣布推出 AI 代码编辑器 IDX,旨在提供基于浏览器的人工智能开发环境,用于构建全栈网络和多平台应用程序。谷歌在创建 IDX 时并没有构建新的 IDE(集成开发环境),而是使用 VS Code 作为其项目的基础。目前,IDX 支持 Angular、Flutter、Next.js、React、Svelte 和 Vue 等框架以及 JavaScript 和 Dart 等语言,后续还将支持 Python、Go 和其他语言。

据了解,IDX 是基于 Google Cloud 构建的一整套浏览器开发体验,由 Codey 提供支持。IDX 项目还以 Code OSS 编辑器为基础。当前,IDX 还未大面积开放,只有少数指定测试人员能够亲身参与体验。不过 IDX 团队透露,在即将召开的 Google Cloud Next 大会上,可能会有更多 Codey 现有成果及未来发展计划的消息与广大开发者见面。IDX 团队表示:

我们花费了大量时间编写代码,AI 的最新进展则创造了巨大的机会空间,能让我们更高效地利用时间。通过 IDX 项目,我们正探索谷歌在 AI 领域的创新成果(包括为 Android Studio 中的 Studio Bot 提供支持的 Codey 与 PaLM 2 模型、Google Cloud 中的 Duet 等)如何帮助开发者加快代码编写速度、提高代码编写质量。

IDX 团队在博文中提到,时至今日,从零开始构建应用(特别是能在移动、Web 和桌面平台上良好运行的应用)的难度简直不逊于制造鲁布·戈德堡机械(Rube Goldberg machine,一种被设计得过度复杂的机械组合)。开发者需要在无尽的复杂性之海中航行,将种种技术栈粘合起来,奋力摸索出一条能够正确引导、编译、测试、部署和监控应用的路线。

虽然谷歌多年来一直致力降低多平台应用的开发难度,也先后推出了 Angular、Flutter、Google Cloud 乃至 Firebase 等成果,但似乎还能做得更好。毕竟当下的多平台应用开发还远远称不上快速、顺畅。所以几个月前,谷歌的几个小伙伴聚在一起开始尝试,而这场实验的早期成果就是 IDX 项目(http://idx.dev/)。

团队之所以决意构建 IDX 项目,一个重要原因就是希望听取广泛开发者社区的意见,了解哪些要素能帮助大家提升工作效率。

具体来说,IDX 项目当前主要可实现以下功能:

1. 随时随地,快速工作。IDX 项目的核心是帮助开发者在任何位置、任何设备上进行开发,并且获得完全保真的本地开发体验。IDX 项目中的每个工作区都具备基于 Linux 虚拟机的全部功能,并配有托管在开发者邻近云数据中心的通用访问权限。

2. 可导入现有应用,也可创建新应用。IDX 项目允许开发者从 GitHub 处导入现有项目,随时从上次完成的位置继续开发。开发者也可以使用各类流行框架的预制模板创建新项目,包括 Angular、Flutter、Next.js、React、Svelte、Vue 以及 JavaScript 和 Dart,并即将推出对 Python 与 Go 语言的支持。此外,IDX 团队还在积极努力为更多项目类型和框架提供最佳支持。

3. 跨平台实现应用预览。如今,构建成功应用意味着要对应用的设计和行为做跨平台优化,并以用户“所见即所得”的方式预览应用效果。为了降低这一切的实现门槛,IDX 项目提内置有 Web 预览功能,而且即将推出经过完善配置的 Android 模拟器与嵌入式 iOS 模拟器。所有这些,都可以在浏览器中直接使用。

4. 结合 AI 技术。目前,IDX 项目的 AI 功能尚处于早期阶段,但已经拥有智能代码补全、辅助聊天机器人以及“添加注释”和“解释此代码”等结合上下文的代码操作。

5. 借助 Firebase Hosting 实现 Web 发布。将应用投入生产的一大常见痛点就是部署流程。IDX 项目集成了 Firebase Hosting 以降低整个操作难度,只需单击几下,即可部署 Web 应用的可共享预览,或者使用快速、安全的全球托管平台将其部署至生产环境。由于 Firebase Hosting 能够支持基于 Cloud Functions 的动态后端,因此能够与 Next.js 等全栈框架良好配合。

IDX 团队表示,目前 IDX 项目才刚刚起步,距离最终的端到端开发流程改进还有很长的路要走。希望开发者可以注册成为首批 IDX 项目体验者,大家携手发现的问题将为项目的后续迭代方向、以及还需哪些新增功能以匹配应用团队的工作流程带来指引。

至于下一步计划,IDX 团队称,将不断努力添加新功能并解决开发者反馈的问题。“我们已经在研究新的协作功能,因为我们深知这项功能在如今混合办公时代下的重要意义。此外,更深入的框架集成和个性化 / 情境化 AI 选项也在筹备当中。期待听到大家提出的更多功能需求!”IDX 背后的 AI 模型 Codey

根据介绍,IDX 由 Codey 提供支持。

在 Google I/O 2023 大会上,谷歌正式发布 Codey。这是一款新型 AI 驱动工具,能够编写并理解代码内容。这款新工具被外界视为谷歌对于 GitHub Copilot 的回应,属于同 Replit 结盟打造的成果。

Codey 基于谷歌的下一代大语言模型 PaLM 2,并采用谷歌自家产品代码及大量合法许可的源代码作为训练素材。更重要的是,Codey 仍在不断学习和发展,从谷歌服务生态系统的各个项目中持续汲取新的力量。

Codey 支持 20 多种编程语言,包括 Go、谷歌标准 SQL、Java、JavaScript、Python 以及 TypeScript。开发者可以通过 Visual Studio Code、JetBrains IDE、Google Shell 编辑器以及 Google Cloud 托管工作站服务的扩展来访问 Codey。开发者能够直接在 IDE 的聊天框中与该模型交流(例如 Android Studio Bot),或者在文本文件中编写注释以指示其生成相关代码。它支持各种编码任务,通过以下方式帮助开发人员更快地工作并缩小技能差距:

  • 代码完成:Codey 根据提示中输入的代码上下文建议接下来的几行。
  • 代码生成:小程根据开发人员的自然语言提示生成代码。
  • 代码聊天:Codey 允许开发人员与机器人对话,以获得调试、文档、学习新概念和其他与代码相关问题的帮助。

Codey 在处理与编码相关的提示词方面接受了专门训练,谷歌还通过其他训练让该模型学会了处理关于 Google Cloud 的一般查询。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

成功在于远见?英伟达CEO称英伟达5年前把一切都押在了AI上

随着之前GPT-4语言模型的正式投入使用,ChatGPT也带来了全新的插件——网络浏览器和代码解释器,赋予ChatGPT使用工具、联网、运行计算的能力。

而在现在的市场上,英伟达的AI计算芯片就成为了“抢手货”,也使得英伟达迅速扭转在独立显卡需求下降后的利润下降。并且据相关分析师称,ChatGPT有点像开始了一场军备竞赛,英伟达是远远领先的。

据相关媒体报道,黄仁勋今年的财富攀升了33%,达到184亿美元,这与去年形成鲜明对比,去年其财富下降是科技巨头中最大的之一。英伟达最初专注于创建计算机芯片和 GPU,现在已经成为为人工智能应用提供动力的主导者,从自动驾驶汽车到机器人到加密货币开采,虽然目前加密货币正在走下坡路,但是智能聊天机器人系统ChatGPT带给了英伟达新的商机。

此前,英伟达 CEO 黄仁勋表示,人工智能将使所有人只需对着电脑说话就能变身程序员,这意味着“数字鸿沟”被填平。黄仁勋称,人工智能正在引领一场计算革命。“毫无疑问,我们正处于新的计算时代。”

“编程门槛变得极低。我们填补了数字鸿沟,现在,所有人都是程序员 —— 你只需要对着电脑说话即可。”黄仁勋说,“由于如此便于使用,所以进步的速度飞快,这会影响几乎每个行业。”

而在今日的SIGGRAPH大会上,英伟达创始人兼CEO黄仁勋发表了主题演讲,他表示,该公司在 2018 年做出了一个关乎生死存亡的商业决定,但很少有人意识到这将重新定义其未来和帮助重塑一个不断发展的行业。黄仁勋在演讲中回顾了五年前的那个转折点,那就是选择采用AI处理图像的方式,即光线追踪和智能渲染:分别是RTX和DLSS技术。他说:“我们意识到光栅化已经达到了极限。”光栅化是传统的、广泛使用的渲染3D场景的方法。“2018年是一个‘孤注一掷’的时刻,要求我们重新发明硬件、软件、算法。而当我们用AI重新发明CG时,我们也在重新发明GPU用于AI。”

黄仁勋坚称,这只是开始。新的模型不仅需要被训练,还需要被数百万甚至数十亿用户定期实时运行。但相关媒体称,黄仁勋仅仅提及了未来AI的发展前景,并未提及目前AI所面对的信息安全方面的监管难题,至于后续英伟达会在AI方向作何调整,感兴趣的小伙伴可以保持关注。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI公司疯抢GPU,分析师:英伟达泡沫将破

由于计算需求旺盛的生成式人工智能没有显示出放缓的迹象,一些公司开始使用 Nvidia 难以获得的、超昂贵的高性能计算 H100 GPU 来进行大型语言模型 (LLM) 训练,这正在成为“特斯拉前 AI 总监、现任 OpenAI 的安德烈·卡帕蒂 (Andrej Karpathy) 表示,这是硅谷“头号八卦”。

Karpathy 发表此番言论之际,大型科技公司的年度报告甚至都在讨论与 GPU 访问相关的问题:在微软上周发布的年度报告中,该公司向投资者强调,GPU 是“其快速增长的云业务的关键原材料”。”并将有关 GPU 的语言添加到“如果无法获得所需的基础设施,可能会出现中断的风险因素”。

Karpathy 在社交网络 X(以前的 Twitter)上转发了一篇广为流传的博客文章,该文章被认为是由 Hacker News 上的发帖者撰写的,该文章推测“小型和大型云提供商的大规模 H100 集群的容量即将耗尽, ”并且 H100 需求至少将持续到 2024 年底。

作者猜测 OpenAI 可能需要 50,000 个 H100,而 Inflection 需要 22,000 个,Meta“可能需要 25k”,而“大云可能需要每个 30k(Azure、Google Cloud、AWS 以及 Oracle)。Lambda 和 CoreWeave 以及其他私有云可能总共需要 100k。他写道,Anthropic、Helsing、Mistral 和Character 可能各要10k。

作者表示,这些估计“完全是粗略估计和猜测,其中一些是对云计算和将从云计算租用的最终客户进行了重复计算。” 但这达到了大约 432k H100。每块价格约为 35K 美元,GPU 的价值约为 150亿美元。这还不包括像字节跳动(TikTok)、百度和腾讯这样需要大量 H800 的中国公司。还有一些金融公司从数百台 A100 或 H100 开始进行部署,然后扩展到数千台 A/H100:例如 Jane Street、JP Morgan、Two Sigma、Citadel。”

Radical Ventures 合伙人 David Katz最近告诉 VentureBeat,与人工智能芯片争夺战最接近的类比是电视剧《权力的游戏》 。“为了运行这些模型和大型模型,需要对计算有永不满足的需求,”他说。

去年,Radical 投资了 CentML,它优化了机器学习 (ML) 模型,以提高工作速度并降低计算成本。他表示,CentML 的产品在市场上创造了“更高一点的效率”。此外,它还证明了复杂的、超过十亿个参数的模型也可以在传统硬件上运行。

“所以你不需要相同数量的 GPU,或者你不一定需要 A100,”他说。“从这个角度来看,它本质上是在增加市场上芯片的产能或供应。”

然而, d-Matrix首席执行官 Sid Sheth 表示,这些努力对于那些从事人工智能推理工作的人来说可能更有效,而不是从头开始训练LL,。该公司正在构建一个平台,通过在计算机中进行更多处理来节省推理成本 。内存上,而不是 GPU 上。

他最近对 CNBC 表示:“推理的问题在于,如果工作量激增得非常快,就像 ChatGPT 发生的情况一样,它会在五天内增加一百万用户。” “你的 GPU 容量无法跟上,因为它不是为此而构建的。它是为训练和图形加速而构建的。”

对于 LLM 训练——包括 OpenAI、Anthropic、DeepMind、Google 以及现在埃隆·马斯克的 X.ai 在内的所有大型实验室都在进行——Nvidia 的 H100 是无可替代的。

这对于像 CoreWeave 这样的云初创公司来说是个好消息,因为 CoreWeave 准备从 GPU 云中赚取数十亿美元,而且 Nvidia 正在提供大量 GPU,因为 CoreWeave 并没有构建自己的 AI 芯片来竞争。

McBee告诉 VentureBeat,CoreWeave 去年的收入为 3000 万美元,今年将达到 5 亿美元,明年已经签订了近 20 亿美元的合同。CNBC  6 月份报道 称,微软“已同意在未来几年内斥资数十亿美元购买初创公司 CoreWeave 的云计算基础设施。”

“这一切发生得非常非常快,”他说。“我们正在努力满足大量积压的客户需求。我们目前还在 12 个不同的数据中心进行建设。我正在从事当今地球上最大的基础设施建设之一,而在一家三个月前你从未听说过的公司。”

他补充说,人工智能的采用曲线是“有史以来上市的任何软件中最深入、最快的采用”,而训练这些模型所需的特定类型计算的必要基础设施却跟不上。

但 CoreWeave 正在尝试:“自 4 月份以来,我们已经将下一代 H100 计算交给了世界领先的人工智能实验室,”他说。“直到第四季度你才能从谷歌获得它。我认为亚马逊的……预定预约要到第四季度才会出现。”

他表示,CoreWeave 正在帮助 Nvidia 更快地将其产品推向市场,并“帮助我们的客户从中获得更多性能,因为我们以比超大规模厂商更好的配置构建它——这促使 [Nvidia] 对我们进行投资,这是这是他们做出的唯一云服务提供商投资。”

就 Nvidia 而言,一位高管表示,问题不在于 GPU 短缺,而在于这些 GPU 如何进入市场。

Nvidia DGX Systems 的副总裁兼总经理 Charlie Boyle 表示 Nvidia 正在“建设充足的产品”,但也谈到了很多短缺问题。云提供商之间的差异归结为已经预售给客户的产品。

“在系统方面,我们一直对客户的供应非常敏感,”他在最近的一次采访中告诉 VentureBeat。他解释说,对数千个 GPU 的请求将需要更长的时间,但“我们可以满足大量此类需求。”

他解释说,过去七年他学到的一点是,归根结底,这也是一个供应链问题——因为供应商提供的小组件可能更难获得。“因此,当人们使用 GPU 短缺这个词时,他们实际上是在谈论主板上某些组件的短缺或积压,而不是 GPU 本身,”他说。“这些东西的全球制造有限……但我们预测人们想要什么以及世界可以建造什么。”

博伊尔表示,随着时间的推移,“GPU 短缺”问题将“从围绕短缺的炒作与某人制定糟糕计划的现实来看,逐渐从叙事中消失。”

摩根士丹利策略师表示,人工智能股票的泡沫已接近顶峰,他们指出 Nvidia 公司今年的涨幅超过 200%。

摩根士丹利策略师爱德华·斯坦利在一份报告中写道,根据历史背景,这次股市飙升将处于“后期”。“泡沫在高峰前的 3 年里往往会上涨 154% 的中值。”

尽管英伟达一直是人工智能领域令人兴奋的典型代表,但斯坦利表示,更广泛的人工智能基准,如 MSCI 美国 IMI 机器人和人工智能精选净美元指数,上涨幅度要小得多。该指标上涨了约 47%。

这家总部位于加利福尼亚州圣克拉拉的公司一直处于今年人工智能热潮的核心,其乐观的前景证明人工智能计算的支出正在推动销售。

可以肯定的是,整个行业的股票并不具有统一的特征。因此,斯坦利表示,考虑到个人名字的特殊性,“只有在指数水平上才能有效或公平地得出泡沫上升和下降速度的结论。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

全场景能力跃迁!广汽AI大模型平台首发亮相

8月8日,广汽正式推出AI大模型技术的最新研发成果——广汽AI大模型平台,该平台是汽车行业首创的大模型平台技术,将在近期搭载于高端智能轿跑昊铂GT亮相。

广汽AI大模型平台聚合了多种AI大模型,并与广汽智能网联底层能力深度融合,不仅能调用通用大模型的能力,还能基于智能汽车的应用场景构建专用模型,实现全场景智能体验的跃迁。

广汽AI大模型平台具备什么能力?

广汽AI大模型平台以海量的用车和研发数据集为基础,将结构化数据汇聚到AI中台,通过中台训练形成多种特定场景模型;平台可以根据应用需要,灵活调用多个模型,从而获得最优的推理结果,让应用服务精准、高效运行。

广汽AI大模型平台框架

基于广汽星灵电子电气架构的原子化服务能力,广汽AI大模型平台与车端能力和云端生态深度融合,让AI大模型平台成为全场景应用的入口,重塑智能汽车场景交互范式。

广汽AI大模型平台将率先落地什么功能?

广汽AI大模型平台将率先落地智能语音交互场景。基于该平台,智能语音可结合各种模型优势,运用车端本地推理能力和云端混合模型技术,实现精准的上下文语义理解;并结合广汽魔方场景共创平台与丰富的云端生态服务,全面提升语音的智能化和情感化,为用户带来更愉悦的使用体验。

目前,广汽AI大模型平台在不断测试与迭代中,已表现出相当高的“智商”和“情商”。

语音能力跃迁

基于环境和情绪状态感知,广汽AI大模型平台能更好地理解用户意图,实现更深层次的个性化和“类人”的交互。

自由对话:更加准确的语义理解模型,实现“类人”的自由交流。

移动百科:上知天文下知地理,旅途中的风土人情无所不知。

用车体验跃迁

广汽AI大模型平台将赋能移动出行体验,覆盖全场景用车服务,更深一层为用户解决旅途中的难题。

用车助手:全面集成智能汽车知识图谱,覆盖所有场景与功能,便捷获取使用指南和操作入口,提供贴心的用车服务。

行程规划:基于用户偏好、位置、环境感知和生态服务等,精准匹配用户出行需求,自动生成游玩攻略。

AI超级大脑

广汽AI大模型平台还具备强大内容生成与计算能力,让智能座舱成为解决复杂问题的超级大脑。

创作助手:自主创作内容,分析并提炼信息,提升创作和阅读效率。

超级大脑:结合大语言模型和计算引擎能力,可解析数理问题,并提供推理与运算过程。

广汽AI大模型平台改变了机械式的语音交互,将“一问一答”的形式升级为无门槛、直觉式的自然对话,让智能座舱真正具备“高情商”和“超智慧”。相关能力将在充分验证成熟后,通过OTA与车主见面。

广汽AI大模型平台还将带来哪些变化?

不仅智能座舱的体验将被颠覆,广汽AI大模型平台还将赋能智能驾驶。广汽一直积极探索人工智能在智能汽车感知、决策的应用,由全球人工智能顶级专家陈学文领衔、以纯视觉路线为主的世界前沿自动驾驶全栈自研X Lab团队,已在泊车和行车领域取得突破性进展。广汽AI大模型平台的应用将进一步提高智能驾驶的感知能力,提升智能驾驶的安全性和可靠性。

除了智能汽车本身,广汽AI大模型平台还将带来智能网联全链路的升级。大模型平台应用到正向研发领域,将促进软件开发、虚拟验证、仿真测试等环节的效率,加快智能汽车迭代升级。在数字化领域,大模型将提升多模态数据的挖掘能力和效率,结合海量数据和大量案例,为智能汽车提供智能诊断、健康预测的能力,建立全生命周期健康专家系统。

当前,智能驾驶和智能座舱的广泛普及,让汽车承载了更多生活属性。AI大模型的应用,将赋予智能汽车“智商”和“情商”,使之变得“类人”,充满智慧。广汽将基于自身在人工智能和智能网联领域的积累,联合星河智联、科大讯飞等业内顶尖合作伙伴,持续聚合行业先进的大模型解决方案,不断研发和丰富专用模型,为用户打造人车交互新范式,提升全场景智能体验。

广汽AI大模型平台将在近期搭载于高端智能轿跑昊铂GT亮相,届时大家将率先体验到该平台的智能语音交互能力,更多能力也将陆续揭晓,敬请拭目以待。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

2023:人工智能的“奇点”,隐私计算的“原爆点”

2023年初,ChatGPT横空出世,标志着生成式人工智能崛起。

作为一种新兴的数据安全技术范式,隐私计算借此契机,再次成为焦点。

近日,召开的2023中国人工智能大会共有8个平行专题论坛,其中就包含聚焦隐私计算的“隐私计算与人工智能发展专题论坛”。无独有偶, 今年7月初举办的2023世界人工智能大会上,同样针对隐私计算技术开设了“数据要素与隐私计算高峰论坛”

2023年,被视为隐私计算“融合应用之年”,是隐私计算在多个行业场景大规模应用的关键年份,在人工智能加速落地的时代,这一“数据安全技术基座”将迎来更多的爆发机遇。

隐私计算是在保护数据本身不对外泄露的前提下实现数据分析计算的技术集合,达到对数据“可用、不可见”的目的;在充分保护数据和隐私安全的前提下,实现数据价值的转化和释放。基于这一特性,隐私计算可以确保在不泄露数据内容的情况下,帮助人工智能获取更多、更广、更深的数据资源。

从1949年香农开创现代密码学时代起,安全多方计算、零知识证明被陆续提出,多种新的技术路线和隐私计算方案(例如混淆电路、基于秘密分享的MPC、半同态加密等协议和算法等)也陆续出现,七十余年间,隐私计算的技术体系逐步发展和壮大,并开始有大规模的项目落地。

2019年后,隐私计算进入应用期,在数据要素市场建设和数据价值发挥的时代背景下,产业需求快速增长,隐私计算走出学院派与实验室,广泛与行业应用场景相结合。各类隐私计算厂商也如雨后春笋一般涌现出来,激发了隐私计算技术可用性的快速提升。

时间来到2023年。数字经济建设提档加速,人工智能方兴未艾,人们开始了对区块链、元宇宙等概念的探索。新技术崛起,为隐私计算带来了全新的挑战与机遇。

融合发展:人工智能带来挑战与机遇

2023中国人工智能大会期间,上海交通大学讲席教授、博导、日本工程院外籍院士李颉在演讲中指出,人工智能的三大基础是算法、数据、算力聚焦数据层面,如何在合规尊重用户隐私的条件下充分发挥数据价值,如何打破壁垒、连接数据孤岛、提高可用数据的数量和质量 ,已成为人工智能发展需要解决的关键问题,而隐私计恰恰就是打破数据孤岛、拓展数据疆界的关键技术。

人工智能技术革命背后意味着巨大的隐私挑战。

在以深度学习为主导的人工智能浪潮中,基于大数据的深度学习技术最开始在互联网领域成功落地,并广泛运用于搜索、推荐、语音识别、机器翻译等各个方面。随着人工智能超级模型工作的推进,算法训练模型所使用的数据规模越大,模型参数规模越大,模型在使用时候识别精度就越高。至此,AI进入大模型时代,并有望在医疗、金融、教育等数据丰富的行业首先落地。

AIGC的出现标志着人工智能发展史走到了“奇点”。数字技术迎来颠覆性的变局,也将会带来新的冲击和挑战。尤其是AIGC的训练过程基于大量数据集,这一属性也会使数据收集、使用、流通和计算面临更多合规要求。因此,在展望AIGC未来的同时,仍需要增强隐私计算技术的应用,并通过建立监管机制、增强相关立法,确保AIGC合规发展。

未来方向:乘时乘势,带入千行百业

AIGC崛起,有望成为隐私计算迎来“原爆点”的契机。

在技术层面,隐私计算不同技术路线正在走向融合,实现“1+1>2”的效果。与此同时,隐私计算与区块链、人工智能、工业互联网也逐步融合,尤其是隐私计算与硬件的结合已产生多款一体机等软硬件结合产品,预计将会越来越丰富。聚焦AIGC,当前业内均在尝试使用各种方式保护用户数据隐私。除了较为直接的方法,如向用户提供警告信息之外,隐私计算也已成为AIGC中隐私保护的重要工具,联邦学习和可信执行环境是其中较有代表性的技术路线。

在AIGC服务的生命周期中,用于训练的大规模数据集和用户的私人信息需要得到保护,可以利用联邦学习来解决训练数据的安全问题。由于AIGC应用与互联网高度集成,用于AIGC模型训练的数据发生在边缘服务器和移动设备上,它们对各种威胁隐私的攻击的防御能力较弱。最近,研究人员已经提出几个分布式学习框架用于隐私保护,利用联邦学习技术,可以实现在边缘服务器和移动设备上进行模型微调和推理,联邦学习在训练期间不传输原始数据,从而确保AIGC模型训练过程的安全性。

在此基础上,将可信执行环境(TEE)和联邦学习技术结合,可以为大语言模型提供更完善的隐私和数据保护。借助基于TEE的联邦学习解决方案,在训练阶段,TEE中的数据处理都处于加密状态,在推理阶段TEE能够保护用户输入和模型结果的隐私;同时,TEE的硬件隔离和安全验证机制可以防止未经授权的访问和攻击,增强模型运行时的安全性。

伴随着技术的不断成熟,国内外隐私计算产业化的步伐明显加快。未来几年,将是隐私计算技术产品加速迭代、应用场景快速拓展、产业生态逐步成熟的重要阶段。

AIGC的“奇点”为契机,隐私计算有望迎来“原爆点”,被带入千行百业。联邦学习、TEE等多种技术体系间也将实现更深刻的融合。

在不远的将来,这项技术将如同移动互联网、水、电网一般,成为数字时代的底层基础设施。

来源:中国网

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

好戏开场!马斯克与扎克伯格的世纪大战,将在X平台直播

8月7日消息,X平台(推特)CEO埃隆·马斯克与Meta CEO马克·扎克伯格的“约架”一事,成了很多“吃瓜”网友关注的重点。

马斯克称,与扎克伯格之间的“八角笼约架”将在X平台直播,他表示“我肌肉长得很快,体力耐力是我的弱点,所以我打算速战速决。”

对于网友提出的“这次格斗意义是什么”的问题,马斯克回答称,“这是一种文明的战争形式。”

扎克伯格在Threads回应了马斯克的“约架”,他表示,“已经准备好了,建议日期定在8月26日,但马斯克没有确认”,扎克伯格还希望能换一个平台:“难道我们不应该使用一个更可靠的平台,可以为慈善机构筹集资金吗?”扎克伯格说。

据悉,6月20日,马斯克称准备和扎克伯格进行一场“笼中格斗”。扎克伯格随即应战称,“地址发我。”马斯克随后给出地址,“拉斯维加斯八角笼”。自此,双方达成“约架”。

对于这场“约架”,马斯克母亲梅耶尔·马斯克为自己儿子担心称“不要乱开玩笑,打打嘴仗算了,不要动武。”

值得一提的是,在前不久推特大乱时,扎克伯格“偷袭”马斯克,Meta发布了一款对标推特的社交App——Threads。

Threads上线仅4天就吸引了超过1亿用户,但根据研究机构Sensor Tower数据,截至7月31日,Threads日活用户数量比刚上线时暴跌82%,每天只有800万用户访问。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

苹果开始招募生成式AI人才,提供数十个大模型岗位

据《金融时报》,苹果公司正在加强其在生成式人工智能方面的专长,以将其应用于 iPhone 和 iPad。
苹果正在加利福尼亚、西雅图、巴黎和北京的办公室招聘数十个职位,这些职位将从事大型语言模型工作。所有这些岗位的招聘广告均在 4 月至 7 月间发布。彭博社上个月报道称,苹果公司去年年底开始试验自己的类 ChatGPT 工具。

22%员工经常在工作中使用AI
麦肯锡人工智能部门 QuantumBlack 发布的最新报告显示,生成式 AI 的使用已经相当普遍。麦肯锡在 2023 年 4 月 11 日至 21 日期间对不同地区、行业和公司规模的 1684 名参与者进行了一项在线调查。

79% 的受访者表示,无论是在工作还是工作之外,他们至少接触过生成式 AI。22% 的受访者称,他们经常在自己的工作中使用它。近一半(40%)受访者表示,得益于生成式 AI,公司计划增加整体人工智能投资。此外,该技术已被 28% 的公司列入董事会议程。

值得注意的是,北美受访者在工作中采用生成式 AI 处于全球领先地位,其中 28% 的受访者在工作和生活中使用该技术,而欧洲受访者和亚太地区受访者的比例分别为 24% 和 22%(中国仅为 19%)。

生成式AI为何在工作中普遍使用?

生成式AI即以人工智能技术为基础,能够生成具有一定创造性和独特性的内容,如文字、音乐、绘画等。它在工作中被广泛使用的原因主要是

一:生成式AI相较于传统人工智能技术,具有更高的自主创造能力。

二:生成式AI在创作和创新领域具有很大的潜力。

三:生成式AI在一些需要大量内容生成和处理的领域具有很大的优势。

四:生成式AI在日常工作中也具备自动化和智能化的优势。

生成式AI之所以在工作中得到广泛使用,主要得益于其高度的自主创造能力、创新潜力、内容生成和处理的优势,以及自动化和智能化的功能。未来,随着人工智能技术的不断发展和完善,生成式AI在工作中的应用前景将会更加广阔。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

亚马逊云全球副总裁:生成式AI正处于炒作周期,还未达顶峰

 来源:澎湃新闻

  记者 邵文

  “我认为我们无法否认互联网泡沫曾经存在过,但它确实改变了每个人的生活,我们现在已经无法想象没有互联网的生活了。我相信生成式人工智能将改变每一个职业、每一个行业中的每一个企业。这需要时间。”

  在生成式AI热潮下,今年美股中有七大科技股备受关注,它们分别是亚马逊(AMZN)、苹果(AAPL)、英伟达(NVDA)、特斯拉(TSLA)、Alphabet(GOOGL)、微软(MSFT)和Meta(META)。这七只股票在2023年有着极佳的开局,平均涨幅约为88%。

  根据美国财经媒体Business Insider的统计,这七大科技股的总市值今年飙升了60%,即4.1万亿美元,达到11万亿美元。这几乎是德国经济规模的三倍。根据世界银行的数据,到2022年底,德国经济价值略高于4万亿美元。

  其中,亚马逊是华尔街最受欢迎的股票,91%的分析师对其股票给予“买入”或同等评级。标准普尔500指数股票的平均买入评级约为55%。

  当前生成式AI的极高热度是否是泡沫?亚马逊云科技生成式AI全球副总裁瓦西·菲罗明(Vasi Philomin)对澎湃科技(www.thepaper.cn)记者回应道,“我认为我们无法否认互联网泡沫曾经存在过,但它确实改变了每个人的生活,我们现在已经无法想象没有互联网的生活了。我相信生成式人工智能将改变每一个职业、每一个行业中的每一个企业。这需要时间。”

 Gartner技术成熟度曲线(也称“炒作周期”)图表。

  菲罗明直接提出记者想问的问题:我们现在是否处于炒作周期(Hype Cycle)中?并直截了当地回答:“是的。如果你看看咨询公司Gartner发布的技术成熟度曲线(也称‘炒作周期’)图表,我想你应该很熟悉,我们可能还没有达到顶峰,肯定还会有更多炒作。但同时,很多人在幕后悄悄建立着有用的东西,他们在幕后实现着真实的业务用例。”

  菲罗明认为,当所有的炒作消失,技术成熟度曲线开始趋于平稳并再次起飞时,能够幸存下来的公司将是那些希望从商业角度思考问题,并使所有客户能够真实构建应用程序的人,这就是他们所希望的方向。

  根据Gartner最新发布的数据,全球基础设施服务市场在2022年增长了29.7%,总额达到1203亿美元。其中亚马逊以481亿美元的收入和40%的市场份额继续引领全球IaaS(基础设施即服务)市场,微软则以21.5%的份额位居第二。实际上,因为微软多年前对OpenAI的战略投资以及在生成式人工智能的积极参与,对于第二名(微软)对第一名(亚马逊)构成的挑战便一直是热门话题。

  华尔街分析师罗布·桑德森(Rob Sanderson)认为,“由于围绕生成式人工智能的兴奋点一直集中在微软和谷歌身上,许多投资者质疑AWS是否处于不利地位。”“我们认为更多投资者很快就会认识到人工智能将推动对云需求的有意义的扩张,而AWS将成为主要参与者。”

  但并非所有分析师都看好亚马逊云的增长。Itau BBA分析师蒂亚戈·阿尔维斯·卡普尔斯基斯(Thiago Alves Kapulskis)在亚马逊第一季度财报发布后的一份研究报告中写道,亚马逊与微软云服务之间的竞争令人担忧。“由于亚马逊存在如此多的不确定性,而且Azure(微软云)与AWS存在显著差异,我们相信市场将青睐前者及其母公司,而不是后者。”这位分析师写道。

  菲罗明在采访时并未回避这个问题。对于记者提及微软最新发布的一季财报,他提到,一个核心问题在于收入来源,从这个角度看两家公司业务模式存在差异——微软的核心业务可能是提升生产效率的办公产品,而AWS是一家B2B(business-to-business)企业,为企业提供云服务。

  “我们的重点是企业,我们提供的不是生产力应用程序,而是工具,我们的客户可以将这些工具应用于自己的业务工作流程中。”菲罗明表示,两者的商业模式并不相同,“如果人们使用AWS的服务,就是按调用付费。这是非常传统的AWS方式,你只支付你使用的服务。这与办公套件或微软的方式不同。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

ChatGPT增六项功能,GPT-4成默认模型,可上传文件、用快捷键

2022 年 11 月底,OpenAI 推出的 ChatGPT 掀起了生成式 AI 的狂潮。
在这不到 10 个月的时间里,ChatGPT 被不断升级完善,吸引了众多研究者的青睐。
刚刚,OpenAI 又放出一个好消息,他们宣布推出一些小的更新来改善用户使用 ChatGPT 的体验,这些改进预计将在下周推出


此次更新可概括为六点:
首先是 Prompt 示例帮助:以后用户在开始新的聊天时,将会有入门示例提供帮助。此前,用户经常会遇到空白屏幕,导致难以开始进行对话。为了缓解这种情况,ChatGPT 将在新聊天开始时提供示例提示,引导用户进行互动对话。
第二点 ChatGPT 背后默认模型是 GPT-4,即 Plus 用户开始一个新的聊天时,ChatGPT 会记住用户对之前模型的选择,默认模型不再是 GPT-3.5。

接下来是用户可以上传多个文件,以后用户可以要求 ChatGPT 根据上传的多个文件进行数据分析、生成见解。此外。Plus 用户在使用官方插件 Code Interpreter beta 版本时也能使用该功能。

网友对这一更新也是满怀期待,并表示 ChatGPT 上传多个文件的功能会改变游戏规则:

第四点是保持登录状态,用户不会在每两周被迫下线一次。当你登录时,还会看到一个欢迎界面。
Keyboard shortcuts: Work faster with shortcuts, like ⌘ (Ctrl) + Shift + ; to copy last code block. Try ⌘ (Ctrl) + /to see the complete list.


第五点是快捷键,接下来用户可以使用快捷键了,工作效率必能大大提高,例如,⌘(Ctrl) + Shift + 为复制最后一个代码块;⌘ (Ctrl) + / 查看整个列表等。

最后一点是建议回复,OpenAI 试图通过提供继续讨论的相关选项来丰富对话。用户只需单击一下即可更深入地探索主题,从而使用户与 AI 模型的交互更加动态和灵活。
以上这六点更新,大家下周就能使用了。


不得不说,OpenAI 对 ChatGPT 的改进越来越利好广大开发者,但是也不能完全覆盖到每一个用户,就有人提出了「有没有一个搜索栏,可以从你的聊天记录中找到一个特定的聊天记录,以便在以前的会话中使用已经提供的信息。」

但也有网友并不买账,前段时间大家都在讨论 GPT-4 变笨了,3 个月内其数学能力雪崩式下降,代码能力也变差。这位网友吐槽道:「OpenAI 的行动太迟缓了,本人已经退出 Plus 用户计划,现在使用 Bard 和其他替代品。这段时间以来,GPT-4 的回复质量急剧下降。」

不管怎样,对于很多用户来说,还是很期待的。我们最后粗略的列举了一下最近两个月,关于 ChatGPT 的消息:

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群