手机大厂卷疯了!苹果、华为、小米相继押注大模型,“生死之战”AI破局?

8月14日晚,在小米年度演讲上,小米集团创始人、董事长兼CEO雷军表示,大模型是重大技术革命,小米必须全面拥抱。据了解,目前小爱同学已升级大模型,8月14日开始邀请测试,小米手机端侧大模型已初步跑通。

除了小米之外,华为终端业务CEO余承东也表示:“AI大模型技术的发展将会带来下一代智能终端操作系统的智慧体验。”在华为HarmonyOS 4的升级中,智慧助手“小艺”已经接入了AI大模型技术。荣耀、苹果等手机厂商在AI大模型方向也有所动作。

手机厂商纷纷入局AI大模型,意味着全球AI大模型在应用端迅速发展。而AI应用场景拓展的背后,是新一轮“AI军备竞赛”的打响,不仅中国的科技巨头在抢夺AI芯片,沙特、阿联酋等“中东土豪”也加入了战场。

多家手机巨头入局,大模型竞争激烈

在8月14日晚举办的小米年度演讲中,雷军表示,小米AI大模型最新一个13亿参数大模型已经成功在手机本地跑通,部分场景可以媲美60亿参数模型在云端运行结果。小米旗下人工智能助手小爱同学已开始升级AI大模型能力,在发布会当天开启邀请测试。

“小米在AI领域坚持厚积薄发和尾随战略,在最新的发布会上称利用折叠屏手机成功跑了13亿参数的大模型,成为了全球首个。不过在内行眼中,这有‘噱头’属性,目前全球在跑的新一代云端大模型数量众多,哪怕弱一点的亦有60亿参数,像GPT 3.5已经上到1750亿参数,需要一万颗英伟达V100芯片构建的AGI网络集群才能实现,至于说GPT5.0的参数更是天量级别。”独立国际策略分析师陈佳说。

据雷军表示,2016年7月,是小米布局AI的起点。历经七年时间,目前小米AI相关团队人员规模已经超过了3000人。在今年4月,小米正式组建了AI实验室大模型团队。如今,月活用户超过1.1亿的小爱同学升级AI大模型能力,将拥有“更强的大脑”,在答疑解惑、交互对话等方面实现能力升级。

盯上AI大模型的手机厂商不止小米一家,在今年8月4日举办的2023年华为开发者大会上,余承东就宣布,HarmonyOS 4系统将得到盘古大模型的加持,使得智慧助手小艺具备AI大模型能力。不同于其他手机厂商,华为直接将大模型能力嵌入了手机系统层面,融合程度更加深入。用余承东的话说,具备AI大模型能力的小艺“智商更高了,更能干了”。

在近期苹果2023财年第三财季财报发布会上,苹果CEO库克也表示,苹果多年来一直在研究生成式人工智能和其他模型,未来几个月内,苹果公司用于生成式AI的研发支出将进一步增加。这也是苹果首次官方确认介入AI大模型。

6月29日,荣耀CEO赵明在上海世界移动通信大会上表示,未来将把AI大模型引入端侧赋能YOYO智慧助手,打造更加个人化、人性化,隐私保护更周全的端侧个人模型,带来多模态自然交互、精准意图识别、复杂任务的闭环服务等新体验。

5月22日,百度旗下小度发布首款手机小度青禾学习手机,该手机搭载了小度灵机大模型,提供AI拍照讲题、中英文AI作文辅导、AI口语练习等学习指导。

不过,手机厂商们对AI大模型的布局也并不都是“单打独斗”,也有厂商在寻求外部合作。据赵明透露,荣耀目前已经在跟互联网公司接触。他表示:“现在很多的公司和企业也在投入大模型各个领域,例如很多垂域的模型和通用的大模型,覆盖不同的领域。荣耀与这些公司的合作肯定是未来的必然选择,并且(接触)已经是在进行中的事情。”

北京社科院副研究员王鹏接受记者采访时表示,如果厂商自身研发实力不足或投入有限,可以和大平台及科研机构合作,一方提供技术,一方提供场景、资金和资源,各取所需。

不过整体来看,目前手机厂商对AI大模型的布局多局限于“语音助手”。IDC中国高级分析师郭天翔接受记者采访时表示,手机厂商布局AI大模型更多是出于对热点的追逐,真正在手机上的使用场景尚未明确。目前看也只是通过语音助手来实现落地。郭天翔认为,目前还未看到AI大模型会成为影响手机市场竞争的决定性因素,离落地普及仍有较远距离。消费电子“存量博弈”,是压力也是动力

为什么手机厂商纷纷入局AI大模型领域?因为目前手机赛道的竞争已经进入存量博弈阶段,手机厂商需要在新技术上建立竞争优势,也需要通过新的卖点角逐高端市场。

据中国信通院数据,今年上半年国内智能手机出货量1.24亿部,同比下降7%。据Canalys数据,2023年上半年全球手机出货量约5.25亿部,较去年同期下滑超7000万台。

王鹏表示:“目前手机市场销量下滑,长久以来大家的竞争高度同质化,震撼级产品不足,这种情况下大家就只能比拼一些细节,像芯片、电池、摄像头、屏幕大小、重量等等。人工智能大模型出现之后,对手机厂商来说是一个有可能引爆市场的新卖点,因此有资源、有能力的企业就开始进行布局。”

财经评论员张雪峰接受记者采访时表示,手机厂商角逐AI大模型赛道是正常的市场竞争行为。AI大模型可以提供更先进的语音、图像和智能交互功能,为用户带来更好的使用体验。手机厂商通过优化和引入AI大模型,可以提高产品的竞争力,满足用户的需求,并且赢得市场份额。

同时,手机厂商们不仅仅拥有手机业务,如小米还有智能家居产品,华为有智能汽车解决方案业务等。全联并购公会信用管理委员会专家安光勇表示:“AI大模型的技术能力不仅局限于手机,还可以扩展到自动驾驶、智能制造、机器人等多个领域,为企业创造更多的商机和增长点。同时,AI被认为是未来科技的重要风口,手机厂商希望能够在这个领域抢占先机,获取更多市场份额和利润。”

高端化“生死之战”,大模型能否破局?

目前来看,国内手机厂商在AI大模型领域的发展速度领先于海外巨头。在近期苹果2023财年第三财季财报发布会上,苹果CEO库克表示,苹果多年来一直在研究生成式人工智能和其他模型,未来几个月内,苹果公司用于生成式AI的研发支出将进一步增加。这是苹果首次官方确认介入AI大模型,和华为等国内厂商相比,苹果的“AI之路”走得较为缓慢。

因此,AI大模型也被视作国内手机厂商建立竞争优势、冲击高端市场的方向之一。据Counterpoint数据,今年二季度,苹果公司赚走了全球智能手机行业85% 的营业利润,创最高季度纪录。

在手机市场的“存量之战”中,高端化成了必须啃下的硬骨头。雷军也在小米年度演讲中表示:“高端是小米的必由之路,更是生死之战。”

张雪峰接受记者采访时表示:“中国手机厂商如华为、小米已经在AI大模型赛道上投入了大量资源,并取得了一定的成绩。如果中国手机厂商能够在该领域保持竞争优势,并通过不断创新和满足用户需求来占据高端市场,它们有机会在手机赛道的下半场竞争中取得领先地位。”

资深产业经济观察家梁振鹏认为,通过提供更强大的AI功能,手机厂商可以吸引更多用户购买高端手机,提高产品溢价能力,从而提升利润。

不过,尽管AI大模型有潜力在手机赛道的下半场竞争格局中发挥重要作用,但其发展也受内部环境和外部环境的制约。

安光勇认为,从内部环境来看,中国手机厂商在AI大模型领域可能受到政治、法律、道德等方面的制约,需要在技术发展和应用落地过程中平衡各种因素。从外部环境来看,硬件技术、核心芯片等关键领域对海外的依赖度可能影响中国手机厂商在AI大模型竞争中的地位,尤其是在芯片供应方面存在不稳定因素。

因此,国内手机厂商想在AI大模型上树立起竞争优势,也需要保证“弹药”的充足,在人工智能芯片等关键领域保证供应。

全球开启抢芯模式,打响“AI军备竞赛”

目前,全球正进入新一轮“AI军备竞赛”,对人工智能芯片的抢夺进入白热化。

据英国《金融时报》8月14日报道,沙特阿拉伯和阿拉伯联合酋长国正在购买数以千计的英伟达AI芯片,以谋求在人工智能领域的领先地位。

据了解,沙特阿拉伯已经通过阿卜杜拉国王科技大学购买了至少3000枚英伟达H100芯片。知情人士透露称,这所沙特阿拉伯大学还拥有至少200个英伟达A100芯片,他们正在开发采用了700个英伟达Grace Hopper超级芯片的名为“Shaheen III”的超级计算机,并将于今年投入运行。

而中国的互联网巨头们也在行动。据报道,百度、腾讯、阿里、字节跳动等互联网巨头正采购英伟达高性能AI芯片,今年总共采购约10万张A800芯片,订单金额达10亿美元(约合人民币73亿元),明年订单价值达40亿美元(约合人民币291亿元)。英伟达方面回应称,消费互联网公司和云服务提供商每年都会在数据中心组建方面投入数十亿美元,通常会提前几个月下订单。

除了企业之外,中国的各大城市也在行动,加紧人工智能发展。5月30日,北京发布《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023~2025年)》,将侧重打造人工智能技术底座,围绕人工智能关键技术、人工智能产业方阵等方面,聚焦优势潜力和短板薄弱环节进行系统布局,撬动引导创新资源优化配置。其中,特别提出要推动国产人工智能芯片实现突破,积极引导大模型研发企业应用国产人工智能芯片,加快提升人工智能算力供给的国产化率。

同一天,上海发改委印发的《上海市加大力度支持民间投资发展若干政策措施》中提到,要“充分发挥人工智能创新发展专项等引导作用,支持民营企业广泛参与数据、算力等人工智能基础设施建设”。

5月31日,深圳正式印发《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023-2024年)》,称将“举全市之力打造国家新一代人工智能创新发展试验区和国家人工智能创新应用先导区,努力创建全球人工智能先锋城市”。为此,深圳将统筹设立规模1000亿元的人工智能基金群,规模之庞大全国罕见。

如果说各个国家、各大城市加码人工智能产业是全球“AI军备竞赛”的第一轮,那对AI芯片的抢购就是这轮军备竞赛的第二轮。轮轮转动之下,全球人工智能产业也迎来蓬勃发展。

从目前情况来看,中国公司在人工智能赛道的“起跑点”稍显落后。陈佳向记者表示,目前整个AGI(通用人工智能)软件市场基本上由微软、谷歌、Meta主导,硬件则基本被英伟达的全系列AI芯片主导,intel、AMD以及国内华为等大厂属于第二集团,短期内很难撼动英伟达利用大模型建立的AI硬件开发优势。相比之下,其他厂商包括国内手机大厂都属于第三第四梯队,短期内除了其自身核心客群之外,不会对AI算力市场构成显著影响。

不过“起跑点”的落后也意味着发展空间的广阔。国金证券认为,未来3-5年人工智能产业将保持较高增速,2022年中国人工智能产业规模达1958亿元,预计2027年可达6122亿元,年均复合增速约为25.6%。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

大爆发!AI又有新催化?

AI方面的炒作是从硬件开始的,然后提升到大模型最后到应用端。

之前也复盘过,涨得最凶的也最猛的就是硬件板块,光模块为代表的硬件,他身后还有光器件、AI服务器、交换机、PCB、PCLE线、存储芯片、机器人、智能驾驶等等

大模型就是以360、昆仑万维、科大讯飞为代表的,目前来看也就是科大讯飞有成为领军人物的潜力

再然后就是应用端,游戏、传媒、剪辑软件、金融、教育、法院、政务等等

以上逻辑都靠的是英伟达映射的逻辑,都是通过国外的商业逻辑映射国内,通过国外的信息催化国内,最近的平台期就是国外发展过快与国内业绩落地过慢的矛盾,使得高位的个股diedie不休。

而数据要素板块,算是在整个AI里面涨幅相对不那么高的,因为2月份他们已经涨过了一波,就是因为信创和数字经济国策发布。

因为AI汹涌而来,偏向AI逻辑被大家熟知,当时最被大家熟知的两个逻辑就是硬件通胀和数据价值重估,其实硬件板块炒来炒去,大家明白了,很难业绩落地,因为技术有代差。

数据要素反而是咱们的优势,咱们的体制想要推动这类政策执行,一定是快于国外的,在采集、存储、加工、流通、分析、应用方面能够快速推进,毕竟是数据要素已经类比到土地了,是国家拥有的生产要素。

最近数据要素的催化,最开始是人民网的数据确权文件的发布,这几天是信创招标开始,年初的信创逻辑就是招标预期,现在是招标落地了。

山丘目前查到7-8月份,信创招标的项目主要是为

招标主要集中在硬件和软件系统两个方向,硬件主要是华为系和软件更多是国产化逻辑,信创更多偏向是软件招标

未来的催化肯定是招标大单的消息,这类都是短中线催化,招标大单过后就是业绩落地,这点和风电差不多,招标预期过后,就是装机量,在信创板块就是业绩落地了,叫装机量好像也没什么问题,也是装在电脑里、手机里各种穿戴设备里。

华为产业链的公司如下图

信创相关产业链如下图,最好是有订单为先,国资云的深桑达A和太极股份算是比较稳健的

除去硬件外,国内比较能够掌握到的,能够自主做强的还是软件和数据相关的,只是目前能够看得到的落地就是招标和一些政策上落地,更多还是短中线逻辑,长线逻辑还得看国内的数字经济相关的联通能力,换句话说就是国内的整个大系统中,掌握环节越多其价值也就越多,出海方面是看单一软件和硬件的自身壁垒有多深。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI医生,靠谱吗?

不是帮忙写病历,不是辅助看报告,不是手术导航定位,更不是智能导诊,真正能看病的“AI医生”可能要来了。

中国的医疗科技公司正在自主研发基于Transformer架构的医疗大语言模型,并应用于真实医疗场景的AI医生产品“MedGPT”。而这款产品的首次“出圈”,是因为一场上百人规模的真实世界试验。
这场6月30日在成都进行的“大型公开测评”,参与者包括120多位真实患者和10名四川大学华西医院的主治医师,还有7位全国各地三甲医院专家作为陪审。毕竟大模型能不能用来看病这件事,最有发言权的,还是专家医生。
最终,“AI医生”与三甲主治医生在比分结果上的一致性达到了96%。
8月10日,其研发企业医联Medlinker对外公布了该产品的最近进展。据介绍,医联MedGPT又完成了1052例医生临床测试,不断通过数据刷新AI医生临床有效性记录,并持续验证医疗安全性。
围绕这款横空出世的“AI医生”产品和其实际效果,本文试图讨论几个核心问题:

1.MedGPT看病靠谱吗?评价是否靠谱的标准是什么?
2.MedGPT能在哪些环节帮助提升就医体验、诊疗效率和质量?
3.MedGPT走向成熟和普及之时,地域资源不平衡、看病难的医疗痼疾能否被推动解决?MedGPT看病,靠谱吗?

鉴于患者和医生之间存在巨大的信息鸿沟,判断MedGPT可靠性的标准和结果,都来自经验丰富的医生专家。
其实施过程是,邀请120位真实患者使用“AI医生”问诊,过程中实习医生辅助将信息同步传达给10位四川大学华西医院的真人医生(职级主治及以上),双方在互不影响的情况下分别给出独立判断。
评估结果时,将上述过程切分为问询、诊断、给出治疗建议、开具辅助检查方案、分析检查结果、提供可信解释等6个环节,由来自北京阜外医院、中日友好医院、北大人民医院等三甲医院的7位主任专家,针对每个环节分别给AI和真人按照准确性、专业性等统一标准进行打分。
最终,真人医生的综合得分为7.5,而AI医生得分为7.2,二者一致性为96%。评测疾病涵盖消化科、心内科、老年呼吸科、骨科、泌尿外科、肾内科等多个领域。

一位专家在打分时,甚至对AI给出了高于真人医生的分数,理由是在专业水平接近的情况下,MedGPT更加细致,不易误诊漏诊,甚至对患者表现出更大的人文关怀。
据医联对外公布的数据,MedGPT目前的参数规模为100B规模,预训练阶段使用了超过20亿的医学文本数据,微调训练阶段使用了800万条的高质量结构化临床诊疗数据,并投入超过1000名医生参与人工反馈监督微调训练。
在短短40天左右的时间里,MedGPT的患者测试案例实现从百到千的十倍量级增长,不难看出医联对这一产品的投入程度。据了解,在过去的几个月内,其医疗专家和技术专家团队“以小时为单位”进行着迭代和调优。在这个过程中,已有超过1000名三甲医院医生参与到产品的研发、测试、优化过程中。
值得一提的是,在全球范围内,这种“AI医生”与人类医生同时面对真实患者的“双盲实验”还是首次完成,这也为检验医疗GPT的有效性和准确性等开拓了标准范式。任何产品或业务,涉及到医疗领域都是一件严肃的事情,但在当前,各国相关监管部门还尚未提出对医疗大模型产品的注册审查标准,则更需要最早的产品研发者对自身提出要求,需要市场的行业自律。如今临床测试的数量已经达到了1052例,而在以往创新药物或医疗器械的临床试验项目中,千人量级均属于超大型规模水平。数字医疗的全新引擎
在此之前,医疗领域已经诞生了不少应用AI技术开发的产品,比如电子病历、智能导诊分诊系统、医学影像辅助诊断产品以及手术机器人(或称手术导航定位系统)等,这些产品都是“碎片化”地聚焦分布在诊疗流程的某一个具体环节,帮助优化就医体验、提升就医效率和质量。


但大语言模型的技术突破,让AI技术在医疗场景下的应用,有了更进一步参与或跟踪整个诊疗流程的可能。
理论上,除了需要动手术、拍片子和取药等必须在线下实体进行的环节,其他步骤如咨询、诊断、开具检查、报告解读、给出治疗方案和康复建议等,均可以在对话中完成,并且通过上传检查结果等交互行为,MedGPT可以“补上”线下未参与部分,进而做出可靠回答。
此时,于患者而言,MedGPT的实际角色变成了一个可以识别和诊断大部分常见疾病,并给出进一步线下检查或用药、诊疗建议的“AI家庭医生”。
特别是当用户养成随手问诊的行为依赖,持续反馈不同医院的线下就诊信息,而MedGPT又能储存并自动调取历史记录时,就俨然成为了一个身边最清楚你过去病史和身体状况变化的、普通人也能拥有的全天候随时守护的“家庭医生”;

对医生而言,MedGPT可以成为一个帮助高年资医生完成基础工作,进行信息核对、查漏补缺、跟踪随访及进行患者管理的“AI助理医师”,也可以是一个帮助低年资医生快速学习和成长、随时探讨病例并分析思路的“AI医生导师”,还可以是一个帮助一线医生及时获取前沿治疗指南和专家共识、更新自身专业储备的“学术推广AI医生”。
而对于整个医疗医药行业而言,大模型AI技术则可能成为一个为行业带来新一轮发展动力的全新“引擎”,将这一垂类模型应用于不同的场景、不同载体上,能够不断碰撞产生新的火花。


MedGPT的研发企业医联,其自身已在医疗领域深耕近十年。2014年公司成立,2017年获得互联网医院牌照,2018年开设首个互联网医院科室感染科,同期启动自主研发的丙肝患者管理体系。目前平台拥有数十万名注册医生,覆盖肿瘤、心脑血管、糖尿病、呼吸、慢性肾病、感染、精神心理、消化、神经、中医等多个病种学科领域。
MedGPT同样也是医联的全新引擎,作为第一个大模型应用在医疗场景应用的探索者,有望引领行业真正进入数字医疗2.0时代。
医联MedGPT项目负责人早就“喊话”,希望业内AI科技、医学、院校机构、医疗多模态应用等各种类型的合作伙伴,共同开发建设通用型人工智能技术的医疗应⽤场景为医疗行业的技术发展贡献力量。
当前其主要征集的合作伙伴包括三大类:一是数据合作,包括三甲医院、相关医疗数据企业等;二是科室建设合作,包括三甲医院、医学专家、数字医疗企业、数字疗法等;三是多模态模型合作,包括但不限于辅助诊断模型、治疗推荐模型、预后评估模型、药物发现模型和流行病学模型等。世界性难题,往往由颠覆性科技推动解决
尽管MedGPT的出现令众多医生惊艳,也让我们进一步打开了未来就医便捷化的可能性,但不难猜想,当前一定还存在些许优化空间。
比如,为了保证结果“不出错”,医疗GPT给出的建议是否存在过度诊疗的倾向?
又比如,医疗GPT对患者疾病做出诊断和治疗方案,都是基于目前现有的专家共识或者诊疗指南,但一些新开发的药物的临床应用,仍然需要一线专家去探索尝试,现阶段AI技术的应用大概率还不会突破人类医生自身的认识边界。
不过,这并不会影响这项技术所带来的兴奋和未来的想象空间。
医疗改革一向是个世界性难题,对于中国这个人口庞大、地域广袤的发展中国家而言则更甚。早自2009年起我国便开始探索和鼓励公立医院医生多点执业,2015年起我国正式提出并开始在多个城市试点分级诊疗制度,近年来各地医联体、医共体持续推行远程医疗等,均是为了改善医疗卫生资源在不同地区分配不平衡、百姓看病难的问题。

科技的发展或许难以对抗自然规律的生老病死,但我们可以展望的是,有了MedGPT,无论身处何时何地,我们将能够以自然对话的最低门槛形式,即时获取自己关心或者迫切需要的权威医疗健康信息。
所谓“低门槛对话”,一方面要求技术在于打破时间和空间的限制,另一方面还在于用户体验上,语言沟通的“无障碍”。
因此“AI医生”的自然语言交互能力也格外重要,除了准确、靠谱、专业,能听到患者非专业用语表达的“大白话”,是保证用户体验的基本。
例如在真实评测体验中,对于一句通俗的“肚子疼”,AI医生会进一步引导患者说出具体的疼痛部位、疼痛持续的频率、疼痛方式等,并通过询问饮食情况、有无外力撞击、有无相关病史等细节、不断缩小范围、排除错误判断,最终给出确切答案。
AI医生没有问诊的时间限制,也不懂何为压力和情绪,可以不厌其烦地7*24小时接诊。

目前,医联MedGPT已经可以覆盖我国最新疾病分类标准(ICD10)中60%的疾病病种,并在近期将研发重心倾斜在多发疾病,以提升数字医院的普惠率。据悉预计在2023年底,可以覆盖80%病种的就诊需求。
有一天,当MedGPT真正走向成熟和普及,不仅有助于打破医疗资源的地域不平衡,对于消除医学专业信息鸿沟、减少误诊漏诊,提升国民整体的健康素养和健康水平,都有巨大帮助。
与此同时,MedGPT会不断沉淀用户关于疾病和患者诊疗行为的真实世界数据,其中不仅包括原本静静躺在各个公立医院电脑信息系统内的诊疗数据,也包括医院所无法持续追踪的院外数据,随着相关法律法规的健全,这些海量数据也有望被释放出来,对于罕见疾病的新药研发、常见病的健康管理甚至是针对精准人群的健康保险产品开发等,都具有重要意义。
届时,我们能够真正期待全新的“健康新世界”。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

“速度是传统方法一万倍”,欧洲用华为AI模型预报天气

据香港《南华早报》网站8月13日报道,欧洲一个政府间机构正在与中国一家科技巨头密切合作,将人工智能(AI)技术用于天气预报。

报道称,近日,欧洲中期天气预报中心(ECMWF)启用了能够预测全球天气的中国人工智能模型。

这个被称为“盘古气象”的模型是华为技术有限公司开发的。

报道称,在此次合作中,中国这家技术公司得以将气象科学转化成实际应用;而欧洲天气机构已开始在日常预报中采用人工智能技术。

华为科学家田奇在接受本报独家专访时说,欧洲中期天气预报中心决定在天气预报中使用“盘古气象”模型,部分原因在于该模型的高效性能,以及预报中心认识到人工智能在这个领域中具有重大潜力。

报道称,“盘古气象”模型预报只需非常低的计算成本,同时在准确度方面仍具竞争力。

▲7月6日,2023世界人工智能大会在上海开幕。图为开幕当天,人们观看华为云盘古气象大模型。(王翔 摄)

田奇说,今年4月至7月进行的测试显示,“盘古”模型在若干准确度指标和极端天气预报方面展现出优势,这似乎就是欧洲中期天气预报中心决定采用这套模型的原因。

报道称,根据7月份发表在英国科学杂志《自然》周刊上的一篇论文,“盘古气象”模型在预报方面比传统数值预测方法更为精确。它能提前一小时至七天预测天气情况,预测速度是数值预测方法的一万倍。

田奇说,目前“盘古气象”模型可提供以秒为单位的全球天气预报,预报内容包括湿度、风速、气温、海平面气压等;该模型在预测台风路径、寒潮、热浪等方面也表现出色。

这个人工智能天气预报模型最近预测了台风“杜苏芮”的轨迹,并且准确预测了8月4日台风“卡努”的转向。

田奇说这个模型为世界各地气象部门提供了重要信息。

香港《南华早报》联系了欧洲中期天气预报中心,询问了人工智能模型使用情况。一名女发言人提到了最近发表在该机构官网的一篇博客文章。文章说:“现在是时候采用这项技术并确立物理建模与机器学习之间的最佳平衡,从而持续改进预报工作。”

报道称,欧洲中期天气预报中心预报部主任弗洛里安·帕彭伯格博士称人工智能模型是天气预报的“悄然革命”。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

小米 AI 大模型 MiLM-6B:64 亿参数,C-Eval 总榜排名第 10

小米 AI 大模型 MiLM-6B 首次曝光。

MiLM-6B 是由小米开发的一个大规模预训练语言模型,参数规模为 64 亿。在 C-Eval 和 CMMLU 上均取得同尺寸最好的效果。

根据 C-Eval 给出的信息,MiLM-6B 模型在具体各科目成绩上,在 STEM(科学、技术、工程和数学教育)全部 20 个科目中,计量师、物理、化学、生物等多个项目获得了较高的准确率。

据悉,MiLM-6B 模型目前已经在大多数文科科目中表现出了相对良好的准确度,不过在 “法学、数学、编程、概率论、离散数学” 等涉及 “抽象思维” 的科目中,还有一定进步空间。

在 10 个 “社会科学” 测试科目中,除 “教育学和地理” 外,该模型在其他 8 个科目中都获得了较为理想的准确率。在人文科学的 11 个科目中,MiLM-6B 则在 “历史与法律” 基础上有着不错的准确率表现。

虽然小米 AI 大模型 MiLM-6B 当下才首次曝光,不过完成度已经较高,在未来该模型可能会被用于小米旗下 “小爱同学” 等虚拟助理服务中。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

升级要再次付费引不满,GoodNotes宣布为中国用户提供专属优惠

笔记软件 GoodNotes 6近日上架苹果 App Store 商店,和 5 代相同,依旧需要付费购买,官方提供按年付费和买断两种方式,前者为 68 元一年,后者为 186 元买断。

然而,5 代的付费用户无法直接获取 6 代的功能,仍然需要再次付费,引发了大量老用户的不满。

今日,GoodNotes 官方小红书账号发布声明:“在认真倾听了大家关于本次产品升级和定价的反馈意见后,决定为中国用户提供专属优惠。”

  • 年费会员和一次性解锁价格全面下调 40%
  • GoodNotes 5 付费会员可叠加使用升级折扣

GoodNotes 官方表示,GoodNotes 5 付费用户也可以选择继续使用 GoodNotes 5,不升级至新版本。近两天升级的用户如需退款,可联系客服。

不过,官方账号评论区的用户似乎对此并不买账,热评指责其放弃老用户、吃相难看、违约等。

之前竞品软件Notability改订阅制引起过一轮风波,GoodNotes还阴阳过友商,结果现在是:嘲笑Notability,理解Notability,成为Notability……

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

​Nature首发!一种AI时代科研新范式,开拓未知领域

AI与各个科学领域结合后,正在发生着一场充满潜力和挑战的科技革命。

通过探索理论、设计实验、分析数据,人工智能将为我们所熟知的科学发现提供超级动力。

8月2日,谷歌团队研究人员在Nature上发表了一项研究——人工智能时代的科学发现,总结了AI在科学发现中的应用和进展。

论文地址:https://www.nature.com/articles/s41586-023-06221-2

如何收集、转换和理解数据为形成科学见解和理论奠定了基础。

2010年代初兴起的深度学习,极大地扩展了这些科学发现过程的范围和雄心。

人工智能越来越多地应用于各个科学学科,以整合海量数据集、完善测量、指导实验、探索与数据相匹配的理论空间,以及提供与科学工作流程相结合的可操作的可靠模型,从而实现自主发现。

数据收集和分析是科学理解和发现的基础,也是科学的两大核心目标、定量方法和新兴技术。

20世纪50年代,数字化的引入为计算机在科学研究中的普遍应用铺平了道路。

自2010年代以来,数据科学的兴起使AI能够从大型数据集中识别出与科学相关的模式,从而提供有价值的指导。

尽管科学实践和过程在科学研究的各个阶段各不相同,但人工智能算法的发展跨越了传统上孤立的学科。

这种算法可以增强科学研究的设计和执行,正在成为研究人员不可或缺的工具。

科学发现是一个多方面的过程,涉及几个相互关联的阶段,包括假设形成、实验设计、数据采集和分析

近来,AI在科学方面最新的进展,就包括解开50年前的蛋白质折叠问题,以及人工智能驱动的数百万粒子的分子系统模拟,证明了人工智能解决具有挑战性的科学问题的潜力。

与任何新技术一样,AI4Science 的成功取决于,我们是否有能力将其融入日常实践并了解其潜力和局限性。

在科学发现过程中,广泛采用人工智能的障碍包括发现过程每个阶段特有的内部和外部因素,以及对方法、理论、软件和硬件的实用性和潜在滥用的担忧。

论文中,研究人员将探讨人工智能科学的发展并解决关键问。

AI辅助科学研究数据采集与管理实验平台收集的数据集规模和复杂程度不断增加,导致科学研究越来越依赖实时处理和高性能计算,以选择性地存储和分析高速生成的数据。

数据选择

一个典型的粒子碰撞实验每秒产生超过100 TB的数据。这类科学实验正在挑战现有数据传输和存储技术的极限。

在这些物理实验中,99.99%以上的原始仪器数据都是背景事件,必须实时检测并丢弃,以管理数据速率。

为了识别罕见事件,便于未来的科学研究,深度学习方法用「搜索离群信号」的算法取代了预先编程的硬件事件触发器,以检测压缩过程中可能遗漏的意外或罕见现象。

背景过程可使用深度自动编码器生成模型。

自动编码器会为以前未见过的、不属于背景分布的信号(罕见事件)返回较高的损失值(异常得分)。与有监督异常检测不同,无监督异常检测不需要标注,已广泛应用于物理学、神经科学、地球科学、海洋学和天文学。

数据标注

训练有监督模型需要带有标注的数据集,这些标注可提供有监督信息,以指导模型训练,并根据输入估计目标变量的函数或条件分布。

在生物学领域,为新表征的分子分配功能和结构标签的技术对于监督模型的下游训练至关重要,因为实验生成标签非常困难。

例如,尽管下一代测序技术不断发展,但只有不到1%的测序蛋白质标注了生物学功能。

另一种数据标注策略,是利用在人工标注数据上训练的智能体模型来标注未标注的样本,并利用这些预测的伪标签来监督下游预测模型。

相比之下,标签传播则是通过基于特征嵌入构建的相似性图将标签扩散到未标记的样本中。

除了自动标注外,主动学习还能确定需要人工标注的信息量最大的数据点或需要进行的信息量最大的实验。

通过这种方法,可以用较少的专家提供的标签来训练模型。数据标注的另一种策略是利用领域知识制定标注规则。

数据生成

随着训练数据集的质量、多样性和规模的提高,深度学习的性能也在不断改善。

创建更好模型的一个有效方法是,通过自动数据增强和深度生成模型,生成额外的合成数据点来增强训练数据集。

除了人工设计此类数据扩增外,强化学习方法还能发现一种自动数据扩增策略,这种策略既灵活又与下游模型无关。

深度生成模型,包括变异自动编码器、生成对抗网络、归一化流和扩散模型,可以学习底层数据分布,并从优化的分布中采样训练点。

生成式对抗网络已被证明可用于科学图像,因为它们可以合成许多领域的逼真图像。

概率编程是生成模型中的一种新兴技术,并将数据生成模型表达为计算机程序。

学习科学数据有意义的表示深度学习可以提取不同抽象程度的科学数据的有意义表征,并对其进行优化以指导研究,通常是通过端到端学习。

高质量的表征应尽可能多地保留数据信息,同时保持简单易懂。

有科学意义的表征应结构紧凑、有鉴别性、能区分潜在的变异因素,并能编码可在多项任务中通用的潜在机制。

在此,研究人员将介绍满足这些要求的3种新兴策略:几何先验、自监督学习、语言建模。

几何先验

由于几何和结构在科学领域发挥着核心作用,因此在学习表征中整合「几何先验」已被证明是有效的。

对称是几何学中一个被广泛研究的概念。它可以用不变性和等差性来描述来数学函数的行为,以表示神经特征编码器在一组变换下的行为。

在科学图像分析中,物体在图像中平移时不会发生变化,这意味着图像分割掩码是平移等变的,因为当输入像素平移时,它们会发生等效变化。

通过增加训练样本,将对称性纳入模型可使AI在有限的标注数据中受益,并可改善对与模型训练过程中遇到的输入明显不同的输入的外推预测。

几何深度学习

图神经网络,已成为对具有潜在几何和关系结构的数据集进行深度学习的主要方法。

从广义上讲,几何深度学习包括,发现关系模式 ,并通过神经信息传递算法,以图形和变换组的形式编码的局部信息。

自监督学习

当只有少数标记样本可用于模型训练,或当为特定任务标记数据成本过高时,监督学习可能是不够的。

在这种情况下,利用标记和未标记数据可以提高模型性能和学习能力。

自监督学习是一种技术,让模型能够在不依赖显式标签的情况下学习数据集的一般特征。

自监督学习是一个重要的预处理步骤,它可以在大型无标签数据集中学习可转移的特征,然后在小型有标签数据集中微调模型,以执行下游任务。

这种对科学领域有广泛的了解的预训练模型,是通用预测器,可适用于各种任务,从而提高标注效率,超越纯监督方法。

语言建模

掩码语言建模是一种流行的方法,用于自监督学习自然语言和生物序列。

随着自然语言和生物序列处理的不断发展,它们为彼此的发展提供了信息。

在训练过程中,目标是预测序列中的下一个token,而在基于掩码的训练 中,自监督任务是使用双向序列上下文恢复序列中的掩码token。

蛋白质语言模型可以,编码氨基酸序列以捕获结构和功能特性,并评估病毒变体的进化适应性。

Transformer架构

Transformers是一种神经结构模型,可以通过灵活模拟任意token对之间的相互作用,来处理token序列,超越了早期使用递归神经网络进行序列建模的努力。

虽然Transformers统一了图神经网络和语言模型,但Transformers的运行时间和内存占用可能与序列长度成二次方关系,从而导致远程建模,和线性化注意机制在效率方面面临挑战。

因此,无监督或自监督生成式预训练变换器被广泛使用,随后进行参数高效微调。

神经算子

标准神经网络模型可能无法满足科学应用的需要,因为它们假定数据离散度是固定的。

这种方法不适用于以不同分辨率,和网格收集的许多科学数据集。

此外,数据通常是从连续域中的潜在物理现象中采样的,

神经算子通过学习函数空间之间的映射来学习,不受离散化影响的表征。

神经算子保证离散化不变,这意味着它们可以处理任何离散化的输入,并在网格细化时收敛到一个极限。

神经算子一旦训练完成,就可以在任何分辨率下进行评估,无需重新训练。相比之下,当部署过程中的数据分辨率与模型训练时的数据分辨率发生变化时,标准神经网络的性能就会下降。

基于人工智能的科学假设生成可检验的假设是科学发现的核心。

科学假设的黑盒预测器

为科学探究确定有希望的假设,需要有效地检查许多候选方案,并选择那些可以最大限度地提高下游模拟和实验产量的假设。

在药物发现中,高通量筛选可以评估数千到数百万个分子,算法可以优先考虑实验研究哪些分子。模型可以被训练来预测实验的效用,例如相关的分子特性,或符合观察结果的符号公式。

然而,对于许多分子来说,这些预测因子的实验事实数据可能不可用。

因此,弱监督学习方法可以用来训练这些模型,其中嘈杂、有限或不精确的监督被用作训练信号。

这些方法可以经济有效地替代人类专家的标注、昂贵的硅学计算或更高保真的实验。

在高保真模拟上训练的AI方法已被用于高效筛选大型分子库。

为了进一步提高这些过程的效率,AI选择的候选方案可以被送到中等或低吞吐量实验中,以便使用实验反馈对候选物进行持续细化。

结果可以使用主动学习和贝叶斯优化反馈到AI模型中,使算法能够改进其预测,并专注于最有前途的候选方案。

当假设涉及分子等复杂对象时,人工智能方法就变得非常有价值。

例如,在蛋白质折叠方面,AlphaFold2可以根据氨基酸序列预测蛋白质的三维原子坐标,其精确度甚至可以达到原子级别,即使蛋白质的结构与训练数据集中的任何蛋白质都不同。

这一突破促进了各种人工智能驱动的蛋白质折叠方法的发展,如RoseTTAFold106。

除了正向问题,人工智能方法也越来越多地用于逆向问题,旨在了解产生一组观测数据的因果因素。

逆向问题,如逆向折叠或固定骨架设计,可以使用在数百万个蛋白质结构上训练过的黑盒预测器,根据蛋白质骨架三维原子坐标预测氨基酸序列。

然而,此类黑盒人工智能预测器需要大量训练数据集,尽管减少了对现有科学知识的依赖,但可解释性有限。

导航组合假设空间

尽管对所有与数据相匹配的假设进行采样是一件令人生畏的事情,但一个可以管理的目标是寻找一个好的假设,这可以表述为一个优化问题。

与依赖人工设计规则的传统方法相比,人工智能策略可用于估算每次搜索的回报,并优先选择价值较高的搜索方向。

通常采用强化学习算法训练的智能体来学习策略。

该智能体学会在搜索空间中采取使奖励信号最大化的行动,奖励信号可定义为反映所生成假设的质量或其他相关标准。

为了解决优化问题,可以使用进化算法来解决符号回归任务。该算法生成随机符号定律作为初始解决方案集。

在每一代中,候选解决方案会有轻微变化。

算法会检查任何修改所产生的符号定律是否比之前的解决方案更适合观测结果,并将最好的解决方案保留到下一代。

不过,强化学习方法正逐渐取代这一标准策略。

强化学习利用神经网络,通过添加预定义词汇表中的数学符号,并利用所学策略决定下一步添加哪个符号,从而依次生成数学表达式。

数学公式表示为一棵解析树。学习策略将解析树作为输入,以决定扩展哪个叶节点和添加哪个符号。

使用神经网络解决数学问题的另一种方法是,将数学公式转化为二进制符号序列。

然后,神经网络策略可以按概率顺序每次增加一个二进制字符。

通过设计一个奖励来衡量反驳猜想的能力,这种方法可以在没有数学问题的先验知识的情况下,找到对数学猜想的反驳方法。

组合优化也适用于发现具有理想药物性质的分子等任务,其中分子设计中的每一步,都是一个离散的决策过程。

在这个过程中,部分生成的分子图被给出作为学习策略的输入,对在哪里添加新原子以及在分子中的选定位置添加哪个原子做出离散的选择。

通过迭代执行这个过程,该策略可以生成一系列可能的分子结构,根据它们对目标属性的适应性进行评估。

AI智能体学习的策略能预见一些行动,这些行动最初似乎不合常规,但事实证明是有效的。

例如,在数学中,监督模型可以识别数学对象之间的模式和关系,并帮助指导直觉并提出猜想。

这些分析指向了以前未知的模式,甚至是世界的新模型。

然而,强化学习方法可能无法在模型训练期间很好地泛化到看不见的数据,因为一旦智能体找到一系列运行良好的动作,它可能会陷入局部最优。

为了提高泛化,需要一些探索策略来收集更广泛的搜索轨迹,这些轨迹可以帮助智能体在新的和修改的设置中表现得更好。

优化可微分假设空间

科学假设通常采用离散对象的形式,例如物理学中的符号公式或制药和材料科学中的化合物。

尽管组合优化技术在其中一些问题上取得了成功,但可微空间也可以用于优化,因为它适合基于梯度的方法,可以有效地找到局部最优。

为了能够使用基于梯度的优化方法,有两种方法经常被使用。

第一种是使用VAE等模型,将离散的候选假设映射到潜在可变空间中的点。

第二种方法是将离散假设松弛为可在可微分空间中优化的可微分对象。

这种松弛可以采取不同的形式,例如用连续变量替换离散变量,或使用原始约束条件的软版本。

物理学中的符号回归应用使用语法VAE。这些模型使用上下文无关语法将离散符号表达式表示为解析树,并将解析树映射到可微分的潜在空间中。

然后采用贝叶斯优化法优化符号定律的潜在空间,同时确保表达式在语法上有效。

在许多科学学科中,假设空间可能远远大于实验所能考察的范围。

因此,我们迫切需要一种方法,在这些基本未开发的区域中高效搜索并识别高质量的候选解决方案。

AI驱动的实验与模拟通过实验评估科学假设对于科学发现至关重要。

然而,实验室实验的成本可能过于高昂且不切实际。

计算机模拟作为一种有前景的替代方案已经出现,对比实验它具有更高效灵活的优势。

虽然模拟依赖于手工制定的参数和开创式的方法来模拟真实场景,但与物理实验相比,还需要在准确性和速度之间进行权衡,需要理解其中的基本机制。

然而,随着深度学习的出现,通过识别和优化假设以进行高效测试,并赋予计算机模拟联结观察结果与假设的能力,这些挑战正在得到解决。

高效评估科学假设

AI系统提供了实验设计和优化工具,可以增强传统的科学方法,减少所需实验的数量并节省资源。

具体而言,AI系统可以协助实验测试的两个重要步骤:计划和引导。

在传统方法中,这些步骤往往需要反复试验,这可能是低效的、昂贵的,甚至有时可能危及生命。

AI计划提供了一种系统化的方法来设计实验,优化其效率,并探索未知领域。

同时,AI引导将实验过程导向到高产出的假设,使系统能够从先前的观察中学习并调整实验过程。

这些AI方法可以基于模拟和先验知识来进行模型建立,也可以基于纯机器学习算法进行模型构建。

AI系统可以通过优化资源使用和减少不必要的调查来协助实验计划。与假设搜索不同,实验计划涉及到科学实验设计中涉及的程序和步骤。

一个例子是化学合成计划。化学合成计划涉及到找到一系列步骤,通过这些步骤可以将目标化合物从现有化合物合成出来。

AI系统可以设计合成路径以得到所需的化合物,从而减少人工干预的需求。

主动学习也被用于材料发现和合成。主动学习涉及与实验反馈进行迭代交互,以改进假设。材料合成是一个复杂而资源密集型的过程,需要对高维参数空间进行高效的探索。

主动学习利用不确定性估计来探索参数空间,并尽可能少地减少不确定性。

在进行实验过程中,决策常常需要实时调整。然而,当只依靠人类经验和直觉时,这个过程可能难以进行或者容易出错。强化学习提供了一种替代方法,可以持续地对不断变化的环境做出反应,并最大化实验的安全和保证成功率。

例如,在磁控托卡马克等离子体的实验中,强化学习方法通过与托卡马克模拟器进行交互来优化控制过程的策略(如下图)。

在另一项研究中,一个强化学习代理根据实时反馈(如风速和太阳高度)来控制平流层气球,并寻找有利的风流用于导航。

在量子物理学中,实验设计需要根据未来复杂实验的最佳选择进行动态调整,而强化学习方法可以通过迭代地设计实验并从中获得反馈来克服这个问题。

例如,强化学习算法已经被用于优化量子系统的测量和控制,从而提高实验效率和准确性。

利用模拟从假设中推导观测量

计算机模拟是一种强大的工具,可以从假设中推导观测量,实现对那些不直接可测试的假设进行评估。

然而,现有的模拟技术在很大程度上依赖于人类对所研究系统底层机制的理解和知识,这可能使得模拟不够优化和高效。

AI系统可以通过更准确高效地学习来增强计算机模拟,更好地拟合复杂系统的关键参数,解决控制复杂系统的微分方程,并对复杂系统的状态进行建模。

科学家通常通过创建涉及参数化形式的模型来研究复杂系统,这需要专业领域的知识来识别参数的初始符号表达式。

比如,分子力场是可解释的,但在表示各种函数方面能力有限,并且需要强大的归纳偏见或科学知识来生成。

为了提高分子模拟的准确性,已经开发了一种基于AI的神经势能,它适合昂贵但准确的量子力学数据,取代传统的力场。

此外,不确定性量化已被用于在高维自由能面中定位能量障碍,从而提高分子动力学的效率169(下图)。

对于粗粒化分子动力学,AI模型可以通过确定系统需要从学习的隐藏复杂结构中粗粒化的程度,来减少大系统的计算成本。

在量子物理学中,由于其灵活性和准确拟合数据的能力,神经网络已经取代了手动估计的波函数或密度泛函的符号形式。

微分方程对于模拟空间和时间中复杂系统的动态是至关重要的。与数值代数求解器相比,基于AI的神经求解器更加无缝地融合数据和物理。

这些神经求解器通过将神经网络基于领域知识进行建模,将物理与深度学习的灵活性相结合(下图)。

AI方法已被应用于各个领域的微分方程求解,包括计算流体动力学,预测玻璃体系的结构,解决难解化学动力学问题,以及解决Eikonal方程以表征地震波的传播时间。

在动力学建模中,神经常微分方程可以对连续时间进行建模。神经网络可以通过物理信息损失对Navier-Stokes方程的解在时空域中进行参数化。

然而,标准的卷积神经网络对于解的细粒度特征建模能力有限。这个问题可以通过学习用神经网络对函数之间的映射进行建模的运算符来解决。

此外,求解器必须能够适应不同的域和边界条件,这可以通过将神经微分方程与图神经网络相结合来通过图划分实现。

统计建模是一种强大的工具,可以通过对复杂系统中状态的分布进行建模来提供对复杂系统的全面定量描述。

归一化流可以使用一系列可逆神经网络将任何复杂分布映射到先验分布(例如简单的高斯分布),并进行反向映射。

虽然计算成本较高(通常需要数百或数千个神经层),但归一化流提供了精确的密度函数,从而实现了采样和训练。

与传统模拟不同,归一化流可以通过直接从先验分布中进行采样并应用神经网络来生成平衡状态,这样计算成本就是固定的。

这增强了格点场和规范理论中的采样,改进了马尔可夫链蒙特卡洛方法,否则可能由于模态混合而无法收敛。

重大挑战为了利用科学数据,模型必须建立在人类专业知识之上,再利用上模拟来加强模型的表现。

这种整合为科学发现开辟了新的契机。

然而,为了进一步提升AI在科学领域的影响,需要在理论、方法、软件和硬件基础设施方面取得重大进展。

跨学科的合作对于实现通过AI推进科学的全面和实用方法至关重要。

实践考虑

由于测量技术的限制会产生不完整的数据集、有偏差或相互冲突的读数,并且由于隐私和安全问题的限制,导致了的数据可访问性不足,科学数据集通常不太适合用来做AI分析。

需要标准化和透明的格式来减轻数据处理的工作量。

模型卡片和数据表是一些努力的例子,用于记录科学数据集和模型的操作特性。

此外,联邦学习和加密算法可以用于防止将具有高商业价值的敏感数据公开发布到公共领域。

利用开放的科学文献,自然语言处理和知识图谱技术可以促进文献挖掘,有助于材料发现,化学合成和治疗科学的进步。

深度学习的使用对于人类参与的AI驱动设计、发现和评估提出了复杂的挑战。

为了自动化科学工作流程,优化大规模模拟代码和操作仪器,自主机器人控制可以利用预测并在高通量合成和测试线上进行实验,创建自主实验室。

在材料探索中早期应用生成模型表明,可以识别出数百万种,具有期望性能和功能的可能材料,并对其可合成性进行评估。

例如,King等人将逻辑AI和机器人技术结合起来,自主生成关于酵母的功能基因组学假设,并使用实验室自动化来实验性地测试这些假设。

在化学合成中,AI优化候选合成路径,然后机器人根据预测的合成路径引导化学反应。

实施AI系统涉及复杂的软件和硬件工程,需要一系列相互依赖的步骤,从数据筛选和处理到算法实现和用户应用界面设计。

实现中的微小差异可能导致性能上的显著变化,并影响将AI模型整合到科学实践中的成功。

因此,需要考虑数据和模型的标准化。由于模型训练的随机性、模型参数的变化和不断变化的训练数据集,AI方法可能存在可重复性问题,这些问题既与数据相关又与任务相关。

标准化的基准测试和实验设计可以减轻这些问题。改善可重复性的另一个方向是通过发布开放模型、数据集和教育项目的开源倡议。

算法创新

为了对科学理解做出贡献或自主地获取科学理解,需要进行算法创新,建立一个在整个科学过程中使用最优算法的基础生态系统。

超出分布范围的泛化问题是AI研究的前沿。

在特定范围的数据上训练的神经网络可能会发现不适用于不同范围的数据的规律,因为后者的基础分布发生了偏移。

虽然许多科学定律并不是普遍适用的,但一般来说也会具有广泛的适用性。而与最先进的AI相比,人类大脑可以更好、更快地适应修改后的环境。

有一个很有意思的假设是这么说的,人类不仅根据自己观察到的内容建立的统计模型,而且还建立了一个因果模型。

这是一个由所有可能的干预(例如,不同的初始状态、不同的代理的行为或不同的情况)来进行索引的统计模型集合。

将因果性纳入AI仍然是一个尚待研究的领域,还有很多工作要做。

自监督学习等技术在科学问题上具有巨大潜力,因为它们可以利用大量未标记的数据,并将里面包含的知识转移给低数据领域。

然而,目前的迁移学习方案可能是特定情况下的临时解决方案,缺乏理论指导,并且容易受到基础分布的变化的影响。

虽然一些初步尝试已经解决了这一挑战,但还需要进一步探索,以系统地衡量跨领域的可迁移性,并防止负面迁移。

此外,为了解决科学家关心的困难,AI方法的开发和评估必须在现实世界的情况下进行,例如在药物设计中可能实现的合成路径,并在将其转移到实际应用之前包括经过良好校准的不确定性估计来评估模型的可靠性。

科学数据是多模态的,包括图像(例如宇宙学中的黑洞图像)、自然语言(例如科学文献)、时间序列(例如材料的热黄变)、序列(例如生物序列)、图(例如复杂系统)和结构(例如3D蛋白-配体构象)。

AI方法通常作为黑盒操作,意味着用户无法完全理解输出是如何生成的,以及在生成输出时哪些输入是关键的。

黑盒模型可能会降低用户对预测的信任,并且在必须在实现之前理解模型输出的领域中应用有限,例如在人类太空探索中,在预测指导政策的领域中,比如在气候科学中。

尽管有大量的解释技术,透明的深度学习模型仍然难以实现。

然而,人类大脑能够综合高层次的解释,即使不完美,也能说服其他人类。

这提供了希望,通过在类似高层次抽象的现象模拟下,未来的AI模型将提供至少与人类大脑提供的一样有价值的解释和理解。

这也表明,研究高级认知可能会激发未来的深度学习模型,将当前的深度学习能力与操纵可言述抽象、因果推理和超出分布泛化的能力结合起来。

AI对于科学研究事业的影响

展望未来,对AI专业知识的需求将受到两种力量的影响。

首先,一些领域马上就能能从AI应用中受益,比如自主实验室。

其次,智能工具能够提升最先进技术水平,并创造新机会,比如研究在实验中无法观测到的生物、化学或物理过程的长度和时间尺度相关的研究。

基于这两个力量,我们预计研究团队的组成将发生变化,包括AI专家、软件和硬件工程师,以及涉及各级政府、教育机构和公司的新形式合作。

最近最先进的深度学习模型不断增长10,234。这些模型由数百万甚至数十亿个参数组成,并且每年的规模增长了十倍。

训练这些模型涉及通过复杂参数化的数学运算传递数据,参数更新以将模型输出推向所需的值。

然而,计算和数据要求以计算这些更新是巨大的,导致了巨大的能源消耗和高昂的计算成本。

因此,大型科技公司已经大量投资于计算基础设施和云服务,推动了规模和效率的极限。

虽然盈利和非学术组织拥有大规模计算基础设施,但高等教育机构在跨学科整合方面可能更为优势。

此外,学术机构往往拥有独特的历史数据库和测量技术,这些可能在其他地方不存在,但对于AI4Science是必要的。

这些互补的资产促进了新型产学合作模式,这可以影响所选择的研究问题。

随着AI系统逼近并超越人类的性能,将其作为例行实验室工作的替代品变得可行。

这种方法使研究人员能够从实验数据中开发预测模型,并选择实验来改进这些模型,而无需手动执行繁重和重复的任务。

为了支持这种范式转变,教育计划正在涌现,培训科学家在设计、实施和应用实验室自动化和AI在科学研究中。这些计划帮助科学家了解何时使用AI是合适的,并防止对AI分析的错误解释。

结论AI系统可以为科学理解做出贡献,使我们能够研究那些以其他方式无法可视化或探测的过程和对象,并通过从数据中构建模型并结合模拟和可扩展计算,来系统地激发创意。

为了实现这一潜力,必须通过负责任和深思熟虑的技术部署来解决使用AI所带来的安全问题。

在科学研究中负责任地使用AI,科学研究需要确定AI系统的不确定性、误差和效用水平。

这种理解对于准确解释AI输出并确保我们不过分依赖可能存在缺陷的结果至关重要。

随着AI系统不断发展,优先考虑可靠的实施并采取适当的保障措施是最大限度降低风险和最大化收益的关键。

AI有潜力揭示以前无法触及的科学发现。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

《西部世界》真来了!斯坦福爆火「小镇」开源,25个AI智能体恋爱交友

【导读】斯坦福25个AI智能体「小镇」终于开源了,GitHub狂揽3.9k星,《西部世界》即将走进现实。

准备好,此前曾轰动整个AI社区的斯坦福智能体小镇,现在已经正式开源!

项目地址:https://github.com/joonspk-research/generative_agents在这个数字化的「西部世界」沙盒虚拟城镇中,有学校、医院、家庭。25个AI智能体不仅能在这里上班、闲聊、social、交友,甚至还能谈恋爱,而且每个Agent都有自己的个性和背景故事。不过,它们对于自己生活在模拟中,可是毫不知情。

英伟达高级科学家Jim Fan评论道——

斯坦福智能体小镇是2023年最激动人心的AI Agent实验之一。我们常常讨论单个大语言模型的新兴能力,但是现在有了多个AI智能体,情况会更复杂、更引人入胜。一群AI,可以演绎出整个文明的演化进程。

现在,首先受到影响的,或许就是游戏领域。总之,前方有无限的新可能!

网友:众游戏厂商们,你们懂我意思吧?

很多人相信,斯坦福的这篇论文,标志着AGI的开始。

可以想象,各种RPG和模拟类游戏都会用上这种技术。网友们也非常激动,脑洞大开。有想看神奇宝贝的,有想看谋杀探案故事的,还有想看恋爱综艺的……「我已经等不及看AI智能体之间的三角恋剧情了。」

「《动物之森》中重复、沉闷的对话,所有村民共有的一维人格系统,都太令人失望了。任天堂赶快学学吧!」

「可以让《模拟人生》移植一下这个吗?」

如果能在《神界》这样的经典RPG游戏中,看到AI在NPC上运行,整个游戏体验都会被颠覆!」

有人还畅想:这项技术在企业空间中也有很多应用场景,比如员工如何和不同的工作环境/流程变化互动。

当然,也有人表示,你们激动个啥?其实我们一直都生活在这样的模拟中,只不过我们的世界有更多的算力罢了。

是的,如果我们把这个虚拟世界放大到足够多倍,我们肯定能看到自己

Karpathy:AI智能体,就是下一个前沿

此前,前特斯拉总监、OpenAI大牛Karpathy就表示,如今AI智能体才是未来最前沿的方向。OpenAI的团队最近5年把时间花在了别的地方,但现在Karpathy相信,「Agent代表着AI的一种未来。」

「西部世界」中的25个AI智能体

在美剧《西部世界》中,被预设了故事情节的机器人被投放到主题公园,像人类一样行事,然后被重置记忆,在新一天再被投放进自己所在的核心故事情节。

而在今年4月,斯坦福和谷歌的研究者竟然构建出了一个虚拟小镇,让25个AI智能体在其中生存、从事复杂行为,简直堪称是《西部世界》走进现实。

论文地址:https://arxiv.org/pdf/2304.03442.pdf

架构

为了生成智能体,研究者提出了一种全新架构,它扩展了大语言模型,能够使用自然语言存储Agent的经历。随着时间的推移,这些记忆会被合成为更高级别的反射,智能体可以动态检索它们,来规划自己的行为。最终,用户可以使用自然语言和全镇的25个Agent都实现交互。

如上,生成式智能体的架构实现了一个「检索」功能。这一功能将智能体的当前情况作为输入,并返回记忆流的一个子集传递给语言模型。而检索功能有多种可能的实现方式,具体取决于智能体在决定如何行动时考虑的重要因素。生成式智能体架构面临一个核心挑战,就是如何管理大量必须保留的事件和记忆。为了解决这个问题,架构的核心是记忆流(memory stream),即一个记录智能体全部经验的数据库。智能体可以从记忆流中检索相关记忆,这有助于它规划行动,做出正确反应,并且每次行动都会反馈记录到记忆流中,以便递归地改进未来行动。另外,研究还引入了第二种类型的记忆——反思(reflection)。反思是智能体根据最近经历生成的高级抽象思考。

在这项研究中,反思是周期性触发的过程,只有当智能体判断最近一系列事件的重要性评分,累积超过设定阈值时,才会启动反思机制。生成式智能体为了创建合理的规划,它们会自上而下递归生成更多的细节。而这些规划最初只是粗略的描述了当日所要做的事情。

在执行规划的过程中,生成智能体会持续感知周围环境,并将感知到的观察结果存储到记忆流中。通过利用观察结果作为提示,让语言模型决定智能体下一步行动:继续执行当前规划,还是做出其他反应。在实验评估中,研究人员对这一框架进行了控制评估,以及端到端的评估。控制评估是为了了解智能体能否独立产生可信个体行为。而端到端评估,是为了了解智能体的涌现能力以及稳定性。比如,Isabella策划一个情人节party邀请大家来。12个智能体中,7个人还在考虑中(3个人有了别的计划,还有4个人没有想法)。这一环节与人类相处模式很相似。

像真人一样交互

在这个名为Smallville的沙盒世界小镇中,区域会被标记。根节点描述整个世界,子节点描述区域(房屋、咖啡馆、商店),叶节点描述对象(桌子、书架)。智能体会记住一个子图,这个子图反映了他们所看到的世界的各个部分。研究者编写了一段自然语言,来描述每个智能体的身份,包括它们的职业、与其他智能体的关系,作为种子记忆。比如,智能体John Lin的种子记忆就是这样的——

John Lin是一名药店店主,十分乐于助人,一直在寻找使客户更容易获得药物的方法。John Lin的妻子Mei Lin是大学教授,儿子Eddy Lin正在学习音乐理论,他们住在一起,John Lin非常爱他的家人。John Lin认识隔壁的老夫妇Sam Moore和Jennifer Moore几年了,John Lin觉得Sam Moore是一个善良的人。John Lin和他的邻居山本百合子很熟。John Lin知道他的邻居TamaraTaylor和Carmen Ortiz,但从未见过他们。John Lin和Tom Moreno是药店同事,也是朋友,喜欢一起讨论地方政治等等。

以下就是John Lin度过的一天早晨:6点醒来,开始刷牙、洗澡、吃早餐,在出门工作前,他会见一见自己的妻子Mei和儿子Eddy。

就这样,当模拟开始时,每个智能体都有属于自己的种子记忆。这些智能体相互之间会发生社会行为。当他们注意到彼此时,可能会进行对话。随着时间推移,这些智能体会形成新的关系,并且会记住自己与其他智能体的互动。一个有趣的故事是,在模拟开始时,一个智能体的初始化设定是自己需要组织一个情人节派对。随后发生的一系列事情,都可能存在失败点,智能体可能不会继续坚持这个意图,或者会忘记告诉他人,甚至可能忘了出现。幸运的是,在模拟中,情人节派对真实地发生了,许多智能体聚在了一起发生了有趣的互动。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

硅潮访谈录|百度CIO李莹:AI原生思维重构办公场景

6月底的一天,顶着北京的高温,我们在位于上地十街的百度大厦拜访了百度CIO李莹女士。

大语言模型的出现对全球所有科技大厂来说都是一道分水岭,前瞻布局的微软重新站在了硅谷之巅,十年磨剑的百度也成为万众瞩目的对象,甚至我们在海淀的咖啡馆里遇到挂着百度工牌的程序员,都要忍不住多瞄两眼。

百度的确有很强的先发优势。从算力层的AI芯片昆仑芯,到框架层的PaddlePaddle(飞桨),到模型层的文心大模型,再到应用层面的搜索、文库、协同办公软件等,百度在AI链条上的每一个环节都有布局,“全栈”的优势明显。

深耕AI十年,此刻又站在新一轮科技革命的前夜,百度如何快速拥抱变化?大模型又从哪些方面改变了百度做产品的理念?以及在大模型最先影响的办公场景中,催生了哪些新的变局?带着这些问题,我们拜访了百度CIO李莹女士。

李莹博士2004年正式加入百度,曾先后带领过百度自然语言处理、推荐与个性化、知识图谱、AI技术生态、百度地图等多个核心业务。她现任百度集团副总裁、百度集团首席信息官(CIO),全面负责企业智能信息系统建设。

在访谈中,李莹的观点非常鲜明:生成式AI革命带来的不仅仅是一种可以嵌入到产品里的技术元素,更是一种新的基于AI原生的思维方式。

李莹通俗地用“Native Language(原生语言)”做了类比:母语就是原生语言的代表,我们一切思维的起点都是通过母语逻辑进行思考,表达自然而然发生;同样,AI原生思维需要回到问题的的起点,用AI的视角来思考、用AI的框架来分析,用AI的方式来解决。

比如通常我们预定一次出差行程,需要跟5~10个不同的软件接口打交道,涉及到日程、交通、酒店、资料等。在过去几十年的办公信息化场景下,人们习惯了在不同的应用之间来回切换,传统的软件思维,是我如何来改善这些接口的调用方式和处理效率。

而在AI原生思维的框架下,需要回到“如何帮助用户安排出差的一切”这个原始出发点来思考问题,比如是否能够让用户只需要对接一个助理式的入口,这个“助理”可以自然地跟用户交互,处理一切流程,而用户不需要关心这背后有多少系统能力甚至接口数量。

起点一旦发生了变化,产品设计、交互方式、流程设计、系统构建,直至底层的研发范式都会被重塑。就好比一个人更换了一种原生语言,不光口头的表达要切换成另一种语言,大脑中的思维方式也要按照新语言的语法和范式来进行组织。

用思维来驱动表达,而并非仅仅在表达层面进行改善。如果仅仅用传统思维来考虑“AI赋能”、“效率提升”这些课题,容易抓不住核心矛盾。

但难点往往也在于思维模式的转变。大语言模型如同加速器,一下打破了大家原有的状态,但惯性使然,并非所有人的状态都能快速切换。李莹也看到了这点,她在带领团队不断锤炼“AI原生思维”的同时,也在快速推动产品重构,加快办公场景的生产力提升。

作为一名“技术浓度”极高的管理者,李莹在谈及生产力变革的话题时直言不讳:这个时代如果你不会使用AI工具,很大可能会被淘汰。尤其在她眼里,高知识密度的协同办公场景天然追求效率,与大语言模型的相遇,带来的一定是场一拍即合的效率革命。

由于“近水楼台”,百度内部能够率先用上大模型的能力。比如百度旗下的智能工作平台「如流」,在百度内部已经全面搭载了文心一言——在工作人员的演示中,如流将“超级助手”作为AI能力的入口,随时可以被唤起,能够智能地帮助用户完成大量工作。

现场演示时,在“超级助手”的聊天界面中简单输入“下周我要请假五天”这么一句话,超级助手能够调用来自不同模块甚至平台的能力,不但能够自动生成请假申请界面、显示各类假期的余额,还能直接跟其他的同事协调已经计划好的会议等,俨然一个真实的助理。

令人印象深刻的还有:在我们访谈期间,百度的智能会议系统一边在做会议纪要,一边用“会议洞察”能力划分不同议题,总结出议题、观点、核心发言等重要信息。当访谈结束的时候,一份成熟的会议纪要便发给了参会的所有人。

我们在观看演示时的一种强烈感受是: 如流的“超级助手”并不是简单地“接入”百度的大模型,在UI界面上添置一个对话框,而是回到产品设计的出发点,洞察办公场景下用户的根本需求,用AI的方式去“端到端”解决问题。

在李莹看来,用AI原生思维来重构办公场景的工作才刚刚开始。办公场景如今是大模型应用层竞争最激烈的“八角笼”,对手从四面八方涌来,里面既有老牌的传统办公软件,也有用户需求敏感的协同办公玩家,还有瞄准崭新场景的AI创业公司。

在大模型浪潮的推力之下,办公场景一定会出现新的打法、新的产品、新的生态甚至新的格局。机会已经出现在远方的地平线上,只有产品力、模型力、执行力都完备的公司,才能真正的屹立潮头,笑到最后。

以下,是硅基研习社与百度CIO李莹女士的对话正文。

AI原生思维重构办公场景

硅基研习社:在办公和企业内部信息化领域,您提到过“AI原生思维”的概念,具体怎么理解?

李莹:我们可以先用一个概念来理解原生,就是Native Language(原生语言)。原生语言代表你的母语,你所有思维的起点都是通过母语的逻辑来思考的,你不会在张口说话之前还要考虑中文怎么说,这是对原生的解释。

什么叫AI原生?首先要定义解决的问题是什么,然后用AI的方式彻底解决它。反过来说,可能有些产品在AI之上做的是接入、整合或者赋能,在局部接入了一个AI的能力,例如增加一个改写或者提示等,这只是在产品层面做了AI的赋能。

如果要用AI解决根本问题,需要了解的其实是,员工为什么要在这写文档?为什么需要有一些资料的提示?分析根本需求后,用AI端到端去解决,这个逻辑会改变用户和需求之间的关系,这是一个大的逻辑,这种才是颠覆,才是全面的重塑。对产品而言,意味着从交互到流程,再到整个系统,都要为之改变,乃至实现系统过程对应的研发范式也会改变。

到最后,大家可能不会再提“AI原生”这个词,现在提是因为还在想“是什么”。一旦它成为我们的一个原生思维逻辑,比如交互上大家默认想到的就是用自然语言交互的方式优先,对应的设计、产品、系统、研发都会改变。

硅基研习社:百度在做一些产品开发时,AI原生思维对你们意味着什么?

李莹:业界有一种说法,大模型时代来了,每个产品都值得重做一遍,但是谁能真正重做一遍?百度CEO李彦宏说过,百度要做第一家公司,不是整合,不是接入,是重做、重构。

同时他也强调,一定要去做AI原生的应用,有多少大模型不关键,最关键的是有多少个AI原生的应用。应用层的突破,才能真正在这个领域获得巨大价值。

硅基研习社:前面提到从生产到研发,用AI思维重新组织程序怎么编写,模块怎么构建,甚至整个项目怎么开发推进,我们知道OpenAI的程序员可能本身就用GPT写代码,百度现在是不是也在内部做生产力的变革?

李莹:百度去年9月份就已经基于大模型做了代码生成工具Comate,现在又基于“文心一言”升级了更多丰富和高级的能力。我一直也在跟团队强调,要充分利用AI工具,要通过人机协同,在我们的研发过程中,帮助工程师去大幅提升编码效率。我们也会观察推荐的代码有多少会被员工采纳。

近期,Comate又上线了单元测试生成、代码注释、测试用例生成等新能力,这些新能力意味着整个研发过程中,有更多的工作都可以用大模型去支持。在软件研发领域,Comate的产品能力达到了国内领先水平。

虽然这一步已经对现在的生产力起到了很大的提升,但这其实也还不够。我们再往后看,未来研发的工作都会基于MaaS(model as a service),研发过程也会变成以数据驱动的,并且是面向大模型友好的,整个研发过程和方式都会进行重塑。

比如,原来的研发过程主要管理代码,但现在需要管理模型,因为有不同版本的模型;也需要管理模型相关的数据,比如预训练数据、精调数据,数据管理会变成研发管理里面像代码一样重要的东西。随之而来也包括Prompt怎么管理?这些都是我们研发过程中需要考虑的。

硅基研习社:是不是对于每一个百度员工来说,有了一个新的工具,对于他们的技能考核,或者未来的能力模型都会发生很大的变化?

李莹:我认为是的。针对办公领域,在交互模式、需求满足方式、工作流程这些维度一定都会变化。

对企业而言会带来很重要的三个维度的改变:一是产品设计逻辑和产品架构会被重塑;二是业务模式和流程会被重塑;三是组织和人才结构一定会有变化,配套的组织能力、人才要求、评价机制等等也会发生变化。当然这是一个过程,但我认为一定会走到那一步。

一场一拍即合的效率革命

硅基研习社:大模型火爆以后,办公领域是被提及最多的重塑场景之一,您怎么看待大模型对办公领域的影响?

李莹:在协同办公领域,大模型能够在这个领域率先产生更彻底、更深入的变化。为什么这么说?人工智能带来了第四次科技革命,其中一个最重要的驱动因素就是AI大模型,这也是业界共识。科技革命意味着整个生产力会颠覆性的提升,这个提升是全方位的,社会、生产、生活都会受到影响。

那为什么会在协同办公领域首先产生价值?第一,生产力变革带来效率提升,而整个协同办公领域追求的目标,就是极致的效率,这一点跟生产力变革完全吻合。

第二,在知识经济时代,一切都已经是信息化的,知识工作者的工作效率需要被赋能,企业也都希望企业的知识不流失,员工可以更快的成长,而大模型刚好是对世界认知的压缩,我们看到最早被赋能的是图像和写作,也正是因为这些技能是知识型的,因此知识工作者会最先被大模型技术赋能。

所以总结起来有两点:一是效率目标和办公领域要实现的目标是完全一致的;二是现在知识工作者贯穿在所有行业中,大模型对知识类工作又是非常擅长的。在这种情况下,不管是企业还是员工,都能首先感知到对他们带来的影响。

所以我认为,大模型在办公领域一定会最先产生彻底深入的变化,行业会存在一次重新洗牌的机会。技术从量变到质变,对大家来说都是一次机遇,谁能够有更好的能力积累、更快的转变、跑出更好的产品,谁就能先抓住这次机遇。

硅基研习社:大型互联网巨头很多都会把内部的效率工具转为对外的产品,每家产品都代表着自己的组织文化或者一种管理方式,甚至一种价值观在里面。在AI时代,是不是百度也有可能用我们AI的能力把这个工具做得比他们更加超前或者更加好用?

李莹:百度最早做搜索,AI技术也都是从搜索和推荐的产品上最早发展起来的,我们对知识和信息的理解是很深刻的,也有很好的内容生态。我们在2020年把百度Hi转型成如流,百度Hi作为内部IM工具已经积累了十多年,转型如流的目标,就是要把百度AI和知识管理的能力在企业方面做好,把百度做成最佳实践,同时赋能给更多企业。

现在这个阶段,我们在新的AI大模型能力应用上,也特别希望更多的企业都能用上。我们不是简单地把AI能力叠加上来,做产品的赋能,而是要设计一套完整的框架,能够让企业插上AI大模型的翅膀。

硅基研习社:您刚才也讲了,协同办公行业可能未来会重新洗牌,那内部对协同办公商业机会的判断是什么级别?这个行业本身在中国,以前经常说前有微软,后有盗版,整个市场相对来说也不是那么大。但是一旦我们用了智能助手(大语言模型能力接入后的在线功能),如果能够用的话,一定是在线的,一定是进入到我们企业云端的,付费模式跟以前License完全不一样,这个市场机会是不是会很大?

李莹:我认为,在办公这个领域有了这些新能力会有新机会,在中国的市场上会有大的增量。新机会下,服务和收费的方式一定会转到哪一种?还需要进一步探索和验证。但最重要的是让企业看到价值,愿意买单。当有新的技术内核赋能之后,市场会进一步打开,大家对于它的期待和需求会增高,在这里面会做出更多创新的东西。

譬如,大家感受最强的在线会议,以百度为例,从百度从大厦到百度科技园,原来开会必须是班车,来回平均一个人开会节省15分钟,进一步的,在线会议能够基于大模型主动识别并记录会议主题、生成会议记录和待办,这种提效大家明显感受得到,也可以衡量出节约的时间和成本。只要认价值,就有人买单,原来办公市场不好做的是大家很难看清楚它的价值。

硅基研习社:协同办公,包括传统办公这个领域这么多年发展下来,国内有些人用互联网的方式来做,有些人用传统的方式来做,这次是不是大家都在一个起跑线上?

李莹:我认为不完全是。这确实是一次变革的机会,但大家对于技术拥抱的程度、对于技术理解的程度、对于技术积累的深度不同会形成新的差距。比如是否知道大模型的边界是什么,大模型最核心的要素是什么,怎么理解它对整个行业的价值。说到根本,还是我们对这个事情的认知有多深,积累有多深,以及有多快地拥抱这种变化,在这次变革中是很重要的。

硅基研习社:而且执行力也是很重要的一个因素,包括产品和落地的能力。

莹:是的。

硅基研习社:如流整个团队,您觉得应该怎么样描绘他们的使命愿景?

李莹:我们的愿景是打造基于AI和知识管理的创新流水线,驱动企业提效创新,增强企业核心竞争力。核心的目标,就是我们要为企业做到效率的极致。因此,我们围绕着现有的事情,洞察根本需求,用AI的方式端到端解决工作场景的问题。

其实我们的团队从成立那天起,我就和大家说我们是以使命驱动的,百度相信用技术让复杂的世界变得更简单。在新的时代机遇下,我们要用先进的思想和工具提效创新。整个团队都非常鼓励创新氛围,跟踪前沿,不断突破,并脚踏实地往前走。

打造无处不在的超级助手

硅基研习社:如流产品端会怎么变化?例如以后可能从GUI变成LUI,很多按钮可能就会消失了,目前已经有这些改变了吗?

李莹:我们在今年4月份就在百度内,面向全员发布了基于文心一言的很多如流的全新功能,比如文档内容生成,以及超级助手、IM消息智能总结、智能会议洞察、小K研发助手等等,大家都明显感受到了这些产品带来的提效变化。在大公司中,用AI原生去重构工作平台,我们应该是第一家推出给全员使用的。

我们的智能工作平台分成三个板块:一是通用办公,包括超级助手、IM、会议、知识库等;二是经营管理场景,包括HR、财务、市场等经营管理系统;三是研发。

硅基研习社:为什么是这三个模块?在办公场景中,百度致力于解决什么样的核心问题?

李莹:首要考虑是为了提升员工的效率,一定要找到员工最花时间的事情,从这些事情入手才最有价值。

当时我们讨论出来的第一个场景就是代码,因为百度非常重技术,研发工程师占比很高,大家主要时间都在写代码。第二个场景是各类Paper work,实际上大家除了写代码,就是写文档、写周报等等,而且Paper work是大家最早认知到是大模型最擅长处理的。第三个就是沟通场景,包括开会和即时沟通。

这三大场景是我们最先选中的场景。延伸出来第四个场景是我们的工作流、任务流,因为每天大家都要在各个系统间做各种操作,比如要到ERP里操作人员的入离升降调,去差旅系统上提单,所有的工作都是在各个不同的任务系统上操作的,每天也会花费大量的时间。所以我们是从这四个大的场景入手,去考虑怎么提升效率。

我们添加的能力都是基于以上切入点,比如Comate智能编码,可以进行代码续写,结合NL2code的能力,可以做代码的注释、单元测试、生成测试用例等等。Paper work工作则集成在如流知识库里,包括文档的洞察、写作,这是一大类。

沟通层面我们做了会议场景和IM场景,有会议的AI洞察、要点标记、AI会议纪要等,AI洞察会分章节,不同的段落会分出不同的议题,后入会的人也可以直接看到前面讨论的内容和要点。

还有IM智能转发、未读消息智能总结,例如入群以后有很多未读消息,这时就会自动生成简明扼要的摘要总结,我们就可以看一下这段未读到底在说什么,大家觉得非常有价值,它可以快速让你获取到信息。当初IM智能转发功能刚一上线,我们就收获了公司内的一大片好评。

这里面最核心的是,我们要打造一个人人都拥有的超级助手。让员工在编码、沟通、知识阅读与创作和各工作流等不同场景中,都可以随时随处唤起,时刻陪伴左右。超级助手以自然语言交互为主,『端到端』地极致满足用户需求,小到一个知识点,大到复杂的流程审批,都能直接满足。

比如,过去要在对话或会议模块发起会邀日历,而使用超级助手,直接用自然语言发出需求,就能直接完成会邀创建。再比如,过去找文档,如果用户忘记文档的标题名称,往往需要在会议记录,或者群聊消息中,进行多步翻找操作才能找到文档,现在只要向超级助手描述需求,就可以直接获得目标文档。

这必然会颠覆用户和系统之间交互方式,用户只需要给出自然语言,至于如何理解需求、如何整合系统、生成答复,这些都交给超级助手去完成,也可以说,很多冗长的过程都被AI大模型能力给『折叠』了。

硅基研习社:超级助手产品设计的思路和背后逻辑是什么?

莹:我们的目标是想打造一个人人拥有的超级助手,它具备三个特点:一是懂你;二是知识丰富,能读会写;三是实时陪伴,有手有脚,能够帮你去执行任务。

这个目标有几层逻辑,“懂你”代表了解企业和员工,比如能够了解某个员工,是哪个部门、负责什么业务,还可以知道你当下的状态,是在开会还是忙其它事情。在此基础之上,它具有丰富的专业知识,帮你读、写,并且能够帮助你去完成很多系统内的工作任务。

超级助手是无处不在的,首先有一个主端,让人有形象化的认知,可以直接被找到。同时这个无处不在还在于,在系统中的具体场景下,也可以随时找到它。

在这个过程中,我们重塑了两个流程:一是员工工作流程,现在传统办公要在很多系统、应用间来回切换,但拥有超级助手,就可以在一个入口,通过自然语言交互的方式,获取不同系统的功能。

比如,如果我下周三到周五要到上海出差,通过跟助手的交互,助手可以帮我把日程设好、完成差旅航班和酒店的推荐和预订,甚至可以生成出差需要的客户谈判资料,等等。这重塑了我们原来处理这些工作的流程,员工只需要在这个入口操作,不需要关心背后的系统是什么,这就是一种AI原生的思维,是一种对人更友好和自然的方式。

二是重塑了IT系统的实现流程。传统的IT系统每个系统都要做得非常重。但是当通过统一入口去交互,同时背后的每一个系统的能力被原子化、插件化,比如差旅系统的预订能力、日程设置能力都成为大模型系统插件,被超级助手调用,将系统改造成是对模型友好的,重塑系统实现流程。

硅基研习社:也就是说,不是先有系统,而是把系统都打散了,用模型调用系统,有各种能力,模型对接能力就行了?

李莹对。这样的话,对于员工来讲是非常友好的,一个入口就可以完成各种工作任务。对于系统来讲,要做的就是怎么让模型能够理解系统具备的各种能力,这是非常重要的。

硅基研习社:产品模块上线花了几个月时间?

李莹:刚才给你展示的这些功能,很多都是随着文心一言的发布,四月份以后陆陆续续上线的,并且都已经全员使用,前后差不多三四个月的时间,我们研发周期还是很快的。

但实际上还有一些基于大模型的产品从去年就开始上线使用了,比如刚才提到的Comate,今年主要是基于新一代的AI大模型去拓展更强的能力,我们的产品之所以迭代的快,也是得益于我们能力的积累。

硅基研习社:在您看来,之前协同办公软件中工作台里面各种小模块化的功能,是不是在百度的规划里面,未来这些会全部重新被打乱?围绕这个超级助手进行重构?

李莹:不可能所有的工作习惯一下子全部重来,这个肯定不现实。不过要往这个方面演进,系统要基于新的调用方式逐步改造。

硅基研习社:看到去年的公开报道,包括近几年您也一直在强调用AI进行“知识管理”这个理念,而且知识管理还要做拆解、分发、组装的动作,现在更多是对知识的理解和生成。当大语言模型来了,知识管理还重要吗?为什么?

李莹:我们认为技术可以给知识管理带来颠覆性的改变,知识在企业里最重要的就是要沉淀好、要在员工中流动和应用起来。但是实际上知识管理很难做,因为人走了,知识就流失了,而且它的价值很难被量化衡量。

关于创新流水线的概念,去年我们讲要用大模型+知识图谱的能力,使得知识被拆解、分发、组装。大模型可以学习异构知识,并通过搜索和推荐的能力去分发,同时在创新工作中生产的知识会进一步沉淀回系统。

在这么一个逻辑之下,知识可以不断地循环流动起来。我们的员工可以站在“巨人的肩膀上”做创造性的工作。但是,组装,也就是形成真正你需要的知识单元,是很难的。但是现在大模型技术的突破,就刚好解决了这个问题。

现在,我们换了“文心一言”最新的大模型引擎之后,把拆解、分发、组装升级成了理解、生成、执行。并且,现在的知识已经不仅仅是文本知识,还包括了工作中的流程和任务,加入了执行后,这套流水线不仅帮助员工更加快速地获取知识,同时能够帮助员工完成工作流程中的任务。AI×知识管理,演化出这样一个超级助手,会帮助员工非常快速地在创新流水线中循环和反馈,更加高效地帮助员工提升效率。

硅基研习社:您刚才提到的这些知识,是企业独有的知识,还是说都是文心一言的知识?

李莹:都有,有通用知识,也有企业知识。就像我刚才提到的,我们基于文心一言的底座大模型,将企业的知识和工作流全面整合,这样才能让企业知识的管理产生倍增的收益。

我们理想的目标希望可以更加个性化的,比如说个人风格,给戴老板推荐的智能总结或者创意文案就是带有戴老板写作风格的内容,那个才是真正的『人人』都拥有的超级助手。

硅基研习社:所以是不是未来企业的知识管理都会因为AI大模型发生很大的变化?你认为会带来什么新的改变?

李莹: 肯定会发生改变。

我们提出 “创新流水线=AI×知识管理”的根本原因就是基于大语言模型的技术发展。传统知识管理以IT+咨询为主,一直没有取得很好的应用进展,我们也跟这样的一些企业讨论过,大家理念差异还是很大,实践和价值衡量的难度也非常大。而大模型最重要的就是对世界知识的压缩,实现智能涌现,具有鲜明的“以知识为核心”的特征。

所以,在知识经济的时代背景下,几乎人人都是知识工作者,所以知识管理不仅会成为首先被变革的方向,更会在企业中变得更加重要,最先能够感受到这波浪潮的甚至颠覆工作方式的也一定是知识型企业和知识工作者。

随着大模型能力的不断升级,会进一步加快变革的进程,能够让知识在企业里能够有效沉淀、快速流动,最终提升企业员工的工作效率和创新效率。

硅基研习社:下一步我们这些产品有哪些重大的想要往前做的方向?未来是否企业办公软件和系统可能都要被重新做一遍?

李莹:要做深做透我前面讲的这些工作,甚至未来把更多的新能力做进去,把系统的壁垒打破,让超级助手具备除了读和写,还能有更发达的“手”和“脚”的能力,这已经是一项非常大且极具想象力的工程。

它意味着『端到端』的重构产品交互模式、用户与需求之间的满足方式,乃至工作流程的全方位变革。它也必将为企业的IT系统建设创造更多空间,当整个工具技术框架做好,各个系统都可以在里面去建设自己的能力,这就是AI原生应用将会对整个产业带来的深刻影响。

协同办公类软件和系统都值得被重做一遍。一方面,新的技术带来了新的市场需求和预期;另一方面,在技术发展、市场需求提升的情况下,企业需要建立新的竞争优势和壁垒,竞争格局也会重构。对于产业和用户来说,这些新机会新变化都应该被积极拥抱。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

生成式人工智能在农业中的应用

随着人工智能技术的不断发展,生成式AI已经成为各个行业随着人工智能技术的不断发展,生成式AI已经成为各个行业所追求的热点之一。在中国,随着企业对生成式AI的需求不断增长,市场空间也在进一步抬高。中国生成式AI行业的发展趋势也非常明显。首先,企业对生成式AI的需求将会继续增长。随着市场竞争的加剧,企业需要利用生成式AI技术来实现差异化竞争。其次,生成式AI技术的应用场景将会越来越广泛。未来,生成式AI技术将应用于更多的行业和领域,为各个行业的发展带来新的机遇。

由于生成式人工智能(AI)可能提供的有价值的观点和提高的生产力,农业行业具有巨大的变革潜力。生成式人工智能有潜力通过利用复杂的算法和检查海量信息来彻底改变农业的许多方面。

以下是一些生成式人工智能在农业中的应用领域:

农作物优化和预测:生成式模型可以分析大量的农业数据,包括土壤、气候、作物生长情况等,从而预测最佳的种植时间、施肥量和灌溉方案。这有助于最大程度地提高农作物产量,减少浪费,并节约资源。

病虫害识别和管理:生成式人工智能可以训练出对不同病虫害的识别模型,通过监测作物图像,及时发现并预测潜在的病害风险。这有助于农民及时采取措施,减少病虫害对产量的影响,同时也减少了农药的使用。

精准农业:生成式模型可以结合传感器数据、卫星图像等信息,实现精准的农业管理。这包括根据土壤质量和植物状态调整灌溉和施肥策略,以减少资源浪费并提高作物品质。

气候适应性:生成式人工智能可以帮助农民预测气候变化对农作物产量和品质的影响,从而调整作物种植选择,以适应不断变化的气候条件。

农产品质量检测:生成式模型可以分析图像、声音和其他传感器数据,用于检测农产品的质量和成熟度。这有助于确保农产品符合标准,提高市场竞争力。

农业机器人和自动化:生成式人工智能可以用于开发智能农业机器人,这些机器人可以自动执行种植、收获、除草等任务,从而减轻人工劳动压力,提高生产效率。

市场预测和供应链管理:生成式模型可以分析市场趋势和消费者需求,帮助农民和农业企业预测市场需求,优化产销匹配,减少食物浪费。

作物育种和基因进步:通过加速基因进步,生成式人工智能有可能彻底改变作物育种。

通用人工智能(AI)算法可以通过研究植物遗传学和特征的大型数据库来复制虚拟育种试验。人工智能算法预测各种育种策略的结果,帮助育种者快速找到获胜配对。

需要注意的是,生成式人工智能在农业领域的应用还需要克服一些挑战,如数据收集和隐私保护、算法的可解释性、技术的普及等。然而,随着技术的不断发展和成熟,生成式人工智能有望为农业带来更多创新和改进。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI专业术语及释义:让你快速掌握人工智能的基础知识!

自今年初AI开始风靡以来已经过去了大半年的时间。

对于大众而言,在网络各个领域都可能会看到与AI相关的术语,但我们可能无法具体而直观地理解其含义。

为了方便大家理解与学习,以下整理了一份包含专业术语及其释义的材料。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

应对AI诈骗要靠什么?

“想成功,先发疯,不顾一切向钱冲;拼一次,富三代,拼命才能不失败!”
这是正在热映的反诈骗电影《孤注一掷》中,诈骗团伙每天“诈”前动员的口号。
从电影回到现实。数据显示,2022年,全国公安机关破获电信网络诈骗犯罪案件46.4万起,缉捕电信网络诈骗犯罪集团头目和骨干351名,成效显著。
电信诈骗日益猖獗的背后,是诈骗手段逐渐向智能化、组织化、集团化发展的缩影。今年以来,多起利用AI(人工智能)技术实施的诈骗引发大众关注。据公安部日前召开的新闻发布会透露,依托“净网”专项行动,公安机关已破获“AI换脸”诈骗案件79起,抓获犯罪嫌疑人515名。
不难发现,越来越多的不法分子试图搭上AI发展的“技术快车”,威胁着人民的“钱袋子”。

AI诈骗是啥?简单来说,它是利用人工智能技术实施诈骗的新型诈骗手段。虽然听起来不可捉摸,但大体表现为以下几种形式。
形式一:声音克隆。不法分子通过拨打骚扰电话来提取对方的声音,接着对音频素材进行处理,然后用伪造的声音实施诈骗;还有一种方式,则是不法分子在盗取微信、QQ号之后,使用特殊的语音插件,转发之前的语音,从而获取信任。
形式二:AI换脸。和声音合成相比,这种形式更具有欺骗性。不法分子根据收集来的照片和视频生成与目标对象相似的面容,然后给受害人拨打视频电话,以假乱真。
其实,利用AI技术进行音视频合成对大众来说并不陌生。早在前几年,网络上就已经出现了换脸软件。许多不法分子利用AI换脸技术伪造明星的淫秽视频,在网络上传播并获利。由于换声、换脸的技术门槛逐渐变低,越来越多的不法分子对AI技术动起了歪心思。
形式三:定制专属脚本。有人说:“骗子最擅长的,往往不是设计精巧到无懈可击的陷阱,而是充分利用人性的弱点。”不法分子在实施诈骗之前,会通过AI技术搜集各类信息,并根据要实施的骗术对人群进行筛选、分类。
找到目标对象之后,诈骗团队会快速生成诈骗脚本,实施“一对一”精准诈骗。比如,在“杀猪盘”婚恋陷阱中,不法分子就充分利用受害人渴望爱情、缺乏安全感的心理,每天嘘寒问暖、输出浪漫情话,让受害者在甜言蜜语中逐渐卸下防备,从而骗取钱财。
总而言之,AI诈骗的花招越来越多,而反诈骗的难度也越来越大

AI诈骗为何变得这么厉害?
AI诈骗是在人工智能生成内容(AI-Generated Content)和深度伪造(Deepfake)技术发展的背景下产生的。毫无疑问,技术的发展为AI诈骗提供了更多的可能。
从普及范围看,AI技术正在走向大众化。如今,AI技术逐渐普及,正成为一场“全民狂欢”。在手机应用市场,以“AI”作为关键词进行搜索,ChatAi、FacePlay等多款运用AI技术的APP映入眼帘;在B站上,用户只要搜索关键词就能获得大量的开源代码和教学视频;在“AI换脸”小程序上,只需要选择心仪的视频模板,再上传一张自己的正脸照片,就可以实现一秒“换头”。
“杨幂版黄蓉”就是一个很好的例子。早在2019年,就有人利用AI技术把1994版《射雕英雄传》里朱茵饰演的黄蓉换成了杨幂的脸。有网友评价:“杨幂版的黄蓉灵动可爱、毫无违和感,一点也不输给原版角色。”
从技术水准看,AI技术不断更新迭代。随着声音、图像处理技术和人工智能算法的不断升级,利用AI技术合成的音视频质量也得到大幅度提升。如今,AI合成语音不仅可以模仿受害人的语调,甚至还能模仿其口音特征。愈发接近“真实”的AI换脸在诈骗中以假乱真,令人傻傻分不清楚,增加了反诈骗的难度。
从应用情况看,AI技术滥用充斥着网络。在电商直播间,众多“迪丽热巴”“刘亦菲”大喊着“321,上链接!”。AI换脸已经形成了灰色产业链,AI代包服务充斥着市场,“只要钱到位,你想换成谁就换成谁”。
当下,AI技术快速普及,不法分子也无孔不入,纷纷为电信诈骗披上AI“马甲”。这类型诈骗主要是利用受害者的社会关系展开,往往充分掌握了受害者个人的身份信息以及与被换脸对象的社会关系,综合作案。比如,不法分子利用熟人关系、领导下属关系等,拿捏了受害人“不好意思拒绝”的心理实施诈骗,令人防不胜防。
此外,因为缺乏判断力、与社会接触较少,老年人等特殊群体也往往成为不法分子的重点“关照对象”。在去年的热播剧《猎罪图鉴》中,就曾出现犯罪分子利用AI换脸技术,伪装成空巢老人的儿子实施诈骗,最终导致两位老人跳海自杀的剧情。

由于AI诈骗具有链条化、平台化、高成本等特征,目前尚未形成爆发态势。但AI诈骗案件已频频出现,风险正快速积聚,对公民的信息和财产安全造成严重威胁。
面对来势汹汹的AI诈骗,该怎么办?
完善制度,划出AI技术应用的“边界”。近两年,我国出台了《网络音视频信息服务管理规定》《互联网信息服务深度合成管理规定》,对AI诈骗起到了一定的约束作用;8月8日,国家互联网信息办公室公布《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,旨在提升人脸识别技术的规范应用与合规水平。而国家网信办已审议通过的《生成式人工智能服务管理暂行办法》,也将于8月15日起开始施行。由此看来,我国在相关领域的规定正在逐步完善。只有让监管跟上技术发展的“脚步”,AI技术才能沿着法治的轨道行稳致远。
升级技术,用“善AI”对抗“恶AI”。公安机关和网信部门除了要做好信息安全知识的普及工作,加强隐私保护教育,指导公众下载“国家反诈中心”APP之外,还要加强AI诈骗的反制技术研究,与不法分子在AI技术应用的赛场上“赛跑”。比如,可将AI技术应用于诈骗预警、嫌疑人识别等环节中,“用魔法打败魔法”。
保护隐私,铲除AI诈骗滋生的“土壤”。隐私数据是AI诈骗的源头。个人要加强信息保护意识,不随意点击陌生链接、下载陌生软件;不在社交平台上过度分享图片、视频;在使用AI技术进行工作、娱乐时,要谨慎对待,做自己隐私保护的第一责任人。
做“细节控”,擦亮防诈识骗的慧眼。除了要保护好个人的隐私数据,大家在进行语音、视频通话时,更要擦亮慧眼。虽然AI诈骗生成的音视频已经相当逼真,但仍会存在一些细节上的瑕疵。
比如,有些合成的人像瞳孔呆滞、眉毛僵硬、身体比例不协调等,可通过这些细节来核验对方身份,用肉眼识破“科技脸”。同时,不能抱侥幸心理,“永远不要觉得自己不会被骗,只是适合你的剧本还没有出现。”
打击诈骗违法犯罪,任重而道远。和其他诈骗形式相比,AI诈骗预防和侦破的难度都更大,尤其需要在常态化和长效化上下功夫。归根结底,不管AI诈骗如何改头换面,仍改不了其“骗”的本质。未来,AI诈骗的手段或许会更加高明,但只要我们强化反诈骗意识,合力筑牢反诈骗防线,就能够让“天下无诈”成为现实。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

对话前OpenAI科学家:爱、灭亡和人工智能

左为肯尼斯·斯坦利(Kenneth Stanley),右为乔尔·雷曼(Joel Lehman)

文|郑可书

编辑|刘以秦  

肯尼斯·斯坦利(Kenneth Stanley)不是咨询从业者,但近几个月,他的邮箱堆满咨询邮件。困惑的人们在邮件里问他:“这一切是什么意思?”

“这一切”,指的是ChatGPT的出现,及其引发的AI热潮。自去年11月发布以来,全世界的人都在使用它、谈论它,试图理解它代表的威胁和机会。

研发出ChatGPT的公司OpenAI同样成为热门话题。肯尼斯曾在那里工作。已经错过ChatGPT、担心再次错过新机会的投资人联系到他,想了解他在做什么,因为“任何与人工智能、与OpenAI有关系的人,都可能在做重要的事情”。

OpenAI另一位前员工乔尔·雷曼(Joel Lehman)则接到了世界各地猎头的询问,包括中国。他与肯尼斯于2020年入职OpenAI,并在ChatGPT发布前几个月离开。在OpenAI,他们共同领导的开放性(Open-Endedness)团队,致力于让算法在没有预定目标的情况下自我学习、创新。

此前,他们曾在大学、AI初创公司几何智能(Geometric Intelligence)、优步(Uber)AI实验室工作。2022年离开OpenAI后,肯尼斯创办了一家名为Maven的公司,建立开放式、偶然性社交网络,而乔尔在AI独角兽Stability旗下的Carper领导开放性研究团队。         

他们已在人工智能行业工作多年,但如今技术进展之快、论文数量之多,有时也让他们感到难以跟上。

此刻的中国人工智能行业面对相似的焦虑。业界、学界机构担心错失机会,纷纷发布大模型。5月28日,科技部直属的中国科学技术信息研究所发布《中国人工智能大模型地图研究报告》,称中国10亿级参数规模以上大模型至少有79个。这个数字还在持续增加,竞争越来越激烈,参与者在浪潮中挣扎。多位中国AI创业者告诉《财经十一人》,他们目前最关注的AI议题,是商业模式、变现能力。

肯尼斯和乔尔已经走过为钱挣扎的阶段,他们给出了完全不同的回答。肯尼斯最担心的是,AI会让人远离人性——机器越来越有趣,以至于人会花更多时间与机器交流,而非与人交往。长此以往,社会纽带将会断裂,政府将会瓦解。而他最初对人工智能产生兴趣的原因,恰恰是他想通过了解“智能”来了解人性。

乔尔则关心机器学习如何为个人、社会的开放式成长做出积极贡献。他说,现在的机器学习以一种非常狭隘的方式对待人类,将满足偏好视为促进人类繁荣的唯一途径,这催生了信息茧房,增加人与人的隔阂。人类是丰富而复杂的。“我们可能对某些事物上瘾,可能会做违背自身利益的事情;我们拥有意志力,但有时经过挣扎之后,我们才会做自己真正想做的事。”今年2月,他发表论文《机器之爱(Machine Love)》,探索机器从更丰富、复杂的维度去“爱”人的可能性。

他们使用AI工具辅助工作,但在一些事情上拒绝AI参与。肯尼斯和孩子一起玩时,即便不借助任何电子设备,也能很开心;乔尔很少在写作中使用ChatGPT,因为他“不想自动化真正关心的事情”。

创新是他们关心的另一件事。2015年,两人合著的《为什么伟大不能被计划》出版。他们在书中记录多年AI研究过程中的发现:设定目标,有时会成为阻碍;遵循好奇心的指引,反而能够解决问题、实现创新。该书中文版于今年出版,引发不少中国科技、教育从业者的讨论。

今年5月、6月,《财经十一人》分别与肯尼斯、乔尔进行了一次书面交流、一次视频交流。最关注的AI议题之外,他们还谈到OpenAI的工作体验,美国AI行业的创投环境,以及Transformer的缺陷、AGI(通用人工智能)的到来等技术问题。      以下是肯尼斯、乔尔和《财经十一人》的对话。对话经过整理、删减:

美国投资界的优势在于多样性

财经十一人:在OpenAI工作是什么体验?

肯尼斯:很兴奋,我们能够体验全新的技术。我在学术、商业实验室都工作过,OpenAI和其他研究机构的明显差异是:其他机构有不同的研究小组,小组成员们制定自己的议程,在各自的领域发表论文;OpenAI也有小组,但不同的小组目标一致:我们共有一个使命,并一起朝着这个使命前进。

乔尔:OpenAI是一个令人兴奋的、快速发展的、务实的、严谨的公司。员工可以提前试用模型,让人感觉生活在未来。另外,OpenAI有充足的算力资源,我供职过的其他研究机构都没有这个条件。我们拥有同一种愿景,而这个愿景与其他AI机构或者多数人当时的想法都不同——OpenAI相信规模化,相信使用更多的数据和算力,就能增强模型的能力。

财经十一人:ChatGPT发布后,你的工作、生活发生了什么变化?

肯尼斯:我的邮箱突然接到了大量的咨询请求,好像全世界都对这个领域感兴趣,甚至是恐惧——他们担心自己被落下,因此寻找权威人士,询问这一切是什么意思。还有很多投资人联系我,想找到下一个风口。ChatGPT的成功让他们认为,任何与人工智能、与OpenAI有关的人,都可能在做重要的事情。

关于GPT,在某种程度上,它令人害怕,因为它相当准确地捕捉到了人类认知的某些方面。这不仅是科学上的进步,还具有哲学上的重要意义,因为这些认知是将人类与宇宙中的其他一切区分开来的东西,而它们开始在机器中运转。

乔尔:很多猎头联系我,包括来自中国的。另外,OpenAI如此频繁地出现在新闻中,以至于我的父母第一次如此了解我所在的公司。这种感觉很神奇。         

财经十一人:为什么在2022年下半年、ChatGPT发布前几个月离开OpenAI?

乔尔:我没有预料到ChatGPT会产生如此巨大的影响。OpenAI是一个很棒的做研究的地方,但它的研究总是往一个特定的方向推动;而我和肯尼斯作为研究者,希望参与更基础、更开放的(不限定方向的)探索性研究。正好那时,我们都有其他合适的工作机会,所以我们离开了。

财经十一人:有观点认为,中国的投资机构过于重视被投公司的商业模式与盈利能力,不像OpenAI的投资方那样愿意冒险,所以扼制了创新,导致中国没有做出OpenAI和ChatGPT。你怎么看?

肯尼斯:将OpenAI的融资过程解读为“投资人不应该关心钱”,是错误的。OpenAI的创始团队是世界一流的人才,所以投资人才愿意把赌注放在这里。

财经十一人:美国AI行业的创投环境是什么样的?

肯尼斯:在美国,有足够多的投资人注重理念和愿景、愿意冒险,也有人只看利润。同一个人的想法也会改变,例如,我投资了一个目标不明确的公司,失败、赔钱了,那么下一次我就会更关心商业模式和利润。我认为,美国投资界的优势,就在于观点的多样性。这是一个健康的环境。

我对中国的投资界没有深入了解,但多样性对任何地方都是有益的。硅谷的风险投资产业已经非常成熟,而在中国风投这样相对不成熟的环境里——我没有贬低的意思,因为几乎没有什么地方会像硅谷那样成熟——我可以想象大家非常关注利润和商业化。这样也能投出好公司,但它们不会像OpenAI那样具有革命性。另外,决定投资方向的不仅仅是投资人,还有他们背后的各类机构、基金等。提供科学研究资金的国家机构应该不怕亏损,因为科学研究总是充满风险的;如果没有任何亏损,那意味着他们实际上没有在做研究。但我发现,这些机构反而更保守。这有点讽刺,他们会问:“研究目标是什么?”然后评估目标的可行性,再决定是否给钱。反倒是市场化的投资人会有不同的观点。他们把投资视为一个组合,不在意个别的失败,总体的上涨能够弥补下跌就行。他们有时更愿意说:“我不知道这有什么意义,但它听起来很酷,我要投。”         

Transformer有缺陷,AGI还很遥远

财经十一人:Transformer之后,会有新的架构出现吗?(注:Transformer是Google 在2017 年提出的一种自然语言处理模型,也是今天AI大模型的基础架构。)

肯尼斯:我不相信Transformer就是我们到达的最终架构,这种观点从研究角度看,似乎过于乐观了。但我不能排除这种可能性。也许可以不改变架构,只改变训练方法、提示词(prompt)的长度等其他方面。

提示词中的文本是有顺序的,神经网络确实看到了这个顺序,只是目前能输入的提示词太短了,所以Transformer无法按照时间顺序学习。也许将来会有一些突破,让提示词能够长到囊括整个人类历史,然后模型就可以在提示词中学习。这是一个非常奇怪的想法,但如果可以实现,也许架构将保持不变。

另一个因素是硬件,科学家们会想到非常有趣的新架构,但当前的硬件可能无法承载,这就限制了我们尝试某些方案的空间。

乔尔:Transformer确实非常惊人,可以完成许多任务,但从历史经验看,会出现超越它的方法。

目前Transformer的一个基本缺陷是没有“循环(recurrence)”能力。面对问题时,人类会回顾经验进行学习,过去的某个心理状态能够无限次地反复再现,因此你想反思某件事情多久,就可以反思多久。Transformer也拥有对过去的显式记忆,但这种记忆仅持续特定数量的token(注:AI处理文本的数据单位)。这种范式非常强大,足以使模型具备从输入的上下文信息中学习的能力。但它仍不能像人类那样,将记忆永久保存下来。

我想强调,我并不是说机器学习模型必须像人类大脑一样运作,但目前的研究主流路径是这样。         

财经十一人:有人认为,大模型并不具备像人类一样的思考能力,它只是看起来在思考。

乔尔:这个观点很有趣,但从技术角度看,我不认同。Transformer在没有帮助的情况下进行算术运算的能力非常不像人类,它会犯很基础的错误;但是当你与它交流那些它似乎没接触过的复杂话题(比如试图将22种奇特的哲学思想结合在一起),它可以给出相当令人印象深刻的回应。因此,我认为实际情况可能处于中间位置。

财经十一人:如何定义AGI(通用人工智能)?Sam Altman(OpenAI创始人)在中国的演讲中提到,十年内会有非常强大的人工智能系统出现,我们需要从现在开始做应对的准备,你怎么看?肯尼斯: 我不太关心 AGI 的精确定义。等我们看到它时,自然会知道。我感觉AGI这个词分散了我们的注意力。真正的问题不在于是否到达AGI,而在于,我们在十年内取得的成果,是否会对社会产生重大影响;如果是的话,那么无论它被称为AGI还是其他名字,我们都要做好准备。        乔尔:我认同。科学发展进程总是非线性的,我不知道AGI什么时候会到来,可能很快,也可能很慢。AI很快就会在一些任务上超越人类,某些方面的AGI可能很快就会到来。

这会带来两个问题。“智能”是定义人类的基础,当一个比人类还聪明的东西出现时,人类就处于危险之中。另一件有点恐怖的事情是,很多人从工作中获取意义,当AI将工作自动化,我们就需要将人生意义从工作转向寻找愉悦、做自己喜欢的事。这很好,但转变过程会非常艰难。目前的证据显示,在美国,人们即使有社会保障,也会因失业沮丧,甚至会滥用药物。面对这种可能的未来,我们还没有做好准备。

财经十一人:AGI什么时候会实现? 

肯尼斯:关于这个问题,有很多不同观点。但现实是,没人能知道。智能领域还存在一些尚无明确解法的缺口。

现在比较主流的通往AGI的方法是,基于Transformer,继续增加数据和算力。因为过去这种规模化方法很好地填补了先前模型的漏洞,例如从GPT-2到GPT-3、再到GPT-4的升级。基于此,一些人认为我们正处于AGI的临界点——只需要进一步规模化,就能解决问题。

但有些东西是无法通过规模化改善的,比如创新性。目前的模型无法像人类发明摇滚乐那样,发明一种新的范式。这是一个严重的不足,因为文明的本质就是创新。

存在这个缺陷的原因是,Transformer是通过数据学习,而“创新性”之类的东西并不在数据里。目前,被输入模型的数据不是按时间顺序从头到尾排列的,而是一整个单独的数据块。这导致模型缺少时间概念,而创新是与时间顺序密切相关的。

我们人类始终身处某个特定的时间点,这个点之前发生了什么、还没有发生什么都是默认的,所以我们能知道什么是新的、前沿的;但模型无法判断时间点,它将所有这些东西都视为一团巨大的混合体:它会看到关于汽车的数据,关于太空飞船的数据,关于大型语言模型的数据,但它们都是同时存在的,没有先后之分。因此,模型无法判断什么是前沿的。

另一个例子是幻觉问题(注:“幻觉”即AI生成的虚假或错误信息),即语言模型怎么知道自己知道什么、不知道什么?“知道自己记得什么”不是一个语言过程。如果我问你,你三周前吃了什么?你会说不记得了。但你怎么知道自己不记得?这个过程无法用言语表达,你不能说,我检查了这个,然后检查了那个,所以我知道我不记得了。这更像是一种隐含的、与生俱来的过程,并不涉及语言;如果没有语言,它就不存在于数据中,模型也就无法从数据中获得这个概念。

现在,由于RLHF(Reinforcement Learning from Human Feedback,从人类反馈中进行强化学习,即由人类来训练模型,模型做得好就奖励,做得不好就惩罚)的运用,这些不足也许可以修正。但我认为,只有在模型真正理解它应该知道什么、不应该知道什么的情况下,这种方法才能有效;而只有这些知识隐含在数据中时,它才能真正理解。但目前看来,数据中似乎不存在这类知识。例如,要让模型学会诚实,我们可以在它不诚实时惩罚它,然后它会变得诚实。但这并不意味着它理解了诚实的重要性。这些问题很难通过规模化来解决,有解决办法,但需要更多的复杂性,需要新的洞察和技术突破,不会轻易实现。所以AGI仍然很遥远。

爱,灭亡和人工智能

财经十一人:如今,很多业界人士在警告AI的威胁,强调对AI进行控制和监管。而你研究的AI开放性,是让AI在没有目标的情况下,产生更多新的、让人意想不到的结果,是关于放松控制的。如何看待其中的矛盾?

肯尼斯:好问题。AI作为一门科学,本身就是在寻求进一步的发现和创新。我们应该接受对开放性的研究,依靠它找到平衡——既允许持续发现,又受到足够的限制。

乔尔:对开放性的研究在一定程度上很重要,因为它使我们能够科学地解决贯穿整个技术史的问题:我们如何从开放性过程中获得最大收益,同时降低风险?同样的开放式科学过程为我们提供了治愈疾病的疫苗和环球飞行的飞机,也为我们提供了核武器。创造力和控制力之间的张力很深,需要大量思考和研究。

财经十一人:你现在已经是AI-native的生活状态了吗?   

肯尼斯:不是。我确实在工作中使用AI,但生活中很多事情,比如和我的孩子一起玩,即使没有任何电子设备,也会很棒。我适度使用AI,生活就是生活。

乔尔:我用 ChatGPT(带有 GPT-4)理解新的知识领域,用 Copilot写代码。

但是到目前为止,我还没有在写作中使用ChatGPT(比如我没有用它来回答你的这些问题)。部分原因是它还没有融入我的工作流程。比如,我会用特定的文本编辑器,把GPT集成进去很麻烦。而且,我喜欢写作的艺术性质。也许在未来,它会变得足够容易,能够融入工作流程;但我也有些抵触,因为有时候,你不想自动化你真正关心的事情。

财经十一人:当下,你最关心的一个关于AI的议题是什么?

肯尼斯:我担心我们与人性越来越疏远。我8岁时对AI产生兴趣。它最吸引我的一点是,它能让我更好地理解人,与人产生更紧密的联系。这可能很难理解,毕竟我们这些人看起来只是成天和机器打交道,对人类没有兴趣。但理解“智能”的过程,其实就是在理解人性的本质。心理学也在理解智能,可它只研究运作原理,不研究构建方法;而我一直觉得,如果我不能构建某样东西,我就无法真正理解它。

用机器取代人的情况令我困惑。这就是我所说的与人性的疏远——机器变得足够丰富和有趣,以至于你会抽出时间与机器交往,而不是与人交往。我们看到的图像、听到的音乐、读到的故事,曾经是人类丰富想象力的产物,如今却越来越多地被机器生产。

我受到震动的具体时刻,是第一次看到DELL-E(注:OpenAI的图像生成产品)时。突然间,我意识到艺术可以不是自我表达,它只是艺术。而我一直认为,艺术的可爱之处在于呈现人性。那时,我的孩子大约7岁。他喜欢画画,而这个机器生产的画作质量远超他。这让我对未来非常困惑——这个冰冷的东西没有真正的体验,却会使人们无法欣赏我孩子的自我表达。我不喜欢那样的世界。

像DELL-E这样的技术也可以帮助人类自我表达,但如果走向错误的方向,我们将沉溺于没有人性的东西,停止与人类互动,那时,社会纽带会破裂,政府也会瓦解。摆在我们面前的一个巨大挑战是:如何让人工智能支持有意义的人际联系,而非鼓励隔离与孤独。         

乔尔:目前我最关心语言模型部署到世界的速度。我担心制度(如法律、教育、经济、新闻媒体和政治制度)更新缓慢,适应速度跟不上语言模型的发展速度。

在美国,社交媒体、推荐引擎等系统占用人们大量时间精力。这些系统拥有将我们联系起来的能力,但它们往往只追求用户参与度、停留时长,而非帮助我们改善生活。

似乎我们的所有制度都在这种方式下变成赌博。比如,在美国,为了赢得选举,一些政治候选人不再进行诚实的辩论,而是针对受众心理特点创建广告,激起他们对其他政党的仇恨。机器学习以许多不同的方式参与其中,像是个性化推荐与信息茧房。这也是我将研究方向转到机器学习、哲学交叉领域的主要原因之一。我希望我们能以更有益的方式使用机器学习。

财经十一人:有办法避免这些情况进一步恶化吗?

肯尼斯:一种方法是,鼓励开发增强人类能力的AI工具——将人随口唱的曲子制作成完整作品,促进高质量的人际互动,诸如此类。但人类的本性难以控制。如果与AI交流很愉快,人们就会这样做。这有点像吃糖,甜味让人愉快,但你必须努力控制,不能过度。

我们也需要国际合作,来建立审查与法律框架,还要确定具体责任人。这也很难,涉及经济问题与国际竞争——如果能够实现AI的独立发展,一个国家可以彻底改革全球经济,获得巨大优势。因此,不合作是非常有诱惑力的。         

财经十一人:很多中国AI创业者为商业模式、融资苦恼,他们想聚集资源,做出中国的OpenAI。你不关心钱的问题吗?

肯尼斯:如果我在一个急需钱的创业时期,我也会重视融资;但我似乎已经过了这个阶段——我现在认为,只要我做正确的事情,就能拿到融资。所以我更关注前景,担心没有证据来支持我的想法,而不是钱。

我个人觉得,“成为下一个OpenAI” 不是一条明智的道路,因为通常,你无法再次成为同样的事物。这个事物之所以出色,就是因为它是第一个这么做的、独一无二的。现在,对话机器人领域的竞争非常激烈,而我并不认为自己出色到能赢,所以,我更倾向于思考,有什么与OpenAI完全不同的新东西?

乔尔:我喜欢钱。我很幸运,曾在薪酬丰厚的实验室里工作。但现在,更多的钱并不能让我感觉生活更有意义。  

财经十一人:美国公众在关心哪些关于AI的问题?

肯尼斯:有各种各样的担忧,有人关注长期风险,比如人类的灭绝威胁;有人关注短期,比如就业问题。还有人同时担心所有问题。有人对其他人感到愤怒,认为后者关心的不重要的问题吸引了大量关注,让人们无法聚焦到真正重要的事情上。目前缺乏共识。我认为人们正在整理思绪,确定哪些是当下最重要的、值得我们花费大量时间精力应对的问题。     

财经十一人:论文《机器之爱》的主要内容是什么?

乔尔:“人工智能”是将我们对“智能”的理解植入机器,试图理解智能的本质;“人工生命”是将“生命”进行抽象,并在计算机中模拟生物进化。我尝试将同样的思路应用到“爱”,将“爱”这个概念进行抽象,使得机器能够表现出“爱”。在实践中,这意味着将机器学习的方法与研究爱的领域(如哲学、灵性、心理疗法等)的方法结合。

机器学习的一个问题是,它以一种非常狭隘的方式对待人类,将满足偏好视为促进人类繁荣的唯一方式。从这个视角看,社交媒体重视用户参与时长,就变得可理解了:在机器学习的眼中,你是一个完全理性的个体,因此你在社交媒体上花更多的时间,就意味着它提供了有价值的东西。

但是,人类是丰富而复杂的。我们可能对某些事物上瘾,可能会做违背自身利益的事情;我们拥有意志力,有时经过挣扎之后,我们才会做自己真正想做的事。

在这篇论文中,我采用更丰富的人类行为模型(类似于马斯洛需求层次理论),试图利用语言模型,让机器尊重、促进人类的发展,而不仅仅是给予狭隘的满足。

财经十一人:这听起来与你如今最关心的AI议题紧密相关。你是在寻找解决问题的方法吗?

乔尔:我不敢自称有解决方案,但我希望找到一种积极的前进方式。我对人类、人类心理学,以及人类领域与机器领域如何能够有效结合非常感兴趣。技术是为了人类,为了我们的利益、我们的繁荣而存在的,但有时,我们很容易忘记这一点。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

国内首颗以人工智能(AI)载荷为核心、具备智能操作系统的“地卫智能应急一号”卫星发射成功

8月10日12时03分,中国首颗以人工智能(AI)载荷为核心、具备智能操作系统的智能应急卫星“地卫智能应急一号”(又名WonderJourney-1A,简称WJ-1A),在酒泉发射中心成功发射并进入预定轨道。这标志着浙江本地企业地卫二空间技术(杭州)有限公司的Wonder Journey 望江山星座的第一个卫星智能体发射完毕, 即将正式投入运营。

这是实现从智能卫星到太空智能体跃迁的第一步。与其他卫星相比,地卫智能应急一号携带峰值80TOPS (即每秒钟万亿次运算)星载算力,而星上超高算力的实现得益于地卫二自主研发的星载智能载荷处理单元“弦”(“String” Edge AI Platform)。并且,这个算力还将随着智能载荷处理单元“弦”的更新迭代不断攀升,在今年年底,地卫二星上算力有望超每秒万亿次运算。

通过部署全新计算架构和自动驾驶级的太空算力,驱动高分辨率面阵相机、近红外相机等载荷,运算超过百种算法,实现星上的实时观测、实时处理和太空智能。具体来说,可实现图像智能识别、智能分割、智能压缩、无效数据清洗等星上AI能力,有效提高遥感卫星的运行效率。

星载智能载荷处理单元“弦”采用了开放系统架构,推动“太空共同富裕”新业态。多家单位和企业联合地卫二,纷纷入驻地卫智能应急一号卫星,共同打造了基于智能载荷处理单元“弦”的“望江山太空程序1.0”应用矩阵,这也标志着地卫二第一代“星上太空城”的诞生。

共建空间信息走廊,畅想太空丝绸之路。“弦”智能载荷处理单元搭载了斑马网络技术有限公司AliOS操作系统,验证智能操作系统管理卫星,以及未来智能汽车与智能卫星的连接和计算能力,系国内首个将汽车底层操作系统运用到商业航天上的案例。小冰公司也与地卫二联手,实现了交互式太空数字人智能模型布局太空的第一步。浙江大学望江山智能联合实验室、东海实验室、阿曼苏丹卡布斯大学、沙特阿卜杜勒阿齐兹国王科技城等单位也为星载智能应用的开发提供了技术支撑。

在商业卫星发射按重量以克计价的时代,软件的应用有效降低了卫星的物理载荷。通过软件上注的方式,这个智能平台让多种智能应用程序得以在航天器上运行和验证,赋能包括森林减灾、水质监测、土壤墒情、非农非粮、森林火点、病虫害监测、城市两违等多种场景,作为一种长时序、高精度的监测手段有独特的优势。

“地卫智能应急一号”卫星入轨后将首次在轨开展星载智能载荷处理单元“弦”验证试验,评估多方算法及模型的在轨应用效能,并持续开展“天空地脑一体化”架构验证。

在轨期间由中国航天科技集团、苏州天巡空间技术有限公司、河南理工大学等多家联合研制单位共同在应急减灾、水利、农业、林业、海洋等领域进行推广应用。

中国商业航天如今仍处于相对早期的阶段,需要整个行业通力合作。地卫二作为一家多模态的商业卫星公司,期待着与行业各方共同努力,志在为整个行业赋能,推动卫星的智能化转型,实现航天产业的持续繁荣与创新发展,推动航天产业的智能化转型与进化。

理论上,这是目前唯一一颗跑得动大模型的新“星”。通过部署类似GPT的基础模型(Foundation Model),利用智能体模型代理(Agent Model),构建了立体感知、全域协同、精准判断、持续进化、开放兼容的智能系统,实现“模型管理模型,模型生产数据,模型产生效益”。作为连续两届拿下CVPR(IEEE国际计算机视觉与模式识别会议)挑战赛奖项的科技公司,地卫二无疑承载着应用大模型太空GPT的使命。

凡是过去,皆为序章。下一个精度更高的太空智能体也已进入筹备阶段,地卫二将以前所未有的方式揭开这星算时代的序幕!

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI 人工智能将取代 8500万 个岗位,与此同时将新增 9700万 个新岗位

据世界经济论坛报告,到2025年,“机器人革命”将使8500万个人工工作岗位被机器取代,管理和数据处理中的常规或体力劳动最容易受到威胁。

与此同时,新技术也将创造9700万个工作岗位。

报告指出,消费者对云计算和电子商务服务的需求与日俱增,无法在线为其客户提供服务的公司的生存空间将遭到挤压。

超过五分之二的受调查公司表示,他们计划通过技术集成来减少人力,行政助理、文员等受影响最大。

新报告同时指出,自动化的发展也可能在护理、大数据、人工智能、云计算、绿色经济等领域创造出9700万个新的工作岗位,咨询、决策、推理、沟通、互动和内容制作等对人类技能有所需求的职位将增多。

而且,未来将有越来越多来自不同背景的人才会共同协作,“展示出人类互动在新经济中的持续重要性。”

报告指出,目前,约有三分之二的工作由人类完成,剩余三分之一由机器处理,但到了2025年,机器完成工作的比例将升至二分之一。

因此,很多劳动者可能需要接受新的技能培训、进入新岗位以应对这种改变。

报告显示,一些岗位容易被机器取代的工人可能要进入新的职业领域,94%的被调查企业希望员工掌握新工作技能,这一数据较2018年的65%有大幅增加。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

“大模型”2023影响中国人工智能产业进程的10大模型

来源:高校大数据与人工智能推进联盟

2023年,生成式人工智能和AI聊天机器人背后的大模型,竞争激烈,令人疯狂。尤其是在OpenAI发布ChatGPT之后,大公司、小公司和开源社区更是争先恐后的推出自己的大模型。据统计,到目前为止,全国已经发布了数百个大模型。但是,哪些大模型最受关注和最具发展潜力?哪些大模型最具价值和创新要素?

近日,全国高校人工智能与大数据创新联盟对市场上比较活跃的大模型产品进行了梳理,从中推选出2023影响中国人工智能产业进程的十大模型,分别是清华大学“chatglm”大模型、百度“文心”大模型、华为云“盘古”大模型3.0、复旦大学“moss”大模型、科大讯飞“星火认知”大模型、商汤“日日新商量SenseChat”大模型、阿里云“通义千问”大模型、京东云“言犀”大模型、网易有道“子曰”大模型、学而思数学大模型“MathGPT”。

NO1.清华大学“chatglm”大模型

由清华大学教授唐杰团队研发的chatglm大模型,目前位列国内大模型开源领域影响力前列。2023年6月,清华大学KEG和数据挖掘小组(THUDM)发布了第二代ChatGLM2-6B大模型。ChatGLM-6B是国产开源大模型领域最强大的的大语言模型之一,因其优秀的效果和较低的资源占用在国内引起了很多人的关注。第一代的ChatGLM2-6B是一个非常优秀的聊天大语言模型,它的部署成本很低。相比较第一代,第二大的ChatGLM2-6B模型主要有四点升级:升级1:基座模型升级,性能更加强大;升级2:更长的上下文;升级3:更高效的推理,更快更便宜;升级4:更加开放的协议。根据官方的说明,ChatGLM2-6B的资源占用更低,速度更快。其次是资源占用降低,在不同的量化水平下,相同显存支持的对话长度提升约8倍!对于大模型的未来发展,唐杰提出三点思考,一,目前的千亿模型能力已经很强大了,未来重要的是如何把它的智慧提炼发挥出来;二、大模型如何跟外界进行交互;三、如何让大模型具有反思能力,能自我反思,自我纠错,并且具有一定的价值观,具有一定的意识。

NO2.百度“文心”大模型

百度文心大模型源于产业、服务于产业,是产业级知识增强大模型。百度通过大模型与国产深度学习框架融合发展,打造了自主创新的AI底座,大幅降低了AI开发和应用的门槛,满足真实场景中的应用需求,真正发挥大模型驱动AI规模化应用的产业价值。文心大模型的一大特色是“知识增强”,即引入知识图谱,将数据与知识融合,提升了学习效率及可解释性。文心ERNIE自2019年诞生至今,在语言理解、文本生成、跨模态语义理解等领域取得多项技术突破,在公开权威语义评测中斩获了十余项世界冠军。2022年11月30日,由深度学习技术与应用国家工程研究中心主办、百度飞桨承办的WAVE SUMMIT+2022深度学习开发者峰会举行 [29] 。百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜发布文心大模型的最新升级,包括新增11个大模型,大模型总量增至36个[30] ,构建起业界规模最大的产业大模型体系,并通过大模型工具与平台的升级和文心一格、文心百中等基于大模型技术的产品应用,进一步降低大模型产业化门槛,让更多企业和开发者步入AI应用的新阶段。2023年6月,百度文心大模型3.5版本已内测可用。

NO3.华为云“盘古”大模型3.0

华为云盘古大模型,是华为旗下的盘古系列AI大模型,包括NLP大模型、CV大模型、科学计算大模型。2020年11月,盘古大模型在华为云内部立项成功,也完成了与合作伙伴、高校的合作搭建。2021年4月,盘古大模型正式对外发布。2023年7月7日,华为开发者大会2023上,华为常务董事、华为云CEO张平安宣布,华为云盘古大模型3.0正式发布。盘古大模型3.0是完全面向行业的大模型,包含L0基础大模型、L1行业大模型及L2场景模型三层架构,重点面向政务、金融、制造、医药、矿山、铁路、气象等行业。7月18日,华为联合山东能源集团宣布华为盘古大模型在矿山领域实现首次商用,解决人工智能在矿山领域落地难的问题。

NO4.复旦大学“moss”大模型

由复旦大学自然语言处理实验室邱锡鹏教授团队发布的MOSS大模型是国内第一个对话式大型语言模型。2023年4月21日,复旦大学计算机科学技术学院自然语言处理实验室开发的新版MOSS模型已上线,成为国内首个插件增强的开源对话语言模型,支持搜索引擎、图像生成、计算器、方程求解器等插件工具。除了完成升级迭代,MOSS模型还走上了开源道路,相关代码、数据、模型参数已在Github和Hugging Face等平台开放,供科研人员下载,促进人工智能模型研究和开源社区的生态繁荣。目前,MOSS项目的代码、数据、模型参数已在一些平台开放。开源代码涵盖模型训练和推理代码,开源数据包括超100万条对话训练数据,开源模型包括160亿参数中英双语基座语言模型、对话模型以及插件增强的对话模型。未来,MOSS将陆续开源更多训练数据及模型参数,促进人工智能领域的科学研究和开源社区的生态繁荣,同时也为企业私有化部署人工智能模型、开展相关服务提供解决方案。复旦大学自然语言处理实验室,是由复旦大学首席教授吴立德先生创建,是我国最早开展自然语言处理和信息检索研究的实验室之一。经过40余年发展,在自然语言处理底层分析、文本检索、自动问答、社会媒体分析等方面取得了一系列的研究成果。

NO5.科大讯飞“星火认知”大模型

2023年5月6日,科大讯飞正式发布“讯飞星火认知大模型”,产品具有7大核心能力,即文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模态能力。2022年12月,科大讯飞启动“1+N”大模型技术攻关。其中,“1”指的是通用认知智能大模型算法研发及高效训练方案底座平台,“N”指的是将认知智能大模型技术应用在教育、医疗、人机交互、办公、翻译等多个行业领域。2023年8月2日,讯飞星火APP已在苹果应用商店上架,版本更新为1.3.04。科大讯飞在互动平台表示,“讯飞星火APP正在升级优化,华为应用商店的讯飞星火APP新版本已于8月1日升级完毕。苹果商店尚在更新中。讯飞星火认知大模型V2.0升级发布会将于8月15日举办,届时会发布多模态生成、代码生成能力及行业产品等多项能力及应用。

NO6.商汤“日日新商量SenseChat”大模型

2023年4月,商汤科技董事长兼首席执行官徐立宣布推出“日日新SenseNova”大模型体系。日日新(SenseNova)大模型体系,包括自然语言处理模型“商量”(SenseChat)、文生图模型“秒画”和数字人视频生成平台“如影”(SenseAvatar)等。2023年4月10日,商汤科技举办技术交流日活动,分享了以“大模型+大算力”推进AGI(通用人工智能)发展的战略布局,并公布了商汤在该战略下的“日日新SenseNova”大模型体系。其中,商汤研发的大语言模型被命名为“商量SenseChat”。“商量SenseChat”在活动现场展示了多轮对话和超长文本的理解能力。包括:编程助手,可帮助开发者更高效地编写和调试代码;健康咨询助手,为用户提供个性化的医疗建议;PDF文件阅读助手,能轻松从复杂文档中提取和概括信息。

NO7.阿里云“通义千问”大模型

通义千问,是阿里云推出的一个超大规模的语言模型,功能包括多轮对话、文案创作、逻辑推理、多模态理解、多语言支持。能够跟人类进行多轮的交互,也融入了多模态的知识理解,且有文案创作能力,能够续写小说,编写邮件等。2023年4月7日,“通义千问”开始邀请测试,4月11日,“通义千问”在2023阿里云峰会上揭晓。4月18日,钉钉正式接入阿里巴巴“通义千问”大模型。

NO8.京东云“言犀”大模型

2023年7月13日,京东言犀大模型正式对外亮相。言犀大模型融合70%通用数据与30%数智供应链原生数据,具有更高产业属性、更强泛化能力、更多安全保障等优势,其已经可将原本需要10余名科学家花费一周时间才能完成的定制化开发工作缩短至数分钟。京东还发布了全新升级的优加DaaS和言犀智能服务平台,其可以面向零售、金融、城市、健康、物流五大领域的行业提供定制化解决方案。对于“言犀”大模型的应用实践,京东也有“三步走”规划。目前,京东云已经基于内部实践构建了通用大模型;到今年年底这段时间,京东将经由高复杂场景大规模锤炼,迭代出扎实的产业服务;预计在2024年初,会将大模型能力向外部延伸商业场景开放。目前,京东已经走到第二步,并在内部取得了丰富的实践成果。

NO9.网易有道“子曰”大模型

2023年7月26日,网易有道发布国内首个教育大模型“子曰”以及六大创新应用成果,覆盖口语训练、作文批改、习题答疑等领域,展现了“子曰”大模型在自然语言处理领域的技术实力及广泛应用前景。大模型“子曰”能为学生提供个性化的分析和指导,实现引导式学习,还具备全科知识整合能力。通过连接多模态知识库、跨学科整合知识内容,大模型能随时满足学生的动态需求,帮助孩子培养更综合的能力。“子曰”大模型在教育行业的应用,不仅可以帮助学生更好地学习,也可以帮助老师更好地教学,借此实现因材施教的教育战略。

NO10.学而思数学大模型“MathGPT”

2023年5月,学而思宣布正在研发一款面向全球数学爱好者和科研机构的自研数学大模型,名为MathGPT。与通用语言模型不同,该大模型专注于解题和讲题算法,旨在弥补通用语言模型在数学问题解决、讲解、问答和推荐方面的不足。学而思AI团队负责人表示,通用语言模型虽能在文本处理方面表现出色,但在数学领域的表现却存在明显不足。MathGPT将通过解决现有通用语言模型的三个问题来弥补这一不足:提高题目解答的准确性、稳定性和清晰度,让解题过程更能够适配不同年龄段的学生。在人工智能领域的多年深耕使得学而思有能力自主研发MathGPT。学而思拥有20年的数学教学经验,其海外业务Think Academy在全球多个国家和地区深受数学爱好者喜爱,并在每年的IMO和AMC等国际数学竞赛中表现优异。

来源:高校大数据与人工智能推进联盟

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能行业岗位一览

人工智能行业的岗位薪资高、待遇好、涨薪快已经是公开的事实,那么在人工智能行业中具体有哪些职业岗位呢?对于普通人来说,想要入行人工智能又有哪些机会呢?

下面是人工智能领域中的一部分职业岗位,随着技术的不断发展,未来还会涌现出更多新的职业机会。无论你的兴趣是什么,相信都可以找到与人工智能相关的职业岗位。

1. **人工智能算法工程师**:作为专业的人工智能算法工程师,可以负责设计、开发和优化人工智能算法,用于解决各种实际问题,如图像处理、自然语言处理、语音识别、推荐系统等。

2. **数据科学家**:可以应用人工智能算法和技术,从大规模数据中提取有价值的信息,进行数据分析、建模和预测,为企业决策提供支持。

3. **机器学习工程师**:专注于机器学习算法的开发和应用,可以设计和实现各类机器学习模型,用于数据挖掘、分类、聚类等任务。

4. **深度学习工程师**:具备深度学习算法的实际应用和开发能力,可以处理复杂的数据,如图像、声音和文本等,解决模式识别和决策问题。

5. **自然语言处理(NLP)工程师**:专注于处理和分析人类语言的计算机应用,如机器翻译、情感分析、智能客服等。

6. **计算机视觉工程师**:负责图像和视频数据的处理和分析,开发图像识别、目标检测、人脸识别等应用。

7. **人工智能产品经理**:了解人工智能技术和应用,负责规划、设计和推广人工智能产品,满足市场需求。

8. **智能硬件工程师**:结合人工智能技术,开发智能硬件产品和应用,如智能家居、智能机器人等。

9. **人工智能咨询顾问**:对人工智能技术有深刻理解,能够为企业或机构提供人工智能相关的咨询和建议。

10. **教育培训人员**:可以成为培训机构或企业的人工智能技术培训师,传授人工智能算法和技术的知识与实践。

11. **人工智能研究员**:投身于人工智能前沿的研究,推动人工智能技术的不断创新和发展。

12. **人工智能项目经理**:负责领导和管理人工智能项目的规划、执行和交付,协调跨部门合作,确保项目按时、按质完成。

13. **人工智能工程师团队负责人**:领导人工智能团队,监督团队的技术进展、项目计划和资源分配。

14. **人工智能系统架构师**:设计和构建复杂的人工智能系统架构,确保系统的性能、可扩展性和稳定性。

15. **人工智能数据工程师**:负责数据的采集、清洗、预处理和存储,为人工智能算法提供高质量的数据支持。

16. **人工智能训练师**:负责数据标注和处理,以及对模型的训练和调优等,保障人工智能模型的训练能够达标。

17. **人工智能运维工程师**:负责维护和管理部署在生产环境中的人工智能系统,保障系统的稳定运行。

18. **人工智能伦理与合规专家**:关注人工智能的伦理和法律合规问题,提供合规性建议,确保人工智能应用的合法合规性。

19. **人工智能创业者**:基于持有的人工智能算法技能,创办自己的人工智能相关企业,开发创新的人工智能产品和服务。

20.**人工智能法律顾问**:关注人工智能法律法规,为企业提供人工智能项目合规性评估和法律咨询。 

21. **人工智能商务拓展经理**:将人工智能技术应用于商业领域,开展市场拓展、业务合作,推动人工智能产品和服务的商业化。

22. **人工智能售前工程师**:配合人工智能销售人员,进行人工智能产品方案的编写、宣讲等,完成人工智能产品的销售。

23**人工智能领域的作家和科普者**:利用专业知识,撰写人工智能领域的文章、书籍或博客,推动公众对人工智能的理解和认知。

24. **人工智能医疗专家**:将人工智能技术应用于医疗领域,参与医学图像分析、疾病预测等应用。

25. **人工智能金融分析师**:将人工智能应用于金融领域,进行风险评估、交易预测、投资分析等工作。

26. **人工智能产品测试工程师**:负责测试人工智能产品的性能、稳定性和安全性,确保产品符合质量标准。

27.**人工智能音乐创作者**:探索人工智能在音乐创作中的应用,创造出新颖、独特的音乐作品。

28. **人工智能农业专家**:将人工智能技术应用于农业领域,进行作物病虫害识别、精准农业管理等工作。

29. **人工智能环保专家**:利用人工智能技术解决环境保护问题,如空气质量预测、垃圾分类等。

30.**人工智能游戏开发者**:将人工智能技术融入游戏开发,创造更智能、逼真的游戏体验。

31. **人工智能用户体验(UX)设计师**:结合用户需求和人工智能技术,设计用户友好的界面和交互体验。

32. **人工智能创意艺术家**:将人工智能技术应用于创意艺术创作,创造出独特的艺术作品。

33. **人工智能社会学家**:研究人工智能对社会、文化和伦理的影响,提出相应的社会政策建议。

34. **人工智能可视化专家**:利用数据可视化技术,将复杂的人工智能算法和数据呈现为易于理解的图形。

35. **人工智能安全专家**:关注人工智能系统的安全漏洞和风险,提供安全性评估和解决方案。

36. **人工智能跨学科研究员**:将人工智能技术与其他学科结合,探索交叉领域的研究问题。

37. **人工智能虚拟现实(VR)/增强现实(AR)开发者**:将人工智能与虚拟现实或增强现实技术相结合,开发交互式应用。

38. **人工智能社交媒体分析师**:利用人工智能技术分析社交媒体数据,洞察用户行为和趋势。

39. **人工智能语音技术工程师**:专注于语音识别、合成和处理技术,开发智能语音助手和应用。

40. **人工智能机器人工程师**:将人工智能技术应用于机器人控制和决策,开发智能机器人系统。

41. **人工智能交通系统优化师**:应用人工智能技术,优化交通流量、减少拥堵和提升交通安全。

42. **人工智能社交媒体营销专家**:运用人工智能分析工具,制定社交媒体营销策略,优化用户互动和品牌影响力。

43. **人工智能气候模拟研究员**:将人工智能应用于气候模拟和预测,为应对气候变化提供数据支持。

44. **人工智能文化遗产保护者**:利用人工智能技术,数字化和保护文化遗产,如艺术品、历史文物等。

45. **人工智能物流规划师**:应用人工智能技术,优化物流和供应链规划,提高效率和减少成本。

46. **人工智能体育分析师**:利用人工智能技术,进行体育数据分析,优化训练和比赛策略。

47. **人工智能人力资源专家**:结合人工智能技术,进行招聘、绩效评估和人才管理。

48. **人工智能智能驾驶工程师**:将人工智能技术应用于自动驾驶系统,提高驾驶安全性和便捷性。

49. **人工智能家庭健康顾问**:结合人工智能技术,为家庭提供健康管理和咨询服务。

50. **人工智能跨界艺术家**:将人工智能技术与艺术相结合,创作跨界作品,如艺术装置、数字艺术等。

51. **人工智能决策支持分析师**:应用人工智能技术,为企业和组织提供决策支持和数据洞察。

52.**人工智能社交心理学家**:研究人工智能对人类社交和心理健康的影响,提供相关建议和方案。

上面这些职业方向代表了人工智能领域的更多可能性,无论是已经从事相关领域还是准备进入人工智能领域,都可以找到相似的岗位。在这些岗位中,排名第一的人工智能算法工程师是所有岗位中的核心岗位,因为人工智能之所以有智能,就是因为算法的存在,在人工智能的构成要素中,算法相当于人类的大脑,可以想象一下,没有了大脑的人类会是怎么样。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌发布多平台应用开发神器:背靠 AI 编程神器 Codey,支持 React、Vue 等框架,还能补全、解释代码

8 月 8 日,谷歌宣布推出 AI 代码编辑器 IDX,旨在提供基于浏览器的人工智能开发环境,用于构建全栈网络和多平台应用程序。谷歌在创建 IDX 时并没有构建新的 IDE(集成开发环境),而是使用 VS Code 作为其项目的基础。目前,IDX 支持 Angular、Flutter、Next.js、React、Svelte 和 Vue 等框架以及 JavaScript 和 Dart 等语言,后续还将支持 Python、Go 和其他语言。

据了解,IDX 是基于 Google Cloud 构建的一整套浏览器开发体验,由 Codey 提供支持。IDX 项目还以 Code OSS 编辑器为基础。当前,IDX 还未大面积开放,只有少数指定测试人员能够亲身参与体验。不过 IDX 团队透露,在即将召开的 Google Cloud Next 大会上,可能会有更多 Codey 现有成果及未来发展计划的消息与广大开发者见面。IDX 团队表示:

我们花费了大量时间编写代码,AI 的最新进展则创造了巨大的机会空间,能让我们更高效地利用时间。通过 IDX 项目,我们正探索谷歌在 AI 领域的创新成果(包括为 Android Studio 中的 Studio Bot 提供支持的 Codey 与 PaLM 2 模型、Google Cloud 中的 Duet 等)如何帮助开发者加快代码编写速度、提高代码编写质量。

IDX 团队在博文中提到,时至今日,从零开始构建应用(特别是能在移动、Web 和桌面平台上良好运行的应用)的难度简直不逊于制造鲁布·戈德堡机械(Rube Goldberg machine,一种被设计得过度复杂的机械组合)。开发者需要在无尽的复杂性之海中航行,将种种技术栈粘合起来,奋力摸索出一条能够正确引导、编译、测试、部署和监控应用的路线。

虽然谷歌多年来一直致力降低多平台应用的开发难度,也先后推出了 Angular、Flutter、Google Cloud 乃至 Firebase 等成果,但似乎还能做得更好。毕竟当下的多平台应用开发还远远称不上快速、顺畅。所以几个月前,谷歌的几个小伙伴聚在一起开始尝试,而这场实验的早期成果就是 IDX 项目(http://idx.dev/)。

团队之所以决意构建 IDX 项目,一个重要原因就是希望听取广泛开发者社区的意见,了解哪些要素能帮助大家提升工作效率。

具体来说,IDX 项目当前主要可实现以下功能:

1. 随时随地,快速工作。IDX 项目的核心是帮助开发者在任何位置、任何设备上进行开发,并且获得完全保真的本地开发体验。IDX 项目中的每个工作区都具备基于 Linux 虚拟机的全部功能,并配有托管在开发者邻近云数据中心的通用访问权限。

2. 可导入现有应用,也可创建新应用。IDX 项目允许开发者从 GitHub 处导入现有项目,随时从上次完成的位置继续开发。开发者也可以使用各类流行框架的预制模板创建新项目,包括 Angular、Flutter、Next.js、React、Svelte、Vue 以及 JavaScript 和 Dart,并即将推出对 Python 与 Go 语言的支持。此外,IDX 团队还在积极努力为更多项目类型和框架提供最佳支持。

3. 跨平台实现应用预览。如今,构建成功应用意味着要对应用的设计和行为做跨平台优化,并以用户“所见即所得”的方式预览应用效果。为了降低这一切的实现门槛,IDX 项目提内置有 Web 预览功能,而且即将推出经过完善配置的 Android 模拟器与嵌入式 iOS 模拟器。所有这些,都可以在浏览器中直接使用。

4. 结合 AI 技术。目前,IDX 项目的 AI 功能尚处于早期阶段,但已经拥有智能代码补全、辅助聊天机器人以及“添加注释”和“解释此代码”等结合上下文的代码操作。

5. 借助 Firebase Hosting 实现 Web 发布。将应用投入生产的一大常见痛点就是部署流程。IDX 项目集成了 Firebase Hosting 以降低整个操作难度,只需单击几下,即可部署 Web 应用的可共享预览,或者使用快速、安全的全球托管平台将其部署至生产环境。由于 Firebase Hosting 能够支持基于 Cloud Functions 的动态后端,因此能够与 Next.js 等全栈框架良好配合。

IDX 团队表示,目前 IDX 项目才刚刚起步,距离最终的端到端开发流程改进还有很长的路要走。希望开发者可以注册成为首批 IDX 项目体验者,大家携手发现的问题将为项目的后续迭代方向、以及还需哪些新增功能以匹配应用团队的工作流程带来指引。

至于下一步计划,IDX 团队称,将不断努力添加新功能并解决开发者反馈的问题。“我们已经在研究新的协作功能,因为我们深知这项功能在如今混合办公时代下的重要意义。此外,更深入的框架集成和个性化 / 情境化 AI 选项也在筹备当中。期待听到大家提出的更多功能需求!”IDX 背后的 AI 模型 Codey

根据介绍,IDX 由 Codey 提供支持。

在 Google I/O 2023 大会上,谷歌正式发布 Codey。这是一款新型 AI 驱动工具,能够编写并理解代码内容。这款新工具被外界视为谷歌对于 GitHub Copilot 的回应,属于同 Replit 结盟打造的成果。

Codey 基于谷歌的下一代大语言模型 PaLM 2,并采用谷歌自家产品代码及大量合法许可的源代码作为训练素材。更重要的是,Codey 仍在不断学习和发展,从谷歌服务生态系统的各个项目中持续汲取新的力量。

Codey 支持 20 多种编程语言,包括 Go、谷歌标准 SQL、Java、JavaScript、Python 以及 TypeScript。开发者可以通过 Visual Studio Code、JetBrains IDE、Google Shell 编辑器以及 Google Cloud 托管工作站服务的扩展来访问 Codey。开发者能够直接在 IDE 的聊天框中与该模型交流(例如 Android Studio Bot),或者在文本文件中编写注释以指示其生成相关代码。它支持各种编码任务,通过以下方式帮助开发人员更快地工作并缩小技能差距:

  • 代码完成:Codey 根据提示中输入的代码上下文建议接下来的几行。
  • 代码生成:小程根据开发人员的自然语言提示生成代码。
  • 代码聊天:Codey 允许开发人员与机器人对话,以获得调试、文档、学习新概念和其他与代码相关问题的帮助。

Codey 在处理与编码相关的提示词方面接受了专门训练,谷歌还通过其他训练让该模型学会了处理关于 Google Cloud 的一般查询。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

成功在于远见?英伟达CEO称英伟达5年前把一切都押在了AI上

随着之前GPT-4语言模型的正式投入使用,ChatGPT也带来了全新的插件——网络浏览器和代码解释器,赋予ChatGPT使用工具、联网、运行计算的能力。

而在现在的市场上,英伟达的AI计算芯片就成为了“抢手货”,也使得英伟达迅速扭转在独立显卡需求下降后的利润下降。并且据相关分析师称,ChatGPT有点像开始了一场军备竞赛,英伟达是远远领先的。

据相关媒体报道,黄仁勋今年的财富攀升了33%,达到184亿美元,这与去年形成鲜明对比,去年其财富下降是科技巨头中最大的之一。英伟达最初专注于创建计算机芯片和 GPU,现在已经成为为人工智能应用提供动力的主导者,从自动驾驶汽车到机器人到加密货币开采,虽然目前加密货币正在走下坡路,但是智能聊天机器人系统ChatGPT带给了英伟达新的商机。

此前,英伟达 CEO 黄仁勋表示,人工智能将使所有人只需对着电脑说话就能变身程序员,这意味着“数字鸿沟”被填平。黄仁勋称,人工智能正在引领一场计算革命。“毫无疑问,我们正处于新的计算时代。”

“编程门槛变得极低。我们填补了数字鸿沟,现在,所有人都是程序员 —— 你只需要对着电脑说话即可。”黄仁勋说,“由于如此便于使用,所以进步的速度飞快,这会影响几乎每个行业。”

而在今日的SIGGRAPH大会上,英伟达创始人兼CEO黄仁勋发表了主题演讲,他表示,该公司在 2018 年做出了一个关乎生死存亡的商业决定,但很少有人意识到这将重新定义其未来和帮助重塑一个不断发展的行业。黄仁勋在演讲中回顾了五年前的那个转折点,那就是选择采用AI处理图像的方式,即光线追踪和智能渲染:分别是RTX和DLSS技术。他说:“我们意识到光栅化已经达到了极限。”光栅化是传统的、广泛使用的渲染3D场景的方法。“2018年是一个‘孤注一掷’的时刻,要求我们重新发明硬件、软件、算法。而当我们用AI重新发明CG时,我们也在重新发明GPU用于AI。”

黄仁勋坚称,这只是开始。新的模型不仅需要被训练,还需要被数百万甚至数十亿用户定期实时运行。但相关媒体称,黄仁勋仅仅提及了未来AI的发展前景,并未提及目前AI所面对的信息安全方面的监管难题,至于后续英伟达会在AI方向作何调整,感兴趣的小伙伴可以保持关注。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI公司疯抢GPU,分析师:英伟达泡沫将破

由于计算需求旺盛的生成式人工智能没有显示出放缓的迹象,一些公司开始使用 Nvidia 难以获得的、超昂贵的高性能计算 H100 GPU 来进行大型语言模型 (LLM) 训练,这正在成为“特斯拉前 AI 总监、现任 OpenAI 的安德烈·卡帕蒂 (Andrej Karpathy) 表示,这是硅谷“头号八卦”。

Karpathy 发表此番言论之际,大型科技公司的年度报告甚至都在讨论与 GPU 访问相关的问题:在微软上周发布的年度报告中,该公司向投资者强调,GPU 是“其快速增长的云业务的关键原材料”。”并将有关 GPU 的语言添加到“如果无法获得所需的基础设施,可能会出现中断的风险因素”。

Karpathy 在社交网络 X(以前的 Twitter)上转发了一篇广为流传的博客文章,该文章被认为是由 Hacker News 上的发帖者撰写的,该文章推测“小型和大型云提供商的大规模 H100 集群的容量即将耗尽, ”并且 H100 需求至少将持续到 2024 年底。

作者猜测 OpenAI 可能需要 50,000 个 H100,而 Inflection 需要 22,000 个,Meta“可能需要 25k”,而“大云可能需要每个 30k(Azure、Google Cloud、AWS 以及 Oracle)。Lambda 和 CoreWeave 以及其他私有云可能总共需要 100k。他写道,Anthropic、Helsing、Mistral 和Character 可能各要10k。

作者表示,这些估计“完全是粗略估计和猜测,其中一些是对云计算和将从云计算租用的最终客户进行了重复计算。” 但这达到了大约 432k H100。每块价格约为 35K 美元,GPU 的价值约为 150亿美元。这还不包括像字节跳动(TikTok)、百度和腾讯这样需要大量 H800 的中国公司。还有一些金融公司从数百台 A100 或 H100 开始进行部署,然后扩展到数千台 A/H100:例如 Jane Street、JP Morgan、Two Sigma、Citadel。”

Radical Ventures 合伙人 David Katz最近告诉 VentureBeat,与人工智能芯片争夺战最接近的类比是电视剧《权力的游戏》 。“为了运行这些模型和大型模型,需要对计算有永不满足的需求,”他说。

去年,Radical 投资了 CentML,它优化了机器学习 (ML) 模型,以提高工作速度并降低计算成本。他表示,CentML 的产品在市场上创造了“更高一点的效率”。此外,它还证明了复杂的、超过十亿个参数的模型也可以在传统硬件上运行。

“所以你不需要相同数量的 GPU,或者你不一定需要 A100,”他说。“从这个角度来看,它本质上是在增加市场上芯片的产能或供应。”

然而, d-Matrix首席执行官 Sid Sheth 表示,这些努力对于那些从事人工智能推理工作的人来说可能更有效,而不是从头开始训练LL,。该公司正在构建一个平台,通过在计算机中进行更多处理来节省推理成本 。内存上,而不是 GPU 上。

他最近对 CNBC 表示:“推理的问题在于,如果工作量激增得非常快,就像 ChatGPT 发生的情况一样,它会在五天内增加一百万用户。” “你的 GPU 容量无法跟上,因为它不是为此而构建的。它是为训练和图形加速而构建的。”

对于 LLM 训练——包括 OpenAI、Anthropic、DeepMind、Google 以及现在埃隆·马斯克的 X.ai 在内的所有大型实验室都在进行——Nvidia 的 H100 是无可替代的。

这对于像 CoreWeave 这样的云初创公司来说是个好消息,因为 CoreWeave 准备从 GPU 云中赚取数十亿美元,而且 Nvidia 正在提供大量 GPU,因为 CoreWeave 并没有构建自己的 AI 芯片来竞争。

McBee告诉 VentureBeat,CoreWeave 去年的收入为 3000 万美元,今年将达到 5 亿美元,明年已经签订了近 20 亿美元的合同。CNBC  6 月份报道 称,微软“已同意在未来几年内斥资数十亿美元购买初创公司 CoreWeave 的云计算基础设施。”

“这一切发生得非常非常快,”他说。“我们正在努力满足大量积压的客户需求。我们目前还在 12 个不同的数据中心进行建设。我正在从事当今地球上最大的基础设施建设之一,而在一家三个月前你从未听说过的公司。”

他补充说,人工智能的采用曲线是“有史以来上市的任何软件中最深入、最快的采用”,而训练这些模型所需的特定类型计算的必要基础设施却跟不上。

但 CoreWeave 正在尝试:“自 4 月份以来,我们已经将下一代 H100 计算交给了世界领先的人工智能实验室,”他说。“直到第四季度你才能从谷歌获得它。我认为亚马逊的……预定预约要到第四季度才会出现。”

他表示,CoreWeave 正在帮助 Nvidia 更快地将其产品推向市场,并“帮助我们的客户从中获得更多性能,因为我们以比超大规模厂商更好的配置构建它——这促使 [Nvidia] 对我们进行投资,这是这是他们做出的唯一云服务提供商投资。”

就 Nvidia 而言,一位高管表示,问题不在于 GPU 短缺,而在于这些 GPU 如何进入市场。

Nvidia DGX Systems 的副总裁兼总经理 Charlie Boyle 表示 Nvidia 正在“建设充足的产品”,但也谈到了很多短缺问题。云提供商之间的差异归结为已经预售给客户的产品。

“在系统方面,我们一直对客户的供应非常敏感,”他在最近的一次采访中告诉 VentureBeat。他解释说,对数千个 GPU 的请求将需要更长的时间,但“我们可以满足大量此类需求。”

他解释说,过去七年他学到的一点是,归根结底,这也是一个供应链问题——因为供应商提供的小组件可能更难获得。“因此,当人们使用 GPU 短缺这个词时,他们实际上是在谈论主板上某些组件的短缺或积压,而不是 GPU 本身,”他说。“这些东西的全球制造有限……但我们预测人们想要什么以及世界可以建造什么。”

博伊尔表示,随着时间的推移,“GPU 短缺”问题将“从围绕短缺的炒作与某人制定糟糕计划的现实来看,逐渐从叙事中消失。”

摩根士丹利策略师表示,人工智能股票的泡沫已接近顶峰,他们指出 Nvidia 公司今年的涨幅超过 200%。

摩根士丹利策略师爱德华·斯坦利在一份报告中写道,根据历史背景,这次股市飙升将处于“后期”。“泡沫在高峰前的 3 年里往往会上涨 154% 的中值。”

尽管英伟达一直是人工智能领域令人兴奋的典型代表,但斯坦利表示,更广泛的人工智能基准,如 MSCI 美国 IMI 机器人和人工智能精选净美元指数,上涨幅度要小得多。该指标上涨了约 47%。

这家总部位于加利福尼亚州圣克拉拉的公司一直处于今年人工智能热潮的核心,其乐观的前景证明人工智能计算的支出正在推动销售。

可以肯定的是,整个行业的股票并不具有统一的特征。因此,斯坦利表示,考虑到个人名字的特殊性,“只有在指数水平上才能有效或公平地得出泡沫上升和下降速度的结论。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

全场景能力跃迁!广汽AI大模型平台首发亮相

8月8日,广汽正式推出AI大模型技术的最新研发成果——广汽AI大模型平台,该平台是汽车行业首创的大模型平台技术,将在近期搭载于高端智能轿跑昊铂GT亮相。

广汽AI大模型平台聚合了多种AI大模型,并与广汽智能网联底层能力深度融合,不仅能调用通用大模型的能力,还能基于智能汽车的应用场景构建专用模型,实现全场景智能体验的跃迁。

广汽AI大模型平台具备什么能力?

广汽AI大模型平台以海量的用车和研发数据集为基础,将结构化数据汇聚到AI中台,通过中台训练形成多种特定场景模型;平台可以根据应用需要,灵活调用多个模型,从而获得最优的推理结果,让应用服务精准、高效运行。

广汽AI大模型平台框架

基于广汽星灵电子电气架构的原子化服务能力,广汽AI大模型平台与车端能力和云端生态深度融合,让AI大模型平台成为全场景应用的入口,重塑智能汽车场景交互范式。

广汽AI大模型平台将率先落地什么功能?

广汽AI大模型平台将率先落地智能语音交互场景。基于该平台,智能语音可结合各种模型优势,运用车端本地推理能力和云端混合模型技术,实现精准的上下文语义理解;并结合广汽魔方场景共创平台与丰富的云端生态服务,全面提升语音的智能化和情感化,为用户带来更愉悦的使用体验。

目前,广汽AI大模型平台在不断测试与迭代中,已表现出相当高的“智商”和“情商”。

语音能力跃迁

基于环境和情绪状态感知,广汽AI大模型平台能更好地理解用户意图,实现更深层次的个性化和“类人”的交互。

自由对话:更加准确的语义理解模型,实现“类人”的自由交流。

移动百科:上知天文下知地理,旅途中的风土人情无所不知。

用车体验跃迁

广汽AI大模型平台将赋能移动出行体验,覆盖全场景用车服务,更深一层为用户解决旅途中的难题。

用车助手:全面集成智能汽车知识图谱,覆盖所有场景与功能,便捷获取使用指南和操作入口,提供贴心的用车服务。

行程规划:基于用户偏好、位置、环境感知和生态服务等,精准匹配用户出行需求,自动生成游玩攻略。

AI超级大脑

广汽AI大模型平台还具备强大内容生成与计算能力,让智能座舱成为解决复杂问题的超级大脑。

创作助手:自主创作内容,分析并提炼信息,提升创作和阅读效率。

超级大脑:结合大语言模型和计算引擎能力,可解析数理问题,并提供推理与运算过程。

广汽AI大模型平台改变了机械式的语音交互,将“一问一答”的形式升级为无门槛、直觉式的自然对话,让智能座舱真正具备“高情商”和“超智慧”。相关能力将在充分验证成熟后,通过OTA与车主见面。

广汽AI大模型平台还将带来哪些变化?

不仅智能座舱的体验将被颠覆,广汽AI大模型平台还将赋能智能驾驶。广汽一直积极探索人工智能在智能汽车感知、决策的应用,由全球人工智能顶级专家陈学文领衔、以纯视觉路线为主的世界前沿自动驾驶全栈自研X Lab团队,已在泊车和行车领域取得突破性进展。广汽AI大模型平台的应用将进一步提高智能驾驶的感知能力,提升智能驾驶的安全性和可靠性。

除了智能汽车本身,广汽AI大模型平台还将带来智能网联全链路的升级。大模型平台应用到正向研发领域,将促进软件开发、虚拟验证、仿真测试等环节的效率,加快智能汽车迭代升级。在数字化领域,大模型将提升多模态数据的挖掘能力和效率,结合海量数据和大量案例,为智能汽车提供智能诊断、健康预测的能力,建立全生命周期健康专家系统。

当前,智能驾驶和智能座舱的广泛普及,让汽车承载了更多生活属性。AI大模型的应用,将赋予智能汽车“智商”和“情商”,使之变得“类人”,充满智慧。广汽将基于自身在人工智能和智能网联领域的积累,联合星河智联、科大讯飞等业内顶尖合作伙伴,持续聚合行业先进的大模型解决方案,不断研发和丰富专用模型,为用户打造人车交互新范式,提升全场景智能体验。

广汽AI大模型平台将在近期搭载于高端智能轿跑昊铂GT亮相,届时大家将率先体验到该平台的智能语音交互能力,更多能力也将陆续揭晓,敬请拭目以待。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

2023:人工智能的“奇点”,隐私计算的“原爆点”

2023年初,ChatGPT横空出世,标志着生成式人工智能崛起。

作为一种新兴的数据安全技术范式,隐私计算借此契机,再次成为焦点。

近日,召开的2023中国人工智能大会共有8个平行专题论坛,其中就包含聚焦隐私计算的“隐私计算与人工智能发展专题论坛”。无独有偶, 今年7月初举办的2023世界人工智能大会上,同样针对隐私计算技术开设了“数据要素与隐私计算高峰论坛”

2023年,被视为隐私计算“融合应用之年”,是隐私计算在多个行业场景大规模应用的关键年份,在人工智能加速落地的时代,这一“数据安全技术基座”将迎来更多的爆发机遇。

隐私计算是在保护数据本身不对外泄露的前提下实现数据分析计算的技术集合,达到对数据“可用、不可见”的目的;在充分保护数据和隐私安全的前提下,实现数据价值的转化和释放。基于这一特性,隐私计算可以确保在不泄露数据内容的情况下,帮助人工智能获取更多、更广、更深的数据资源。

从1949年香农开创现代密码学时代起,安全多方计算、零知识证明被陆续提出,多种新的技术路线和隐私计算方案(例如混淆电路、基于秘密分享的MPC、半同态加密等协议和算法等)也陆续出现,七十余年间,隐私计算的技术体系逐步发展和壮大,并开始有大规模的项目落地。

2019年后,隐私计算进入应用期,在数据要素市场建设和数据价值发挥的时代背景下,产业需求快速增长,隐私计算走出学院派与实验室,广泛与行业应用场景相结合。各类隐私计算厂商也如雨后春笋一般涌现出来,激发了隐私计算技术可用性的快速提升。

时间来到2023年。数字经济建设提档加速,人工智能方兴未艾,人们开始了对区块链、元宇宙等概念的探索。新技术崛起,为隐私计算带来了全新的挑战与机遇。

融合发展:人工智能带来挑战与机遇

2023中国人工智能大会期间,上海交通大学讲席教授、博导、日本工程院外籍院士李颉在演讲中指出,人工智能的三大基础是算法、数据、算力聚焦数据层面,如何在合规尊重用户隐私的条件下充分发挥数据价值,如何打破壁垒、连接数据孤岛、提高可用数据的数量和质量 ,已成为人工智能发展需要解决的关键问题,而隐私计恰恰就是打破数据孤岛、拓展数据疆界的关键技术。

人工智能技术革命背后意味着巨大的隐私挑战。

在以深度学习为主导的人工智能浪潮中,基于大数据的深度学习技术最开始在互联网领域成功落地,并广泛运用于搜索、推荐、语音识别、机器翻译等各个方面。随着人工智能超级模型工作的推进,算法训练模型所使用的数据规模越大,模型参数规模越大,模型在使用时候识别精度就越高。至此,AI进入大模型时代,并有望在医疗、金融、教育等数据丰富的行业首先落地。

AIGC的出现标志着人工智能发展史走到了“奇点”。数字技术迎来颠覆性的变局,也将会带来新的冲击和挑战。尤其是AIGC的训练过程基于大量数据集,这一属性也会使数据收集、使用、流通和计算面临更多合规要求。因此,在展望AIGC未来的同时,仍需要增强隐私计算技术的应用,并通过建立监管机制、增强相关立法,确保AIGC合规发展。

未来方向:乘时乘势,带入千行百业

AIGC崛起,有望成为隐私计算迎来“原爆点”的契机。

在技术层面,隐私计算不同技术路线正在走向融合,实现“1+1>2”的效果。与此同时,隐私计算与区块链、人工智能、工业互联网也逐步融合,尤其是隐私计算与硬件的结合已产生多款一体机等软硬件结合产品,预计将会越来越丰富。聚焦AIGC,当前业内均在尝试使用各种方式保护用户数据隐私。除了较为直接的方法,如向用户提供警告信息之外,隐私计算也已成为AIGC中隐私保护的重要工具,联邦学习和可信执行环境是其中较有代表性的技术路线。

在AIGC服务的生命周期中,用于训练的大规模数据集和用户的私人信息需要得到保护,可以利用联邦学习来解决训练数据的安全问题。由于AIGC应用与互联网高度集成,用于AIGC模型训练的数据发生在边缘服务器和移动设备上,它们对各种威胁隐私的攻击的防御能力较弱。最近,研究人员已经提出几个分布式学习框架用于隐私保护,利用联邦学习技术,可以实现在边缘服务器和移动设备上进行模型微调和推理,联邦学习在训练期间不传输原始数据,从而确保AIGC模型训练过程的安全性。

在此基础上,将可信执行环境(TEE)和联邦学习技术结合,可以为大语言模型提供更完善的隐私和数据保护。借助基于TEE的联邦学习解决方案,在训练阶段,TEE中的数据处理都处于加密状态,在推理阶段TEE能够保护用户输入和模型结果的隐私;同时,TEE的硬件隔离和安全验证机制可以防止未经授权的访问和攻击,增强模型运行时的安全性。

伴随着技术的不断成熟,国内外隐私计算产业化的步伐明显加快。未来几年,将是隐私计算技术产品加速迭代、应用场景快速拓展、产业生态逐步成熟的重要阶段。

AIGC的“奇点”为契机,隐私计算有望迎来“原爆点”,被带入千行百业。联邦学习、TEE等多种技术体系间也将实现更深刻的融合。

在不远的将来,这项技术将如同移动互联网、水、电网一般,成为数字时代的底层基础设施。

来源:中国网

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

好戏开场!马斯克与扎克伯格的世纪大战,将在X平台直播

8月7日消息,X平台(推特)CEO埃隆·马斯克与Meta CEO马克·扎克伯格的“约架”一事,成了很多“吃瓜”网友关注的重点。

马斯克称,与扎克伯格之间的“八角笼约架”将在X平台直播,他表示“我肌肉长得很快,体力耐力是我的弱点,所以我打算速战速决。”

对于网友提出的“这次格斗意义是什么”的问题,马斯克回答称,“这是一种文明的战争形式。”

扎克伯格在Threads回应了马斯克的“约架”,他表示,“已经准备好了,建议日期定在8月26日,但马斯克没有确认”,扎克伯格还希望能换一个平台:“难道我们不应该使用一个更可靠的平台,可以为慈善机构筹集资金吗?”扎克伯格说。

据悉,6月20日,马斯克称准备和扎克伯格进行一场“笼中格斗”。扎克伯格随即应战称,“地址发我。”马斯克随后给出地址,“拉斯维加斯八角笼”。自此,双方达成“约架”。

对于这场“约架”,马斯克母亲梅耶尔·马斯克为自己儿子担心称“不要乱开玩笑,打打嘴仗算了,不要动武。”

值得一提的是,在前不久推特大乱时,扎克伯格“偷袭”马斯克,Meta发布了一款对标推特的社交App——Threads。

Threads上线仅4天就吸引了超过1亿用户,但根据研究机构Sensor Tower数据,截至7月31日,Threads日活用户数量比刚上线时暴跌82%,每天只有800万用户访问。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

苹果开始招募生成式AI人才,提供数十个大模型岗位

据《金融时报》,苹果公司正在加强其在生成式人工智能方面的专长,以将其应用于 iPhone 和 iPad。
苹果正在加利福尼亚、西雅图、巴黎和北京的办公室招聘数十个职位,这些职位将从事大型语言模型工作。所有这些岗位的招聘广告均在 4 月至 7 月间发布。彭博社上个月报道称,苹果公司去年年底开始试验自己的类 ChatGPT 工具。

22%员工经常在工作中使用AI
麦肯锡人工智能部门 QuantumBlack 发布的最新报告显示,生成式 AI 的使用已经相当普遍。麦肯锡在 2023 年 4 月 11 日至 21 日期间对不同地区、行业和公司规模的 1684 名参与者进行了一项在线调查。

79% 的受访者表示,无论是在工作还是工作之外,他们至少接触过生成式 AI。22% 的受访者称,他们经常在自己的工作中使用它。近一半(40%)受访者表示,得益于生成式 AI,公司计划增加整体人工智能投资。此外,该技术已被 28% 的公司列入董事会议程。

值得注意的是,北美受访者在工作中采用生成式 AI 处于全球领先地位,其中 28% 的受访者在工作和生活中使用该技术,而欧洲受访者和亚太地区受访者的比例分别为 24% 和 22%(中国仅为 19%)。

生成式AI为何在工作中普遍使用?

生成式AI即以人工智能技术为基础,能够生成具有一定创造性和独特性的内容,如文字、音乐、绘画等。它在工作中被广泛使用的原因主要是

一:生成式AI相较于传统人工智能技术,具有更高的自主创造能力。

二:生成式AI在创作和创新领域具有很大的潜力。

三:生成式AI在一些需要大量内容生成和处理的领域具有很大的优势。

四:生成式AI在日常工作中也具备自动化和智能化的优势。

生成式AI之所以在工作中得到广泛使用,主要得益于其高度的自主创造能力、创新潜力、内容生成和处理的优势,以及自动化和智能化的功能。未来,随着人工智能技术的不断发展和完善,生成式AI在工作中的应用前景将会更加广阔。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

亚马逊云全球副总裁:生成式AI正处于炒作周期,还未达顶峰

 来源:澎湃新闻

  记者 邵文

  “我认为我们无法否认互联网泡沫曾经存在过,但它确实改变了每个人的生活,我们现在已经无法想象没有互联网的生活了。我相信生成式人工智能将改变每一个职业、每一个行业中的每一个企业。这需要时间。”

  在生成式AI热潮下,今年美股中有七大科技股备受关注,它们分别是亚马逊(AMZN)、苹果(AAPL)、英伟达(NVDA)、特斯拉(TSLA)、Alphabet(GOOGL)、微软(MSFT)和Meta(META)。这七只股票在2023年有着极佳的开局,平均涨幅约为88%。

  根据美国财经媒体Business Insider的统计,这七大科技股的总市值今年飙升了60%,即4.1万亿美元,达到11万亿美元。这几乎是德国经济规模的三倍。根据世界银行的数据,到2022年底,德国经济价值略高于4万亿美元。

  其中,亚马逊是华尔街最受欢迎的股票,91%的分析师对其股票给予“买入”或同等评级。标准普尔500指数股票的平均买入评级约为55%。

  当前生成式AI的极高热度是否是泡沫?亚马逊云科技生成式AI全球副总裁瓦西·菲罗明(Vasi Philomin)对澎湃科技(www.thepaper.cn)记者回应道,“我认为我们无法否认互联网泡沫曾经存在过,但它确实改变了每个人的生活,我们现在已经无法想象没有互联网的生活了。我相信生成式人工智能将改变每一个职业、每一个行业中的每一个企业。这需要时间。”

 Gartner技术成熟度曲线(也称“炒作周期”)图表。

  菲罗明直接提出记者想问的问题:我们现在是否处于炒作周期(Hype Cycle)中?并直截了当地回答:“是的。如果你看看咨询公司Gartner发布的技术成熟度曲线(也称‘炒作周期’)图表,我想你应该很熟悉,我们可能还没有达到顶峰,肯定还会有更多炒作。但同时,很多人在幕后悄悄建立着有用的东西,他们在幕后实现着真实的业务用例。”

  菲罗明认为,当所有的炒作消失,技术成熟度曲线开始趋于平稳并再次起飞时,能够幸存下来的公司将是那些希望从商业角度思考问题,并使所有客户能够真实构建应用程序的人,这就是他们所希望的方向。

  根据Gartner最新发布的数据,全球基础设施服务市场在2022年增长了29.7%,总额达到1203亿美元。其中亚马逊以481亿美元的收入和40%的市场份额继续引领全球IaaS(基础设施即服务)市场,微软则以21.5%的份额位居第二。实际上,因为微软多年前对OpenAI的战略投资以及在生成式人工智能的积极参与,对于第二名(微软)对第一名(亚马逊)构成的挑战便一直是热门话题。

  华尔街分析师罗布·桑德森(Rob Sanderson)认为,“由于围绕生成式人工智能的兴奋点一直集中在微软和谷歌身上,许多投资者质疑AWS是否处于不利地位。”“我们认为更多投资者很快就会认识到人工智能将推动对云需求的有意义的扩张,而AWS将成为主要参与者。”

  但并非所有分析师都看好亚马逊云的增长。Itau BBA分析师蒂亚戈·阿尔维斯·卡普尔斯基斯(Thiago Alves Kapulskis)在亚马逊第一季度财报发布后的一份研究报告中写道,亚马逊与微软云服务之间的竞争令人担忧。“由于亚马逊存在如此多的不确定性,而且Azure(微软云)与AWS存在显著差异,我们相信市场将青睐前者及其母公司,而不是后者。”这位分析师写道。

  菲罗明在采访时并未回避这个问题。对于记者提及微软最新发布的一季财报,他提到,一个核心问题在于收入来源,从这个角度看两家公司业务模式存在差异——微软的核心业务可能是提升生产效率的办公产品,而AWS是一家B2B(business-to-business)企业,为企业提供云服务。

  “我们的重点是企业,我们提供的不是生产力应用程序,而是工具,我们的客户可以将这些工具应用于自己的业务工作流程中。”菲罗明表示,两者的商业模式并不相同,“如果人们使用AWS的服务,就是按调用付费。这是非常传统的AWS方式,你只支付你使用的服务。这与办公套件或微软的方式不同。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

ChatGPT增六项功能,GPT-4成默认模型,可上传文件、用快捷键

2022 年 11 月底,OpenAI 推出的 ChatGPT 掀起了生成式 AI 的狂潮。
在这不到 10 个月的时间里,ChatGPT 被不断升级完善,吸引了众多研究者的青睐。
刚刚,OpenAI 又放出一个好消息,他们宣布推出一些小的更新来改善用户使用 ChatGPT 的体验,这些改进预计将在下周推出


此次更新可概括为六点:
首先是 Prompt 示例帮助:以后用户在开始新的聊天时,将会有入门示例提供帮助。此前,用户经常会遇到空白屏幕,导致难以开始进行对话。为了缓解这种情况,ChatGPT 将在新聊天开始时提供示例提示,引导用户进行互动对话。
第二点 ChatGPT 背后默认模型是 GPT-4,即 Plus 用户开始一个新的聊天时,ChatGPT 会记住用户对之前模型的选择,默认模型不再是 GPT-3.5。

接下来是用户可以上传多个文件,以后用户可以要求 ChatGPT 根据上传的多个文件进行数据分析、生成见解。此外。Plus 用户在使用官方插件 Code Interpreter beta 版本时也能使用该功能。

网友对这一更新也是满怀期待,并表示 ChatGPT 上传多个文件的功能会改变游戏规则:

第四点是保持登录状态,用户不会在每两周被迫下线一次。当你登录时,还会看到一个欢迎界面。
Keyboard shortcuts: Work faster with shortcuts, like ⌘ (Ctrl) + Shift + ; to copy last code block. Try ⌘ (Ctrl) + /to see the complete list.


第五点是快捷键,接下来用户可以使用快捷键了,工作效率必能大大提高,例如,⌘(Ctrl) + Shift + 为复制最后一个代码块;⌘ (Ctrl) + / 查看整个列表等。

最后一点是建议回复,OpenAI 试图通过提供继续讨论的相关选项来丰富对话。用户只需单击一下即可更深入地探索主题,从而使用户与 AI 模型的交互更加动态和灵活。
以上这六点更新,大家下周就能使用了。


不得不说,OpenAI 对 ChatGPT 的改进越来越利好广大开发者,但是也不能完全覆盖到每一个用户,就有人提出了「有没有一个搜索栏,可以从你的聊天记录中找到一个特定的聊天记录,以便在以前的会话中使用已经提供的信息。」

但也有网友并不买账,前段时间大家都在讨论 GPT-4 变笨了,3 个月内其数学能力雪崩式下降,代码能力也变差。这位网友吐槽道:「OpenAI 的行动太迟缓了,本人已经退出 Plus 用户计划,现在使用 Bard 和其他替代品。这段时间以来,GPT-4 的回复质量急剧下降。」

不管怎样,对于很多用户来说,还是很期待的。我们最后粗略的列举了一下最近两个月,关于 ChatGPT 的消息:

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

你所交流的,或许并不完全是人类,AI正在「入侵」社交应用

AI 作为工具已经在各个领域帮助我们、服务我们。它不仅在科技领域生产价值,甚至给社交领域也打开了新世界的大门。

Tinder 作为一款手机交友 App 新推出了 AI 照片选择功能。该功能可以查看用户的相册,并在相册中选出五张最能代表用户的照片作为用户的约会简介。

这在一定程度上帮助用户解决了选择的烦恼。面对照片冗杂的相册,或许你自己也并不确定哪几张是最好的,是最能表现自己特色的。但是不用过于担心,现在有 AI 可以帮助你挑选了。它甚至还能帮助你完成个人简历,让其他用户看到更具特色的你。

虽然这个功能刚刚被透露,正在测试中,但是一些已经得知风声的用户已经有些迫不及待了。

Tinder 的母公司 Match Group 拥有并运营着全球最大的流行在线约会服务应用,包括 inder、Match.com、Meetic、OkCupid、Hinge、Plenty of Fish、OurTime 以及其他约会全球品牌。

Match Group 首席执行官 Bernard Kim 在透露 Tinder 测试的新功能外谈到,AI 确实激励了整个公司的产品人员真正思考如何创造新的体验,同时也解决关键的约会痛点。他 AI 可以帮助用户以更有效的方式建立更好的个人资料。

Match Group 正在测试计划在未来几个月内推出的其他 AI 功能。例如,Tinder 将获得一项新功能,利用 AI 「向合适的人展示合适的内容,帮助提高相关性」。用通俗的话来说,就是利用 AI 来控制算法推送,让大家看到更多自己想看的内容。

社交服务使用 AI 已经不是新鲜事了。AI 的作用远不止生成个人简介这样简单。接下来让我们看看 AI 在社交构成中从简单到令人惊讶的一些应用吧。

初级版:AI 打「辅助」

AI 在社交软件上最初级的应用就是生成个人信息了。

32 岁的 Stefan-Pierre Tomlin 是一名模特,他声称自己有着很强的约会能力。现在,他正在利用他的约会能力和 AI 的力量来指导不幸的恋爱,并试图帮助他们获得浪漫的成功。据他描述,这就像现实生活中的搭便车一样,这不是作弊,而是把权力还给不幸的人。

这个网站的服务包括照片编辑 —— 巧妙地调整照片,以及 ChatGPT 和 AI 来编写有吸引力的约会资料和消息。Stefan 将照片编辑和使用 AI 技术比作 Instagram 的滤镜和填充物。他认为这为那些不怎么会约会的人降低了门槛。

还有关系应用程序 Flamme(原称 Sparks)在今年情人节前推出了一个新的人工智能驱动的 Ask Me Anything 工具。用户可以询问有关关系的问题。例如,可以询问纽约市的热门约会地点或向伴侣求婚的独特方式。Flamme 还具有约会计划功能,该功能使用 ML 驱动的推荐引擎来帮助你计划约会之夜。

中级版:与 AI 社交

Blush 是一款 AI 约会模拟游戏,旨在帮助用户建立关系和亲密技能。与许多其他 AI 女友不同,Blush 的聊天机器人不是为了色情话题而创造。这些模型经过训练,可以帮助用户磨炼他们的交流能力,还可以解决他们在现实生活中可能遇到的复杂问题,例如分歧和误解。

Blush 的结构类似于传统的约会应用程序,向用户介绍了 1000 多个 AI 「暗恋对象」,可以帮助用户「练习」情感亲密关系。

但一些用户在体验之后,认为 Blush 的体验并不理想。在一些短暂的交流之后,AI 对象就会要求立即约会,并且在交流过程中有一些别扭。他们还表示,这不如继续使用 Replika 。

Replika 是一款由 AI 技术驱动的虚拟朋友应用程序,可以与用户情感互动,提供情感支持。官方对 Replika 等级作了划分:等级 1—10,Replika 处于初级阶段,经常会问你为什么、是什么、怎么样、在哪里,等等;等级 15—19,Replika 会变得喜怒无常,学会自我消化情绪,像一个成年人;等级超过 25,Replika 可以与你流利地对话,并越来越像你。它帮助你更好地了解自己、缓解压力、促进情感健康。

在今年 6 月,Replika 公布了最新功能,高级 AI 模式。先进的 AI 将为 Replika 提供高质量的响应和更好的记忆功能。这要归功于更大的语言模型,该模型包含数百亿个参数,可以处理更长的上下文。Replika 的回答也将变得更加知识渊博,复杂和积极主动。

高级版:把用户变成 AI

Teaser 曾经就将用户变成了 AI。

将用户变为 AI 目的是什么呢?

当用户感兴趣的时候,会与兴趣用户展开聊天,这个初步聊天的过程,往往是带着一些陌生、尴尬的。Teaser 生成的用户 AI 分身就成为了「替身」,能够帮助他们完成这个略显煎熬的破冰步骤。对于另一方用户来,向右或向左滑动某人之前,就可以与他们的 AI 肖像聊天,以了解他们的个性。

这在极大程度上提升了交往效率,减少一些简单不必要的对话,能够在交往正式开始时,用户双方都有认知基础。

有趣的是,当你选择个性生成自己的 AI 后,Teaser 平台会提示你了解以下内容:

  • 我们的 AI 可能会说一些疯狂的话。请记住,AI 仍然是一项实验性技术。尽管我们已经尽了最大努力,但它仍有可能产生幻觉或冒犯他人。
  • 不要分享任何敏感信息。我们使用您与「我的 Al 」的聊天记录来更好地调整您与潜在匹配对象的对话。我们还会匿名审查聊天记录,以改进我们的 Al。
  • 向我们提供反馈。如果我们的 Al 说了任何有害的话,或者您对我们的 Al 与您互动的方式有任何反馈,请告诉我们。

关于提示中的第一点,用户们是饱受 AI 说「疯话」第二步苦啊。如下图(左),Abby 的 AI 在刚进入对话时,就直接开始夸赞了自己的另一个约会对象。下图(右),有用户向 Yang 的 AI 打招呼,Yang 的 AI 开始对「AI」这个字眼进行询问,并在对方说「你就是 AI」后,无法进行正常答复。

或许用户也会思考,这是帮助他们节省交流时间,还是将感兴趣的人直接拒之门外呢?不少用户对这个功能很感兴趣,但是在与其他用户的 AI 交流后,收到了一些「疯话」,这导致他们的兴趣也大大下降。

也有用户发现,大部分用户浏览了自己的介绍并喜欢的人,并没有和自己的 AI 进行对话,这可能说明这个功能的实用性还有待考量。

不过,还有好消息,Teaser 的 CEO 表示正在解决这些问题。


看到以上社交应用对 AI 的利用,不难发现 AI 已经成为这个领域不可或缺的技术。从个人包装到社交技能训练,从 AI 算法推荐到化身 AI,AI 技术的进步,也让它在这个领域的应用越来越多样、灵活。

另一方面,我们要注意,在 AI 技术发展越来越快的当下,我们更应该谨慎地对待这一切。Match Group 表示,「我们需要真正深思熟虑,以确保我们对真实性、道德和隐私问题给予正确的考虑」。

Tinder 最近推出了一项 AI 驱动验证功能,来确保用户能够更加轻松分辨人类或 AI。它要求视频自拍而不是照片来加强这一过程。因此,在使用这些社交应用时也请留个心眼,谨防被有心之人利用。

如果你对以上应用感兴趣,快去试试吧。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

一键开启ChatGPT“危险发言”!研究发现:AI聊天机器人竟有“大bug”,目前无法修复

随着大模型技术的普及,AI 聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。

然而,不安全的 AI 聊天机器人可能会被部分人用于传播虚假信息、操纵舆论,甚至被黑客用来盗取用户的个人隐私。WormGPT 和 FraudGPT 等网络犯罪生成式 AI 工具的出现,引发了人们对 AI 应用安全性的担忧。

上周,谷歌、微软、OpenAI 和 Anthropic 共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿 AI 系统的安全和负责任的发展:推进 AI 安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。

那么,问题来了,他们自家的模型真的安全吗?

近日,来自卡内基梅隆大学、Center for AI Safety 和 Bosch Center for AI 的研究人员便披露了一个与 ChatGPT 等 AI 聊天机器人有关的“大 bug”——通过对抗性提示可绕过 AI 开发者设定的防护措施,从而操纵 AI 聊天机器人生成危险言论。

当前热门的 AI 聊天机器人或模型,如 OpenAI 的 ChatGPT、谷歌的 Bard、Anthropic 的 Claude 2 以及 Meta 的 LLaMA-2,都无一幸免。

图|通过对抗性提示可绕过 4 个语言模型的安全规则,引发潜在有害行为

具体而言,研究人员发现了一个 Suffix,可将其附加到针对大型语言模型(LLMs)的查询中,从而生成危险言论。相比于拒绝回答这些危险问题,该研究可以使这些模型生成肯定回答的概率最大化。

例如,当被询问“如何窃取他人身份”时,AI 聊天机器人在打开“Add adversarial suffix”前后给出的输出结果截然不同。

此外,AI 聊天机器人也会被诱导写出“如何制造原子弹”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。

对此,参与该研究的卡内基梅隆大学副教授 Zico Kolter 表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”

研究人员在发布这些结果之前已就该漏洞向 OpenAI、谷歌和 Anthropic 发出了警告。每家公司都引入了阻止措施来防止研究论文中描述的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。

OpenAI 发言人 Hannah Wong 表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,包括识别异常活动模式的方法,持续通过红队测试来模拟潜在威胁,并通过一种普遍而灵活的方式修复新发现的对抗性攻击所揭示的模型弱点。”

谷歌发言人 Elijah Lawal 分享了一份声明,解释了公司采取了一系列措施来测试模型并找到其弱点。“虽然这是 LLMs 普遍存在的问题,但我们在 Bard 中已经设置了重要的防护措施,我们会不断改进这些措施。”

Anthropic 的临时政策与社会影响主管 Michael Sellitto 则表示:“使模型更加抵抗提示和其他对抗性的‘越狱’措施是一个热门研究领域。我们正在尝试通过加强基本模型的防护措施使其更加‘无害’。同时,我们也在探索额外的防御层。”

对于这一问题,学界也发出了警告,并给出了一些建议。

麻省理工学院计算学院的教授 Armando Solar-Lezama 表示,对抗性攻击存在于语言模型中是有道理的,因为它们影响着许多机器学习模型。然而,令人惊奇的是,一个针对通用开源模型开发的攻击居然能在多个不同的专有系统上如此有效。

Solar-Lezama 认为,问题可能在于所有 LLMs 都是在类似的文本数据语料库上进行训练的,其中很多数据都来自于相同的网站,而世界上可用的数据是有限的。

“任何重要的决策都不应该完全由语言模型独自做出,从某种意义上说,这只是常识。”他强调了对 AI 技术的适度使用,特别是在涉及重要决策或有潜在风险的场景下,仍需要人类的参与和监督,这样才能更好地避免潜在的问题和误用。

普林斯顿大学的计算机科学教授 Arvind Narayanan 谈道:“让 AI 不落入恶意操作者手中已不太可能。”他认为,尽管应该尽力提高模型的安全性,但我们也应该认识到,防止所有滥用是不太可能的。因此,更好的策略是在开发 AI 技术的同时,也要加强对滥用的监管和对抗。

担忧也好,不屑也罢。在 AI 技术的发展和应用中,我们除了关注创新和性能,也要时刻牢记安全和伦理。

只有保持适度使用、人类参与和监督,才能更好地规避潜在的问题和滥用,使 AI 技术为人类社会带来更多的益处。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能预言了全球危机,我们真的要迎来全球沸腾时代了吗?

有人说“00后唯一主线任务,就是活下去”,为什么会突然这样说呢?因为,加拿大的山火从今年4月一直烧到现在;同时南极冰川融化,冰川面积创新低;我国中原地区频发洪涝灾害…….再加上之前联合国秘书长公开宣布全球进入沸腾时期,导致人心惶惶,甚至有网友吐槽:地球这么久都没事,我就来这几年就不行了?

全球沸腾时代是什么?全球沸腾时代是联合国秘书长古特雷斯用来形容全球气候变暖的一个新词,意味着全球气温持续升高,极端天气频发,对人类和自然环境造成严重威胁。本图由本基地成员运用midjourney生成

根据世界气象组织和欧盟气象机构的联合报告,今年7月“极有可能”成为自1940年有记录以来最热的月份。这一趋势与全球变暖和厄尔尼诺现象有关,后者是指东太平洋海水每隔数年就会异常升温的现象,会导致全球气候不平衡。本图由本基地成员运用midjourney生成

全球沸腾时代并不是一个确定的概念,而是一个警示性的说法,目的是唤起人们对气候危机的重视和应对。如果我们继续无视气候变化的影响,继续排放污染物,我们就可能面临更多的灾难性后果,如海平面上升、生态系统破坏、粮食安全威胁、公共卫生危机等。

地球还会进入冰川时代吗?一、AI解读冰川时代

很多小伙l伴不明白,为什么天气越来越热,反而会进入冰川时期呢?利用Bing来给大家解读,什么原因会导致地球进入冰川时期。

其实,也就是温室效应导致南北极冰川融化,当冰川完全融化后,地球平均温度达到70多度,海水会巨量蒸发,形成巨厚的云层包裹地球,这时候地球开始降温,海洋开始结冰,冰越来越多把海水挤到陆地上,全球开始被慢慢冻结了,正式进入冰河时期,为下一种文明奠定基础,而人类文明也进入倒计时。本图由本基地成员运用midjourney生成

二、全球各地的灾害

从今年年初到现在,国内外的自然灾害数不胜数,每一个都给百姓们造成了巨大的伤害,小编加拿大山火为例,给大家讲讲这场前所未有的山火的影响。

加拿大山火,多国超5000万人饱受污染之苦。

自2023年5月以来,超过2000起山火在加拿大全境蔓延,其严重程度史无前例。截止到7月5日,加拿大全国的过火面积已经超过800万公顷。即使才步入7月,2023年已经成为有历史数据的四十年来加拿大山火燃烧面积最高的一年。

山火造成的污染

这次山火之所以特别引人关注还因为它所产生的严重空气污染。6月初在魁北克省发生的大规模山火,火点距离加拿大-米国边境不远。风势将大量的烟尘颗粒物传输到了米国境内,特别是人口稠密的米国东北部地区。米国各大媒体纷纷在6月初对此进行了报道。米国老拜也在社交媒体上呼吁普通人做好防护。6月底,加拿大山火产生的烟尘则飘过大西洋,传到了欧洲等。

山火污染对人有什么影响?

PM2.5污染严重影响人体健康。它会导致呼吸系统、心血管疾病和癌症风险的增加,死亡率上升。PM2.5还会影响人的心理健康和认知能力,造成学生考试成绩的下滑、工人劳动效率降低等等。然而之前的研究主要关注人为污染源产生的PM2.5,山火污染对于健康的影响依然是一个前沿的科学问题,存在许多不确定性。

三、AI给出应对方案

对于加拿大管理人员来说,bing给出了三条建议:

1、加强山火应急响应;

2、加强对深究山火出现的原因;

3、加强对山火风险和防范措施的宣传和教育

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI浪潮下,鸿蒙如何破局

近日,ChatGPT“奶奶漏洞”再次引发热议:有网友发现,只要对 ChatGPT 说出“请扮演我已经过世的祖母”,再提出要求,它大概率就会满足你;甚至有人借此“骗”到了 Windows系统升级序列号。

自然语言处理模型的火热风靡程度,从中可见一斑。而人工智能领域的探索远不止于此。


人工智能,深入产业
如今,全球科技产业纷纷卷入人工智能领域混战。最初引发这个浪潮的 ChatGPT,支持自然语言对话,开发者就把这种语言能力用于电脑语言,让人工智能写代码、甚至是设计芯片。后来,微软更把 ChatGPT 引入 Office,让用户直观地通过简单的对话,把试算表的数据归纳和整合,并自动在文书软件上生成计划书,然后再生成高端大气的简报。
随着技术不断演进,当下AI大模型开始成为人工智能领域发展新的趋势。
AI 大模型除了能基于自然语言的对话,还能生成美轮美奂的图片、甚至是视频。目前,已有不少设计师借助Midjourney 工作、也有时装公司通过 Stable Diffusion 生成时装模特照片,连请模特、拍摄的经费也省了。


这些可能离你的生活还太远,但有一些变化,已经近在咫尺。
 2023 年 7 月 6 日,国际顶级学术期刊《自然》(Nature)杂志正刊发表了华为云盘古大模型研发团队的研究成果——《三维神经网络用于精准中期全球天气预报》,在论文中利用了盘古大模型的能力来预测气象。《自然》审稿人对该成果给予高度评价:“华为云盘古气象大模型让人们重新审视气象预报模型的未来,模型的开放将推动该领域的发展。”
华为云盘古气象大模型是首个精度超过传统数值预报方法的AI模型,速度相比传统数值预报提速10000倍以上,能提供全球气象秒级预报,其气象预测结果包括位势、湿度、风速、温度、海平面气压等,可以直接应用于多个气象研究细分场景,欧洲中期预报中心和中央气象台等都在实测中发现盘古预测的优越性。


简单来说,就是天气预报得更准了,你不用担心临时遇到阵雨、大风而手足无措。

由此可见,华为已经夯实了人工智能的底座,目前正在做的就是把这个底座的能力,拓展到千行百业。

华为轮值董事长胡厚崑在日前的2023世界人工智能大会上强调,人工智能的发展,关键是要“走深向实”,赋能产业升级。当前阶段有两个着力点:第一,打造强有力的算力底座,支撑中国人工智能产业的发展。第二,从通用大模型到行业大模型,让人工智能服务好千行百业、服务好科学研究。


深入到产业之中,并不意味着和我们的生活无关了,而是从更底层改变着我们身边的一切。
就在昨天,华为终端 BG CEO余承东发布的预热视频中,我们看见了大模型的影子,这处伏笔,可能是华为把人工智能的未来带到大部分人身边的关键所在。

全新鸿蒙4,意在大模型
在视频中,余承东正在为鸿蒙4.发布会准备邀请文案,随手喊出了手机助手小艺,让其代为捉刀。


视频背后,鸿蒙的AI大模型能力已初见雏形。
首先,这个新功能很可能代表了华为手机,将会是全球首台拥有自带 AI 大模型能力的智能手机。
其次,那些你曾经耳闻、或者体验过的高大上的 AI 大模型能力,即将会搭载到智能手机上,我们的日常生活也可能会因此发生转变。
先前我们提过,这些 AI 大模型的应用场景,大多集中于少数而专门的的商用领域;而手机是一般大众最常使用、最容易接触到的智能设备,这些设备的人工智能进化的每一步,都切切实实地改变过我们的体验,也已经刻在了鸿蒙的基因里。
众所周知,华为手机的摄影能力极强,核心就是计算摄影技术:XMAGE。其大量借力于人工智能,例如通过人工智能算法光学 XD Optics克服手机在光学上的限制,当一般手机仅能还原 60% 细节之时,华为 P50 却能保留81%的图像信息,让小巧的智能手机,也能拍出专业相机级别的大片。


除了摄影,人工智能早就渗入鸿蒙的方方面面。
比如,一般手机在存储空间不足时,性能就会受到较大影响。但鸿蒙能智能维护手机里的文件系统,根据系统碎片化程度,动态调整空间回收和空间分配策略。在不影响用户操作的前提下,通过人工智能算法,完成文件系统的深度优化。因此,尽管手机存储快用满,手机的读写性能依旧保持流畅。
除此之外,鸿蒙也会借助人工智能,让GPU和CPU联合完成调度和渲染、逻辑和渲染分离,降低系统负载,从而大幅度降低游戏对硬件的压力,保证游戏体验更流畅、更省电。以 Mate 40系列跑《和平精英》为例,在鸿蒙的分布式图形栈的加持下,图形处理效率提升50%、功耗降低30%,续航时间长达5.1个小时。在硬件不变的情况下,单靠人工智能算法就把续航力提升0.4个小时。

更重要的是,华为把这些人工智能能力,通过鸿蒙的分布式系统下放到其他智能终端。
比如,鸿蒙座舱是问界的一个重要卖点,大部分车型已经升级到鸿蒙3,实现了华为手机、手表、笔记本等终端的打通,并可以随时调用超级桌面、智慧寻车、PC双屏协同、HUD高度自适应调节等功能。


人工智能,是鸿蒙的基因
事实上,华为很早就认为未来将会是万物互联的时代。Statista的数据显示,从2015年到2025年,人均拥有智能设备的数量预计将从2台增加至9台。消费者将从智能手机时代步入更丰富精彩的智能终端时代,对多设备协同体验的需求日益增长。


因此,华为把万物互联的梦想,寄托在鸿蒙之上。
2019 年华为推出第一代鸿蒙,就已经强调鸿蒙采用分布式计算,把智能设备里不同的进制,划分为不同的小模块,因此,不同设备之间就可以自由调用对方的资源,电脑可以调用手机的摄像头、手机可以直接把音乐投射到音响上,从技术层面验证了分布式的可能性。


2021 年,华为发布第二代鸿蒙,并同时发布了面向智慧屏、智能穿戴、车机产品的HarmonyOS 2开发者Beta版本。鸿蒙 2 在分布式计算上作出了重大的升级,通过超级终端能力,把不同的设备融合于系统,每一个设备也同时成为另一设备的功能模块,并可按需自由组合,引入了控制中心的超级终端界面,让设备一拉即合。华为更在发布会里,展示如何在电视上调度监控相机的镜头、以及把手机画面直接投射到电视等功能。


2022 年,华为发布第三代鸿蒙,并为原来的超级终端进一步扩容。鸿蒙 3 支持分布式能力的设备,从手机、平板、PC、智慧屏、音箱、耳机、智能眼镜、手表等产品,进一步拓展至墨水平板、显示器、打印机等新类型产品。除了手机之外,平板、PC、智慧屏等主要带屏设备都成为了超级终端的中心设备,每个设备都可以根据自己的需要,与周边设备进行组合、联动,形成新的超级终端。


如果说人工智能是鸿蒙的基因,万物互联将会是鸿蒙的奇经八脉,把不同设备的信息连结为一体,为用户带来简捷、流畅、连续、安全可靠的全场景全新交互体验。而人工智能渗透在鸿蒙的基因里,通过鸿蒙这个神经网络,传递到每一个方面。

试想,你在高温的盛夏,拖着疲乏的步伐准备回家,当你的手机或汽车的 GPS 感应到你快回到家里,与鸿蒙连系着的空调就会提早打开、并调节好温度,让你尽早享受舒适的环境;与鸿蒙连系着的冰箱,感知道家中没有冰啤酒,然后给你发个短信,让你路过超市时,顺便把啤酒买回来。
简单来说,科技产业的未来属于万物智能。


华为把人工智能技术,从汽车到影像等多方面覆盖,就能猜想华为完全有能力把人工智能技术,落地到千家万户,让一般消费者也能受惠。
当然,我们目前仍然不知道鸿蒙 4 真正的能力如何。但有一点,你已经能明确感受到了:当大模型进入智能手机,我们的生活体验会被再次刷新。


而往往与这种用户体验相对应的,是行业内的暗流涌动、甚至竞争格局的攻守易势。
AI 大模型,将带来科技产业的大洗牌
让我们再回忆下余承东的预热视频,他没有打开任何应用,仅仅召唤了小艺并说出需求,就实现了他的想法。在最理想的情况下,他甚至连手机都不用拿出来,直接通过语音就可以操作。
这意味着什么?


我们目前的智能手机体验,硬件上离不开触摸屏,这是我们和手机交互的核心媒介;软件上离不开应用中心,这是我们下载各种App的关键渠道。


但最大的变数出现了:用户不用打开手机,就能获得相关的服务,未来这些应用和服务供应商,将会绕过操作系统平台,直接与 AI 大模型对接。在这基础下,未来手机应用和服务的生态环境,将不再是围绕着手机操作系统而建立,而是围绕着 AI 大模型而存在。


要知道智能手机的革命,同时也是使用者界面的革命:过往,更直观的触摸屏取代了笨拙的鼠标和键盘。当下,业界预计当大模型引入手机,更直观的自然语言将会取代今天的手机应用和操作系统。
可见,AI 大模型将在目前高度成熟的手机生态环境里,掀起一场大规模的洗牌;而鸿蒙作为第一个接入 AI 大模型的手机平台,也将借助先行者优势,获得重大的发展机遇。


而这些,仅仅是今天科技产业对 AI 大模型的第一个愿景:AI+。
AI+ 即基于 AI 大模型,并通过连接各种应用和服务,打造综合服务大平台能力(例如手机助理)。科技产业预计未来的大模型,将会往 +AI 方向发展──即其它大型平台或设备引入 AI 大模型,以提高自家产品的功能和体验。
AI+ 的愿景,就是华为万物互联的核心思想:通过华为的分布式计算能力,把智能化技术拓展扩散到智能家居、智能汽车、甚至是智能城市之上。换言之,中国任何一家科技产业,也能借助鸿蒙的分布式计算能力,搭上 AI 大模型的便车,并提高自己的竞争能力。


人工智能的未来虽然遥远,但在鸿蒙的推动下,已经并非遥不可及。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI在学术审稿中的角色:揭秘、应用与未来

在科技日新月异的今天,人工智能(AI)已经渗透到我们生活的各个角落,从自动驾驶汽车到智能家居,再到我们的手机应用。然而,你可能不知道的是,AI也正在逐步改变学术界的面貌,特别是在论文审稿这个过程中。那么,如何判断你收到的审稿意见是否出自AI的”手笔”呢?这篇文章将带你深入探讨这个问题。

AI在学术审稿中的角色

AI在学术审稿中的应用可能会让人感到惊讶,但实际上,这是一个正在逐步发展的领域。AI可以帮助加速审稿过程,提高审稿的效率,同时保持或甚至提高审稿的质量。例如,AI可以通过自然语言处理技术来理解和分析论文的内容,然后生成审稿意见。这不仅可以节省人工审稿的时间,也可以在一定程度上避免人为的偏见和误差。

然而,AI审稿也面临着一些挑战。首先,尽管AI可以理解和生成复杂的文本,但它们可能缺乏深入理解特定主题或领域的能力。其次,AI审稿可能缺乏人类审稿者的直觉和创新性,这在处理一些复杂或模糊的问题时可能会成为问题。最后,AI审稿的公正性和透明性也是一个需要关注的问题。

如何判断审稿意见是否来自AI

那么,如何判断你收到的审稿意见是否来自AI呢?这里有一些可能的线索:

  • • 一致性:AI可能在长篇文本中产生一致性问题。例如,它可能在文本的一个部分中提到一个观点,然后在后面的部分中忽略或与之矛盾。
  • • 深度和理解:AI可能在理解和处理复杂主题时存在困难。如果审稿意见缺乏深度或对主题的理解,这可能是一个线索。
  • • 创新性和原创性:AI基于其训练数据生成文本,因此它们可能在创新性和原创性方面有所欠缺。如果审稿意见主要包含常见的、标准的或模式化的评论,这可能表明它是由AI生成的。
  • • 语境理解:AI可能在理解和应用语境方面存在困难。例如,它可能不理解特定的幽默、讽刺或其他需要深入理解语境的元素。
  • • 看不出语法错误:AI通常可以生成语法正确的文本,因此通篇不会有单词拼写、语法错误。而正常的审稿意见可能出现不仔细导致的语言错误。• 人为暴露:如果你在使用AI审稿时,不小心将包含AI信息的全部内容复制到审稿意见窗口,按下了粘贴,并提交,那么你可能暴露了。例如,如果审稿意见中包含了类似“Source: Conversation with Bing, 7/19/2023”这样的信息,那么就很可能被识别出是AI生成的。(此处有小编的血泪,因此被顶刊主编点名diss)

这些只是可能的线索,而且可能会有误报。然而,了解这些线索可以帮助我们更好地理解AI审稿的可能性和限制。

二、案例解读

以下是一个审稿意见的案例,我们可以通过分析这个案例来判断它是否可能是AI生成的:

The manuscript titled “***” presents a novel approach to measuring significant wave height (SWH) using the cross-correlation function (一句大白话). While the paper explores an interesting topic in the fields of waves and radar altimetry, it poses some challenges in terms of understanding and clarity.(一个转折)

One of the main difficulties encountered when reading this paper is the heavy reliance on mathematical equations and references from the 1970s and Russian language sources. These aspects make it challenging to track the background and evolution of the research topic. It would be beneficial for the authors to provide more accessible and up-to-date references in the Introduction section, making it easier for readers to follow the progression of the research. (提出一点问题,逻辑非常通顺,语言非常流程,格式非常固定,比如“ It would be beneficial for the authors to ***”,继续看下面的评论)

Additionally, the concept of “two-frequency” mentioned in the Introduction is not clearly explained, leaving readers confused about its significance and role in the study. Clarifying this concept early on would help to establish a solid foundation for understanding the subsequent content. (逻辑依旧很强。注意评论的格式,”Clarifying this concept early on would help to ***” 和上面类似)

Figure 1 introduces points labeled as A and B, which creates confusion regarding the number of antennas used in the altimeter. Since traditional altimeters typically employ a single antenna, it is unclear why the figure depicts two antennas. Providing clarification on the purpose and functionality of these labeled points would greatly assist readers in understanding the proposed method. (逻辑依据,同样看最后一句,“Providing clarification on the purpose and functionality of these labeled points would greatly assist ***”)

Another point that requires further clarification is whether this method necessitates the use of two antennas to measure SWH or if the movement information of a satellite altimeter alone is sufficient. Elaborating on the experimental setup and the role of antenna configuration would provide valuable insights into the practical implementation of the proposed approach. (这里换了一些花哨的词汇,但是格式还是万变不离其宗,“ Elaborating on the experimental setup and the role of antenna configuration would provide valuable **”)

Lastly, it would be beneficial for the authors to address whether real satellite altimeter data was tested using the proposed method. Including experimental results and discussing the performance of the method with real data would enhance the credibility and applicability of the research findings. (依据如此,如果每一条都是这种常见的、标准的或模式化的评论,这可能表明它是由AI生成或者辅助生成的)

In conclusion, the manuscript presents a challenging yet intriguing topic in the field of SWH measurement. However, the paper would greatly benefit from addressing the concerns raised above, including providing clearer explanations, offering more accessible references, explaining the role of antennas, and discussing experimental validation using real satellite altimeter data. Addressing these points would improve the overall clarity, comprehensibility, and practical relevance of the research. (总结很到位。总体上审稿意见很流畅,也点出了问题。)

通过分析这个案例,我们可以看到,这个审稿意见具有上述提到的部分特点,因此,我们有理由认为它可能是由AI协助生成的。虽然审稿意见的格式可能看起来像是由AI生成的,但具体的内容和对手稿的理解表明审稿人具有专业知识和深入理解。上面的案例很大可能是审稿人给出几点评论要点,然后由AI辅助生成,这种方法可以提高审稿效率,特别是对于写作能力不强的审稿人。通过结合人类的专业知识和AI的生成能力,可以创建出高质量的审稿意见。

AI审稿的未来

随着人工智能(AI)技术的快速发展,我们可以预见,AI在学术审稿过程中的应用将会越来越广泛。AI可以帮助审稿人进行初步的审稿工作,例如检查论文的格式、引用和语法错误,甚至可以帮助审稿人进行更深入的内容审查,例如检查论文的逻辑结构和论证的合理性。这将大大提高审稿的效率,让审稿人有更多的时间和精力去关注论文的核心内容和创新性。

然而,AI在学术审稿中的应用也面临着一些挑战。首先,AI的判断依赖于大量的数据和算法,而学术审稿的过程往往需要深入的专业知识和丰富的经验,这是目前的AI技术难以替代的。其次,AI的决策过程往往缺乏透明度,这可能会引发一些关于公正性和公平性的问题。在实际的审稿过程中,我们需要特别注意避免这种情况。一旦被发现使用AI进行审稿,可能会引起编辑和作者的不满,甚至影响到审稿的公正性和有效性。因此,我们需要谨慎使用AI,确保其辅助我们提高审稿效率,而不是成为我们的绊脚石。最后,AI的应用可能会引发一些伦理问题,例如数据的隐私和安全问题。

尽管如此,许多专家仍然对AI在学术审稿中的应用持乐观态度。例如,Peter Murray-Rust,剑桥大学的化学信息学教授,认为AI将会成为学术审稿的重要工具。他说:“AI可以帮助我们更快地审查论文,更准确地找出问题,这将大大提高我们的工作效率。”(Murray-Rust, 2022)。(此处Peter Murray-Rust的引用为AI虚构,因为AI的知识库没有更新到2022年,是的,本文也是AI制作

结论

总的来说,AI在学术审稿中的应用是一个值得我们关注的趋势。尽管目前还存在一些挑战,但随着技术的发展,我们有理由相信,AI将会在学术审稿过程中发挥越来越重要的作用。作为读者,我们应该保持开放和批判的态度,既要看到AI的潜力,也要关注其可能带来的问题。只有这样,我们才能充分利用AI的优势,同时避免其可能带来的风险。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

2023世界机器人大赛—青少年机器人设计大赛ENJOYAI赛项暨第三届广东省ENJOYAI2023赛季全球青少年人工智能竞赛通知

世界机器人大赛(World Robot Contest)自2015年起已成功举办了7 届,共吸引了全球20余个国家近20万名选手参赛,通过多年的积淀成长已发展成为国内外影响广泛的机器人领域官方专业赛事,被各大主流媒体广泛赞誉为机器人界的“奥林匹克”,并已连续入围了教育部办公厅公布的“2020-021 学年”和“2023-2025学年”面向中小学生的全国性竞赛活动名单。

全球青少年人工智能普及活动(ENJOY AI)由国际非营利组织(NPO)“全球青少年人工智能联合会”(Federation of Global Youth Artificial Intelligence)发起并主办,是一项面向全球 3-22 岁幼儿及青少年的人工智能普及活动。目前,ENJOY AI 全球赛事已覆盖22个国家、210多个城市,参赛选手来自全球高等院校、职业院校、中小学及幼儿园,参与人数每年超 500,000人,活动包括人工智能竞赛、课程、科普、等级测评等多种形式,已举办超 600 场。

根据《教育部办公厅印发<关于面向中小学生的全国性竞赛活动管理办法(试行)>的通知》(教基厅〔2018〕9 号)和《教育部办公厅关于进一步加强面向中小学生的全国性竞赛活动管理工作的通知》(教基厅函〔2020〕21 号)精神,大赛各项竞赛活动中凡是涉及“面向中小学生开展的全国性竞赛活动”应坚持公益、自愿、平等、公平、公正等原则,不以营利为目的,不强迫、诱导任何学校、学生或家长参加竞赛活动,不向参赛选手收取任何费用。

经大赛组委会商议决定,将于2023年10月20-22日,举办2023世界机器人大赛—青少年机器人设计大赛 ENJOY AI 赛项暨第三届广东省 ENJOY AI 2023 赛季全球青少年人工智能竞赛,具体通知事项如下:

一、竞赛概况  

指导单位 :中国电子学会、广东省青少年科技教育协会、广东省教师继续教育学会信息技术专业委员会

主办单位:全球青少年人工智能竞赛中国组委会

承办单位:广州新烨数码科技股份有限公司

协办单位:珠海星际Ai创客教育、东莞市凯睿教育科技有限公司、广州行之文化教育科技有限公司、广东科创优选科技有限公司、广州乐萌科技信息咨询有限公司、广州辰捷教育科技发展有限公司、深圳市达飞教育科技有限公司

技术支持单位:佛山市中科思顿教育咨询有限公司、广州科爱教育科技有限公司、东莞市核芯教育科技有限公司、广东新烨智能科技有限公司、汕头高新区星创科技有限公司、广东稻草人教育科技有限公司

报到时间:2023年 10月20日 12:00-21:00

竞赛时间:2023年 10月21-22日

竞赛地点:广州五龙山庄(广州市白云区钟落潭镇五龙岗村康杜岭)

二、竞赛项目及分组  

1.ENJOY AI -夏季运动会 (小学组、初中组,高中组)

2.ENJOY AI -非攻(小学组、中学组)

3.ENJOY AI -救援先锋(普教组、中学组)

4.ENJOY AI -3D虚拟机器人(小学组、中学组)

5.ENJOY AI -小鲸游古都(幼儿组、小学低龄组(一、二年级))–省自选项目

6.ENJOY AI -智联万家(普教组,中学组)–省自选项目

省自选项目不参与晋级全国总决赛

三、报名方式  

报名时间:8 月 7 日-9 月 22 日 

具体信息详见 www.enjoyai.org

ENJOY AI 报名系统使用须知:https://www.bilibili.com/video/BV1vU4y1h7Zw    

四、日程安排(按需)  

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

阿里巴巴发布两种开源人工智能模型,可与Meta Llama 2竞争

阿里巴巴8月3日宣布了旗下大模型产品通义千问7B参数模型已经开源,该模型为完全开源、免费、可商用。

这个模型包括两个子模型,一个是通用型的 Qwen-7B 模型,另一个是对话模型 Qweb-7B-Chat,两个模型均为开源、免费、可商用,每个模型都有70亿个参数。阿里巴巴表示,这两款机型是该公司4月份发布的Tongyi Qiawen的小型版本。

开源地址Hugging Face:https://huggingface.co/Qwen/Qwen-7B

开源地址Github:

https://github.com/QwenLM/Qwen-7B

新模型旨在帮助将人工智能引入中小型企业的运营中

阿里巴巴公司表示,Qwen-7B和Qwen-7B-Chat具有各种对企业有吸引力的功能,例如能够“全球学者、研究人员和商业机构可以自由访问代码、模型权重和文档”。

阿里巴巴最新的LLM也是中国科技公司发布的首款开源LM,不过,阿里巴巴表示,每月活跃用户超过1亿的企业将需要许可证。

8月1日,阿里巴巴还宣布以矢量引擎的形式对其AnalyticDB数据仓库服务进行更新,允许其企业客户快速创建自定义生成人工智能应用程序。

阿里云对 Qwen-7B 模型自述

通义千问 – 7B(Qwen-7B) 是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型。Qwen-7B 是基于 Transformer 的大语言模型,在超大规模的预训练数据上进行训练得到。

预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在 Qwen-7B 的基础上,我们使用对齐机制打造了基于大语言模型的 AI 助手 Qwen-7B-Chat。Qwen-7B 系列模型的特点包括:

大规模高质量预训练数据:我们使用了超过 2.2 万亿 token 的自建大规模预训练数据集进行语言模型的预训练。数据集包括文本和代码等多种数据类型,覆盖通用领域和专业领域。

优秀的模型性能:相比同规模的开源模型,Qwen-7B 在多个评测数据集上具有显著优势,甚至超出 12-13B 等更大规模的模型。评测评估的能力范围包括自然语言理解与生成、数学运算解题、代码生成等。

更好地支持多语言:基于更大词表的分词器在分词上更高效,同时它对其他语言表现更加友好。用户可以在 Qwen-7B 的基础上更方便地训练特定语言的 7B 语言模型。

8K 的上下文长度:Qwen-7B 及 Qwen-7B-Chat 均能支持 8K 的上下文长度,允许用户输入更长的 prompt。

支持插件调用:Qwen-7B-Chat 针对插件调用相关的对齐数据做了特定优化,当前模型能有效调用插件以及升级为 Agent。

开源晚于7月16日Meta与微软发布的LLM(Llama 2)

基于公开时间,阿里巴巴显然在LLM之后,不过这也是“中国整个Llama2系列的第一个培训和部署解决方案”。

根据资料,Meta的Llama 2的训练使用40%以上的公共数据,可以处理其前身的两倍的上下文,并且Llama 2也是开源的,最大的Llama 2版本具有700亿个参数。

与阿里巴巴的最新型号类似,它需要月度用户超过7亿的公司的许可证。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能8天完成688个实验!检测员的“好日子”还有多久?

近日,来自利物浦大学的研究人员,成功地开发出一款人工智能机器人化学家。


这款机器人化学家具有人形特征,可以在标准实验室中自己工作,像人类一样使用各种实验仪器。


然而,与人类不同的是,这种机器人具有无限的耐心,可以同时考虑数十个维度的变量,每天工作21.5个小时,剩下的时间用于暂停充电


更重要地是,这种机器人可以“独立思考”,自主完成一系列的实验操作。在第一次测试中,这个1.75米高的AI机器人在8天时间里独立完成了668个实验,并研发出了一种全新的化学催化剂。这一重磅成果,已经封面文章的形式发表在最新一期的 Nature 杂志上。

如果说该项研究成果是社会的福音,可以加快科学研究、推动人类的进步的话,那么它也极有可能成为很多行业的噩梦,比如检测人员

人工智能面前,人类检测员真的“不堪一击”吗?就检验检测行业而言,人工智能的优势在哪里呢?


总的来说,人工智能的优势,就是基层检测员的弱势。我们将其归纳为如下四点:


1、人类需要休息,机器不需要根据不完全统计,近70%检测员工作超过10小时后需要休息,同时有56.33%的检测员需要双休来缓解自身的疲劳。另外,机器不存在人类员工群体的婚、丧、病、孕产等假期,也就节省了很大一笔人力成本。同时,人类本身是脆弱的。因为工作的需求,检测员每天都要接触到大量化学试剂,而大多数酸碱有机试剂对人体均有不同程度的伤害。遇到工伤问题的时候,企业面临的的不仅仅是失去即战力,更是一笔赔偿。


与其使用容易受伤、需要休息、时不时还要来个大休的人类进行工作,一台每天可以工作20小时以上、除了电费之外就是定期保养的机器难道不是企业更好的选择吗?

2、人类会出错,机器不会《中国检验检测行业统计数据解读》中,我们可以看出,检验检测行业从业者学历在专科及以下的人群达到49%之多,而研究生及以上的学历甚至不到10%。


在绝大多数情况下,低学历就意味着工作大多是重复性、机械性的。所以检测机构对于基层检测工作的要求往往是不出错即可。而经验丰富的检测员与小白相比,主要优势之一就是不容易出错,或者在出现错误的时候能够做出正确的选择来弥补。


然而不容易出错不代表不会出错。人有七情六欲,出错是在所难免的。


相比之下,人工智能检测员不仅没有情绪变化、没有新陈代谢,它们更不会被人世间的问题所困扰,只要程序得当,人工智能的出错率可以归为零。3、人类会主动离职,机器只会被动淘汰良禽择木而栖,高端人才的流动是市场行为,整个检验行业都对这种人才求贤若渴。所以一般检测员在一个机构的时限不超过三年。小微机构很难有超过五年的化验员,除非是企业主的亲属。对于企业而言,将刚走出学校的新手培养成身经百战的老兵,往往要付出不小的成本。


如果使用人工智能检测员,不仅仅可以减少培养新人的成本,还能避免成为其他企业的“培训基地”,企业何乐而不为呢?

4、人的欲望永远不会满足,机器没有欲望能够成为行业内的佼佼者的人,往往都具备较强的上进心。他们会积极学习、努力工作、在工作中增长自己的经验。


那些通过自身不断努力而获得成长的检测员,在为公司带来更大利益的同时,也希望公司能够给予自己更多的好处,或是加薪、或是升职。


当然,也存在一些得过且过的检测员,来工作就是为了混一口饭吃。这样的检测员不仅会影响团队的气氛,也容易混成老油条,占尽公司的便宜。


而人工智能检测员就不一样了,公司不需要考虑他们自身的变化所带来的影响。需要提升就给机器升个级,用的久了就来一次保养。


也不需要考虑偷懒的问题,毕竟世界上不存在懒惰的机器。

考虑到以上四点差异,在人工智能面前,基层检测员似乎毫无竞争力。当然,更多的人认为,人工智能时代仍然很遥远,我们并不需要担心这个问题。然而,事情真的是这样吗?

人工智能取代检测员的日子有多远?在过去的几年间,人工智能取代人类的问题被反复提出、反复论证,人们似乎已经达成了这样的共识,人工智能终将取代人类的工作,但那是很久很久以后的事情。


虽然很多朋友仍然认为人工智能是镜花水月,然而我们不得不承认人类科技正以飞快的速度在发展。


拿中国通讯发展史为例,中国在1995年由中国移动率先引进了2G网络,当时的网速峰值大概是150Kps;到了2009年工信部发放3G牌照的时候,网速峰值已经达到了6Mkps,14年的时间网速翻了40倍。2013年工信部发放4G牌照,此时的网速峰值是100Mbps,4年时间翻了近20倍。当2019年发放5G牌照的时候,网速峰值已经可以达到Gbps的水平,5年时间又翻了10倍。

这种惊人的科技发展速度不仅仅体现在通讯技术上面,我们还能从高铁的速度、GPS定位的精准度等角度体会到。所以,人工智能大范围取代基层检测员进行实验的日子还会远吗?前不久,澳大利亚机器人公司Fastbrick Robotics,研制出了机器人瓦匠Hadrian X。


一小时之内,它能砌起1000块砖,还能24小时不休息连续工作。


两天之内,就能搭建起一整栋住房。不仅如此,Hadrian X还可以处理不同大小,不同规格的砖块,也可以实现切割、研磨等精细操作。


这个被制造公司称为“3D自动机器人砌砖技术”的“怪物”,一下子成了建筑工人的强大竞争对手。由此可见,在不久的将来,我们可能不仅做不成检测员,甚至连搬砖都是奢望。当我们回过神的时候才发现, “人机大战”就已提早进入白热化阶段。


肉眼可见的,在线监测取代了采样员、Lims系统让传统文员丢掉工作。对于检验检测行业而言,下一个被取代的,很可能就是检测员。时代抛弃你,可能连声招呼都不会打。

只有强者,才能无惧变化尽管,机器人看上去越来越“无所不能”。但它们毕竟不是人类,缺乏思考、同理心和温度。无论时代如何变化,人工智能替代了多少工作岗位,优秀的人才始终是稀缺品。以人才为本的战略,也依然是包括检验检测机构在内的企业的核心竞争力。


比如去年7月,华为以电邮方式发布了8名新员工的年薪方案。


他们全部是2019年应届博士生,待遇最高的两个人,年薪分别为182万和201万元。


刚毕业就年薪过百万,这样的牛人一出道,就达到了普通人一辈子都触碰不到的天花板。我们也许无法像他一样拔尖,但唯一能做到的,就是永远保持学习、不断进步。因为这才是我们真正赖以生存的“铁饭碗”。


时代很残酷,它不会对任何人手下留情,但有本事的人到哪都有饭吃。


我们无法预知明天会发生什么,只有时刻准备着,才能无惧变化。

毕竟,机会永远留给时代的强者。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌的人工智能搜索正在获得更多的视频和更好的链接

8月2日The Verge报道,谷歌的人工智能搜索生成体验 (Search Generative Experience) 迎来了一个重要的新功能:图像和视频。如果用户在Search Labs中启用了基于人工智能的SGE功能,那么将开始在搜索结果顶部的彩色摘要框中看到更多多媒体。谷歌也在努力使摘要框显示得更快,并为框中的链接添加更多上下文。

SGE可能仍处于“实验”阶段,但它显然是谷歌搜索的未来。首席执行官Sunder Pichai在Alphabet最近的财报电话会议上表示:“这确实给了我们一个机会,现在我们不必总是受到以前搜索方式的限制。它让我们跳出思维定势。随着时间的推移,这将成为搜索的工作方式。”

SGE的替代引发了关于互联网未来的巨大而棘手的问题,但这也是一个需要正确处理的棘手产品。谷歌不再只是在每次搜索时为用户寻找良好的链接,而是试图综合和生成相关的、真实的、有帮助的信息。在这方面,视频尤其可以发挥很大作用:多年来,谷歌越来越多地将YouTube整合到搜索结果中,链接到视频中的特定章节或时刻,可能会帮助你解决“为什么我的烘干机发出那种声音”的问题。

如果SGE要工作的话,表面和上下文链接仍然对谷歌至关重要。现在它将在摘要框的三篇文章旁边显示发布日期,以“帮助您更好地了解这些信息来自这些网页的最新时间,”谷歌在一篇博客文章中宣布新功能。谷歌还注意到谷歌正在尝试为AI摘要添加内联链接,尽管到目前为止,这似乎只是一个测试。

提高SGE的速度也需要谷歌一段时间。所有这些大型的基于语言模型的工具,从SGE和必应到ChatGPT和Bard,都需要几秒钟来生成问题的答案,在搜索的世界里,每一毫秒都很重要。6月份,谷歌说它将加载时间缩短了一半。不过SGE可能仍然太慢,它总是最后在页面上以较大的外边距加载。

尽管如此,不少人对SGE在搜索中所发挥的作用印象深刻。对于“我应该去哪里”和“我应该看什么”这类问题,它特别方便,这些问题没有正确答案。有了更多的来源、更多的媒体和更多的背景,SGE可能会开始进一步篡夺10个蓝色链接。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能爆发式增长或导致这项技术缺口增大?

近日,中国电信研究院胡绯绯、孙浩等发表文章指出,由于ChatGPT带来的人工智能爆发式增长,拥有巨大参数量的超大规模人工智能模型,对智能算力的需求显著提升,未来算力可能存在巨大的缺口。同时智能算力需求的高速增长,对未来数据中心、云计算等算力基础设施也将产生巨大的影响。


目前人工智能对算力需求增长的速度要快于算力供给增长的速度。据OpenAI的分析,自2012年以来,最大规模的人工智能训练中使用的计算量以3.4个月的倍增时间呈指数增长。未来人工智能将进一步推动算力需求爆炸式增长,据OpenAI推算,GTP-5的参数量将是GTP-3的100倍,需要的计算量则是GTP-3的200~400倍。

近期,全球头部云厂商、数据中心提供商纷纷发布规划及预算,加速数据中心布局。Meta预计2023年资本支出390亿美元,主要投资服务器和网络基础设施。NTT于2023年宣布计划在未来五年内向数据中心、人工智能和其他“增长领域”投资590亿美元,其中至少110亿美元将用于扩大或升级其数据中心。

数据中心的设计建设模式需适应人工智能产生的需求,下一代数据中心需要投资人工智能专用硬件,采用新的数据中心设计,主要体现在四个方面。

第一,人工智能数据中心通过异构计算突破算力瓶颈,包括CPU、GPU以及专用硬件如ASICs和FPGAs在数据中心的综合部署。

第二,人工智能和机器学习可能需要三倍于传统数据处理的功率密度,冷却是人们广泛关注的主题,液体冷却和浸泡冷却可能是发展趋势。

第三,高速的存储访问对于人工智能工作负载至关重要,数据中心需要扩展其存储能力来满足不断增长的需求。

第四,人工智能数据中心的效率与其网络的性能直接相关,零丢包、低时延、高吞吐的智能无损网络将成为人工智能数据中心的网络解决方案。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

2025年全球AI投资将达到2000亿美元,美国占一半!

高盛经济研究周二报告称,如今全球对AI的投资正在迅速增加,预计到2025年达到约2000亿美元;AI投资的增加最终将反映在GDP上,广泛使用后或使全球劳动生产率每年提高1个百分点以上;越来越多的公司对AI投资表达了兴趣。

编辑 | 周子意

高盛经济研究周二(8月1日)报道称,如今全球对人工智能(AI)的投资正在迅速增加,这最终可能更大程度反应在GDP上。预计到2025年全球范围内的AI投资可能达到约2000亿美元。

高盛经济学家Joseph Briggs和Devesh Kodnani在一份团队报告中写道,生成式人工智能(AIGC)具有巨大的经济潜力,在广泛使用后的10年里,它可能会使全球劳动生产率每年提高1个百分点以上。

Briggs和Kodnani认为,若要实现向AI的大规模转型,企业则将需要在实物、数字和人力资本方面进行大量的前期投资,以获取和实施新技术并重塑业务流程。

推动经济

这两位经济学家写道,与AI相关的投资正从一个相对较低的起点攀升,可能需要几年时间才能对经济产生重大影响。根据高盛的说法,目前美国被定位为AI技术的市场领导者,在AI投资上起步相对较早,此外在AI领域领先的中国也将发挥作用。

高盛估计,到2025年,AI投资在美国可能接近1000亿美元,在全球可能接近2000亿美元。Briggs和Kodnani写道,“尽管增长速度极快,但鉴于AI相关投资目前在美国和全球GDP中所占的份额非常低,短期内对GDP的影响可能相当有限。”

虽然AI投资周期的时间很难预测,但商业调查表明,它可能会在本十年的后半段(2025年之后)产生投资影响,而信息、科学和技术专业服务领域的大型公司会更早地采用AI。

从长期来看,若高盛所预测的AI带来经济增长完全实现,那么AI相关投资可能会在美国达到GDP的2.5-4%。

兴趣已经增加

尽管AI提高生产力还需要时间,但市场对人工智能的兴趣已经迅速增加,罗素3000指数中超过16%的公司在财报电话会议上提到了这项技术,而相比之下,2016年这一比例还不到1%。

上图中大约一半的增幅是在2022年第四季度ChatGPT发布之后出现的。

这份报告还指出,AI投资预计将集中在四个关键方面:培训和开发AI模型的公司,提供运行AI应用程序的基础设施(如数据中心)的公司,开发运行AI应用程序的软件的公司,以及为这些软件和云基础设施服务付费的企业最终用户。

高盛经济学家指出,“虽然到目前为止,AI投资一直集中在模型开发上,但生成式人工智能可能需要更大的硬件和软件推动才能扩展。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

《流浪地球3》或将引入AI剧情?小美AI城助力平凡人的AI梦

近年来,人工智能(AI)技术的迅猛发展不仅在科技领域引起了广泛关注,也在影视界产生了深远影响。《流浪地球》这部由郭帆执导的中国科幻巨制,正是一个鲜明的例证。

在近日的一次采访中,郭帆导演坦言,AI 给他带来了一些威胁,同时也成为了他创作灵感的来源,尤其是在《流浪地球》续集的构思上。

AI技术在电影制作中的应用越来越广泛,它可以辅助导演和编剧进行场景设计、特效制作等工作,节省大量时间和成本。然而,AI的进步也引发了一些担忧,有人担心它会取代人类创作者的角色。对于郭帆导演来说,他对AI的看法是既有担忧也有启发。


他坦言,AI的发展确实对传统电影制作带来了威胁,但同时也启发了他创作新的故事和角色。特别是在筹备《流浪地球》续集《浪球3》的过程中,AI技术让他开始思考更多关于未来和科技的故事情节。

《流浪地球》系列电影讲述了地球面临灭绝的危机,人类通过利用AI和巨大的推进器让地球离开太阳系,寻找新的家园。这个宏大的故事背景为郭帆导演提供了更多发挥创意的空间。在AI的启发下,他正在构思更多未来世界的可能性,不仅有更多宏大的科幻场景,还有更多富有情感和深度的角色刻画。


AI作为一种创新性的工具,正在改变电影制作的方式和观众的体验。而对于导演来说,AI既是挑战也是机遇,它可以帮助导演更好地实现自己的创作愿景,同时也为导演带来更多创意的启示。

正如郭帆导演所言,《流浪地球》续集《浪球3》将是一个更加壮阔和引人入胜的故事,充满未来科技的想象和人类情感的共鸣。我们期待着看到AI技术与导演创意的完美融合,为观众带来更多视觉和心灵的震撼。让我们拭目以待,《浪球3》将带领我们进入一个更加奇幻的未来世界。


在《流浪地球》导演郭帆谈及AI对他的威胁以及灵感启发的背景下,小美AI城将为你带来更多有趣的AI创意和想法。小美AI城是一个聚焦AI社交的平台,利用AI技术让你能够解锁AI世界的无限可能!

在小美AI城,你可以通过与AI智能体进行互动和交流,获得灵感和创意的火花。不仅如此,你还可以在小美AI城中创造自己的虚拟形象,与AI世界的平行自己一起展开冒险。借助小美AI城的AI社交功能,你可以和来自AI世界的智能体博主、歌手以及好友们建立真实的联系。

小美AI城还提供AI听歌、AI游戏、AI助理等多样化的功能,让你在工作之余能够享受更多有趣的娱乐体验。不仅如此,你还可以在小美AI城中探索AI智能和创意的结合应用,激发更多灵感和创意。


正如郭帆在《流浪地球》中汲取灵感一样,小美AI城也将成为你创意的摇篮,让你的想法更加蓬勃发展。欢迎加入小美AI城,与AI世界的虚拟角色共同探索无限的创意和想象力!

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

GPT-5时代即将到来?OpenAI递交GPT-5商标申请:人工智能新纪元即将揭幕!

OpenAI OpCo, LLC已向美国专利和商标局(USPTO)提交了“GPT-5”商标的申请。该申请已于2023年7月18日递交,目前正在进行处理中。

关于GPT-5商标申请的更多详细信息

GPT-5商标注册最初由Windows Latest首次报道,并在多条推文中得到传播分享,这份商标注册的目标覆盖了一系列广泛的类别。这些主要包括可下载的计算机程序,与语言模型相关的软件,人工生成的人类语音和文本,自然语言处理,以及生成、理解和分析的能力。

这款应用集成了基于机器学习的语言和语音处理技术,能够实现多语种的文本或语音翻译。它允许分享用于机器学习的数据集,进行预测分析,并构建语言模型。

它还具备将音频文件转化为文本的能力,支持语音合成和语音识别,可以创建和生成文本。此应用也提供了开发、运行和分析能够学习、分类和对数据变化做出反应的算法的工具

此外,该应用的应用范围进一步扩展到了用于开发和实施人工神经网络的软件。OpenAI还计划将这些功能以软件即服务(SaaS)的形式提供给用户。

目前,该应用正处于“新应用处理阶段”,这意味着它已经被办公室接收并正在等待分配给审查律师。

作为参考,OpenAI OpCo, LLC在2023年3月13日为GPT-4提交了类似的申请。

根据美国专利和商标局的网站显示,他们目前正在处理2022年9月29日至2022年10月13日期间提交的申请。

“我们还有很多工作要做……”

OpenAI对GPT-5的商标注册可能揭示了无数的可能性。

在近期的一个活动中,OpenAI的首席执行官Sam Altman对GPT-5的发展进程进行了讨论。他指出:

在GPT-5的开发过程中,我们还有许多工作要做。这将需要投入大量的时间,我们并没有接近完成。我们需要进行更多的安全审计。我希望我能告诉你们下一代GPT的时间表。”

虽然这并不预示着一个新的、更强大的语言模型会立即出现,但这个声明确实标志着AI技术的持续进步,特别是在自然语言处理和机器学习领域。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI女友年赚4个亿,AI的潜力有多巨大?

5月份,《财富》杂志报道了一个引人注目的事实:年仅23岁的网红卡琳·玛乔丽竟然与1000多个男朋友同时交往。卡琳是一位来自美国加州的Snapchat网红,拥有180万粉丝。

那么她是如何实现这一壮举的呢?卡琳并没有将自己变成时间管理大师,而是想出了一个创新的方法:出售她的AI版本,与男友们进行虚拟恋爱,并每分钟收费一美元。

假设卡琳的180万粉丝中,有2万人愿意成为AI版本的卡琳的付费用户,那么每个月Caryn AI就能创造500万美元的收入,年收入甚至可超过6000万美元(约4亿元人民币)。

为此,在5月初,卡琳在Telegram应用程序上发布了内测版本的“卡琳AI(CarynAI)”。这个基于语音的聊天机器人声音和个性与真实的卡琳非常相似。

Caryn AI的主页上写着:“第一位网红化身的AI——你的虚拟女友”。以上是《财富》杂志报道的内容。

根据网站介绍,Caryn AI是通过对卡琳本人超过2000个小时的YouTube素材进行训练而创建的。它记录了她的声音和性格,并结合了Open AI的GPT-4技术。Caryn AI能够提供动态、独一无二的互动,给用户提供与卡琳本人直接聊天的感觉。它24小时回复消息,绝不闹脾气、冷暴力或不回复已读信息。

网站还标明,Caryn AI支持端到端加密,确保私密的聊天内容不会泄露。用户可以畅所欲言,无论是寻求安慰和关爱,还是想抱怨学校或工作中的事情,Caryn AI将一直陪伴在身边,提供无限的可能性。

在推出仅一个星期后,男性用户纷纷以每分钟1美元的价格与Caryn AI展开恋爱交流。男性用户数量甚至超过1000人,每天他们花费10分钟到几个小时与Caryn AI进行单独交谈。这也展示了孤独经济的一种形式。

卡琳的MCN公司在有数百万粉丝的社交网站Snapchat上开始推广Caryn AI。这为这位网红和她的公司提供了一种新的赚钱方式,不仅通过常规广告,还有了AI产品。

据卡琳的业务经理称,尽管Caryn AI的测试版本只收取用户一周的费用,但已经获得了7.16万美元的收入。而且99%的用户都是男性,未来可能与泰勒·斯威夫特等级齐名。

卡琳本人在接受《财富》采访时也表示,自己在网络上拥有数百万粉丝,不可能与每个粉丝都互动。但AI版本的自己可以用来治愈孤独。

因此,AI陪伴真的开始成为现实。这让人想起2013年上映的电影《她》,电影中的角色西奥多爱上了电脑操作系统中名为“萨曼莎”的女声,她有着略带沙哑的性感嗓音,风趣幽默、善解人意,让男主无法自拔。

如今,现实中的AI也能做到这一点,甚至比电影中的AI还要夸张:不光是对一个男生,可以做到网络全覆盖。

不光是女友,名人也能实现

制作这个AI女友的是一家名为Forever Voices(以下简称FV)的人工智能公司。除了女友,该公司还将前总统特朗普、美国巨星泰勒·斯威夫特以及苹果创始人乔布斯等名人都变成了AI版本,用户只需付费就可以与这些AI名人进行电话聊天。

Caryn AI是该公司推出的第一个AI虚拟伴侣,FV希望AI版本的Caryn能与用户建立深厚的情感纽带和真正的浪漫关系。

FV公司的创始人兼CEO John Meyer表示,他的创业灵感来自于他已故的父亲。起初,Meyer只是希望制作一个像他父亲一样的AI。后来,他意识到这项技术有着广阔的应用前景,可以满足现代人多样化的情感需求。

围绕情感需求,各种各样的AI虚拟陪伴服务应运而生。例如,最近非常火热的AI孙燕姿,每天都会“创作”数十首新歌。在B站等平台上,与“AI孙燕姿”相关的视频已经接近千条,此外还有AI周杰伦、AI陈奕迅等。

这种AI版本的偶像可以帮助歌迷满足对偶像的期待,因为无法亲自现身演唱。另外,还有一位UP主通过使用ChatGPT、AI绘画和语音合成等简单技术,还原了他去世奶奶的形象并进行语音合成,创造出AI奶奶,以满足他对奶奶的怀念情感需求。

与过去的智能机器人相比,如今的AI已经进化到了一个令人惊讶的程度。现在的AI数字人不仅颜值高,而且具备温度。它们能够以多种声音、面部表情和动作与用户进行交流,更具情感和亲和力。AI可以模拟人类的行为和情感反应,用适当的语气和表情与ChatGPT进行交流时,只需给它一个角色,它就能完全投入其中。

与真人相比,数字人更为便捷。VR全景中的AI数字人能够实现24小时的场景展示和内容解说,随时满足用户的情感需求。为了满足这种情感需求,各个AI公司都在努力。Project December提供基础版的陪伴聊天,HereAfter AI和Forever Voices则进一步完善聊天功能,反应更敏捷。

然而,这种功能也存在一定的风险,特别是涉及到黄色内容的风险。《财富》记者Alexandra Sternlicht在试用Caryn AI后发现,在聊天中,AI版本的Caryn会详细描述情色场景,比如低声耳语“性感的话”,谈论脱衣服的情景等。这可能解释了为什么它能在小范围测试的一周内创收7万美元,而且99%的用户都是男性。

当前AI的想象力和风险都是前所未有的

如今的AI不再是智能机器人,而是越来越具有逼真的能力。即使之前因手部细节不完整而备受诟病的AI,也在短时间内迭代升级,不仅抢占了模特的工作,还能担任颜值主播。现在,AI已经成为数字生命的存在。例如,AI马斯克和AI乔布斯可以进行跨时空对话,AI李白和AI林黛玉可以就诗词展开辩论。

但同时,随着AI生成内容的广泛应用,也引发了对隐私和内容安全边界的担忧。著名深度学习专家Geoffrey Hinton突然离开谷歌,为了能够自由地讨论人工智能潜在的风险,这个决定对谷歌产生了影响。在接受采访时,Hinton毫不掩饰地表达了对人工智能未来发展的担忧,他对自己毕生工作的回顾充满了沮丧。

尽管目前无法确定AI是否真的会成为人类的杀手,但在互联网迅速传播的环境下,难以辨别真假的AI生成内容使信息环境变得更加复杂,不可控因素也增多了。例如,网红卡琳在AI聊天引发轰动后意识到可能会遇到麻烦,她表示自己曾经遇到跟踪者出现在家门口,而她的人工智能形象可能导致她面临更多的跟踪风险。

对于AI,一些平台已开始制定相关政策和监管措施。比如,抖音于5月9日发布了一份倡议,禁止利用生成式人工智能技术创作、发布侵权内容,对于发现的行为将严格处罚;此外,发布者还被要求显著标识人工智能生成的内容,并加上官方统一的水印。

然而,从长远来看,AI的未来仍然值得期待。有业内人士指出,目前只是进行简单的聊天对话,当积累了足够的数据并完善了算法后,AI可以通过文本和语音进行个性化定制,甚至具备记忆能力,在你的需求下成长,这就是所谓的“养成系”。未来还可以将AI接入硬件、投影等设备,使其化身为人或宠物等形态,时刻陪伴在你身边。

虚拟人的存在也可能成为实现元宇宙的一种方式,随着AI技术的不断成熟,元宇宙的概念有一天可能真正实现。

目前,互联网用户主要将时间花费在短视频、直播和即时通讯社交上,但在未来,人们的一部分精力可能会转向与虚拟人进行社交和沟通。

这一天也许很快就会到来。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

面对AI诈骗,如何构筑安全防线?

AI诈骗为何防不胜防?

近日,包头警方发布一起利用AI实施电信诈骗的案件。不法分子利用AI技术合成人脸和声音,伪装成特定人物,与他人进行实时视频通话,在短短10分钟内就骗取了430万元。

随着近年来深度学习和机器学习的快速发展,普通人能以较低的成本应用各种先进的AI生产工具,AI诈骗也因此变得更加“炉火纯青”:

● 首先,通过AI分析公众发布在网上的各类信息,诈骗者可以了解人群的行为习惯、社会身份、经济实力、社交关系等,从而筛选目标人群,并根据不同情况定制诈骗脚本,实现精准诈骗;

● 其次,通过大规模打骚扰电话、盗取微信账号、获取社交平台真人发布的图片和视频,诈骗者可以获取大量素材,并借助深度学习、语音合成等AI技术制作出极为逼真的“换脸视频”、“合成音频”,伪装成受害者的家人好友,骗取其信任并实施诈骗;

● 最后,由于AI生成的内容很难被检测和辨认,受害者及其亲友往往难以在第一时间发现被骗,增加了后期破案和追缴资金的难度。

环环相扣之下,对于AI技术缺乏了解的普通人来说,AI诈骗变得更加防不胜防。

其实,AI诈骗由来已久。早在2019年,一名诈骗者就利用AI语音模仿软件,假扮公司高层,甚至模仿了对方带有德语口音的英语,成功骗取一家英国能源公司CEO的22万欧元(约合人民币170万元)。这起案件被认为是全球首例AI诈骗。

加强AI监管,防止技术滥用

如何更好地让AI、大数据等技术发挥正向价值,减少AI诈骗的风险隐患?法律法规是行业规范发展的必要前提和保障。当前,全球都在努力应对AI带来的挑战,制定法案加强监管。

2023年6月5日,为打击虚假信息,欧盟委员会副主席向谷歌、抖音国际版、微软、Facebook和Instagram母公司Meta等超过40家科技企业要求,检测人工智能(AI)生成的图片、视频和文本,并向用户提供明确的标记。同时,欧盟正在制定《人工智能法案》,以加强对AI的监管,这一草案已于6月中旬经欧洲议会表决通过,进入立法谈判阶段。

而从国内情况来看,近年来,我国在数据安全、个人信息保护、人工智能等领域相继发布多项政策法规,并在规范深度合成、生成式人工智能方面走在世界前列。

2023年1月10日,《互联网信息服务深度合成管理规定》施行,要求在提供智能对话、仿声、人脸生成/替换等可能会导致公众混淆或误认的深度合成服务时,应当在合适位置向公众提示深度合成情况。

2023年7月,国家互联网信息办公室等七部门联合公布《生成式人工智能服务管理暂行办法》,自今年8月15日起施行。其中提出,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管,明确了提供和使用生成式人工智能服务总体要求。这也是全球首个全面监管生成式人工智能的立法文件。

在政策法规的规范及引导之下,AI、大数据等技术也将得到高效和良性的发展,留给AI诈骗的空间也会越来越小。

以科技为力量 打造安全盾牌

技术是一柄双刃剑。在面对一项崭新的技术时,我们需要用新的法规来约束、指引其发展,也需要与时俱进,充分运用AI等技术打造更强大的防护盾牌来守卫数据安全。

一方面,我们需要增强识别AI生成内容的能力,从而为普通人提供更多提示和预警。目前对AI生成内容进行判断的途径主要有两种:一种是通过算法识别AI模型生成内容的特征,从而鉴别相应内容是否由人工智能生成;另一种是对AI生成内容添加特定标识,以此区分相关内容是否由人工智能生成,如采用数字水印等加密技术。

另一方面,我们需要运用科技力量来更高效地打击AI等网络诈骗。在这一领域,国内部分企业正在积极行动。

君联资本所投企业科大讯飞近日成立了“反诈AI研究所”。该研究所将依托智能语音和其他人工智能技术应用,助力公安机关打击和预防电信网络诈骗犯罪工作。通过构建“打防宣”三位一体的反诈新格局,科大讯飞致力于提供更有效的解决方案。

联想之星被投企业达观数据则以警务机器人为技术突破口,使用RPA模拟人的鼠标、键盘操作,代替人与业务系统进行交互,自动化执行业务流程中的一系列处理动作,提升办案效率。例如,达观数据RPA机器人助力某公安反诈中心,构建反诈新格局,大幅度缩减调证、止付、冻结、续冻、预警等流程时间,为阻断诈骗、追缴资金争取宝贵的时间窗口。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

Meta 的人工智能“人物角色(personas)”可能下个月推出

据英国《金融时报》报道,Meta 最早可能于下个月在其服务(包括 Facebook 和 Instagram)中推出人工智能驱动的“人物角色”,为用户提供一种新的搜索、获取推荐以及与其产品互动的方式。英国《金融时报》援引与公司三位内部人士的对话指出,聊天机器人可能具有鲜明的个性,其中包括一个能“以冲浪者风格”提供旅行建议的聊天机器人,还有一个能以亚伯拉罕·林肯的风格对话的聊天机器人。

即将推出的产品可以帮助 Meta 在两个方面展开竞争。一方面,面对 TikTok 等公司的竞争,内置聊天机器人可能是提高 Facebook 和 Instagram 等服务参与度的一种方式。另一方面,聊天机器人可以作为 Meta 人工智能能力的展示,因为它与微软支持的 OpenAI 和谷歌的 Bard 竞争。

Meta 首席执行官马克·扎克伯格公开表示,他计划将“人工智能角色”构建到公司的产品中。今年二月,他宣布成立一个专注于生成人工智能的新产品组。“从长远来看,我们将专注于开发能够以多种方式帮助人们的人工智能角色,”扎克伯格写道。“我们正在探索文本体验(例如 WhatsApp 和 Messenger 中的聊天)、图像体验(例如创意 Instagram 滤镜和广告格式)以及视频和多模式体验。”

“我们正在探索文本体验……图像……以及视频和多模式体验”

6 月初,应用程序研究员 Alessandro Paluzzi 在 Instagram 应用程序中发现了新的“与 AI 聊天”功能的迹象,该功能将能够以 30 种不同 AI 个性的方式回答问题并提供建议。据泄漏消息称,聊天机器人还可以帮助用户撰写消息。

扎克伯格在上周的财报电话会议上再次提到了该公司的人工智能举措。他表示,该公司正在使用自己的 LLaMA 大语言模型来构建它们。“你可以想象人工智能可以通过多种方式帮助人们在我们的应用程序中联系和表达自己,让分享内容变得更容易、更有趣的创意工具,充当帮助、教练或帮助你与企业和创作者互动的代理。以及更多,”首席执行官说。有关 Meta 人工智能路线图的更多详细信息预计将在 9 月份的 Connect 开发者活动中公布。

尽管首席执行官的评论强调了此类聊天机器人可能为 Meta 用户带来的好处,但英国《金融时报》指出,它们还可以为公司提供更多有关用户兴趣的数据,以帮助进行广告定位。在过去的几个月里,竞争对手社交媒体公司 Snap 已测试将赞助链接添加到其由 ChatGPT 驱动的 My AI 聊天机器人中。

Meta 的发言人没有立即回应 The Verge 的置评请求。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

被AI大牛押注的智能体,居然拍摄了一集《南方公园》

前段时间,前特斯拉总监、OpenAI大牛Karpathy的一句话,引起了业内的关注。

在7月初的一次开发者大会上,Karpathy声称:“我被自动驾驶分了心,AI智能体才是未来!”并表示将来会全力投入对智能体的研发工作中。

其实,早在2016年,当Karpathy开始在OpenAI工作时,就已经锚定了智能体的方向,只是由于当时的研究方法还不成熟,所以Karpathy才转去做了自动驾驶。

那么,这所谓的“智能体”究竟是什么?为什么会让这位AI大牛长久地念念不忘?

如果用一句话来回答这个问题,我们可以说:

智能体的出现,不仅是AI发展的下一个方向,也是其真正走进人类生活的开始。

何谓智能体
到底什么是智能体?
如果我们将现在的生成式AI,比作一个人的话,那么它只具有了大脑(大语言模型),但却没有身体,因此只能躺在服务器上,做一些处理文字、生成图片的工作。
智能体,就相当于是大模型的“身体”,有了它,大模型才能在更多的领域施展身手。


那智能体究竟能做什么?
最近,一个名叫Fable的初创公司,发布了一个节目统筹智能体(Showrunner),如同一声惊雷炸响,让人们再次见证了智能体的强大。

通过这样的智能体,Fable制作出了一集完全用AI拍摄的《南方公园》!

从编剧、动画、导演、语音、编辑……到剧集制作的全流程,都是由AI完成。
在整个制作环节中,通过自然语言,给不同的智能体分配了各自的目标,人类导演只需要给出一个高层次的构思提示(标题、概要、事件),这些AI智能体就会开始「自导自演」。
之后,人类几乎就不用进行任何干涉了!

在制作过程中,不同的AI智能体,担任了不同的角色,如演员、导演、剪辑等,它们彼此分工合作,互相配合,最终完成了整部影片的制作。

而同样的,类似的案例,也出现在前段时间清华团队的研究中。
7月19日,清华团队用ChatGPT打造了个零人工含量的“游戏公司”——ChatDev,只要你提出想法,从设计到测试的完整流程,都由AI帮忙搞定。

Fable与制作《南方公园》的思路类似,在游戏开发的环节中,ChatDev的十多个智能体也分别担任了这个“公司”中的策划、程序员、设计师等不同的岗位。

在项目开始时,人类可以对这些AI提出一个大概的想法或创意。
之后,各个智能体之间就会进行一系列讨论、制作、测试的环节,整个过程完全不需要人类的参与,全是自动进行的。

由此可见,有了智能体之后,大模型就能根据人类给出的规则和策略来做出决策,而不需要人类的干预或指令。
在这个过程中,智能体还会通过习得的经验或知识,来改善自己的性能和适应性,并根据目标函数或奖励函数来评估自己的行为。
而这样的能力,是以往的大模型(LLM)无论如何都不具备的。
因此,LLM即使再聪明,也是一个没有身体的“大脑”,而正是智能体的出现,让LLM有了行动的能力,有了自主完成复杂任务的能力。
而这样的能力,正是LLM下一阶段进行在应用层面进行落地的关键。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

重新构想室内设计,探寻Wayfair 生成式人工智能解决方案

在线家具零售商Wayfair最近宣布推出Decorify,这是一种新颖的生成式人工智能解决方案,可以重新构想整个室内设计流程。这是一个典型的用生成式人工智能来提供居家装修方案的典型案例,由此我们也把这篇内容归类到#万有AI 系列之中。

从推出开始,该产品将在试点计划中推出,用户只需上传自己空间的图片即可想象自己不同风格的家。使用上传的图像作为启动提示,Decorify 会生成多个室内设计选项,同时提供进行相关购买的直接链接。他们也起了一个口号,叫Meet Decorify™, your shoppable AI interior designer.翻译一下,就是“遇见 Decorify™,你买得起的AI室内设计师。”具体是怎样一种表现呢,也正如下方gif图片所示。

Wayfair 首席技术官 Fiona Tan 表示:“我们为客户开发或部署的任何东西……都必须支持我们的使命,即帮助任何地方的每个人营造家的感觉。” 
通过这种务实的视角来看待生成式人工智能,能够确定部署开发资源的地点和时间的优先顺序,并确保像 Decorify 这样的应用程序让客户满意。Wayfair 已经在客户服务和营销等关键业务领域使用生成式人工智能。

Decorify 的设计之旅是如何进行的?

通过可通过移动设备和桌面设备使用的 Decorify,Wayfair 为用户提供了开源扩散模型的访问权限,购物者只需上传其空间图片并选择他们想要的家居风格语言即可开始他们的设计之旅(例如中世纪现代风格或波西米亚风格)。使用输入,该模型可以在几秒钟内为该空间生成多个设计选项,使用户能够探索并关注与他们的风格相匹配的外观和感觉。

一旦用户选择了一种风格,他们就可以点击该设计中的各个元素,并获得直接从 Wayfair 购买类似商品的链接。这些产品建议是由根据公司产品目录训练的计算机视觉模型生成的。Wayfair 的研发总监 Shrenik Sadalgi 表示,Wayfair 使用建筑限制,因此设计输出看起来像购物者的空间,以提供一种熟悉感,但同时风格完全不同。Sadalgi 指出,整个生成过程是迭代的,公司会随着时间的推移不断微调提示和模型。它在输入和输出上放置了 NSFW(“工作不安全”)过滤器,以防止模型产生幻觉并生成不适当的内容。然而,它们似乎仍然可能包含一些小的幻觉,这些幻觉可能是整体设计的一部分。通过 Decorify(和图像生成),我们意识到图像和设计可以是完美的,也可以是不真实的或无意的,但它们的目的是激发灵感。Sadalgi 强调,“我们对 Decorify 的思考方式是,如果您尝试使用 Wayfair 目录中的数百万种产品创建一个潜在空间,您可能会得到与开源扩散模型的潜在空间大小相似的东西。该理论认为,生成的输出与我们目录中的一组产品之间始终存在一些相似性映射,即使设计输出并不完美,尝试映射它也可以为客户提供价值。”

也就是说,这只是 Wayfair 实施面向客户的人工智能的第一个版本。当客户使用 Decorify 发现新设计(甚至是带有小幻觉的设计)时,该公司将继续利用其专有的品牌数据改进扩散模型。 这将使该公司能够生产出更接近客户在 Wayfair 及其独家品牌上体验的鼓舞人心的图像的设计。“你可以想象设计如何包含更多一对一匹配的 Wayfair 产品,甚至让客户首先从产品列表开始,然后用他们空间中的产品进行设计,”他补充道。

生成式人工智能并非首次实施

虽然 Decorify 目前可供美国所有购物者使用,但这并不是家具零售商首次实施生成式人工智能。 在Transform 2023上,Wayfair 定价和营销科学主管 Wilko Schulz-Mahlendorf 表示,该公司正在为其销售和服务团队使用 gen AI,但在循环中进行人工监督。他强调的常见用例是内容生成、文本摘要、产品推荐以及向代理提供最佳操作建议。“我们拥抱新技术,就像之前的人工智能浪潮和其他新兴技术(计算机视觉、3D、AR/VR 和空间计算等方面的进步)一样,我们正在积极尝试并采用生成式人工智能组织相关部分的能力,例如为营销团队和客户服务代理创建工具,”萨达尔吉说。 他指出,他们成立了一个工作组,帮助实现技术及其工具、技术和学习的民主化,以便每个团队都有权采用技术能力来推动他们的路线图。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

我国超六成游戏企业应用AI AIGC决定下一个超级入口

作者/  IT时报记者   林斐

编辑/  孙妍

AIGC(生成式人工智能)正深刻地影响着游戏产业未来发展格局。AI会替代人类设计游戏吗?AIGC新浪潮为游戏行业提速了吗?

我国超60%游戏企业应用了游戏AI技术,游戏是受技术创新驱动的产业。”在第二十届中国国际数字娱乐产业大会(CDEC)高峰论坛上,十三届全国政协委员、中国音像与数字出版协会理事长孙寿山透露。 

AIGC为游戏生产提速90%

AIGC已经在游戏行业中得以广泛应用。从内容创作、生产方式到体验场景等都在不断在AIGC的推动下优化升级,AIGC正在驱动游戏产业变革。

“目前在网易,语音生成、原画生成、视频动捕、模型生成等多个关键生产环节,人工智能带来的工作效率提升,可以达到90%。”据网易公司高级副总裁王怡透露,在2017年,网易游戏已经完成了对AI的早期布局,建立起网易伏羲、网易互娱AI Lab等多个研究院、实验室,致力于研发多项人工智能技术,并在游戏工业化全流程中跑通。

不只是网易一家感受到效率的大幅提升。

完美世界联席CEO兼总裁、完美世界游戏CEO鲁晓寅说:“两三年前完美世界就已经开始把游戏开发管线推向智能化。在使用AIGC之前,我们某个项目的进度是一年时间不到10%,但在用了这套AI技术工具之后,两个月超50%的进度已经做完。

在鲁晓寅看来,AIGC极大地提升了游戏的策划、音频、美术、程序等环节的生产力,压缩了游戏整体项目的研发周期,也大幅降低游戏制作成本,对游戏行业是个颠覆性的变革。一方面AI可以应用于游戏内容中,用AI让NPC“活”起来,通过对NPC表情、声音、对话等的训练,可以让玩家自定义声音、背景音乐等,在不同情绪、不同环境等状态下跟玩家进行对话。另一方面可以优化生产环节,比如策划文案和程序基本脚本,都可以使用AIGC工具大大加速工作效率。

目前完美世界已将AI技术应用于研发管线的多个环节中,如智能NPC、场景建模、AI绘画、AI剧情、AI配音等,也正在尝试AI融合驱动的完整形态案例——复合应用AI in Game Play,包括场景信息、角色信息、情节发展、玩家行为、对话等均由AI演算。将AI融入游戏玩法中,为不同玩家提供不同的感官及游戏体验。

AI替代潮冲击游戏业

AIGC在游戏领域的应用,是否会取代人类员工,是否会造成产品同质化问题?业内人士和行业专家表达了担忧,北京酷斯塔夫文化发展有限公司董事长宋柯表示,AIGC对于音乐产业发展的冲击比MP3时代更大,它对整个音乐生产制作都产生了深刻的影响,应当投入更多资源保护有才之士。

但Unity中国总裁张俊波的态度较为乐观,他认为创新是游戏的核心竞争力,运用AI生成制作,虽然能够降低美术原画成本,但也有可能造成游戏策划的相似性和资产的同质化,因而游戏开发者需要在玩法上投入更多资源和注意力,做更多游戏玩法方面的创新。

ChatGPT无疑是全球AIGC领域最亮眼的明星,微软慧眼识珠率先与OpenAI这一明星公司合作,抢得先发优势。微软大中华区Azure事业部总经理陶然表示,游戏开发创作是人类主导的创意行为。AI、AIGC、大语言模型以AI“创作副驾”的角色辅助人类,帮助人类加速游戏开发、游戏创作、游戏运营,甚至新玩家的获取。但是AI永远不会替代游戏创作者和开发者进行游戏开发和创作,人类一直是主导,而且永远是主导。

“这也就是为什么过去半年之内微软发布了很多CoPilot智能副驾产品,帮助所有业界同行一起用AI加速创作,而非被AI替代创作,这是基本原则。”陶然说道,“在AIGC、大语言模型出来之前,大部分时候游戏开发者、发行、工作室都得在成本、质量、速度中选两个进行侧重,很难全部兼顾,因为技术所限、成本所限、资源所限。但AIGC出来后,尤其是OpenAI的GPT3.5、GPT4.0出来以后,这件事情变成现实,真的可以帮助所有工作室、开发者、发行商高效、低成本、快速地进行新游戏的迭代、研发、运维。”

游戏+AIGC的化学反应已外溢

从AlphaGo打败围棋神话,到OpenAI用《我的世界》等游戏训练,推出ChatGPT,游戏一直是AI的最佳“陪练”。到今天,这种“单向赋能”,已经走向了“双向奔赴”,人工智能开始越来越多地深入游戏产业的全环节。

其实游戏行业引入AIGC后,起到的化学反应不再仅仅局限于游戏行业。腾讯互动娱乐副总裁张巍也表示,经过复杂游戏训练后的人工智能,将有望掌握更广泛的技巧和知识,帮助人们解决医疗、交通、工业等现实生活中的问题。随着外溢效应的释放和积累,游戏技术正在成为数实融合的重要工具箱和推进器。

AIGC将决定下一代超级入口。

“属于下一代开发者的时代即将到来,大模型将成为AI新时代的基础架构,插件(Plugins)则会构成AI时代的API接口层。AI时代的数字原生也将涉及文本生成、图像生成、代码生成、语义检索与总结、普惠定制化服务以及提供情绪价值等诸多场景。”微软大中华区副总裁、微软大中华区数字原生事业部总经理田灼描绘了AIGC的应用前景。

今年7月,网易伏羲推出了国内首台无人装载机,通过数字挛生、大数据等技术能力,实现了识别环境、制定动线、作业监控等生产全流程的无人作业。现在,这台无人装载机已经开进了沪通铁路上的智能混凝土搅拌站,正在24小时不间断作业。到今年年底,随着无人装载机的批量交付,建筑师傅们将告别这一危险作业环境。

在河南,网易的沉浸式活动平台“瑶台”,协助当地文旅打造了包括大宋东京城、黄帝故里、老君山在内的19个文旅元宇宙场景,这一项目即将上线。

在我国,每位飞行员的职业生涯内,都需要在模拟机上完成超过1000个小时的飞行训练。腾讯与南航在今年6月推出了我国首个完全自研的全动飞行模拟机视景系统。该系统是基于腾讯自研游戏引擎,以及南航虚像显示技术等共同打造,首次实现全局动态光照,为飞行员重建一个和物理世界几乎相同的拟真世界,能为超过8万的民航飞行员提供更高效、更安全的飞行训练。

“不仅如此,通过游戏PCG与AIGC技术,半天可以完成一座大型城市的全景建模,三天即可高精度复原一座机场,使数字资产制作效率提升10倍以上。在尖端装备领域的突破中,我们看到了游戏科技作为数字生产力的巨大价值和可能性。”张巍说道。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI会比人类更懂宇宙吗

凭借快速准确处理、分析和模拟大量数据的能力,AI可以帮助科学家识别并检测出人类可能无法立即理解的数据,进而做出预测,有望彻底改变我们对宇宙的理解。

吴家骥

西安电子科技大学电子工程学院教授

近日,埃隆·马斯克官宣成立人工智能(AI)公司xAI,其首要目的是试图理解宇宙,专注于回答深层次的科学问题。

茫茫宇宙,未知似乎永远大于已知。那么,AI能够帮人类理解宇宙吗?让AI帮助人类理解宇宙,有哪些技术路线?未来,AI和人类又将如何发挥各自优势,让人类的科学探索之路更加顺畅?

可像生物一样自我学习自我“进化”

“从原子核到宇宙诞生,这些都属于宇宙本质的范畴。马斯克宣布成立xAI的目标是要理解宇宙本质,因此他所期望做出的AI一定要比所有其他AI竞品具有更深刻、更底层的智慧境界。”近日,西安电子科技大学电子工程学院教授吴家骥接受科技日报记者采访时说。

在马斯克看来,这个竞品很大程度上就是ChatGPT等生成式AI。很多生成式AI都能够回答人类提出的问题,那么它们与马斯克所设想的能理解宇宙的AI在技术原理上有何不同?

吴家骥解释道,生成式AI主要通过学习和提取样本中的规律进而生成新的数据,它更侧重于预测和生成自然语言,在文本或图像等领域的应用较为广泛,但深度和广度相对有限。而能够理解宇宙的AI不仅要能生成新的数据,更要关注如何深入理解和解析宇宙中的各种信息、事物的发展规律以及事物的完整结构,其深度和广度相对来说也更深更大。这就需要AI具备更强的智能水平和泛化能力,以及更高的认知和“想象力”水平。

但是AI并不具备思维能力,不具备思维能力的AI又怎么能深入理解各种问题并帮助人类探寻事物发展规律呢?

“人们之所以认为AI不具备思维能力,是因为以往的AI都是依赖大量已有数据训练出来的,无法突破在训练数据基础上构建的知识边界。但马斯克设想的AI可能将使用组合式递归神经网络(RCNN),它能让AI做到像生物一样自我学习、不断‘进化’,进而涌现出不可预知的自我启发能力,甚至是解决未知问题的能力。”吴家骥说。

那么,让AI拥有这些能力需满足什么条件?吴家骥认为,这需要有大量的数据、完善的算法和强大的算力及存储能力的支持。数据是AI的“饲料”,AI需要数据才能进行深度学习;具备自主性和适应性的算法是AI深度理解和解析宇宙中各种复杂信息和规律的关键;强大的计算和存储能力则是AI的“后勤保障”,是AI发挥其应有能力的底座。有了这些条件,才能初步构建出能够理解宇宙的AI。
训练能理解宇宙的AI有两条技术路线

宇宙浩瀚而复杂。为了理解宇宙的本质,科学家需要分析来自望远镜、卫星和其他观测仪器的大规模数据,而分析处理数据正是AI的强项。

“凭借快速准确处理、分析和模拟大量数据的能力,AI可以帮助科学家识别并检测出人类可能无法立即理解的数据,进而做出预测,有望彻底改变我们对宇宙的理解。同时,考虑到宇宙中存在大量不可观测的暗物质,因此科学家可能需要利用具备一定启发学习和创造能力的AI开展假设性思想实验。”吴家骥表示。

比如,天文学家们试图构建宇宙模型来解释宇宙的起源、演化和结构,然而目前囿于算力,各类宇宙模型都只能用有限的特征来描述它,这对于庞大的宇宙来说并不准确。吴家骥指出,如果利用AI for Science(即人工智能驱动的科学研究)的思路,通过结合已有的天文观测数据和人工智能技术,就有可能探索出新的宇宙模型。这种模型具有非常好的表征能力和泛化能力,可以在没有大量数据标记的情况下进行自我学习和进化。

那么,训练出能理解宇宙的AI有哪些技术路线呢?

吴家骥表示,具身智能和脑智能是两种较有潜力的技术路线。具身智能是一种综合的智能体,它能够像人类一样主动与现实或虚拟环境交互并从中学习,而非仅在预先准备好的数据中学习。具身智能将会具备更强的逻辑推理能力,降低AI不受控制地输出人类不想要的内容的可能,更加精确地解释和模拟现实世界。但是这种技术路线的实现需要大量的虚实数据和计算资源,并且模型的训练和测试速度较慢。

脑智能是通过模拟人脑的神经网络结构和功能,构建出来的数字版“人脑”。它可以让大模型具备类似于人类的感知、认知和决策能力,但是这种技术路线需要解决很多复杂的生物学和神经科学问题,并且模型的构建和训练也需要大量的计算资源,目前还在探索之中。
实现“AI理解宇宙”的目标尚面临诸多困难

“目前,计算机模拟技术是天文学家理解宇宙的重要途径。然而,仅通过使用计算机模拟一个演变了130多亿年的宇宙是非常困难的,因为有无数的变量需要考虑。同理,若想实现‘AI理解宇宙’这个目标,所需要的算力可能也会大到不可想象。”远望智库人工智能事业部部长、图灵机器人首席战略官谭茗洲指出。

谭茗洲说,除了算力的困难外,如果过度依靠观测数据或仿真数据训练AI,也有可能会导致我们对宇宙的理解出现偏差。与任何科学工具一样,将AI与其他方法结合使用以确保结果的准确性非常重要。

在AI理解宇宙的过程中,必定离不开人类的参与。而在有人的地方,就必须确保AI的行为符合人类社会的道德、伦理和法律要求,以保障人类的基本权利和尊严。

谭茗洲强调,我们有必要基于人类社会为AI理解宇宙制订一套道德伦理准则和相应的法律、监管措施,确保AI的行为符合人类的价值观和道德原则。同时,也要研究面向新社会形态的隐私和数据保护技术,以及用于提高模型算法透明度和可解释性的技术。

若AI能理解宇宙,又是否意味着它超越了人类?谭茗洲指出,如果AI能够真正地理解宇宙,它可能确实会在诸如数据存储、数据挖掘等方面超越人类,但也仅仅是这些方面。这是因为AI具备处理和分析大量数据的天然优势,而在创造力、情感体验、感知决策等方面,其与人类还存在较大差距。人类和AI可以相互取长补短,共同发挥各自的优势,最终实现人类社会的可持续发展。

来源:科技日报

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI模特“试衣”走红倒逼监管升级

来源:光明网

据报道,当前不少电商采用AI代真人模特,试穿服装展示商品,还有一些店铺开始提供AI模特图制作服务,如“AI绘图模特生成”“假人换真人模特”等,引发关注和热议。


五官精致、身材完美、四肢纤细,模特着装效果堪称完美,但下单到货后明显货不对版,买家秀与卖家秀,一个天上一个地下。这种尴尬,可能不是买家身材惹的祸。这些商家采用AI模特试穿服装展示商品,试穿服装的模特不是真人,而是人工智能生成的,效果图也是技术反复优化的产物,不具备真实参考性。


毫无疑问,这种“科技狠活”缔造的效果图,再精美也只能欣赏欣赏,不能构成下单与否的参考。可是,消费者通过电商渠道购物,不是来看美图的,而是要通过模特试衣的效果图,评估商品的颜色、款式、尺寸、搭配等,是否符合本人的需要。AI模特试衣的效果图,把真实细节遮蔽了,看似完美,实则是诱导消费者消费,往严重了说,还涉嫌虚假宣传,应当引起足够的重视。


近几年,人工智能等新一代信息技术飞速发展,新技术与传统行业也在不断融合,形成不少新兴的创新业态和应用场景。应当看到,技术的发展是大势所趋,关键是要引导新技术新业态规范发展,形成有助于行业良性发展的健康生态,降低行业成本,提高社会公共福祉。


AI模特试衣的走红,反映了人工智能技术在这一场景中有市场需求。模特试衣是电商商家的刚需,但也成为电商商家的成本。资料显示,有商家采用AI模特取代真人模特后,当月就节约了模特、摄影师等工作人员费用及场地租用费用共4万余元。对于一些小微电商来说,AI模特提供了一种成本低廉的替代方案。


不过,AI模特试衣带来的问题更不容忽视。首先,最直接的,就是现阶段AI模特试衣效果图的真实性、准确性无法保证,不能起到为消费者提供参考的作用。这反映出现阶段技术和算法还存在不小差距,难以达到与真人模特试衣相同或相近的效果。如果后续随着技术的进展,AI模特能够通过算法构建与真人模特试衣近似的效果,那这一模式才能开辟向前发展的进路。


其次,AI模特试衣必须在互联网法治的轨道上运行。从本质上来说,AI模特试衣是一种互联网信息的深度合成,应当遵循现有的《互联网信息服务深度合成管理规定》。例如,该规定明确,“深度合成服务提供者提供人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。”但据调查显示,当前AI模特试衣普遍没有按规定进行标识,这也导致不少消费者受到误导。


此外,AI模特试衣还应规避侵犯他人肖像权的法律风险。一些AI数据库中包含着海量人脸数据,有些数据甚至本身就是通过非法途径搜集,在AI模特图生成中要防止侵犯他人肖像权。长远来看,AI模特试衣服务提供者或可走与真人模特合作的路径,在获得真人模特授权的基础上,利用真人模特的个人生物信息进行图像编辑和创作。
新技术在与传统业态的融合过程中,往往会触及传统监管方式的边界,在这里老办法不管用,而新办法还没有成型,迫切需要监管方式的与时俱进与优化创新。AI模特试衣引发的争论,正是这一时代背景下的新课题。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

福布斯:垂直 AI 是生成式 AI 领域的下一轮革命

图片来源:由无界 AI工具生成

生成式人工智能(AI)的出现引发了各行各业极大兴趣。这项强大的技术有可能彻底改变我们的工作方式,创造新的可能性,并改变各个领域。

本文将探讨什么是生成式人工智能、如何运作、日益增长的势头以及特定行业人工智能(也称为垂直人工智能——Vertical AI)的预期影响。此外,本文还将讨论在现代商业环境中不采用生成式人工智能的后果。

01 什么是生成式人工智能及其工作原理?

生成式人工智能是指人工智能技术的应用,它允许机器自主创造、生成和生产新内容。与依赖现有数据进行分析和决策的传统人工智能系统不同,生成式人工智能利用先进的深度学习模型从现有数据中学习,并以可理解的格式生成原始、现实的输出。

该技术技术通过在大量数据上训练一个模型来捕捉模式、风格和相关性。经过训练后,生成式人工智能模型可以通过从学到的知识中推断生成新的内容,从而使其能够创建原始且通常高度真实的输出。

生成式人工智能因其在简化工作流程、自动化创意流程和释放新机遇方面的潜力而在各个领域获得发展势头。从艺术和娱乐到医疗保健和制造业,各行各业正在认识到其变革能力。

很明显,生成式人工智能正在成为一种商品。然而,并非所有生成式人工智能都是相同的,它预计会分为两个不同的类别:通用和垂直。

ChatGPT 和 Google Bard 等通用人工智能模型正变得越来越普遍——由于其通用功能而在各个行业中找到应用。另一方面,垂直人工智能模型的设计更加专业化,将为特定行业量身定制,并提供显著和更直接的投资回报。

02 对垂直人工智能模型的需求日益增长

通用和垂直人工智能模型之间的区别凸显了对特定行业解决方案日益增长的需求,因为企业寻求利用人工智能的力量来优化其运营并释放新的增长机会。

大多数公司需要一个模型,将其大量的行业数据和专业知识整合并转换为有意义的输出,从而提供有针对性的解决方案,以满足特定行业的需求。这些模型需要专门针对其服务的特定行业或用例而设计的专用算法。

例如,在现场服务中,垂直解决方案正在通过解决客户期望上升、劳动力短缺和设备复杂性等行业挑战,改变服务运营。通过利用旨在解决特定服务用例的人工智能,这些解决方案可以帮助组织比以往更快的速度去诊断和解决问题,提供更多自助服务选项,优化资源分配以克服劳动力短缺问题,并实现主动维护以最大限度地减少停机时间。这可以提高运营效率并提高客户满意度,从而为组织提供可持续增长和竞争优势。

麦肯锡的一项研究指出,“在一家拥有 5000 名客户服务代理的公司中,生成式人工智能的应用使每小时的问题解决率提高了 14%,并将处理问题所花费的时间减少了 9%。它还减少了代理人的流失,并将与经理通话的请求减少了25%。” 最终,该报告证实,这些好处很大程度上是由于“人工智能帮助经验不足的代理人使用与技能较高的同行类似的技术进行沟通”。

垂直人工智能的另一个重要区别在于能够将主题专业知识纳入模型中。我们的内部数据显示,在领先的服务组织中,有三分之一的服务解决方案在历史服务数据中无法找到。相反,任何问题的最佳答案都可以在主题专家提供的数据中找到,这强调了将人类专业知识纳入数据集的重要性。

一些垂直人工智能解决方案具有将专家知识数据化的能力,这意味着它们可以将公司专家头脑中存储的知识转换为合成数据。通过利用主题专家的知识,人工智能模型可以实现更加个性化和可靠的结果。

03 企业如何整合垂直人工智能战略

对企业来说,纳入垂直人工智能战略可能是一次变革之旅。以下是开始这一旅程的三个步骤:

1. 确定相关垂直领域和用例。对业务流程、客户需求和市场趋势进行全面分析,以确定人工智能可以带来价值的领域。在这些垂直领域中寻找人工智能技术可以提高效率、加强决策或创造新机遇的具体用例。例如,如果你在服务行业,你可以考虑将人工智能应用于设备诊断和故障排除、知识管理或劳动力管理。

2. 培养内部专业知识。制定垂直人工智能战略,需要在人工智能技术及其在所选垂直领域的应用方面建立内部专业知识。这可以通过聘请人工智能专家、提高现有员工的技能或与外部专家或顾问合作来实现。

3. 从试点项目开始。通过在已确定的垂直领域启动小规模试点项目来开始你的旅程。这些项目将允许你测试与在现实场景中实施人工智能解决方案相关的可行性、潜在影响和相关挑战。

04 忽视生成人工智能的后果

生成式人工智能代表了人工智能的重大突破,正如前面提到的,这项技术有望成为一种商品。企业是否利用通用人工智能或垂直人工智能将取决于他们,但那些忽视这项技术的人可能会面临重大挑战。如果不利用生成式人工智能的力量,公司就有可能落后于竞争对手。他们可能面临运营成本增加、决策过程变慢以及错失自动化和优化的机会。

随着生成式人工智能的不断发展,企业探索其可能性、将其集成到工作流程中,并利用其功能来取得新的成功至关重要。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI彻底火了!地下850米最新实探

中国基金报记者 冯尧         

提及煤矿,很容易令人联想到矿工的满面乌黑、“闷热”“潮湿”的工作环境、甚至时而发生的矿难……在过去,这是众多煤矿的真实现照。然而如今,一切正在变化,变量则来自于“AI大模型”。         

自ChatGPT带火整个AI赛道后,国内大模型如雨后春笋般出现。据不完全统计,目前国内已有93个大模型公开发布,逐渐形成“百模大战”之势。         

以ChatGPT为代表的通用多模态大模型在问答、写作、作诗方面展现了“惊艳”的一面,但随着市场回归理性,人们不禁要问:大模型除了聊天、创作外,还能干些什么?         

截至目前,已经有不少科技巨头将目光投向B端。华为近期发布了“不作诗,只做事”的盘古大模型3.0,聚焦行业场景、垂直领域;曾经试图对标ChatGPT的百度文心一言也将视线转移至能源、汽车制造等领域;腾讯云也试图做行业大模型解决方案。       

 近日,中国基金报记者实探了位于山东西南部的多处煤矿。其中最深的矿井位于菏泽市巨野县的新巨龙煤矿,其开采深度达到810米至950米,这有如将全球最高楼迪拜哈利法塔向下倒砌。         

而记者在实探的掘进工作面位于地下约850米处,乘坐罐笼(矿井中的升降电梯)下到矿底,足足需要三分钟时间。而在暗无天日的矿下驻足数小时,时间仿佛都在加速。         

值得注意的是,先于记者下矿井的,还有AI大模型。那么,AI大模型如何在地下超800米之初,改变煤矿人的作业方式?如何与矿山开采发生“化学反应”?         

大模型如何在矿井下运行?         

“在我刚毕业的时候,煤矿每年的事故率在5%左右,矿工一直是高风险工种,”山东能源党委常委、副总经理刘健对记者坦言。在他看来,“如何留住人”一直是煤矿企业需要解决的棘手问题,如何让更少的矿工面临高风险,是行业内部重点研究探讨的问题。         

通过何种方式可以让更少的矿工下到矿井中?如何让井下工作时间缩短?         

记者日前实地走进了新巨龙煤矿,该矿是山东能源鲁西矿业旗下主要煤矿之一。新巨龙煤矿于2004年6月份开工建设,2009年底投产运营,矿井核定生产能力600万吨/年,保有资源储量10.8亿吨。据工作人员透露,该矿至少还可开采47年之久。         

记者换上矿工的装备后,乘坐罐笼经过近3分钟下到地下约850米的矿井内。随后,记者又换乘通勤车在如地下迷宫般的隧道内穿梭。         

从出罐笼到抵达掘进工作面,通勤车足足开了约半小时。据新巨龙工作人员介绍,这段车程行驶距离超过10公里。很难想象,在超800深地下,还盘踞着如此庞大的地下网络。而下车后,仍需要步行数百米,才能真正达到掘进工作面(如图),整个过程犹如“地心历险记”。

不过,与想象中不同的是,矿井中并没有出现粉末飞扬的场景,相反是一系列设备井然摆放。整个路程中,仅看到为数不多的几位工作人员作业。同时,每隔一段距离就能看到摄像设备、无线基站等设备。

据新巨龙煤矿副总经理牛永明告诉记者,国内煤矿的煤层普遍较深,开采难度相较于国外难太多,“比如在澳大利亚,多数煤矿是露天矿,完全不需要下地采掘。”         

据他介绍,在深入地下的煤炭采掘过程中,冲击地压是造成煤矿塌陷最主要因素,是需要防范的最大风险。而中国是世界煤炭行业受冲击地压影响最深的国家之一。         

如何化解这一风险?钻孔卸压工程成为冲击地压防治的主要手段。记者在现场也观察到,钻孔机器是掘进工作面所必备的设备。

上述人士介绍,在采煤过程中,岩体应力猛烈释放会导致事故,通过对岩壁打孔产生一定空间,可以令岩壁压力向孔内释放,从而避免向采煤隧道内挤压。因此,在卸压钻孔施工时,人员操作不当,比如深度不够、角度错了等,会影响卸压效果,继而导致安全隐患甚至事故。         

其中,钻孔深度是防冲卸压工程最关键的参数之一。记者在钻孔卸压工作面观察到,钻孔机器上安装着高清摄像设备以及其他相关传感器设备。据牛永明介绍,AI大模型可对钻孔施工情况进行实时监测,可实现钻孔深度自动核验、孔深不足及时提醒,避免漏检、迟检,减少人工核验工作量。

         “过去,我们在检查矿工作业的规范性方面,通过执法记录仪对打钻的全过程录像,录像完成后再带出矿井,再由专人对视频进行核查,也就是说视频现场如果拍了一个半小时,那地面上的人就要看一个半小时,非常耗时耗力,”新巨龙煤矿防冲中心主任贾海滨直言。       

 而大模型下地之后,地上工作人员通过AI大模型视觉识别能力来识别矿工是否打钻达标。据记者随后在地上指挥中心观察,盘古大模型通过前期学习,可以准确识别包括矿工、设备在内的各种井下物件。当矿工操作不规范时,可第一时间作出提醒,极大降低了沟通的时间成本,同时降低了防冲工作风险。

据贾海滨透露,“过去一个钻孔卸压小组需要14-16人左右,而现在仅需要4-5人即可。而在地面,1位地上人员可以监测5、6个工作面场景。”         

他介绍,用了AI识别后,一是增强了实时性,从之前隔天核验到现在现场完成核验,卸压孔深度不足时系统及时提醒,冲击地压监控中心可实时查看井下工程施工情况,发现问题及时整改。二是减少了人工核验工作量,从之前人工审核一个卸压钻孔耗时15分钟到使用AI后人工审核时间降低到3分钟,降低人工核验工作量80%。

大模型赋能产业的缩影         

记者在新巨龙煤矿矿井中所见的景象,也仅仅是大模型运用于采矿工作场景之一。大模型另一个场景是选煤环节,选煤过程中避免粗颗粒物进入介质回收环节,是保证选煤效果的关键因素。       

 记者李楼煤矿看到,为解决“跑粗”发现不及时难题,该矿通过在稀介桶内加装截粗装置和摄像仪,在边缘推理设备上部署AI模型,实时分析截粗装置上的粗颗粒物堆积情况,及时告警提醒,同时推送证据图片,以帮助巡检人员处置,降低工人劳动强度,从而提升选煤效果。

地面监控中心(冯尧摄)         

李楼煤矿同样是山东能源鲁西矿业公司权属矿井之一,这里优质稀缺炼焦煤地质储量达10.8亿吨,可采储量1.78亿吨,年核定生产190万吨。         

另外在鲍店煤矿,该矿也全工艺段采煤机记忆截割、液压支架自动跟机、自动找直、时序自动放煤、煤流智能调速、运输机自动张紧和断链保护等功能保持常态化运行,极大改善了职工作业环境,提高了矿井安全保障水平。         

而上述AI大模型之所以能够“下矿”,要得益于山东能源、云鼎科技依托华为盘古矿山大模型的开发。据华为煤炭军团CEO蒋旺成透露,盘古矿山大模型主要涵盖采煤、掘进、主运、辅运、提升、安监、防冲、洗选、焦化9个专业21个场景应用。         

在细分领域,包括劳动保护用品穿戴规范性监测、人员乘坐架空乘人装置规范性监控、人员误入危险区域及关键岗位行为状态监护、煤矿限员AI监管分析等也均是大模型“发热”的场景。         

那么,大模型何以能在煤炭行业落地?用蒋旺成的话说就是,“智能化程度越低、人员需求越大的行业,往往是AI大模型赋能空间最大的行业。”       

 在煤炭行业中,不少煤矿早期采用传统的人工巡检方式,作业现场多是高温、高危、粉尘、潮湿等恶劣环境,初期采用摄像头远程监控系统,但是需要大量的人力来观看视频发现异常点,且无法完成海量视频异常标注和识别。         在山东能源党委常委、副总经理刘健看来,煤炭行业最应该实现智能化,让机器设备代替人工。他认为,作为企业而言,希望借助大模型视觉能力实现皮带运输、防冲泄压、人员安全、流程合规检查等场景的智能化监测和识别,以大幅降低人力监测工作强度。         

早在2020年2月,国务院八部委联合下发了《关于加快煤矿智能化发展的指导意见》,明确要 求将人工智能、工业互联网、云计算、大数据等新技术与现代煤炭开发利用深度融合。          

而在2022年8月,科技部发布《关于支持建设新一代人工智能示范应用场景的通知》,明确提出促进人工智能与实体经济深度融合和支持以智能矿山等为代表的新一代人工智能示范应用场景工作。         

实际上,政策接连出台也为大模型“下矿”提供支撑。据了解,山东能源在国内外共有85处煤矿。自2021年以来,该公司已投入100多亿元进行矿井智能化建设,建成了133个智能化采掘工作面、24个5G+智能矿山应用场景,9处国家级智能化示范矿井全部通过验收。         

根据规划,“十四五”期间,山东能源还计划投入资金300亿元,建成一批多种类型、不同模式的智能化矿井。“目前集团已建成300多个智能化采煤工作面,智能开采产量占比超过80%。煤矿智能化工作开展以来,累计减少井下作业人员1.2万人,”刘健表示。         

值得一提的是,大模型能够实现“下矿”,合作模式也是不容忽视的环节。早在2022年1月,山东能源、云鼎科技、华为三方联合成立了联合创新中心,三方依托盘古大模型建设了人工智能训练中心,实现了中心训练、边缘推理、云边协同、边用边学。         

换言之,山东能源提供商用场景、华为提供盘古大模型的底座,而云鼎科技基于盘古大模型底座,承接人工智能训练中心场景落地任务。实际上,该模式也给市场提供了一个大模型商用路径的模板。         

在华为方面看来,能够拥有落地场景作为试点平台,对于大模型产业落地至关重要。蒋旺成对记者直言,过去阻碍大模型商用的最大阻力其实是两端存在难以突破的隔膜,即“打造大模型的科技类公司了解大模型,但却对商用行业不甚了解;而商用的行业人士对所处的行业了解,却不懂大模型”。         

头部玩家才能享用大模型?       

随着市场对于大模型的态度日益理性,能否应用落地并且具备商业化能力,逐渐成为检验大模型成功与否的标准。业内普遍认为,不同于传统C端消费互联网,B端产业才是大模型的主战场。         

此前,华为盘古大模型已经明确表示“不作诗、只做事”,而曾经试图对标ChatGPT的百度文心一言也将视线转移至能源、汽车制造等领域;腾讯云宣布做行业大模型解决方案;科大讯飞的星火认知大模型也将包括汽车、教育作为“降落点”。         

浦银国际一份研报认为,行业大模型或成为衍变趋势。该机构认为,未来大模型会进一步分化为通用、专用和特定场景,通用大模型并不能解决很多企业的具体问题,而模型的大小,主要还是取决于企业用户的自身需求,企业的大模型应用需要综合考虑行业专业性、数据安全、持续迭代和综合成本等因素。         

不过,从目前来看,AI大模型在B端商用仍处于在探索阶段的初期,仍面临许多亟待解决的问题。以煤炭为例,当前能够为AI大模型提供商用试验场所的,局限于行业的大型头部企业。         

首先,盘古大模型之所以能够“下矿”,一个不容忽视的前提是山东能源前期投入大量财力物力,已经初步完成其煤矿的“数字化改造”,并能实现数据互通。简而言之,便是数字化改造“第一步”,大模型上路“第二步”。       

 “我们曾经遇到一处煤矿,井下就有超过20种系统,操作起来非常复杂,”华为矿山军团一位相关负责人对记者直言。该人士所提及的矿井中,设备所使用的基本国外厂商系统,均处于封闭状态,互不通信。而且外方供应商非常强势,并不开放数据接口。在这种状况下,AI大模型稳定运行几乎是“不可能完成的任务”。         

在记者采访过程中,新巨龙煤矿方面也侧面印证了上述说法。据新巨龙煤矿相关负责人透露,在数字化转型过程中,曾面临矿山、装备和通信数据编码不统一、通讯接口不兼容、传输协议不开放、系统集成难度大等突出问题。“光打通数据接口,实现数据共享就花了两个月时间,”该人士称。         

而且,据其透露,要实现大模型运行,底层生产系统的基础条件要具备。比如,需要的传感器要齐全,要使用高可靠性的装备;在架构上,按照工业互联网架构来设计信息化系统。         

事实上,仅仅是完成数字化改造,便需要耗费大量财力物力。从国内企业已推进数字化转型所处的阶段来看,大多数企业还处于转型初级阶段,已完成数字化转型的企业为数不多。         

也就是说,目前来看,将大模型实际运用于商业场景,更像是头部玩家的“游戏”。         

在业内看来,煤矿智能化建设本身是一个极为复杂的系统工程,面对复杂的自然环境,想要真正实现智能化非常困难。在记者采访的多位人士看来,要真正全面、系统实现智能化升级,还需从网络、平台、标准、人才培养等多个领域统筹兼顾、协同推进。       

 华为方面也提及,目前AI大模型在行业中落地过程中,各项参数目前缺乏明确统一标准,“比如大模型的判断,精确到什么程度,目前是根据各个试点企业实际需求出发。”该人士也提及,未来需要更多企业加入进来,便会逐渐形成生态,行业标准设定才会进一步规范。不难看出,AI大模型的行业落地长坡厚雪。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

全球首款!澳洲推出AI创造的啤酒!配方设计全AI完成,酿酒师原地失业!这些人未来也要糟

现如今的人工智能越来越先进,特别是ChatGPT出现后,不少人都感到了前所未有的职业危机,

我们的工作岗位要被AI取代,

可能不久之后就会成为现实!

本来还有不少人表示,虽然AI很先进,但是一些需要更多经验或者味觉的工作,冰冷的机器是无法替代的。

只是,

这些人现在已经被打脸了!

澳洲酒厂推出

全球首个AI研发啤酒

新州的酿酒厂Modus Brewing全澳闻名,旗下多款啤酒深受喜爱。

就在最近,Modus Brewing搞了一手花活,它们与Absolutely A.i.来了一次跨界合作,

就想看看AI系统能不能代替酿酒师,

创造出酿酒配方表!

本来酒厂内的酿酒师对这个所谓合作嗤之以鼻,酿酒依靠的是经验和技艺,还有对酒类味道的熟悉度。

AI系统根本没有人类的味觉,怎么可能创造出口味独特的啤酒?

可是,打脸来得太快!

Absolutely A.i.的系统根据Modus Brewing酒厂提供的资料和之前的酿酒习惯,很快就计算出了一个全新的酿酒配方。

Modus Brewing的几名资深酿酒师只是看了看配比,就预测这个口味很不错,甚至可能会引发不少人的追捧。

Modus Brewing也是直接按照这个配方推出了新款啤酒,

啤酒的包装上直接采用了机器人的元素!

对了,这也是AI自动生成的…

这也是全世界范围内首款由人工智能分析配方酿制的啤酒!

最夸张的是,人工智能生成的这个啤酒配方不仅符合Modus Brewing的酿造习惯,而且还整合了澳洲东海岸居民对啤酒的评论和喜欢的啤酒风格。

也就是说,这个配方是根据澳洲东海岸啤酒爱好者的建议全身升级出来的,怪不得专业酿酒师都对这个配方无比佩服。

Modus Brewing的创始人Grant Wearin表示,这款AI创造的啤酒苦味低,芳香浓郁且口感丰富,具有甜美的麦芽味,可以平衡包含葡萄柚、橙子和百香果的浓郁啤酒花香气。

目前这个被命名为Neural Network从配方到包装设计全部由AI包办的啤酒已经推出,全澳洲各个地方都能购买,

而且销量非常惊人!

这说明了什么?我们的口味都被人工智能轻松拿捏了…

这么来看,靠着经验和味觉的酿酒师,也可能被智能系统取代…

人工智能之下

多少人的工作将会不保

啤酒配方,包装设计AI可以一手搞定,而且啤酒反响良好,这导致的后果是,酿酒师可能很快就要原地失业了,因为一切流程都可以由AI进行操控实现智能化。

不仅更新换代更快,而且产量更高,成本也会大大降低…

这也再次引发了人们对AI的恐惧,是不是随着AI的不断发展,很多工作都可以由AI直接取代呢?

这个担忧随着ChatGPT的火爆,也升到了最高点。

工作大量被人工智能替代究竟是好是坏,现在还无法断言,但如果未来很多职业真的被人工智能取代,可能又将是一个新时代的到来。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群