大模型首献2000万营收 人工智能有望成三六零第三增长曲线

8月30日晚间,三六零(下称“360”)公布了2023年半年报。公司上半年实现营收45.03亿元,第二季度营收25.37亿元,同比增长10.42%,环比增长29.08%。值得一提的是,新兴业务“360智脑”大模型已创造近2000万元相关业务收入,有望成为第三增长曲线。

展望未来,对于360而言,互联网、安全、AI三大增长曲线如能实现“共振”,那么其内在价值的释放速度将远超市场预期。

大模型实现营收近2000万元

在众多企业还在为“百模大战”如何取胜绞尽脑汁的时候,大模型已为360带来了第一笔营收。

财报显示,基于 360 智脑给中小企业客户所提供的 AI 增值服务所带来的良好体验,公司取得近 2000 万元的相关业务收入。2000万金额虽然不大,却是中国大模型走向产业化的重要一步,也是360未来商业前景的“星星之火”,这一数字会随着大模型市场需求的井喷,为360带来更大想象空间。

据悉,在“C-Eval”最新公布的中文大模型能力排行榜上,360智脑大模型平均分超过GPT-4,尤其在社会科学及人文科学两项上表现优异。C-Eval是由上海交通大学联合清华大学、爱丁堡大学构建的中文基础模型评估套件,核心考量大模型的知识和推理能力。

消息人士称,国内大模型陆续通过《生成式人工智能服务管理暂行办法》备案,360智脑也将很快通过备案,面向C端用户提供服务。

360集团创始人周鸿祎认为,大模型是工业革命级的生产力工具,将会带来一场新工业革命。“不仅仅是一个聊天机器人,也不是像抖音这样消磨人时间的娱乐工具。大模型真正的机会在企业级市场,最应该抓住产业发展的机会。”

随着数实融合的进一步加深,在中短期内,基于内容创作和娱乐导向的生成式人工智能场景 应用将有较强的市场潜力。而从长期来看,在产业数字化升级的过程中,金融、医疗、教育、工业等 各行各业的人工智能应用也将快速发展,助力行业降本增效的同时,衍生出更多的创新增量。

据了解,360人工智能大模型坚持“两翼齐飞”策略,一方面发展核心技术,另一方面抢占优势场景落地,比如推出企业级AI大模型解决方案,发起GPT产业联盟,在“360智脑”通用大模型的基础上,与合作伙伴一道推出“税务大模型”“企业服务大模型”等行业大模型,推动大模型产业发展。

周鸿祎在采访中解释,有了通用大模型作为基座后,360可以寻找不同的产业合作伙伴,不同的行业、企业、城市场景来做垂直大模型。

“垂直类大模型,不需要用千亿或者万亿模型,可能用百亿、十亿、几十亿参数的模型,这样整个训练时间、调试成本、部署成本,大概比GPT的成本低至百倍以上,如此才能让大模型走下神坛,让大模型赋能百行千业、走进千家万户,才能成为工业革命。” 周鸿祎称。

迄今,360 智脑已升级至 4.0版本,拥有了包括生成与创作、阅读理解、多轮对话、逻辑与推理、 代码能力、知识问答、多语种互译、多模态、文本改写、文本分类等十大核心功能,能够覆盖大模型应用的所有场景,并且成为唯一通过工信部信通院“可信 AIGC 大模型测评”的国产大模型。

此外,在多次权威大模型测评榜单中,360智脑取得的成绩也一直稳居国内第一梯队。

财报披露同日,由清华大学、上海交通大学和爱丁堡大学合作构建的中文语言模型综合性考试评估套件C-Eval榜单披露,360智脑以69分成绩排名第四,这一分数甚至超过ChatGPT 4。此前5月,360智脑参与中文模型基准SuperCLUE测评,更是位列“国产第一”。

360商业化持续升级 三大增长曲线有望“共振”

回顾近20年的发展史,360可谓经历了多轮商业模式的迭代。

最初,360起家于PC互联网时代。当时,知名杀毒软件都是收费服务,只有360适时推出了免费杀毒服务,以广告展示来盈利,这颠覆了传统互联网安全行业模式,甚至也极大影响了后续中国互联网行业的商业模式。

从财报来看,互联网广告相关业务依然是公司的主力营收来源。上半年,360互联网商业化及增值服务共实现收入 26.81 亿元。截至报告期末,360 PC安全产品的平均日活跃用户数(DAU)近1亿,平均月活跃用户数(MAU)4.7亿,安全市场持续排名第一。

之后,随着360杀毒在短时间内得到大范围的普及,其受众也从最初的C端用户逐步拓展到B端,商业模式出现了跃进式的迭代与变迁,从而形成了多元化的收入来源结构。

财报显示,公司上半年安全及其他相关业务实现营收9.08亿元,其中第二季度收入6.54亿元,同比增长98.76%,环比增长157.16%。安全第二增长曲线已完全成型。

值得一提的是,“安全即服务”是360最新锚定的市场。把安全能力全面“云化”和“服务化”, 360打造了多租户云化安全服务平台360安全云。产品发布两周后,客户数已突破数百家。这对安全服务的红海市场将带来商业模式的巨大颠覆,有望开辟全新的蓝海市场,甚至未来网络安全行业都会变成服务业。

“靠卖盒子已经是红海市场,价格战打得非常厉害,利润率非常低。”周鸿祎分析,“而我们希望通过这件事推动行业的创新。如果再靠卖盒子,市场就是这么大,原来不愿意买的人还是不会买。但通过安全即服务的方式,降低客户的采购成本,就能吸引更多的客户在安全上以适度的投入,来解决安全问题。”

当前,一阵大模型和生成式人工智能的旋风,正在席卷众多领域,安全行业亦不例外。从财报来看,大模型初显360第三增长曲线的潜力。

凭借领先的AI技术,360于6月推出企业级AI大模型解决方案,发起GPT产业联盟,在“360智脑”通用大模型的基础上,与合作伙伴一道推出“税务大模型”“企业服务大模型”等行业大模型,推动大模型产业发展。

作为数字安全龙头企业,360长期进行人工智能安全研究,涉及框架安全、模型安全、生成式AI安全等,累计发现主流机器学习框架的漏洞200多个,影响全球超过40亿终端设备。360将全球前三的安全能力与“360智脑”结合打造出国内首个安全大模型。目前,360安全大模型已在360内部及自有产品落地应用,并可面向市场和用户交付。

作为同时涉足互联网、安全、大模型的企业,360无疑具有独特的竞争优势。“人工智能安全是一个特别大的问题。现在很多做大模型的公司不太了解安全,了解安全的公司又没有能力做自己的大模型。360恰恰在这个中间是一个跨界,本身做互联网安全,也有搜索引擎业务。”周鸿祎提到。

在周鸿祎看来,360未来的使命,一方面用人工智能解决传统安全问题,另一方面用人工智能技术结合安全能力,解决人工智能的问题。“既利用它为人类创造新的文明,同时又能够把它的能力放在一个框架、放在一个笼子里,不要伤害人类。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能会取代基金经理吗? 是的,总有一天

几十年来,人工智能取代人类一直是科幻小说的主题。人工智能通常无法替代的明显的人类部分往往是“情感”部分,也就是灵魂。

这对于那些经常以不带感情色彩地追求利润和客观分析财务数据而自豪的基金经理来说,这是个坏消息,因为它们没有任何太人性化的认知偏见。他们似乎是被没有灵魂的人工智能所取代的主要目标,这些人工智能不仅客观地分析每秒数百万个数据点,而且还能坚决执行基于这些数据点的有效投资策略。 

根据《巴伦周刊》的筛选,迄今为止,只有11只人工智能运营的ETF基金。不过,其他人可能正在幕后使用人工智能。“如果我现在处于一家资产管理公司的位置,我会全面关注人工智能,但更多考虑的是如何从我的业务中剥离一些成本,并提高其运营效率?”晨星公司首席分析师李 · 戴维森(Lee Davidson)说。

对人工智能经理人来说,好消息是指数基金仍然是主要威胁,因为目前由人工智能管理的基金也难以跑赢基准指数。只有一只基金:Qraft AI-增强型美国大盘基金(QRFT) ,业绩跑赢了大市。但随着更多基金的推出和认可机构的“学习”,这种情况应该会随着时间的推移而改变。

用计算机分析股票数据并不是什么新鲜事,这被称为“量化投资”。但是人工智能教会计算机独立思考,适应不断变化的市场、商业或经济环境。这甚至可能最终取代人力资本经理仍在进行的对公司业务的定性分析。 

Kaiju Worldwide 首席执行官瑞安·帕内尔(Ryan Pannell)说,人工智能已经被用来监控与分析师举行的盈利电话会议。Kaiju Worldwide 是一只名为 BTD Capital (DIP)的人工智能 ETF 的子公司。人工智能将会“实时监听”,他说,它不仅会分析高管演讲的文本,寻找影响业绩的关键词,还会“监控首席执行官声音的基调、音调和节奏。由此,它将能够确定市场对(首席执行官)言论力度的可能反应。” 

今天的人工智能ETF基金还远没有那么先进。BTD Capital 对股票采取“逢低买入”的策略。帕内尔表示,挑战在于“找出真正的“低”——一种本质上是人为导致的价格回调。因此,如果你买入,价格将从低位平均回升至高位,你将从价格小幅上涨中受益。” 

问题在于,一些股票可能会因行业或公司的具体情况而下跌,但不会反弹。今年3月,硅谷银行(Silicon Valley Bank)破产,加州其它银行倒闭,就是这种情况。“区域性银行的崩溃是人工智能以前从未见过的模式,”帕内尔表示。这种缺乏理解的情况影响了ETF基金的表现,今年的业绩也不尽如人意。但是 ETF基金的人工智能现在已经“了解了这种模式是什么样的,”帕内尔说,所以它可以减轻未来的损失。 

Qraft 人工智能增强型美国大盘基金采用自适应人工智能系统,根据市场状况调整其对五大股票因素(价值、质量、规模、动量和波动性)的敞口。在过去的三年里,在没有人类经理的情况下,它已经击败了晨星大型增长类别中70% 的同行。 

Qraft Technologies 首席执行官弗朗西斯·奥(Francis Oh)表示,说服家庭投资者相信一台机器是很困难的,所以这些基金规模只有3000万美元。Qraft Technologies 运营着四只基于因子的人工智能ETF基金(AI ETF)。“人类仍然倾向于相信人类的决策,不管他们是否正在获得良好的回报,”他说。

投资者花了几十年时间才接受了1971年发明的自动化指数基金。鉴于华尔街对人工智能的热爱,人工智能可能会更早会被接受。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI算力不止GPU 国产大模型有望“摆脱”英伟达?

自ChatGPT爆火之后,AI大模型的研发层出不穷,而在这场“百模大战”激战正酣之际,美国芯片公司NVIDIA(英伟达)却凭借其GPU在大模型计算中的出色发挥赚得盆满钵满。

而就在近日,科大讯飞创始人、董事长刘庆峰表示:“华为的GPU(图形处理器)能力现在已经跟英伟达A100一样了,现在已经做到对标英伟达的A100。”

华为方面对此并没有回应,不过,多位业内人士对《中国经营报》记者表示,目前,国内在AI芯片领域已经取得了一定的成就,但要与英伟达A100相媲美,还存在一些挑战。

GPU被掣肘

英伟达在去年收到美国政府的通知,通知称:“若对中国(含中国香港)和俄罗斯的客户出口两款高端GPU芯片——A100和H100,需要新的出口许可。”不仅如此,该许可证要求还包括未来所有的英伟达高端集成电路,只要其峰值性能和芯片间I/O性能均大于或等于A100的阈值,以及包括这些高端电路的任何系统,都被纳入许可证限制范围。

不过,英伟达针对中国客户推出了替代型号A800,与原有的A100系列计算卡相比,A800系列的规格基本相同,比较大的区别在于NVLink互连总线的连接速率,A100系列为600GB/s,A800系列则被限制在了400GB/s,综合使用效率只有A100的70%左右。

但即使这样,原本7.4万元左右一枚的A800,现在也涨到10万元以上,并且“一卡难求”。

刘庆峰指出,尽管中国开发的AI算法非常强大,但国内硬件的计算能力传统上落后于英伟达。他提到了中国企业在训练AI大模型方面面临的挑战,这主要是在英伟达的硬件上完成的,企业内部只能做出微小的调优和训练。由于美国对中国超级计算机行业的限制,对英伟达硬件的依赖成为中国人工智能企业的一个主要限制。

近日,科大讯飞与华为共同发布用于构建专属大模型的软硬件一体化设备“星火一体机”让国内的大模型厂商再燃希望。刘庆峰表示,华为在GPU领域取得了重大进展,实现了与英伟达A100 GPU相当的能力和性能。

对此,华为方面并未作出回应。不过,记者注意到,华为并不研发GPU产品,其旗下共有昇腾310、昇腾910两款AI处理器加速器。

深度研究院院长张孝荣对记者表示,目前国内尚未有媲美英伟达A100的能力。英伟达A100是2020年一款高性能计算芯片,2023年最新GPU是H100,具有更强大的AI推理能力和超高的浮点计算性能。虽然国内厂商的GPU能力已经有所提升,但目前还远远没有达到与英伟达A100相媲美的水平。

不过,在天使投资人、资深人工智能专家郭涛看来,近几年来,我国芯片产业高速发展,在一批关键核心技术取得新突破,目前已经具备生产媲美英伟达A100芯片的能力,但若想实现大规模出货仍然面临很多挑战。

全联并购公会信用管理委员会专家安光勇也认为,目前,国内在AI芯片领域已经取得了一定的成就,但要与英伟达A100相媲美,还存在一些挑战。英伟达A100是一款面向高性能计算和人工智能任务的GPU,具备出色的计算和训练能力,但要达到A100的水平仍需要时间。

“中国有很多GPU的初创公司,不要低估中国在芯片领域的追赶能力。”英伟达CEO黄仁勋曾表示。

虽然距离国内厂商赶超英伟达尚有较大的距离,但AI芯片并非只有GPU。

AI场景需要多核、高并发、高带宽的AI芯片。AI芯片,也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块。当前,AI芯片主要分为GPU、FPGA(现场可编程门阵列),及以TPU、VPU为代表的ASIC(特定应用集成电路)芯片。

FPGA属于具备可编程硬件结构的集成电路,其可编程性和灵活性可快速适应不同AI算法要求,但也存在高功耗的问题。ASIC属于专用芯片,通过算法固化实现更高的算法利用率和能耗比,但开发周期较长、灵活性较弱。

郭涛表示,中国在AI芯片领域的研发和生产方面已经取得了一些重要成果,除GPU芯片外,未来有望在CPU(中央处理器)、FPGA芯片、ASIC芯片等多个方面实现弯道超车。

张孝荣也认为,除了GPU之外,国内厂商还可以研发其他类型的加速器,如FPGA、DSP等。这些加速器可以针对特定的AI计算任务进行优化,提高计算效率和性能。除此之外,还可以通过优化算法和模型设计,减少对计算资源的依赖,提高计算效率。例如,剪枝、量化等技术可以减少模型的参数量和计算量。将AI计算能力下沉到设备端,减少对云端计算资源的依赖。通过在设备端进行本地计算,可以提高响应速度和数据隐私保护。总之,国内可以通过不断创新和技术积累,在AI芯片领域有所创新,不要着眼于不切实际的弯道超车,而要以满足实际需求为主,逐渐缩短GPU领域的差距。

安光勇表示,国内致力于发展本土芯片产业,通过政策和资金支持,促进产业生态的形成,这将有助于国内企业在芯片领域进行合作和创新。不仅如此,中国在人工智能算法和应用方面也有很强的优势。即使在芯片技术上难以迅速迎头赶上,通过优化算法和软件,仍可以在性能和效率上取得优势。

实际上,国内的厂商也在不断实现突破。“当前中国大模型中有一半是由华为昇腾AI来支撑的。”今年7月,华为轮值董事长胡厚崑对外透露。华为昇腾计算业务总裁张迪煊也透露,截至目前,昇腾已认证了30多家硬件伙伴、1200多家软件伙伴,联合孵化了2500多个AI场景方案。在中国,平均每两家AI企业就有一家选择昇腾。

作为“科创板AI芯片第一股”的寒武纪此前在互动平台回复,公司设计、研发的智能芯片不属于GPU,是面向人工智能领域专门设计的芯片。智能芯片的性能和能效优势主要集中于智能应用,在人工智能领域可以替代GPU芯片,但不适用于人工智能之外的其他领域。

而在“传统”的GPU领域,国内厂商也有所建树。摩尔线程全功能GPU显卡可以完成AI模型的训练、推理、精调全流程,目前可以进行ChatGLM和GLM系列模型的推理,并且支持超大大模型的分布式推理和offload推理。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI重塑未来营销,把营销创新预算的26.9%留给AI

嘉宾|任一 董浩宇 谭北平

编辑|王小坤

AIGC在社媒营销领域的渗透速度比我们预想中更快。来自业内的一线调研显示,如今在一些大的MCN 机构中,用AI 生成内容的占比已经从50%上升到更高。在用户端几乎没有感知的情况下,AIGC在生产效率和转化效果维度都展现出了不错的结果。

「同样主题的内容我们分别让AI和人工来生产然后进行投放,在算法逻辑的维度,人工生产的内容和AI生成的内容相比在逐步落后;在转化效果维度,即媒介投放后链路真金白银的购买上,我们发现AI生成内容的效果也在逐步提升。」数字营销专家、中国广告协会学术与教育委员会副主任董浩宇通过和MCN的一项测试,验证了AIGC当下在社媒营销中的应用潜力。

来自技术方和品牌的实践案例也印证了这一趋势。AI营销公司奥创光年目前可以为国内一线电商平台单日生产10万条视频素材,替代过往素材组合等大量重复性工作,据奥创光年市场副总裁任一介绍,「它的投放效果一般会比过往(人工生产)更好,在一项代理合作投放测试中,我们的视频在抖音的跑出率是该机构原视频的两倍。」

在媒介碎片化和信息大爆炸的时代,内容和创意越来越难出圈,但率先掌握AI工具的机构和品牌方则已经摸索到新的解法。本期对话,我们邀请到了资深品牌市场人、奥创光年市场副总裁任一,数字营销专家、中国广告协会学术与教育委员会副主任董浩宇,以及资深营销人、秒针营销科学院院长谭北平围绕AIGC在社媒营销领域的应用与实践进行了深度探讨。

以下为三位嘉宾的观点分享(经编辑):

社媒平台上的AI内容,比你想象中更多

36氪品牌主理人:在社媒营销领域,各位有关注到哪些与AI相关的应用和趋势变化?

董浩宇:两个月前我在闭门会上分享过当时已经有大概50%的MCN机构在用AI生产内容,之前大家更关注的是你有没有用AI。现在行业里讨论更多的如何用好数据,把过往积累的达人粉丝、回购等数据等更好地应用在AI 内容生产中,如今在一些大的MCN机构中,用AI生成内容的占比已经从50%上升到更高。

整体来看,AI在社媒营销领域的应用可以概括出三个维度:

一是在时间和效率层面的提高上,批量化生产和企业定制化的小模型在逐步增多,我调研的一些大型MCN企业已经在大模型框架下研究如何定制与优化归于它自己的小模型;

二是内容的多账号生产、多样性校验和内容批量化分发的AI驱动的创意与传播新生态模式已经开启;

三是人工智能内容生产和数据的结合,已经应用到品牌创意传播管理的层面,即 AI生成内容之后进入投放周期,再根据投放效果优化下一轮AI内容的创意生产,在这样一个闭环中AI的主导作用在增强。

再补充一个有趣的发现,近期我和一家MCN做了一个数据维度的测试,同样主题的内容我们分别让AI和人工来生产然后进行投放,在算法逻辑的维度,人工生产的内容和AI生成的内容相比在逐步落后,第二在转化效果维度,即媒介投放后链路真金白银的购买上,我们发现AI生成内容的效果也在逐步提升。

任一:董老师刚提到的将数据和AI生成结合的第三种趋势,非常符合奥创光年目前整体的一个服务模式,我们把它叫AI全链路营销。简单来说就是从市场策略洞察到内容生产、分发投放,再到用投流、回流以后的效果数据持续优化我们的模型,给客户提供一站式的全链路解决方案。因为它是一个动态调优的过程,所以投放时间越久结果就会越好。

举个例子,我们服务过一个国际美妆品牌,它们本身的画面调性、内容点都很好,也符合平台的调性,但ROI 或者前端CPE这些数据一直上不来。通过AI的策略洞察我们发现,它的竞品包括行业里大家在展示防晒品的时候,会尽可能地降低画面里的油腻感,但它们的防晒产品在视频里就显得很厚重,通过AI对画面的分析我们知道问题出在哪,视频内容怎么调整,后面整个ROI包括 CPE就都上来了。

以上是决策式AI通过洞察分析能够给到的一些结论,比如你的视频应该是什么样的情感调性?画面语言的卖点是什么?形成既标准同时又多元化的模版,这是视频生成的基础条件。接下来第二步就是我们今天重点在讨论的生成式AI。

奥创有两个比较核心的能力点,一是用AI做10到100批量化的内容生产。比如我们为某国内一线电商平台一天生产10万条视频素材,这个层面更多是代替重复类工作,在决策式AI洞察并形成模版的基础之上,结合已有的品牌素材或者电商素材生成原创性不低于人的新视频,它的投放效果一般会比过往效果更好,在一项代理合作测试中,我们的视频在抖音的跑出率是该机构原视频的两倍。

另一种更偏创意类0-1的视频生产,比如我们和某新消费雪糕品牌合作过一个风格化广告片,包含大量的视频特效,我们用的是video to video的形式去生成,整个广告片的质感和效果非常好,但制作周期只用了三四天。还有一块是我们文生商品视频技术,给到我们一个商品之后,我们可以通过AI结合3D建模把产品应用到不同场景、组成类似广告片的内容。

基于以上,我们还有一个可以管理所有物料素材和图文视频的系统,方便品牌在一个系统里对过往内容做重复利用。此外,所有分发出去的新内容也是模型训练的一部分,投放结果会再影响后续的内容策略,形成一个完整的全链路营销。

谭北平:品牌营销人非常善于学习新概念、使用新工具,我相信很多从业者应该都已经尝试或者正在用AI协助工作,我能看到的一些变化是什么?第一,社媒营销不止内容生成这一部分,而是要往前走一步,把内容之外的需求、调性都分析清楚;第二,要把自己独特的数据和资源放进模型,才能生成差异化的内容。

广告主都很焦虑,现在有一个词叫AI平权,工具面前人人平等,但实际上企业追求的并不是平等而是竞争优势。AI时代怎么获得竞争优势,具体到社媒营销这个层面企业一定要从内容生产端向前延伸,洞察消费者心理、洞察新趋势。当然除了生成内容之外,今天我们讲多模态,包括数字人直播等形式也在进一步加速AI在社媒领域的应用。

除此之外,行业内包括我们自己也在探索一件事:通过AI帮助中国品牌更好地出海。本地化运营一直是品牌出海的难点,让AI学习海外市场与消费者的特征与行为习惯,直接生成更本土化的内容,让产品研发更适配海外市场需求,服务当地客户,我觉得这也是大家未来都会探索的一个方向。

任一:非常认同谭老师这个观点。中国在短视频领域的营销应该是领先世界的,包括我们的算法逻辑也非常先进,现在大家更多讨论的是怎么把中国这套系统和模式放到全球体系内运行,而在全球化的竞争中,AI的渗透作用会更强。

36氪品牌主理人:能感受到这一轮技术爆发让大部分行业内的人都比较兴奋,感觉机会又来了。因为这两年品牌的日子大多不太好过,现阶段他们做社媒营销主要面临哪些痛点?

董浩宇:我们在过去五六年经历了从流量增速红利时代,到「留量」时代,进而进入到精准营销时代这样一个过程。现在很多品牌方都在讲「我如何把精准的内容投放给精准的消费者,最终带来产品转化和整个品牌好感度的提升」,这是他们最关注的问题。

它的痛点在于「算法窘境」这四个字。无论是小红书、抖音、快手还是其他一些社媒平台,现在基本是用算法逻辑去判定内容,然后推荐给对应的人群,所以只有获得的推荐够多,才能带来好的品牌曝光以及转评赞、转化等数据,这就变成了算法窘境,大家在这个窘境中不断挣扎,为了要完成KPI中的各种数据和转化,过去做10条内容如今可能要做100条内容才有一条能爆,为了流量与转化而去迎合算法。

AI生产内容的时代,可以用数据去推演平台、社媒的算法,然后不断进行内容优化,也许就可以让品牌从算法窘境中走出来。所以现在有一个说法是用AI算法打败算法、判定算法,最后让算法去帮品牌赢得消费者。

谭北平:除了算法窘境,另一个我想强调的是内容衰减的问题。今天我们社媒平台里的内容分发是由算法决定的,这个过程中内容的消耗是一个巨大的问题,你的内容可能只会被一小部分人看到。

过去一个广告片可以反复播放很多遍,强化记忆效果,但在社媒平台上内容重复是大忌,还没迈出门槛就会被算法挡住,挡住之后就没有在消费者面前出现的机会了。所以算法其实在加速内容的消耗。

社媒需要大量的内容投放,过去内容生产力是一个问题,现在AIGC能够解决这个困境。今天的社媒还有一个痛点是内容生产的尺度把控,卡太严内容很难做,卡太松可能对品牌有损耗,所以内容策略该怎么做?需要把品牌进一步故事化、生活化、场景化,这背后也反映了marketing在从广告思维向社媒思维转变。

任一:很同意董老师的观点。其实现在各平台的算法都是黑盒,每个平台的黑盒还不一样,所以品牌方制作的视频到底能获得什么样的流量?你都是不确定的。

我之前做品牌市场的时候,可能三个月做一支广告片,然后通过OTV这种投放就能完成整个季度目标,这是过去市场部的运营模式。但现在的营销逻辑是每天都需要生产大量的内容,给到不同消费者,平台的竞争逻辑是鼓励创意,但算法和分发也更偏向于日抛型,这就不仅是算法窘境,也是从业人员精力的窘境、是管理者的决策窘境。

十几二十个视频内容拿过来到底哪一条能跑出来?市场部也很难给到执行人员非常明确的决策,这就导致现在有大量重复的工作,生产了大量达不到效果的内容。

一方面受制于平台算法不得不做,一方面人工生产力和决策力存在局限性,这两块都比较难。

社媒营销我把它分为两种类型。第一种以信息流这类效果广告为代表,我能知道自己投进去的钱换回多少流量、多少用户,但现阶段的瓶颈是当你优化到一个数值的时候就很难再获得流量。第二种是种草的逻辑,可能有一部分CPE焦虑,比如怎么把视频的互动量做高,但更焦虑的点其实是CPE上去了销量没上去,这两者的关联很难做到。你的视频曝光非常好,但没有销量转化,就很难衡量这些钱花出去带来了什么直接结果。

这样一对比好像还不如直接去做信息流,这也会导致大家不愿意做创意和创新。以上是品牌方比较核心的几个焦虑点。

36氪品牌主理人:以奥创的产品为例,有可能针对性地去解决以上哪些痛点?

任一:举个例子,某个产品它的受众里既有小镇青年也有退休妈妈,那针对这两个群体的卖点、生成的内容包括使用的场景可能都是不同的。

我们的产品能从洞察开始就把这个层次分解出来,然后根据不同的人群的痛点生产批量化的内容。过去品牌的视频量可能最多几百个,也很难针对各个人群精准地输出不同卖点,奥创的能力就可以针对性地解决这个问题,更好地优化投放结果。

刚才大家有提到用算法对抗算法,因为当我们不断用大量视频去尝试就会发现其中哪些视频的跑量率更高,就能找到更匹配算法的解法。当然媒体平台的算法逻辑也在迭代,我们就需要不断地生成内容去持续地反馈调优。

36氪品牌主理人:现阶段还有哪些比较成功的AI实践案例?

董浩宇:快消品牌通过AIGC生产社媒内容已经比较多了。曾经我在伊利的时候有一个项目叫「未来牛奶」,现在它们充分用AI不断做产品包装创新,在社媒上抛出海报号召用户参与,让消费者成为AI共创新品反馈的一环,然后快速上市。

过去的选品逻辑是品牌方要自己说这是一个新品,想办法让消费者种草、买单。现在利用AI工具的便捷性实现内容的参与和共创,根据反馈做创新是非常有趣的,消费者也更愿意为其买单,这是一个很好的闭环逻辑。

我的上一家公司美的,现在很多社媒内容也开始用机器生成,比如将节气和时下热点事件结合,社交媒体内容的实效性能够被充分体现。过去一张海报的制作周期两三天,现在几个小时就能完成从创意生成到审核反馈的过程。

谭北平:我们服务的很多品牌,过去他们的直播话术都比较简单、重复,我们就帮助品牌方提炼产品特性,结合热点和时效,通过AI完善了很多辅助话术。当然最终选择权在主播个人,我们提供的是更多的角度和素材去帮他优化直播效果。

这个过程是,我们先通过AI洞察找到产品在不同场景中的卖点和故事性,针对不同人群和痛点生成大量故事线,KOL可以找到最契合他特性的内容,整体提高内容生产的效率和个性化。这里你看不到AI的痕迹,因为技术是藏在营销后面、帮助品牌和主播提高效率的。

把营销创新预算的26.9%留给AI

36氪品牌主理人:一个确定性趋势是随着技术的发展,工具的使用门槛会进一步降低,未来大家都模型化、批量化使用AI内容生成,品牌个性化表达如何实现?尤其是和竞品之间的内容壁垒如何构建?

任一:大模型更多解决的是通用问题,具体到不同的领域现在有很多垂直模型,它能进一步学习行业或者品牌数据。比如我们服务过某国际知名可乐品牌,通过学习它过往的文案、广告片等数据,让机器理解它的语言,就能生成符合品牌逻辑和调性的内容。

公司可以部署这种私有化模型,品牌投放的内容越多,在平台里跑出的数据就越多,只要合作程度足够深,模型也会越来越个性化。

董浩宇:我现在接触的一些大品牌,比如某国际顶级的快消品牌和顶级的餐饮品牌,都在自建自己品牌的小模型。把品牌的定位、产品包括人群的数据、过往的创意内容都给到模型去训练,确保调性的一致。

和这些CMO交流的时候,我问你们为什么要这么做?他们讲到一个知识体系传承的问题。从这个维度来看未来人工智能就能够把控品牌与内容的调性。

回到任总刚提到的问题,现在大量的生成内容可能都来不及审核,未来可能就需要靠品牌小模型去设定算法审核的机制,70分的内容可以直接投放,当然每个品牌还是需要10%的精品内容需要靠人的创意实现。

谭北平:内容的模版化其实分两种,比如多巴胺营销、特种兵旅游很火,品牌内容往热点和社会情绪上去靠很正常,甚至要比谁的速度更快、做得更好。另一种是品牌自己的模版,当消费者看到某个场景、元素、某种表达方式或者VI就知道这是哪个品牌,这是品牌应该追求的状态。

品牌个性化模版+衍生的内容创意,这是品牌的长期资产。所以我认为模版化是好事,但一定是自己的模版化。

36氪品牌主理人:各位都有提到小模型、私有化部署,国内明确在做这件事的品牌好像没那么多,有哪些顾虑点?

谭北平:大企业束缚太多,数据隐私、合规和安全是现在它们更关注的点。小品牌其实可以更大胆一点,因为小品牌跑得快,就不要瞻前顾后,这是一个快速追赶的机会。

任一:这里其实有一个责任问题,因为AI也会犯错,当内容生成量足够大的时候靠人工审核把控是很难的,如果画面调性不符、出现违禁词,谁来承担这个责任?所以不止在技术层面,也要考虑责任划定的问题、立法的问题,每一个环节都要完善。

谭北平:相比自动驾驶这类零容错率的领域,营销行业其实还好,我认为可以大胆一点尝试,允许AI犯错。

董浩宇:要有容错机制。很多大品牌方比如可口可乐,就是70、20、10的原则,10%的营销预算是可以去犯错的。这部分钱就是用来去尝试和创新的,品牌要愿意承担失败的风险,因为一旦成功回报可能超过百分之几百。

品牌方现阶段最关心两个问题,一是版权,二是法律,这部分现在已经逐步有解决方案去完善了。我认同谭老师提到的,在创新的过程中品牌方可以大胆一点,当然前提是这个失败要在可控风险范围之内。

36氪品牌主理人:总结大家提到的几个关键点,一是要允许试错,二是胆子要大一点,尤其是中小品牌,所以这是一个更容易跑出来、或者进一步拉开差距的机会?

董浩宇:做到「三个垂直」的中小品牌在AI时代更有机会。第一是心智垂直,它的产品心智、品牌心智和特定消费者能够垂直共融;第二是产品垂直,它的产品属性和消费者的需求融合;第三是渠道垂直,不需要大而全的泛化,一个阶段内专注做好小红书或者抖音等某一个垂直渠道。

做好三个垂直,中小品牌完全有机会跑出来,然后再把优势扩大到全域营销。当然大品牌的优势在于它的资源、数据,以及能够用更敏捷的方式孵化体系内的创业团队,去进行阶段性创新。人工智能是算法均权的时代,大家各有优势。

任一 :国际化公司和大企业对AI的拥抱程度非常高,刚才提到的伊利,据我们了解它可能有100多人的团队去做AI的模型训练,投入非常高。

为什么看好大企业在这一轮的发展?首先头部公司在资源能力上是有抢跑优势的,第二模型训练的核心要素是数据、算力和模型,很多中小企业存在一个问题是很多资产还没有数字化,这点非常关键。

所以人工智能时代带来最主要的两个提升,一是在营销的精准度层面,因为有历史数据化的模型、广告内容等资源沉淀,这一定是更利好大型企业做更精准的投放和内容生成,它的模型也会更精准。二是带来生产效率的提升,这一点对中小企业更友好,过去可能市场部总共两三个人,未来AI可以帮助解决生产力的问题。

36氪品牌主理人:有品牌方关注现阶段AI的收费问题,目前品牌合作或者部署私有化的成本大概在什么水平?

任一:奥创目前更多服务大品牌客户,以定制化需求为主,这类按项目制收费,比如我们给品牌提供一个技术方案以及模型算法的训练等。

AI内容生产可以按生产的模式做相关的收费,它一定比人工成本低,可能行业里普遍三、四百块一条视频,在内容收费端里就几十块。还有另外一块是很多客户会合作全链路营销的服务,从洞察到制作到投放,当ROI超过一个数字的时候,超过的部分也可以跟品牌做结算。

谭北平:如果你是本身具备一定技术能力的公司,可以用一些开源模型,它基本不收费,可能会有少量的商业license费用但是也非常低,比过去真的要便宜太多了。

董浩宇:品牌方关心这个问题有可能是因为马上又要做预算了,到底是留100万还是200万做 AIGC呢?

给大家一个参考,你营销创新预算的26. 9%,明年可能是要留给人工智能的,这是International Data Corporation针对美国上百个企业CMO做的一个调查统计结果。

我个人建议你明年如果有1000万营销创新的预算,可能要留269万做AI。就像谭老师刚也提到的,如果它是一个通用大模型,品牌现在就可以先用起来了。和老板去讲一下,申请一部分预算开启你在AI营销上的创新,我的团队找我的话,我之前批起来也是很快的。

人工智能时代的企业转型,CMO可以做主导

36氪品牌主理人:听下来在当下的营销领域,数据、计算和科学性的比重越来越大,创造力和感性的部分还有多大价值?

董浩宇:我自己是个营销人,我觉得营销最重要的还是创意,在学术理论中,它展现的是其实两种能力:一种叫结合能力,即如何将已有信息、元素像拼图一样组成一个全新的概念;另一个是扩散思维与聚焦思维,比如我们过去一直在做的脑暴。

在扩散思维的部分,AI可以形成辅助,但在聚焦思维的部分,对广告营销人的挑战会变得更大,因为你的选项太多了。其实并不是有了AI对创意人的需求减弱了,而是对批判性思维和独特见解、聚焦思维的能力要求更高了。

谭北平:创造力、创意和情绪都可以被量化,并且可以通过AI技术实现标准化生产,从而提升营销效率和效果。其中人的个性、需求和情绪都可以被科学方法量化,这与过去的大五人格理论(big-five theory of personality)类似。

现在随着AI技术的发展,这些量化的数据可以被用于提升创造力和生产效率,从而实现更精准的营销。这是我们营销科学对于这件事情的理解,我认为万物都是可以用科学的方式来工作的。

任一:其实可以观察到两个现象,第一在媒体端信息大爆炸的时代,创意其实更难出圈,这是时代趋势;第二作为一个市场营销人,从KPI的角度来看,其实是你的老板对营销科学的部分更感兴趣。

比如我投了100万信息流广告,要明确到底能带来多少新用户,衡量工作结果,才能达到老板的需求。过去我们做TVC、创意广告,可能投了200万下去一个水花都没有,很难计算其为公司带来的收益,价值就不容易被认可。

所以从汇报包括整个市场体系搭建的现实情况来看,科学的部分会越来越多地占据我们的核心工作时间,企业的数据化资产沉淀也会更多,形成越来越多体系化的方法论。当然我不会觉得创意不重要,创意还是未来营销中的一个重要环节。

36氪品牌主理人:既要保持创造力,又要拿出可量化的数据结果验证工作价值,挑战还是挺大的。有没有一些建议可以给到团队和从业者。

谭北平:上一轮元宇宙的时候大家都还有点懵,但人工智能已经是确定性方向了。最早我们做洞察的时候,数据表格都是手画的,后来有了Excel,今天有了AI。率先去掌握它,未来比的就是谁用得更好。

任一:我们认为人工智能在市场营销端更像一个Copilot的角色,帮助从业人员制作更好的内容,但替代不了你的策略能力。什么是策略能力?比如我今年的目标是800万增长,具体到市场策略要通过什么样的方式去完成,这是由人决定的部分。

董浩宇:我在品牌方工作很多年,过去品牌喜欢brief agency去干活,但现在你还brief agency可能都赶不上AI可以为你赋能的这个阶段了,品牌方也要会用模型、会用工具,同时保持自己的批判性思维能力。

我觉得营销人要向前走一步。过去我们marketer一直在整个决策链路的中后端,一个产品已经定品了、价格确定了,营销的同学你去给它种草、卖好,但是它的前端已经被定制化了,你的影响力是弱的。

人工智能时代来了,营销人反而是第一个冲上去拥抱的。过去企业做数字化转型阶段,主力军是IT部门,是CTO、CIO们,在人工智能时代,主力其实是CMO们。有了人工智能的辅助,我们是不是可以在选品的阶段、甚至产品创意的早期就介入?这时候营销人就从中后端走向了前端,再走到最后销售的环节形成闭环。

别产品卖不好的时候,就说是marketing 没做好,对吧?

所以当你掌握了AI,并且能够将AI工具和数据结合在一起,你就是这个品牌组织里最有能力的核心部门。我们可以跟老板要钱、要资源,保底先干起来,营销人一定要抓住这个时机。数字化时代有的是CTO做主导、有的是CMO做主导,我认为现在AI时代必须是营销人做主导,属于我们的时代来了。

任一:接着补充一点,我们前面讨论的更多偏向于怎么在现有工作流里去做效率的优化,但董老师讲的其实是C2M的反向定制模式。

每家企业都有两条供应链,一条是内容供应链,一条是产品供应链。过去内容供应链端受限于实际的生产力和成本,没办法做这样的反向定制,比如先在用户端用内容做产品或者卖点的测试,然后反馈到产品研发端推动生产。

刚刚董老师分享伊利的案例,就特别像一个反向定制。当内容生产成本足够低,我们完全可以在产品出来之前,先去做卖点测试,根据用户反馈思考哪些卖点需要调整,反向推动产品定制,这就完全可以改变整个供应链生产的形式。所以董老师刚刚分享的这一点,非常贴合未来整体的发展方向。

36氪品牌主理人:当营销进入人机协作时代,大家有什么畅想或者期待吗?

任一:在未来的市场部里,Copilot会帮我们完成所有执行的工作,人可以聚焦在创意和策划,给公司做更有品牌调性、更爆款的东西,让大家可以专注在更核心的创意类工作,这是我们希望能够实现的状态。

董浩宇:我希望AI能够帮助我们创造更多的品牌价值、然后是商业价值,最后要落到社会价值的实现。我希望企业能够把由AI产出的价值回馈给到这个社会,承担足够的社会责任感,让更多普通人也受益。这个责任其实在我们肩上很重,所以我希望营销人能够努力先把商业价值和品牌价值实现,然后再用它创造的价值去反哺社会。

谭北平:我看到了更多中国人的机会,过去我们讲品牌的国际化,虽然我们有很强的制造力,但营销能力是一个短板。随着我们积极拥抱AI,未来会涌现一批中国品牌建设和全球化的浪潮,塑造更多全球品牌,这是我们行业和所有品牌人的新机会。

本文由「阿至」原创出品

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

Nature最新封面:AI战胜了人类世界冠军,创下最快无人机竞速记录

人工智能(AI)再次战胜了人类冠军。

这一次,是在无人机竞速领域。

来自苏黎世大学机器人与感知研究组(Robotics and Perception Group)的 Elia Kaufmann 博士团队及其英特尔团队联合设计了一种自动驾驶系统——Swift,该系统驾驶无人机的能力可在一对一冠军赛中战胜人类对手。

这一重磅研究成果,刚刚以封面文章的形式发表在了最新一期的 Nature 杂志上。

图|最新一期 Nature 封面。(来源:Nature

在一篇同期发表在 Nature 上的新闻与观点文章中,荷兰代尔夫特理工大学的研究院 Guido de Croon 教授写道,“Kaufmann 等人的研究是机器人学家克服现实差距的一个很好的案例。尽管 Swift 使用 AI 学习技术和传统工程算法的巧妙组合进行训练,但该系统应该在一个更真实多变的环境中进一步开发,从而充分释放这项技术的潜力。”

尽管如此,研究团队表示,该研究标志着移动机器人学和机器智能的一个里程碑,或可启发在其他物理系统中部署基于混合学习的解决方案,如自动驾驶的地面车辆、飞行器和个人机器人。

融合 AI 与工程算法的智能训练

当前,基于深度强化学习的人工智能(AI)系统在雅达利(Atari)游戏、国际象棋、《星际争霸》和 GT 赛车(Gran Turismo)等游戏中已经超越了人类冠军。然而,这些成就全部发生在虚拟环境中,而非真实世界中。

无人机竞速对经验飞行员和 AI 都具挑战,但 AI 而言,更具挑战性。因为在虚拟环境中,资源几乎是无限的,而转向现实世界意味着必须使用有限的资源。对于无人机来说,情况尤为如此,因为取代人类飞行员的传感器和计算设备必须被搭载到空中。

另外,现实世界比虚拟世界更加不可预测。虽然模拟的比赛无人机可以按照预先编程的轨迹完美地行驶,但对一个无人机发出的单一指令可能产生多种效果,影响难以预测,对于通过 AI 训练的无人机尤为复杂。

传统的端到端学习方法难以将虚拟环境的映射转移到现实世界,虚拟和现实两者之间存在着现实差距,而现实差距构成了机器人领域中主要的挑战之一。

在该研究中,Swift 系统通过将 AI 学习技术与传统工程算法融合,实现了智能训练。首先,该系统通过人工神经网络处理无人机从相机中获取的图像,从而精准地检测到门的角落。然后,利用双目视觉软件用来计算无人机的速度。

Swift 系统的创新之处在于另一个人工神经网络,将无人机的状态映射到调整推力和旋转速率的命令。利用强化学习,通过模拟中的试错过程来优化从环境中获得的奖励。在这个算法中,该系统采用了强化学习,而非端到端学习,从而可以通过抽象概念来弥合现实与模拟之间的差距。

由于状态编码的抽象层次高于原始图像,强化学习模拟器不再需要复杂的视觉环境。这一优化减少了模拟系统与真实系统之间的差异,提升了模拟速度,使得系统能够在大约 50 分钟内完成学习。

据论文描述,Swift 由两个关键模块组成:observation policy 和 control policy。其中,observation policy 由一个视觉惯性估计器和一个门检测器组成,可以将高维视觉和惯性信息转化为任务特定的低维编码;control policy 由一个两层感知器表示,可以接受低维编码,并将其转化为无人机指令。

超越人类飞行员的速度和性能

此次比赛的赛道是由一位外部世界级 FPV(第一人称主视角)飞行员设计的。赛道包括七个正方形的门,排列在一个 30×30×8 米的空间内,组成了一圈长达 75 米的赛道。

此外,该赛道具有特色鲜明且具有挑战性的机动动作,包括 Split-S 等。即使发生碰撞,只要飞行器能够继续飞行,飞行员依旧可以继续比赛。如果发生碰撞且两架无人机均无法完成赛道,距离更远的无人机获胜。

Swift 与 Alex Vanover(2019 年无人机竞赛联盟世界冠军)、Thomas Bitmatta(2019 年 MultiGP 冠军)和 Marvin Schaepper(3X Swiss 冠军)等人进行了多场比赛。

其中,Swift 在与 A. Vanover 的 9 场比赛中赢得了 5 场,在与 T. Bitmatta 的 7 场比赛中赢得了 4 场,在与 M. Schaepper 的 9 场比赛中赢得了 6 场。

另外,Swift 共有 10 次失利,其中 40% 因与对手碰撞,40% 因与门碰撞,20% 因比人类飞行员飞行较慢。

总体而言,Swift 在与每位人类飞行员的大多数比赛中取得了胜利。另外,Swift 还创下了最快的比赛时间记录,比人类飞行员 A. Vanover 的最佳成绩快了半秒钟。

从数据分析中可以看出,Swift 在整体上比所有人类飞行员都要快,尤其在起飞和紧急转弯等关键部分表现更为出色。Swift 的起飞反应时间更短,平均比人类飞行员提前 120 毫秒。而且,Swift 的加速度更大,在第一个门处达到更高的速度。

此外,Swift 在急转弯时表现出更紧密的机动动作,这可能是因为它在较长时间尺度上优化了轨迹。与此相反,人类飞行员更倾向于在较短时间尺度内规划动作,最多考虑到未来一个门的位置。


此外,Swift 在整体赛道上实现了最高的平均速度,找到了最短的比赛线路,并成功地将飞行器保持在极限附近飞行。在时间试验中,Swift 与人类冠军进行比较,自主无人机表现出更加一致的圈速,平均值和方差都较低,而人类飞行员的表现则更加因个体情况而异,平均值和方差较高。

综合分析表明,自主无人机 Swift 在比赛中展现出了出色的性能,不仅在速度上表现优越,还在飞行策略上具备独特的特点,使其能够在整个比赛中保持高水平的表现。

不只是无人机竞速

这项研究探索了基于来自物理环境的嘈杂和不完整传感输入的自主无人机竞速,展示了一个自主物理系统在竞速中取得了冠军级的表现,有时甚至可以超越人类世界冠军,突显了机器人在受欢迎体育项目中达到世界冠军级表现的重要意义,为机器人技术和智能取得了重要里程碑。

然而,与人类飞行员相比,研究中的系统并未经过撞击后的恢复训练。这限制了系统在撞击后继续飞行的能力,而人类飞行员可以在硬件损坏的情况下继续竞赛。

另外,与人类飞行员相比,Swift 系统对环境变化的适应能力较弱,使用的相机刷新率较低;尽管该方法在自主无人机竞速中表现优异,但其在其他现实系统和环境中的泛化能力尚未充分探究。


显然,Kaufmann 及其团队的成就不仅仅局限于无人机竞速领域,这项技术或许可能会在军事应用中找到用武之地
。而且,他们的技术可使无人机更平稳、更快速、更长程,有助于机器人在驾驶、清洁、检查等领域更有效地利用有限的资源。

但要实现这些目标,研究团队依然需要解决诸多挑战。正如 Croon 在评论文章中所说,“为了在任何竞赛环境中都能打败人类飞行员,该系统必须能应对外部干扰,如风,光照条件变化,定义不太清晰的各种门,其他竞速无人机和许多其他因素。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌AI芯片“火力全开”大升级,推出第五代AI芯片:瞄准大模型和生成式AI

当地时间29日,谷歌举办了Google Cloud Next 2023大会,宣布了20多款从产品更新。

推出了全新的 TPU 产品 ——Cloud TPU v5e,它是 AI 优化的基础设施产品组合,并将成为迄今为止最具成本效益、多功能且可扩展的云 TPU。

TPU v4性能确实卓越,但是AI芯片向来竞争激烈,而且人工智能技术本身有很多的不确定性和风险。未来,谷歌是否能够保持其在人工智能硬件领域的领先地位,还有待观察。

谷歌首次公布了其用于训练人工智能模型的AI芯片TPU v4的详细信息,并称比英伟达系统更快、更高效——与同等规模的系统相比,谷歌超级计算机比基于英伟达A100芯片的系统最高快1.7倍,节能效率提高1.9倍。

据科技媒体TechCrunch报道,谷歌云计算和机器学习基础设施副总裁兼总经理马克·洛迈尔(Mark Lohmeyer) 表示,“这是迄今为止最具成本效益且易于访问的云TPU。” 洛迈尔强调,谷歌云确保用户能够将其TPU集群扩展到以前无法达到的水平,让客户能够轻松扩展他们的人工智能模型,超越单个TPU集群的物理边界。也就是说,单个大型人工智能工作负载可以跨越多个物理TPU集群,扩展到数万个芯片,并且经济高效。“在云GPU和云TPU方面,我们为客户提供了很多选择和灵活性,以满足我们看到的人工智能工作负载的广泛需求。”

随着谷歌云不断升级 AI 基础设施,越来越多的客户将选择使用谷歌云服务。据此前谷歌母公司 Aplabet 的介绍,超过半数的生成式 AI 初创公司正在使用谷歌的云计算平台。

对于谷歌而言,此次 Cloud TPU v5e 拉开了进一步变革产品模式、赋能云客户的序幕。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌推出 AlloyDB AI可创建生成式 AI 应用

DoNews8月31日消息,谷歌北京时间 8 月 31 日发布新闻稿,宣布推出 AlloyDB AI 服务,进一步扩充现有 AlloyDB 服务的功能,主要帮助开发者充分利用运营数据,创建生成式 AI 应用程序。

AlloyDB 是兼容 PostgreSQL(开源数据库)的全代管式数据库服务,可以自动执行备份、复制、修补和容量管理等管理任务,并使用自适应算法和机器学习技术进行 PostgreSQL 真空管理、存储和内存管理、数据分层和分析加速,方便开发者专注于构建应用。

本次引入的 AlloyDB AI,允许开发者结合大语言模型的功能和实时操作数据,为向量嵌入提供全面支持。AlloyDB AI 使用简单的 SQL 函数将数据转换为向量嵌入,并且它可以执行向量查询,速度比标准 PostgreSQL 快十倍。

AlloyDB AI 让用户能够以简单的 PostgreSQL 函式,对数据生成嵌入,官方强调,只需要一行 SQL 语法,便可以访问 Google 的嵌入模型,比如数据库内的嵌入生成模型,或者 Vertex AI 的各种最后一个模型。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

ChatGPT集体诉讼案最新进展:OpenAI否认侵犯著作权指控

知产财经从海外媒体路透社获悉,近日,OpenAI公司要求旧金山联邦法院驳回包括喜剧演员Sarah Silverman在内的作者提出的两起诉讼的部分内容,此前这些作者指控该公司侵犯了他们的版权。

本周一, OpenAI公司针对诉讼中所谓的“附属”(ancillary)主张,向法院表示,ChatGPT创建的文本并没有侵犯作者的著作权。OpenAI公司还否认了这些作者的核心指控,即使用他们的书籍训练ChatGPT侵犯了他们的版权,但OpenAI公司没有要求法院驳回这些指控。

OpenAI公司的代表和作者没有立即回应置评请求。今年夏季早些时候,两个独立的作者团体对OpenAI公司提起了集体诉讼,指控它非法将他们的书籍纳入用于训练ChatGPT对人类文本提示做出反应的数据集中。喜剧演员Silverman的组织还对Meta Platforms提起了相关的诉讼。其他一些公司也对谷歌、微软和 Stability AI 等公司的人工智能训练提起了类似诉讼。

OpenAI公司周一回应了这些作者的指控,即ChatGPT生成的文本构成了他们书籍的“衍生作品”,间接侵犯了他们的版权。该公司表示,作者未能证明ChatGPT的输出内容与他们的作品足够相似,因此无法证明其侵犯版权。

OpenAI公司还要求法院驳回作者们根据州法律和“数字千禧年版权法”(Digital Millennium Copyright Act)提出的相关索赔。

这些案件分别是Tremblay诉OpenAI Inc,美国加利福尼亚州北区地方法院,编号为3:23-cv-03223号和Silverman诉OpenAI Inc,美国加州北区地方法院,编号为3:23-cv-03416号。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

8家AI大模型产品今日起陆续上线,腾讯华为讯飞等后续开放

今日消息,百度、字节跳动、商汤、中科院旗下紫东太初、百川智能、智谱华章等8家企业/机构的大模型产品已经首批通过《生成式人工智能服务管理暂行办法》备案,可正式上线面向公众提供服务。

而据贝壳财经报道,从多位独立信源处获悉,国内将有11家大模型陆续通过《生成式人工智能服务管理暂行办法》备案,首批将在8月31日起将陆续向全社会公众开放服务。其中北京5家,上海3家率先上线,广东省2家和其他省市1家也将陆续开放。据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。

具体的首批通过备案的大模型公司如下:五家北京企业机构:百度(文心一言)、抖音(云雀大模型)、智谱AI(GLM大模型)、中科院(紫东太初大模型)、百川智能(百川大模型)三家上海企业机构:商汤(日日新大模型)、MiniMax(ABAB大模型)、上海人工智能实验室(书生通用大模型)但是据报道称,阿里通义千问、360 智脑不在首批获批名单中。而在此前,据相关媒体介绍,在 2023 世界人工智能大会(WAIC 2023)上,国家标准委指导的国家人工智能标准化总体组宣布我国首个大模型标准化专题组组长,由上海人工智能实验室与百度、华为、阿里、360 集团等企业联合担任,现场进行了证书颁发并启动大模型测试国家标准制订。

与此同时,大模型专题组组长、副组长申报条件也一起公布了。

  1. 由总体组成员单位推荐单位内部大模型领域专家进行申报,申报人需具有中华人民共和国国籍,政治思想素质较高,遵纪守法,具有良好的科学道德、诚信记录、职业操守和较强的责任心。
  2. 在大模型理论研究和产业应用等方面具有较高专业水平,熟悉该领域国际前沿科技发展态势、法规制度与标准规范等。牵头起草过国际、国家或行业标准,具有在主要国际组织或标委会中有大模型标准化相关工作经验的优先。
  3. 原则上不超过 65 周岁,具有能够适应和完成相关工作的身体条件。

百度、华为、阿里、360目前都在AI大模型方面有所建树,包括百度文心一言、华为盘古、阿里通义千问、360智脑大模型等,标准化制定将推动AI大模型进一步发展。目前来看,国内已经有多款产品正式发布启用,后续还会有不少的产品跟进,标准化的专题组也正式组建,感兴趣的小伙伴可以保持关注。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

雅虎推出人工智能电子邮件助手,可与 Gmail 配合使用

雅虎的新人工智能助手可以通过快速问答会话取代原先繁琐的收件箱搜索功能。

无需搜索发件人姓名或文本字符就能找到一封告诉你欠费多少或下一班飞机何时起飞的电子邮件,人工智能增强过的搜索框可让你在自动填写框的帮助下提出明确的问题。

“之前当我尝试用电子邮件进行搜索时,基本已经把自己训练得像机器一样说话了,”雅虎邮件高级副总裁兼总经理 Josh Jacobson 说:“有了LLMs,我们反而可以让机器根据人们自然说话的方式做出反应。”

在演示中,该工具帮助 Jacobson 询问信用卡账单金额或预定航班等详细信息,答案会与搜索到的相关电子邮件一并弹出。

这款助手是周一推出的整套人工智能工具的一部分,作为雅虎邮箱用户的可选测试版,包括那些使用雅虎平台访问谷歌或微软等其他提供商电子邮件的用户。这些功能可能对那些主要使用电子邮件购物的人来说特别有吸引力。它遵循了雅虎之前的产品特点,可以快速显示商业电子邮件中的信息,例如礼品卡代码或跟踪号码。 

Jacobson 估计, 90% 的电子邮件来自企业或机构,这可能会给其他电子邮件提供商的用户一个重新考虑雅虎的理由。尽管网络上出现了许多由生成式人工智能支持的写作助手和组织工具,包括一些旨在帮助处理电子邮件的第三方插件,以及 Outlook 与微软 Copilot 人工智能的集成,但雅虎的插件仍然是电子邮件提供商推出的最先进的插件之一。

一项名为 Shopping Saver 的新功能旨在检测用户在网上购买商品却没有意识到自己拥有适用的礼品卡、商店积分或折扣代码的情况。在这种情况下,雅虎的人工智能将会检测到新的购买行为和未使用的节省机会,并弹出警报,建议用户向商家发送电子邮件,要求追溯使用礼品卡或折扣。如果用户同意,新的人工智能写作助手将会自动起草一份电子邮件发送给商家追回损失。

Jacobson 表示,在早期的测试版中,大约一半的此类电子邮件是成功的,尽管他表示很难知道随着越来越多的人采用该工具,这个百分比是否会发生变化。但它仍有可能节省大量资金,因为研究表明大约一半的消费者至少拥有一张未使用的礼品卡。

写作助手还可用于其他目的,根据用户的快速提示和人工智能对以前与收件人通信的扫描来起草电子邮件,以了解上下文和适当的语气。用户可以自由地建议人工智能调整语气——强调紧迫性,采取感激或道歉的态度,甚至添加表情符号,用户还可以在点击发送按钮前自己编辑草稿。

雅虎的人工智能还可以弹出现有电子邮件的快速摘要,突出显示关键信息并建议采取行动,例如将事件添加到日历中。

尽管这些工具确实需要雅虎的人工智能来解析你的电子邮件,但 Jacobson 表示,该公司会尽力确保你的邮件内容保持私密性,并强调电子邮件内容不会用于训练其他用户可以访问的人工智能模型。 

随着人工智能的进步和对用户意图理解能力的不断提高,这些工具可能会继续发展。例如,未来版本的搜索工具可能会融合来自多封邮件的信息,而目前的版本则只能根据一封邮件的内容回答问题。Jacobson 表示,即使产品在不断进步,公司仍将致力于向用户免费提供这些产品。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

聊天机器人神器,Poe导入Llama 2模型、增添Mac桌面版

知识问答网站Quora旗下的AI聊天机器人平台Poe,目标如同网络浏览器般,将所有聊天机器人整合在同一个地方。

Poe近期增添一系列新功能,包括释出macOS版App、支持日语、串接Anthropic Claude、导入Meta Llama 2模型(包括参数量700亿、130亿以及70亿的版本)等,加上原本就有的iOS、Android版以及网页版,便于用户使用。

用户可以付费订阅Poe平台服务,支付月费19.99美元或年费200美元,就能无限使用Poe平台上的聊天机器人。

不只如此,Poe也在规划新的企业版方案,以便公司统一管理平台以提供员工使用。

Poe现在允许用户与同一聊天机器人进行多次对话,透过探索页面搜寻不同的聊天机器人。Poe也是一个拥有API的聊天机器人建立平台,现在可让开发者针对提示调整不同回答样式。

Poe母公司Quora的执行长德安吉洛(Adam D’Angelo)身兼OpenAI董事,他认为聊天机器人的数量将持续增加,并希望Poe成为一个用户可以轻松找到它们的地方。

「我认为这将会有个庞大的生态系统,类似现今的网络」,德安吉洛表示,「我可以想像一个世界,大多数公司都有一个向大众提供服务的聊天机器人。」

ChatGPT等聊天机器人可为人们的工作、生活解答许多问题,帮助学习新知识和新技能,省下许多时间和精力,甚至还能创造新的娱乐和社交方式。聊天机器人势必越来越多种,透过Poe这样的平台就能一站式使用不同的聊天机器人服务。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI独角兽又要裁员了!巨亏469亿,软银亏本减持了

在各大企业纷纷招人布局生成式AI和大模型之际,国内这个AI独角兽却还在大力裁员。

近日,财新从多名商汤科技在职和离职员工处了解到,公司新一轮裁员潮到来,涉及多个部门,最快要求一周内离职。

这一消息很快在网上引起热议,要知道,就在去年,商汤科技才刚刚裁掉了2000人。

作为“AI四小龙”中最先实现上市的一家,商汤科技一直备受市场关注。但与它一度高达3000亿港元市值相对的,却是连年扩大的亏损。从2018年以来,商汤科技已累计亏损469.4亿。

今年以来,商汤科技深陷股东减持、营收下滑、裁员传闻的漩涡之中。被寄予厚望的大模型,在发布后又陷入“造假”风波,股价再次进入下行,仅仅四个月时间,市值就蒸发了730多亿港元。相较2022年初的巅峰,更是蒸发了2500多亿港元。

去年刚裁2000人

现在又要大裁员?

作为国内AI独角兽,商汤科技也曾是最靓的崽。但这个国内AI四小龙的头号选手,最近又站上风口浪尖。

据财新报道,商汤科技新一轮裁员潮到来,涉及多个部门,最快要求一周内离职。

据几名商汤科技员工表示,此次裁员幅度较大。一名智慧城市与商业事业群(SCG)员工表示,他所在的部门裁员约10%至15%;SCG下属的质量中心解散,产品质量检验的任务被分配到各组。另一名SCG员工表示,一些产品不管是否盈利,都转为维护状态,不做新版本。

一名智能产业研究院员工称,该研究院这轮按照约10%的比例裁员。此次裁员的赔偿金标准为“N (每年工龄补偿一个月工资) +2”,外加缴付9月社保,部分合同到期不续约员工及应届生,赔偿金为“N+1”。

消息传了几天,8月28日,商汤科技在发布2023年中报时,才终于做出了回应,但措辞上,和去年对“大裁员”的回应几乎一模一样。

去年9月,商汤科技就曾传出要裁员30%,赔偿N+2,部分员工内部转岗的消息。2022年上半年,商汤总员工人数接近6000人,裁员30%意味着要裁掉约1800人。

当时,商汤科技的回应也是如此平淡:公司员工总数略有增长,作为一家快速发展的科技创新企业,商汤会根据市场环境及自身状况调整组织和人才结构,以更好满足业务发展。

默认裁员的同时,却对具体裁员比例避而不答,只是表示将正常进行社招和校招。

从财报也可看出商汤近年来员工的骤减。2021年末时,商汤科技的员工总数为6114名,而到了2022年末,人数直接变成了5098人,减少了1016人,占比16.6%。这还是包括了去年新招员工后的数据,实际上被裁掉的员工人数可能更多。

去年年底,商汤科技员工的爆料也证实了这一点。有商汤员工在职场社交平台脉脉上爆料称,商汤已裁员接近2000人,裁员范围涉及北京、上海、深圳多地。


而在最新财报中,截至今年6月30日,员工人数又减少至5016人。伴随着新一轮裁员潮,有猜测认为,商汤的员工人数可能将减少到4000区间。

值得注意的是,在去年的大裁员中,有不少员工爆料其暴力裁员。去年年底,就有商汤科技员工在社交平台上爆料称,上商汤科技存在给员工绩效打NI,扣发年终奖、以背调时候恶意诋毁工作经历等方式,暴力裁员。这些举动引起部分员工的愤怒,差点引来数百名员工的集体仲裁。

5年巨亏438亿

机构早已出逃  软银亏本减持

大规模裁员背后,商汤科技业绩欠佳。

8月28日,商汤科技发布2023年上半年财报。财报显示,商汤上半年实现营收14.3亿元,同比增长1.3%;亏损31.4亿元,同比收窄2%,但依旧是营收的两倍多。同时,毛利率45.3%,同比下降了30.6%,创历史新低。

如果把时间拉长来看,商汤科技的亏损金额更是令人震惊。2018年-2022年,商汤分别亏损34.33亿元、49.68亿元、121.58亿元、171.7亿元和60.9亿元,5年累计亏损超过438亿元。

如果从减少亏损的角度,裁员也无可指摘。但在大幅度裁员后,商汤“烧钱”的状况却并没有改善。

财报显示,2022年净亏损虽然同比大幅缩窄,但销售费用和研发费用却再创新高。销售费用从上一年的6.82亿元增长至9.01亿元,研发费用从上一年的36.14亿元,增长至40.14亿元,甚至超过了当年的总营收。

连续5年的巨额亏损,也让曾经赶着砸钱的资本受不住了。

据资料显示,商汤科技上市前,共经历了12轮融资,包括软银、春华、阿里、银湖、IDG、中国国有企业结构调整基金、上海国际集团、赛领和鼎晖等,累计融资金额达到52.5亿美元,按现在汇率来算,就是380多亿人民币。

软银集团、阿里、春华资本、银湖资本、IDG分别为商汤的前五大风险投资机构股东,持股比例分别为14.88%、7.59%、3.08%、3.05%、1.42%。

好不容易等到上市,结果商汤科技不仅业绩难看,股价也拉胯。去年6月30日,限售股禁售期一到就吓崩市场,商汤科技的股价直接断崖式暴跌46.77%,跌到3港元出头。

等到限售解禁后,任泉的Star VC、IDG、阿里巴巴等商汤A至C轮的早期投资者就纷纷获利离场。其中,阿里从去年11月开始减持,第一次减持了商汤8000万股股票。今年4月又减持4000万股,6月又两次减持1.2亿股,7月6日减持5.57亿股后,阿里持股比例降至3.15%,不再是持股5%以上的大股东。

而D轮后的投资者就惨了。比如软银。据了解,软银从C+轮至D+轮,共参与了5轮融资,合计持仓成本约14.3亿美元,折合约112亿港元。到IPO前,软银集团合计持有47.31亿股,平均每股成本约为2.37港元。

从去年12月至今,软银共六次减持商汤。去年12月减持1294.8万股、今年2月减持了5000万股,今年3月两次减持2亿股,今年4月减持5000万股,7月31日又减持1490.4万股。

其中,去年12月和今年7月31日两次减持的价格分别为1.98港元和1.79港元,相较2.37港元的成本,已经是亏本减持了。最新一次减持后,软银的持股比进一步从13.04%降至12.99%。不过,仍旧是商汤的第一大风险投资机构股东。

AIGC能救商汤吗?

作为目前计算机领域最前端的科技,AI的落地一直是行业的一大难题,商汤也不例外。虽然每年营收三四十亿,但商汤却没有一个真正能拿得出手的业务。

招股书显示,商汤科技的业务,主要集中在智慧城市、智慧商业、智慧生活和智慧汽车四个领域。从营收规模来看,智慧城市和智慧商业占绝大多数。

而据最新财报显示,到2023年上半年,智慧商业占总营收的比重大大提高,提升到59.5%。商汤表示,这主要是生成式AI相关业务涌现的商机。曾经占比最大的智慧城市业务,下降到了如今的12.8%。

那么,AIGC真的救得了商汤吗?

如果说去年,商汤科技的股价和持续扩大的巨额亏损,让市场和资本开始对“AI四小龙”祛魅。那么今年,AIGC风口的爆发,商汤这回也算是妥妥站在风口上了。但事实却并没有像人们料想的那样。

4月10日,在国产大模型浪潮中,商汤科技也推出了其大模型产品——日日新SenseNova。原本也想赶上一波大模型的热度,没想到却陷入一场“造假风波”。

在发布会展示其文生图模型“秒画”时,其中一张展示图片却被发现与AI模型站civitai的图片高度相似,而被网友质疑是“造假”。


大模型的发布不仅没有在市场上砸出什么水花,反而还让商汤科技的股价,在此后开始持续下行。

截至8月30日收盘,商汤大模型发布后的四个多月里,商汤股价从最高的3.700港元跌到如今的1.510港元,跌去了近60%,市值蒸发了730多亿港元。

商汤的大模型除了PPT,也没有给外界带来真实的体验和感受。

今年以来,从百度的文心一言,到科大讯飞的星火大模型,或是直接向消费者开放,或是犹抱琵琶半遮面,只提供“内测”机会。但商汤却只将大模型开放面向政企客户的API接口。让市场无法摸清其大模型的真实水平。

最主要还是担心这是否又是一波画大饼、割韭菜的手段。

因为,在2021年底元宇宙风口爆火的时候,深耕计算机视觉的商汤,就一头扎了进去。不仅在招股书中49次提及元宇宙,上市后的第一份财报中,其对元宇宙业务寄予厚望。

2022年8月,商汤又发布了一款名为“元萝卜SenseRobot”的AI下棋机器人,还请来郭晶晶代言,却被网友吐槽“伪需求”、“门面性质的东西罢了”。

从最新的财报来看,生成式AI和大模型似乎确实给商汤带来了几分想象力,但至于能否成为商汤的救命稻草,还依然是个问号。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

OpenAI推出企业级ChatGPT,提供先进数据分析功能

OpenAI周一宣布推出企业级ChatGPT(ChatGPT Enterprise),提供企业级安全和隐私、无限量使用高速GPT-4、先进数据分析功能以及客制化选项。

OpenAI表示,ChatGPT自9个月前推出以来、迄今已获得超过八成的财富(Fortune)500大企业采用,企业级ChatGPT的早期用户(包括Block、Canva、凯雷集团、雅诗兰黛公司、普华永道、Zapier)正透过ChatGPT重新定义营运方式。

OpenAI强调,企业拥有并控制企业级ChatGPT的商业数据,OpenAI不会根据用户的商务数据或对话进行训练,OpenAI模型也不会从用户的使用情况进行学习。

企业级ChatGPT取消了所有使用上限限制且执行速度提高了两倍。

CNBC周一报导,OpenAI营运长Brad Lightcap受访时表示,企业级ChatGPT的开发时间不到一年并获得超过20家不同规模和产业企业的协助。他并且表示、不会公开企业级ChatGPT价格,具体而言需视用户的使用情境和规模而定。

报导指出,OpenAI计划在未来某个时间点为较小规模团队推出名为商用ChatGPT(ChatGPT Business)的服务。

华尔街日报周一报导,Lightcap表示,他不认为企业级ChatGPT必然会与微软(Microsoft Corp)的产品竞争。

Lightcap拒绝透露OpenAI在开发企业级ChatGPT时是否与微软讨论过。他说,OpenAI、微软是两家独立的公司,OpenAI聚焦ChatGPT用户、使其成为一种出色的产品体验。

英国金融时报8月22日报导,Alphasense的统计数据显示,标准普尔500指数成分股当中、将近40%的企业在最新季度财报电话会议中提及AI或相关术语。同一时间,仅有16%在对应监管文件中提到AI、凸显出人工智慧尚未对绝大多数的蓝筹企业产生显著影响。

《经济学人(The Economist)》7月指出,除非矽谷以外的数百万家企业采取实际行动拥抱新科技,否则AI对经济的影响将会相对平淡。

微软周一上涨0.22%、收323.70美元,年初迄今上扬34.98%。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

剑桥资讯|让AI更像人:怎样的“确定”才算“确定”?将人为错误纳入机器学习

人为错误和不确定性是许多人工智能系统未能掌握的概念,尤其是那些基于人类反馈的机器学习模型系统,它们的编程中大多预设人类行为总是正确且确定的,但现实世界的决策往往包含偶然错误和不确定性。

Human error and uncertainty are concepts that many artificial intelligence systems fail to grasp, particularly in systems where a human provides feedback to a machine learning model. Many of these systems are programmed to assume that humans are always certain and correct, but real-world decision-making includes occasional mistakes and uncertainty.

来自剑桥大学、艾伦·图灵研究所(Alan Turing Institute)、普林斯顿大学和谷歌“深度思维”(Google DeepMind)的研究人员一直试图弥合人类行为和机器学习之间的差距,以便在人类和机器协同工作的人工智能应用中更充分地考虑不确定性。这有助于降低风险,提高相关应用程序的可信度和可靠性,尤其是在医疗诊断等需要高安全性的场景中。

Researchers from the University of Cambridge, along with The Alan Turing Institute, Princeton, and Google DeepMind, have been attempting to bridge the gap between human behaviour and machine learning, so that uncertainty can be more fully accounted for in AI applications where humans and machines are working together. This could help reduce risk and improve trust and reliability of these applications, especially where safety is critical, such as medical diagnosis.

该团队采用了一个著名的图像分类数据集,以便人们在标记特定图像时提供反馈并指出自身不确定性水平。研究人员发现,使用不确定标签进行训练可以提高这些系统处理不确定反馈的性能,尽管人类参与也可能降低这些混合系统的整体性能。

The team adapted a well-known image classification dataset so that humans could provide feedback and indicate their level of uncertainty when labelling a particular image. The researchers found that training with uncertain labels can improve these systems’ performance in handling uncertain feedback, although humans also cause the overall performance of these hybrid systems to drop. 

该研究结果将发布于2023年人工智能、伦理和社会会议(AIES 2023),该会议由国际先进人工智能协会(AAAI)和美国计算机协会(ACM)联合举办,今年在蒙特利尔召开。
Their results will be reported at the AAAI/ACM Conference on Artificial Intelligence, Ethics and Society (AIES 2023) in Montréal.

“人机协同”机器学习系统是一种能够提供人类反馈的人工智能系统,被认为有希望在自动化模型无法独立决策的情况下降低风险。但如果人类也充满不确定性呢?

 ‘Human-in-the-loop’ machine learning systems – a type of AI system that enables human feedback – are often framed as a promising way to reduce risks in settings where automated models cannot be relied upon to make decisions alone. But what if the humans are unsure?

该研究的第一作者、来自剑桥大学工程系的凯瑟琳·柯林斯(Katherine Collins)表示:“不确定性是人类推理世界的核心,但许多人工智能模型未能考虑到这一点。许多开发人员都在致力于解决模型的不确定性,但是很少有人解决人类角度的不确定性。”

“Uncertainty is central in how humans reason about the world but many AI models fail to take this into account,” said first author Katherine Collins from Cambridge’s Department of Engineering. “A lot of developers are working to address model uncertainty, but less work has been done on addressing uncertainty from the person’s point of view.”

我们习惯在权衡各种可能性之后做出决定,却鲜少对此认真思考。大多数时候即使我们做出错误的决定也无伤大雅,比如说将陌生人误认成朋友并向其挥手。然而在某些应用中,不确定性带来了真正的安全风险。

We are constantly making decisions based on the balance of probabilities, often without really thinking about it. Most of the time – for example, if we wave at someone who looks just like a friend but turns out to be a total stranger – there’s no harm if we get things wrong. However, in certain applications, uncertainty comes with real safety risks.

柯林斯说:“许多人类-人工智能系统预设人类始终坚持自己的决定,但事实并非如此,是人都会犯错。”“我们想弄清楚当人们表达不确定性时会发生什么,这在诸如医疗人工智能系统临床应用等注重安全的场景中尤为重要。”

“Many human-AI systems assume that humans are always certain of their decisions, which isn’t how humans work – we all make mistakes,” said Collins. “We wanted to look at what happens when people express uncertainty, which is especially important in safety-critical settings, like a clinician working with a medical AI system.”

“我们需要升级工具来重新校准这些模型,让使用者能够即时表达其不确定性。”该研究的共同作者马修·巴克(Matthew Barker)说道,他刚在剑桥大学冈维尔与凯斯学院取得工程硕士学位。“在对不确定性表达充分自信的情况下,机器可以被训练,但人类通常无法提供这种自信,机器学习模型也难以应对这种不确定性。”

“We need better tools to recalibrate these models, so that the people working with them are empowered to say when they’re uncertain,” said co-author Matthew Barker, who recently completed his MEng degree at Gonville & Caius College, Cambridge. “Although machines can be trained with complete confidence, humans often can’t provide this, and machine learning models struggle with that uncertainty.”

这项研究还引入了三个机器学习基准数据集,分别用于数字分类、胸部X射线分类和鸟类图像分类。

For their study, the researchers used some of the benchmark machine learning datasets: one was for digit classification, another for classifying chest X-rays, and one for classifying images of birds.
研究人员对前两个数据集进行了不确定性模拟,但对于鸟类数据集,他们让人类参与者表明对所看图像的确定程度:例如,鸟是红色还是橙色。这些由人类参与者提供的注释“软标签”让研究人员能够修改并确定最终结果。然而他们发现,当机器被人类取代时,性能会迅速下降。

For their study, the researchers used some of the benchmark machine learning datasets: one was for digit classification, another for classifying chest X-rays, and one for classifying images of birds. For the first two datasets, the researchers simulated uncertainty, but for the bird dataset, they had human participants indicate how certain they were of the images they were looking at: whether a bird was red or orange, for example. These annotated ‘soft labels’ provided by the human participants allowed the researchers to determine how the final output was changed. However, they found that performance degraded rapidly when machines were replaced with humans.

“我们从数十年的行为研究中得出,人类几乎不会100%确定,但将这一点纳入机器学习是一个挑战,”巴克说。“我们试图在这两个领域之间架起一座桥梁,这样机器学习就可以开始处理人类的不确定性,因为人类是系统的一部分。”

“We know from decades of behavioural research that humans are almost never 100% certain, but it’s a challenge to incorporate this into machine learning,” said Barker. “We’re trying to bridge the two fields so that machine learning can start to deal with human uncertainty where humans are part of the system.”

研究人员表示,他们的研究结果已经确定了几项将人类纳入机器学习模型过程中的开放性挑战。他们正在发布数据集以进一步研究,并将不确定性纳入机器学习系统。

The researchers say their results have identified several open challenges when incorporating humans into machine learning models. They are releasing their datasets so that further research can be carried out and uncertainty might be built into machine learning systems.  

“正如我们的一些同事所说的,不确定性是透明性的一种形式,这非常重要,”柯林斯说。“我们需要弄清楚什么时候可以信任一个模型,什么时候可以信任一个人,以及其中的原因。在某些应用中,我们关注的是概率而不是可能性。例如,特别是随着聊天机器人的兴起,我们需要更好地融入可能性语言的模型,这可能会带来更自然、更安全的体验。”

“As some of our colleagues so brilliantly put it, uncertainty is a form of transparency, and that’s hugely important,” said Collins. “We need to figure out when we can trust a model and when to trust a human and why. In certain applications, we’re looking at probability over possibilities. Especially with the rise of chatbots, for example, we need models that better incorporate the language of possibility, which may lead to a more natural, safe experience.”

“在某些方面,这项工作中显现的问题比它解决的要多,”巴克说。“但即使人类可能在不确定性方面被错误校准,我们也可以通过考虑人类行为来提高这些人机协同系统的可信度和可靠性。”

“In some ways, this work raised more questions than it answered,” said Barker. “But even though humans may be miscalibrated in their uncertainty, we can improve the trustworthiness and reliability of these human-in-the-loop systems by accounting for human behaviour.”

这项研究得到了剑桥信托基金、马歇尔委员会、利华休姆信托基金、剑桥盖茨信托基金和英国工程和自然科学研究委员会(EPSRC)的部分支持,EPSRC隶属于英国国家科研与创新署(UKRI)。

The research was supported in part by the Cambridge Trust, the Marshall Commission, the Leverhulme Trust, the Gates Cambridge Trust and the Engineering and Physical Sciences Research Council (EPSRC), part of UK Research and Innovation (UKRI).

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

OpenAI、Meta 等七巨头联手,打造 AI 时代的防伪「身份证」

由 AI 生成的内容也要有「身份证」了。

近日,包括 OpenAI、Meta 在内的七家科技巨头承诺将采用一些安全措施来增强 AI 技术的安全性。

值得注意的是,在承诺中,这七家科技巨头都不约而同谈到了 AI 的监管问题并承诺将共同开发和应用一种水印系统,可用于人工智能生成的所有形式的内容,包括文本、图像、音频和视频。

通过留意嵌入内容中的水印标识,用户能够自行甄别由 AI 生成的深度伪造的图像或音频,从而在用户端上降低暴力、诈骗等负面信息内容的传播风险。

事实上,自去年 ChatGPT 爆火以来,入局的科技巨头势必要在这场竞争中拔得头筹,AI 技术的发展一日千里。

而随之,不成熟的 AI 技术也衍生出一些值得关注的问题,其中首当其冲的正是如何甄别信息内容的真实性。

2019 年,一名诈骗犯利用 AI 语音模仿软件冒充成公司的大老板,成功让一家英国能源公司的 CEO 以为自己正在跟德国母公司的老板通话。

    在电话中,诈骗犯凭借 AI 技术模拟后的语音,让该 CEO 立即转账 22 万欧元(注:约合 176 万人民币)到匈牙利的一家供应商的银行账户,以避免缴纳「滞纳金」,并要求将转账信息以邮件形式发送。该 CEO 在模拟语音的迷惑下,毫不犹疑地照做了,然后,这 22 万欧元就这样「打水漂」了。

为这家能源公司承保的保险公司表示:「骗子使用的某种 AI 软件,不仅能够模仿他人的声音、语调,甚至还能模仿带德国口音的英语。」被骗的 CEO 在一份电子邮件中愤怒地写道:「(假的)「约翰内斯」甚至在我与真正的约翰内斯通话时,要求跟我通话」

这过于离谱的事件,也普遍引发了用户对 AI 无序发展的担忧。突破常规的人工智能技术被用于诈骗时,更像是「猜猜我是谁?」的进化版。

但在降维打击面前,普通人的警惕心显得毫无用武之地。

而这还只是发生在 2019 年的事件,须臾三年,AI 技术的迅猛发展足以让人瞠目结舌,而信息内容真实性问题也再次回到公众视野。

倘若以「AI 诈骗」为关键词,在搜索引擎上筛选最新资讯,我们会发现当前关于 AI 诈骗的事件可谓是比比皆是。这种普遍性的现象恰恰反映了实施有效措施的迫在眉睫。

今年 6 月份的时候,欧洲议会以 499 票赞成、28 票反对和 93 票弃权,高票通过了欧盟的《人工智能法案》,明确了 AI 监管中不可逾越的红线,基于 AI 的四个等级(从风险最小到不可接受)进行区分管理,其中就明确 ChaTGPT 等工具,必须披露哪些内容是 AI 生成的,以便帮助区分所谓的深度造假图像和真实图像,并确保防止生成非法内容。欧洲议会议员图朵拉赫表示:「如果人工智能的开发者不这样做,他们可能会被迫立即删除应用程序或被罚款,罚款最高可达其收入的 7%。」可能高达数亿欧元的罚款对于科技巨头而言,也算得上「伤筋动骨」了。

因此七家科技巨头选择在技术层面给信息内容嵌入水印,一方面有利于用户甄别信息内容的真实性,方便用户溯源信息内容的源头,另一方面也是对《人工智能法案》的一种无声回应,毕竟强如苹果也不敢轻易放弃欧盟市场。当然,尽管这也是治标不治本的事情,但口头在前,行动在后,总归还是一件不错的事情。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

语言科技资讯丨Meta推出“AI翻译官”,能翻译和转录近百种语言!

秉持其一贯的开源策略,Meta在开源协议CC BY-NC 4.0下公开发布了SeamlessM4T,开发人员可以在这个模型的基础上进行开发。同时,Meta还发布了SeamlessAlign的数据集,其博客提到这也是迄今为止最大的开放多模态翻译数据集,覆盖挖掘的语音和文本对齐总计达270000小时。

录音、选择、翻译一气呵成  

不惧背景噪声干扰、还能区分多人角色

Meta的博客中提到一般而言,现有的语音到语音翻译过程,会被划分为多个阶段,然后不同阶段会有对应的单独系统,很少能有统一的系统去完成多个任务。

SeamlessM4T的出现就解决了语音到语音翻译任务对单独系统的依赖的难题。

打开SeamlessM4T的Demo体验网站,用户点击下方的“START RECORDING”按钮就可以开始录音,录制完成进入第二步,“SELECT TRANSLATION LANGUAGE”选择需要翻译的语言种类,最后点击下方的“TRANSLATE”就会出现翻译的文本、语音两种结果。

在Meta的测试中,SeamlessM4T在保持高资源语言性能的同时,提高了中低资源语言的翻译性能,并且在近100种语言中实现了自动语音识别、语音转文本、语音转语音、文本转语音和文本转语音等多任务支持。

为了在不依赖基于文本的指标情况下更准确地评估SeamlessM4T,研究人员将无文本指标扩展到可以进行跨语音和文本单元评估的BLASER 2.0。进行鲁棒性测试时,与当前其它模型相比,SeamlessM4T在语音转文本任务中背景有噪声和出现多个说话人时的表现更好,平均分分别提高了37%和48%。

从基本的数据来看,SeamlessM4T的模型需要大量高质量端到端数据,仅仅靠人工转录和翻译的语音无法满足近100种语言语音翻译的需求。因此,Meta为200种语言构建了大规模多语言和模态文本嵌入空间SONAR,能快速搜索具有相似性的多种语言。

同时,通过挖掘公开可用的网络数据存储库中的数百亿个句子和400万小时的语音数据,Meta还构建了语料库SeamlessAlign,能自动将超过443000小时的语音与文本进行对齐,并创建了约29000小时的语音到语音对齐。

同时,SeamlessM4T的构建还借鉴了Meta此前的技术积累,包括去年发布的文本到文本机器翻译模型NLLB、发规模多语言翻译数据集SpeechMatrix,以及今年的跨1100种语言的语音识别技术Massively Multilingual Speech等,基于大量先前的研究成果,才使得SeamlessM4T能仅用单一模型就实现多语言和多任务的翻译功能。

适配多任务模型架构、语音文本编码器

为了构建统一模型,Meta的研究人员在工具包、模型架构、编码器等上都进行了适配。

Meta重新设计了序列建模工具包fairseq,并使用多任务UnitY模型架构,这一新架构能实现自动语音识别、文本到文本、文本到语音、语音到文本和语音到语音翻译。

处理语音的过程中,自监督语音编码器w2v-BERT 2.0相比于w2v-BERT版本,训练稳定性和生成质量有了提升,编码器可以将获取到的音频信号分解为更小的部分构建内部表示。

文本编码器采用的是文本到文本翻译模型NLLB,它经过训练可以理解近100种语言的文本并生成对翻译有用的信息。

然后到了生成文本的步骤,通过多任务训练,Meta利用NLLB模型,通过标记级知识蒸馏来指导语音到文本翻译模型,就可以将这一编码器应用于自动语音识别、多语言翻译任务。例如,某人用法语说“bonjour(你好)”,可以将其翻译为斯瓦西里语的文本“habari”。

翻译内容的语音输出,Meta基于UnitY模型中的文本到单元(T2U)组件,这一组件可以根据文本输出生成离散语音单元,并在UnityY微调之前根据自动语音识别数据进行预训练。然后使用多语言HiFi-GAN单元声码器将这些离散单元转换为音频波形。

语:语言翻译仍需清除有害内容输出

就Meta的测试结果来看,SeamlessM4T相比于其他系统的翻译、转录效果更好,并且覆盖的语言范围也更为广泛。

值得一提的是,与所有生成式AI存在的风险类似,翻译过程的准确性也十分重要,这一AI模型可能会错误转录用户说的话,或转录有害信息等。

因此,Meta还将高度多语言的有害性内容分类器扩展到语音,以帮助识别语音输入和输出中的有害内容。

SeamlessM4T Demo体验网址:

https://seamless.metademolab.com/

模型代码下载地址:

https://github.com/facebookresearch/seamless_communication

中国AI生态将呈现三大特征

在智能革命浪潮的推动下,人工智能(AI)技术不断发展,催化着中国加速形成完整的AI生态。近日,在2023中国算力大会开幕式主论坛上,联想集团执行副总裁兼中国区总裁刘军表示,这一生态将呈现终端超级智能、混合架构计算、行业全场景应用三大特征。

“未来终端将嵌入超级算力,具备AI能力的终端与用户的交互方式将持续演化。超级智能终端多设备之间可实现无缝衔接与协同,端侧AI模型与用户数据充分结合的各种应用,将成为用户贴身的超级智能助理。”刘军解释道,“此外,AI的训练负载将由云端进一步向边缘和端下沉,并在云、边、端侧合理分配,从而形成云/边/端混合架构;从部署模式看,可根据公域、私域等不同场景混合部署AI;同时,智算中心正加速部署,将形成智算/超算/通用算力混合发展格局。AI将在行业全场景应用,使企业效率得到指数级提升。”例如,在联宝(合肥)电子科技有限公司每天生产的超过10万台电脑中,80%是数量小于5台的客制化订单,排产复杂度约为10的160次方。使用人工智能排产后,每天排产时间从以前的6小时减少到只需要90秒。

构建完整的AI生态,需要有完善的AI硬件基础设施。国际数据公司的数据显示,联想集团是2022年市场占有率增长最快的AI硬件基础设施(服务器和存储)提供商,同比增长139%,全球排名第三。为促进AI硬件基础设施建设,在2023中国算力大会上,联想正式对外发布“全栈智能布局”,这一布局包括:AI内嵌的智能终端、AI导向的基础设施和AI原生的服务及方案。

“联想AI导向的算力基础设施已全面覆盖云端、边缘算力场景。未来,联想全部算力基础设施产品都将支持AI,50%的基础设施研发资金都将投入到AI领域,AI技术将覆盖全域AI应用。”刘军表示,站在时代的新起点,联想集团将继续全面拥抱人工智能,加快推动普慧算力的落地,推动中国AI生态向纵深发展,助力中国企业跑出智能化转型加速度。

文章来源:科技日报

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

新一代AI绘画工具ideogram注册使用介绍,可碾压Midjourney

继Midjourney前几天的七夕刚推出区域改图之后

AI绘图领域又出一王炸

可以生成表意文字的AI绘图工具

可以准确清晰的生成提示词中的文字信息

这些都是这个工具做出来的效果

AI绘图不会写字也成为了历史

过去几个月,AI绘画技术取得了惊人的进步。今年初,AI绘画的人物还非常畸形,五官位置不正确。但是到了8月,大多数AI绘画已经能绘制出比较精致的人物,有时甚至比新人画师画的还要好。

现在连平面设计的工作也要替代了

这种进步速度比火箭还快,直接冲击了设计行业

全球每月产出成千上万的作品,为AI提供了海量学习材料

AI通过不断学习这些作品,只用了短短几个月就取得了惊人的进步

Midjourney、OpenAI的Dall-E 2和Stability AI的Stable Diffusion等

我们已经有了足够的选择,但还不够,这个工具

它可能最终解决了迄今为止困扰大多数其他流行AI图像生成器的问题:图像中的可靠文本生成,例如标志上的字母和公司徽标。

这极大地提升了AI图片生成工具的实用性

这个新的生成式AI创业公司是一个由前Google Brain研究人员创立的生成式AI创业公司,最近完成了由a16z和Index Ventures领投的1650万美元种子轮融资。

可谓也是有背景,有来头的

这就是Ideogram

Ideogram当前已经开放公测注册,示例效果令人印象深刻

甚至不需要魔法上网

直接登录网站https://ideogram.ai/

即可来到ideogram的主页

毕竟是谷歌背景的产品

目前只能以谷歌账号的形式登录

使用方式也非常的简单

With text “xxxx”+提示词,即可生成精确带有“xxxx”文字的图片

比如做一个A movie poster of Donald Trump, vector art, photo, dressed as the Terminator, with text “Shige, reliable!”

就轻轻松松请川普做代了个言

如果实在不知道怎么怎么创作,就看看主页别人的,把他的提示词复制过来,更改“引号”里面的内容为自己的就好

每张别人生成的图片下面的文字就是这个图片的提示词

罢工未停,好莱坞96%娱乐公司先砸钱用AI替代人力了

自今年5月开始,代表好莱坞编剧的美国编剧工会(WGA)已经罢工近100多天。

本次大罢工,原因除了演员、编剧与资方的薪资矛盾外,AI取代演员和编剧的威胁也是主因之一。然而,罢工问题还未解决,好莱坞96%娱乐公司倒先加大对生成性AI的支出,想用AI替代人力。

对此不少网友都认为,娱乐艺术是需要创造力的,AI本质上不具备创造力,只是基于互联网内容合成,而这样就会有侵权的风险。

企业高管拥抱AI

就在好莱坞编剧罢工间隙,美国大数据应用搜索提供商Lucidworks做了一份关于”企业应用生成式AI”的报告,调查了来自12个行业的6000名受访者,其中大部分都是拥有决策权的高管,且参与了企业在AI投资决策的过程。

调查结果显示,96%的娱乐公司高层都在考虑提高使用生成式AI的支出,在所有十二个行业里排名第一。而且有意思的是,一向被视为走在前沿的科技公司,在加大AI支出的这块,竟然和娱乐公司一样了。

另外,早在今年3月,Lucidworks也发布过一份关于OpenAI这类大模型对劳动力市场影响的研究报告,报告中α代表GPT,β和ζ代表不同由GPT大模型驱动的工具。

研究人员通过使用GPT和其他AI工具进行测评,结果显示使用GPT可以直接缩短写作近70%的时间,如果用AI工具,则100%的写作都能用AI来完成。

虽然报告指出,这并不一定意味着AI将取代人工,不可否认的是,AI对写作这一工作,已然产生巨大影响。

这次好莱坞大罢工,最令人关注的是人们对AI可能取代演艺人员和编剧工作的担忧。

事实上,现在已经有很多AI工具可用,仅文本生成方面就有包括Jasper、Notion.AI等数十个,除此之外还有很多通过文本提示就能生成视频的工具,比如Runway。

今年,已经80多岁的好莱坞老牌男星哈里森·福特在《夺宝奇兵》系列影片中,借助人工智能技术让观众看到了青年时的福特再现英姿。此外,一家名为Metaphysic的人工智能技术公司采用数据采集技术批量捕捉演员信息,让演员在荧幕上实现“长生不老”。

对此,投资人、行业分析师Jeremiah Owyang就表示:

AI会先取代剧本创作人员,然后再取代演员,因为AI合成演员不会罢工、不请病假、也不会变老。

亏损严重,想用AI扭转局势

好莱坞急着拿AI做筹码,背后原因是整个影视行业的商业模式面临挑战。

过去几年,以Netflix为代表的流媒体崛起后,很多项目都是“一锤子买卖”,也就是一次性酬劳,不再提供后续分红。相比于传统电视剧、电影播出模式中,普通从业者按劳拿薪的情况,收益少了不止一点点。

而现在,“订阅”这一被资本市场备受认可的商业模式,如今也陷入了困境。

2021年前后在Netflix最火的时候,其股价曾超过700美元。但随着海外通胀持续上涨,按月付费这一看似“稳定的收入源”也很快成为用户最先砍掉的非必需开支之一。据不完全统计,相比之前Netflix、Disney+、Hulu等数十家流媒体纷纷上调了月费。

另外,Netflix还开始严厉打击账户共享,要求同一账户名下的设备每31天至少需要登录一次该账户所属的Wi-Fi。其他地址的用户要想共用该账户,需要每月额外付7.99美元。

与此同时,线下的院线大片表现也不理想。

包括华纳兄弟、派拉蒙、迪士尼旗下卢卡斯影业、漫威等多家公司在内,近两年推出的多数电影基本都是“赔本赚吆喝”的状况。比如派拉蒙前段时间热映的《碟中谍7》,上映第一周全球票房2.35亿美元,但由于疫情导致延期,影片成本高达2.9亿美元,回本任务艰巨。

因此,各大媒体集团从去年开始就陆续表态要降本增效,去年华纳兄弟探索(Warner Bros. Discovery)仅在第二季度就亏损超过34亿美元,今年一季度又继续亏损超过10亿美元。

在这样的大环境下,好莱坞资本方急于寻找新的增长点,这时候AI恰好出现在他们视野。

只要有电有网,AI就可以利用现有素材实现“无限量”的内容创作,不仅可以提高生产效率,还能显著降低成本,相比起使用真实演员,更为经济实惠。只要观众能够接受,潜在的亏损问题也就迎刃而解。

制片方承诺:不会用AI取代

目前好莱坞罢工还未有停止迹象,制片公司这边开始先着急了。

根据路透社消息,最近代表好莱坞制片公司的美国电影电视制片人联盟(Alliance of Motion Picture & Television Producers)向编剧提出了一项新的提议,提议包括:“保证编剧将由真人负责,不会被AI取代”。

并且,联盟所代表的公司已提出共享流媒体收视率数据,以便编剧能够衡量节目的受欢迎程度,结算劳务。

你怎么看这次好莱坞罢工,AI真的可以替代编剧、演员吗?

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

骨灰级语言COBOL二度出圈,秒变Java!

在编程语言中,COBOL 绝对算得上是“上古神兽”,可以追溯到1959年左右,目前全球仍有众多大型企业或政府机构用的是COBOL 编写的旧软件。但因为太过古旧,很多新手开发者甚至闻所未闻。

为了解决COBOL应用程序现代化的问题,IBM最近推出了IBM Z 服务,意在利用 AI 技术将COBOL 代码转译成 Java 语言。

骨灰级语言迎来新生机

COBOL这门语言虽然古老,但生命力惊人。根据2022年的一项调查,生产系统中使用的COBOL代码超过了8000亿行。但问题在于,COBOL 的存在已逾一个甲子,很多编写应用程序的开发人员早已退休甚至离世了。

正因为“懂COBOL”的程序员极为稀缺,所以他们的薪水是相当可观的,甚至连美国政府都曾经公开招募COBOL程序员,以便维护那些还在运转中的众多关键任务应用程序。

无论从可操作性还是效率来说,COBOL在当下都过时了,但正是由于COBOL专家的数量极少,这也导致“迁移”往往成为一个复杂昂贵的命题。2012年,澳大利亚联邦银行下决心更换了其核心COBOL平台,这场改造耗时5年,耗资超过7亿美元。

在这一背景下,IBM发布了IBM Z的Code Assistant,它使用代码生成AI模型将COBOL代码转换为Java。

IBM介绍,用于 Z 大型机的 watsonx Code Assistant 旨在帮助开发人员评估和确定最需要现代化的代码,使他们能够更快地更新大型应用程序,专注于关键任务。

Omdia 首席分析师 Roy Illsley对此评论道,将代码迁移到 Java 意味着可以找到更多的程序员来做支持,如果 COBOL 应用程序在Z大型机上的 Linux 系统中运行,那么它们将来可能更容易地从大型机上迁移下来(尽管这并不总是像看起来那么容易)。

据悉,IBM Z的Code Assistant将于今年第四季度上市,在此之前,IBM 会在今年9月初于拉斯维加斯举行的TechXchange会议上演示该功能。

转换成Java,代码高度自然

那么IBM Z服务到底是如何发挥作用的呢?

IBM研究院首席科学家Ruchir Puri在接受外媒采访时表示:“IBM建立了一个新的、最先进的生成人工智能代码模型,将遗留的COBOL程序转换为企业Java,生成的代码具有高度的自然性。”

为帮助企业重构其大型机应用程序,IBM Z的Code Assistant可以在本地配置中运行,也可以作为托管服务在云中运行,由代码生成模型CodeNet提供支持。

Puri提到,CodeNet 模型使用1.5万亿个参数进行训练,拥有 200 亿个参数,设计了一个大的上下文窗口(32,000个令牌),以“捕获更广泛的上下文”,实现“更有效的COBOL到Java转换”。

放眼当前市场,将COBOL应用程序转换为Java语法的自动化工具并不少见。Puri也承认这一点。他进一步指出,Code Assistant采取措施避免牺牲COBOL的功能,同时降低成本并生成易于维护的代码,这就区别于市场上的一些同类竞品。

因为有些类似的产品主要是针对COBOL 代码进行静态和动态分析而不是运用AI,究其根本,它们只是将代码拆分为仍然基于 COBOL 的微服务。

watsonx Code Assistant for Z 生成的 Java 代码将是面向对象的,但仍会与 IBM 声称的 COBOL 应用程序的其余部分以及 CICS、IMS、DB2 和其他 z/OS 运行时等关键服务进行互操作。

“IBM为IBM Z构建了代码助手,以便能够混合和匹配COBOL和Java服务,”Puri说。“如果系统的‘理解’和‘重构’功能建议应用程序的给定子服务需要保留在COBOL中,那么它将保持这种方式,而其他子服务将转换为Java。”

但这并不是等于说IBM Z的服务是完美无瑕的。斯坦福大学最近的一项研究发现,使用类似于它的代码生成人工智能系统的软件工程师更有可能在他们开发的应用程序中造成漏洞。实际上,Puri警告不要在由人类专家审阅代码之前部署由Code Assistant生成的代码。

转换成Java的影响:风险与垃圾代码

“像任何人工智能系统一样,企业的COBOL应用程序可能有独特的使用模式,而IBM Z的Code Assistant可能还没有掌握这些模式。”“必须用最先进的漏洞扫描仪扫描代码,以确保代码的安全性。”Puri如是说道。

事实上,也有开发人员对AI生成的代码的不可控性提出了质疑。在Reddit论坛的相关讨论中,有网友指出:“在某些时候,我们无法知道人工智能的下一个动作,到底是处于天才还是愚蠢的决策。”

“有些东西我们可以理解和单元测试,但在更大的规模上,系统非常复杂,有很多细微差别和级别,以至于没有一个人知道每个设计决策的‘原因’。”

还有人直接提出,“Java真的是这里最好的选择吗?”对此,有人表示理解,认为选择Java是个务实的决定。“Java是选项,因为IBM大型机有一个JVM。因此,从通过 CICS 运行 COBOL 过渡到运行 Java 是相当无缝的。特别是使用 IBM 的 Rational Developer 工具集。”

但也有人提出异议。“最大的问题是Java和COBOL的结构完全不同,因此机械翻译往往会产生完全的垃圾。认为它是一个好的候选者的唯一原因是因为你也没有实际编程的经验。所以……很大程度上是一个管理决策。”

不过,开发者们多数还是认为,Java拥有强大的企业影响力,并且已经在遗留环境中采用多年,所以考虑用它进行迁移并不令人惊讶。

IBM对这类争论应该也有所预料,因此该公司也表示watsonx Code Assistant产品组合将在未来扩展到其他编程语言。

COBOL二度出圈,不远了

撇开风险不谈,在IBM看来,像Code Assistant这样的工具对其未来的发展至关重要。今天,大约84%的IBM大型机客户运行COBOL——主要是政府部门和金融业的客户。虽然IBM的大型机部门仍然是其整体业务的很大一部分,但该公司将大型机视为通往广阔的、有利可图的混合计算环境的桥梁。

尤其再这样一个代码生成AI工具的时代,许多类Copilot的工具已经问世。早前,GitHub Copilot和亚马逊CodeWhisperer等工具的出现打响了竞逐的号角。蓝色巨人当然不能示弱。今年5月,IBM在其Watsonx人工智能服务中推出了fm.model.code,该服务为沃森代码助手提供支持,允许开发人员在程序(包括红帽的Ansible Lightspeed)中使用简单的英语提示生成代码。

如今IBM Z服务的推出,显而易见是在AI编码助手领域针对Z大型机的针对性优化。可以想象通过这样的方式,COBOL的应用前景会更加的扩大,Java技术栈的开发者也许再也不用看见这个晦涩的老语种避而远之了。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

MathGPT:国内首个千亿级数学大模型上线,颠覆解题与教学体验!

数学界的未来将在这一时刻开启新的篇章。国内首个专为数学领域量身定制的千亿级大模型MathGPT正式亮相,通过在多个基准测试中轻松压倒GPT-4,刷新SOTA(State of the Art)记录。

这一数学AI大模型或许将对数学领域带来革命性的变革。今天,备受瞩目的国内首个数学领域千亿级大模型MathGPT迈向内测阶段!从现在开始,用户可以通过MathGPT的官方网站申请注册账号,免费试用并亲身体验其强大功能。

背后的推动力是「好未来」团队,这是一支在数学领域深耕已达20年之久的团队,他们自主研发了这个面向全球数学爱好者和科研机构的大模型,其核心特点是解题和讲题算法。MathGPT是国内首个专为数学打造的大模型,用户只需输入文字或上传数学题图片,即可获得与之对话式的解答反馈。此外,用户还可以选择「随机来一题」,由系统生成随机数学题并提供解答。MathGPT目前在PC端和移动端提供中文和英文版本的体验。

MathGPT在数学解题方面展现出领先的能力。事实上,早在今年5月,「好未来」就已经公开表示他们正在自主研发一款数学大模型,取名为MathGPT。据CTO田密介绍,MathGPT汇集了「好未来」多年的教育教研数据,专注于数学领域。该模型具备千亿级的训练、推理和部署框架,赋予了其强大的能力。通过精选优质的教育数据,MathGPT实现了题目计算、讲解、问答等多任务的持续训练和有监督微调,从而展现出卓越的性能。另外,通过人类反馈对齐,模型的综合素质得到了进一步提升。评估结果显示,MathGPT在解题准确率、稳定性以及用户体验方面都具备显著优势。

MathGPT的官方网站显示,它的数学计算能力已覆盖小学、初中和高中的数学题,涵盖了计算题、应用题、代数题等多个题型。用户不仅可以获取答案,还可以在需要的情况下对题目进行追问。MathGPT在解题的过程中呈现出专业、清晰的步骤,以清楚的方式进行讲解。

在数学任务评测方面,MathGPT在多个公开评测集合中表现优异,不仅在各项测试中取得了最高分数,还在初高中全科测试集合上展现出良好的成绩。根据MathGPT的技术报告,它在CEval-Math、AGIEval-Math、APE5K、CMMLU-Math、高考数学和Math401等六个评测集合中取得了顶尖成绩。

MathGPT在解题稳定性和讲解友好度方面,借助海量名师解题数据进行模型训练,确保了其解题步骤专业且清晰。例如,对于一道数列题,MathGPT会提供「分析」、「详解」和「点睛」三个部分的答案。这种详细的讲解方式使得用户能够更好地理解解题思路和方法。

好未来AI的内测顺利展开,MathGPT的解题能力将继续提升。除此之外,基于MathGPT的产品级应用也正在紧锣密鼓地研发中,预计将在近期发布。随着大模型技术的崛起,AI在教育领域的发展前景令人兴奋,MathGPT的推出为数学教育带来了更多的可能性。好未来将继续探索如何通过AI技术实现大规模因材施教,助力全球学习者和数学爱好者更好地理解数学、提升学习体验。通过不断分享经验,好未来还将与整个教育科技行业共同前进,共同推动AI技术在教育领域的积极变革。

百度李彦宏宣布年底推出文心大模型4.0,AI领域再掀创新浪潮

人工智能是当今世界最具变革性的技术之一,也是百度未来发展的核心驱动力。百度作为全球最大的中文搜索引擎,一直致力于用科技让复杂的世界更简单。


近年来,百度加速了AI业务的布局和发展,以文心大模型为核心,围绕搜索、智能云、智能驾驶、智能小程序等多个方向,打造了一系列具有竞争力和影响力的AI产品和服务。

当前,百度已经成为中国乃至全球AI领域的领军企业,市场对百度的估值也越来越高。

文心大模型今年以来的成就和突破
文心大模型是百度基于飞桨平台打造的产业级知识增强大模型,通过持续学习技术,不断吸收海量文本数据中的词汇、结构、语义等方面的新知识,实现模型效果不断进化。

今年以来,文心大模型在多个领域和场景中取得了令人瞩目的成就和突破,展现了强大的创新能力和应用价值。


首先,在技术层面,文心大模型不断刷新世界纪录,领跑AI技术发展。今年5月,百度发布了文心大模型3.5,参数规模达到2600亿,是全球首个知识增强千亿级大模型。

根据IDC发布的《AI大模型技术能力评估报告,2023》显示,文心大模型3.5拿下12项指标的7个满分,综合评分、算法模型、行业覆盖均为第一。

此外,文心大模型还包括了多个领先的子模型,如全球首个超百亿参数规模的中英文对话预训练模型PLATO-XL、全球最大规模中文跨模态生成模型ERNIE-ViLG等,在各类真实场景的生成准确性、流畅性、相关性上全面领先业界其他大模型。


其次,在应用层面,文心大模型不断推动产业智能化升级,赋能各行各业。今年7月,百度联合行业头部企业新发5个行业大模型,包括深圳燃气-百度·文心、吉利-百度·文心、泰康-百度·文心、TCL-百度·文心、辞海-百度·文心等,成为峰会一大亮点。这些行业大模型在通用大模型的基础上学习行业特色数据与知识,建设行业AI基础设施。

例如,深圳燃气-百度·文心可以实现智能客服、智能巡检、智能安检等功能,提升服务效率和安全水平;辞海-百度·文心可以实现词条自动生成、词条智能纠错、词条语义扩展等功能,提升词典质量和用户体验。


最后,在生态层面,文心大模型不断开放技术资源和平台支持,促进AI生态繁荣。

今年5月,百度宣布启动“文心杯”创业大赛,并设立10亿投资基金。该创业大赛旨在鼓励更多的创业者利用文心大模型进行AI创新应用,并为其提供资金支持、技术支持、市场支持等全方位帮助。在1个月内吸引了近1000项目参与。

“文心杯”最高奖项为价值 1000 万元早期投资。此外,百度还为开发者提供了千帆大模型平台、EasyDL-大模型、BML-大模型等工具与平台,支撑高效便捷的应用开发。

百度的AI业务布局

当前已经处于怎样的地位?


百度作为全球最大的中文搜索引擎,一直致力于用科技让复杂的世界更简单。

近年来,百度加速了AI业务的布局和发展,以文心大模型为核心,围绕搜索、智能云、智能驾驶、智能小程序等多个方向,打造了一系列具有竞争力和影响力的AI产品和服务。当前,百度已经成为中国乃至全球AI领域的领军企业,市场对百度的估值也越来越高。


首先,在搜索方面,百度利用文心大模型和飞桨平台,不断提升搜索质量和用户体验。今年6月,百度App月活跃用户达6.77亿,同比上涨8%,百度用户基本盘稳健。

此外,百度搜索正在内测“极致满足”“AI伙伴”“AI BOT”等功能,通过大模型生成更具创造性的回答,满足用户多样化的信息需求。据第三方机构QuestMobile数据显示,截至2023年6月30日,百度App在中国移动互联网市场中占据第一位的份额为17.9%,高于第二名的13.1%。


其次,在智能云方面,百度智能云是经过AI调优的云基础设施,为大模型训练提供强大的算力,并迅速扩展合作客户群。今年7月,百度智能云获得国际数据公司(IDC)发布的《2023年中国公共云(IaaS+PaaS)市场半年跟踪报告》中显示,在中国公共云(IaaS+PaaS)市场中排名第三,在中国AI公有云市场中排名第一。

在第二季度,百度智能云签约客户数量持续增加,包括兴业银行、南网总调、汉得信息、金蝶、软通动力等外部企业。值得注意的是,百度智能云在本季度实现了盈利(non-GAAP),收入同比增长 8% 至 42 亿元。


再次,在智能驾驶方面,百度自动驾驶出行服务平台萝卜快跑快速拓展运营规模。

第二季度,萝卜快跑提供71.4万次乘车服务,同比增长149%。截至2023年6月30日,萝卜快跑累计向公众提供的乘车服务数量达到330万次。今年6月,萝卜快跑获得深圳市坪山区颁发的首批全无人商业化试点通知书。


目前,萝卜快跑已获批在武汉、重庆、北京和深圳四个城市向公众提供全无人自动驾驶出行服务。

今年7月,萝卜快跑获得上海市浦东新区颁发的首批全无人商业化试点通知书,成为全国首个获得两个城市全无人商业化试点通知书的自动驾驶企业。

今年8月,百度与长安汽车达成战略合作,共同推进智能汽车的研发和生产。百度将为长安汽车提供Apollo自动驾驶系统、智能座舱系统、智能云服务等技术支持,长安汽车将为百度提供高品质的汽车制造能力和渠道资源。


最后,在智能小程序方面,百度智能小程序是基于文心大模型和飞桨平台的一种新型应用形态,可以实现语音交互、图像识别、自然语言理解等功能,为用户提供更加便捷和智能的服务。

今年7月,百度智能小程序月活跃用户达到6.4亿,同比增长28%。百度智能小程序已经覆盖了超过200个行业和领域,包括教育、医疗、金融、旅游、电商等。百度智能小程序还与多个平台进行了合作,如微信、支付宝、快手、抖音等,实现了跨平台的互通和共享。


总结来看,百度的AI业务布局已经处于全球领先的地位,文心大模型和飞桨平台为百度的各个业务方向提供了强大的技术支撑和平台赋能。市场对百度的估值也越来越高,根据第三方机构数据显示,截至2023年8月23日收盘,百度在纳斯达克市场的总市值为1.2万亿美元,在中国互联网企业中排名第二,在全球互联网企业中排名第四。

人工智能对百度的未来有什么影响?


人工智能是当今世界最具变革性的技术之一,也是百度未来发展的核心驱动力。在人工智能时代,百度将以文心大模型为代表的AI技术作为自身的核心竞争力,不断创新和优化产品和服务,提升用户体验和满意度,拓展新的市场和机会,实现可持续发展和社会价值。


首先,在产品和服务方面,人工智能将使百度的产品和服务更加智能化、个性化、多样化。通过人工智能技术,百度可以更好地理解用户的需求和偏好,提供更加精准和高效的信息检索和推荐。

通过人工智能技术,百度可以更好地满足用户的多媒体和多模态的交互方式,提供更加丰富和有趣的内容生成和呈现。通过人工智能技术,百度可以更好地支持用户在各个场景和领域中的应用需求,提供更加便捷和安全的服务解决方案。


其次,在市场和机会方面,人工智能将使百度的市场和机会更加广阔、深入、前沿。通过人工智能技术,百度可以更好地拓展海内外市场,增加用户规模和覆盖范围。通过人工智能技术,百度可以更好地深耕垂直行业,增强行业合作和影响力。通过人工智能技术,百度可以更好地探索新兴领域,增加创新能力和领先优势。


最后,在发展和价值方面,人工智能将使百度的发展和价值更加可持续、高效、负责。通过人工智能技术,百度可以更好地优化资源配置,降低成本和风险。通过人工智能技术,百度可以更好地提升运营效率,增加收入和利润。通过人工智能技术,百度可以更好地履行社会责任,增加公益和环保。人工智能对百度的未来有着巨大的影响和意义,百度将继续以人工智能为核心,不断创新和进步,为用户提供更好的产品和服务,为社会创造更多的价值。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI 的「iPhone时刻 」,英伟达赢麻了,最贵的芯片性价比最高

在 3 月份的 GTC 大会上,英伟达 CEO 黄仁勋表示,「AI 的 iPhone 时刻已经到来。」

时隔 5 个月后,黄仁勋这句话或许可以改写为「英伟达 AI 的 iPhone 时刻已经到来。」今天,英伟达公布了 2024 财年第二财季财报。

第二季度营收为 135.1 亿美元,同比增长 101%,环比增长 88%。此外净利润 61.88 亿美元, 同比暴增 843%值得注意的是,这也是英伟达首次在季度营收上超过英特尔,迎来了一个历史性时刻。

创纪录的英伟达,狂飙的新计算时代财报公布后,英伟达股价盘后交易飙升 9.6%,股价再创新高,突破 500 美元,成为美股市场里「最靓的仔」。英伟达对下一个财季也作出了颇具野心的展望,收入预计达到 160 亿美元,上下浮动 2%。而这个数字几乎是一年前水平的 3 倍,比分析师平均预期的 123 亿美元还要高出 37 亿美元。

在财报中,黄仁勋表示:「一个新的计算时代已经开始,全球各地的公司正在从通用计算向加速计算和生成式 AI 转型。」

芯片依旧是英伟达的收入支柱,其向数据中心供应芯片的部门是公司最大的收入来源,该部门第二财季营收达到 103.2 亿美元,增长 171%,远高于市场预期的 79.8 亿美元。

其中 H100 是市场上最抢手的芯片,一度被炒到超过 4 万美元(约 29 万元人民币)。此前消息人士向投资银行公司的 Raymond James 透露,H100 GPU 的成本为 3320 美元(约合 24181 元人民币),而英伟达选择以 25000 至 30000 美元(当前约 18.2 万至 21.9 万元人民币)的价格出售这些 GPU。

虽然这一说法可能没有考虑到运输物流等其他成本,不过仅从生产成本 / 售价的比例来看,英伟达 H100 GPU 简直就是一个「超级摇钱树」。

据 Tomshardware 报道,英伟达今年内计划出售超过 55 万块 H100 GPU。倘若属实,这意味着英伟达光从 H100 GPU 中获得的收益就已经是个天文数字。不过由于 H100 芯片需要先进的生产工艺和同样复杂的封装技术,供应量将直接和代工厂台积电的封装能力相关,也是 H100 缺货的重要原因,行业高管预计 H100 的短缺将持续到 2024 年。

黄仁勋表示,英伟达正在寻求与其生产合作伙伴合作,将更多芯片推向市场,包括通过与其他公司合作来补充台积电的封装能力,并表示「今年剩余时间和明年的供应量将大幅增加。」生成式 AI 的爆火,无数科技巨头争先抢后地躬身入局生成式 AI 赛道,试图打开这道充满机遇的科技大门。

英伟达这个守在金矿大门外卖「铲子」的人率先成为了赢家。微软和 Google 这些巨头虽然已经在 AI 投入了上百亿美元,但目前基本还没转化为利润。

至于风头正劲的 OpenAI,Analytics India Magazine 报道称其每日维护 ChatGPT 这一项服务就需花费 70 万,尽管一直试图通过 GPT-3.5 和 GPT-4 实现盈利,但目前的收益仍未能实现收支平衡。

然而,如果 OpenAI 无法扭转局面,面对每日高额的成本及其无法快速实现盈利的情况,Analytics India Magazine 认为 OpenAI 甚至可能在不久将来就要宣布破产。

而在 AI 芯片这个赛道英伟达更是遥遥领先,目前还没有哪家科技公司能望其项背。研究公司 Omdia 的数据显示,虽然 Google 、亚马逊、Meta、IBM 等公司也在生产 AI 芯片,但英伟达已占据了超过 70% AI 芯片销售额,并且在训练生成式 AI 模型方面有着更显著的优势。

Futurum Group 分析师 Daniel Newman 表示,很多客户宁愿等待 18 个月向英伟达采购芯片,也不从初创公司或其他竞争对手那里购买现成的芯片。即便是十多年前就开始布局 AI 芯片的 Google,有些工作也不得不依赖英伟达的 GPU 来完成。尽管芯片的价格高昂且缺货,但反而英伟达芯片可能是目前世界上成本最低的解决方案。

黄仁勋表示高性能芯片其实为客户节约了更多资金。如果能够将价值 50 亿美元的数据中心的训练时间减少一半,所节省的费用将超过所有芯片的成本。


算力、模型、数据一直是 AI 发展的三大要素,AI 芯片所代表的算力既是人工智能的底层基石,也是打开这道科技大门的钥匙。这把通往未来的钥匙正掌握在英伟达的手中,并形成了自己的护城河。

英伟达的芯片护城河58 年前,英特尔创始人之一戈登• 摩尔提出了著名的摩尔定律。集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍。


随后新的推断又涌现了出来,两年的时间间隔被缩短到了 18 个月。在摩尔定律的作用下,CPU 和 GPU 的处理性能都获得了指数级的增长,2000 年以后,CPU 从单核走向多核,核心数量得到大幅提升。

AI 深度学习的训练和推理大量依赖矩阵计算和浮点计算,对算力提出了极高的要求,而 GPU 能够大规模并行计算,在矩阵和向量计算上远超 CPU,成为高性能计算的「宠儿」。

此外,高速的内存宽带、可扩展性强的算力池、专门优化的深度学习框架、云端部署支撑等优点,也坚定确立了 GPU 在 AI 时代的算力核心地位。

成立于 1993 年 4 月的英伟达最初便是靠 GPU 起家,通过不断的创新和发展,逐渐成为了高性能计算领域的领导者。根据 Jon Peddie Research 发布的 GPU 市场数据统计报告,英伟达以 84% 的市场份额排名第一,排名第二的 AMD 为 12%,第三位的英特尔为 4%。

A100 和 H100 都是英伟达专门为 AI 计算设计的顶级数据中心 GPU,在训练和推理大型神经网络方面,性能都远超其他竞争对手,二者也都采用专门的 Tensor Core 和数据流架构,堪称英伟达手里的两张王牌芯片。

今年以来,英伟达主打的就是「你买的越多,省的也越多」,非常熟练且「贴心」地推出各种迭代更新的 GPU。3 月,英伟达一口气发布了 H100 NVL GPU、L4 Tensor Core GPU、L40 GPU 以和 NVIDIA Grace Hopper 四款 AI 推理芯片。

两个月后,5 月的台北电脑展上,黄仁勋发布了用 256个 NVIDIA GH200 Grace Hopper 超级芯片组成的超级计算机 DGX GH200。

就在两周前,黄仁勋又发布了搭载 HBM3e 内存新版 GH200 Grace Hopper,这也是世界上首个搭载 HBM3e 内存的 GPU 芯片。

HBM3e 内存是一种新型的高带宽内存技术,在运算速度上 HBM3e 能比 HBM3 运算速度快 50%,提供最高 5TB/秒的传输速率。训练和推理是 AI 大模型的非常重要的两个步骤,而这恰恰是 GH200 所擅长的部分。

在黄仁勋看来,未来 GH200 的典型应用场景就是大语言模型,并且「加速运算」、「AI 运算」将逐渐取代传统 x86 GPU的「通用计算」。

过往无数的案例证明,优异生态系统一旦构筑成护城河,外来者在竞争中便占了下风。英伟达过硬的生态系统自然少不了竞争对手的盖章认证,神经网络科学家 Naveen Rao 曾在英特尔担任过副总裁与人工智能平台事业部总经理。

他发现英伟达的最大优势不仅仅在于芯片本身,而是英伟达拥有一个具有大量优秀人工智能程序员的大型社区和集散地。每个人都优先以英伟达为基础,当你推出了一款新硬件,就会全力追赶它。


在第二财季财报中,黄仁勋也谈到:

「通过我们的 Mellanox 网络和交换机技术连接并运行我们的 CUDA AI 软件堆栈的英伟达 GPU 构成了生成式 AI 的计算基础设施。」

CUDA 是英伟达基于其生产的 GPUs 的一个并行计算平台和编程模型,目的是便于更多的技术人员参与开发。开发人员可以通过 C/C++、Fortan 等高级语言来调用 CUDA 的 API,来进行并行编程,并进行高性能计算,这种生态系统的建立使得许多开发者依赖于 CUDA。

此前,黄仁勋向外界透露,CUDA 在全球已经拥有超过 400 万开发者和超过 3000 个应用程序,CUDA 下载量累计达到 4000 万次,全球 有40000 家大型企业正在使用英伟达的产品进行加速计算,已有 15000 家初创公司建立在英伟达的平台上。

庞大的数字折射出英伟达显著的先发优势,倘若其他对手想要推出新的硬件,则还需要考虑追赶这个已经形成的人工智能创新生态系统。

交易的两端,一端连着卖方,一端连着买方。4 月份,「双标」的马斯克一边联名签署禁止训练 AI,一边偷偷扫货 1 万张 GPU 来开发大模型,甚至还不忘在 X 上公开吐槽:「似乎每个人、每条狗都在购买GPU」。

上个月,甲骨文董事长在公开场合表示,甲骨文公司将斥资数十亿美元购买英伟达的 GPU,以扩大针对新一波人工智能公司的云计算服务。

得算力者得天下,在你追我赶的生成式 AI 赛道上,国内也同样蔓延着求「芯」若渴的焦虑。在财报电话会议上,英伟达 CFO Colette Kress 称:「我们预计,连续增长将主要由数据中心驱动,其中对中国客户的销售约占英伟达最新季度数据中心收入的 20%至 25%。」

此前,据英国《金融时报》报道,中国互联网巨头正争相抢英伟达高性能 AI 芯片,今明两年的订单价值高达 50 亿美元。其中百度、腾讯、阿里巴巴以及字节跳动今年向英伟达下达的支付订单金额合计 10 亿美元,总共采购 10 万张 A800,相当于每张 A800 芯片的价格达到 1 万美元,明年再交付余下的 40 亿美元。

A800 本质上是 A100 的「阉割版」。由于去年 8 月份受到政策影响,英伟达只能面向中国大陆市场推出不受限制的替代版本。

不少行业人士认为,GPU 已经成为市场上公认的稀缺货,一芯难求的局面在未来的一两年内依旧难以缓解。因此,在 GPU 供不应求的持续追捧下,英伟达的 GPU 甚至成为一些 AI 初创公司的硬通货。

作为一家云计算初创公司,CoreWeave 想要获得创业贷款并不是一件容易的事情。得益于英伟达的投资人身份,CoreWeave 甚至可以将 H100 GPU 作为抵押物,轻易获得了 23 亿美元的贷款。

在贷款方看来,这自然不会是一笔亏本的买卖。一方面,这笔贷款能够让 CoreWeave 的计算规模和实力得到快速扩张,增强偿还贷款的能力,另一方面,英伟达明年将推出更多迭代的 GPU,凭借与英伟达密切的合作关系以及这笔高额度贷款,CoreWeave 还可以在抢购明年上市的 GH200 GPU 上夺得先机。

正如前面所提到,既然头部大厂在市场上都抢不到 GPU,那实力并不雄厚的 AI 初创公司的处境显然更加堪忧。

一些聪明的 AI 初创公司只能选择另辟蹊径,抱团取暖,投入英伟达的怀抱。

今年 6 月份,人工智能初创公司 Inflection AI 官宣,完成 13 亿美元的新一轮融资,值得注意的是,崭新的投资名单里首次出现英伟达的身影。

拿到融资后,Inflection 转头将从英伟达购买了 22000 个 H100 GPU,以打造一台先进的超级计算机,其中包括近 700 个Intel Xeon CPU的四节点机架服务器Inflection AI 表示,将和合作伙伴 CoreWeave 以及英伟达一起,构建世界上最大的 AI 集群。

看似欢喜的强强联合更像是一种无奈的抉择,Inflection AI CEO Mustafa Suleyman 接受《纽约时报》的采访时表示:

「公司没有义务使用英伟达的产品,但竞争对手没有提供可行的替代方案。」

今年是英伟达的「而立之年」,在五月的最后一天,英伟达成为全球第一家市值突破 1 万亿美元的芯片公司,这也是历史上第九家跻身万亿市值俱乐部的科技公司。

今年 6 月,身穿毕业服的黄仁勋受邀参加了台湾大学的毕业演讲,用过往的人生经验寄语毕业生。

无论是什么,像我们一样全力以赴地追求它,跑吧!不要慢慢走。不论是为了食物而奔跑,或不被他人当做食物而奔跑。你往往无法知道自己正处在哪一种情况,无论如何,都要保持奔跑。


历史的机遇稍纵即逝,GPU 的赛道可能又是一个赢者通吃的赛道。

一直狂奔的黄仁勋抓住 AI 的机遇,让诞生于路边连锁餐厅的英伟达成功跻身于万亿美元俱乐部,成为这波 AI 浪潮的最大赢家,或许还将继续领跑下个时代。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

这个功能我们等太久了!Midjourney图像局部重绘功能!

借助修复功能,我们能够轻松处理编辑图像中的各个区域,对于经常使用MJ的小伙伴来说,一定有这个苦恼,按照提示词生成了一张图片,结果选中了一张满意的图片,结果有部分区域又不是不满意,用ps又麻烦,或者重新添加提示词,又不一定能生成刚刚满意的图片
比如下图,整体满意,却有三只手…

又比如下图想要变成黑色的猫,但是修改提示词重新生成,可不一定能再生成这个帅哥了

那么如何进行操作呢,如图所示,官方版本的操作首先在MJ界面生成图片后,选择一张图片进行U1,放大然后就会出现 Vary(Region) 选项

点击后进入如下界面

在用工具选择眼睛部分后,填写新的提示词,比如给他添加一副眼镜

重新二次生成的图片就是这样的

是不是瞬间觉得新功能更强大了!

Tips:

1  

在局部重绘的时候选区尽量大一些,如果选区过小,太细节,可能会出现融合不自然的情况!就像官方提示的:重绘区域最好是占总画幅的20%-50%

2  

如果提示词的更改能够与原始图像很好地融合,修复效果会更可靠,如果修复改变了图像的基本元素,或者很古怪,实现的难度就越大,比如“森林中加入一只海豚”类似的提示词

来看看网友们的修复效果吧

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

YouTube将与环球音乐集团合作探索生成式AI时代的音乐未来

近日,YouTube首次发布了AI音乐原则,环球音乐集团和YouTube计划在产品开发、在人工智能程序中使用音乐的指导原则以及向人工智能生成内容中采用的艺术家作品支付报酬的新方法等方面开展合作。参与YouTube计划的艺术家将可以提前接触到正在开发的人工智能产品,并向该视频服务提供反馈意见。

环球音乐集团董事长兼首席执行官卢西恩-格兰奇爵士(Sir Lucian Grainge)在一篇罕见的YouTube客座博客中表示:“对人类创意的持续信念是环球音乐集团与YouTube合作的基石。我们共同的愿景是采取措施建立一个安全、负责任和可盈利的音乐及视频生态系统,艺术家和词曲作者有维护他们的创意完整性的能力,他们的选择权以及得到公平补偿的能力。”

“今天,我们的合作伙伴关系正基于这个基础,共同致力于负责任地领导,如YouTube的AI原则所述,人工智能是为了赋予人类创意,而不是相反。AI永远不会替代人类创意,因为它缺乏驱使最有才华的艺术家创作的关键火花,那就是‘意图(intention)’。从莫扎特到甲壳虫乐队到泰勒·斯威夫特,天才从来都不是随机的。”

双方还宣布推出YouTube的AI音乐孵化器,它将汇集一些当今最具创新性的艺术家、词曲作者和制作人,帮助打造YouTube在音乐中的生成性AI应用。孵化器将开始与环球音乐集团旗下的创意人士合作,包括Anitta、Björn Ulvaeus、d4vd、Don Was、Juanes、Louis Bell、Max Richter、Rodney Jerkins、Rosanne Cash、Ryan Tedder、Yo Gotti和Frank Sinatra遗产等。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

事关人形机器人、生成式人工智能标准研制!四部门联合发文

8月22日,工信部等四部门印发《新产业标准化领航工程实施方案(2023─2035年)》(下称《方案》),持续完善新兴产业标准体系建设,不断提升新产业标准的技术水平和国际化程度。

《方案》以定量与定性结合的方式,分别提出2025年、2030年和2035年的“三步走”目标,工程化推进实施。到2025年,支撑新兴产业发展的标准体系逐步完善、引领未来产业创新发展的标准加快形成。共性关键技术和应用类科技计划项目形成标准成果的比例达到60%以上,标准与产业科技创新的联动更加高效;开展标准宣贯和实施推广的企业10000家以上,以标准服务企业转型升级的成效更加凸显等。到2030年,满足新产业高质量发展需求的标准体系持续完善、标准化工作体系更加健全。

到2035年,企业主体、政府引导、开放融合的新产业标准化工作体系全面形成。《方案》主要聚焦新兴产业与未来产业标准化工作,形成“8+9”的新产业标准化重点领域。

其中,新兴产业聚焦新一代信息技术、新能源、新材料、高端装备、新能源汽车、绿色环保、民用航空、船舶与海洋工程装备等8大领域;未来产业聚焦元宇宙、脑机接口、量子信息、人形机器人、生成式人工智能、生物制造、未来显示、未来网络、新型储能等9大领域。

全面推进新兴产业标准体系建设新一代信息技术领域,《方案》提出,面向重点场景和行业应用,优化完善5G标准。研制集成电路、基础器件、能源电子、超高清视频、虚拟现实等电子信息标准。研制基础软件、工业软件、应用软件等软件标准。研制大数据、物联网、算力、云计算、人工智能、区块链、工业互联网、卫星互联网等新兴数字领域标准。新能源领域,研制光伏发电、光热发电、风力发电等新能源发电标准,优化完善新能源并网标准,研制光储发电系统、光热发电系统、风电装备等关键设备标准。

新材料领域,研制先进石化化工材料、先进钢铁材料、先进有色金属及稀土材料、先进无机非金属材料、高性能纤维及制品和高性能纤维复合材料标准。高端装备领域,《方案》明确,研制工业机器人基础共性、关键技术和行业应用标准。研制高端数控机床关键共性技术、整机、数字化控制与核心部件标准。

研制工程机械基础通用、关键材料、核心部件、电动化以及高端化智能化绿色化标准等。新能源汽车领域,聚焦新能源汽车领域,研制动力性测试、安全性规范、经济性评价等整车标准,驱动电机系统、动力蓄电池系统、燃料电池系统等关键部件系统标准,汽车芯片、传感器等核心元器件标准,自动驾驶系统、功能安全、信息安全等智能网联技术标准,以及传导充电、无线充电、加氢等充换电基础设施相关标准。

前瞻布局未来产业标准研究《方案》要求,开展元宇宙标准化路线图研究。加快研制元宇宙术语、分类、标识等基础通用标准,元宇宙身份体系、数字内容生成、跨域互操作、技术集成等关键技术标准,虚拟数字人、数字资产流转、数字内容确权、数据资产保护等服务标准,开展工业元宇宙、城市元宇宙、商业元宇宙、文娱元宇宙等应用标准研究,以及隐私保护、内容监管、数据安全等标准预研。开展脑机接口标准化路线图研究。

加快研制脑机接口术语、参考架构等基础共性标准。开展脑信息读取与写入等输入输出接口标准,数据格式、传输、存储、表示及预处理标准,脑信息编解码算法标准研究。开展制造、医疗健康、教育、娱乐等行业应用以及安全伦理标准预研。同时,聚焦量子计算领域,研制量子计算处理器、量子编译器、量子计算机操作系统、量子云平台、量子人工智能、量子优化、量子仿真等标准。聚焦量子通信领域,研制量子通信器件、系统、网络、协议、运维、服务、测试等标准。

在人形机器人领域,《方案》提出,开展人形机器人专用结构零部件、驱动部件、机电系统零部件、控制器、高性能计算芯片及模组、能源供给组件等基础标准预研。研制人形机器人感知系统、定位导航、人机交互、自主决策、集群控制等智能感知决策和控制标准。开展人形机器人运动、操作、交互、智能能力分级分类与性能评估等系统评测标准预研。开展机电系统、人机交互、数据隐私等安全标准预研。面向工业、家庭服务、公共服务、特种作业等场景,开展人形机器人应用标准预研。

此外,围绕基于生成式人工智能(AIGC)的应用及服务,面向应用平台、数据接入、服务质量及应用可信等重点方向,研制AIGC模型能力、服务平台技术要求、应用生态框架、服务能力成熟度评估、生成内容评价等应用标准。在工业、医疗、金融、交通等重点行业开展AIGC产品及服务的风险管理、伦理符合等标准预研。

引导社会资本向新产业标准领域汇聚在拓展高水平国际标准化发展新空间方面,《方案》提出,扩大标准制度型开放,积极营造内外资企业公开、公平、公正参与标准化工作的环境,保障外商投资企业依法参与标准制定。聚焦贸易便利化,结合重大国际合作项目积极推动质量标准、检验检测、认证认可等有效衔接。加快国际标准转化,在国家标准计划和行业标准计划中优先支持国际标准转化项目,持续提升国际标准转化率,推动我国标准与国际标准体系兼容。鼓励国内企事业单位积极参与国际标准组织和各类国际性专业标准组织活动,健全以企业为主体、产学研联动的国际标准化工作机制,携手全球产业链上下游企业共同制定国际标准。

此外,《方案》还明确,要加大对新产业标准化工作的经费支持,强化政策保障。发挥好国家先进制造业集群等优势作用,支持地方加大新产业重点领域标准化工作力度,鼓励重点企业加大标准化相关经费投入,积极引导社会资本向新产业标准领域汇聚,形成多元化的经费保障机制。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

判断人工智能是否有意识:科学家提出14条​标准

判断人工智能是否有意识:科学家提出14条标准
当下或以后的人工智能是否拥有意识,是一个公众和科学界都日益关注的话题。近日,一个由19位计算机科学家、神经科学家和哲学家组成的研究团队在一篇预印本论文(未经同行评审)中,基于一些人类意识理论,提出了14项标准以判断人工智能是否有意识


在该论文中,研究者通过目前最可靠的一些神经科学理论评估现有的人工智能系统——包括循环处理理论(recurrent processing theory),全局工作空间理论(global workplace theory),高阶理论(higher-order theories),预测处理(predictive processing)和注意图式理论(attention schema theory)——得出了意识的“指标属性”,并用计算机术语加以阐释,总结出了14条标准以评估人工智能系统是否有意识。

随后,研究者用这些标准测试了一些现有的主流人工智能,如ChatGPT、PaLM-E、AdA和Dall-E2等,发现没有任何一个人工智能可以同时满足数个标准,因此它们都不是拥有意识人工智能的有力候选者。这项工作为评估越来越像人类的人工智能提供了一个框架。但这项研究也表明,尽管目前的人工智能可能都没还有意识,要构建满足这些标准的人工智能,并不存在明显的技术障碍。(Science News)

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

七夕中国情人节,成为AI的大型秀场

自从今年AI大火之后,什么虚拟女友、AI授课师、AI摄影师都大行其道,而在中国首款AI游戏中,3000万玩家都被分配了一个AI过七夕,真是天下之大无奇不有。


《逆水寒》手游首个七夕节,也被称为“虐狗节”——看看这次七夕节的奖励可是真丰盛,又是白绒绒的宠物猫,又是可以刻字的雨伞,如果说:这300万对情侣可以笑着领奖励,那么剩下的3000万+单身汪怎么办?
为了让没有情缘的玩家也能在虐狗节过得舒心,官方想出了一个高招。


那就是,给没有情缘的玩家每人分配一个AI男友/女友,和真人情缘一样做任务,完事了可以领取同等奖励。
这样可谓皆大欢喜。


《逆水寒》手游可是号称国内首款AI游戏,AI智能度非常高,之前玩家已经领教过这些AI的厉害了,比如你给他说去私奔,结果男NPC都能和你牵手,还有一位叫作“小寒”的NPC,不仅和其他NPC吵架,还能和玩家杠上一整天,她说起哲学、文学乃至史学,你都说不过她。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

《纽约时报》屏蔽 OpenAI 的网络爬虫 |懂点AI

01国际劳工组织发布报告,生成式 AI 重点影响女性为主的文书岗位

国际劳工组织(ILO)近日发布报告,表示生成式 AI 固然不会接管、替代所有人的工作,但对于以女性为主的文书岗位会产生较大影响。研究报告称尤其在发达国家,在文书相关岗位中女性员工的占比更高。在高收入国家,8.5% 的女性就业岗位可以实现高度自动化,而男性就业岗位占比为 3.9%。研究报告认为大多数工作岗位和行业开始朝着自动化方向发展,生成式 AI 是现有岗位的补充,而非替代。报告认为受生成式 AI 影响最大的岗位是文书工作,大约四分之一的工作可以通过自动化方式完成,交由生成式 AI 来生成文本、图像、声音、动画、3D 模型和其他数据。报告认为经理和销售人员等大多数其它职业受到生成式 AI 的影响并不会太大。

02《纽约时报》屏蔽 OpenAI 的网络爬虫,禁止将其内容用于 AI 训练

《纽约时报》已经屏蔽了 OpenAI 的网络爬虫,这意味着 OpenAI 不能使用该出版物的内容来训练其人工智能模型。查看《纽约时报》的 robots.txt 页面,就可以看到《纽约时报》封禁了 GPTBot,这是 OpenAI 本月早些时候推出的爬虫程序,据悉《纽约时报》早在 8 月 17 日就屏蔽了这个爬虫。值得一提的是,《纽约时报》本月初更新了其服务条款,该条款禁止使用其内容来训练人工智能模型,《纽约时报》还在考虑对 OpenAI 提起知识产权侵权的法律诉讼。

03 YouTube 与环球音乐合作推出“音乐 AI 孵化器”

YouTube 官宣将会联手环球音乐集团等合作伙伴,推出 音乐 AI 孵化器。仅 2023 年,YouTube 上与 AI 工具相关的视频观看次数就超过 17 亿次。首席执行官 Neal Mohan(尼尔・莫汉)表示:“当我们与整个行业中一些最具创新精神的艺术家、词曲作者和制作人合作时,该孵化器将有助于为 YouTube 的方法提供指导,这些艺术家、歌曲作者和制作人具有不同的文化、流派和经验。”作为该计划的一部分,他提名的艺术家和制作人包括 Anitta(全球巨星)、ABBA 乐队的 Björn Ulvaeus、d4vd(新晋创作歌手)、Don Was(音乐家、作曲家和制作人)、Juanes(热门制作人)、Louis Bell、Max Richter、Rodney Jerkins、Rosanne Cash(创作型歌手)、Ryan Tedder(三届格莱美奖获奖歌曲作者兼制作人)、Yo Gotti 等。

04 美国法官最新裁定:纯AI生成的艺术作品不受版权保护

美国华盛顿一家法院近日裁定,根据美国政府的法律,在没有任何人类输入内容的情况下,人工智能(AI)创作的艺术作品不受版权保护。国地区法官Beryl Howell上周五(8月18日)表示,只有人工智能与人类作者合作的作品才能获得版权,并确认美国版权局驳回了计算机科学家Stephen Thaler代表其DABUS系统提出的申请。Thaler认为自己的人工智能系统DABUS拥有创造的艺术作品的版权,但美国版权局拒绝了他的申请,理由是”人类思维与创造性表达之间的联系”是版权保护的关键要素。

05 韩国SK电讯宣布战略投资AICC开发商Persona AI

韩国最大电信运营商SK电讯8月21日宣布战略投资韩国智能联络中心(AICC)开发商Persona AI的股份,并成为后者的第三大股东。SK电讯计划加强其AICC部门,使其成为包括咨询、基础设施建设和维护在内的人工智能联络中心处理服务的综合供应商。Persona AI拥有自研的自然语言处理引擎,并推出了韩国首个订阅型AICC服务。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

三万亿Token!AIlen AI发布史上最大文本数据集Dolma,已开源

随着科技的飞速发展,大型语言模型已经成为了人工智能领域的热门话题。近日,AI研究机构Allen Institute for AI发布了一个名为Dolma的开源语料库,这个语料库包含了3万亿的token,成为了迄今为止最大的开源数据集。


1、Dolma的诞生背景

从今年3月开始,Allen Institute for AI开始创建一个名为OLMo的开源语言模型,旨在推动大规模NLP系统的研究。他们的主要目标是以透明和开源的方式构建OLMo,通过发布工程中的各种成果和文档来记录整个项目的进展。而Dolma就是这个项目中发布的第一个数据成果。这个数据集包含了来自网络内容、学术出版物、代码、书籍和维基百科材料的3万亿token。这个数据集已经在HuggingFace Hub上公开,任何人都可以下载。

地址:https://huggingface.co/datasets/allenai/dolma2、Dolma的目标

  • 开源:AI2希望创建一个数据集,使其他研究者有机会独立地创建更好的版本,研究数据与其上训练的模型之间的关系,并报告他们在检查数据时观察到的任何问题。
  • 代表性:Dolma的语料库应该与其他语言模型使用的数据集相当。
  • 大小:AI2希望收集一个大型数据集,以研究模型和数据集大小之间的关系。
  • 可复制性:在准备数据集时开发的所有工具都应该公开提供,供其他人复制他们的工作。
  • 风险缓解:Dolma应该在满足可复制性和代表性的要求的同时,尽量减少对个人的风险。

3、Dolma数据集的设计原则

在创建Dolma时,需要遵循四个原则:

  • 遵循现有的实践:通过匹配用于创建其他语言建模数据集的方法,A使广大研究社区能够使用数据集和生成的模型工件来间接研究(并审查)今天正在开发的语言模型,即使那些在封闭的门后开发的模型。
  • 信任评估套件:AI2为OLMo开发的评估套件可以提供模型在多种任务上的能力指标;当做出直接影响这些任务之一的数据相关决策时,我们选择改进指标的干预。例如,AI2在Dolma中包括Wikipedia文本,因为它提高了K-12科学知识任务的性能,例如ARC。
  • 支持AI2的核心研究方向:不是所有的数据集策划决策都是关于基准性能的。事实上,许多理想的干预措施彼此相互矛盾。例如,AI2希望OLMo既能处理代码任务,也能处理文本任务,但添加包含代码的文档会降低许多文本基准的性能,反之亦然。
  • 采取基于伤害的风险缓解方法:为了研究的利益,某些界限不应该被越过,即使它们在大规模语言建模项目中是常见的实践。AI2在项目的早期与法律和伦理专家进行了接触,并根据他们的反馈对数据设计决策进行了评估。

4、Dolma的创建过程

Dolma的创建涉及从多个来源获取的原始数据转化为清洁的纯文本文档。这些数据处理步骤通常分为两类:特定于来源和与来源无关。如下图所示,预训练语料库的创建需要这两种操作的组合;多个转换按顺序在一个管道中执行。

5. Dolma与封闭数据集的比较

以下表格提供了不公开其预训练数据的语言模型的高级摘要。为了使表格不至于过大,AI2将其限制为65B+参数规模的全密集、自回归模型。✔ 表示引用的作品明确描述了论文中报告的处理步骤,?表示缺少报告,~表示仅存在部分信息。

6. Dolma与其他数据集的比较

Dolma与其他开源数据集的主要区别在于,它的大小远远超过其他开源数据集,并且它是在AI2的ImpACT许可下发布的,这是为了平衡易于访问与分发大型数据集的潜在风险。

7. Dolma的发布

Dolma在AI2的ImpACT许可下作为中等风险工件发布。根据此许可,研究者必须:

  • 提供他们的联系信息,并声明他们访问Dolma的预期用途;
  • 披露基于Dolma创建的任何衍生物;
  • 根据ImpACT许可的相同限制分发衍生物;
  • 同意不利用Dolma进行一系列禁止的用途,如军事监视或生成假信息。

8.未来展望

Dolma的发布不仅仅是一个技术上的里程碑,更是对开放研究和透明度的一次重要承诺。随着技术的不断进步,我们期待看到更多的创新和突破,为人工智能和机器学习的未来铺设坚实的基石。Dolma的出现,为我们揭示了一个充满无限可能的未来。

参考链接:https://blog.allenai.org/dolma-3-trillion-tokens-open-llm-corpus-9a0ff4b8da64

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

LLaMA都在用的开源数据集惨遭下架:包含近20万本书,对标OpenAI数据集

开源数据集因侵权问题,惨遭下架。

如LLaMA、GPT-J等,都用它训练过。

如今,托管了它3年的网站,一夜之间删除了所有相关内容。

这就是Books3,一个由将近20万本图书组成的数据集,大小将近37GB。

丹麦一家反盗版组织表示,在该数据集中发现了150本其成员的书籍,构成侵权,所以要求平台下架。

现在该平台上的Books3网页链接已经“404”。

数据集的最初开发者无奈表示,Books3的下架是开源圈的一场悲剧。

Books3是什么?

Books3在2020年发布,由AI开发者Shawn Presser上传,被收录在Eleuther AI的开源数据集Pile中。

它总计包含197000本书,包含来自盗版网站Bibliotik的所有书籍,意在对标OpenAI的数据集,但主打开源

这也是Books3名字的来源之处——

GPT-3发布后,官方披露其训练数据集中15%的内容来自两个名为“Books1”、“Books2”的电子图书语料库,不过具体内容一直没有被透露。

开源的Books3则给更多项目提供了一个和OpenAI竞争的机会。

比如今年爆火的LLaMA、以及Eleuther AI的GPT-J等,都用上了Books3.

要知道,图书数据一直是大模型预训练中核心的语料素材,它能为模型输出高质量长文本提供参考。

很多AI巨头使用的图书数据集都是不开源,甚至是非常神秘的。比如Books1/2,关于其来源、规模的了解,更多都是各界猜测。

由此,开源数据集对于AI圈内相当重要。

为了更方便获取,Books3被放到了The Eye上托管。这是一个可以存档信息、提取公开数据的平台。

而这一次惨遭下架,说的也是这一平台。

丹麦反盗版组织权利联盟向The Eye提出了下架请求,并且通过了。

不过好消息是,Books3并没有完全消失,还是有其他办法获取的。

Wayback Machine上还有备份,或者可以从Torrent客户端下载。

作者老哥在推特上给出了多个方法。

“没有Books3就没法做自己的ChatGPT”

实际上,对于这次下架风波,数据集作者老哥有很多话想说。

他谈到,想要做出像ChatGPT一样的模型,唯一的方法就是创建像Books3这样的数据集。

每一个盈利性质的公司都在秘密做数据集,如果没有Books3,就意味着只有OpenAI等科技巨头才能访问这些图书数据,由此你将无法做出自己的ChatGPT。

在作者看来,ChatGPT就像是90年代的个人网站一样,任何人都能做是很关键的。

不过由于Books3很大一部分数据来自于盗版网站,所以作者也表示,希望之后能有人做出来比Books3更好的数据集,不仅提升数据质量,而且尊重书籍版权。

这种类似的情况在OpenAI也有发生。

一个多月以前,两位全职作者以未经允许擅自将作品用来训练ChatGPT,起诉了OpenAI。

而之所以会发生这种情况,很有可能是OpenAI的数据集Books2从影子图书馆(盗版网站)中获取了大量数据。

所以也有声音调侃说,AI不仅带来了新的技术突破,也给反盗版组织带来了新任务。

参考链接:
[1]https://www.theatlantic.com/technology/archive/2023/08/books3-ai-meta-llama-pirated-books/675063/
[2]https://gizmodo.com/anti-piracy-group-takes-ai-training-dataset-books3-off-1850743763
[3]https://interestingengineering.com/innovation/anti-piracy-group-shuts-down-books3-a-popular-dataset-for-ai-models
[4]https://torrentfreak.com/anti-piracy-group-takes-prominent-ai-training-dataset-books3-offline-230816/

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

ChatGPT或将被关闭、销毁数据集

OpenAI 可能会因每条侵权内容而被处以高达 15 万美元的罚款。几周前《纽约时报》更新了服务条款,禁止 AI 公司抓取其文章和图片来训练 AI 模型。如今《纽约时报》似乎已准备起诉 OpenAI。

专家们推测,起诉结果可能会对 OpenAI造成毁灭性打击,包括摧毁 ChatGPT 的数据集,并对每条侵权内容处以高达 15 万美元的罚款。美国国家公共电台( NPR )近日采访了两位“直接知情”的人士,他们证实,《纽约时报》的代理律师正在考虑是否有必要对 OpenAI 提起诉讼,以“保护《纽约时报》声称拥有的知识产权”。

NPR 表示,如果《纽约时报》坚持到底、起诉 ChatGPT 的开发商 OpenAI,这起诉讼可能会成为自 ChatGPT 一炮打响以来,涉及版权保护的“最引人注目”的法律纠纷。就在一个月前,Sarah Silverman 加入了其他知名作家的行列,以类似的理由起诉 OpenAI,力求保护其著作的版权。


当然,ChatGPT 并不是唯一一个在版权索赔方面面临官司的生成式 AI 工具。今年 4月,专家们称,由于版权问题,图像生成器 Stable Diffusion 可能会在法律界引发“一场地震”。

但 OpenAI 似乎是早期诉讼的主要对象。

NPR 报道,如果《纽约时报》成功证明 OpenAI 非法复制了其内容,并且法院限制 OpenAI 的训练模型只包含明确授权的数据,这家公司可能面临联邦法官下令彻底重建 ChatGPT 的整个数据集这一不利局面。

OpenAI 可能因每一条侵权内容而面临巨额罚款,这对 OpenAI 的财务来说无异于一记沉重的打击。而在几个月前,《华盛顿邮报》报道,ChatGPT 已经开始面临用户流失的窘境,“动摇了对 AI 革命的信心”。除此之外,《纽约时报》打赢官司可能引发其他版权所有者提出一连串的类似索赔。与似乎最关心保留从 OpenAI 的训练模型中删除其书籍这一选项的作者不同,《纽约时报》对 ChatGPT 之类的 AI 工具存在其他层面的担忧。

NPR 报道称,“一大担忧”就是,ChatGPT 可能会利用《纽约时报》的内容,通过“创建根据《纽约时报》员工的原创报道和写作手法回答问题的文本”,成为《纽约时报》的“竞争对手”。自本月起,《纽约时报》的服务条款禁止任何人将其内容用于“开发任何软件程序,包括但不限于训练机器学习或 AI 系统”。

现在看来似乎很明显,这次服务条款的更新为《纽约时报》提供了另一道保护。NPR报道,这家新闻媒体似乎正在重新考虑与 OpenAI 签一份许可协议。该许可协议将确保 OpenAI 为用于训练其模型的《纽约时报》内容付费。

据 NPR 报道,OpenAI 和《纽约时报》之间的会晤已经变得“争议很大”,使得这种协议似乎越来越不可能达成,因为《纽约时报》似乎在权衡是否值得签署任何许可协议,因为因而开发的产品可能成为其最激烈的竞争对手。

为了捍卫其 AI 训练模型,OpenAI 可能不得不声称自己在“合理使用”该公司为训练 ChatGPT 等工具而收集的所有互联网内容。在潜在的《纽约时报》案中,这将意味着证明复制《纽约时报》的内容以生成 ChatGPT 回复不会与《纽约时报》构成竞争。

专家们告诉 NPR,这对 OpenAI 来说将是一个挑战,因为与谷歌图书( Google Books )不同,ChatGPT在一些互联网用户看来实际上可以取代《纽约时报》网站作为报道来源。谷歌图书在 2015 年赢得了联邦版权诉讼,因为其书籍摘录并没有成为“重要的市场替代品”,替代不了真正的书籍。

《纽约时报》的代理律师似乎认为这是一个切实而重大的风险。NPR 报道称,今年6月,《纽约时报》的管理层向员工们发布了一份备忘录,似乎对这个风险作出了预警。在备忘录中,《纽约时报》首席产品官 Alex Hardiman 和代理总编辑 Sam Dolnick 表示,《纽约时报》最大的“担忧”是“保护我们的权利”,不受生成式 AI 工具的侵犯。

备忘录问道:“我们如何才能确保使用生成式 AI 的公司尊重我们的知识产权、品牌、读者关系和投资?”这与许多报社提出的一个问题相呼应,许多报社开始权衡生成式AI的利弊。上个月,美联社成为了首批与 OpenAI 达成许可协议的新闻机构之一,但协议条款并未披露。

今天美联社报道,它已与其他新闻机构一起制定了在新闻编辑室使用 AI 的标准,并承认许多“新闻机构担心自己的材料被 AI 公司未经许可或付费就擅自使用。”今年 4 月,新闻媒体联盟( News Media Alliance )发布了一套 AI 原则,坚持要求生成式 AI 的“开发者和部署者必须与出版商就后者的内容使用权进行谈判”,以便将出版商的内容合法用于 AI 训练、发掘信息的 AI 工具以及合成信息的 AI 工具,从而竭力捍卫出版商的知识产权。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

马化腾撰文发声:此次人工智能革命的重要性,用几百年一遇来形容也不为过!

8月14日,《腾讯可持续社会价值报告2022》正式发布。腾讯公司董事会主席兼CEO马化腾在报告中发表了题为《通用人工智能到来的前夜,科技如何向善?》的致辞。马化腾再次就人工智能发声:以ChatGPT为代表的新一轮人工智能浪潮,正在席卷全球。中国的不少科技企业,包括腾讯,正大力投入,拥抱这个无以伦比的机会。我们相信,在扎实做好底层的算法、算力和数据后,以基础模型为代表的人工智能将会成为业务发展的倍增器,使我们更好地服务于用户、产业乃至整个社会。

此次人工智能革命的重要性,用几百年一遇来形容也不为过。

与此同时,深圳梦注意到,8月16日,腾讯发布2023年第二季度财报,公司该季度实现营收1492.08亿元,同比增长11%,净利润(Non-IFRS)375.48亿元,同比增长33%。这是腾讯营收连续第二个季度保持增长,也是净利润增速连续四个季度超过营收。

今年7月,《中共中央国务院关于促进民营经济发展壮大的意见》(以下简称《意见》)发布,坚定了包括平台经济在内的民营经济的发展信心。腾讯董事会主席、首席执行官马化腾表示,“《意见》对互联网行业提出全面战略要求,为平台经济指明发展方向,增添了我们持续开拓的决心和动力。”

财报显示,腾讯第二季度继续夯实“连接器”“工具箱”“小助手”的角色定位,行稳致远。

马化腾表示,公司保持稳健的收入增长,并向更高利润率的优质收入来源倾斜,结合严谨的成本纪律,促使利润增速超过了收入增速。他还指出,公司广告业务实现了显著的快速增长,得益于在广告平台上应用了机器学习能力以及视频号的商业化。未来,腾讯将继续推动创新,包括通过生成式人工智能,打磨自研的专有基础模型。

马化腾:此次人工智能革命的重要性,

用几百年一遇来形容也不为过

8月14日,《腾讯可持续社会价值报告2022》正式发布。腾讯公司董事会主席兼CEO马化腾在报告中发表了题为《通用人工智能到来的前夜,科技如何向善?》的致辞,分享了自己关于科技如何造福人类的思考,以及多个腾讯“科技向善”的案例,其中一个是来自深圳宝安区的“五分钟急救圈”。

“给我留下深刻印象的是在深圳宝安区的‘五分钟急救圈’,最近短短三个月,这个‘急救圈’已救助了四位突发疾病的患者。”马化腾在文中介绍,这是深圳红十字会和腾讯联合打造的“网约式”数字急救系统。这里,对AED等的数字化连接只是“网约式急救”的一部分,本质还是腾讯在政府指导下与医院、社区、学校、企业、志愿者等急救各方形成了共识,共创了能及时联动各方的系统化创新解决方案。

腾讯将两年多来探索可持续社会价值创新的实施方法归纳为“可持续社会价值创新模型”

2019年,腾讯把“用户为本,科技向善”升级为使命愿景。在持续践行中,腾讯又在2021年进行公司第四次战略升级,把“推动可持续社会价值创新(SSV)”作为核心战略,依托数字科技的核心能力助力可持续发展,创造社会价值。

马化腾在文中指出,两年多来,腾讯逐渐形成了以核心能力为依托、与社会各方共创的三大可持续社会价值创新方向,取得了一定成果。“我们对一个更加可持续与高质量发展的腾讯有了清晰的图景:它是真正科技向善的,是关心人的价值与社会的可持续发展的,是呼应时代与国家发展需要的。它从服务用户(C),发展到服务产业(B),再到服务社会(S),最终指向是为社会创造价值。‘CBS三位一体’是它的新形态,商业价值与社会价值在其中不是此消彼长,而是相互融合、共生发展,共同实现规模化增长。”

马化腾表示,可持续性科学,就是旨在把科学融入自然-社会的复杂系统中,为促进可持续发展发现新知、找到新解法。“如果我们以对人与社会的关心为底层逻辑,以人文价值为参照,就会倾听多方主体的诉求,最大化技术的向善力量,规避和最小化其风险。”

8月14日,《腾讯可持续社会价值报告2022》正式发布。这是腾讯交出的第二份年度社会价值答卷。

以下为马化腾致辞全文:

以ChatGPT为代表的新一轮人工智能浪潮,正在席卷全球。中国的不少科技企业,包括腾讯,正大力投入,拥抱这个无以伦比的机会。我们相信,在扎实做好底层的算法、算力和数据后,以基础模型为代表的人工智能将会成为业务发展的倍增器,使我们更好地服务于用户、产业乃至整个社会。

此次人工智能革命的重要性,用几百年一遇来形容也不为过。它不只将改变商业,也可能改变整个世界。微软科学家最近在论文《通用人工智能的火花》中指出,GPT4已具备人类大脑的逻辑活动迹象。

虽然科技界对此看法不一,但如果有人真的造出了一台像人脑一样工作、甚至更为聪明的机器,世界将会怎样,人类将往何处去?在通用人工智能到来的前夜,我们需进一步思考科技与社会之间的关系:科技如何造福于人类,而不是造成痛苦与潜在危机。

在这方面,联合国2019年发布的《未来即现在――科学促进可持续发展》报告认为,“科学技术是推动变革的强大力量,可让世界变好或变坏,取决于如何驾驭”。报告的建议,是把科学作为促进全球可持续发展的四大杠杆之一,尤其认为以人工智能为代表的数字科技有望带来新一代的可持续解决方案。01

作为一家科技公司,我们通过微信、云与大数据、人工智能等产品技术创新,看到了数字科技对社会方方面面的作用与责任。我们越来越深地意识到,科技是一种能力,向善是一种选择,能力越大,责任越大

于是,在2019年把“用户为本,科技向善”升级为使命愿景。在持续践行中,又在2021年进行公司第四次战略升级,把“推动可持续社会价值创新(SSV)”作为核心战略,依托数字科技的核心能力助力可持续发展,创造社会价值。

我们也在实践中认识到,如果科学技术要发挥杠杆作用,它就需以人为本、以关心人与社会的人文价值为参照,着眼于真正为人类增进福祉,并形成广泛的共识、协作与行动,才可能推动社会可持续发展。

两年多来,我们逐渐形成了以核心能力为依托、与社会各方共创的三大可持续社会价值创新方向,取得了一定成果。

方向一,通过模式创新支持科学技术发展,包括支持基础研究与低碳技术创新等;方向二,通过数字化助力社会价值领域,包括支持公益发展、乡村发展、社会应急、乡村支教、卫生医疗、文化传承等;其三,通过产品创新与公益援助,帮扶困境中的老人、孩子与妇女。

我们对一个更加可持续与高质量发展的腾讯有了清晰的图景:

它是真正科技向善的,是关心人的价值与社会的可持续发展的,是呼应时代与国家发展需要的。它从服务用户(C),发展到服务产业(B),再到服务社会(S),最终指向是为社会创造价值。“CBS三位一体”是它的新形态,商业价值与社会价值在其中不是此消彼长,而是相互融合、共生发展,共同实现规模化增长。

可持续社会价值创新,因此成了科技向善的切实抓手。

在助力环境的可持续发展方面,公司在去年初公布了碳中和路线图,形成了从自身碳中和到助力行业减碳的系统目标,并在“CBS三位一体”的框架下变成了具体的行动。

如腾讯云打造了以AI为驱动的“智慧能源生态平台”;碳中和实验室正在推进建设中国首个二氧化碳矿化封存示范项目,通过捕捉空气中的二氧化碳,转化成水溶液,注入玄武岩中,将在几年内自然矿化为石头(即CCUS技术)。

助力经济的高质量发展方面,腾讯的核心技术在数实融合方面,拓展出广泛的应用场景。如超低延时的音视频技术被用于“无人矿车”,助力解决工业领域的远程操作与危险作业。

可持续社会价值的创新,也激发更多技术拓展出广泛的社会化应用场景。天籁实验室与银发科技实验室,利用腾讯会议产品中的AI降噪技术,打造更适老又普惠的助听器,旨在为1.2亿老年人减缓听障的痛苦。

对老年人的关心,同样影响着Robotics X实验室的持续研究。它在近几年先后推出了国内一流的多模态四足机器人、轮腿式机器人和擅长花式调酒的机器人。这些,只是为实现更大目标的阶段性探索与技术积累。它真正的梦想,是在未来几年打造出为老年人提供养老护理、居家服务的养老机器人,以助解老龄化时代之下大量缺乏护工的困局,探索人机共存、共赢的新世界。

我们通过这类实践,看到了以人工智能创造新一代可持续解决方案的可行性。同时也发现,若要让这样的方案更好地服务社会,往往不是靠单一的AI+、数字科技+或者科学技术+,而是需更具全局视角、系统思维与共创方法的创新方案与务实行动。

02

以我们支持基础研究的“新基石研究员项目”为例,就是系统性创新方案的典型。基础研究的原始创新,事关科学与民族发展未来。目前国家资金对此投入巨大,但限于目标考核的原因,对于非任务导向的自由探索,资金支持相对较少。

而如果在科学系统中,把这一块短板补上,将会极大激发科学界的原始创新。所以,这个项目的系统目标是激发科学界自由探索的内生动力,那么科学家必然是主角、主导者,政府是指导者,企业是助力者、补位者。

故而,我们投入百亿,设立了公益属性的新基石研究员项目,长期稳定地支持一批杰出科学家自主选择研究方向、突破“从0到1”的原始创新。目前第一期58位新基石研究员的资助名单已发布,获得了各界的广泛肯定。这是支持基础研究的第一步。

我们也正在探索数字技术与基础研究的更多结合。如在生命科学领域,AI LAB实验室利用人工智能技术,支持精准医疗、空间组学、细胞图谱的研究,成果被发表在国际顶尖科学期刊。

在天文物理领域,优图实验室的AI技术,助力天眼FAST大大提升天文数据的处理效率,已帮助寻找到超过22个脉冲星。这给我们的启发是,也许在未来,我们可以更加系统、全面地利用AI技术,打造服务于数学、物理、化学、生物与医学等基础研究的“AI FOR SCIENCE”体系。

我们从中看到了系统化创新方案不是一成不变的,而是可以与系统共生共舞,持续进化的。

这在可持续社会价值创新的实践中,是一种共通的经验。

给我留下深刻印象的是在深圳宝安区的“五分钟急救圈”,最近短短三个月,这个“急救圈”已救助了四位突发疾病的患者。这是深圳红十字会和我们联合打造的“网约式”数字急救系统。这里,对AED等的数字化连接只是“网约式急救”的一部分,本质还是我们在政府指导下与医院、社区、学校、企业、志愿者等急救各方形成了共识,共创了能及时联动各方的系统化创新解决方案。

这样的事,同样发生在乡村发展领域,我们不只是提供“村级事务管理平台”这样的数字工具,还通过“耕耘者振兴计划”与“乡村CEO”去协助政府培养乡村振兴人才。

在健康普惠领域,我们不只是在低卫生资源的地区提供信息化与智能化的支持,而是通过数字化,从儿童听障、先天性心脏病、妇女两癌等疾病切入,打通系统的断点、堵点,搭建从基层医生培训到早筛、早诊、早治、救助的系统化创新方案,使“筛诊治一张网”能以更低的成本、更高的效率落地低资源地区。

在数字支教领域,我们不只提供数字化的远程双师课堂,而是深刻地理解了乡村教育的实际需要,广泛联动从志愿者到教育专家等有识之士一起奉献爱心,推动支教公益行业的数字化升级,进而形成系统化方案的共创。

腾讯公益更是系统化创新方案的集大成者。腾讯公益在十多年前从月捐、乐捐等产品切入,逐渐理解并深入公益界的社会系统,广泛连接用户、公益机构、企业、政府等各方,共创数字公益的系统解决方案,促进了中国公益慈善的可持续发展,推动了“人人公益”社会风尚,成为互联网公益的“中国样本”之一。03

这样的系统化方案创新,也可以在全球可持续发展领域被推崇的“可持续性科学”中找到依据。可持续性科学,就是旨在把科学融入自然-社会的复杂系统中,为促进可持续发展发现新知、找到新解法。

这里的每个可持续社会议题,都是一个有多方主体且相互作用的极其复杂的社会系统。如果科技的力量不是以系统的方式融入其中,就可能出现排异反应甚至破坏作用。而如果我们以对人与社会的关心为底层逻辑,以人文价值为参照,就会倾听多方主体的诉求,最大化技术的向善力量,规避和最小化其风险。

如此,各方的主体性得到尊重,各方的内生动力得以激发,系统化方案创新得以形成,科技的杠杆效应得以发挥。如果这样,科技能力对社会系统,不是破坏性创新,而是协同性的、变革性的共生发展,是科技创新与社会创新并举的可持续模式。

今天,人类正在迈向新的文明入口。以人工智能为代表的新一轮科技浪潮,可能会使人类的福祉上升到新的阶段,但也可能使人类在剧变中承受巨大的阵痛。

当我们以这种系统化创新的方式、以可持续性科学的新知去面向未来,也许是更好的结果。它将更好地解决环境与气候的问题,更高质量地促进经济发展,更大程度地提升社会幸福。

这样的远景不在别处,就在当下,就在我们对科技向善的践行中。

1492.08亿!马化腾最新表态

8月16日,腾讯发布2023年第二季度财报,公司该季度实现营收1492.08亿元,同比增长11%,净利润(Non-IFRS)375.48亿元,同比增长33%。这是腾讯营收连续第二个季度保持增长,也是净利润增速连续四个季度超过营收。

今年7月,《中共中央 国务院关于促进民营经济发展壮大的意见》(以下简称《意见》)发布,坚定了包括平台经济在内的民营经济的发展信心。腾讯董事会主席、首席执行官马化腾表示,“《意见》对互联网行业提出全面战略要求,为平台经济指明发展方向,增添了我们持续开拓的决心和动力。”

财报显示,腾讯第二季度继续夯实“连接器”“工具箱”“小助手”的角色定位,行稳致远。

马化腾表示,公司保持稳健的收入增长,并向更高利润率的优质收入来源倾斜,结合严谨的成本纪律,促使利润增速超过了收入增速。他还指出,公司广告业务实现了显著的快速增长,得益于在广告平台上应用了机器学习能力以及视频号的商业化。未来,腾讯将继续推动创新,包括通过生成式人工智能,打磨自研的专有基础模型。

净利润增速连续四个季度超过营收增速

财报显示,腾讯第二季度实现营收1492.08亿元,同比增长11%,净利润(Non-IFRS)375.48亿元,同比增长33%。截至该季度,腾讯营收已连续两个季度保持增长,净利润增速连续四个季度超过营收增速,继续稳步前行。

马化腾曾表示,腾讯将不断加大自主创新力度,深度参与“数实融合”。而从财报表现来看,作为“数实融合”的业务代表,腾讯“金融科技及企业服务”业务收入第二季度达到486亿元,同比增长15%,占总营收的比重达到约32%,成为本季度业绩收入贡献最大板块。

同时,该板块对腾讯营收的贡献持续走高,至今已连续九个季度营收占比超过30%。

其中,金融科技服务收入实现双位数同比增长,主要得益于线下线上商业支付活动的增加。而受益于云业务增长等因素,本季度企业服务营收回暖至同比双位数增长,毛利率明显改善。

金融科技方面,腾讯已完成对财付通的自查和相应整改工作,并提升了支付业务的合规经营能力,公司期待在支持性监管框架下推进业务发展与创新。

开拓国际市场方面,腾讯游戏板块表现突出。

第二季度,腾讯游戏业务收入为445亿元。凭借《VALORANT》《胜利女神:妮姬》《Triple Match 3D》等游戏的出色表现,腾讯游戏国际市场收入达127亿元,同比增长19%,相当于本土游戏市场收入的40%。财报显示,二季度手游和端游的月活跃账户数和日活跃账户数均实现同比增长,而且腾讯游戏近两年发布的三款新游戏在第二季度中国手游时长排名前列。

较二季度腾讯游戏445亿元总收入的大盘相比,本季度国际市场游戏收入占比为28.5%,较上季度占比有所提升,巩固了游戏板块“第二增长曲线”的角色。

微信视频号单季广告收入破30亿元

第二季度,腾讯广告业务在平台底层能力提升和微信商业生态助力下,收入同比增长34%至250.03亿元。

作为微信生态的核心组件,视频号的提振作用正在逐步显现。财报显示,得益于视频号、小程序和朋友圈用户使用时长的增长,视频号总用户使用时长同比几乎翻倍,视频号广告收入超过30亿元。

财报显示,为长远提高股东价值,截至2023年6月30日止六个月内,腾讯已回购约169亿港元(未计开支)股份,合计共约4834.65万股股份,购回的股份已被注销。

第二季度,腾讯研发开支达160亿元,自2018年至今累计投入超过2300亿元。截至6月,腾讯在全球主要国家和地区专利申请公开总数超过6.6万件,专利授权数超过3.3万件,主要集中在人工智能、云技术、大出行、即时通讯等前沿领域。

第二季度,腾讯云推出模型即服务(MaaS)解决方案,基于腾讯云自研的高性能计算集群、AI原生向量数据库、高性能网络等,帮助企业以更高效率和更低成本开发定制大模型。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

这些AI制药公司,裁员一个比一个狠

无论是生物医药还是AI制药,都来到了另一个周期。
2020年,Schrodinger在美股上市并上涨,引爆了AI制药赛道,循着退出端的“指挥棒”,VC们开始搜寻合适的标的。
随着Relay、Recrusion、Exscientia的成功上市,公司股价都曾经走出不错的表现。

但从去年下半年至今,出现了多起AI制药公司裁员的事情,去年8月9日,敲钟仅仅一年的AbSci公司,宣布裁员40人。而后今年BenevolentAI、BioXcel相继裁员,均为行业蒙上了一层阴影。
这些脆弱的上市AI制药公司,裁员一个比一个狠。

接二连三地裁员
Absci:年收入不到500万美元,裁员40人
最开始大刀阔斧进行裁员的是上市公司Absci。

Absci成立于2011年,此前营业务是将基于大肠杆菌的合成生物学平台生成高多样性菌株文库和复杂生物治疗蛋白,为制药公司快速生产以往难以生产的生物药或制剂。
而后公司开始转型AI药物研发,利用合成生物学和深度学习AI技术来识别、筛选和扩大新型候选药物的生产,主要用于开发抗体药物。
就在2022年8月9日,Absci宣布裁员裁员40人、简化运营和研究业务,以应对不断变化的经济状况。
站在合成生物学风口的AbSci,7年内共完成10轮融资,总额高达2.3亿美元,然而根据财务报告,其年营收在500万美元左右,难以支撑起最高20多亿美元的市值。
更难堪的是,Absci自上市以来的股价如同坐上滑滑梯,从最高点32.9美元一路跌到了1.6美元。
BenevolentAI:唯一临床管线失利,裁员50%

今年5月,英国AI制药独角兽BenevolentAI由于管线失败也开启了大裁员降本增效的步伐。
公司宣布裁撤多达180名员工,人数接近50%。此次裁员同样距离BenevolentAI上市仅仅过去一年。
此次直接导火索源于公司的核心管线——其用于治疗特应性皮炎的局部泛Trk抑制剂BEN-2293的IIa期临床试验,没有达到次要疗效终点,无法减少患者的瘙痒和炎症。
BEN-2293是公司目前推进得最快的管线,也是唯一一条临床管线,此前BenevolentAI也凭借该药物上市。这次临床失利对于BenevolentAI而言是一个巨大的打击。
现在,BenevolentAI并不打算继续推进BEN-2293,而是准备节衣缩食押注其他新的管线,例如BEN-8744和BEN-28010。
BEN-8744是一种用于治疗溃疡性结肠炎的潜在同类最佳PDE10抑制剂,预计2023年Q3进入临床I期。BEN-28010 是一种用于治疗多形性胶质母细胞瘤的潜在同类最佳 CNS 渗透剂 CHK1 抑制剂,预计将于今年第四季度进入IND-ready 。
BioXcel:裁员60%,市值仅剩1亿美元
8月14日,AI药物研发公司BioXcel Therapeutics 公司宣布,作为战略调整的一部分,公司将把员工人数从190人减少到80人,比例高达60%。
主要原因还是其上市药物IGALMI (右美托咪定款舌下膜剂)不如人意,上市后半年仅为38万美元。
该药物由 BioXcel 的AI平台开发,从获批 IND 到药物上市仅用了4年,主要用于用于急性治疗与成人精神分裂症或双相I或II型障碍相关的激越。
为了这款药物的销售,公司组建了超过70人的营销团队,但一个季度的销售额不超过50万美元,与公司宣称的 2.75 亿美元市场规模相去甚远。
智药局曾经就分析过,尽管精神类药物的销售额不如肿瘤药物销售快,但IGALMI 却面临着商业化的困境。该市场药物已经处于饱和,但IGALMI却不提供与现有激越药物相比的独特益处或差异化,还伴随着副作用和使用条件,难以用于急诊或者门诊情况。
除此之外,今年6月还陷入了临床信息造假的风波,此前BioXcel宣布其在研右美托咪定口服溶解膜制剂BXCL501治疗阿尔茨海默症相关激越的III期TRANQUILITY II研究达到了主要终点。但该该研究中的一名研究者正在接受调查,原因是他没有及时报告一例严重不良事件。
公司未来重点转向开发 BXCL501(右美托咪定) 以用于在家中治疗精神分裂症、双相情感障碍以及可能由阿尔茨海默病引起的轻度至中度痴呆症患者的躁动。
直指盈利困境
毫无疑问,造成三家上市公司裁员的本质都是现金流的支撑力不足。营收太低、临床管线失利、上市后销售困难,把biotech几乎主要的坑都踩中了。
自2021年下半年以来,一众AI制药知名公司市值呈自由落体之势,截至8月18日,最新市值较最高点平均跌幅普遍达到80%。
目前几乎所有的上市AI药物研发公司仍然处于亏损之中,绝大多数公司都定位于生物技术公司,仅合作能贡献少数营收外,临床阶段管线的投入却像个无底洞。

根据上图所示,大多数公司现金流也开始吃紧,仅够他们支撑到2025年左右。这也意味着公司的“抗风险能力”非常脆弱,一旦核心管线失利,或商业化药物不成功,断臂求生几乎是板上钉钉。

一家AI制药创始人此前也感叹融资环境,上市生物科技公司的市值下降了80%,走到后期轮次的公司估值较2021 年的辉煌时期下降了 30%-70%。
上市公司通过IPO或者定向增发手里还有不少余粮,是对于一级市场的初创而言,寒风吹打得更加明显。

2020年—2021年,AI药物研发公司开始集体上市,一时间点燃了资本的热情,资本找到了退出渠道。热钱涌入后,整个医药行业持续看涨,也引发人们的热捧。
根据智药局统计,2021年,全球AI制药总额约为266亿元(超42亿美元),这一数据在2022年增长到了62.02亿美元。
然而今年上半年,无论是融资数量还是融资金额,都呈现量价齐跌的态势,据智药局监测,2023年H1全球AI+药物研发融资总事件42起,其中一季度26起,二季度仅16起,二季度融资数量创下2020年以来的新低。

同时,融资金额也呈现不断下滑的态势,季度融资从最高的24亿美元,到如今的3.23亿美元。对于这些急需资金开展研发活动,或者培养新资产的AI药企而言,缺乏资金支持无疑是致命的。
生物医药市场的残酷性,并没有因为AI的加入而减少。无论是近期的大跌,还是近期传得人心惶惶的科创版第五套上市标准收紧,都指向了行业难解的问题——盈利困境。
行业的高门槛、高风险一直都存在,现金流如同紧绷的一根弦被创始人攥在手里,但曾经被降本增效的厚望的AI发挥的效用却有限。
开源很难,最终只能节流了。如果仍然缺乏资金支持,还会有更多的AI制药公司陷入生存危机。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

又有AI产品被质疑侵权,AI绘画与隐私保护如何平衡?

AI行业再起波澜。

近期,AI绘画产品TriK AI被绘画创作者质疑侵权。有插画师在社交平台发文表示,未经其本人允许,原创作品被拿来“喂”AI产品。

社交平台上再次引发有关AI侵权的讨论,并延伸到形成新一轮的“AI抵制”行动。

这不是行业第一款AI产品引发质疑。AI行业发展迅猛,相关争议也接连不断。争议的背后,反映的是行业新生事物面临的不确定性。

新技术的浪潮奔涌向前。而随着AI类产品应用逐渐融入大众生活,如何平衡好安全与创新的问题,将无法回避,这仍需要进一步的探索和实践。

AI产品再掀波澜

继妙鸭AI相机之后,国内又有AI产品站上风口浪尖。
8月1日,插画师“是雪鱼啊”在微博发文质疑小红书旗下AI绘画产品TriK 未经允许,利用其本人绘画作品做AI训练。用户用 Trik AI得出的图片,与其原作品非常相似。几天后,陆续有多位插画师在微博发文质疑。
今年,大模型成为各家互联网大厂不可错过的风口,作为内容社区的小红书也加入这场竞赛。
今年5月,据36氪报道,小红书从3月起筹备了独立的大模型团队,核心员工来自广告业务的NLP技术团队,内部还有多个独立部门同时推进AIGC(AI生产内容)方向的落地探索。在今年4月,小红书上线专注中国风方向的AI绘画应用“Trik”。
TrikAI官方账号在小红书上有超万粉丝。官方会在平台上发布用户通过Trik AI得出的作品。而眼下,账号底下更多是用户的质疑评论。
随着事件发酵,在社交平台上开始有插画师以及用户为绘画创作者发声。在小红书上,有用户将头像更换成统一“抵制AI”图案,以表达不满。
截至发稿,小红书暂未就以上争议发布官方回应。而有小红书上的创作者向Tech星球透露,小红书运营曾经在和创作者的沟通中表示,小红书从未将用户发在小红书上的作品交给任何团队训练AI。

“AI侵权”行业争议不断

这并非AI产品第一次因为侵权而引发讨论。有关AI侵权实际上已经是一个行业性话题。

数据、算法、算力是AI发展的驱动力,其中数据是AI发展的基石,包括图片、文字、视频等。数据是否足够庞大,影响着模型是否智能。各家大模型产品也是围绕数据、算法、算力进行较量,但如何获取广泛的数据是个挑战。

在小红书之前,网易旗下LOFTER的AI绘画功能“老福鸽画画机”也因版权问题惹创作者质疑。LOFTER官方解释称该功能实际是头像生成器,初衷是为方便没有绘画能力的用户制作喜欢的头像。但平台部分创作者认为该功能可能用到创作者的原创作品,有侵权之嫌。随后,LOFTER下架相关产品,并发布官方致歉信。

2022年11月,插画师洛柒也在微博质疑AI绘画应用Nijijourney涉嫌抄袭。她指出,Nijijourney生成的许多图片与部分画师的原创作品高度相似。而在此次“小红书AI产品事件”中,洛柒也积极为绘画创作者发声。

不止是绘画领域。在国外,2022年11月,OpenAI和GitHub一起推出的代码助手Copilot就曾被程序员们告上法庭。原告们认为,Copilot在未获得GitHub用户授权的情况下,使用了公共存储库进行训练。

在今年6月,OpenAI同样因为未经允许使用个人隐私数据收到了一份长达157页的诉讼书。

有关AI创作的侵权的讨论,从行业诞生之初就已经存在,并从未停止。

而有关未经允许,用受版权保护的原创内容训练AI是否违法的问题,浙江大学光华法学院教授张伟君告诉Tech星球,著作权人是否能够对人工智能学习和训练行为主张权利,在各个国家依然是有争议的问题,这个问题有待法律明确,目前不宜轻易得出该行为是否构成侵权应立即予以禁止的结论。“虽然目前我国强调加强著作权的保护,但不能因此排除对出于人工智能学习、训练目的的数据挖掘行为适用合理使用条款的可能性。”

法学博士、中国社科院法学所博士后、华东政法大学教授陈绍玲也表示,人工智能技术的发展依赖于机器学习,即利用大量数据对人工智能进行训练,利用作品训练人工智能时,会不可避免地产生未经许可利用他人作品是否侵权的问题。

“人工智能技术的发展有益于全人类的福祉,为了推动人工智能技术的发展,人工智能训练过程中对他人作品的利用不可避免”,陈绍玲告诉Tech星球,“为此,很多国家和地区在著作权法当中规定了一条例外制度,那就是为了训练人工智能的目的而利用他人作品的行为可以不认定为侵权,这在日本欧美的著作权法当中被称作文本和数据挖掘的限制例外制度。”

AI时代已来,监管提速

在微博发布质疑文章后,插画师“是雪鱼啊”在小红书发布停更声明,并已经联系律师处理相关事宜。但目前,对AI作品所涉的侵权证明和维权仍然是复杂且棘手的问题。
四川恒和信律师事务所律师、四川省版权协会版权维权中心专家王生忠去年曾接受《封面新闻》采访时表示,若要证明AI绘画构成实质性相似比较困难。“虽然不少画师也公开表示禁止AI学习自己的作品,但作为作品在公开后就有可能被计算机程序抓取,我国司法实务中判断作品是否侵权采取‘接触+实质性相似’原则,但由算法深度学习生成的作品是随机不确定的,证明构成实质性相似比较困难。”
也正是存在着未知和不确定性,让大众对AI时代的到来产生疑虑。除AI侵权之外,AI换脸、版权归属等显性争议同样引发大众的焦虑。


事实上,今年以来,各国对于人工智能的监管步伐也在不断加速。而就在8月15日,备受行业关注的《生成式人工智能服务管理暂行办法》正式施行,这是我国首个针对生成式人工智能产业的规范性政策。


生成式AI已经在市场掀起前所未有的狂欢。目前,国内各大企业纷纷入局AI大模型,百度、阿里、字节、商汤、360、云知声、科大讯飞等都已经在不同行业落地AI应用。根据IDC数据预测,2021年中国人工智能软件及应用市场规模为51亿美元,预计2026年将会达到211亿美元。行业发展速度超乎想象。


而这一次对于人工智能的监管节奏之快,也超出此前市场预期。从今年4月公开向公众征求意见、到正式发布,再到落地施行,整个周期不超过半年。


对外经贸大学副教授、数字经济与法律创新研究中心主任许可近期在接受《经济观察报》采访时便表示,从4月的征求意见稿到最终发布稿,能够看出监管的思路正在从开始的风险预防为主,到更多地谋求发展与安全的平衡。“形象一些说,监管机构希望先装好刹车再上路,使技术和产业的奔跑更稳健,避免技术失控。”


每一次技术变革,总会伴随着对新时代的期待和对未知不确定性的恐慌。技术浪潮不会停止,而在不断发展过程中,如何平衡安全与发展将是永远无法回避的命题。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

GPT or Llama2 ?这是近期大模型应用层开发者们开始考虑的问题

就在7月19日,开源社区的大明星——Llama,跃升为Llama2!这款升级版的大模型是在2万亿的token上进行训练,训练数据增加了40%,可以说规模惊人!而且,Llama2在推理、编码、精通性和知识测试等许多外部基准测试中,都表现得比其他开源语言模型更加优秀!

“以前的开源大模型都没有形成像 Llama 这样的社区,而 Llama 系列模型正是在这种非常活跃的社区文化下发展起来了,这也直接造成 Llama 系列模型在很多任务上都取得了快速进展,甚至达到了商用标准。”东北大学教授肖桐这样说。

GPT-3.5 水平通常被认为是大模型商用的标准线,在 Llama2 模型 70 亿、130 亿和 700 亿三种参数变体中,700 亿的版本在 MMLU 和 GSM8K 上接近了 GPT-3.5 的水平。这意味着,作为开源大模型的代表,Llama2 第一次进入了大范围的商业考量决策之中,开发者们拥有了一个免费、开源且足够商用的大模型底座。谷歌的一位工程师在今年5月份曾在内部撰文中直言:当免费的、不受限制的替代品与闭源模型质量相当时,人们不会为受限制的模型付费。

很快,免费的开源模型走进现实。根据Meta披露的信息,Llama2 在发布的一周内就接收到了超过 15 万次的下载请求,并且仍在持续增加,Meta 对此表示“难以置信”。

开源模型与闭源模型的大战就此正式打响。面对开源大模型更低的成本、更快的迭代速度、更高的定制化上限,闭源大模型的应对策略,成为一个问题。

Llama2 还是 GPT-4——成本

选择Llama2的原因有很多,其中最直接的原因就是成本。现在,GPT-4接口的调用费用相当高昂,每1000个提示请求token就要花费0.03美元,完成响应token还要再花费0.06美元。据斯坦福大学的研究员在一份论文中估算,如果中小企业利用GPT-4来协助市场工作,每个月的成本可能会超过2.1万美元!而一家利用GPT-4辅助广告文案生成的公司也表示,它们每个月为GPT-4接口支付的成本平均超过25万美元。这样一来,选择Llama2这种成本更低、性能又不错的开源大模型,显然是个明智的选择。

一家国内AIGC应用商表示,Llama2虽然技术水平上暂时不如GPT-4,但考虑到GPT-4的高昂成本,团队还是选择了使用Llama2作为底层模型。他们通过在产业中积累的行业数据以及专注于垂直场景的输出,能够弥补一部分技术代差。

Llama2出现后,更多的公司开始转向基于Llama2进行商业化开发,而不再购买OpenAI的API。因此,在免费的冲击下,原先使用OpenAI接口的应用层公司会重新思考应该选择哪个路线,有一部分的市场或许将会被Llama2重新洗牌。

然而,这个决策并不完全是成本之上的较量。对于“较好的数据和优化是否能够弥补如今Llama2与GPT-4差距”这个问题,消极的声音占据较多数。

Llama2 还是 GPT-4——性能

东北大学教授肖桐以机器翻译场景为例指出,虽然我们可以用类似于Llama2的开源模型进行指令微调,达到不错的翻译性能,但最终会发现性能仍然受限。因为开源大模型的某些能力是在预训练阶段获得的,所以即使指令和任务明确,并且有了很多数据,也仍然难以达到GPT-4的效果。


此外,与往常的披露不同,此次Llama2开源并没有对外披露数据层的具体信息,因此复现Llama2成为一件受限制的事情,企业没有训练Llama2底层模型的权限和能力,所以它的性能很难突破,逼近GPT-4这个目标不太可能的。
一些应用开发者认为,按照此时Llama2与GPT-4的水平差距,如果全力押注Llama2,付出的代价可能同样很大。他们可能要花费大量时间在优化Prompt上,而不是专注于产品创新。


因此,在技术的绝对领先下,GPT-4仍然会持续吸引那些对效果有较高要求、在成本方面有较大空间的客户。
当然,Llama2的更大贡献不仅仅是存量市场的转移,更重要的是对整个AIGC行业增量市场的拉动。一位AIGC业内人士向机器之心表示,Llama2的开源点燃了很多应用开发者的热情,在开源后的几周时间内,许多开发者对它寄予了厚望,将它比作移动互联网黄金时期的阶段,希望能找到应用的新切入点。


正如肖桐所言,Llama2能够支持企业和团队在大模型应用层面低成本、快速地启动,打造出产品和商业模式的原型。随着围绕Llama的应用尝试越来越多,未来可能会迎来一个模型平民化的阶段,使用大模型做应用的门槛将不断降低。


在过去的几周时间内,Llama2已被接入各种平台,包括Amazon Sagemaker、Databricks、Watsonx.ai、Microsoft Azure、阿里云和百度千帆等,围绕Llama2的生态已经在慢慢形成。

Llama2 对国内大模型创业公司的碾压

在Llama2推出之前,开源社区最强的大模型Llama在商用许可上有限制,而OpenAI的接口在国内面临着不确定的监管风险。因此,相比于两者,国产大模型在市场竞争中的优势通常是“可商用”、“数据安全”以及“更好的服务支持”。
Llama2的发布削弱了国产大模型创业公司在市场上的竞争力,对那些自研大模型积累不够的公司来说,Llama2产生的冲击更大。
然而,那些认为自己短期内凭借自研能力无法超过Llama2的公司,仍有机会成为端到端的应用公司。他们可以利用自己的既有模型结合开源模型,直接向市场提供应用,并实现数据上的闭环,以不断迭代。这样,他们便可以在大模型开源生态系统中找到自己的立足之地。
Llama2的发布不仅展现了开源社区的强大技术能力,更进一步推动了开源社区的发展。随着Llama2的释出,大模型开源社区的力量已经引起了市场的广泛关注,成为了不可忽视的力量。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

字节跳动AI产品Grace新版本更名为“豆包”并启动测试

 节跳动首个大模型独立App近日上线,是一个AI对话产品,叫“豆包”。并启动测试,网页版、移动端均已上线,支持手机号、抖音账号、Apple ID 登录。目前拥有文生文的功能。     豆包的官网为www.doubao.com,由北京春田知韵科技有限公司开发并运营,后者由字节旗下的北京抖音信息有限公司100%控股。
     目前可在其官网直接注册使用,或通过官网提供的二维码下载App,不需要邀请码。该产品前身正是字节内部代号为“Grace”的AI项目。提供“豆包”、“英语学习助手”、“全能写作助手”、“超爱聊天的小宁”等四个虚拟角色,为用户提供多语种、多功能的AIGC服务,包括但不限于问答、智能创作、聊天等。“豆包”项目组人士回应称,“豆包”是一款聊天机器人产品,还处于早期开发验证阶段,这次上架仍是小范围的邀请制测试。

 早在今年2月份,就有消息称字节跳动加入国内“AI大模型”逐鹿战中,应用场景包括抖音与TikTok的搜索功能、AI生成图片视频等。AI大模型是时下最为热门的AI细分领域,近日国内外大模型密集发布,国内厂商如商汤、阿里、知乎陆续发布其大模型产品,飞书发布AI助手“MyAI”;海外亚马逊推出AI平台Bedrock,InnovativeEyewear推出支持ChatGPT的智能眼镜。     

从大模型产业链来看,上游为芯片、数据库软硬件,中游为算法研发(训练框架、模型测评等)和模型管理维护(数据处理等),下游产业的重点领域为社交、媒体、营销、教育、娱乐,重点场景包括内容生产、创意设计、对话引擎和辅助开发。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

麦肯锡自家AI引发行业地震:Lilli将让上万咨询师失业…

8月16日,沉寂已久的咨询巨头麦肯锡

官宣了一条令人兴奋的消息

所有的麦府员工都将能用上

自家专属的AI工具—Lilli啦

Lilli横空出世

这无疑让不少咨询师失业

快跟Uni酱一起来看看

Lilli:我的到来足以让行业一震

8月16日,麦肯锡官网发布消息,郑重的向大家介绍了一下Lilli。

这是一款由麦肯锡首席技术官Jacky Wright领导的“ClienTech”团队为麦肯锡员工设计的新型聊天应用程序。

这里提到的ClienTech,其实是麦肯锡内部的一个神秘技术团队,由大约200名技术专家组成,是麦肯锡科技生态系统的三大支柱之一!

为什么叫Lilli?

Lilli取自Lillian Dombrowski,她是麦肯锡1945年聘用的第一位职业女性,后来成为该公司的财务总监和公司秘书。
认识Lillian的人都说她愿意做任何事,是当之无愧的“能力者”。她的研究促成了麦肯锡的运输和保险部门的创建;她帮助制定了利润分享和养老金计划,甚至还建立了麦肯锡的档案。

而Lilli和Lillian Dombrowski最像的地方就在于,TA们都有着超强的能力并且能够执行到位~

Lilli可以做什么

不过,QuantumBlack(量子黑)不是一个推翻重来的名字,它原先是麦肯锡2015年收购的数据分析公司,并在去年成为了麦肯锡官方的、统一的人工智能(AI)部门。

与Cohere合作,为客户提供人工智能解决方案
此外,一个月前,麦肯锡还官宣与人工智能初创公司Cohere达成合作伙伴关系,为其企业客户提供人工智能解决方案。据了解,它们已经共同为从金融服务到零售各个行业的公司提供服务,但没有透露这些公司名称。
对于Cohere,同学们可能比较陌生,它其实是一家正在快速崛起中的AI初创公司,由谷歌前顶级人工智能研究人员创立,有着非常深厚的学术气质~

据了解,Lilli可以提供信息、洞察、数据、计划,甚至可以根据咨询项目需求推荐最适合参与其中的内部专家,而所有这些操作的实现都基于超过10万份的文档和访谈记录!


自2023年6月以来,Lilli一直处于测试阶段,并将在今年秋季在麦肯锡全面推出。到时候所有麦府员工都能自如使用自家专属AI工具来工作啦~
关于Lilli具体是如何工作的,我们暂时还看不到太多信息。不过麦肯锡举了一个例子来帮大家理解~
比如,用户可以输入一个问题,Lilli可以在整个知识库里进行检索,确定5到7个最相关的内容,总结关键点,包括链接,甚至确定适当领域的专家。

收购数字化转型公司
其实,早在几年前,麦肯锡就已经开始布局数字化转型之路,先后收购了多家服务于数字化转型的公司,并成立了新部门QuantumBlack。
作为麦肯锡数据和高级分析的核心,QuantumBlack致力于为麦肯锡咨询团队赋予最前沿的数据分析能力,使之能够在极具挑战性的咨询项目中为客户释放出巨大增长潜力。

而且,Cohere目前已经完成了2.7亿美元的C轮融资,估值超过21亿美元,已经成为一家实力不可小觑的AI超级独角兽!
这么一看,麦肯锡与Cohere合作也可以算是强强联合。相信有了Cohere的技术支持,Lilli也会被开发得更加强大~
麦肯锡一系列的举措都在向我们证明:AI浪潮已经势不可挡。同时,随着麦肯锡正式入局,咨询公司的AI竞赛也变得更加精彩~

I时代已经到来, 咨询行业如何表态
论与时俱进,咨询公司一向走在前列!
自ChatGPT横空出世至今,生成式AI赛道爆火,越来越多咨询公司加入了拥抱AI的队列之中——

Bain 官宣与OpenAI合作Bain是咨询公司中最早拥抱OpenAI的那一批。抱着“打不过就加入”的心态,2月21日,贝恩宣布与OpenAI(开发ChatGPT的公司)正式展开合作,成立全球服务联盟。希望可以最大化AI价值,并为客户提供更具潜力的解决方案。

过去一年,贝恩全球1.8万余名专业人士已经开始在工作中运用到OpenAI技术,包括将OpenAI技术植入内部知识体系、研究和流程中,从而进一步提高效率。

BCG X官宣与Open AI进行合作MBB中目前走得最远的当属BCG!BCG不仅早早成了新部门BCG X与McKinsey QuantumBlack分庭抗礼,还于近日马不停蹄地官宣加入与OpenAI进行合作的队列,可谓是项目落地和战略规划双赢!
先说BCG X,早在半年前,BCG在刚官宣成立新部门BCG X的时候就计划要用2500人扩充新部门。但形势的发展远超预期,随着数字化浪潮的深入,相关业务量激增!

PwC 豪掷10亿美金开发AI就在前不久,普华永道美国发布声明称,该公司计划在未来三年投资10亿美元,用于发展生成式AI技术,并将与微软和OpenAI合作,使其在税收、审计和咨询服务的各个方面实现自动化。
据悉,普华永道已经开始在为保险、航空、医疗等行业的客户提供服务的过程中引入了Azure OpenAI。这些解决方案已成功地使客户节省时间和成本,同时帮助增加收入。


与此同时,普华永道将对其内部平台进行现代化改造,以嵌入这种新的、安全的生成性人工智能环境,在其利用人工智能为客户提供税收、审计和咨询服务的现有基础上再接再厉。

Accenture 狂砸30亿美金大扩招6月13日,埃森哲在官网发布消息称,将在未来三年内,针对数据和AI业务投资30亿美元,以帮助各行各业的客户快速、负责任地推进和使用人工智能。
据了解,这笔30亿美元的巨额投资将在三年内使用,涵盖资产部署、工具开发、收购与人才研究。埃森哲表示,这笔投资建立在其十多年来在AI领域的领先地位之上,公司的AI专业知识涵盖全球1450多项专利和正在申请的专利,以及数百个大规模客户解决方案。

KPMG 狂砸20亿美金进军AI和埃森哲相似,发布裁员消息后不久毕马威也马不停蹄在7月11日官宣了自己的另一个大计划——狂砸20亿美金进军AI!
据报道,毕马威与微软达成了里程碑式的协议。毕马威计划在未来五年内,通过与微软扩大合作关系,在全球各业务领域投资20亿美元,用于人工智能和云服务。而这也是“四大”在这些技术上加倍投资的最新举措!
此外,就在前不久,毕马威澳大利亚公司还推出了独家定制的ChatGPT——KymChat。这本质上也得益于毕马威与微软的合作,据悉,毕马威是全球少数几家获准开发该工具私有版本的公司之一。


事实证明,AI颠覆金融、咨询行业的速度比我们想象的快得多,想要先人一步体验最新AI科技的同学可以多多考虑上述这些咨询公司。
当然啦,目前来说AI还不至于取代人类,但它确实已经对工作和求职产生了很大的影响。

根据Challenger, Gray & Christmas发布的报告,科技行业迎来了自2001年以来该行业裁员最多的一次,这也是美国就业报告首次把AI加入裁员理由中。数据显示,5月份美国有近4000人因为AI失业

与此同时,随着人们对不断发展的技术及其对商业可能产生的影响越来越感兴趣,华尔街投行们正在利用AI展开一场”金融革命”

根据咨询公司Evident的最新数据,在最热门的几大银行中,大约40%的空缺职位与人工智能相关,例如数据工程师、分析师🧐

如今金融圈、咨询圈什么最火?AI当仁不让。咨询公司们都明白一个道理:AI或许无法取代咨询顾问,但不善于用AI的咨询顾问可能会被老板淘汰,不善于利用AI的咨询公司可能会被市场淘汰。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI巨头下场!低算力跑通高阶智驾,背后技术揭秘

2023年虽说还有5个月,但可以预料到的是“降价”、“洗牌”两个词将贯穿车市全年。今年可谓极为特殊,国内车市“卷声”不断,多位行业高管声称今年是汽车市场最卷的年份,没有之一。余承东更是放话,车市内卷其实刚开始,未来还会更卷。随着第三季度价格战打响,特斯拉再次掀桌子式降价进一步挤压了供应链成本,降本增效将被提升至新高度。

在降本增效的趋势下,智能驾驶解决方案的上车速度和应用水平成为众多车企竞争的关键。目前,量产自动驾驶赛道有多名玩家正在布局,像蔚小理这样的新造车企业和华为这样的Tier1已经凭借落地高速NOA和城市NOA进入了第一梯队。此外一些新进入的智驾“新势力”凭借先前的积累凭借原创算法能力、大模型能力、数据闭环工具链、算力基础设施已经具备了第一梯队的实力。已经深耕人工智能物联网行业十二年的旷视科技就是这批智驾新势力的代表之一。

这位AI视觉领域的超级明星,其实从2021年起就正式布局智驾领域,但基本上没有官宣任何关于智能汽车的讯息。直到今年6月份,旷视科技在全球最前沿智驾挑战赛的感知赛道,展示了冠军的统治力。旷视“神秘”的智能驾驶业务,才真正浮出水面。现阶段智驾方案领域已进入混战,旷视科技憋大招憋了两年之久,终于彰显了智驾业务潜力。那么旷视的竞争优势体现在哪里?车东西通过与旷视科技智驾业务总裁刘伟的交流中捋清了旷视自动驾驶业务的业务策略、关键进展和未来发展方向。


01.性价比难题下
视觉为主智驾方案曙光已现
根据高工智能汽车数据,2023年前五个月标配L2(含L2+)级别ADAS(高级驾驶辅助系统)的乘用车累计渗透率突破50%,量产自动驾驶方案占据市场主流。但目前的行业共识是,阻碍智能驾驶解决方案,特别是以L2、L2+为代表的量产智能驾驶解决方案的落地,关键原因就在于性能和成本难以统一

追求高性能意味着要搭载多个激光雷达、大算力芯片,而这样的方案却只有高端车型才能负担。根据Yole Intelligence发布的《2023年全球车载激光雷达市场与技术报告》,全球乘用车激光雷达市场(包括L2+和L3级别的ADAS应用),正在以285%的增长率快速起量,禾赛凭借23%的市场份额以及31%的前装定点数量强势领先。

而根据禾赛科技一季度财报,禾赛经营收入达到4.3亿元,共交付了3.48万台激光雷达产品,同比增长402.9%。而ADAS激光雷达占全部交付量81%,共交付2.82万台。由此可推算,单颗激光雷达均价在12344元。此外,禾赛科技CFO谢东萤也透露ADAS激光雷达的均价约为500美元(约合人民币3618元)。

禾赛科技售价接近4千元起/颗的激光雷达,目前已被超过11家一线车企采用,包括理想汽车纯电平台、集度新车型、赛力斯新车型等。很明显,搭载激光雷达的车型基本上都是高端定位。但目前国内市场大都是10~30万元车型,在价格战一波未平、一波又起的情况下,千元量产辅助驾驶方案已经成为大部分主机厂的成本红线,供应链方面的成本压力更大。

中国主流市场对以视觉为主的成本低且体验好智驾方案存在庞大需求。而这种视觉为主的辅助驾驶方案通过摄像头来实现,且根据半导体公司安森美的数据,L2级辅助驾驶每辆车摄像头总成本大约才40美元(约合人民币289元),而L3摄像头总成本则为185美元(约合人民币1338元)。相较搭载一颗激光雷达,整套摄像头可以极大拉低成本,至少在成本上削减近4000元/颗,相对低廉的成本适配国内大部分10~30万元车型。国内主流市场对视觉为主的自动驾驶方案存在庞大需求,新契机出现的同时,市场也对此方案的性能也提出了更高的要求。目前特斯拉、大疆车载等企业已经布局,但整个市场还有空白空间,视觉为主的自动驾驶解决方案的产业格局尚未定型,市场对于优秀的技术供应商的需求依然很大。

02.3套智驾方案准量产 成本降低超20%

从技术实现度划分,量产自动驾驶赛道分为三个梯队。

第一梯队指的是以华为、小鹏、理想、蔚来这种高速NOA和城市NOA已经落地的玩家,可以实现城市开放道路下的自动驾驶。

第二梯队指的是高速NOA量产上车,但城区NOA并未落地的玩家。

第三梯队则是只能实现L2,仅支持ACC、LKA等有限辅助驾驶功能,但高速NOA还在研发过程中,完全没有城区NOA的玩家。看起来,智能车行业已经形成了三大梯队的层次格局,但这一格局仍处于动态变化中。

比如第一梯队玩家最大特点就是可以实现端到端、软硬件一体打造,但也有一些新加入的玩家已经通过技术跃迁实现了这些能力,有望跻身第一梯队。例如,由3个清华姚班高材生——印奇、唐文斌、杨沐于2011年创立的旷视科技,深耕AIoT软硬一体化产品体系长达12年,无论是延伸布局二级市场还是研发大模型,旷视科技都不甘落于人后,不过在智能驾驶赛道保持着较为“低调”态度,很少官宣布局信息。

但近日,旷视透露入局自动驾驶已有两年之久,并且一出手就拿下了全球智能驾驶感知赛道的冠军,还亮出了全身的“腱子肉”。在端到端方面,据旷视科技智驾业务总裁刘伟透露,旷视现在已经实现了“感知、建图、跟踪、预测”四合一的模型,为端到端的自动驾驶模型上打下了基础。旷视的独特竞争力还体现在软硬一体能力上,在硬件方面,旷视过去在AI、视觉算法等领域落地了芯片、传感器、摄像头、面板机等多款产品,建立一套比较完整的产品体系。将先前打造硬件的能力迁移至自动驾驶硬件产品中,旷视目前也在加快布局智能驾驶芯片和传感器等硬件。

在算法方面,旷视科技自研了新一代AI生产力平台Brain++以及自研深度学习框架MegEngine(旷视天元),基于Brain++,旷视还打造了AIS算法生产平台。该平台是一站式MLOps算法生产平台,能提供从数据清洗、智能标注、数据管理、数据质检、算法自动生产、模型多维能力评测、pipeline 部署等全流程能力。基于以上能力,旷视为行业内输送了三种L2+解决方案,分别是标准版、专业版和旗舰版。

最基础的标准版就已经带高速NOP功能,可以覆盖高频智驾场景,主打性价比。专业版可进阶实现城市NOP和跨车道安全停车,据悉目前该方案正在量产交付。而最高配置的旗舰版具备增强的城市NOP功能,具备更强的安全冗余。而旷视主要集中于标准版和专业版方案发力,这两套方案都没有使用激光雷达,大大降低了方案成本,可以更好服务于10~30万元的量产市场。

刘伟十分坚定的表示,“我们期望并不是某款旗舰车型一年几千台的销量,而更希望中低价位车型一年几百万的销量,这才是我们的诉求。”旷视将全力助力方案降本,希望将这两套方案的价格大幅降低。

03.那么随着“价格战”竞争越发猛烈,旷视是如何降本增效的?

首先,旷视是一名坚定以视觉为主,“BEV+前融合”的方案的玩家。刘伟介绍了相关技术进展,“在3D实时建图上,我们不依赖于高精地图便可实现高速和城区NOP”,“首创鱼眼BEV模型,使得感知范围扩大了三倍”、“在3D实时建图上,不依赖于高精地图便可实现高速和城区NOP”“我们的去RTK定位算法,定位能力达到了RTK方案的水平”。“去激光雷达”、“去高精地图”、“去RTK”,整套方案的成本就保持在大部分主机厂的可控范围内。不过价格只是一方面,为了让方案有更好的体验,旷视科技通过优化算力,将“BEV+Transformer”成功运行在低算力芯片上,同时让该方案具有良好的性能表现。

举个例子,蔚来ET7、小鹏G9、理想L9、智己LS7等车型都采用英伟达自动驾驶芯片OrinX来跑高阶辅助驾驶,单颗Orin-X的算力可达到254TOPS,而这样一颗芯片价格高达400美金(约2700元),中低端车型难以负担。

而旷视科技看到了这一特点,在Orin芯片算力的1/5左右(大约50TOPS)的芯片上实现同样的高阶智驾功能,随着算力需求的降低,芯片的成本甚至是整套方案的成本就可以大大削减。

为了进一步降本,旷视正在朝着“统一算法框架”持续发力,通过统一的BEV算法框架,实现算法真正平台化,同时采用了配合高中低不同算力的“Pin-to-Pin”系列芯片,实现芯片硬件的平台化,帮助主机厂控制车型量产的质量、成本,加快量产速度。

目前,旷视的统一算法框架已经具备基础的模型能力,原生支持5V或11V等不同的方案。基于以上布局,刘伟表示,旷视科技的智驾方案在行业中至少降本20%

大模型趋势下
智驾新手AI厂商有望抢跑
先前自动驾驶行业卷向瓶颈,大模型出现后的狂飙让整个行业有了新方向。虽然很多自动驾驶企业抢先喊出了自动驾驶大模型的口号,但打造出与Chatgpt同等水平的自动驾驶大模型还有很远的距离,商业化还有很长的路要走。而旷视科技是国内最早一批探索大模型商业化落地的企业之一。

聚焦于通用多模态大模型、AI内容生成大模型、计算摄影大模型和自动驾驶大模型四个方向,旷视科技取得了多项突出的科研成果。今年7月,旷视的大模型实力更是得到了官方“盖章”,以“模型伙伴”身份入选北京市通用人工智能创新伙伴计划,为与Chatgpt同等水平的自动驾驶大模型的打造积蓄了深厚的力量。刘伟表示,大模型未来在车上的落地,座舱有可能成为一个非常大的落地场景

就目前而言,大模型最直接的价值是体现在研发工具上。“我们基于在大模型上的能力积累,做自动化的标注,从而节省大量成本。然后,还可以利用大模型去做场景的挖掘,尤其是一些长尾场景。大模型在提升效率方面的价值,目前看是非常显著的。”在刘伟看来,更重要的是,大模型将有助于提升感知能力的上限。

未来的大模型会是多模态的,能将感知能力提升到更高水平。目前,旷视已经实现了“感知、建图、跟踪、预测”四合一的模型。随着大模型的继续演进,未来有可能将“规控”也加入进来,最终形成一个“大一统”的大模型。这样的话,环环之间信息传递的衰减就会大幅度的减少,从而提升整个感知能力。

此外,大模型还有助于提升决策能力,使车能够真正去作一些决策。未来的智能汽车,会变得超级智能。从底盘、空气悬挂、刹车系统、车窗、灯光氛围,都会被数字化,几乎所有东西都会被控制。未来的智能座舱,会是一个涵盖感知传感器、软件SDK和智能决策引擎的“感-知-决”的产品体系。其中,决策能力会是核心。基于AI生产力平台Brain++的能力,旷视未来也会聚焦在打造智能座舱的决策引擎上。

同时,结合在芯片、软件算法方面的能力,形成覆盖“感-知-决”的智能座舱产品体系。除了大模型外,算法、算力等基础能力也决定了一个智驾团队最终能够走的多远。旷视集结了中国顶尖的AI科研团队,打造了原创算法这一技术底座。据刘伟讲述,旷视是行业内第一个将“BEV+Transformer”运行在一个低算力芯片平台上的厂商

且旷视在低算力的嵌入式芯片上跑通的2个BEV感知算法,帮助旷视在OpenLane拓扑关系赛道,在线高精地图构建赛道获得了冠军。同时,旷视也打造了一万多张卡的算力基础设施,实现算法的快速迭代。一系列布局证明,在“百模大战”的当下,即使是后发入局的智驾“新势力”选手,凭借先前在AI行业12年里积累的经验,抢跑自动驾驶十分有底气。随着技术积累能力和业务增长潜力持续提升,旷视有望在智能车行业抢占先机。


04.结语:AI+自动驾驶前路可期

AI正席卷汽车行业,“智能升级”的大幕徐徐拉开。

如今,全球的智驾解决方案玩家都在奋力狂奔。在这种条件下,谁能够把AI能力更加充分的发挥于降本增效,谁就能抢得智能汽车下半场的发展先机。

这两年以来,新一轮的电动化、智能化浪潮,叠加中国车企的崛起,中国厂商迎来了快速发展的机遇,部分AI企业已崭露头角,有望快速加入全球智驾方案的角逐中。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

Meta的新LLaMa AI模型是给世界的礼物!

近几个月最大的新闻是,Meta推出了其世界著名的LLM的第二个版本LLaMa,并在此过程中发布了其第一个聊天机器人LLaMa-2 – chat,这是Meta对ChatGPT发起的第一个真正的威胁。

但这并不是普通的“看看我们的新LLM有多酷”类型的发布,实际上Meta试图永久改变AI的叙事方式。

事实上,我想说这次发布确实可以永久地改变AI,并开启一个AI访问和知识最终实现民主化的时代。

LLaMa的胜利也是你的胜利,你将会明白为什么。

最新的开源技术

首先,在阅读了70多页的论文后,LLaMa 2的出色之处显而易见。

优化以实现卓越

Meta创建了四个模型,分别是7,13,34和700亿参数模型。

尽管后者相当大,但它们都比GPT-4小了几个数量级(据推测,GPT-4是一组多达82200亿个参数模型,交织在一起,总共约有一万亿参数),比GPT-3小了两倍多。

事实上,这个模型并没有从它的第一个版本发展起来,它已经是一个65B参数模型。

那么为什么它变得更好了呢?

很简单,Meta的方法很明确:因为他们将专注于提供开源模型,所以他们的优化目标不是大小,而是数据。

也就是说,他们用比原来大40%的数据集和更长的时间来训练LLaMa,同时还将其上下文窗口增加了一倍,达到4k个标记(大约3000个单词)

在质量方面,如下图所示,LLaMa 2-Chat 700亿参数模型基本上击败了它的所有竞争对手,尽管体积小得多,但比ChatGPT(3.5版)略好一些。

与其他开源模型相比,它无疑优于所有开源模型。

当然,它仍然不如GPT-4(图中没有显示),但我们谈论的是一个可以轻松放大12-15倍的模型,所以这并不奇怪。

但这项研究的主要亮点不是这个模型有多好,而是他们在解释模型训练过程中投入了多少细节。

而这一点正是LLM发展中的一个重要里程碑。

构建智能

Meta做的第一件“不同”的事情是分别优化了有用性和无害性,创建了目前可能最安全的高性能聊天机器人。

为此,让我们回顾一下Meta自己绘制的构建LLaMa-2-Chat所需的完整过程图。

训练GenAI聊天机器人包括四个步骤:

  1. 首先,我们通过优化基础模型来训练它,以自我监督的方式预测文本序列中的下一个标记。也就是说,你屏蔽序列中的下一个单词,并要求模型对其进行预测。
  2. 这个预训练模型使用一个经过精选的数据集{提示,期望答案}进行微调。该模型被OpenAI称为“行为克隆”,可以学习以期望的方式行为。这是LLaMa-2-Chat的第一个版本。
  3. 接下来,我们希望根据人类偏好优化模型,同时减少有害反应的发生。使用步骤1中模型的副本,我们“切断”它的单词预测头,而不是预测序列中的下一个单词,根据人类的偏好输出一个标量值,表示对特定提示的响应有多好。这被称为奖励模型(RM)。简单地说,这种奖励模型在规模上就像人类一样。这意味着该模型经过训练,可以准确预测受过高等教育的人对给定提示的反应所给出的分数。
  4. 最后,我们针对该奖励模型训练LLaMa-2-Chat,目标是最大化奖励。换句话说,聊天机器人学会了根据提示写出能够产生最高价值的回复。

步骤3和步骤4是我们所说的从人类反馈中强化学习(RLFH),也是最终得到LLaMa-2-Chat模型的过程中的关键步骤。

但如果你熟悉LLM训练流程,你会发现图像中的某些内容看起来非常奇怪。

有用性与安全性的权衡

在标准的训练流程中,比如OpenAI用来构建ChatGPT的流程,他们只使用了一个奖励模型。

但在Meta的案例中,LLaMa-2-Chat是基于两种奖励模型构建的:

  • 一个有用性奖励模式
  • 一个安全性奖励模型

这在AI领域尚属首次,这样做的原因无非是有用与安全的权衡。

根据来自Anthropic的Claude模型背后的首席研究员Yuntao Bai领导的研究,优化一个既有用又安全的模型是很复杂的,因为它们有时会存在权衡。

如果你正在构建世界上最有用的模型,那么这个模型将准备好回答任何问题,无论要求的道德细微差别如何。

想要制造炸弹吗?方法在这。

想知道最简单的杀人方法吗?当然,为什么不呢?

因此,仅仅追求有用性,从字面上看,就是在制造一个定时炸弹。

另一方面,如果你想建立世界上最安全的模型,它要回答太多的问题将会非常复杂,因为当今世界上几乎任何事情都可以用道德正义的眼光来审视。

例如,Pi可能是我尝试过的最无害的聊天机器人,但当你想让它真正帮助你做事时,使用它真的很痛苦。

那么Meta做了什么?

简单地说,他们创建了两种奖励模型,并简单地使用动态成本函数对这两种模型进行优化。

为此,Meta团队注释了数据集中最有害的响应,当模型使用该响应进行训练时,与奖励分数相关的成本函数项从有用项切换到安全项。

通俗地说,如果训练样本非常有害,模型的目标是以“安全”的方式回答,而在其他情况下,它被训练为“以最有用的方式”回答。

技术说明:当我说针对某些事物进行优化时,我指的总是优化成本函数。为了训练一个神经网络,你需要定义一个可微的数学表达式来衡量模型预测的成本或误差,通过计算模型参数的梯度,你可以获得最小化成本的最佳组合,从而最大化预测精度。

通过这样做,该模型获得了如何最好地回答每个提示,同时考虑到不应回答的有害提示。

对于开源社区来说,这是一个明显的双赢,也是一个里程碑式的时刻,该社区可以获得关于如何执行这个被称为RLHF的“受到良好保护”的秘密的极其重要的信息。

但是,如果革命性的安全训练还不够,他们还引入了另一个新概念。

GAtt让你的模型记住一切

注意力是LLM的关键因素。

这是他们理解单词之间关系的方式,这种机制越好,模型就越好。

遗憾的是,文本序列越长,模型就越难记住序列的起始部分。

因此,如果你在第一次提示中要求模型“扮演拿破仑”,到第20次提示时,模型很可能会忘记这一指令。

在Ghost Attention(GAtt)中,他们对模型进行了微调,使其能够特别注意指令,并在整个对话过程中记住它们,这种情况发生了变化:

GAtt模型清楚地记得最初的指令,并在用户不一定要求的情况下继续提供表情符号的答案。

这是非常令人兴奋的,因为遵循指令是一个有用聊天机器人的基石,并且在整个对话中有效执行这些指令是大多数聊天机器人目前无法做到的。

GAtt将会继续存在。

OpenAI最近宣布了ChatGPT的“自定义指令”,这可以被认为是一个类似但更持久的功能。然而,在OpenAI的情况下,这可能只是一个UI/UX技巧,他们只是在每个提示下简单的添加了指令。

然而,其中最重要的公告是在几天后发布的。

跨越未跨越的桥梁

在随后的新闻发布会上,Meta宣布他们正在开发的LLaMa-2-Chat不仅适用于商业用途,而且还可以通过微软的云服务Azure访问。

这是一个巨大的突破,因为企业客户现在不仅可以通过Azure云利用ChatGPT,还可以访问LLaMa。

但这里的关键是LLaMa 2实际上是可下载的,这意味着客户可以将其安装在自己的私人服务器上,从而永远消除将数据发送到OpenAI或Anthropic服务器所需的安全风险。

因此,LLaMa-2-Chat可能成为第一个真正广泛应用于企业用例的聊天机器人,这本质上意味着,也许最终Meta首席科学家Yann LeCun是对的:

“开源最终将赢得人工智能”。

——Yann LeCun

用自己的方式书写历史

Meta大胆地发布了LLaMa 2和LLaMa-2-chat,这标志着大型语言模型开发领域的一个明显转变。

这不仅仅是介绍另一款尖端产品,这是对微软等科技巨头的大胆声明,强调Meta致力于使这些模型训练的知识和工具民主化。

现在,人工智能行业有了第一个高性能聊天机器人,并附有一份长达70页的研究论文,其中提供了解其构建过程所需的所有细节。

因此,Meta不仅仅是平衡竞争环境,还有望重新定义它。

Meta通过使RLHF的复杂过程更容易理解并结合两种奖励模型组合等见解,不仅揭开了LLM训练的帷幕,而且还准备将开源提升到无与伦比的高度。

曾经是少数人的领域现在向全球社区开放,并可能推动开源模型迎头赶上世界上一些最强大的公司保护和保障的专有模型。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

麦肯锡发布:2023年最被关注的15项科技趋势

2023年上半年,生成式AI/ChatGPT的出现点燃了我们对新一代技术的热情。当然,人类在不少科技领域都好消息不断。生成式AI与其他的众多先进技术一起,有望推动可持续、包容性增长,解决全球各种复杂挑战。

7月20日,麦肯锡公司发布了《McKinsey Technology Trends Outlook 2023》2023科技趋势展望报告。

为了评估每个趋势的动力(momentum),报告考察了其关注度(interest)、创新性(innovation)和资本(investment)等定量指标,同时,鉴于这些趋势的长期性和相互依赖性,麦肯锡还深入研究了每个趋势背后的底层技术、不确定性、未来挑战等。

与往年不同的是,麦肯锡增加了一个重要的新分析维度——人才(talent)。

人才的重要性不用赘述——人才短缺是创新与增长的头号敌人。

数据显示,与2021年相比,2022年全球职位发布总体上减少了13%,但与文中提到的15个科技趋势相关的领域的职位发布在2022年增长了15%。麦肯锡对这些技术趋势中的350万个职位发布进行了调查,发现许多最需求的技能,每个职位的合格从业者数量还不到全球平均水平的一半↓

接下来,我们来看这15个趋势。这15个趋势可分成五个更广泛的类别:人工智能革命、构建数字未来、计算和连接的前沿、尖端工程技术和可持续发展。

PART.1
人工智能革命

  • 1、生成式AI(Generative AI)

生成型人工智能标志着人工智能的一个转折点。

OpenAI、谷歌、微软、Facebook、Salesforce、IBM等都在大力投资于大型语言模型技术LLM的研发,推动模型的不断创新和改进。与以往的人工智能不同,生成式AI可以根据从类似非结构化数据格式中学到的信息,生成新的非结构化内容,如文本、音频、视频、图像、代码、模拟甚至蛋白质序列或消费者旅程。而且,其核心技术——基础模型,可以适应各种任务。

在商业环境中,生成型人工智能不仅可以开启新的用例,还可以加快、扩展或改进现有的用例。生成型人工智能有可能通过促进新产品和收入流的开发,提升客户体验,从而重新定义企业和价值链。然而,其影响最有望体现在提高员工生产力和体验方面。

在这个初期阶段,我们看到许多行业的公司主要将生成型人工智能作为一种辅助技术,用于创建初稿、生成假设或协助专家更快、更好地完成任务。

当然也需要专家检查输出,特别是对于产生虚幻内容(应用程序产生的不准确内容)和知识产权(IP)问题。

在高风险的应用中,让生成型人工智能基于应用从辅助逐渐过渡到完全自动化可能还需要一段时间。

  • 2、应用型人工智能(Applied AI)

通过机器学习(ML)、计算机视觉和自然语言处理(NLP)等人工智能技术,各行各业的企业可以利用数据并得出洞见,实现自动化流程、增强能力,并做出更明智的决策。

麦肯锡的研究估计,应用型人工智能所蕴含的潜在经济价值介于17万亿美元至26万亿美元之间,并且追求这一价值的企业比例正在增加。

麦肯锡全球AI状况年度调查显示,组织中采用人工智能的比例从2017年的20%翻倍至2022年的50%。而且,2022年的调查还表明,采用人工智能可能带来显著的财务效益:25%的受访者将其公司5%或更多的净利润归功于人工智能。

然而,在企业实现这一技术的全部潜力之前,还需要解决组织、技术、伦理和监管等问题。

  • 3、工业化机器学习(Industrializing machine learning)

工业化机器学习,通常称为机器学习运营(ML运营),或者简称为MLOps,指的是在企业中扩展和维持机器学习应用所需的工程实践。这些实践得到了快速发展的技术工具生态系统的支持,这些工具在功能和互操作性方面都得到了显著改进。

MLOps工具可以帮助企业从试点项目转向可行的商业产品,加速分析解决方案的扩大,发现和解决生产中的问题,并提高团队的生产力。经验表明,成功实现机器学习的工业化可以将机器学习应用的生产时间框架(从概念验证到产品)缩短约八至十倍,并将开发资源减少高达40%。

工业化的机器学习最初由少数几家领先的公司引领,但随着越来越多的公司将人工智能用于更广泛的应用领域,采用这一方法的范围也在不断扩大。

2021年,对机器学习工业化领域的企业投资在达到47亿美元的高点,并在2022年累计达到34亿美元,持续保持强劲势头。IDC预测,到2024年,60%的企业将实施MLOps。

构建数字未来

  • 4、下一代软件开发(Next-generation software development)

下一代技术正在改变软件开发生命周期(SDLC)的每个阶段工程师的能力,从规划和测试到部署和维护,还能使非技术员工创建应用程序。

这些技术可以帮助简化复杂的任务,并将其他任务简化为单一命令。这些技术包括AI辅助编程工具、低代码和无代码平台、基础设施即代码、自动集成、部署和测试,以及新兴的生成型AI工具。

由于技术挑战、需要对开发人员和测试工程师进行大规模的再培训以及其他组织障碍,应用可能会比较缓慢。

到2026年,Gartner预测80%的低代码和无代码工具用户将来自传统IT组织之外。AI启用的工具还可以通过自动化例行任务和提供问题解决方案来提高传统开发者的生产力。

研究显示,开发者在代码生成方面节省了35%至45%的时间,在代码重构方面节省了20%至30%的时间。他们还报告在使用AI启用的工具时感到更快乐、更投入,并获得更多满足感,这表明采用这些工具有助于公司在竞争激烈的人才市场中留住人才。

  • 5、信任架构和数字身份(Trust architectures and digital identity)

数字信任技术使组织能够管理技术和数据风险,加速创新并保护资产。而在数据和技术治理中建立信任可以提高组织绩效并改善客户关系。

底层技术包括零信任架构(ZTA)、数字身份系统和隐私工程。其他技术通过将解释性、透明性、安全性和偏见最小化原则融入AI设计中来建立信任。

然而,数字信任技术的采用受到一系列因素的阻碍,包括整合挑战、组织壁垒、人才短缺,以及将其作为价值主张的重要组成部分的有限考虑。建立全面信任为先的风险思维和能力需要自上而下的领导和对多个领域的有意识的变革,从战略和技术到用户使用场景等。

例如法规正在推动产业朝隐私工程方向发展:有关数据本地化和共享的新法规,以及人工智能和云计算的增加使用,推动隐私工程变得更加重要。在欧洲,像2022年的NIS2指令,强制进行增加网络安全风险评估的法规,以及2023年的数据治理法案,旨在促进数据共享,使隐私工程变得至关重要。美国的州级数据隐私法以及联邦特定领域的数据法规要求采取一系列隐私合规措施,需要自动化控制。

  • 6、Web 3.0

Web 3.0 超越了对加密货币投资的典型理解,更重要的是它指的是未来互联网的一种模式,它将权力分散化并重新分配给用户,潜在地赋予他们更多对个人数据如何获得经济价值以及数字资产的更强所有权。

此外,它提供了一系列商业机会:由去中心化自治组织(DAOs)治理的新商业模式,并通过安全(智能合约)自动化消除中间人,涉及数字可编程资产的新服务,以及使用区块链技术进行新数据存储和治理。

Web 3.0 吸引了大量资本和人才,底层技术不断改进,并且应用不断增多;截至2023年,目前运行的去中心化应用程序有数千个,而2018年仅约有一千个。

但新的企业仍在测试和扩展可行的商业模式,同时不断发展的监管规定以及尚不成熟的新技术平台,使得其用户体验通常不如现有的Web 2.0实用工具。

计算和连接的前沿

  • 7、先进连接技术(Advanced connectivity)

先进的连接性改进将提高全球消费者的用户体验,并增加移动性、医疗保健和制造业等行业的生产力。

公司们正在迅速采用建立在现有部署和连接标准之上的先进连接性技术,但一些新技术,如低地球轨道(LEO)连接和5G网络,在推广过程中面临着些许障碍。

比如,电信公司在消费领域难以实现5G的盈利,工业应用增长远低于预期。虽然5G的API为电信公司提供了向消费者提供5G服务的盈利能力,但由于依赖先进连接性的消费者用例尚未实现规模化,其采用速度较慢。许多工业公司选择等待采用5G私有网络,原因包括复杂性、对蜂窝技术优势和管理的理解不足、部署成本和端到端用例的早期阶段。但是5G网络市场正在增长,各个行业,如制造业、物流、公用事业等,都在进行标杆部署。

  • 8、全息现实技术(Immersive-reality technologies)

全息现实技术利用空间计算来解释物理空间,模拟将数据、物体和人物添加到真实世界环境中,并通过增强现实(AR)、虚拟现实(VR)和混合现实(MR)实现在虚拟世界中的交互。

2021年,风险投资者为AR和VR初创企业提供了约40亿美元的资金,成为仅次于2018年的第二成功融资年。尽管在2022年,AR和VR的总体投资有所下降,但投资者对这一趋势的兴趣依然持续:去年至少有七轮投资额达1亿美元或更多的交易达成。

研究显示,未来的元宇宙到2030年在消费者和企业应用上有望创造4万亿至5万亿美元的价值。

前不久,苹果宣布将于2024年发布Vision Pro AR/VR头显,该头显将配备眼动跟踪、手势识别和无缝滚动等技术。苹果凭借庞大的人才和资本支持了Vision Pro,并拥有5000多项专利。该公司认为这款头显可能会带来显著优势,并希望在混合现实领域树立新标准。

  • 9、云以及边缘计算(Cloud and edge computing)

在未来,企业将利用多个位置点的计算和存储基础设施,从本地到更靠近本地(边缘),从小型区域数据中心到远程超大规模数据中心。边缘计算为组织提供了处理数据更接近其源头的灵活性,实现更快的数据处理速度(超低延迟)并与云相比实现数据主权和增强数据隐私,从而解锁各种新的用例。

减少到终端用户的距离将缩短数据传输延迟和成本,并提供更快速访问更相关的数据集,有助于企业遵守数据居住法规。公有云将继续在未来企业中扮演至关重要的角色,通过更好的规模经济来执行非实时计算用例。

云和边缘资源的持续集成将使用户将云的创新、速度和灵活性延伸到边缘和实时系统,从而加速创新,提高生产力,并创造商业价值。

不过,不断膨胀的成本以及与数据隐私和延迟有关的问题导致企业向公有云的迁移速度放缓。然而Uptime Institute Global Data Center最近的一项研究发现,约33%的受访者已经从公有云回迁到数据中心或合作设施。然而,在那些回迁的企业中,只有6%完全放弃了公有云。大多数采用混合方法,同时使用本地和公有云。

  • 10、量子技术(Quantum technologies)

量子技术利用量子力学的独特性质,比经典计算机更高效地执行特定类型的复杂计算,提供安全通信网络,并提供新一代传感器,其灵敏度比传统传感器有了显著的提升。

原则上,量子技术可以进行模拟和解决更复杂的问题,这将在航空航天、国防、汽车、化工、金融和制药等各个行业带来重大突破。

然而,技术挑战仍然存在,如实现完全纠错的量子计算机和可扩展的量子通信网络。

这个领域的人才缺口仍然显著,但可能在缩小。麦肯锡的研究显示,行业中近三分之二的空缺职位可以通过新的量子技术硕士学位来填补,而在2021年,只有约三分之一的职位可以填补。未来,这一差距可能会进一步缩小:提供量子技术硕士课程的大学数量在2022年几乎翻了一番。

PART.4
尖端工程技术

  • 11、未来出行(Future of mobility)

在汽车大规模生产开始一个多世纪后,出行正在经历第二个重要的转折点:向自动驾驶、连接性、车辆电气化和共享出行(ACES,Autonomous, Connected, Electric and Shared vehicles)技术的转变,甚至先进空中移动技术,如垂直起降电动飞行器(eVTOL)也在快速推进。

这一转变有望在改善人员和货物陆空运输的效率和可持续性的同时,颠覆市场。过去十年,ACES技术的采用不断增加,并且随着可持续性措施加强、消费者偏好演变和创新进步,这一步伐正在加快。例如,预计到2035年,自动驾驶技术将创造高达4000亿美元的收入。

然而,在近期仍然存在挑战,创新者必须应对技术、监管和供应链问题。

  • 12、未来生物工程(Future of bioengineering)

生物学的突破性发展,结合数字技术的创新,有望帮助组织应对医疗保健、食品农业、消费品、可持续发展以及能源和材料生产等领域的需求,创造新的产品和服务。

麦肯锡的研究表明,目前400种生物工程的应用案例在科学上都是可行的,预计从2030年到2040年,这些用例将产生2万亿到4万亿美元的经济影响。

例如,近期mRNA疫苗在COVID-19上的成功引发了RNA疗法研究活动的爆发,全球临床流水线上有50多种RNA疗法。

此外,FDA于2022年批准了五种新的病毒载体基因和相关疗法。随着病毒载体疗法逐渐向超稀有指标转变,mRNA技术成为常见技术,更多关注将集中于调控mRNA和基因疗法,开发个性化的“n = 1”药物,同时更高产量叠加销售成本降低,这些个性化药物将更好地个性化医疗的需求。

当然,尽管某些基因疗法和生物产品已经得到认可,但生物工程学要实现其完整的经济潜力,还需要解决伦理、监管和公众认知等问题。

  • 13、太空技术(Future of space technologies)

过去五到十年,太空产业最重要的发展是技术成本的降低,这使得新的能力和应用更加易于获取。组件成本的降低主要得益于卫星和运载火箭的体积、重量、功率和成本的减少。这些降低导致了系统架构的变化,例如从单个大型地球同步轨道(GEO)卫星转向较小的分布式低地球轨道(LEO)卫星,以及传统非太空企业对太空技术越来越感兴趣。

太空技术和遥感分析的使用现在已经非常广泛,分析显示,到2030年太空市场可能超过1万亿美元。未来太空经济可能涵盖目前规模尚不大的活动,例如轨道内制造、发电和太空采矿,以及可扩展的载人航天飞行。

预计2023年和2024年将有几个备受期待的新发射载具亮相,包括SpaceX的超重型Starship,设计用于携带更大的负载;United Launch Alliance的Vulcan Centaur,设计用于将卫星送入轨道;以及Blue Origin的New Glenn,将携带部分Amazon的Project Kuiper卫星。PART.5
可持续发展

  • 14、电气化和可再生能源(Electrification and renewables)

未来,能源结构将迅速向电力、合成燃料和氢转变,到2035年将占全球能源结构的32%,到2050年将占50%。

在COP26之前,共有64个国家承诺或立法在未来几十年内实现净零排放。电气化和可再生能源有助于实现净零承诺,包括太阳能、风能、水力能源和其他可再生能源;核能;氢能;可持续燃料以及电动汽车充电等。

受影响的行业有:农业;汽车和装配;航空、旅游和物流;化工;建筑和建筑材料;电力、天然气和公共事业;金属和采矿;石油和天然气;房地产。

  • 15、其他气候相关的技术(Climate technologies beyond)

其他气候技术包括碳捕获利用与封存(CCUS),碳减排,自然气候解决方案,循环技术,替代蛋白和农业,水资源和生物多样性解决方案与适应措施,以及追踪净零排放进展的技术。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

阿里达摩院发布癌症通用模型,可辅助诊断八种主流癌症

DoNews8月16日消息,8月16日,阿里达摩院发布多癌影像分析通用模型,可检测、分割和诊断八种主要的高发致死癌症,有助于实现多癌统一诊断,降低漏诊概率。

当前,医疗AI模型已经足够强大,可完成单个器官疾病识别,辅助医生进行诊断,但在实现多个器官的精准识别时遇到较大挑战,一是过高的假阳性问题,二是存在一定概率的漏诊,这对于癌症多发病人的诊疗尤为重要。

为避免错诊与漏诊,放射科医生通常对全身的多器官进行多疾病的检测和诊断。因此,医生在临床治疗上迫切需要一个更高效的多癌统一诊断模型。

针对上述痛点,达摩院医疗AI团队联合中山大学肿瘤防治中心、四川省肿瘤医院、浙大附属第一医院、盛京医院、广东省人民医院等单位,提出了一个统一的多癌影像分析通用模型(cancerUniT),以Mask Transformer语义分割为基础,解决多种肿瘤图像此前难以统一检测、分割和诊断的问题,适用于八种主流的高发高致死癌症(肺、结直肠、肝、胃、乳腺、食管、胰腺、肾)以及相关器官中的肿瘤子类型。

多癌问题的复杂性主要体现在器官、恶性肿瘤和其他肿瘤类型之间存在许多关联性。例如,肝癌和肝囊肿虽都位于肝脏内,但在纹理和良恶性方面存在差异;而肝癌和胰腺癌虽形态相似,但却是分属不同器官的恶性癌症。

为了有效建模多癌之间的差异和相似性,达摩院医疗AI团队借助Transformer提出了一种新颖的肿瘤表示学习方法,将肿瘤表示为Transformer中的语义Query,并为不同器官中肿瘤及其子类型建立语义层次结构,让模型学习过程更加有效,并提高肿瘤及其子类型预测的一致性,实现同时输出分割、检测和诊断的预测,从而解决临床上复杂的多癌多肿瘤的识别任务。

在一组631名患者的对比测试中,其肿瘤检测、分割和诊断任务的性能均优于8个特定器官的单模型组合,检测任务的平均敏感性达到93%,平均特异性达到82%。

阿里达摩院医疗AI团队负责人、IEEE Fellow吕乐认为,该工作以统一模型首次实现“一次调用即诊断八种最致命的癌症”,在简化AI模型复杂度的同时,保持较高的敏感度。这将为放射科医生提供全面的AI辅助诊断支持,尤其在癌症复发、远端转移等临床场景发挥重要效用。

据了解,该模型的论文成果已被计算机视觉顶会ICCV 2023收录,目前已在上海市第一人民医院等多家合作医院进行应用测试。

达摩院医疗AI团队长期致力于医学影像等方向研究,正在研发包括规模筛查、精准诊断、预后治疗、响应评估在内的全流程的癌症诊疗技术,覆盖多个重要病种。该团队曾在新冠疫情初期研发出CT影像新冠肺炎AI辅助诊断系统,被科技部评为全国科技抗疫先进集体。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

插件来了!文心一言现已上线百度搜索、文档摘要、文本转视频等原生插件

随着ChatGPT的快速进化吸引了全球网友的眼球,国内厂商也纷纷推出了相似的产品,其中百度推出的“文心一言”已经正式开始的相关的测试。

随后,百度聊天机器人“文心一言”正式推出了内测专用独立App。小编也是在第一时间进行了下载体验,可以看到文心一言App内测版界面非常简洁,用户可以通过键盘打字输入问题,也可以通过语音方式输入问题,并且文心一言也可以通过语音进行回答。

此外,点击左下角“有趣的咒语都在这里”按键,就会给出一些提问建议。点击左上角的按键,可以选择不同的智能助理,目前提供“老万”和“小话”两个助理。会提供历史对话,也可以开启新对话,不过小编需要提醒各位体验的小伙伴的是App端的历史对话记录跟网页端的不同步。

据介绍,文心一言”作为百度全新一代知识增强大语言模型,采用一对一的对话式聊天场景,能够与人对话互动,回答问题,协助创作,同时在文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成等多个应用场景中“高效便捷地帮助人们获取信息、知识和灵感”。

就在昨日举行的 WAVE SUMMIT 深度学习开发者大会,百度首席技术官王海峰在大会上表示,文心一言大模型现已上线 5 个原生插件:百度搜索、览卷文档、E 言易图、说图解画、一镜流影。同时,文心一言现已支持一次同时使用 3 个插件,官方称在扩展大模型能力边界的同时,更能适应场景需要。

具体能力如下,览卷文档:原 ChatFile,可基于文档完成摘要、问答、创作等任务。一镜流影:AI 文字转视频,从主题词、语句、段落篇章等文字描述内容,一键创作生成视频。E 言易图:基于 Apache Echarts 为您提供数据洞察和图表制作,目前支持柱状图、折线图、饼图、雷达图、散点图、漏斗图、思维导图(树图)。说图解画:基于图片进行文字创作、回答问题,可帮助用户写文案、想故事。可以看到,与ChatGPT的发展路线类似,纯大语言模型的应用场景稍少一点,结合插件可以有更多应用场景。

给不太了解的小伙伴介绍一下“文心一言”,文心一言(英文名:ERNIE Bot)是百度基于文心大模型技术推出的生成式对话产品。百度在人工智能领域拥有产业级知识增强文心大模型ERNIE,具备跨模态、跨语言的深度语义理解与生成能力,目前文心一言在做上线前的冲刺准备工作。据百度介绍,文心一言还具备了一定的思维能力,能够学会数学推演及逻辑推理等相对复杂任务。面对“鸡兔同笼”这类锻炼人类逻辑思维的经典题,文心一言能理解题意,并有正确的解题思路,进而像学生做题一样,按正确的步骤,一步步算出正确答案。

百度方面表示,ChatGPT相关技术,百度都有。百度在人工智能四层架构中,有全栈布局。包括底层的芯片、深度学习框架、大模型以及最上层的搜索等应用。文心一言,位于模型层。由于“文心一言”是国内第一个发布的类ChatGPT产品,自然引起了不少网友的关注,而插件的推出也会使得其训练量有不小的提升,感兴趣的小伙伴可以保持关注。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

OpenAI的第一笔收购,是一家游戏公司?丨游戏干线

近日,OpenAI在官网悄悄发了一个公告,宣布收购初创企业Global Illumination并将整个团队纳入麾下,新成员们已经开始参与包括ChatGPT在内的核心产品开发。

这笔交易也是OpenAI自2015年创立以来,第一次搞公开收购,具体的交易条款并没有公开。

实际上过去几年OpenAI也的确拿不出什么钱来搞收购,这家公司最有名的标签除了人工智能外,就是巨额亏损。据媒体报道,OpenAI在2022年的整体亏损翻倍至5.4亿美元。不过考虑到微软今年初又给OpenAI投了100亿美元,OpenAI的财务状况应当有了搞一点收购的余裕。

他是谁?

Global Illumination是一家成立于2021年的初创企业,由Thomas Dimson、Taylor Gordon 和Joey Flynn在纽约创办,这三个人都曾在扎克伯格麾下的Instagram效力过。该公司的主营业务是利用人工智能创建巧妙工具、数字基建和数字体验。

在这个创业团队中,名气最大的是首席执行官Thomas Dimson,辞职创业前是Instagram的开发主管,在他手上诞生的功能包括Instagram的信息流排名算法、“探索”标签页的体验、故事投票贴纸、Hyperlapse延时摄影软件等。

除了Dimson外,官网上也列出了多名工作人员的信息,可见这个团队的规模并不大。

来源:Global Illumination

对于Global Illumination而言,这家公司最近的项目,是一个叫Biomes的开源大型多人在线沙盒游戏,依托于网页浏览器运行。从网站上放出的先导片预告来看,风格类似于全球历史销量排名第一的游戏《我的世界》。目前并不清楚收购完成后,这个游戏到底还会不会继续做下去。

来源:Biomes

从Global Illumination产品的过往经历来看,这家公司似乎高度专注于视觉产品和服务。这也暗示着OpenAI可能会给ChatGPT开发额外的多媒体功能,或者推出一款与Runway竞争的视频生成服务。这支团队的成员也有效力Instagram、YouTube、Google、皮克斯动画、Riot Games的开发经验,对缺乏C端产品经验的OpenAI来说也是重要的补充。

为什么是他?

可以说,自OpenAI成立以来,就似乎一直在“避免”任何收购行为。

最近一两年,他们主要是设立创投基金,投资AI初创公司和组织。据The Information截至今年1月份的统计,已经投了至少16家。这次公开收购一家游戏公司,属实是历史首次。

外媒The Techcrunch分析,可能是OpenAI开始“寻求商业胜利”,毕竟他们造ChatGPT花了5.4亿美元(包括从谷歌挖人),去年收入却仅3000万美元。

而山姆·奥特曼又给今年定下了盈利2亿美元、明年10亿的“小目标”。

另一边,关注者们对这一新奇组合也是猜测诸多。

如Jim Fan和一些人认为这可能是为AGI做准备,因为可以通过这个游戏收集非常多的人机交互数据。

还有目光更近一点的表示,OpenAI可能就是想给ChatGPT增加“多媒体功能”。

另外,鉴于游戏是开源的,有人表示OpenAI或许看中的并非游戏本身,而是整个团队。

这是一个高水平的工程师设计团队,没准ChaGPT很快就会迎来大规模的升级。

还有人发现了“华点”:

OpenAI拥有“克隆版”我的世界,而微软拥有真·我的世界(旗下Mojang Studios开发的)+OpenAI一大部分股权。可恶,这把垄断又让微软搞上了。(手动狗头)

结语

有分析认为,Biomes这种高自由度、低运行成本的沙盒游戏,结合生成 AI 会有无限可能。所以,OpenAI 可能是看重团队的产品能力,也可能纯粹看上了这个高自由度的游戏。

尽管就本次收购众说纷纭,但可以肯定的是,随着 Global Illumination 的加入,OpenAI 商业化前途会更加光明。团队丰富的经验和创新方法有望加速 OpenAI 在人工智能领域开创一个全新产品和可能性的步伐。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

首个交付级专业AI漫画工具上线,漫画生产进入AIGC时代

近日,国内领先智能设计公司水母智能发布了旗下触手AI创作平台全新上线的交付级专业AI漫画工具。同时,触手AI与中文在线联合生产的第一批AI漫画作品已于上月开始在海外发行,年内将有多部由中文在线旗下IP、经触手AI改编绘画的AI漫画作品陆续面世。
在过去一年中,AIGC技术取得了令人瞩目的发展,新技术、新应用不断冲刷着我们的认知,并开始逐渐渗透各行各业。作为国内AI绘画平台第一梯队产品,触手AI在持续扩大丰富C端创作平台和社区业务的同时,深度扎根到B端漫画产业链中,探索出一条AIGC技术与产业共创的新路径,率先实现了AIGC产品在商业领域的变现。交付级的AI漫画工具、百万级的AIGC创作者社区和高效的AIGC创作工作流,构成了触手AI实现赋能漫画产业的三个关键要素。

首个交付级专业AI漫画工具,漫画生产进入AIGC时代
触手AI平台此次上线的漫画工具是AIGC行业首个交付级专业AI漫画工具,为B端企业及漫画师、AIGC发烧友、漫画发烧友创作漫画提供可控的AI工具支持,开启全新的漫画创作体验时代。
平台目前已有上万个官方及平台用户自训练的风格 LoRA模型,以及数百个亿级参数的基础AI模型。通过自研 LoRA风格模型训练技术,用户最快只需5分钟即可完成自定义角色训练,保证角色稳定性。
同时还支持调用多个controlnet(参考生成)、adetailer(局部修复)、inpainting(涂抹修图)等插件精细调整画面,从而让画面更贴近自己的构想。无论是创作属于自己的原创漫画,还是对经典故事进行全新诠释,都能在这个创作平台上得以实现。

从文本改写、分镜描述、描述词优化、批量分镜绘制到角色定制,用户在这款AI漫画工具内可以尽情发挥创意,将文字内容转化为精彩纷呈的漫画作品。首先,用户可以将小说内容自动拆分成分镜描述,并通过AI智能分析批量优化描述词,轻松提升漫画场景的描写质量,规划每一帧的细节;其次,可以实现快速“批量分镜绘制”20张图,用户可以选择适合情节的角色形象和场景,从而快速构建整个漫画世界。

“IP+AIGC”发力漫画市场,走出商业化落地新路径
今年以来,中文在线加速动漫产品化落地,大量优质小说IP改编为漫画并同步海外发行,“IP+AIGC”的新一代的内容生产方式成为了提升漫画生产效率,加速市场拓展的重要举措。
在水母智能投入AIGC技术研发应用新浪潮后,从触手AI绘画平台的上线到研发漫画批量生产交付能力,中文在线一直持续关注,并凭借在漫画制作领域积累的大量经验,对AI智能分析剧情、人设绘制及成稿质量等关键环节进行整体把控。
双方共同组建了由创作人员和发行人员构成的AI漫画共创小组,期间不断迭代创作方法和流程,探索如何通过AI精准控制人物稳定性,人物细节表现,漫画风格和手法,故事画面阅读的顺畅体验等。
经过3个多月研发,双方成功完成了第一部中文在线旗下热门IP小说改编的漫画交付。今年7月,双方联合生产的第一批AIGC漫画作品已经被翻译为英语、印尼语、泰语、西班牙语、法语等7种语言,通过以MangaToon为代表的海外漫画平台发行到北美、欧洲、东南亚等全球数十个国家和地区。
双方对“IP+AIGC”的内容生产方式充满信心,并已达成深度合作,签订了将100部小说改编制作成为商业漫画的协议。年内将陆续有大量漫画作品发行面世。

同时,触手AI也已为众多内容IP平台进行服务,目前进行中的项目还包括45万张IP原画项目、10部动态漫项目、热剧同播漫画等。

AIGC时代定义新的创作者,重构漫画创作工作流
早在去年8月,触手AI绘画的机器人就已经是QQ频道最早期最活跃的AI机器人,接入7万+个QQ社区频道,平台也因此积累了海量由用户贡献的二次元漫画垂类数据,开始着手自训练独特的二次元漫画风格模型。
同时,这个新一代的创作者平台迅速聚集了一批优秀的漫画垂类模型训练师和AI漫画创作者,并通过和国内外优秀模型社区深入合作,上线了大量AI漫画类优质模型,其中单个头部模型绘画创作调用量达百万次以上。

目前触手AI平台拥有数百万活跃的高质量创作者,累计2亿+的AIGC作品,用户单日发布AI作品超万张,单日做图数高峰期达单日700万次。热门主题活动玩法丰富、产品体验日迭代更新。
在和中文在线共同进行AI漫画生产的过程中,双方团队不断迭代方式方法和工作流程。以漫画中最重要的风格设定为例,在漫画主笔出主要人设图后,传统漫画工作流下,需要多个漫画助手分别完成分镜画面,包括勾线上色特效等环节。而触手AI漫画小组则从社区招募了优质创作者,搭建线上共创小组,开启新一代的AI创作模式。
初期成员们在本地AI软件上跑图,虽然提高了出图效率,但无法控制统一的模型风格,影响了出图质量,并且模型、图片的反复分享、修改、传输也降低了工作效率。经过和开发人员共同打磨,团队上线了触手AI专业模式功能,可以实现Lora模型在线训练、分享和实时协作,并且创作全程一个区域搞定,不用再割裂地横跳于文生图、图生图、参考生图,提高了出图可控性和整体工作效率,同时,社区共创模式也让创作成本大大降低。
通过发动创作者社群,自研AI绘画工具及反复打磨适用于漫画行业的创作SOP,触手AI仅用传统漫画1/3的成本,将漫画创作效率提升5倍,为漫画产业提供了全新内容生产力。

基于丰富的AI漫画交付经验,触手AI也即将发布专业的AI漫画课程,优秀学员可以进入触手的签约创作者生态,通过参与AI漫画创作获得稳定的收入变现。
触手AI平台活跃的创作者生态及优秀的模型训练能力也吸引了头部IP官方的瞩目,站内举办多次人气超高IP二创AI绘画活动、主题绘画大赛,包括敦煌、奇迹少女、《修罗武神》等头部IP官方创作大赛。平台与文化传信、凯叔讲故事、洛可可、HHO等企业也在持续探索AIGC在漫画、设计等产业的落地,共同发掘新的商业价值。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

亚马逊推出新的生成式AI功能 可为用户总结产品评论

根据财联社8月15日报道,美国电商巨头亚马逊公司推出了一项新的生成式AI功能,可以为用户生成评论摘要。

亚马逊目前已在其移动应用程序上向美国的“子集”用户广泛提供评论摘要功能。亚马逊社区购物主管Vaughn Schermerhorn表示,根据顾客的反馈,未来几个月可能将该功能扩大到更多的购物者和其他产品类别。

这项功能已经测试了至少几个月,亚马逊于6月首次证实正在测试一款AI摘要工具,但现在才开始正式推出。

亚马逊推出AI摘要工具的目的在于,让购物者能快速了解其他买家对一款产品的评价,无需耗时浏览一大堆评论。

具体而言,亚马逊的AI摘要工具将从众多用户评论中挑选出共同的主题,并在产品详细信息页面上用简短的一段话进行总结。

亚马逊官方提供的示例显示:“客户喜欢该数字设备的稳定性、易用性和性能。他们提到它的速度更快,图片/流媒体速度非常好,而且它是一个简单的链接设备。性能达到了预期水平,与LG 3D智能电视配合非常好。”

摘要后面则是可点击的标签,显示用户评论中的相关主题和常用词,点击其中一个,就会跳转到所选主题的完整评论。

长期以来,虚假评论是亚马逊上持续存在的问题。在周一的声明中,亚马逊强调将继续投入大量资源,主动阻止虚假评论。亚马逊的策略包括只在经过验证的购买行为上使用摘要工具,同时利用AI模型来检测评论,并在需要时让人工介入。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

中国首次应用AI识别输电线路缺陷,提升电网安全

据科技日报报道,最近,国网电力空间技术有限公司联合华北电力大学等单位研发出了输电线路红外缺陷智能识别系统,并成功将其应用于我国主要的超特高压线路运维领域,实现了产业化应用。这是我国首次将人工智能(AI)技术规模化应用于输电线路发热检测。

传统的输电线路发热检测方式通常依赖于人工判别画面中的发热故障点(检修人员的经验和注意力等因素容易干扰他们对设备检修工作的进行,导致可能会出现遗漏的情况。此外,由于红外视频数据庞大,进行复检工作的难度极大,效率也很低下,这可能会引发绝缘子掉串等危险事件),效率较低且存在一定的安全风险。而这款红外缺陷智能识别系统利用了人工智能技术,在保证安全的前提下,实现了对输电线路发热情况的精准监测和识别,该系统只需要上传巡检红外视频,便可快速抽帧并智能识别发热缺陷,从而帮助线路运维单位及时消除线路跳闸停电的隐患。

为了实现红外缺陷隐患的智能识别,技术攻关团队采用了”最小化标注 + 阶梯式学习 + 干扰点屏蔽”的技术路线。经过精心设计,模型的识别准确率已经达到了90%以上。

以240基杆塔的红外视频为例,以前需要人工复核5个小时的工作现在只需要2个小时的时间就可以完成分析,而且整个过程中无需人工干预。目前,该系统已经在国网电力空间技术有限公司得到了成功部署应用。

该系统的成功应用,为电力系统的运维工作带来了重要的突破和创新,为防止线路事故的发生提供了强力的支持。它不仅能够大幅提升线路巡检的效率和准确性,还能够有效预防线路发热缺陷引发的安全事故,保障电网的稳定运行。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

抢购数千块高性能英伟达芯片,沙特和阿联酋跻身“全球AI竞赛玩家”

抢购对构建人工智能(AI)系统至关重要的高性能英伟达芯片,两个海湾国家——沙特阿拉伯和阿联酋近日正式加入全球AI竞赛。

砸重金购芯片

为了跻身“AI玩家”,“财大气粗”的沙特和阿联酋,可是砸下了重金。英国《金融时报》报道称,沙特最近已通过阿卜杜拉国王科技大学购买了至少3000块英伟达H100芯片,每块价格约4万美元。据知情人士透露,阿卜杜拉国王科技大学将用这些芯片自主开发类似于OpenAI的GPT-4大语言模型。

沙特阿拉伯王储穆罕默德·本·萨勒曼(左)和英伟达首席执行官黄仁勋。图源:ft

眼下,阿卜杜拉国王科技大学还在开发一台名为“Shaheen III”的超级计算机,将配备700块英伟达超级芯片Grace hopper,这款芯片专为AI应用而设计。

沙特的邻国阿联酋也不甘示弱、紧追直上。据报道,阿联酋目前已经获得大量英伟达芯片,并已在首都阿布扎比的马斯达尔城国有技术创新研究所开发了名为“Falcon”的大数据模型。

其实,阿联酋早在几年前就有“入局”AI的计划。2017年,阿联酋成为全球首个设立人工智能部的国家。该国目前还推出了“生成人工智能指南”,这份文件是阿联酋“致力于加强AI领域的全球领先地位”以及“限制技术负面使用监管框架”的一部分。

除了“砸钱”买芯片,沙特和阿联酋还在全球多地吸纳AI领域的人才和技术。据报道,沙特的大语言模型由阿卜杜拉国王科技大学内部的可信智能与数据分析实验室负责开发。另有两家欧洲AI公司高管透露,海湾国家主权基金的代表曾与他们接触,希望用巨额投资换取人才和数据访问权限。

有称赞有担忧

在此之前,沙特和阿联酋曾公开表达过希望成为全球AI领域领导者、推动经济转型的目标。有分析认为,都拥有全球规模最大、最活跃的主权投资基金的沙特和阿联酋不仅有着雄厚的经济实力,且对新技术格外关注。

高性能的英伟达芯片对构建AI系统至关重要。图源:seekingalpha

对于这两个海湾国家加入全球AI竞赛,外界有着不同的看法。

今年6月, OpenAI联合创始人兼CEO山姆·奥特曼在访问阿布扎比时就曾称赞能认识到AI重要性的阿联酋拥有远见卓识。“在AI还没有这么引人关注的时候,阿布扎比就开始讨论这项技术了。”他说,“现在,大家都身处AI浪潮,我们对此深感兴奋。”

另有媒体认为沙特和阿联酋加入全球AI竞赛,令这种硅谷最热门商品的供应愈发紧张。也有人对这两国会否滥用AI技术提出质疑。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

点赞!中国人工智能专利大规模免费开放

AI正在掀起新一轮技术浪潮,但也有可能拉大技术鸿沟。由于AI研发门槛较高,技术和专利大多掌握在少数企业和高校手里,对于中小微企业而言,如何利用AI技术进行业务创新始终是一个难题。因此,开源开放非常关键,备受各界关注。

此次达摩院带头开放AI专利,有望缩小技术鸿沟,加速AI时代的到来。

这100件AI专利已在浙江知识产权交易中心上架,覆盖了图像技术、视频技术、3D视觉等诸多AI技术领域,不乏“交通信号灯感知”“疑似侵权图片检测”、“时序数据预测”、“点云数据处理”“智能字幕生成”等富有广阔应用场景的专利。

达摩院免费开放的100件AI专利(部分)

发明专利《交通信号灯感知方法、装置、设备及存储介质》,基于交叉注意力机制,对各种目标特征向量进行融合处理,从而得到目标所在的交通信号灯感知结果,可用于智能交通场景;发明专利《一种疑似侵权产品图片的检测方法及装置》,基于阿里电商平台的治理经验,采用了局部特征匹配算法,可有效识别疑似侵权图片。

值得一提,达摩院这次还专门开放了3件医疗AI的核心专利,用于癌症的精准治疗,解决其中关键性的医疗图像配准问题。这3项专利来源于达摩院在国际著名学术期刊和会议上发表的研究成果,应用于“图像引导的放射治疗”、“纵向病灶量化”、“基于图谱的分割以及多模态融合的计算机辅助诊断”, 已在浙大一院、吉林大学第一医院、上海胸科医院等落地,其开放将帮助更多医院打造癌症治疗的全流程智能解决方案。“我们将以最开放的态度和医生、医院合作,帮助患者取得抗击癌症的最大胜利。”达摩院医疗AI团队负责人、IEEE Fellow吕乐表示。

达摩院免费开放的医疗AI专利

当天,达摩院和与复旦大学附属华山医院还获颁了全国首批共有专利权权益分割证书,该专利是关于利用医疗AI诊断帕金森病的发明成果。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

纽约时报禁止其内容用于训练人工智能模型

人工智能是当今最热门的技术领域之一,但它也面临着很多争议和挑战。比如,如何保护数据的版权和隐私?纽约时报就是其中一个担忧者,它近日修改了服务条款,禁止任何人使用其内容来开发或训练人工智能系统。

纽约时报近日修改了其服务条款,禁止任何人使用其内容来开发或训练人工智能系统。这包括文本、照片、图像、音频/视频剪辑、外观、元数据或汇编等内容。此外,未经纽约时报书面许可,不得使用自动化工具(如网站爬虫)来使用、访问或收集这些内容。纽约时报表示,拒绝遵守这些新规定可能会导致未指定的罚款或处罚。

这一举措可能是对谷歌最近更新隐私政策的回应。谷歌在其政策中披露,它可能从网络上收集公共数据来训练其各种人工智能服务,如Bard或Cloud AI。许多大型语言模型(如OpenAI的ChatGPT)都是基于庞大的数据集训练的,其中可能包含未经原创者许可就从网络上抓取的受版权或其他保护的材料。

然而,纽约时报也在今年2月与谷歌签署了一项价值1亿美元的协议,允许谷歌在未来三年内在其部分平台上展示时报内容。纽约时报表示,两家公司将在内容分发、订阅、营销、广告和“实验”等方面合作。因此,纽约时报对服务条款的修改可能针对的是其他公司,如OpenAI或微软。据Semafor周日报道,纽约时报已退出了一个试图与科技公司就人工智能培训数据进行联合谈判的媒体联盟——这意味着如果它与公司达成协议,更可能是基于个案。

OpenAI最近宣布,网站运营商现在可以阻止其GPTBot网络爬虫抓取其网站。微软也在其自己的T&C中增加了一些新的限制,禁止人们使用其人工智能产品“创建、培训或改进(直接或间接)任何其他人工智能服务”,并禁止用户从其人工智能工具中抓取或以其他方式提取数据。

本月早些时候,包括美联社和欧洲出版商理事会在内的几家新闻机构签署了一封公开信,呼吁全球立法者引入规则,在使用数据进行培训之前要求透明度和权利持有者的同意。

以上就是我对于纽约时报禁止其内容用于训练人工智能模型这一事件的分析。你认为这一举措是否合理和有效呢?你是否会支持或反对这样的做法呢?期待听到你的声音。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群