李星:从互联网的发展看人工智能的治理与创新

没有互联网就不会有ChatGPT。科幻小说《我们最后的发明》在谈及人工智能时建议:“任何情况下都不得把ASI的超级电脑接入网络”。

1

人工智能治理的互操作性

今年10月,第十八届联合国互联网治理论坛(IGF)在日本京都召开。此次会议吸引了来自175个国家的线上线下共9000多名参会者。人工智能的治理成为本次会议的焦点议题。

联合国致力于在全球范围内寻求有效的人工智能监管途径,包括国际条约、部门规范、道德准则和私人标准的制定,技术解决方案的研究,开源合作的推动,国家立法的支持,多利益攸关方的协同参与,监管沙盒的设立,行业自律的鼓励,以及技术中立等。

在此背景下,IGF委托研究组编写了《人工智能政策网络(Policy Network on Artificial Intelligence)》初稿。

报告初稿总结了互操作性和创新的重要性,主要涵盖以下三个方面:

一是互动和互连,包括对定义、范围和方法的持续关注,以及对连续监测、评估和采取行动的重视;

二是沟通和合作,包括减少地区差异,积极推动信息共享和最佳实践案例的传播。同时,鼓励培养区域多利益相关方的合作倡议,以促进他们在全球范围内的相互关联;

三是工具、措施和机制,包括开发技术模块及能力,以达成地区和全球层面的共识。此外,还强调了加强立法合作的重要性。

基于《人工智能政策网络》报告,大会组织了主题讨论,嘉宾们探讨了全球人工智能治理的实施方式。作为发言者之一,我主要提出了两个观点。

第一,可以运用互联网治理的理念来治理人工智能。对生成式人工智能的政策监管应当谨慎。正如互联网在发展之初也没有技术蓝图一样,生成式人工智能目前也没有确切的发展蓝图,因此,务必要留出创新空间,给学术界和技术界提供创新机遇。

互联网技术的发展受到IETF等各种组织的推动,如今生成式人工智能具备比TCP/IP更强大的功能,但在该领域尚未出现IETF这样的组织,应该考虑建立类似组织。希望全球能够共同推动创新,开发出激动人心的新技术。

第二,要注重人工智能对教育产生的重大影响。生成式人工智能给发展中国家带来了机遇和挑战。通常来说,生成式人工智能包括算法、算力和数据三个关键因素。

然而,教育同样是人工智能发展的重要因素,人工智能的出现需要大家重新思考传统教育体系。年轻一代需要在批判性思维、尊重事实、逻辑思维、推动全球合作这四个关键方面进行能力培养,这对教育改革至关重要。

正如斯坦福大学李飞飞教授所言,在人工智能时代,需要像牛顿和爱因斯坦那样的人才对教育领域进行重塑。期望看到全球建立与人工智能相关的教育系统,这与几百年前现代大学雏形的出现同等重要。

2

IETF——

解决真实问题 聚焦关键问题

互联网是怎么治理的?其治理体系基本可以总结为以下几个方面:一是域名,二是IP地址,三是协议。互联网的技术治理可以追溯到1968年,后来逐步产生了关键技术并形成了相关组织。互联网工程任务组(IETF)成立于1986年,其主要任务是进行技术治理,以确保互联网的互操作性。正如著名资深科学研究员Dave Clark曾经强调的那样:“我们拒绝国王,拒绝总统,拒绝选举,我们相信的是大概一致和可以运行的程序。”

IETF的具体工作领域“above the wire and bellow the application”,即在线路(计算机网络中的通信基础设施,通常包括网络电缆、光纤、无线连接等物理传输媒介)之上,应用之下,意味着其有特定职责,并非包罗万象。IETF包括若干工作组,涵盖网络、路由、传输和应用等各种领域,同时还有一些跨层的通用工作组,涉足运行、安全和一般管理等多领域。

IETF主要产出各类标准,遵循开放参与、流程透明、公开发表和免费使用的原则。

首先,开放性确保了标准制定的合法性。大部分技术标准由私营企业和非政府机构制定,进而应用于互联网实践。这些组织雇用了大量员工参与标准的制定过程,决策中的多元参与增强了多利益相关方的合法性。

其次,所有的决策过程都是透明的,标准具有可问责性。这为公众提供了监督及问责的机会,使他们能够获得标准开发及相关审议、备忘录和记录的全过程信息。

再次,互操作性进一步促进了创新。从专有协议向提供互操作性的开放互联网标准的过渡,代表了一场显著的社会技术变革。IETF免费发布互联网标准,且不收取知识产权费用,确立了开放性和互操作性的传统。这种始终如一的开放性规则,促进了互联网软硬件创新的飞速发展,我们需要继续坚守这一传统。

最后,IETF的决策准则是“Rough consensus and running code”,即基本共识和可以执行的代码。目前,在提出新标准前,必须有可以执行的代码,并且需要进行充分的讨论。

IAB曾总结了开放互联网的关键词:自愿使用、自下而上的创新、在必要时竞争、需要合作时合作。互联网的特点之一是分散性,它并不统一。因此,其参与者通常具备热情、聪明、外向和技术卓越的特质。

参与IETF有助于解决实际问题,聚焦关键问题。需要具备全球视野,通过电子邮件与同行交流,建立广泛的人际关系。我们鼓励年轻一代积极参与,追求卓越,同时还要乐在其中。

3

人工智能在教育领域的影响

除了算法、数据和算力,教育也是一个非常重要的议题。算法和数据等都依赖于人类来开发和应用。人工智能的发展引发了新的教育挑战。

我们曾讨论过,在互联网发明之前和之后该如何当教授?在互联网出现之前,教授拥有很多学生无法获得的信息。然而,随着互联网的普及,学生能够访问更多的信息。这导致学生可能浏览大量信息,但往往难以辨别其是否有用和必要,从而记下所有信息。教授的核心任务就是帮助学生辨别和筛选初有价值的信息,并培养他们提出问题和解决问题的能力。

对于教育而言,互联网的发明代表了一次思想解放,而ChatGPT则是新一轮思想解放,将对教育产生深远的影响。然而,我们也必须同时接受人工智能的不可解释性。要创新,就必须允许犯错误,并在开放和治理之间找到平衡。

生命是多样且美丽的,大语言模型如ChatGPT具有语言多样性、文本多样性、领域多样性、观点多样性和随机性等特点。面对人工智能,我们必须具备批判性思维和逻辑思维,要尊重事实,并积极推动全球合作。

另外,我们还需警惕数字鸿沟问题。随着人工智能的出现,我们更应重视人工智能鸿沟,它不仅包括外在问题,还牵涉到内涵问题。这关系到人们的教育水平和教育方法是否能够适应人工智能的发展。如果我们仍然坚持传统的教育理念,数字鸿沟将不断扩大。

爱因斯坦曾说:“想象力比知识更重要。”这句话在当前人工智能的背景下可能有新的内涵。就人工智能的分工而言,我认为机器能够胜任那些规则明确的、常见的任务。而人类的价值在于创新,处理少见的、挑战常规的任务就需要人类的创造力。因此,新一代的教育应该培养学生打破常规思维的能力。

2024年标志着中国加入互联网已经30周年,这是一个重要的里程碑。互联网一直在朝着更为开放的方向发展,但人工智能的进步不仅需要开放性,还需要相应的技术和政策支持。这是新一代专业人士面临的挑战,也是我们老一代互联网从业者的期望。

美国CISA发布人工智能路线图

美国国防部发布“负责人的人工智能”工具包

据美国防部11月14日消息,美国国防部首席数字和人工智能办公室(CDAO)发布“负责任的人工智能”(RAI)工具包。该工具包与2022年6月国防部发布“负责任使用人工智能的战略与实施路径”保持一致。RAI工具包是一个动态文档,为用户提供了一个自愿流程,可识别、跟踪和改进人工智能项目与RAI最佳实践和国防部人工智能道德原则的一致性,同时加强创新。此外,该工具包以直观流程引导用户在整个人工智能产品生命周期中进行可定制和模块化的评估。

美国网络安全和基础设施安全局发布路线图指导人工智能工作

据Nextgov/FCW网11月14日消息,网络安全和基础设施安全局(CISA)周二发布人工智能路线图,作为拜登政府10月底发布行政命令以来一系列人工智能治理政策的一部分。该路线图为CISA及其上级机构国土安全部的五个工作方向:负责任地使用人工智能来支持工作任务;确保人工智能系统;保护关键基础设施免遭人工智能的恶意使用;与机构间和国际合作伙伴以及公众就关键人工智能工作进行协作和沟通;扩大机构员工队伍中的人工智能专业知识。国土安全部部长Alejandro Mayorkas表示:“CISA的路线图列出了该机构将采取的步骤,作为我们部门更广泛努力的一部分,利用人工智能减轻其对我们关键基础设施和网络防御的风险。”信息

美国洛克希德·马丁公司计划拓展Q-53雷达用途,以便探测无人机

据DefenseNews网11月14日消息,美国洛克希德·马丁公司计划拓展Q-53雷达用途,以便探测无人机。美国陆军长期以来使用Q-53 雷达探测火箭弹、火炮或迫击炮等。洛克希德公司多任务防空雷达项目总监戴维·肯纳维格(David Kenneweg)表示,将对Q-53雷达进行技术增强改装,并装载陆军指挥和控制系统以使其具备发现无人机的能力。

全球超级计算机排行榜TOP500更新

据日经网11月15日消息,全球超级计算机排行榜TOP500更新,美国垄断前三。美国橡树岭国家实验室运营的超级计算机“前沿”(Frontier)连续4次位居榜首,是本次排行榜上唯一可以每秒运算100万次以上的“EXA级”超级计算机。在前十名中,美国占6席,日本、芬兰、意大利及西班牙各占1席。

美国纽约市立大学研发出新型高性能超快激光器,可用于无GPS情况下导航等场景

据中国科技网11月13日消息,美国纽约市立大学研究团队研发出新型高性能超快激光器,可用于无GPS情况下导航等场景。该研究团队利用了一种薄膜铌酸锂(TFLN)新兴材料平台,并将III-V族半导体的高激光增益和TFLN纳米级光子波导的高效脉冲整形能力结合起来,最终研制出一种发射0.5瓦高输出峰值功率的激光器。相关研究发表在《科学》(Science)杂志。

美国CISA发布人工智能路线图

据NextGov网11月14日消息,美国网络安全与基础设施安全局(CISA)发布了人工智能路线图,响应美国此前发布的《关于安全、可靠、可信地开发和使用人工智能的行政命令》。该路线图有5个主要目标:负责任地使用人工智能来支持任务;确保人工智能系统安全;保护关键基础设施免遭人工智能的恶意利用;与机构伙伴、国际合作伙伴以及公众就关键人工智能工作进行协作和沟通;并扩大机构员工队伍中的人工智能专业知识。为了改善员工队伍,CISA打算招募具有人工智能专业知识的新员工,并为现有员工提供技能提升培训,涵盖人工智能的技术方面以及法律、道德和政策方面的考虑。该路线图总体上强调,CISA应确保在设计人工智能/机器学习系统时具有风险缓解特征,持续共享有关威胁的信息,并在部署这些技术时保持透明的方法。

澳大利亚政府报告网络攻击事件激增

据路透社11月15日消息,澳大利亚网络安全中心在其年度威胁报告中表示,黑客加大了对澳大利亚关键基础设施、企业和家庭的攻击力度。截至2023年6月份的财政年度中,网络犯罪报告激增23%,超过9.4万起。据估计,每6分钟就会有一次针对澳大利亚资产的黑客攻击。报告称,网络犯罪给受害者造成的平均损失上升了14%。澳大利亚网络安全中心认为,澳大利亚与英国和美国的新防务协议可能是其成为网络攻击目标的原因之一。

丹麦网络机构称22家能源基础设施遭网络攻击

据industrialcyber网11月13日消息,丹麦能源网络安全机构SektorCERT称,负责运营部分丹麦能源基础设施的22家公司在一次协同攻击中受到损害。攻击者访问了某些公司的工业控制系统(ICS),而此前从未发生过针对丹麦关键基础设施的如此大规模的网络攻击。有迹象表明,攻击者事先就了解他们的目标,实施了精确的攻击。在2023年4-5月期间,黑客使用了不同的工具和技术,发起了数次针对丹麦关键基础设施的攻击。他们的共同点是滥用中国台湾制造商合勤科技(Zyxel)的产品,该公司主要销售网络硬件。普通丹麦公民没有注意到这些攻击,但严重扰乱了目标设施的运行。生物

国际科研团队利用病毒应对“超级细菌”威胁

据phys网11月14日消息,美国印第安纳大学、加州大学洛杉矶分校、澳大利亚弗林德斯大学的科研人员开发出特定的新病毒用以应对特定的细菌,为噬菌体疗法铺平了道路。该团队利用DNA测序,从人类消化系统中最常见的Crassvirus病毒组中确定并分离出三个不会与细菌宿主共同进化的新型肠道病毒,可用于感染和消除特定的目标细菌。该研究提供了对噬菌体-宿主相互作用的见解,是噬菌体治疗新兴领域向前迈出的重要一步。相关研究成果发表于MICROBIAL GENOMICS期刊。

DARPA的SIGMA+计划致力于检测新泽西州纽约市的CBRNE威胁

据国土安全新闻通讯社11月13日消息,美国国防部高级研究计划局(DARPA)加强与新泽西港务局威胁检测合作,积极寻求利用SIGMA+项目部署自动化、网络化和移动化系统,以实现持续的城市规模监控。此次监测计划涵盖15个港务局指挥部,将通过SIGMA+项目先进的化学、生物和爆炸传感器、集成车辆设计、实时监控网络进行威胁检测和拦截等高级分析,监测重点是化学、生物、放射性、核和爆炸物(CBRNE)威胁。

美国CDC提出旅行者基因组监测计划,填补全球生物监测空白

据生物安全情报网11月15日消息,美国疾控中心(CDC)提出基于旅行者的基因组监测计划(TGS),该计划是由CDC旅行者健康处领导的一项公私合作伙伴关系,通过其两个主要目标在美国国家生物安全中发挥重要作用:一是及早发现新的新冠变体和其他病原体,二是填补全球生物监测的空白。该计划将提供早期预警系统,实时检测新兴传染性威胁;快速向公共卫生当局提供信息,向美国联邦实验室提供样本,帮助控制疾病暴发;在无法获得检测和测序数据的情况下填补全球监测的空白;防止传染病传播,避免边境干预和旅行贸易中断。能源

欧洲多家企业合作研发核能制氢

据中核智库11月14日消息,荷兰ULC能源公司(ULC-Energy)、丹麦托普索公司(Topsoe)和英国罗尔斯·罗伊斯模块化小堆公司(Rolls-Royce SMR)签署合作谅解备忘录,将合作开展核能制氢研究。研究团体将把托普索公司的固体氧化物电解槽(SOEC)技术与罗罗小堆电厂结合在一起,利用小堆的电力和热能进行电解制氢。ULC能源公司表示,用核能和SOEC技术生产清洁氢,有可能比其他电解工艺的生产成本更低,具有以下特点:(1)在高温下进行电解,意味着制氢耗电较少;(2)核电厂的平均发电时长达到95%,远高于替代性的可再生能源;(3)核能可以热电联供,通过直接使用热能,可避免汽轮机的能量损失,进而提高核电厂的能量利用率。海洋

日本“加贺”号直升机母舰航母化改装完成,明年赴美测试F-35B

据观察者网11月14日消息,日本海上自卫队准航母“加贺”号在完成航母化改造后,于当日首次试航。美国海军学会新闻网同日透露,该舰船将于明年前往美国东海岸进行“F-35B联合攻击战斗机的试验”。“加贺”号是日本海上自卫队第二艘“出云”级直升机母舰(DDH-184),也是日本新型航母,全长248米,宽38米,满载排水量达2.6万吨,可装备其配备美制F-35B垂直起降机。

英国皇家海军新型电子战系统研制取得阶段性进展

据TheDefensePost 11月14日消息,英国国防装备与保障局宣布,英国新型电磁系统已通过关键设计审查,目前正在等待最终测试。该系统名为“海上电子战系统综合能力”(MEWSIC),旨在为皇家海军军舰提供强大的反舰导弹防御能力,可比现有其他系统更远距离探测、识别敌方雷达信号。据悉,该系统未来将安装在45型驱逐舰、“伊丽莎白女王”号航母、26型和31型护卫舰上。

美国海岸警卫队正式建立关岛基地

据国防科技要闻11月14日消息,美国海岸警卫队正式建立关岛基地。该基地将在作战后勤司令部的指导下运作,负责海岸警卫队遂行任务时的后勤保障工作,以满足战区与合作伙伴的需求。基地人员的职责包括为联合作战计划制定应急后勤规划,整合后勤服务,以及为作战资产的战术后勤需求提供支持;维持国家级的后勤通用作战图,并指挥海岸警卫队的22个现有基地,确保通过美海岸警卫队的每个后勤和服务中心执行任务。关岛基地的建立将扩大美海岸警卫队在印太地区的任务支持能力。航空

美陆军寻求新型低成本无人机系统,为部队训练和作战提供支持

据TheDefensePost网站11月13日消息,美陆军发布新型无人机系统研发征询公告,以寻求一种新型低成本无人机,为部队训练和作战提供支持。公告指出,新型无人机成本单价需控制在3000美元以内,并具有夜间可视化能力,航行时长30分钟以上,航程达5千米。此外,供应商还需提供电池、配件等辅助设备以及数据链路或无线电、数据加密、附加功能等相关技术培训服务。

美国防创新部门授予Hermeus公司价值2300万美元合同,将利用其“夸特马”商业原型机验证高超声速能力

据defensenews网站11月14日消息,美国防创新部门授予Hermeus公司价值2300万美元合同,将利用其“夸特马”(Quarterhorse)商业原型机验证高超声速能力。根据合同,该公司将在相关环境中展示高超声速飞机的关键支持技术,包括推进系统、热管理、发电和任务系统功能,将为新项目引入做好准备。预计,“夸特马”原型机将搭载Chimera涡轮基组合动力循环发动机,拟于2024年进行首次飞行。航天

中国台湾鸿海集团部署2颗低轨通信卫星

据卫星界11月15日消息,中国台湾鸿海集团通过SpaceX的Transporter-9发射任务,成功部署PEARL-1H和PEARL-1C卫星。2颗卫星部署在距地520千米的太阳同步轨道,将开展对地宽带通信与太空科学实验。PEARL-1H和PEARL-1C卫星均为6U立方星,前者搭载镭洋科技与中央大学合作的Ka频段通信酬载与中央大学自制的第二代小型电离层探测仪,后者搭载创未来科技的通信载荷,具备相控天线。

美国Spire Global公司推出星座网络管理平台,为简化星座卫星运营提供支持

据SpaceNews网站11月14日消息,美国Spire Global公司于德国不莱梅举行的欧洲航天技术博览会中推出星座网络管理平台应用程序。该平台旨在为星座运营商提供一个用户友好型简化软件界面,为优化管理和运营星座卫星提供支持。Spire Global公司表示,该平台将支持地球观测、卫星网络连接、射频数据中继、太空域感知等一系列星座活动管理。该平台由欧空局资助150万欧元(折合163万美元)研发,并得到卢森堡航天局的额外支持。

加拿大Telesat公司与Aalyria Technologies公司签署价值不详合同,将为“光速”星座提供近地轨道网络协调通信服务

据SpaceNews网站11月14日消息,加拿大Telesat公司授予Aalyria Technologies公司一份价值不详的合同,用于为“光速”(LightSpeed)星座提供近地轨道网络协同通信服务。Aalyria Technologies公司将基于Spacetime网络技术对“光速”星座卫星数据网络流量进行监控、组织、编排和管理,以保证卫星通信网络的安全性和可靠性。根据合同,Aalyria Technologies公司将为“光速”星座提供至少10年网络协调通信服务。据悉,“光速”星座拟由156颗卫星构成,计划将于2026-2027年分14批发射入轨。新材料

比利时研究人员开发出一种利用二氧化碳制造聚氨酯的新技术

据列日大学网站11月13日消息,比利时列日大学(University of Liege)的研究人员开发出一种新的聚氨酯生产技术,可利用二氧化碳(CO2)来制造新型易于回收的塑料。研究人员将原材料放入充满CO2的加压反应器中,再将转化的CO2基化合物纯化后制备出单体以制造聚合物,生成的粉末状聚合物可以在模具中成形或与天然纤维一起压制生产复合材料。由于该塑料的化学结构类似于3D网络,在相对温和的反应条件下可通过化学键交换实现重塑,因此该塑料比长分子链制成的塑料更耐用,且可以通过多种方式回收利用。该技术可成为开发可持续塑料的潜在解决方案。相关研究成果发表在《美国化学会志》上。

欧盟同意关键矿产供应目标以减少对外依赖

据路透社网站11月14日消息,欧盟成员国政府谈判代表和立法者就锂、镍等关键矿产的内部供应目标达成协议,以减少对第三国的依赖。欧盟委员会于3月发布《欧洲关键原材料法案》,法案要求到2030年,欧盟能够提取、回收、加工16种“战略原材料”且分别达到年度需求的10%、15%、40%,任何一种战略原材料对单一第三国的依赖程度不超过65%,法案预计于2024年年初生效。谈判代表就法案的共同文本达成一致,并将回收目标提高到至少25%,还同意将铝和合成石墨添加到“战略原材料清单”中。欧盟工业负责人蒂埃里·布雷顿(Thierry Breton)在一份声明中表示,如果不采取行动,欧洲将面临短缺和不必要的依赖的风险,欧盟将与各成员国合作并确定战略项目,这些项目将受益于更简便、更高效的许可程序且更容易获得融资。先进制造

美国研究人员开发出超节能蠕动型软体机器人

据TechXplore 11月14日消息,美国普林斯顿大学研究人员成功开发出一款灵活、轻便且节能的蠕动型软体机器人eViper。该机器人没有腿或旋转部件,主要利用压电效应,通过将电能转化为机械能,并通过精确控制脉冲来控制机器人的蠕动,仅需使用1W的功率。此项新技术有望引领未来机器人系统朝着高能效发展。相关研究成果发布于预印本服务器arXiv。

美国研究人员利用大型语言模型助力机器人创造性使用工具

据TechXplore 11月14日消息,美国卡内基梅隆大学和谷歌DeepMind的研究人员联合开发了一项名为RoboTool的系统,旨在通过大型语言模型的应用,使机器人能够更创造性地运用工具,拓展其在各种任务中的能力。RoboTool的核心组件包括分析器、规划器、计算器和编码器。通过RoboTool,机器人能够使用工具解决以前未遇到过的复杂任务,例如创建杠杆来举起重箱或使用磁性方块制作按键等。这项技术有望拓展机器人系统的能力,例如执行更复杂的家务任务或使用现有工具修理破损家具。未来,研究人员计划将大型视觉基础模型整合到系统中,以提高机器人在开放环境中的感知和推理能力,同时建立安全措施以减少机器人在与人类共同工作时的风险。相关研究成果发布于预印本服务器arXiv。

AI军事化,英国想当“领头羊”

据报道,首届全球人工智能安全峰会近日在英国布莱奇利园召开。在此次峰会召开之际,英国公开披露了本国利用人工智能开展军事活动的细节,引发舆论广泛关注。

2023年11月2日在英国布莱奇利园拍摄的首届人工智能安全峰会现场(来源:新华社)

在首届全球人工智能安全峰会召开之际,英国公布了人工智能军用细节。

在军事观察员周伟政看来,英国的时机选择暗藏玄机。周伟政:英国想借此渲染气氛,突出人工智能军事运用的广阔前景和潜在价值,以及人工智能可能带来安全领域的新问题新挑战。峰会地点有说法

资料图:位于英国伦敦西北的布莱奇利园(来源:环球网)周伟政表示,英国把峰会地点选在布莱奇利园也有讲究,这里是二战期间英国的密码破译中心,英国科学家在这里成功破解了德国的恩尼格玛密码机,为盟军打败德国作出了巨大贡献。
周伟政:

英国选择在这里组织人工智能峰会,既是纪念自身历史成就,也是想重新在颠覆性科技领域再次获得领导权,同时也有对内渲染政绩、争取民意支持和更多财政拨款的政治考量。暴露英军AI军事运用倾向

资料图:2023年9月,英军在英吉利海峡进行抢滩登陆演习(来源:中国国防报)英国在这次峰会前夕公开披露的两项人工智能技术在军事层面的运用,分别是抢滩登陆演习数据采集以及飞机故障维修智能预测和诊断。

周伟政认为,这并非人工智能的高端应用,但其中的一些倾向值得关注。
周伟政:首先,英国的人工智能军事运用已经全方位拓展。英国国防部认为,人工智能已经成为提升军事实力、应对未来威胁的重要工具。

其次,在人工智能军事运用领域,英国拉帮结派、搞“小圈子”。在英国最近组织的抢滩登陆演习中,美军参与其中,此外,还涉及意大利、法国的军工企业。英国试图“技术抢跑”

英国首相苏纳克在首届全球人工智能安全峰会上发言(来源:新华社)事实上,英国早已在武装力量中探索和应用人工智能技术,英国国防部此前发布了《国防人工智能战略》,详细分析了英国如何优先研发人工智能技术,进而通过新概念和颠覆性技术大规模提升武器装备智能化水平。
周伟政进一步指出,在人工智能军事化运用方面,英国试图通过“抢跑”获取战略优势地位。

周伟政:

2022年6月15日,英国国防部发布了《国防人工智能战略》,比美国出台相关战略的时间还要早。

英国提出这一战略的目的在于,通过前沿技术枢纽支撑新兴技术的使用和创新,从而支持创建英国国防AI中心。
英国还提出了具体的战略目标,包括将国防转变为“AI就绪”组织,以一定的速度和规模采用和利用AI以获得防御优势等。全球AI军事化风险有待管控

11月1日,中国科技部副部长吴朝晖在首届全球人工智能安全峰会开幕式上发表演讲(来源:澎湃新闻)

在首届全球人工智能安全峰会上,来自中国、印度、美国和欧盟等28个国家和地区的代表签署通过了全球首个人工智能协议《布莱奇利宣言》,旨在解决前沿人工智能模型可能会面临的失控和滥用风险。周伟政表示,《宣言》多是倡议性内容,未来人工智能军事化的风险如何有效管控,有待进一步观察。周伟政:现在各军事强国都看到了人工智能在军事领域的巨大价值,都在不遗余力地制订和推动自己的人工智能军事运用计划。

对人工智能发展运用存在的风险缺乏足够认识以及有效的、共同的制约手段,这一点需要引起国际社会共同关注和反思。中国提出《全球人工智能治理倡议》,是解决这一问题的中国方案,对规范节制当前人工智能的无序发展具有极为深远的意义。

解读AI大模型,从了解token开始

什么是token?最小的语义单元

你可能会好奇,大规模语言模型是如何工作的呢?它们是如何从数据中学习到语言的呢?它们是如何根据输入来生成合理的文本延续的呢?为了回答这些问题,我们需要从最基础的概念开始讲起:token。

自然语言处理(NLP)中,token是指文本中最小的语义单元。比如,一个句子可以被分割成若干个单词,每个单词就是一个token。例如,“I love you”这个句子可以被分割成三个token:“I”,“love”和“you”。token可以帮助我们把文本分解成更容易处理和分析的部分。

但是,并不是所有的语言都可以用空格来划分单词。有些语言,比如中文、日语等,没有明显的单词边界。在这种情况下,我们需要用一些更复杂的方法来进行tokenization(分词)。比如,我们可以用一些规则或者统计模型来判断哪些字或者字组合构成了一个有意义的token。例如,“我爱你”这个句子可以被分割成两个token:“我”和“爱你”。当然,这种方法并不完美,有时候会出现错误或者歧义。

除了单词之外,还有一些其他的符号也可以被视为token。比如,标点符号、数字、表情符号等等。这些符号也可以传达一些信息或者情感。例如,“I love you!”和“I love you?”就不同于“I love you”,因为感叹号和问号表达了不同的语气和态度。

总之,token就是文本中的最小有意义的单位,它们可以帮助我们把文本分解成更容易处理和分析的部分。不同的语言和场景可能需要不同的tokenization方法。接下来,我们要看看GPT系列采用了什么样的token类型?

GPT系列采用了什么样的token类型?

GPT系列是一系列基于Transformer的生成式预训练模型,它们可以用来生成各种类型的文本。目前,已经有了GPT-2、GPT-3和GPT-4等不同版本的模型,它们的区别主要在于模型的大小、训练数据的规模和质量、以及生成能力的强度。

GPT系列的模型都是基于子词(subword)来进行tokenization的。子词是指比单词更小的语言单位,它们可以根据语料库中的词频和共现频率来自动划分。比如,一个单词“transformer”可以被划分成两个子词“trans”和“former”,或者三个子词“t”,“rans”和“former”,或者四个子词“t”,“r”,“ans”和“former”,等等。不同的划分方法会产生不同数量和长度的子词。一般来说,子词越多越短,就越能覆盖更多的语言现象,但也会增加模型的计算复杂度;子词越少越长,就越能减少模型的计算复杂度,但也会损失一些语言信息。

GPT系列采用了一种叫做Byte Pair Encoding(BPE)的子词划分方法。BPE是一种基于数据压缩原理的算法,它可以根据语料库中出现频率最高的字节对(byte pair)来合并字节,从而生成新的字节。比如,如果语料库中出现频率最高的字节对是“ns”,那么BPE就会把所有的“ns”替换成一个新的字节“Z”,从而减少字节总数。这个过程可以重复进行,直到达到预设的字节总数或者没有更多的字节对可以合并为止。这样,BPE就可以把原始的字节序列转换成一个由新字节组成的子词序列。

例如,“obsessiveness”这个单词可以被BPE转换成以下子词序列:

  • 原始字节序列:o b s e s s i v e n e s s
  • 第一次合并:o b s e Z i v e n e Z (假设Z代表ss)
  • 第二次合并:o b s E i v e n E (假设E代表e Z)
  • 最终子词序列:o b s E i v e n E(如果没达到预设的字节要求,可合并只出现一次的子词)

当然,这只是一个简单的例子,实际上BPE会根据大规模的语料库来生成更多更复杂的子词。GPT系列使用了不同大小的BPE词典来存储所有可能出现的子词。比如,GPT-3使用了50,257个子词。

总之,GPT系列采用了基于BPE算法的子词作为token类型,主要目的是以无损的方式压缩文本的内容,从而以保证语言覆盖度和计算效率之间达到一个平衡。接下来,我们要看看如何用子词来表示和生成文本?

如何用子词来表示和生成文本?

我们已经知道了GPT系列使用了子词作为token类型,并且通过上文讲述的BPE或其他相关算法我们可以将文本内容转换为由子词组合而成的序列,也就是术语中分词过程。

有了子词序列之后,我们就可以用子词来表示和生成文本了吗?答案是否定的。因为语言模型是基于神经网络的,而神经网络只能处理数值数据,而不能处理文本数据。因此,我们还需要做第二件事情:将子词序列转换为数值向量。

这里,我们需要介绍两个重要的概念:编码(encoding)和解码(decoding)。

编码和解码

将子词序列转换为数值向量的过程叫做编码(Encoding,它是语言模型的第二步。编码的目的是将一个个离散且无序的token映射到一个个连续且有序的向量空间中,从而方便语言模型进行计算和学习。比如,我们可以用以下的BPE词典来表示上面的例子:

子词数值编码子词数值编码
o1i5
b2v6
s3e7
E4n8

那么,编码和解码就可以按照以下的规则进行:

  • 编码:根据BPE算法,将文本分割成最长的匹配子词,然后根据BPE词典,将每个子词替换成其对应的数值编码,从而得到一个数值向量。比如,“obsessiveness”这个单词可以被编码为[1, 2, 3, 4, 5,6,7,8,4]这个数值向量。
  • 解码:根据BPE词典,将每个数值编码替换成其对应的子词,然后根据BPE算法,将相邻的子词合并成最长的匹配单词,从而得到一个文本。比如,[1, 2, 3, 4, 5,6,7,8,4]这个数值向量可以被解码为“obsessiveness”这个单词。

通过编码和解码,我们就可以实现文本和子词序列向量之间的互相转换。但是,这还不够。我们还需要让GPT系列能够理解和生成这些子词序列。为了做到这一点,我们还需要进行另外两个步骤:嵌入(embedding)和预测(prediction)。

嵌入和预测

我们已经知道,子词分词和编解码,可以把文本转换成数字,就像我们用数字来表示电话号码一样。但是,这样的数字只是一种编码方式,它们并不能告诉我们子词之间有什么关系。比如,我们怎么知道“猫”和“狗”是两种动物,而“猫”和“桌子”是不同的东西呢?

为了让GPT系列能够理解子词之间的关系,我们需要进行嵌入(embedding)。嵌入就是把每个子词用一个特征向量来表示,这个特征向量可以反映出子词的含义、用法、情感等方面的信息。

特征向量的计算算法比较复杂,但计算原理比较容易理解,GPT只需要基于互联网上大量的文本资料,统计出两个词语在相邻/句子/文章中共同出现的概率并通过权重来汇总计算,就能分析出某个词语与另外一个词语的亲密度的数值,并将这个数值作为特征向量来描述这个词语。比如,“猫”在互联网的资料中与“动物”等词语一同出现的次数多,所以“猫”的特征向量可能包含了它是一种动物、有毛发、喜欢吃鱼、会发出喵喵声等信息。

通过嵌入,我们就可以把每个子词看作是高维空间中的一个点,而这些点之间的距离和方向,就可以表示出子词之间的相似度和差异度。比如,“猫”和“狗”的点因为同为宠物,可能会比较接近,相对“狗”而言,“猫”和“牛”的点可能会比较远离。

在完成嵌入后,我们就可以进行预测(prediction)。预测就是根据给定的文本,计算出下一个子词出现的概率。比如,如果给定的文本是“我家有一只”,那么下一个子词可能是“猫”或者“狗”,而不太可能是“桌子”或者“电视”。这个概率的计算,就是基于特征向量表进行的。

通过嵌入和预测,我们就可以实现从数字到文本,或者从文本到数字的转换。但是,这还不够。我们还需要让GPT系列能够根据给定的文本来生成新的文本。为了做到这一点,我们还需要进行最后一个步骤:生成(generation)。

生成与自回归

生成是指根据给定的文本来生成新的文本的过程。生成可以分为两种模式:自回归(autoregressive)和自编码(autoencoding),GPT系列主要采用了自回归模式。

那么什么是自回归?简单理解就是想象这么一副画面:

一个人在拍连环画,每一页连环画都是前一张连环画的延续。也就是说,人需要看前一张画乃至前多张画才能知道该画什么内容。类似地,自回归模型中的每个时间点都需要前一个时间点的信息才能计算出当前时间点的输出值。就像拍连环画一样,自回归模型中各个时间点之间存在着紧密的联系和依赖关系,这种联系在预测时间序列数据时非常有用。

例如,“I love you”这个句子可以被GPT系列生成为以下的文本:

  • I love you more than anything in the world.
  • I love you and I miss you so much.
  • I love you, but I can’t be with you.

总之,GPT系列使用了子词、数值向量、实数向量和Transformer模型来表示和生成文本。通过编码、解码、嵌入、预测和生成等步骤,它可以实现从文本到文本的转换。

快看!这些高交会“显眼包”!

11月15日第二十五届中国国际高新技术成果交易会拉开帷幕(以下简称“高交会”)高交会上,各领域先进技术、装备科技感十足集中展示行业领域最新的创新技术应用成果一大批高精尖“黑科技”产品悉数展出吸引大量观众驻足观看现我们一起去看看高交会上的这些科技型“显眼包”

在展区现场,一只行走的“机器狗”成了高人气选手,吸引大家驻足观看,这款救援机器狗,搭载了各种先进的传感器,并具有灵活的移动性,可以完成勘察、通信保障、导航定位、救援现场应急照明等多项任务,为应急救援工作带来便利。

每年高交会上,各类无人机设备备受关注,与平常的消费型无人机相比,现场展出的铁塔无人机可实现24小时不间断作业,续航时长可以达到70分钟,满足环保、工业、救援等多种场景的使用。

一台由深圳汉诺威国际机器人发展股份有限公司推出的潮汕功夫茶机器人吸引了不少参展者的目光。该机器人将传统茶艺与现代科技相结合,为现场观众带来一场独特的文化体验。该企业负责人表示:“我们希望通过潮汕功夫茶机器人,让更多的人了解和体验传统茶艺的魅力。”

AR飞行模拟器,让用户体验飞一样的感觉。在航空科技领域,富翔航空元宇宙科技AR飞行模拟器成为全场焦点。“这款模拟器运用了最先进的虚拟现实技术,能够让用户体验到真实的飞行感觉。”富翔航空相关负责人告诉记者,产品多用于飞行培训、空中导览、飞行航校等。

一个外观普通的“花瓶”却大有用处。据参展商介绍,这是一款新型的灭火器,每个“花瓶”里都有灭火剂,当家里遇到突发火灾等紧急情况时,只要快速将“花瓶”投向灭火点,即可起到灭火的作用。与AI共舞的时代已到来在第二十五届高交会上可以看到AI无处不在AI应用场景遍地开花正在赋能千行百业的快速发展。

日前,《广东省人民政府关于加快建设通用人工智能产业创新引领地的实施意见》印发,重点提出22条政策举措,将广东打造成为国家通用人工智能产业创新引领地;今年,深圳发布《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023-2024年)》,积极打造全域全时场景应用,努力创建人工智能先锋城市。

一系列政策的出台为人工智能产业发展插上腾飞的翅膀而通过高交会可以洞见“AI+”将会让产业发展更迅猛人类生活也将变得更美好🎉🎉🎉
AI+智能驾驶汽车也能飞上天

高交会上,一辆超跑造型的汽车宛如变形金刚那样,车顶上“长”出旋翼、机臂,从一辆智能汽车化身智能飞机,仿佛下一秒就要飞向空中,这令人啧啧称奇的汽车是来自小鹏汇天的陆空一体式飞行汽车。

该款汽车以最新造型首次在高交会上向公众展示,一亮相就成为展会最受关注的“显眼包”,吸引众多观众打卡拍照。小鹏汇天陆空一体式飞行汽车采用陆空一体式构型,机臂、旋翼等飞行系统可以完全折叠收纳至车内。整车造型采用超跑设计风格,极富科技感的智能座舱可实现陆行、飞行两种驾驶模式的自由切换,如方向盘、透明仪表盘等可随着模式的切换而变化。

据介绍,在陆行模式下,该车能在正常路面上自由行驶。通过折叠变形系统,打开机臂切换到飞行模式,在法规、环境允许的条件下能垂直起降,飞行跨越拥堵、障碍、河流等,满足人们短距离低空出行的需求。据了解,这款产品将会参加明年1月份北美的CES(国际消费类电子产品展览会),向全世界展示中国科技的魅力。

小鹏汇天对外事务总经理仇明全表示,这是他们第一次参加高交会,希望借助高交会能够得到各界关注,助推智能驾驶产业的快速发展。

AI+大模型人人拥有私人小助手

要问今年最热的科技热点是什么,很多人都会脱口而出——大模型。

“‘李白’你好,请问如何才能写好诗呢?”“请用英文写一段高交会的宣传文案。”在高交会科大讯飞展台,被评为中国“最聪明国产大模型”的讯飞星火认知大模型V3.0(以下简称讯飞星火)吸引了众多观众驻足体验。人们围在讯飞星火面前争相提问,讯飞星火都能够迅速准确地给出答案,成为展会最热“打卡点”。

据介绍,讯飞星火可以实现从多轮对话、到主动对话、再到启发探究式对话,这种“像人一样主动沟通”的能力正在教育、医疗等国计民生领域发挥巨大价值。

例如,用户通过讯飞星火App可调用约5000个已上架的AI助手,也能简单几步开发出专属的AI助手,满足职场、营销、生活、公文、客服等多种场景需求,解决工作生活中的各种问题。

“有时候老师布置给孩子制作海报的作业,我用讯飞星火两三下就能给出一份很值得借鉴的作品,特别省时而且效果好。”现场,用户江女士告诉记者,讯飞星火帮助她更好地指导和启发孩子。

不难展望,每个人都拥有AI助手的时代,正在到来。AI+芯片让城市的“大脑”更聪明

AI大模型运算的背后离不开芯片的算法支撑,大模型时代,AI推理芯片是其“落地应用最后一公里”的关键承载体。

本届高交会上,云天励飞重磅发布新一代AI芯片DeepEdge10。该芯片是国内首创的国产14nm Chiplet(14纳米芯粒)大模型推理芯片,采用自主可控的国产工艺,内含国产RISC-V(第五代精简指令集)核,支持大模型推理部署。

据介绍,依托自研芯片DeepEdge10创新的D2D chiplet(芯粒互联)架构打造的X5000推理卡,已适配并可承载百亿级大模型运算,可广泛应用于AIoT(人工智能物联网)边缘视频、移动机器人等场景。“例如在智慧交通领域,大模型可以搭载该款AI芯片,通过调用不同的算法,实现公交车智能线路优化、智慧交通巡检等功能,让城市‘大脑’通过自学习变得更聪明,最终实现自进化城市智能体。”工作人员介绍道。

目前,云天励飞已向国内头部的AIoT芯片设计厂商、智慧汽车芯片设计厂商、服务机器人厂商、国家重点实验室等提供神经网络处理器的IP(知识产权)授权。

AI+硬件戴上耳机,实时切换母语

在1号馆的时空壶展位内,一名外国嘉宾在翻译耳机前好奇地询问随行翻译:“这个产品如何使用?”随行翻译又将这句话翻译成为中文,询问一旁的工作人员。工作人员并未作出回答,而是微笑着将两只耳机分别交给外国嘉宾和随行翻译。俩人戴上耳机后对话,即使使用母语交谈不翻译,依然可以实现无障碍交流。

人工智能与硬件技术的结合,使得耳机具有同声传译功能。据介绍,一人戴一只翻译耳机,一方说一句话,仅需0.5秒,另一方的耳机里就能传出准确的同声翻译,从而实现双方使用母语“丝滑”交流。

目前,时空壶W3翻译耳机支持40种语言和93种口音,翻译准确率达到95%。已销往全球170多个国家和地区,在商务、旅游、教育等行业得到了广泛应用。

“这是我们第三次参加高交会,此次我们准备更加充分,高交会上外国展商和嘉宾很多,我们希望在高交会上可以给参观者带来更好的翻译帮助。”时空壶同传翻译耳机PR经理何涛说。

AI+支付手掌一挥便能“买买买”

继手机移动端支付后,如今刷脸支付已得到普及,不久之后,刷掌支付或将推广到全社会。在高交会微信支付展位上,记者就体验了一把刷掌支付。

只需将手掌悬空放在地铁闸机口的感应区,一秒就可轻松购票刷开闸口;对着共享充电宝机器的感应器,轻轻一抬手,即可成功刷掌借到一台充电宝,让现场体验的观众不得不感叹;“实在是太方便,爱了爱了!”

据介绍,微信刷掌支付是一种基于手掌表皮掌纹和皮下掌静脉进行身份验证的新型支付方式。通过先进的成像技术和AI算法,微信刷掌支付设备将用户手掌图像转化为数字特征,与预先注册的特征进行比对以确认用户身份,从而完成支付。

记者了解到,由于每个人的手纹和掌静脉信息都是独一无二的,即使是同卵双胞胎也有明显差异,这使得刷掌支付在身份验证方面具有出色的精确度。“刷脸再加上刷掌支付,以后出门真的连手机都不用带了。”市民张女士对记者说。

AI+元宇宙虚拟人直播照样吸粉

你敢相信,直播画面里活泼可爱在跳舞的“二次元”萌妹子,竟是一名“糙汉子”生成的虚拟人?高交会上,记者就围观了这样一场有趣的直播。

只见现场搭的直播间只有一台电脑、一个摄像头,一位工作人员在摄像头前手舞足蹈,电脑直播画面里就出现了一个漂亮的虚拟人“女主播”,跟随工作人员的动作舞动,一时间吸引了众多网友进入直播间观看。

这是深圳趣象时空带来的元宇宙新玩法:虚拟人直播。工作人员向记者介绍,用户通过AI 系统上传个人照片3D建模,即可个性化生成自己专属的虚拟人形象,搭配3D虚拟场景,就可以在元宇宙里开直播甚至开演唱会。不仅如此,观看直播的观众也可一键生成虚拟人形象,进入直播间与主播同屏互动,合唱、跳舞、做游戏都不在话下。

斯坦福大学发布《2023年AI指数报告》:解析近年人工智能领域发展十大要点

斯坦福大学人工智能研究所(Stanford HAI)发布了《2023年人工智能指数报告》(Artificial Intelligence Index Report 2023)。该报告全面剖析了人工智能(AI)的影响及其在本年度的发展趋势,它追踪并整理了人工智能领域内的各类数据,为政府决策者、研究人员、企业高管等群体对人工智能领域具备深入了解提供了便利。与此同时,本报告也旨在成为全世界范围内最具信度和权威的人工智能领域前沿观点的来源。

本报告由八个章节组成,在论述这八个部分内容的过程中,本报告强调了近年来人工智能领域发展的十大要点
 工业界领先于学术界

在第一章“研究与发展”中,本报告指出,当下人工智能领域内工业界呈现出领先于学术界的发展态势(industry races ahead of academia)。截至2014年,大部分重要的机器学习模型都是由学术界研创并发布的,然而自那年之后,工业界开始接手机器学习模型的制造。截至2022年,由工业界生产的机器学习模型数量高达32个,而学术界则只研发了3个。究其原因,这种现象的产生是因为构建先进的AI系统对于海量数据、计算机能力及资金支持的需求日益增大,与非营利组织和学术界相较,工业界天生具备这些优势

在这一章节中,本报告还指出,有关于AI的研究数量正在持续且全面地上升(包括模式识别、机器学习和计算机视觉等主题),其中,中国在AI期刊、会议以及存储库中发表的成果总量呈领先态势,中美两国在AI出版物方面所进行的跨国合作数量在2010至2021年间也位居世界首位,然而近年来两国进行相关合作的步伐已有所放缓。

 传统基准的性能饱和

在第二章“技术性能”中,本报告指出,传统基准上的性能趋于饱和(performance saturation on traditional benchmarks)。近年来,AI领域内持续产出了不少先进的成果,然而仍有很多基准的年同比改进微乎其微;除此以外,传统基准达到饱和的速度正在加快,不过,BIG-bench和HELM等崭新的、更全面的基准套件正处于发布过程中。

人工智能对环境&科学的影响

在第二章节中,本报告还指出,人工智能利弊共存,既能保护环境、促进科学进步,但也有可能损害环境(AI is both helping and harming the environment; AI is the world’s new scientist)。新的研究显示,人工智能系统可能会对人类所处的生态环境产生恶劣的影响,根据专业人士的调研,2022年BLOOM的训练运行排放的碳元素比一位从纽约到旧金山的单程航空旅客多出25倍。尽管如此,BCOOLER等新的强化学习模型表明,人工智能系统可以用于提高能源使用的效率;此外,人工智能模型也正迅速地推动科学的发展,并于2022年被使用于辅助氢聚变、提高矩阵操作效率、生成新抗体

滥用人工智能事件数量正在迅速上升

在第三章“技术AI伦理”中,本报告指出,滥用人工智能的事件数量正逐步攀升(the number of incidents concerning the misuse of AI is rapidly rising)。根据专门追踪人工智能伦理相关事件的AIAAIC数据库提供的资料显示,自2012年以来,人工智能相关事件及争议量已增加了26倍。2022年,不少引人注目的国际事件印证了人工智能技术使用量的增长,也表明人们已经逐渐意识到了人工智能滥用的可能性。
人工智能专业技能需求增加

在第四章“经济”中,本报告指出,许多工业部门对于人工智能相关专业技能的需求都在不断地增加(the demand for AI-related professional skills is increasing)。在美国,需要使用数据的每一个部门(农业、林业、渔业和狩猎除外),人工智能相关的岗位招聘数量每年逐步增加,雇主们越来越倾向于寻找具备人工智能相关技能的员工。

人工智能私人投资首次出现同比下降&助力企业增收

同时,人工智能在经济层面的另一个发展态势是,在过去的十年中,私人对人工智能的投资首次呈逐年减少的趋势(year-over-year private investment in AI is decreasing)。2022年,全球人工智能私人投资额为919亿美元,与2021年的水平相较下降26.7%。

人工智能相关融资活动及新融资的人工智能公司数量也正在逐步减少,不过,虽然采用人工智能的公司比例呈现出了停滞以及下滑的状态,但采用人工智能技术的公司仍保持着领先地位,采纳人工智能技术的企业报告称,它们已经实现了有意义的成本下降和收入的增加。报告显示,过去年一种投资最多的人工智能聚焦领域为医疗保健(总额为61亿美元),其次是数据管理和云(59亿美元),以及金融科技(55亿美元)。
政策制定者对人工智能的兴趣上升

在第八章“政策与治理”中,本报告指出,政策制定者愈发重视对于人工智能的研究(policymaker interest in AI is on the rise)。针对127个国家立法记录的人工智能指数分析显示,与人工智能密切相关的法案正式获准成为法律的案例数量从2016年的1个快速增加至2022年的37个;关于81个国家人工智能会议记录的调查同样表明,近年来,人工智能在全球立法进程中出现的频率较高,已经增加了约6.5倍。

在人工智能方面,政策制定者有很多亟待实现的想法。相关研究表明,政策制定者从广泛的角度出发,思考人工智能应用前景。例如,2022年,英国立法者探讨了人工智能主导的自动化风险;日本政府决策者则认为,在人工智能方面,必须将“维护和保障人权”提上日程;赞比亚的政策制定者则深入研究了将人工智能技术应用于天气预报的可能性;美国政府所签订的与人工智能相关的合同支出金额大幅度增长,这些例子无一不展现出人工智能对于政策制定者而言的重要性。
中国公民人工智能体验最积极

在第八章“舆论”中,本报告指出,中国公民是对人工智能产品及服务感受最为积极的群体之一(Chinese citizens are among those who feel the most positively about AI products and services)。在2022年的益普索调查中,约有78%的中国受访者赞同使用人工智能的产品及服务“利大于弊”,这一比例在所有受调查国家中位居最高;然而,美国受访者认同人工智能使用利大于弊这一观点的人数在所有受调查人群中仅占35%。报告认为,大部分美国受访者之所以认为人工智能弊大于利,主要原因有他们担心人工智能带来的失业问题(19%);监视风险、黑客攻击和数字隐私风险(16%);以及人工智能带来的人际关系缺失(12%)
其他要点

除上述十大主要发展要点外,本报告还着重强调了人工智能领域在教育行业中的发展情况。报告指出,人工智能发展越来越专业化,越来越多毕业于该专业的博士迈入了工业界,数量远多于在学术界就职的博士群体。与此同时,政府部门对于人工智能领域研究的资金投入力度不断增多,在全世界范围内,人们对于K-12人工智能和计算机科学教育的兴趣都在不断地增长

英伟达推出史上最强AI芯片H200!141GB超大显存,Llama2推理性能翻倍

英伟达又一次打了所有人措手不及!
就在昨晚,老黄发布了新一代史上最强 AI芯片 NVIDIA HGX™ H200 。

141 GB 超大显存!带宽增加 2.4 倍
H200 拥有141GB 显存!相比之前的 H100和A100,容量几乎翻倍!
NVIDIA H200 是首款提供 HBM3e 的 GPU,借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 显存,带宽增加 2.4 倍。
H200可以轻松加速生成式 AI 和大语言模型,同时推进 HPC 工作负载的科学计算。
下面是H200和H100以及A100显卡的各参数对比图,可以清晰帮助大家看出H200各方面带来的提升。

兼容H100系统,轻松训练ChatGPT,Llama 2推理速度翻倍!

NVIDIA H200将在具有四路和八路配置的NVIDIA HGX H200服务器主板中提供,这些主板与HGX H100系统的硬件和软件兼容。它还可用于 8 月份发布的采用 HBM3e 的 NVIDIA GH200 Grace Hopper™ 超级芯片。
HGX H200 由 NVIDIA NVLink™ 和 NVSwitch™ 高速互连提供支持,可为各种应用工作负载提供最高性能,八路 HGX H200 提供超过 32 petaflops 的 FP8 深度学习计算和 1.1TB 聚合高带宽内存,可在生成式 AI 和 HPC 应用中实现最高性能。
对超过 1750 亿参数的ChatGPT等大语言模型进行训练和推理也不在话下!
具体到训练大模型方面有何提升呢?
英伟达进行了官方测试——相比 H100 ,Llama 2的推理速度几乎翻倍!。
当用H200与英伟达GraceCPU搭配使用时,就能组成性能更强的GH200 Grace Hopper超级芯片,专为应用于大型HPC和AI应用!

兼容H100系统,轻松训练ChatGPT,Llama 2推理速度翻倍!

NVIDIA H200将在具有四路和八路配置的NVIDIA HGX H200服务器主板中提供,这些主板与HGX H100系统的硬件和软件兼容。它还可用于 8 月份发布的采用 HBM3e 的 NVIDIA GH200 Grace Hopper™ 超级芯片。
HGX H200 由 NVIDIA NVLink™ 和 NVSwitch™ 高速互连提供支持,可为各种应用工作负载提供最高性能,八路 HGX H200 提供超过 32 petaflops 的 FP8 深度学习计算和 1.1TB 聚合高带宽内存,可在生成式 AI 和 HPC 应用中实现最高性能。
对超过 1750 亿参数的ChatGPT等大语言模型进行训练和推理也不在话下!
具体到训练大模型方面有何提升呢?
英伟达进行了官方测试——相比 H100 ,Llama 2的推理速度几乎翻倍!。
当用H200与英伟达GraceCPU搭配使用时,就能组成性能更强的GH200 Grace Hopper超级芯片,专为应用于大型HPC和AI应用!

新一代超算要来了!

NVIDIA还宣布与 Jupiter 合作赢得了一项新的超级计算机设计。根据 EuroHPC 联合组织的订购,Jupiter 将成为由 23,762 个 GH200 节点构建的新型超级计算机。
一旦上线,Jupiter 将成为迄今为止最大的基于 Hopper 的超级计算机,并且是第一台明确(且公开)针对标准 HPC 工作负载以及已经出现的低精度张量驱动的 AI 工作负载的超级计算机。

什么时候发货?
英伟达表示,H200将于2024年第二季度开始在全球服务器制造商和云服务提供商处发售。
首批部署H200的云服务提供商包括CoreWeave、Lambda、Vultr、AWS、谷歌云、微软Azure和甲骨文等。

国内大模型厂商怎么办?
真是不对比不知道差距啊!
英伟达发布了史上最强显卡H200 ,国内厂商能买到货吗!
估计是不抱希望了!
美国前阵子命令英伟达立即停止对华销售高性能AI芯片,国内多家大厂提前下单的超50亿美元芯片订单不知道还能不能收到货。
而这次的H200太强了,后面铁定上禁售名单。
另一方面,前几天英伟达绕过禁售令,将推出三款中国特供版AI芯片。

现在来看,都是鸡肋啊。

众所周知,搞大模型是离不开高性能显卡的,国内百模大战相比OpenAI最新发布的GPT-4 turbo没有一个能打的。
可以预料,本次H200发布之后,国内大模型相比国外的差距只会越来越大~

3D打印融合人工智能,影响七个环节,面临十项挑战

当前,增材制造与人工智能(AI)技术都已独立掀起了应用革命,重新定义了各自领域的可能性,但正两者的融合正在为制造带来更多潜力。本文将从优化设计到质量控制需求,探讨人工智能和3D打印技术的交叉点,特别阐述生成式人工智能如何增强增材制造的能力。最后,将讨论两者结合面前所面临的挑战

01

人工智能如何增强增材制造

随着3D打印领域的不断发展,人工智能(AI)的集成已被证明是一股变革力量,引入了增强功能和无数专为增材制造定制的方法:
1. 衍生式设计:人工智能在设计优化方面的能力非常出色。考虑到最初的限制,人工智能探索了无数的设计变化,产生了比人类所能设计出来的更轻、更坚固和更高效的零件。
2. 流程优化:人工智能能够对制造流程进行微调,保证打印质量的一致性。根据传感器反馈调整打印速度、层厚或温度等参数,确保最佳打印条件。
3. 用于质量控制的机器学习:增材制造的质量保证受益于人工智能的分析能力。先进的机器学习模型,例如卷积神经网络(CNN),可以评估打印组件的图像以识别缺陷或设计偏差。
4. 预测性维护:利用人工智能分析运行数据,可以提前进行设备维护。这减少了计划外停机时间,确保制造过程顺利高效。
5. 材料创新人工智能的实力已延伸到材料选择和创新。它有助于挑选合适的材料,并建议针对所需特性量身定制新组合。神经网络模型可以预测新型材料的特性,甚至在生产之前就可以提供见解。
6. 强化学习促进流程细化:持续改进对于增材制造至关重要,不断强化学习通有助于实现更好的材料特性或表面质量。
7. 通过NLP进行文档记录:人工智能采用自然语言处理(NLP)技术来自动更新或创建与设计更改保持一致的文档。

02

生成式人工智能的兴起及其影响

生成式人工智能是一种能够根据学习到的数据模式生成新内容或设计的人工智能,这项技术给增材制造领域带来了多方面的影响。近期,ChatGPT展示了其在各个领域的影响力,凸显了生成式人工智能在制造业的变革潜力
生成式人工智能最显著的优势之一是其快速促进设计进化。该技术无需延长开发周期,而是可以快速生成针对特定约束的多种设计选项,从而简化从初始概念到最终设计的过程,并减少多次原型设计迭代的需要。设计处理的加速伴随着创新的冒险。生成式人工智能不受人类偏见或传统设计范式的限制,使其能够探索独特的设计途径,乍一看似乎违反直觉,但有可能带来创新的解决方案

除了单纯的设计之外,生成式人工智能的能力还扩展到前所未有的定制规模。无论是根据个人独特的生理机能精心定制的假肢,还是设计在特定环境条件下发挥最佳性能的工程汽车组件,生成式人工智能都将个性化置于制造的中心。这种对精度的承诺不会以牺牲可持续性或效率为代价。通过优化设计,生成式人工智能可确保使用尽可能少的材料来制作产品,将强度和功能结合起来,不会造成浪费。这种资源效率不仅支持可持续制造实践,而且被证明具有成本效益。
与3D打印流程的无缝集成是生成式人工智能的另一个特点。其本质上的数字优先设计可以顺利过渡到增材制造世界,确保产品的物理表现与其数字蓝图完美契合。更有趣的是,生成式人工智能并不是静态的,而是动态的。它在不断发展,通过每个反馈循环,从用户响应到性能指标和新发现的材料特性,它都会完善其设计建议,使它们更加复杂并与现实世界的要求紧密结合。
如今,生成式人工智能和增材制造的结合带来了一个设计高效、可定制、不断发展的未来,重塑了制造业的结构
03

应对挑战

虽然生成式人工智能和增材制造的融合有望带来革命性的设计和生产方法,但它也并非没有挑战。认识到这些挑战并制定解决这些挑战的策略将是充分发挥这种整合潜力的关键。
1. 计算需求:生成式人工智能模型可能需要大量计算,特别是在处理复杂几何形状和约束时,使用者可能需要投资高性能计算集群或利用云平台。
2. 数据质量和可用性:生成式人工智能的有效性通常取决于其训练数据的质量和数量。数据不足或有偏差可能会导致设计不理想甚至有缺陷。
3. 解释人工智能输出:有时人工智能生成的设计可能是违反直觉或非常规的,工程师和设计师必须严格评估这些输出,确保它们符合安全标准和实际考虑。
4. 与现有系统集成:引入人工智能驱动的设计流程可能需要对现有设计和制造工作流程进行重大改变,无缝集成对于避免中断至关重要。
5. 材料限制:虽然人工智能可能会产生复杂而新颖的设计,但当前适合3D打印的材料范围可能会限制它们在现实世界中的适用性。
6. 知识产权问题:确定人工智能生成的设计的所有权和专利性可能是一个法律灰色地带,使用者需要应对这些挑战以保护创新。
7. 可靠性和测试:人工智能设计的产品需要严格的测试,特别是在航空航天或医疗设备等关键应用中,传统的测试协议可能需要调整或扩展。
8. 成本影响:虽然生成式人工智能可以节省材料和设计优化的成本,但人工智能基础设施、培训和集成的初始投资可能会很大。
9. 人机协作:生成式人工智能的最佳用途不是取代人类设计师,而是增强他们的能力。建立人类和人工智能共同工作的协作框架可以产生最佳结果。
10. 监管和认证挑战:产品,尤其是受监管行业的产品,必须符合特定标准。监管机构可能需要调整其框架以适应和验证人工智能生成的设计。
04

结论

展望未来,生成式人工智能和3D打印的结合预示着设计和生产的边界会不断扩大并将重新定义未来。人工智能和增材制造之间的协同关系具有变革性,象征着技术与创新制造错综复杂的未来。然而,当我们在这一创新之旅中前行时,我们必须以战略远见来应对挑战,确保这种技术共生不仅是创新,而且是维持和发展,不断推动走向无限创新的未来。

AI应用的最大赢家,为什么是Adobe?

今年10月,《时代》杂志发布“2023年最佳发明”。在AI门类入选的14个应用中,老牌软件公司Adobe的Generative Fill(生成式填充)力压OpenAI的GPT-4,位列细分门类头把交椅。

当Midjourney依靠一张AI生成的情侣合影横空出世时,一度被认为是“PS背后的神秘力量”的病危通知书。但近一年过去,大家猛然发现相比网红AI初创公司,Adobe才是资本市场真正的抢手货。

年初至今,Adobe在美股创造了71%的涨幅,市值涨了足足1000亿美元。

那么,大家到底在期待什么?

Adobe做了什么?

今年3月,Adobe公布了其生成式AI工具“Firefly”。和Midjourney、Dall-e等工具一样,Firefly具有文本生成图像、AI 生成文字效果、重新上色等功能,之后又添加了生成式填充、文字生成视频和海报等功能。

Firefly的生成质量相比同类产品其实并不算强,在社交媒体上的热度也远不如Midjourney、Stable Diffusion等同行,但Firefly却让Adobe在资本市场疯狂上分。

一个重要原因是,Firefly解决了生成式AI商业化面临的版权问题。

首先,Firefly大模型的训练数据来源是Adobe的图库Adobe Stock,其内容为公开授权图片或版权过期的图片。创作者可以把作品上传到图库,如果有其他人下载则视为达成交易,作者可以获得相应的版税收入。

虽说Adobe Stock在图库市场的份额属于“其他”,但好处是规避了版权问题。

针对一些知名IP,Firefly会在图片生成前就先行拦截,彻底杜绝了收大公司律师函的可能性。更何况Adobe承诺如果出现版权纠纷责任全在己方,对重视合规的大公司是一个福音。

今年10月,Adobe公布了Firefly大模型的迭代款,同时公布了Creative Cloud(包含Illustrator、Photoshop、Lightroom、Premiere Pro的订阅包)的100多项AI功能更新,比如在Photoshop里借助AI智能扩充图片。

这些更新的意义在于,可以让AI生成的图片融入Adobe全家桶的工作流

AI做图的核心是提示词(prompt),不同的提示词生成的图片差异巨大,对用户来说完全是个盲盒。即便每次念同样的咒语,生成的图片也可能也大相径庭。

妙鸭相机这类应用本质上是将提示词功能化,虽然牺牲了自定义的自由度,但大幅度降低了释放咒语的门槛。但无论哪种方式,对于商业化用途都是无法接受的。

另一个问题是图像的编辑。比如设计师用Dall-e生成了一张图片,需要在Photoshop上编辑,还需要设计师把图片矢量化——所谓矢量图,指通过数学公式而非像素描述图形,因此矢量图可以无限放大而不会失真,让设计师可以自由编辑。

这也是为什么Adobe会针对性的推出Firefly矢量模型,可以让AI直接生成可编辑的矢量图形。Adobe旗下的Illustrator也推出了文本生成矢量图的功能测试。

这就意味着从图像生成到编辑,用户可以完全在Adobe全家桶里完成,迁移成本非常低。

因此,虽然大家都是AI生成图片,但Midjourney、Dall-e等应用更多侧重单纯的生成,编辑能力极其有限,也无法与Adobe全家桶这类专业工具集成。

所以,Midjourney所替代的更多是Flickr和Shutterstock这类图库。在专业的商业化场景里,Adobe还是独一无二的霸主。

事实上,Adobe的技术能力未必有多么出色。Firefly生成图片在一些细节上与Midjourney等同行还有差距,其大模型的开发也仰仗了英伟达的技术扶贫。

但Adobe的核心能力在于:在AICG的技术浪潮出现之前,他们就已经是富可敌国的软件公司了。

Adobe的核心资产

Adobe的核心业务分为两块:数字体验数字媒体。前者定位于企业的数字化营销;后者则是由我们熟悉的Photoshop、Illustrator等软件组成的全家桶,收入占比长期高达70%以上。

其中,数字媒体部分又由两大拳头产品组成:针对影像编辑和设计的Creative Cloud,在数字媒体业务中贡献了80%的收入;另一个是以PDF文档为核心的Document Cloud,针对文档的管理等场景。

在这些业务场景里,Adobe的覆盖面极广。除了我们熟悉的Photoshop,还有针对UI设计的Indesign,针对照片编辑的Lightroom和用于矢量图处理的Illustrator。

这个庞大的软件版图构筑起来的是Adobe在图形设计这个细分市场绝对的霸主地位。2023年全球图形设计软件前5名中,有4家来自Adobe,加起来市场份额接近80%。唯一的竞争对手Sketch还只支持macOS平台。

超高的市场份额构筑了Adobe的护城河:打动资本市场的并不是Adobe的技术能力有多么领先,而是在图形设计这个含金量巨大的细分市场,Adobe已经提前卡住了身位赚大钱了。

经过了大模型群魔乱舞的时期,产业界逐渐意识到,AI应用的落地才是更关键的问题。而诸如办公、图形设计这类“高价值的场景”,目前还是稀缺的。

OpenAI创始人Sam Altman曾表达过一个观点[8]:未来的应用趋势是大模型的功能嵌入更多APPs,而不是在 ChatGPT 上生长出更多插件,因为现实中大多数插件并没有呈现出 PMF ( Product / Market Fit,产品市场匹配)。

也就是说,至少目前来看,AI落地更多在于改造现有的应用场景,而非创造新的场景。

按照这个论点,能够在当下分一杯羹的公司,很可能在AIGC的热潮出现前就已经大赚特赚了。Adobe就是其中之一。

2008年,Adobe开启了自公司创办最大的一次改革:将按版本买断制的软件销售模式转变为按产品组合订阅收费。

虽然这次转型被冠以“SaaS云服务”之名,但核心还是把传统的一次性购买变成定期缴税。2014年一季度,Adobe订阅收入首次超过买断收入。

同时,Adobe主导了大量防御性收购。2009年,Adobe一口气收购了Omniture、Efficient Frontier、ComScore等几家定位在“营销科技”的公司,建立了在创作设计之外的第二块重要业务版图。

2018年后,随着Shopify迅速崛起,Adobe又开启钞能力,收购了Shopify的竞争对手Magento和Marketo,同时一点点减持Shopify的股份,完成了对电商、AI等领域的覆盖。去年,Adobe再次慷慨解囊200亿美元,拿下在线设计协作软件Figma。

这样做的好处在于,一旦市场上出现有威胁的友商,Adobe可以第一时间收入囊中。同时,被收购的产品可以放进自己的订阅服务产品组合,加强自家产品的竞争力,进一步抢占市场份额。

贡献了20%收入的Experience Cloud,产品组合几乎全是买来的。

得益于占比夸张的市场份额,Adobe事实上成为了设计创意行业的某种“标准”,这也难怪收购Figma会惊动美国反垄断部门。

因此,Adobe的核心竞争力并非技术多么领先,而是在“创意设计”这个高价值场景里,付费能力和付费意愿最强的客户几乎都被Adobe纳入麾下了。

到了AIGC时代,Adobe打下来的江山就显得更值钱了。

同样的逻辑也适用于微软,作为办公软件的全球龙头,资本市场盯上的不是微软的技术含量,而是每年给Microsoft 365按时交钱的劳动人民。

然而,即便是Adobe和微软两位带头大哥,也都面临一个严峻的问题:算力的高成本。

All eyes on Adobe

当下群魔乱舞的大模型,都可以追溯到8位谷歌的计算机科学家在2017年发表的论文《Attention Is All You Need》。这篇论文公开了Transformer算法,随之扣动了此轮AIGC热潮的扳机。换句话说,Transformer是如今所有大模型的祖师爷。

简单来说,Transformer主打一个大力出奇迹,通过对算力和数据近乎病态的消耗产生涌现。但代价则是高昂的成本,这也是为什么有人揶揄:Money Is All You Need。

伴随大模型逐渐泛滥,落地应用遥遥无期,成本与收入之间的落差便成了迫在眉睫的问题。这也是红杉资本那篇名为《AI’s 200B$ Question(AI的两千亿美元问题)》的博文备受关注的原因。

红杉给AI产业算了笔账,根据当前AI企业的收入状况,以及在GPU、云服务等成本上的投入,测算出整个产业起码还得挣1250亿美元才能回本。

计算方式或许有些粗糙,但表达的意思却很清晰:如果找不到可持续的变现模式,AIGC的风可就要刮不动了。

风投公司Theory Ventures调查数据显示,95%的AIGC公司年收入平均还不到500万美元,一些估值达到数亿美元的初创公司甚至还未有收入进账。

今年5月,ChatGPT iOS版正式上线,定价20美元/月,但首月新增用户人数还不到50000,付费用户在活跃用户中的占比仅仅1.6%。最近OpenAI又开始四处化缘,说明财务情况确实不甚乐观。

按照The Information的报道,风头正劲的网红公司Midjourney,今年的收入也“只有”2亿美元。虽然不算少,但离撑起AIGC的商业化坦途还有不小的距离。

在这个背景下,Adobe身上就笼罩了一层强烈的风向标意义。

Adobe几乎拥有一个完美的商业模型:统治地位的市场份额;庞大的付费用户规模;超高的利润率;以及与AIGC高度吻合的业务场景。如果这样的公司在AI上都赚不到什么钱,无疑会在短期打击产业界对AIGC的预期。

然而,从Firefly的付费方式上,还是可以窥见Adobe巨大的成本压力。

简单来说,Adobe给Firefly设计了一个复杂的定价方式:点数制收费。简单来说,一个点数可用来生成一张图片,用户一个月可免费获得25个点数,有更多需要则需要额外购买点数。用户可以单一购买Firefly服务或CC全家桶,可以按月或按年付费,个人和企业享受的优惠也不相同。

防止用户重度使用造成亏损,一旦有用户使用了超过每月分配的积分,Adobe就会给服务减速。

无论是看起来暗藏玄机的特殊收费方式,还是Adobe不把话说死的鸡贼做法,都牵扯到AIGC成本的一个问题——规模效应差。

大部分互联网产品成本构成中,很大一部分是包括云服务在内相对固定的运营成本,而这部分成本会随着用户规模的扩大越摊越薄。

但AIGC产品则不同,用户每交互一次——比如和ChatGPT对话或用Firefly生成图片,都会在云端运算一次,继而产生对应的成本。用户用得越多,成本越高。开发商只能通过软件优化单次交互消耗的算力,但“用一次算一次”的拿货成本无法改变。

再加上大部分AI应用都位于生产力场景,也很难像互联网产品那样先烧钱再赚钱——毕竟让设计师一遍做图一遍看广告,多少有点行为艺术了。这也是为什么妙鸭相机的产品负责人会说[4]:在AIGC时代,如果不能第一天就向用户收费,就可能永远收不到用户的钱。

微软的GitHub Copilot情况也好不到哪里去。这款主要帮助程序员敲代码的应用,场景和功能和Adobe一样明确,收费也不高,10美元/月或100美元/年,并且收费前就有150万保底用户规模,变现的未来非常光明。

然而现实是由于算力成本,平均每个用户反而让微软倒亏20美元,重度用户甚至能让微软每月倒贴80美元。依此推测,定价30美元的Microsoft 365 Copilot,搞不好亏的更多。

移动互联网时代,大公司会想尽一切办法让用户停留在自己的产品里。如今,大家却巴不得用户交完钱尽量省着点用。

时至今日,算力的稀缺似乎已经成了AIGC应用落地的巨大障碍——如果开一天空调要交500块钱电费,那么无论空调有多少优点,大家还是愿意扇扇子。

英国AI峰会,中美英及科技巨头,各方态度大汇总【英国AI安全峰会洞察】

英国AI安全峰会01内容摘要:

1.中国计算机科学家姚期智和其他科学家呼吁建立国际监管机构,对前沿人工智能系统进行强制注册和审核,纳入即时“关闭”程序,并要求开发者将30%的研究预算用于AI安全建设。

2. 美国副总统哈里斯呼吁就人工智能对民主和隐私构成的威胁采取紧急行动,并宣布成立人工智能安全研究所。

3. 《金融时报》认为,拜登人工智能行政令比《布莱切利宣言》更为重要。

4. 埃隆·马斯克希望建立一个独立的监管方“第三方裁判”,以监督前沿AI巨头,及时发出警告。

1.中国计算机科学家姚期智呼吁建立国际监管机构,对前沿人工智能系统进行强制注册和审核

11月1日,中国计算机科学家姚期智与多名中国科学家以及蒙特利尔大学的Yoshua Bengio等西方专家在英国布莱切利公园举行的峰会上,共同签署了一份声明,呼吁建立一个国际监管机构,对先进AI系统进行强制注册和审核,纳入即时“关闭”程序,并要求开发者将他们30%的研究预算用于AI安全建设。鉴于英国首相苏纳克(Rishi Sunak)为峰会起草的AI安全公报草案并未呼吁各国政府实施具体监管,该声明相较而言更为领先。

来源:金融时报

2.美国外交政策智库卡内基国际和平研究院院长蒂诺·奎利亚尔对媒体表示,只有中国参会,才能证明这是一次真正的全球对话。

2023年11月4日,在英国AI峰会举办期间,中国代表团的出席引人关注,多位专家强调,中国作为在人工智能研发领域领先的国家之一,在应对人工智能风险和机遇的全球讨论中不可或缺。世界知识产权组织数据显示,仅2022年一年,中国机构人工智能专利申请数量就多达29853项,占当年全球人工智能专利申请总量的40%以上。美国外交政策智库卡内基国际和平研究院院长蒂诺·奎利亚尔对媒体表示,只有中国参会,才能证明这是一次真正的全球对话。

来源:新华网

3.埃隆·马斯克称赞苏纳克邀请中国参加英国AI峰会的明智决定

2023年11月2日,埃隆·马斯克与英国首相苏纳克在伦敦发表讲话,对中国参与人工智能安全峰会表示欢迎,称苏纳克邀请中国参加峰会的决定是“必要的”,如果中国未能参加此次峰会,那么此次峰会将毫无意义。

来源:Politico

4.美国副总统哈里斯呼吁就人工智能对民主和隐私的威胁采取紧急行动

11月1日,美国副总统卡马拉·哈里斯(Kamala Harris)在参加AI安全峰会前发表了演讲,她表示,目前亟须解决人工智能对民主和隐私构成的威胁

她强调了要打击人工智能生成语音通话的技术,希望采取数字签名、水印和其他标签技术等措施,以分辨由政府提供的真实内容和由人工智能生成或操纵的内容。

她将为人工智能的开发、测试和使用设定一系列测试,包括:“代码中写入了谁的偏见,符合谁的利益?谁能快速获得了回报,又是谁受到了最严重的伤害或最先受到伤害?”

她还透露,30个国家已同意签署美国发起的关于国家军队使用人工智能的政治宣言。由于绝大多数签署国都是西方国家,这表明人工智能领域或许开始形成新的“冷战”式分歧格局。

她证实了美国商务部将建立美国人工智能安全研究所(US AISI),该研究所将创建指南、开发工具、设立标准和完成最佳实践,用于识别、评估、减轻人工智能风险。

来源:卫报

5.《金融时报》:美国的人工智能行政令比《布莱切利宣言》更为重要

2023年11月3日,《金融时报》称美国要制定人工智能规则。此前拜登政府发布的AI行政令重点关注隐私、安全、歧视和虚假信息等危害,其行政令影响了超过25个政府机构,是迄今为止监管全球AI巨头的最全面尝试。金融时报认为,拜登行政令与毫无约束力的《布莱切利宣言》相比,将产生更为重大的影响。《布莱切利宣言》尚未解决的问题是:当计算机有朝一日在各个领域都可能取代人类时,逐利为本的科技公司是否是发展通用人工智能的最佳机构?一些专家建议,应成立一个类似欧洲核子研究组织(Cern)的国际合作研究机构。《金融时报》还建议,下一次的AI峰会应当优先讨论这个问题。

来源:金融时报

6.埃隆·马斯克:希望设立“第三方裁判”

11月1日,马斯克受邀出席首届人工智能安全峰会,表示希望建立一个“第三方裁判”(third-party referee),以监督前沿AI巨头,并在有安全风险时及时发出警告。他认为,举办人工智能安全峰会的真正目标是建立一个“洞察框架”,这样至少会有一个“第三方裁判”,即一个独立的监管方,可以观察领先的AI公司在做的事项,并在有安全风险时及时发出警告。他还指出,在政府采取监管行动之前,需要先了解AI的发展情况,避免过早地制定规则。

来源:路透社

7. 美国宣布建立人工智能监管机构 不愿将监管权让渡英国

11月1日,美国商务部部长吉娜·雷蒙多(Gina Raimondo)在AI安全峰会上宣布美国将成立新的人工智能监管机构——人工智能安全研究所。她表示,该研究所将制定标准,评估人工智能技术的已知风险和新出现的风险。这证实,即使英国希望将自身定位为人工智能监管领域的全球领导者,英国对于这一敏感议程的控制权也十分有限。尽管英国官员淡化了与美国在人工智能监管上的分歧,但一位科技公司的首席执行官表示,作为世界上最大科技巨头的所在地,美国不希望将其对商业的控制权拱手让给英国。《卫报》指出,美国作为占据技术领先地位的超级大国,不愿事关美国重大战略利益的讨论由他国主导

来源:金融时报、卫报

8.美国商务部设立美国人工智能安全研究所引领人工智能安全工作

11月1日,拜登政府宣布,美国商务部将通过国家标准与技术研究院成立美国人工智能安全研究所(U.S. Artificial Intelligence Safety Institute, 简写为“USAISI”),领导美国政府在人工智能安全和信任方面的工作

USAISI将促进人工智能模型安全、安全保护和测试标准制定,制定验证人工智能生成内容的标准,并为研究人员提供测试环境,评估新兴人工智能风险并解决已知影响。

由国家标准与技术研究院领导的USAISI将利用外部专业知识,包括与学术界、工业界、政府和民间社会的合作伙伴合作,促进人工智能安全。此外,USAISI将与盟友和伙伴国家的类似机构合作,如英国人工智能安全研究所,以协调AI领域的工作。

来源:美国商务部网站、路透社

9.英国科学、创新和技术部人工智能和知识产权部长:美国是英国的朋友,它并不想英国的风头

11月3日,英国科学、创新和技术部人工智能和知识产权部长卡姆·罗斯(Viscount Camrose)对此前《金融时报》称美国通过宣布成立自己的人工智能安全研究所“抢”英国的风头进行回应。他表示,英国和美国关系特殊,是真正的朋友,而真正友谊的关键部分之一是,当你的朋友成功或做了值得称赞的事情时感到高兴。因而,在面对人工智能这一全球性问题时,应该为我们的美国朋友选择在英国发表如此重要的声明感到自豪。

来源:金融时报

10.《南华早报》:人工智能协议表明,尽管存在竞争,中美仍可以在科技监管方面进行合作

2023年11月3日,《南华早报》表示,中国和美国在AI安全峰会上共同签署了一项关于AI的国际协议,共同监管人工智能。莱顿大学亚洲研究中心高级研究员理查德·吉亚西(Richard Ghiasy)表示,这份协议是自2018年以来中美双方签署的第一份国际协议,这非常重要,它意味着两个最大的科技强国已决定为全球利益搁置分歧

美国也将欢迎人工智能合作,加强与中国的对话,并有望达成更多协议。

新加坡国立大学政治学教授 Chong Ja Ian 表示,人工智能是各国在制定法规方面有共同利益的领域,与气候问题和跨国犯罪类似,人工智能可能是美国和中国必须合作的领域。因为中美人工智能合作符合两国利益,合作有助于防止新兴技术滥用和失控。北京人民大学国际关系学院教授王义桅表示,虽然中美将继续进行战略竞争,但它们共同面对着人工智能等人类共同的挑战,并建议中美交换意见,共同制定全球规则和标准。

来源:南华早报

11.美国国防部发布《数据、分析和人工智能采用战略》

11月2日,美国国防部发布《数据、分析和人工智能采用战略》,以取代2018年的人工智能战略和2020年的数据战略,通过加速数据、分析和人工智能的采用,继续推动国防部数字化转型。

该战略由首席数字和人工智能办公室制定,重点关注以下目标:

投资可互操作的联合基础设施;

推进数据、分析和人工智能生态系统;

扩大数字人才管理;改善基础数据管理;

为企业业务和联合作战影响提供能力;

加强治理,消除政策障碍。

国防部副部长凯瑟琳·希克斯表示,从威慑和防御侵略的角度来看,人工智能系统可以帮助指挥官加快决策速度,提高决策的质量和准确性,这具有战略性意义。

来源:美国国防部网站

13.DeepMind联合创始人指责埃隆·马斯克在英国人工智能峰会上的言论,称其并非人工智能科学家

在11月2日结束的英国人工智能(AI)峰会结束后,Inflection AI的首席执行官、谷歌旗下DeepMind的联合创始人穆斯塔法·苏莱曼在接受BBC采访时对埃隆·马斯克提出了严厉的批评。

据Cointelegraph报道,为期两天的活动结束时,马斯克警告说人工智能最终会取代目前几乎所有的工作,他显然认为这将导致人类难以找到生活的目标。马斯克还讨论了他认为人工智能带来的生存危险,包括人工智能系统需要一个“物理关闭开关”,以便人类控制。

在采访中,苏莱曼表示:“我们需要对这项技术的发展轨迹进行公正、独立的评估。(埃隆·马斯克)并不是人工智能专家,虽然他拥有一家小型人工智能公司,但他还开许多其他公司,其专长其实在太空和汽车领域。”

来源:Cointelegraph

15.科技巨头和政府同意在新人工智能模型发布前进行测试以帮助管理风险

11月2日,人工智能巨头同意与政府合作,在新的前沿人工智能模型发布之前对其进行测试,以监管技术快速发展的风险。英国首相苏纳克在AI安全峰会上表示,美国、欧盟与其他“志同道合”的国家已经与一些从事人工智能前沿研究的公司达成一项里程碑式的协议,根据该协议,科技巨头在部署前沿模型前后都要进行严格的评估和测试。被誉为人工智能教父的Yoshua Bengio将提交一份“科学现状(State of the Science)”的报告,帮助各国增进对未来能力和风险的理解。

来源:路透社

14.英国高官呼吁日本共享AI领域经验

11月1日消息,英国科学、创新和技术大臣米歇尔・唐兰(Michele Donelan)在“人工智能安全峰会”上呼吁日本通过共享AI领域的知识经验为各国提供贡献,并期望日本将在未来主办相似会议,她称:希望日本发挥重要作用。

据唐兰介绍,此次会议聚焦于运用AI时的风险管理,从“恶意滥用”“具有自我意识的AI摆脱人类控制的危险性”“虚假信息扩散和操纵选举对民主构成的威胁”等角度出发,讨论减少风险的对策。

来源:共同社

15.韩国总统尹锡悦线上出席首届人工智能安全峰会

11月3日消息,韩国总统尹锡悦于线上出席英国人工智能安全峰会,同各方探讨确保AI安全应用和构建AI监管治理体系的全球合作方案。尹锡悦发表讲话时指出,ChatGPT等生成式AI使生活更加便利,提高了产业效率,但数字鸿沟使得全球发展不平衡加剧,AI生成的假新闻泛滥,且威胁到了选举等民主制度。

尹锡悦称包括AI在内的数字技术应为发展人类自由做出贡献,而不应对个人和社会安全造成威胁。他强调,每个人都应享有公平竞争和创新的机会,要让全社会公平享受数字红利。尹锡悦还与各国领导人分享了韩国今年9月颁布的《数字权利宪章》的内容,承诺举办AI全球论坛为构建AI全球治理出力,支持联合国设立国际机构,并同此次峰会上各方提议建立的“AI前沿安全科学研究网络”和联合国10月成立的AI咨询机构保持紧密合作。

来源:韩联社

16.新加坡总理:AI发展伦理与使用 各方须加强理解与合作

11月3日消息,李显龙总理应英国首相苏纳克邀请,线上参加在英国举行的人工智能安全峰会。此前他曾发文称,AI领域的迅速发展在改变人们生活的同时,也引发了深刻的伦理问题,人们必须加强对AI伦理以及如何推广相关应用的理解,包括让AI系统了解人类世界的情景与价值观,以此推动不同国家的合作。李总理对英国新成立的人工智能安全研究所表示欢迎,并指出这个机构也会与新加坡在安全测试方面展开合作。他在峰会上发言时介绍,新加坡在这方面已踏出一小步,比如借助AI验证和评估沙盒,降低AI方面的风险。

[Nature] AI新突破:揭秘阿尔茨海默症的遗传密码

阿尔茨海默症,这个长期困扰人类的神秘疾病,似乎即将被现代科技的光芒照亮。最新的机器学习方法已经能以超过90%的准确率诊断出此病,这不仅给临床医生带来了新的希望,也为科学家们开发治疗方法打开了一扇窗。

在美国首都华盛顿特区,一群研究者正在用AI技术筛选和分析成千上万人的基因组数据,寻找与阿尔茨海默症相关的遗传因子。然而,阿尔茨海默症的确诊并非易事,因为与其症状相似的痴呆也可能由其他疾病引起,而早期的阿尔茨海默症可能根本无症状表现。

AI技术的突破

现有的AI技术已发展出高效的算法,它们可以从海量的脑部图像中迅速筛选出阿尔茨海默症的特征图像。此外,机器学习还能识别大脑中与病症相关的关键结构特点,预示着未来可能在脑扫描中发现新的阿尔茨海默症线索。

这些方法的终极目标是,把人脑图像作为阿尔茨海默症的视觉生物标记。利用英国生物库等包含医疗和遗传数据的大型数据库,科学家们有望精确锁定促成阿尔茨海默症的基因,进而促进新疗法的开发和风险模型的构建。

南加州大学洛杉矶分校的神经科学家保罗·汤普森博士,正领导这一革命性技术的发展。他在美国人类遗传学会的年会上,向与会者展示了AI技术在这一领域的新进展。

与数据潮流竞赛

随着大数据时代的到来,我们急需AI的强大力量来分析和解释不断涌现的海量信息。2020年,汤普森博士发起了AI4AD联盟,致力于开发AI工具,集成与阿尔茨海默症相关的各类数据。他们训练的AI模型,已经能从MRI扫描中学习到阿尔茨海默症患者与健康人的大脑差异

多元数据与AI的融合

尽管如此,研究者们也承认,AI模型的性能取决于训练数据的质量。目前,来自不同种族和地区的人群在这类数据库中相对匮乏,这限制了研究结果的普适性。麻省总医院的神经遗传学家鲁道夫·坦齐博士指出,这些AI识别出的生物标记未来可能用于构建综合血液生物标记和遗传因素的疾病风险评分

今天,我们站在了一个新的起点上,这些研究不仅适用于阿尔茨海默症,同样的方法也有望应用于其他神经系统疾病。随着AI技术在医学领域的不断深入,我们有理由期待,更多疾病的秘密将被一一揭开。

新技术的兴起,不仅仅是为了诊断,它代表着疗法的希望,是对于未来我们能更好理解大脑的一种承诺。

在阿尔茨海默症的研究中,人工智能技术正逐步成为一股不可忽视的力量,为我们提供了一个看到希望的窗口。我们期待这些先进技术的进一步发展,不仅能让我们更准确地理解这种病症,更能引领我们向治愈的道路前进。

AI,芯片巨头的新战场

当地时间 10 月 26 日美股盘后,英特尔公布了三季度财报。
虽然英特尔的营收和调整后的每股收益,都远高于预期,但从财务指标来看,英特尔在报告期内的表现较去年同期相比表现不佳,主营业务的收入也出现下降。对此,英特尔也坦言,「PC 处理器的整体市场规模正在不断缩小,公司在本季面临着强大的竞争压力。」但更可怕的是,英特尔的竞争对手们,都在向其腹地——CPU 处理器市场展开猛攻。根据消息,英伟达、AMD 正在悄悄研发基于 Arm 架构的 CPU 芯片、苹果公司连夜发布了 M3 系列芯片、高通更是不甘落后,推出了骁龙 X Elite PC 处理器,搭载的全新 Oryon CPU 号称在单线程上吊打 i9-13980HX

此外,微软、荣耀、联想、戴尔和惠普等科技巨头,也都宣布将于明年推出搭载 Arm 架构芯片的电脑。为什么明明 AI 处理器看起来是更有潜力的市场,但是所有芯片巨头却都要杀进 PC CPU 这个看似已经是「夕阳行业」的市场?

01

科技巨头「抢滩」CPU
长期以来,PC 芯片主要有两大阵营,分别是 x86 架构和 Arm 架构。前者主要由英特尔和 AMD 两家公司主导,后者则是苹果的天下。但最近,芯片领域出现了不少「混战。」不久前,相继有新闻称,英伟达和 AMD 正在微软的助力下,利用 Arm 架构开发 Windows 操作系统的 PC CPU 芯片,最快可能在 2025 年就向市场推出,直接对标打击英特尔基于 x86 架构的 CPU 基本盘。该消息释出后,英特尔的股价随即下跌。

另一边,英伟达股价收盘上涨 3.84%,AMD 股价收盘上涨 4.89%。虽然有关英伟达打算造芯片的消息尚未得到证实,但据报道,这家已经在 AI、高性能计算和消费显卡行业占据主导地位的公司,确实计划将基于 Arm 的处理器纳入客户端 Windows PC,以扩大其产品组合。事实上,多年以来,不止英伟达、AMD,许多公司都曾尝试进军 PC 处理器领域,但均未能撼动英特尔的「霸主」地位,可能只有苹果公司对英特尔真正构成了一定的「威胁」

三年前,苹果「抛弃」了使用长达 15 年的英特尔芯片,自主研发了以 Arm 为基础的 M1 芯片,一举打破了英特尔的 PC「垄断」局面。而且,苹果的自研芯片,更是为 Mac 电脑系列提供了更长的电池寿命和更快的性能,远超英特尔处理器。因此,也就不难理解,自苹果为其 Mac 电脑发布自研 M1 芯片以来,苹果的市场份额在三年内几乎翻了一番。对此,英特尔首席执行官 Pat Gelsinger 在英特尔敲响了「警钟」,他在员工大会上毫不避讳地提到了苹果当时新推出的 M1 芯片,并表示,「未来,我们必须做到这么好。」

两周前,苹果又在「来势迅猛 (Scary Fast)」主题发布会上,正式发布了最新的 M3 系列芯片,包括 M3、M3 Pro 和 M3 Max 三款芯片,还同时发布了搭载 M3 系列芯片的新款 MacBook Pro 和新款 iMac,苹果还称其速度将是搭载 M1 芯片的 24 寸 iMac 的两倍。

此外,半导体巨头高通,也在加紧进军 PC 芯片市场,试图和英特尔、苹果抢夺市场份额。前不久的骁龙峰会期间,高通发布了适用于 Windows 笔记本电脑、基于 Arm 架构的骁龙 X Elite 芯片,这款芯片在游戏方面,优于英特尔的 i9,以及苹果基于 Arm 架构的高端自研芯片 M2,还能用于 AI 操作,处理多达 130 亿参数的大语言模型。

高通首席执行官 Cristiano Amon 还表示,未来笔记本电脑处理器将逐渐转入 Arm 架构,这也是对英特尔 X86 架构「垄断」地位的直接「宣战。」此外,微软、荣耀、联想、戴尔和惠普等「科技巨头」也加入了「混战」,宣布在明年推出搭载 Arm 架构芯片的电脑。虽然,到目前为止,只有苹果公司的专有设计取得了「实质性」进展——在行业出货量中所占的份额已超过 10%,但正如美股研投网站 The Motley Fool 所言,「如果这些新的 Arm 架构芯片取得成功,即使是中等程度的成功,对英特尔来说也将是毁灭性的打击。」

而对于多家「对手」发起的「CPU 混战」,英特尔首席执行官 Pat Gelsinger 则呼吁市场保持「冷静。」他认为,「从历史上来看,ARM 的芯片在市场上并没有获得过多大关注。虽然在过去几个季度,在 CPU 和加速器领域,市场份额已经发生了一些变化,但是,进入第四季度,市场迹象已经逐步正常化。」他还表示,「就目前而言,无论是 ARM 也好,还是 Windows 客户端的替代产品,在 PC 行业中,它们都已经被降级为了相当微不足道的角色。

从战略上来看,英特尔将认真对待所有竞争。但是,从战术上来看,我们认为这些挑战并没有那么重要。」Gelsinger 还透露,英特尔制定了一项名为「四年五个节点」的计划,旨在改进芯片制造工艺,从而「抗衡」竞争对手。该计划主要包括在位于爱尔兰莱克斯利普的 Fab 34 工厂,使用 EUV 极紫外光刻(市场上最先进的半导体制造技术)大规模生产芯片,而且在本季度已经取得进展,还有望在 2025 年赶上台积电的芯片制造技术。

Arm,能挑战 x86 吗?
其实,Arm PC 并不是什么新生威胁,从上世纪开始,Arm 与 x86 的竞争就开始了。
1978 年,英特尔 x86 架构,伴随着 8086 处理器问世,x86 架构也逐渐成为个人电脑 CPU 的代名词,更为英特尔开创出了一个庞大的「商业帝国。」由于种种历史原因,AMD 成为了唯一获得英特尔授权可以生产 x86 架构芯片的公司,这也造就了这两家公司长时间内在 PC 芯片行业的「主导」地位。

到了 80 年代,英国公司 Acorn(Arm 公司的前身)设计出了与 x86 相比,更低功耗 Arm 架构的芯片,并尝试在 PC 端运行,但那时难以对抗 x86 架构的「霸主」地位。但是,直到智能手机的兴起,Arm 架构才找到了它的「舒适区」。

此后很长时间内,x86 被普遍认为适用于 PC 和服务器,而 Arm 架构则更适合移动设备,两者「和平共处」。直到苹果公司自主研发了以 Arm 为基础的 M1 芯片,才打破了这种「平衡。」有趣的是,微软高管也注意到了苹果基于 Arm 的芯片的处理效率,并希望获得类似的性能。而且,微软似乎也相信,Arm PC 在未来将占据相当大的市场份额,上个月,还宣布推出了「面向开发人员的 Arm 咨询服务」。

其实,早在 2016 年,微软就委托高通公司,牵头将 Windows 操作系统,转移到 Arm 的底层处理器架构上。在那之后,高通就获得了「独家」为 Windows 笔记本电脑生产芯片的权利。但高通与微软关于 Windows 芯片设计的「排他性」协议将在 2024 年到期,而微软似乎鼓励其他公司进入基于 Arm 的系统市场。

其实,微软的想法一直都很「简单」:不想依赖某一个单一的芯片供应商,高通如此,更早之前的英特尔也是如此。对此,金融与战略咨询公司 D2D Advisory 的首席执行官 Jay Goldberg 表示,「微软吸取了上世纪 90 年代的经验,他们不想再次依赖英特尔了,不想再依赖任何单一的供应商。」「如果 Arm 真的在 PC 芯片领域获得成功,他们绝不会让高通成为唯一的供应商。」而对微软来说,Arm 芯片制造商必须面对的一个障碍是 Windows 的软件兼容性。这是因为,软件开发人员花费了数十年时间和数十亿美元,专门为 Windows 编写代码,因此,传统的 x86 应用程序必须经过模拟,才能在 Arm 上运行,这就导致在原生版本推出之前,应用性能会受到影响

苹果公司在转用自研芯片时也面临着同样的挑战。然而,X86 长期统治 PC 市场,已经形成了丰富的软件生态,使用 x86 芯片的电脑基本不会遇到兼容性问题。对此,技术研究公司 Counterpoint Research 高级分析师 William Li 认为,「过去 20 年 PC 行业在软件和应用上的开发都以 x86 架构为主,调整到 Arm 架构上会涉及到适配和转译的问题。因此过去虽然有基于 Arm 开发的 PC 芯片,但一直不温不火。」的确,2022 年全球 PC 电脑总出货的 80% 以上仍是 X86 架构的 CPU,尽管如此,市场研究机构 Counterpoint 仍预测,

「随着更多芯片厂商推出 Arm 架构的 PC 芯片,Arm 架构的市场份额有望上升」「到 2027 年,Arm 架构芯片在 PC 市场的份额预计为 25.3%,较 2022 年增长近一倍。」未来,Arm 能在多大程度上挑战 x86 的统治地位,或许还要取决于其他芯片厂商对 Arm 架构的支持程度。

AI,所有人的新希望?
现在,一场新的「竞赛」又拉开帷幕——随着 AI 大模型的发展,科芯片巨头纷纷开始陆续布局 PC 端 AI 芯片。
这是因为,微软和大部分科技企业,都将其未来押注于在 AI 相关技术上,但随着需求激增,芯片售价高达数万美元,于是亚马逊、谷歌、Meta、微软、特斯拉等公司,就开始打造自己的 ASIC 芯片来实现其 AI 目标。

与 GPU 不同,ASIC 专为特定任务(如 AI 处理)而设计。虽然它们的开发成本很高,但从长远来看,它可以降低功耗,让公司能够更好地控制用于为 AI 软件提供动力的硬件,从而带来收益。对此,业内人士认为,「部署 AI 功能的 PC 操作系统,将带来全新交互模式,或将激发新的市场需求,同时生成式 AI 也为软件及操作系统应用,开启创新空间。」

目前,英伟达虽然在 AI 芯片市场仍占据主导地位,但它的领先地位现在已经受到挑战。据 The Information 报道,微软自 2019 年以来一直在开发自己的 AI 芯片,并一直鼓励相关芯片制造商,在他们正在设计的 CPU 中内置先进的 AI 功能。

预计,随着智能办公助手 Copilot 等 AI 增强软件,在 Windows 使用中的重要性越来越大,Nvidia、AMD 和其他公司即将推出的芯片将需要投入更多资源以实现这一目标。今年 5 月份,Meta 也宣布正在开发自己的 AI 硬件。

8 月,谷歌首次发布了其最新的 AI 基础设施,与此同时,特斯拉也在打造基于自己芯片的超级计算机。近日,PC 龙头联想也发布了首款 AI PC,其执行副总裁 Luca Rossi 还在发布会上表示,「得益于基于个人体验的定制化升级,AI PC 将和传统 PC 将存在明显的分水岭。」「作为上游最重要的产业链伙伴,芯片厂商肯定要跟上潮流,甚至走在 PC 厂商前面。」英特尔公司首席执行官 Pat Gelsinger 也同样认为「AI 个人电脑的到来代表着个人电脑行业的一个拐点」。

这些科技巨头的行为和观点,也与 Canalys 等研究机构的数据「不谋而合」。数据显示,「从 2025 年起,支持 AI 的个人电脑的采用速度将加快,到 2027 年将占个人电脑总出货量的 60% 左右。」另一方面,英特尔也没有「坐以待毙」,也在 AI+CPU 这条道路上积极布局。近期,英特尔宣布与联想「合作」,将 AI 带给所有人,并表示「AI 将从根本上改变、重塑 PC 体验。」「英特尔正为新时代的到来布局,将推出代号 Meteor Lake 的英特尔酷睿 Ultra 处理器。这是英特尔首款内置神经网络处理器(NPU),能为 PC 带来高能效的 AI 加速和本地推理体验。」

「计划今年 12 月 14 日发布首款第五代英特尔至强处理器和酷睿 Ultra 处理器,在客户端、边缘、网络和云端的所有工作负载上携手推进 AI 的规模化应用。」在短暂的和平之后,芯片巨头们又进入到「战国」时期,而一直被认为逐渐走低的 PC CPU 市场,重新热闹起来。而在 CPU 之战背后,正在快速推进的 AI 技术的落地,其实才是巨头们瞄准的「暗标」。

这一次,马斯克只能追赶AI界的苹果

过去这个周末,马斯克发布了他的首个AI大语言模型Grok,宣称很多方面都是业界最佳。但仅仅一天后,OpenAI就向业界展示了更大的生态平台野心,他们已经在生成式AI的行业竞争中占据着明显的领先优势。向来习惯引领行业的马斯克,这一次只能不甘心地扮演追赶者的角色。
图片创办两个月就发新品
过去这个周末,马斯克的新品发布又双叒叕占据了媒体聚焦。这位全球首富创办与运营着数家公司,横跨了多个不同领域,每年都有不少创新产品发布,始终扮演着行业引领者的角色。
这一次马斯克发布新品的企业不是电动车企特斯拉,不是航天科技SpaceX,不是社交网络X(前推特),也不是脑神经科学Neurolink,更不是隧道交通公司Boring,而是他刚刚创办的新公司xAI。
马斯克在今年7月创办了xAI,正式进入竞争已经非常激烈的生成式AI领域。凭借着他在科技行业的个人影响力,xAI得以从OpenAI、谷歌DeepMind以及Meta等行业巨头挖来了诸多AI开发人才。不到三个月后,xAI就发布了首个生成式AI产品Grok。


xAI在官方博客中表示,Grok意在用智慧回答问题,并带有叛逆性格,“如果你讨厌幽默就最好不要使用”。他们补充称,Grok是一款非常早期的测试产品,只进行了两个月的训练,所以期待其可以在用户的帮助下每周都在迅速提升。Grok这个名字来自于科幻经典《异乡异客》,其设计参照了《银河系漫游指南》。作为全球商业领袖和超级网红,马斯克借助自己的个人影响力,为Grok进行营销推广。他在X平台上盛赞Grok在很多重要方面都是目前最好的AI Bot。Grok支持多任务处理,可以同时运行多个对话,并可以随时切换。因为马斯克的超强号召力和带货能力,Grok在发布之后很快吸引了大量测试意向者,甚至服务器都直接宕机了。
Grok的产品设计明显体现了创始人马斯克“无所忌讳”的个人性格。无论什么敏感问题,Grok都可以从容应对。为了展示了自己产品的幽默感,马斯克向Grok询问了“如何在家制作可卡因”。Grok看似认真地回答了一通之后,声明这只是个玩笑,制毒需要面临法律惩罚。
或许Grok暂时还无法与OpenAI的GPT-4相提并论,但作为马斯克旗下公司,Grok却拥有一个其他企业都不具备的独到优势:可以获得X平台的所有数据进行训练,以“提供关于世界的实时知识”。马斯克还展示了另一个AI bot回答同样问题的结果,证明Grok的回答具有实时性。
虽然还是初期测试产品,但xAI却表示,Grok在计算机方面超越了ChatGPT 3.5等诸多其他所有模型,但却比不上拥有更大数据的其他bot。此外,xAI也强调,和其他大语言模型一样,Grok也可能提供虚假或者矛盾信息。
在斥资440亿美元收购推特以后,马斯克将推特改名X,他也注意到了这个社交平台数据对于大语言模型训练的重要意义。他此前甚至威胁要起诉微软,拒绝向其他巨头提供平台数据进行训练。另一方面,Grok目前暂时只面向部分用户进行Beta测试。具体而言,是面向每月订阅资费16美元的X Premium用户群体进行内测。
随着Grok内测版的发布,马斯克真正进入了生成式AI这条目前最热门的赛道,实现了他与OpenAI、谷歌、微软、Meta进行AI竞争的夙愿。考虑到他与OpenAI之间的微妙关系,以及上周马斯克突然宣布发新的时机选择,有理由相信马斯克是刻意选择在OpenAI开发者大会之前发布新产品。

打造生态平台成为AI界苹果
美国时间周一,OpenAI在旧金山召开了首届开发者大会,此时距离他们发布ChatGPT差不多正好是一年时间。不夸张地说,去年11月OpenAI发布ChatGPT,是AI发展史上的划时代事件,直接带动了科技行业进入生成式AI时代,更对此前引领AI行业的巨头谷歌带来了强大冲击。


在ChatGPT迅速普及之后,微软也看到了挑战谷歌的机会。一方面加大投资,成为OpenAI最大的战略投资者;另一方面,牢牢地将OpenAI绑定在自己的云服务平台,同时不断将ChatGPT以及自己的Copilot整合到搜索以及办公组件等诸多业务中,试图再次挑战谷歌在搜索领域看似无可撼动的主导地位。
作为OpenAI最重要的战略投资者与合作伙伴,微软CEO纳德拉昨天也亲自为OpenAI的产品发布站台。他谈到了将GPT技术接入微软365办公组件带来的体验提升,“这是完全不同的全新体验。我在企业基础架构领域已经三十年了,从未见过这样的(创新)。
面临OpenAI和微软的联手冲击,谷歌在创办之后不得不面临着追赶者的尴尬定位,研发创新能力遭受质疑之后,股价市值也出现了明显下滑。今年2月,谷歌不得不加快原先的研发节奏,聚焦研发力量在AI Bot领域,提前发布了自己的竞争产品Bard,并对自己的诸多网络产品进行生成式AI改造。
OpenAI现在有多火?ChatGPT发布一年之后,每周活跃用户达到了1亿,开发者数量超过200万人,全球财富500强企业中有92%都在使用。不到一年时间,OpenAI的估值就从今年年初的300亿美元飙升到目前二级市场的800亿美元级别。
OpenAI并没有公布付费用户的比例,但他们的主要营收来自于企业用户打造自身生成式AI加持产品所支付的接口费。根据上个月的预期,今年OpenAI的营收将达到13亿美元。
那么,昨天的OpenAI开发者大会都发布了什么?简单概括一下。


1、开放定制GPTs:所有人都可以创建符合自己个性需求的ChatGPT,也可以分享给家人朋友,或是在公司内部使用。创建定制ChatGPT的过程不需要具备专业的编程技术,只需要通过自然语言交互和简单指令,提供训练数据,普通用户就可以快速实现。

马斯克的OpenAI往事
无论是特斯拉还是SpaceX,还是后来的Neurolink以及Boring Company,马斯克总是扮演着行业先驱的角色,习惯于领先竞争对手,用创新颠覆引领一个全新的行业。但这一次,他却只能接受追赶OpenAI的局面,当然竞争才刚刚开始。
毫不夸张地说,没有马斯克就没有OpenAI,没有ChatGPT也不会有Grok。马斯克之所以创办xAI,与OpenAI的ChatGPT大获成功有着直接关系。马斯克对OpenAI的商业化运营,以及与微软的密切关系非常不满。
马斯克和OpenAI到底有什么过往?2015年12月11日,非营利性AI研究机构OpenAI正式在硅谷成立。顾名思义,OpenAI(开放AI)致力于推动AI技术研究和协作,以及制定AI行业安全和道德标准,带动AI技术造福人类。
OpenAI的研究主管是前谷歌机器学习专家舒茨凯夫(Llya Sutsskever)以及前Strip的CTO布洛克曼(Greg Brockman),汇聚了一大批行业顶尖工程师和科学家。由于是个非盈利研究机构,OpenAI的启动资金依赖于外部捐赠。马斯克个人出资了1亿美元。
除了马斯克,出钱出力的亿万富翁还有硅谷知名孵化器Y Combinator的CEO艾特曼、Y Combinator联合创始人杰希卡·利文斯顿(Jessica Livingston),还有“PayPal黑帮”的彼得·蒂尔(Peter Thiel)与LinkedIn创始人雷德·霍夫曼(Reid Hoffman)等人。此外,AWS、Infosys、Y Combinator等企业也参与其中。
马斯克和艾特曼共同担任OpenAI的董事会主席。不过,马斯克是诸多发起人中名气最大的,他也用自己的影响力为OpenAI争取媒体曝光和吸引人才加盟。不夸张地说,马斯克是OpenAI的门面招牌,但他并没有太多精力来兼顾管理。OpenAI的管理工作更多交给了艾特曼。
值得一提的是,英伟达后来向OpenAI捐赠了他们第一部超级计算机DGX-1,大大提神了OpenAI的算力。黄仁勋专门邀请了马斯克现场见证英伟达超算助力OpenAI的研究。
但随着OpenAI推进研发产品,资金不足的问题逐渐显现出来了。AI研究非常烧钱,非盈利机构的性质成为限制OpenAI筹集资金的核心短板,阻碍了他们招揽顶级人才和加大研发投入。他们越来越无法和谷歌及Facebook这样富可敌国的行业巨头竞争。
顶级AI技术人才有多值钱?微软研究院资深副总裁彼得李(Peter Lee)曾经说过,一个顶级AI人才的工资比美式足球大联盟的四分卫还要高(意思是要百万美元年薪以上)。而且OpenAI是非营利机构,也没有股权和期权的未来大饼去吸引技术人才。
另一方面,AI研究还需要巨大的基础设施投入。除了英伟达捐赠的超级计算机,OpenAI还需要云计算的庞大需求。2017年OpenAI在云计算方面的支出是790万美元,而同年谷歌旗下DeepMind的支出则是4.42亿美元。巨大的财力差距让OpenAI很难与谷歌竞争研发进程。
正在OpenAI最需要后续资金投入的时候,马斯克却离开了。2018年2月20日,马斯克以特斯拉研发自动驾驶技术与OpenAI存在利益冲突为由,突然退出了OpenAI董事会;当时官方介绍,他还会继续向OpenAI捐赠以及担任顾问。马斯克后来表示,这是因为特斯拉和OpenAI都在招揽同一批技术人才,因此存在利益冲突。
但实际情况要更为复杂,马斯克实际上是赌气离开的。2018年初,马斯克认为OpenAI的研发已经明显落后于谷歌,因此提议自己接管OpenAI并亲自来负责研发。但他的这一自信提议却遭到了艾特曼、技术团队以及其他董事的强烈反对。
或许其中一个原因是,马斯克已经同时担任着特斯拉和SpaceX的CEO职位,而且当时特斯拉因为Model 3的量产困难和资金急剧消耗,正处在最艰难的时期。OpenAI的其它董事并不认为马斯克还有精力再兼顾OpenAI的管理工作。
作为一个极度自信和骄傲的男人,马斯克在被拒绝之后就离开了OpenAI董事会。而艾特曼随后则逐渐淡出了Y Combinator的工作,将自己工作重心完全转移到OpenAI的管理上。2018年,艾特曼的职位从OpenAI的联席董事长变成了总裁。
但马斯克离开,意味着OpenAI失去了最重要的资金来源。马斯克最初承诺要分批向OpenAI捐赠10亿美元,他在项目启动时也的确捐赠了1亿美元,但在负气离开之后,他再也没有继续出资。此后的马斯克和OpenAI再没有任何关联。
在这样的背景下,2019年3月OpenAI正式从非盈利机构转型为“有限盈利机构”Open LP,开始接受战略投资者以及风险投资的资金,而原先的非盈利机构Open Inc则作为Open LP的母公司继续存在。重组之后的OpenAI在引入投资之后,不仅可以开出高薪吸引行业顶级人才,还能用期权股权和上市前景来留住人才,更可以承担AI训练的高昂云计算费用。
在OpenAI重组之后,投资者们就纷至沓来了。仅仅四个月后,互联网巨头微软就投资10亿美元,成为OpenAI最重要的战略投资者。微软给OpenAI带来的不仅是资金,还有微软的云计算服务。从那时起,OpenAI的模型训练就完全转移到微软Azure平台。正是在微软全力提供资金和资源之后,OpenAI的产品研发开始加速。
在OpenAI的历史上,出资1亿美元的马斯克始终是联合发起人之一。但在重组之后的四年时间,OpenAI通过六轮融资总计筹集了超过110亿美元的资金,微软是最大投资者,随后则是几大风投机构马修布朗基金(Matthew Brown Companies)、Bedrock资本、红杉资本、安德森霍洛维茨基金、老虎全球基金。
正是在这些互联网巨头和风投巨头的资金与资源支持下,OpenAI才得以超车谷歌和Meta这样市值几千亿美元的行业巨头,连续推出GPT-3、ChatGPT和GPT-4诸多领先行业的AI技术。不过现在的OpenAI,已经和马斯克毫无关系,或许这才是他始终无法释怀的原因。

各领域模型大集合

🏥 医疗
AlpaCare [paper]

该项目开源了医学大模型AlpaCare,在LLaMA上微调得到。


Taiyi (太一)

该项目开源了中英双语生物医学大模型Taiyi (太一),旨在探索大模型在生物医学领域中双语自然语言处理多任务的能力。


MentalLLaMA [paper]

该项目开源了心理大模型MentalLLaMA,可以用于社交媒体上可解释的心理健康分析。


WiNGPT2

WiNGPT是一个基于GPT的医疗垂直领域大模型,旨在将专业的医学知识、医疗信息、数据融会贯通,为医疗行业提供智能化的医疗问答、诊断支持和医学知识等信息服务,提高诊疗效率和医疗服务质量。


ChatPsychiatrist [paper]

该项目开源了基于LLaMA-7B微调得到的心理大模型ChatPsychiatrist,该模型可以迅速识别心理问题,并提供量身定制的治疗建议。


Zhongjing-LLaMA (仲景) [paper]

该项目开源了首个包含预训练、有监督微调和 RLHF 完整训练流程的中文医学大模型,展现出了很好的泛化能力,在某些对话场景中甚至接近专业医生的专业水平。此外,还开源了一个包含 70,000 条完全来源于真实医患对话的多轮对话数据集。该数据集包含大量医生主动提问的语句,有助于提升模型的主动医疗询问能力。

DoctorGLM [paper]

基于ChatGLM-6B的中文问诊模型,通过中文医疗对话数据集进行微调,实现了包括lora、p-tuningv2等微调及部署。

BenTsao (本草) [paper]

该项目开源了经过中文医学指令微调的大语言模型集,包括LLaMA、Alpaca-Chinese、Bloom、活字模型等。我们基于医学知识图谱以及医学文献,结合ChatGPT API构建了中文医学指令微调数据集,并以此对各种基模型进行了指令微调,提高了基模型在医疗领域的问答效果。


Med-ChatGLM

该项目开源了经过中文医学指令微调的ChatGLM-6B模型,微调数据与BenTsao相同。


BianQue (扁鹊) [paper]

该项目开源了生活空间健康大模型。结合当前开源的中文医疗问答数据集(MedDialog-CN、IMCS-V2、CHIP-MDCFNPC、MedDG、cMedQA2、Chinese-medical-dialogue-data),分析其中的单轮/多轮特性以及医生问询特性,结合自建的生活空间健康对话大数据,构建了千万级别规模的扁鹊健康大数据BianQueCorpus,基于扁鹊健康大数据BianQueCorpus,选择ChatGLM-6B作为初始化模型,经过全量参数的指令微调训练得到BianQue。

HuatuoGPT (华佗) [paper]

该项目开源了医疗大模型HuatuoGPT,包括基于Baichuan-7B训练得到的HuatuoGPT-7B和基于Ziya-LLaMA-13B-Pretrain-v1训练得到的HuatuoGPT-13B。


QiZhenGPT

该项目利用启真医学知识库构建的中文医学指令数据集,并基于此在Chinese-LLaMA-Plus-7B、CaMA-13B、ChatGLM-6B模型上进行指令精调,大幅提高了模型在中文医疗场景下效果。


ChatMed

该项目开源了中文医疗大模型ChatMed-Consult,以中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集,基于LlaMA-7b采用LoRA微调得到。


ShenNong-TCM-LLM (神农)

该项目开源了中文中医药大模型ShenNong-TCM-LLM,以开源的中医药知识图谱为基础,采用以实体为中心的自指令方法,调用ChatGPT得到2.6w+中医药指令数据集ChatMed_TCM_Dataset,基于该数据集以LlaMA为底座,采用LoRA微调得到。


XrayGLM

该项目开源了中文多模态医学数据集及模型,其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。


MedicalGPT

该项目开源了医疗大模型MedicalGPT,实现了包括增量预训练、有监督微调、RLHF(奖励建模、强化学习训练)和DPO(直接偏好优化)。


Sunsimiao (孙思邈)

该项目开源了中文医疗大模型Sunsimiao,该模型基于baichuan-7B和ChatGLM-6B底座模型在十万级高质量的中文医疗数据中微调而得。


CareGPT

该项目开源了医疗大模型CareGPT (关怀GPT),同时它集合了数十个公开可用的医疗微调数据集和开放可用的医疗大语言模型,包含LLM的训练、测评、部署等以促进医疗LLM快速发展。


DISC-MedLLM [paper]

该项目是由复旦大学发布的针对医疗健康对话式场景而设计的医疗领域大模型与数据集,该模型由DISC-Med-SFT数据集基于Baichuan-13B-Base指令微调得到,有效地对齐了医疗场景下的人类偏好,弥合了通用语言模型输出与真实世界医疗对话之间的差距。


PMC-LLaMA [paper]

该项目开源了医疗大模型PMC-LLaMA,包括预训练版本的MedLLaMA_13B和指令微调版本的PMC_LLaMA_13B。


ChatDoctor [paper]

该项目开源了医疗大模型ChatDoctor,在LLaMA的基础上训练得到。


MING (明医)

该项目开源了医疗大模型MING,基于bloomz-7b指令微调得到MING-7B,支持医疗问答、智能问诊等功能。


IvyGPT

该项目开源了医疗大模型IvyGPT,它在高质量的医学问答数据上进行了监督微调,并使用人类反馈的强化学习进行了训练。


PULSE

该项目开源了中文医疗大模型PULSE,该模型使用约4,000,000个中文医学领域和通用领域的指令微调数据进行微调,支持医学领域的各种自然语言处理任务,包括健康教育、医师考试问题、报告解读、医疗记录结构化以及模拟诊断和治疗。


HuangDI (皇帝)

该项目开源了中医大模型HuangDI (皇帝),该模型首先在Ziya-LLaMA-13B-V1基座模型的基础上加入中医教材、中医各类网站数据等语料库,训练出一个具有中医知识理解力的预训练模型,之后在此基础上通过海量的中医古籍指令对话数据及通用指令数据进行有监督微调,使得模型具备中医古籍知识问答能力。


ZhongJing (仲景)

该项目开源了中医大模型ZhongJing (仲景),该模型旨在阐明中医博大精深之知识,传承古代智慧与现代技术创新,最终为医学领域提供可信赖和专业的工具。


TCMLLM

该项目拟通过大模型方式实现中医临床辅助诊疗(病证诊断、处方推荐等)中医药知识问答等任务,推动中医知识问答、临床辅助诊疗等领域的快速发展。目前针对中医临床智能诊疗问题中的处方推荐任务,发布了中医处方推荐大模型TCMLLM-PR,通过整合真实世界临床病历、医学典籍与中医教科书等数据,构建了包含68k数据条目的处方推荐指令微调数据集,在ChatGLM大模型上进行微调得到。


MeChat

该项目开源了中文心理健康支持对话大模型与数据集。模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集通过ChatGPT改写真实的心理互助QA为多轮的心理健康支持多轮对话,该数据集含有56k个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更加符合在长程多轮对话的应用场景。


SoulChat (灵心)

该项目开源了心理健康大模型SoulChat (灵心),该模型以ChatGLM-6B作为初始化模型,经过百万规模心理咨询领域中文长文本指令与多轮共情对话数据联合指令微调得到。


MindChat (漫谈)

该项目开源了心理大模型MindChat (漫谈),该模型采用了经过人工清洗的约20万条的高质量多轮心理对话数据进行训练,涵盖工作、家庭、学习、生活、社交、安全等多个方面,期望从心理咨询、心理评估、心理诊断、心理治疗四个维度帮助人们纾解心理压力与解决心理困惑, 提高心理健康水平.


QiaoBan (巧板)

该项目开源了儿童情感对话大模型QiaoBan,基于开源通用大模型,使用通用域人机对话、单轮指令数据以及儿童情感陪伴对话数据进行指令微调,研发出适用于儿童情感陪伴的大模型。


⚖ 法律


DISC-LawLLM [paper]

DISC-LawLLM 是一个旨在为用户提供专业、智能、全面的法律服务的法律领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC) 开发并开源,包括 DISC-LawLLM-13B 模型 和 DISC-Law-SFT 数据集。


LawGPT_zh (獬豸)

本项目开源的中文法律通用模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集包括现有的法律问答数据集和基于法条和真实案例指导的self-Instruct构建的高质量法律文本问答,提高了通用语言大模型在法律领域的表现,提高了模型回答的可靠性和专业程度。


LaWGPT

该系列模型在通用中文基座模型(如Chinese-LLaMA、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力。


LexiLaw

LexiLaw是一个经过微调的中文法律大模型,它基于ChatGLM-6B架构,通过在法律领域的数据集上进行微调,使其在提供法律咨询和支持方面具备更高的性能和专业性。该模型旨在为法律从业者、学生和普通用户提供准确、可靠的法律咨询服务。无论是需要针对具体法律问题的咨询,还是对法律条款、案例解析、法规解读等方面的查询,LexiLaw都能够提供有益的建议和指导。


Lawyer LLaMA [paper]

该项目开源了法律领域的指令微调数据和基于LLaMA训练的中文法律大模型Lawyer LLaMA。Lawyer LLaMA首先在大规模法律语料上进行了预训练,让它系统的学习中国的法律知识体系。在此基础上,借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题的分析和对法律咨询的回答,利用收集到的数据对模型进行指令微调,让模型习得将法律知识应用到具体场景中的能力。


HanFei (韩非)

HanFei-1.0(韩非)是国内首个全参数训练的法律大模型,参数量7b,主要功能包括:法律问答、多轮对话、撰写文章、检索等。


ChatLaw [paper]

由北大开源的一系列法律大模型,使用大量法律新闻、法律论坛、法条、司法解释、法律咨询、法考题、判决文书等原始文本来构造对话数据,包括基于姜子牙-13B、Anima-33B训练而来的ChatLaw-13B和ChatLaw-33B。此外,还开源了ChatLaw-Text2Vec,使用93w条判决案例做成的数据集基于BERT训练了一个相似度匹配模型,可将用户提问信息和对应的法条相匹配。


Lychee (律知)

开源了中文司法领域大模型Law-GLM-10B,基于GLM-10B模型,在30GB中文法律数据上进行指令微调得到。


wisdomInterrogatory (智海-录问)

由浙江大学、阿里巴巴达摩院以及华院计算三家单位共同设计研发的法律大模型,基于Baichuan-7B进行了法律领域数据的二次预训练与指令微调,并设计了知识增强的推理流程。


JurisLMs

该项目基于中文法学语料训练了一系列语言模型,包括: 1) 可解释法律判决预测模型AI Judge,由GPT2在法学语料上进一步预训练之后,结合一个法条适用模型(一个基于BERT的分类器)微调得到,不仅能够给出判决结果,还能给出相应的法院观点; 2) 智能法律咨询模型AI Lawyer,采用主动学习在少量数据上进行微调得到,可以根据用户咨询适用正确的法律法规回答问题。


夫子•明察

夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发,以 ChatGLM 为大模型底座,基于海量中文无监督司法语料(包括各类判决文书、法律法规等)与有监督司法微调数据(包括法律问答、类案检索)训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能,旨在为用户提供全方位、高精准的法律咨询与解答服务。


💰 金融
DISC-FinLLM [paper]

DISC-FinLLM是一个金融领域的大语言模型,是由面向不同金融场景的4个模组:金融咨询、金融文本分析、金融计算、金融知识检索问答构成的多专家智慧金融系统。这些模组分别在金融NLP任务、人类试题、资料分析和时事分析等四个评测中展现出明显优势,证明了DISC-FinLLM能为广泛的金融领域提供强有力的支持。


InvestLM [paper]

该项目开源了基于LLaMA-65B微调得到的英文金融大模型。

FinGLM

致力于构建一个开放的、公益的、持久的金融大模型项目,利用开源开放来促进「AI+金融」。
WeaverBird (织工鸟) [paper]

该项目开源了基于中英双语金融领域语料库微调的,同时可接入本地知识库以及网络搜索引擎的金融领域对话大模型。
BBT-FinCUGE-Applications [paper]

该项目开源了中文金融领域语料库BBT-FinCorpus,知识增强型大模型BBT-FinT5及评测基准CFLEB。
Cornucopia (聚宝盆)

该项目基于公开和爬取的中文金融领域问答数据构建指令数据集,并在此基础上对LLaMA系模型进行了指令微调,提高了LLaMA在金融领域的问答效果。
XuanYuan (轩辕) [paper]

轩辕是国内首个开源的千亿级中文对话大模型,同时也是首个针对中文金融领域优化的千亿级开源对话大模型。轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,它不仅可以应对通用领域的问题,也可以解答与金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
PIXIU (貔貅) [paper]

该项目开源了金融领域指令微调数据集FIT,大模型FinMA及评测基准FLARE。
FinGPT [paper1] [paper2]

该项目开源了多个金融大模型,包括ChatGLM2-6B+LoRA和LLaMA2-7B+LoRA等金融大模型,收集了包括金融新闻、社交媒体、财报等中英文训练数据。
FLANG [paper]

该项目开源了金融大模型FLANG和评测基准FLUE。
🎓 教育
桃李 (Taoli)

该项目开源了适用于国际中文教育领域的大模型,基于目前国际中文教育领域流通的500余册国际中文教育教材与教辅书、汉语水平考试试题以及汉语学习者词典等,构建了国际中文教育资源库。通过多种形式的指令构造了共计88000条的高质量国际中文教育问答数据集,并利用收集到的数据对模型进行指令微调,让模型习得将国际中文教育知识应用到具体场景中的能力。
EduChat [paper]

该项目开源了针对教育垂直领域的对话大模型,主要研究以预训练大模型为基底的教育对话大模型相关技术,融合多样化的教育垂直领域数据,辅以指令微调、价值观对齐等方法,提供教育场景下自动出题、作业批改、情感支持、课程辅导、高考咨询等丰富功能,服务于广大老师、学生和家长群体,助力实现因材施教、公平公正、富有温度的智能教育。
➕ 其他
MarineGPT [paper]

该项目开源了首个专为海洋领域设计的视觉语言模型MarineGPT。
OceanGPT [paper]

该项目开源了面向海洋学的大模型OceanGPT。
OWL [paper]

该项目开源了由云智慧智能研究院和北航联合研发的智能运维(AIOps)大语言模型,其在收集的 Owl-Instruct 数据基础上训练而成。此外,由于缺乏智能运维领域的大语言模型的 Benchmark,还建立了 Owl-Bench 评测基准。
AgriGPT

该项目开源了农业大模型MediaGPT。
MediaGPT

该项目开源了中文自媒体大模型MediaGPT,首先在大规模自媒体语料上进行连续预训练,系统地学习自媒体的知识体系。然后,借助ChatGPT收集了一批关于抖音运营、短视频创作、巨量千川投放、直播运营和直播话术技巧等领域知识问题的分析和回答,并利用这些数据对模型进行指令微调,使模型习得如何将自媒体知识应用到实际场景中。
EcomGPT [paper]

该项目开源了电商大模型EcomGPT,基于BLOOMZ在电商领域指令微调数据集EcomInstruct进行微调,在12个电商评测数据集上的人工评估超过ChatGPT。
StarWhisper (星语)

在天文科学教育联盟、集思谱文献平台、司天工程的支持下,基于天文大模型StarGLM开发经验,我们进一步训练了星语StarWhisper系列模型(包括6B,7B,13B,14B,20B)。以进一步缓解大模型在天文通用知识的幻觉现象,为接下来可处理天文多模态任务、部署于望远镜阵列的科学具身智能——司天大脑打下基础。
K2 [paper]

该项目开源了地球科学大模型K2,该模型在LLaMA的基础上使用地球科学文献和维基百科数据进行预训练,然后使用GeoSignal数据集进行指令微调。
TransGPT (致远)

该项目开源了交通大模型TransGPT (致远),主要致力于在真实交通行业中发挥实际价值。它能够实现交通情况预测、智能咨询助手、公共交通服务、交通规划设计、交通安全教育、协助管理、交通事故报告和分析、自动驾驶辅助系统等功能。TransGPT作为一个通用常识交通大模型,可以为道路工程、桥梁工程、隧道工程、公路运输、水路运输、城市公共交通运输、交通运输经济、交通运输安全等行业提供通识常识。以此为基础,可以落脚到特定的交通应用场景中。
AutoAudit

该项目开源了网络安全大模型AutoAudit,其目标是为安全审计和网络防御提供强大的自然语言处理能力。它具备分析恶意代码、检测网络攻击、预测安全漏洞等功能,为安全专业人员提供有力的支持。
TechGPT

该项目开源了科技大模型TechGPT,该模型面向计算机科学、材料、机械、冶金、金融和航空航天等十余种垂直专业领域,涵盖了领域术语抽取、命名实体识别、关系三元组抽取、文本关键词生成、标题生成摘要、摘要生成标题、文本领域识别、机器阅读理解、基础常识问答、基于上下文的知识问答、建议咨询类问答、文案生成、中英互译和简单代码生成等多项自然语言理解和生成能力。
Mozi (墨子) [paper]

该项目开源了科技论文大模型Mozi (墨子),可以用于科技文献的问答和情感支持。
OpenBioMed [paper1] [paper2] [paper3]

该项目开源了若干多模态生物医学大模型,包括多模态生物医药大模型BioMedGPT、多模态小分子基础模型DrugFM和MolFM、细胞表示学习模型CellLM等。
YaYi (雅意)

该项目开源了多领域大模型YaYi (雅意),该模型在百万级人工构造的高质量领域数据上进行指令微调得到,训练数据覆盖媒体宣传、舆情分析、公共安全、金融风控、城市治理等五大领域,上百种自然语言指令任务。
📚 数据集
📏 评测基准
C-Eval [paper]

C-Eval是一个由上海交通大学发布的中文基础模型评测基准,包含了13948个多项选择题,涵盖了人文,社科,理工,其他专业四个大方向,52个学科,从中学到大学研究生以及职业考试。
AGIEval [paper]

AGIEval是一个由微软发布的评测基准,用于评估大模型在人类认知任务中的表现,包含了20个面向普通考生的官方、公开、高标准入学和资格考试,包括普通大学入学考试 (中国高考和美国SAT考试)、法学院入学考试、数学竞赛和律师资格考试、国家公务员考试等。
Xiezhi (獬豸) [paper]

Xiezhi是一个由复旦大学发布的综合的、多学科的、能够自动更新的领域知识评测基准,包含了哲学、经济学、法学、教育学、文学、历史学、自然科学、工学、农学、医学、军事学、管理学、艺术学这13个学科门类,516个具体学科,249587道题目。
CMMLU [paper]

CMMLU是一个综合性的中文评测基准,专门用于评估语言模型在中文语境下的知识和推理能力。CMMLU涵盖了从基础学科到高级专业水平的67个主题。它包括:需要计算和推理的自然科学,需要知识的人文科学和社会科学,以及需要生活常识的中国驾驶规则等。此外,CMMLU中的许多任务具有中国特定的答案,可能在其他地区或语言中并不普遍适用。因此是一个完全中国化的中文测试基准。
MMCU [paper]

MMCU是一个综合性的中文评测基准,包括来自医学、法律、心理学和教育等四大领域的测试。
CG-Eval [paper]

CG-Eval是一个由甲骨易AI研究院与LanguageX AI Lab联合发布的针对中文大模型生成能力的评测基准。包含了科技与工程、人文与社会科学、数学计算、医师资格考试、司法考试、注册会计师考试等六个大科目类别下的55个子科目的11000道不同类型问题。CG-Eval包含一套复合的打分系统:对于非计算题,每一道名词解释题和简答题都有标准参考答案,采用多个标准打分然后加权求和;对于计算题目,会提取最终计算结果和解题过程,然后综合打分。
CBLUE [paper]

CBLUE是一个中文医学语言理解评测基准,包含8个中文医疗语言理解任务。
PromptCBLUE [paper]

PromptCBLUE是一个面向中文医疗场景的评测基准,通过对CBLUE基准进行二次开发,将16种不同的医疗场景NLP任务全部转化为基于提示的语言生成任务。
LAiW [paper]

LAiW 是一个中文法律大模型评测基准,针对3大能力设计13个基础任务:1)法律 NLP 基础能力:评测法律基础任务、 NLP 基础任务和法律信息抽取的能力,包括法条推送、要素识别、命名实体识别、司法要点摘要和案件识别 5 个基础任务;2)法律基础应用能力:评测大模型对法律领域知识的基础应用能力,包括争议焦点挖掘、类案匹配、刑事裁判预测、民事裁判预测和法律问答 5 个基础任务;3)法律复杂应用能力:评测大模型对法律领域知识的复杂应用能力,包括司法说理生成、案情理解和法律咨询 3 个基础任务。
LawBench [paper]

LawBench 是一个面向中国法律体系的法律评测基准。LawBench 模拟了司法认知的三个维度,并选择了20个任务来评估大模型的能力。与一些仅有多项选择题的现有基准相比,LawBench 包含了更多与现实世界应用密切相关的任务类型,如法律实体识别、阅读理解、犯罪金额计算和咨询等。
LegalBench [paper]

LegalBench 是一个面向美国法律体系的法律评测基准,包含162个法律推理任务。
LEXTREME [paper]

LEXTREME是一个多语言的法律评测基准,包含了24种语言11个评测数据集。
LexGLUE [paper]

LexGLUE是一个英文法律评测基准。
FinEval [paper]

FinEval是一个金融知识评测基准,包含了4,661个高质量的多项选择题,涵盖金融、经济、会计和证书等领域,34个不同的学术科目。
FLARE [paper]

FLARE是一个金融评测基准,包含了金融知识理解和预测等任务。
CFLEB [paper]

CFLEB是一个中文金融评测基准,包含两项语言生成任务和四项语言理解任务。
FLUE [paper]

FLUE是一个金融评测基准,包含5个金融领域数据集。
GeoGLUE [paper]

GeoGLUE是一个由阿里巴巴达摩院与高德联合发布的地理语义理解能力评测基准,旨在推动地理相关文本处理技术和社区的发展。本榜单提炼了其中多个典型场景:地图搜索、电商物流、政府登记、金融交通,并设计了六个核心任务:门址地址要素解析、地理实体对齐、Query-POI库召回、Query-POI相关性排序、地址Query成分分析、WhereWhat切分。
OWL-Bench [paper]

OWL-Bench 是一个面向运维领域的双语评测基准。它包含 317 个问答题和 1000 个多选题,涵盖了该领域的众多现实工业场景,包括信息安全、应用、系统架构、软件架构、中间件、网络、操作系统、基础设施和数据库这九个不同的子领域。以确保 OWL-Bench 能够展现出多样性。

工作即将灭绝?AI大模型的入侵比你想象得还要快!

在人工智能的盛宴上,大模型如同占据主宴的巨人,其庞大的身躯在技术世界里引发地震。然而,在这场光鲜亮丽的变革背后,一个亟需探讨的议题正悄然升起:大模型真的需要深入到每一个技术领域和业务逻辑中,成为“浸入式”的存在吗?或者,更深层地问,我们是否准备好让它们这样做?

本文将探讨领域大模型发展的两条道路:非浸入式与浸入式的模式,并审视这场变革是否真正触及了思维模式的转变。大模型,不仅是对于技术的挑战,更是对于我们认知边界的一次拓展。大模型的两种发展模式

在当前人工智能的高潮中,大模型的发展已呈现两条明显的道路:C端与B端。

C端模式犹如一面镜子,直接映照用户需求,实时响应各式问题。在这种模式下,模型仿若一个全知的博学者,回答从简单到复杂的诸多问题,充当的是信息的直接提供者。它涵盖了从日常咨询到深层知识探索的广泛场景,这种交互模式对用户来说,无疑是最直观、最直接的。

然而,C端的表现虽然亮眼,但在企业应用的深层次场景中,B端模式显得更加复杂且微妙。在B端模式中,大模型退居幕后,成为一个隐形的推手,深度嵌入企业的运营和管理系统中,如CRM、ERP、BI、智能客服、智能营销、智能运营等业务领域,以及更多定制化的行业解决方案。

在这里,大模型不再是一个简单的问答机器,而是变成了一个强大的业务逻辑处理器。它必须理解和处理更为复杂的行业特定语境,参与到业务决策和优化流程中。

这些模型能够在特定行业中,比如金融、医疗或法律,解读和执行复杂任务。不同于C端模式的普适性,B端的领域大模型更注重深度与精准度,旨在用机器的高效性和精确性,来增强特定业务流程的质量和速度。

尽管B端模型的优势明显,但其部署和整合却充满挑战。要成功实施,企业需要有能力将大模型的智能功能融入到现有业务流程中,这往往涉及对现有系统的重新构架,甚至是对企业运作模式的重构。另一方面,B端模型的实效性很大程度上依赖于数据的质量和可用性,数据的整合、清洗和标注成为了这一过程中的关键步骤。

那大模型是如何嵌入目前的各种系统中的呢?目前来看,有两种方式:非浸入式,和浸入式。

领域大模型的初级模式:非浸入式

先来看非浸入模式。

这种模式并未强求企业系统从根本上进行重构,而是选择了一种相对保守的途径:通过API调用外部大模型的能力。企业通过这种方式,试探性地将人工智能的技术引入现有的产品矩阵,以此来增强产品功能,提升用户体验。

然而,这种初级模式面临着明显的局限性。首先,由于没有对原有产品架构进行根本性改造,所以这种模式下的大模型与产品的结合往往仅停留在表面。大模型仅被视为一个附加组件,很难与产品深层次的业务逻辑和数据流程相结合。

产品团队可能会忽视对这些能力的持续优化和深度定制,这会导致AI功能显得附加和生硬,不仅影响用户体验,更可能因为不匹配企业现有工作流程而变得边缘化。

更关键的是,非浸入式模式没有实现大模型与底层数据,以及其他业务模块的有效互动。数据是人工智能发挥作用的基础,而在这种模式下,大模型往往缺乏对企业内部数据的深度接入和理解,这严重限制了其应用的效能。没有充分链接内部数据,大模型很难真正理解和预测业务趋势,也就无法发挥其应有的作用。

可以预见,非浸入式模式下的大模型,通常只能应对一些简单、规范化的场景,比如常见问题的自动回答、标准文档的生成等。在更加复杂的业务逻辑面前,这些大模型的功能显得力不从心,难以提供实质性的帮助。

以BI产品为例,非浸入式接入大模型,在处理单一数据点或简单的数据分析任务时表现尚可。然而,当升级到多维度指标交叉分析时,这种非浸入式的接入就暴露了其固有的弱点。大模型在这里往往跌入逻辑的迷宫,无法有效地对复杂的、相互依存的数据点进行分析和解读。

例如,在尝试分析销售额与广告投入、市场趋势及消费者行为之间的关系时,这种模型可能会因为不能理解这些指标间微妙的关联性,而导致数据分析效果不佳。它可能可以告诉你单一指标的变化,但却无法揭示多个指标之间相互作用的深层次关联。

领域大模型的高级模式:侵入式,重构产品逻辑

虽然非浸入式模式为企业提供了一种低风险的AI尝试方案,但要想从根本上提升业务的智能化水平,就需要超越这种初级模式,进行更深入的技术整合和业务创新。

接下来,我们就来讨论一下以浸入式方式在原有系统中嵌入大模型。这种模式,大模型不再只是一项新增功能,而是基于全新的人机交互逻辑,来重构原有的整个技术产品体系。

原有的产品逻辑,更多的偏向机器思维:一个按钮对应一个功能,多个操作流程联动起来满足一个业务流程,这需要用户了解不同按钮背后的功能,然后对应自己的需求,将业务逻辑映射到对产品不同按钮的操作流程。这种思维,整体上是让人去适应计算机。

而大模型所带来的强大的自然语言理解能力,让计算机可以理解人类的自然语言,这种理解不仅仅是关键词,而是一段复杂的自然语言,而且已经可以实现比较好的多轮沟通交互了。

基于这种能力,可以重构整个的人机交互方式,让计算机来适应人,具体方式是:用户要想计算机完成什么任务,不再去寻找这个系统中有什么功能按钮,而是只需要把自己的需求说出来就行,大模型充当一个“翻译器”,将人类的自然语言翻译成计算机能够理解的各个系统操作流程,来完成对系统的操作。

这样一来,原有的产品界面将大改,不用将功能界面都堆到用户界面这个“前台”,而是隐藏在后端,用户界面只要保留一个人机对话窗口,以及很少的一些操作按钮就行,这样可以实现用户界面的极简化。

以BI为例,原来的用户界面往往很复杂,功能按钮很多,用户需要根据自己的分析需求,来找对应的组件,然后通过拖拉拽操作,完成数据分析。用大模型改造后,大部分的功能组件都可以隐藏起来,保留人机对话窗口和几个必不可少的辅助组件即可。用户要调用什么组件,只需要用自然语言告诉BI系统即可,系统自己理解用户需求后,再自己去调用后台的组件,来进行数据分析,并返回可视化的数据分析结果。

从这个逻辑出发,BI产品需要大改,甚至底层的数仓、数据治理平台都得大改。来更好的配合上册基于大模型的人机交互系统,来提升整个系统的效率。

那么,为了实现浸入式的嵌入大模型,需要对原有系统进行哪些改造呢?应该说,这是一个系统工程,需要整个体系的重构。其中,数据处理、产品交互逻辑、用户体验三个方面的改造尤为重要。

在数据处理层面,为了适应侵入式的大模型,需要对数据库和存储系统进行优化。例如,依赖于自然语言查询的数据库需要能够处理模糊查询和语义查询,它们必须能够理解和处理自然语言的多样性和不确定性。这可能需要采用图数据库来更好地映射和处理复杂的实体关系,或者采用NoSQL数据库来处理非结构化的自然语言数据。

在交互逻辑方面,传统的命令驱动的操作流程,将被以对话为中心的交互方式所取代。传统软件以功能性为中心,每个按钮和菜单项都围绕着明确的操作和结果设计。但侵入式的领域大模型要求更高级别的交互逻辑,使得用户无需了解底层的复杂性就能与系统交互。

在这里,交互设计的核心挑战,是如何精确地捕获用户的意图并提供有效的反馈。这就要求模型不仅要在单轮对话中准确理解意图,还要能在多轮对话中累积上下文信息,对不完整或模糊的用户输入做出智能的假设和推理。

在用户体验方面,产品设计的核心将转向如何最小化用户操作的复杂性,同时最大化大模型的交互能力。侵入式模型需要在保持界面简洁的同时,确保用户能够通过自然语言,有效地传达复杂的命令和查询。设计师需要创造一种界面,它不再是各种功能按钮的集合,而是能够智能地引导用户进行高效对话的环境。

是技术变革,更是思维的变革

需要指出的是技术的演变往往伴随着思维方式的革命。当大模型技术崭露头角时,这不仅仅是技术层面的突破,更是对传统业务逻辑和产品设计思维的一次深刻洗礼。成功捕捉技术红利的关键,在于能否突破固有思维的框架,以创新的视角重塑产品和服务。

其实,类似的事情已经多次上演,让我们来看看智能手机和智能电动车这两个例子。

在智能手机的例子中,它们的出现不单单是屏幕变大,而是触控技术彻底改变了用户与设备的互动方式。苹果公司推出的iPhone,不仅仅在技术上领先,它们重新定义了用户体验,提供了一个全新的平台,引领了应用程序经济的诞生。诺基亚等传统手机制造商,由于未能及时调整其产品策略和业务模型,最终未能在新时代立足。

对比之下,在汽车行业中,传统燃油车制造商将电动车视为简单的“油改电”转换。这种浅层次的思维忽视了电动车技术在车辆设计、能效管理、软件集成等方面的根本性改变。电动车不仅改变了动力系统,它的整个设计理念都与燃油车有着本质的不同。它们本质上是软件定义汽车,并再次基础上实现汽车的数字化、智能化、网联化,而不仅仅是改变了一个动力系统。

然而,丰田、本田、大众等不少燃油汽车巨头,很难实现这种思维的转变。这也解释了为什么传统汽车巨头有上千亿的资金、几十万人才、庞大的产供销体系,却在智能电动汽车这个赛场上屡屡碰壁,他们不缺人才、不缺资金、不缺资源,但思维上的局限让他们最终落后了。

可见,某种程度上,比技术变革更重要的,是思维方式的变革。

同样的道理,大模型技术的引入,尤其是侵入式模式,要求企业不仅仅是在产品层面上添加AI功能,而是要重新考虑整个产品的设计理念。产品设计思维需要从“功能导向”转变为“体验导向”,在这个过程中,大模型技术使得自然语言成为用户和机器之间的直接沟通工具,这不仅影响了界面设计,也改变了后端数据处理、业务逻辑甚至是服务的提供方式。

目前,我们处于一个前所未有的转折点上,大模型的涌现,正如同往昔工业革命时蒸汽机的吼鸣,它呼唤着我们放下旧有的工具,拥抱新的思想和机遇。

然而,技术的光芒背后,我们也不应忽视它所带来的深刻社会挑战,包括工作的重构、隐私的保护,以及伦理的界定。这一切,需要我们以审慎和智慧的目光审视。正如诗人在夜色中追寻星辰,而不是被夜的黑暗所吞噬,我们也应在这次技术革命中寻找方向,保持警醒,确保科技的力量被正确引导,照亮人类前进的道路。

让我们以大模型技术的智能为翼,但不忘人性的指引。这样,当我们回望历史,将看到的不仅仅是技术的跃进,还有人类在理解自己和改造世界中的成长与超越。这一切都将取决于,在这个由数据和算法织就的新世界中,我们将如何定义自己,以及我们的未来。

少林寺方丈释永信Meta总部演讲:禅宗遇到AI

附演讲全文:


尊敬的各位来宾和朋友:大家好!
今天非常荣幸能同各位朋友分享“禅宗遇到AI”这个话题。随着人工智能技术的不断发展,它正在逐渐渗透到我们生活的各个领域。与此同时,这种技术的普及也对传统信仰产生了巨大影响。当古老的东方禅宗思想遇到21世纪尖端技术的人工智能,人文与科技的交汇势必会给当今世界的人们带来新的启示。
佛教到今天已经有2500余年的发展历史。禅宗是中国佛教影响最大、传播最广、发展最成熟的宗派,其中心思想可概括为“不立文字,教外别传,直指人心,见性成佛”。禅宗追求心灵的觉悟,它是对佛陀思想的继承和创新,同时又融汇了中国传统的儒家、道家思想,其修行方法以真修实证为主,不受任何知识、逻辑、思维乃至意识所束缚,是修禅者对解脱智慧的流露。禅宗思想深刻影响了中国的哲学、文学、艺术等领域,同时也在服务社会、净化人心、开启心智等方面做出了积极贡献。
少林寺始建于公元495年,禅宗初祖菩提达摩在少林寺面壁九年创立禅宗。少林寺作为禅宗祖庭,1500多年来传承不断,其主要以“禅”为核心,以养生、功夫、医药和禅艺等为表现形式,方便度化众生。少林养生功法以习练《易筋经》等气功为主,辅以素食、坐禅、经行等方法,以达到涵养精气神之妙用。少林功夫是中国首批非物质文化遗产,以佛教信仰和禅宗智慧为基础,具有完整的技击理论体系,形成有擒拿、格斗、卸骨、点穴、拳械等多种功法,并形成了标准化、规范化的少林功夫段品制的修学体系,其最高境界为“禅武合一”。少林医药来自对佛学“医方明”的继承,结合中国传统中医,主张运用佛法治心、草本治身,以达到调养身心之功效。少林禅艺则以绘画、书法、雕刻、梵呗、茶器及围棋等为载体,以艺入禅来传播禅宗文化
少林文化通过不断的传承与交流,已在韩国、日本、东南亚等地区得到广泛传播,近几十年来,欧美各国也涌现出许多少林文化的爱好者。少林寺还积极参与国际交流活动,为服务人类健康做出了积极贡献。目前,少林寺在全世界150多个国家200多个地区都有少林文化交流中心。
少林寺在历史发展中几经兴衰,但是如今依然传承不断,其原因在于少林文化的内动力,它兼容并蓄,并且提倡人与自然,人与社会,人与自身的和合共生,同时少林文化在沟通国际关系、推动世界和平方面发挥了积极作用。少林寺在未来也依然会坚持传播平等、慈悲、清净、圆融的佛教普世价值观,更好的服务全人类。
当禅宗遇到人工智能时会发生什么?技术进步能否取代道德伦理进步?人工智能具有强大的数据处理和分析能力,并且经由程序和算法可能会表现出类似于人类的感知,但是人工智能并不能具备我们禅宗所讲的觉悟的心性。人类面对此人工智能应该保持头脑清醒,应该如禅宗所倡导的那样向内寻求,得到超越解脱的本觉智慧。
禅宗是强调修禅者通过自身的精进和努力,逐渐提升觉悟的境界,在这个过程中,常常会遇到诸多困惑和烦恼,AI作为一作工具,可以检索查找相关经典,从而对治各种疑惑,为修禅者提供辅助和便利。
科技的进步让人们的闲暇时间增多,我们不希望因为闲暇时间的增多而使大众变得懒散放逸。在未来,我希望禅宗智慧和人工智能可以有更多互动,特别是在少林文化方面,能够携手搭建一个交流平台,让大众在修学体验少林禅、武、医、艺文化时,能够更加身临其境地感受少林文化的独特魅力,追求精神上的圆满,也让少林文化更好地服务全人类身心灵健康。
最后,祝愿大家一切吉祥!阿弥陀佛!


Yongxin Shi Transcript English Version:
“Zen Buddhism Encounters AI”
Respected guests and friends:Greetings to all!
Today, I am truly honored to share the topic “Zen Buddhism Encounters AI” with all of you. With the continuous advancement of artificial intelligence technology, it is gradually permeating every area of our lives. At the same time, the widespread adoption of this technology has significantly impacted traditional beliefs. When the ancient Eastern Zen thought encounters the cutting-edge AI technology of the 21st century, the intersection of humanities and technology is bound to offer new insights for people today.
Buddhism has a development history spanning over 2,500 years. Zen Buddhism is the most influential, widely spread, and mature school within Chinese Buddhism. Its core philosophy can be summarized as “not reliant on scriptures, teachings passed beyond words, directly pointing to the human heart, and achieving enlightenment upon recognizing one’s nature.” Zen seeks spiritual awakening. It inherits and innovates upon the teachings of the Buddha and integrates with traditional Chinese Confucian and Taoist philosophies. Its practice primarily emphasizes genuine cultivation and validation, unbounded by any knowledge, logic, thinking, or even consciousness, and is a manifestation of enlightenment wisdom. Zen thought profoundly influences Chinese philosophy, literature, and art, actively contributing to societal service, purifying the heart, and enlightening the mind.
The Shaolin Temple, founded in AD 495, is where the first Zen patriarch, Bodhidharma, founded Zen after meditating facing a wall for nine years. As the cradle of Zen Buddhism, the Shaolin Temple has been continuously passing down its teachings for over 1,500 years, with its core being Zen, and expressed in forms of health preservation, martial arts, medicine, and Zen arts. The health preservation methods of Shaolin primarily involve practicing qigong exercises like “Yijin Jing,” supplemented with vegetarianism, meditation, and sutra recitation to nurture the essence, energy, and spirit. Shaolin Kung Fu, one of China’s first intangible cultural heritages, is based on Buddhist beliefs and Zen wisdom. It possesses a complete theoretical system of combat techniques, consisting of grappling, fighting, bone-breaking, pressure point strikes, and various weapon techniques, all structured into a standardized system of progression. The ultimate realm of Shaolin martial arts is the unification of “Zen and Martial Arts.” Shaolin medicine derives from the Buddhist concept of “Understanding Medicinal Properties,” integrated with traditional Chinese medicine, advocating for healing the mind through Buddhist teachings and the body through herbal remedies. Shaolin Zen arts encompass painting, calligraphy, sculpture, chanting, tea ceremonies, and Go (the board game), serving as vehicles to promote Zen culture.
Shaolin culture, through continuous inheritance and exchange, has been widely disseminated in regions like South Korea, Japan, and Southeast Asia. In recent decades, many enthusiasts of Shaolin culture have also emerged in European and American countries. The Shaolin Temple actively participates in international exchanges, making positive contributions to human health. Currently, there are Shaolin cultural exchange centers in over 200 regions across 150 countries worldwide.
The Shaolin Temple has experienced highs and lows throughout its history, but its enduring legacy is due to the inner vitality of Shaolin culture. It emphasizes harmony between humans and nature, society, and oneself. Moreover, Shaolin culture plays a pivotal role in fostering international relations and promoting world peace. In the future, the temple will continue to propagate the universal Buddhist values of equality, compassion, purity, and integration, better serving humanity.
So, what happens when Zen meets AI? Can technological progress replace moral and ethical advancement? AI possesses a tremendous capability for data processing and analysis, and through programming and algorithms, it might exhibit human-like perceptions. However, AI cannot possess the awakening and consciousness preached by Zen. In the face of AI, humans should maintain clarity of mind and seek inner enlightenment and transcendental wisdom, as advocated by Zen.
Zen emphasizes that practitioners elevate their state of enlightenment through dedication and effort. In this process, they often encounter various confusions and troubles. AI, as a tool, can assist by searching relevant scriptures, thereby addressing doubts and providing support and convenience for practitioners.
Technological advancement has granted people more leisure time. We hope that this won’t make the masses lax and indulgent. In the future, I wish for more interactions between Zen wisdom and AI, especially in the context of Shaolin culture. Together, they can build a platform for communication, allowing the public to immerse themselves in experiencing the culture of Shaolin’s Zen, martial arts, medicine, and arts. This will enable them to feel the unique charm of Shaolin culture more vividly, pursuing spiritual fulfillment and allowing Shaolin culture to better serve the physical and mental well-being of all humanity.
In conclusion, I wish everyone all the best and happiness! Amitabha Buddha.

重磅!中国AI创新领袖榜单:启动报名

近日,铅笔道与中关村超互联联盟达成战略合作。
作为联合发起方,中关村超互联联盟将深度参与【2023年度真榜】,聚焦大AI赛道,以“AI自立自强”为主题,以发现“中国优秀AI企业/投资机构”为己任,不遗余力推动AI产业发展。
中关村超互联联盟全称“中关村超互联新基建产业创新联盟”,于2023年1月11日正式获批,是全国首家经民政部门正式登记注册、统筹全国超互联新基建的非盈利性组织。

它诞生于国家“东数西算”的战略背景下,由科创型数字新基建龙头“世纪互联”发起。“世纪互联”成立于1996年,是中国第一品牌民营IDC零售高科技企业,也是中国第一家在美纳斯达克上市的IDC高科技企业。

【2023年度真榜】的发起,最早源自今年4月。铅笔道发起AI访谈专题,采访了国内数十位优秀企业,如小冰、云从科技、Hugging Face、乐言、容联云等。
调研得出一个初步结论,自今年通用人工智能(AGI)、AIGC兴起后,AI的发展方针应聚焦8个字:应用为王,技术为辅。
AI行业的紧迫任务,与新能源、芯片完全不同。后者天生长在应用场景下,天生离市场更近。
而AI不一样,从目前的应用水平看,它的终局有可能是个大生产力工具,但也有可能是个大玩具。

调研对象告诉我们:自大模型兴起以来,大家在应用上的认知在同一起跑线上。各家企业都在试,但水平都差不多。
总结起来就是8个字:尚未自立,尚未自强,但潜力很大。
我国对科技创新的战略目标之一是:自立自强。
今年,习近平总书记的著作《论科技自立自强》出版,系统地阐述了推进我国科技创新的战略目标、重点任务。
在这个思路的指引下,AI行业的首要任务是:先自立,后自强。而自立的重要任务包括经济自立,或者商业化自立。
AI行业须尽快找到切实可行的垂直应用场景,努力理解各行业的应用场景,理解专业、专家行之有效的模型与AI的融合质量与速度,高效获得专业客户的认可至关重要。
行业里的优秀企业必须联合起来,一起探索应用经验,贡献商业化经验,如此才能加快AI自立自强。
我们对此深信不疑。
今天,铅笔道联合中关村超互联联盟、含光素问、智九咨询等多方合作伙伴发起【2023年度真榜】,聚焦大AI赛道(AGI/AIGC),以【AI自立自强】为题,发现一批优秀的AI企业/投资机构。
我们希望:行业以他们为榜样,以他们的认知为灯塔,照亮AI的商业化大方向。
本次榜单分为2个系列:
一、AI创新企业榜单。
其中又包含2个榜单,一个是《AI创新企业榜单TOP120》,我们不仅欢迎纯技术公司申报,也欢迎一切聚焦AI应用的非技术类公司;另一个是《AI投资领袖TOP50》。
二、AI投资机构榜单。
其中也包含2个榜单,一个是《年度AI最佳投资机构TOP50》,一个是《年度AI投资领袖TOP50》。
本次榜单将将组建一支权威的评审专家团,他们将有40%来自企业家,30%来自投资机构,30%为技术、研究专家。我们也欢迎更多专家加入真榜评审团。

榜单的发起方铅笔道,是一家深耕7年的创新创业媒体,过去7年报道了1.6万家创新公司,目前在微信端影响力排名TOP3,是软银中国、真格基金、险峰长青、BAI等顶级机构唯一投资的双创媒体,是YC中国在国内投资的唯一双创媒体。

真榜是铅笔道的旗舰榜单,首发于2018年,累计上榜企业约 6500 多家。2023年度真榜将延续过往7年“不说谎”的理念,依据真实客观的数据信息,以真实客观的评价手段,选出一批客观的影响时代的AI企业。

本次榜单的另一位联合发起方——企查查,它成立于2014年,是一家获央行企业征信机构备案、具有海量企业信息、全面维度数据、庞大终端用户的创新公司,涵盖全球超5亿家企业数据,汇集8000个行业、6000个市场、3亿+工商数据,连续多年入选中国互联网综合实力百强企业。

本次榜单联合发起方之一含光素问,由著名风控专家、投资人、研究员、财经媒体、数据分析师等各行业智囊共同成立,是一家专家智能驱动、大数据辅助为特征的金融数据及技术服务公司。

2020-2022年度,含光素问作为独家开源数据支持机构,连续三年为国内知名金融专业垂直媒体《新财富》在行业中最权威、最知名的“最佳金牌董秘评选”等评选活动提供独家数据支持。

众多权威发起方及专业评审团是榜单影响力的保障。铅笔道欢迎各方力量共同参与,一起发现影响时代的创新领袖。

ChatGPT重磅更新!马斯克VS奥特曼:打响史诗级AI争夺战

11月7日消息,今晨首届OpenAI开发者大会近45分钟的开幕演讲中,“ChatGPT之父”、美国OpenAI公司CEO山姆·奥特曼(Sam Altman)向全球开发者和ChatGPT用户公布OpenAI一系列产品更新。

此次更新升级主要包括:快速创建定制版本ChatGPT的GPTs;引入了性能更强的GPT-4 Turbo模型、API价格最低仅需0.03美元/1000个token;开放包括DALLE-3等新API;即将推出GPT Store应用商店,不仅方便GPT的定制化使用,还让开发者通过GPT创造收益;以及更加先进的Assistants API,进一步推进 AI 智能体发展。

奥特曼表示,自从ChatGPT推出后,人们一直在寻找定制化的方法来更好地利用它。现在OpenAI已经做出了重大改进,随着时间的推移,任何人都能够启用这些改进的GPTs,并逐步使用它们来规划和执行更为复杂的任务。

“正如我之前提到的,我们真的相信循序渐进、迭代部署的重要性,人们现在开始构建和使用这些GPT很重要。我们将继续根据用户反馈更新系统,提供改进的功能调用、知识、降低定价、新的模式等。我们也在深化与微软的合作。”奥特曼在演讲中表示。

发布之后引发网络热议。有人称,OpenAI会变成下一个苹果,也有人直言“OpenAI 的App Store“即将来临。

有趣的是,OpenAI开发者大会刚结束,世界首富、特斯拉CEO埃隆·马斯克(Elon Musk)在X平台(原Twitter)上发布了一条推文,介绍xAI的首个 AI 聊天模型Grok,并意味深长地暗指“我更爱Grok”——Grok、grok、Grok?

如今,一场硅谷AI大模型头部之战已经打响。

更强的GPT-4 Turbo与定制化GPTs登场

每个人都将有大模型

图片

ChatGPT推出近一年之后的今天,被广泛认为这是有史以来增长最快的消费级应用,短短两个月内用户数达到1亿,远超Twitter、Instagram、抖音等。

目前,ChatGPT仍然是有史以来增长最快的软件服务之一。

奥特曼表示,在不到一年的时间里,每周已有超过1亿人使用ChatGPT,目前有超过200万开发者在该公司的API上进行开发,其中包括高达92%的财富500强公司;企业版客户则包括普华永道、shopify等。

随后的新品发布中,OpenAI公布了GPT-4 Turbo模型、自定义ChatGPT的GPTs和GPT Store应用商店,以及接近 AI 智能体的Assistants API等。

首先,奥特曼发布的最新GPT-4 Turbo模型,提供了更长上下文理解、增强开发者控制、更新至2023年4月的知识库、多模态API的接入等功能。新的GPT-4 Turbo支持高达12.8万个token,速率限制翻倍、准确性也有所提升,内置的图像模型DALL·E 3提供不同格式和质量选项,生成一张图像的价格为0.04美元起。

不仅性能更强,GPT-4 Turbo价格也很低廉。对比GPT-4,GPT-4 Turbo的输入token价格是其三分之一,为0.01美元/1000 token;输出token价格是其1/2,为0.03美元/1000 token。

其次,OpenAI 公布的是重磅的定制化模型服务产品GPTs,可随时随地让用户们无需代码,结合自己的指令、外部知识和能力创建自定义版本的 ChatGPT。

此前OpenAI在今年7月推出了自定义指令,可让用户设置一些首选项,但这无法完全满足用户。许多高级用户会维护一份提示和指令集列表,并将它们手动复制到ChatGPT中。

如今,GPTs则能够自动帮用户们完成这项工作,通过自然语言构建自定义GPT。目前,GPTs可供ChatGPT Plus(20美元/月付费版)和企业用户试用。

在现场演示中,奥特曼要求ChatGPT创建一个可以给创业者提供建议的GPT。收到指令后,ChatGPT不仅构建GPT,还提供了头像、命名建议。

除此之外,用户还可以通过向GPT提供一个或多个API来自定义定制action(行动)。与插件一样,OpenAI的定制action允许GPTs集成外部数据或与现实世界交互,从而充分挖掘社区开发者的力量实现GPT更新。

同时,OpenAI也会在本月底上线对标苹果应用商店的GPT Store,让开发者们分享、发布自己创建的GPTs。奥特曼表示,GPT Store上会有GPT排行榜,OpenAI还将让开发者从GPT商店上架产品部分获得收入。

最后公布的是AI Agent技术下智能体产品Assistants API。

奥特曼发布的“Assistants API”技术,旨在简化开发者构建AI应用的过程,提供代码执行、知识检索和函数调用等功能,允许更灵活的用户交互和任务执行,支持创建从数据分析到智能旅游计划等多种应用,并通过无限长线程超越了上下文限制,进一步增强了 AI 智能体的能力。

开发者可以前往 Assistants playground 试用 Assistants API 测试版,无需编写任何代码:https://platform.openai.com/playground?mode=assistant;定价参见:https://openai.com/pricing。

此外,在本次开发者大会上,OpenAI还推出Copyright Shield版权保护措施,为使用ChatGPT企业版和开发者平台功能的客户提供法律索赔介入和费用支付保护;推出性能改进的语音识别模型Whisper large-v3,并计划将其集成到API中;以及改进图像质量的开源解码技术Consistency Decoder,在文本、人脸识别等方面有所提升。


“我感谢创造所有这些东西的人。我们(OpenAI)做所有的这些,是因为我们相信,AI 将是一场技术和社会革命,它将以多种方式改变世界。我们非常高兴能够从事 AI 这项工作,因为它将赋予你们所有人创造力,使你们能建造更加丰富的世界。”奥特曼表示,GPT将是个人和技术的重要助手,有望提升人类的价值能力。

马斯克VS奥特曼:

一场史诗级的 AI 战争或将打响

今年7月,世界首富、特斯拉CEO埃隆·马斯克(Elon Musk)宣布成立xAI公司,其使命是“了解宇宙的真实本质”,目标是打造OpenAI的竞争对手。

作为OpenAI 创始人之一,也是最新的OpenAI批评者,马斯克此前已表示,OpenAI已偏离了其预期目的,成为了一个以利润为导向的实体。

他直言,OpenAI 最初是作为一个非营利性开源组织创建的,目的是抗衡谷歌。但此后它变成了微软控制下的一家闭源、以利润为导向的公司。“OpenAI 已经成为一家利润最大化的公司……这根本不是他的初衷。”

马斯克还谴责 OpenAI 遭到微软的控制。他表示,世界需要一个替代的 AI 技术选择。

就在OpenAI公布首届开发者大会具体时间之后,马斯克立断在11月5日,即开发者大会数小时前,公布其xAI公司的首个成果——Grok AI 助手。马斯克甚至提前打广告:“在某些方面,它是目前存在的最好的(AI 技术)。”

如今这款Grok AI,似乎已成为马斯克新的“冀望”。

据悉,Grok大模型具有330亿个参数,性能基准上接近Llama 2 -70B,在HumanEval编码任务、MMLU 基准上的结果分别为63.2%、73%。

“2个月内我们训练了所能做到的最好技术产品,预计未来每周都将快速改进。”马斯克团队称。

11月2日,马斯克亲自跑到英国 AI 峰会上直言,AI 构成对人类“最大的威胁之一”,是一种“生存风险”。AI 模型领域或存在“危险的”军备竞赛。

“AI的发展速度比迄今为止我所见过的任何技术都要快,”马斯克与英国首相苏纳克交谈时表示,“总的来说,我认为 AI 很可能会成为一股向善的力量,但它变坏的可能性不是零,所以我们只需要减轻潜在的负面影响。”

xAI公告称,Grok将“回答大多数其他 AI 系统拒绝的尖锐问题”,并警告“如果你讨厌幽默,请不要使用它。”

“我们相信,AI 具有为社会贡献重大科学和经济价值的巨大潜力,因此我们将努力开发可靠的保障措施,防止灾难性的恶意使用。我们相信尽最大努力确保 AI 仍然是一股正义的力量。”马斯克团队在 xAI 博客中表示。

无论是像ChatGPT这种认知大模型,还是Grok这类情感大模型,都是目前 AI 大模型发展的重要驱动方向。

此前在一场音频博客节目中,奥特曼回应了马斯克的批评。

奥特曼表示,马斯克的大部分言论都是毫无根据的,很可能是出于担忧。微软并不控制OpenAI,微软在OpenAI董事会中没有任何代表。

“要说Elon的积极一面,我认为他确实关心AGI(通用人工智能)的美好未来,”奥特曼称,“我的意思是,他是个混蛋,我不欣赏他的做事风格。但我认为,他是真的在意。对于人类未来的前景,他确实感到非常担忧。”

随着GPT-4 Turbo、GPTs、GPT Store应用商店以及Grok等大模型技术的推出,这场在马斯克和奥特曼之间的 AI 军备竞赛仍将持续。至于两者之中的胜者,仍需时间和用户给出答案。

来源:钛媒体

白宫发布AI监管重磅炸弹 – 10项规定将颠覆该行业

OpenAI、Google、微软等知名AI参与者必须遵守新的AI立法。

白宫刚刚宣布了一项针对AI监管的重大行政命令。根据白宫副幕僚长布鲁斯·里德(Bruce Reed)的说法,这些指令是“全球任何政府迄今为止采取的最强有力的行动”,旨在保护AI对美国公民的影响。

拜登政府一直在制定监管自由度较大的AI行业的计划。这项命令基于拜登-哈里斯关于AI权利法案的蓝图,以及15家领先科技公司自愿与政府合作推动安全和负责任的AI开发。

白宫并未等待国会通过自己的立法,而是通过行政命令来减轻AI风险,同时充分利用其潜力。随着像ChatGPT这样的生成式AI的广泛使用,利用AI的紧迫性变得非常真实。

白宫AI行政命令:您需要了解的10个关键规定

这个行政命令是什么样的?它将如何影响AI公司?以下是您需要了解的情况。

1. 开发强大AI系统的开发者必须与联邦政府分享其安全测试的结果

换句话说,当一家知名AI公司(例如OpenAI、Google和微软)正在训练其模型时,它必须在向公众发布之前分享红队安全测试的结果。(红队是一组人,通过冒充恶意行为者来测试数字实体的安全性和安全性。)

根据一位高级政府官员的说法,该命令侧重于未来一代AI模型,而不是像ChatGPT这样的当前面向消费者的工具。此外,需要分享安全测试结果的公司是那些符合最高计算性能门槛的公司。该官员表示:“这不会捕捉到由研究生甚至教授培训的AI系统。这实际上是针对世界上最强大的系统。”

2. 红队测试将符合国家标准与技术研究院(NIST)制定的高标准

国土安全部和能源部还将共同合作,确定AI系统在网络安全以及化学、生物、放射性和核基础设施领域是否存在某些风险。

3. 解决使用模型进行科学和生物相关项目的AI参与者的安全问题

正在制定新的“生物合成筛选”标准,以防范由AI工程化的“危险生物材料”。

4. AI生成的内容必须加上水印

商务部将发布指导方针,确保所有AI生成的内容 – 音频、图像、视频和文本 – 都标明来源。这将使美国人能够确定哪些内容是由非人类实体创建的,从而更容易识别欺骗性的Deepfake

5. 持续推进“AI网络挑战”

对于未曾了解的人,AI网络挑战是拜登政府的一个倡议,旨在建立一个高级别的网络安全计划,加强AI工具的安全性,确保漏洞得到修复。

6. 依靠国会通过“跨党派数据隐私立法”

这项行政命令是对国会的一项信息,要求立法者加快速度。拜登呼吁立法者确保在知名AI参与者训练其模型时保护美国人的隐私。儿童的隐私将是主要关注点。

7. 深入研究公司的数据政策。

白宫表示,将评估机构和第三方数据经纪人如何收集和使用“商业可得”信息,即公共数据集。一些“可以识别个人身份”的数据是对公众可得的,但这并不意味着AI参与者可以自由使用这些信息。

8. 减少AI引发的歧视

将会推出指导方针,减少房东、联邦承包商等领域歧视的可能性。此外,政府将介绍在刑事司法系统中关于判刑中使用AI的问题的最佳实践。此外,拜登政府将处理与AI在刑事司法系统中的使用相关的问题。

9. 吸引全球顶尖AI人才

截止到今天,ai.gov网站为寻求AI奖学金和美国政府工作机会的申请人提供了一个门户网站。该命令还寻求更新具有AI专业知识的移民的签证标准。

10. 支持容易受到AI发展影响的工人

拜登政府将通过制定原则和最佳实践来支持工人的集体谈判权,以保护工人免受潜在的监控、工作替代和歧视等危害。该命令还宣布了有关AI对劳动力市场潜在扰乱的报告计划。

紧急提醒!东胜区发现首例“AI换脸”新型诈骗

近日,东胜市民李女士遭遇了冒充熟人的诈骗,被骗30万元。诈骗分子冒充李女士的同学“贾某”,伪造微信账号添加李女士后,主动提出视频聊天。视频中,李女士看到了“贾某”本人,对方称信号不好不便继续视频,打完招呼后转入文字聊天。

“贾某”说他有个领导的亲戚正在参加一个项目竞标,急需周转资金,自己不便出面,想借李女士的名义将钱转给对方。“贾某”向李女士索要了银行卡号,声称已经把钱转到了李女士的账户上,还把银行转账底单的截图(PS图片)通过微信发给李女士。基于对好友的信任,加上已经通过视频聊天核实了身份,李女士没有核实钱款是否到账,就把自己全部存款30万元转了过去。对方要求李女士借钱继续转账,李女士产生了疑虑,拨打好友电话,才知道原来遇上了高端的电信诈骗。骗子通过智能AI换脸和拟声技术,佯装好友对她实施了诈骗。

什么是“AI”诈骗?

诈骗分子利用AI换脸技术,提前制作了冒充领导或熟人的视频,而并不是实时的视频互动通话。

其本质就是冒充领导和熟人类诈骗的升级版。

首先诈骗分子通过非法渠道获取受害人的通讯录和社会关系等信息,使用领导或熟人的姓名和照片,包装社交账号并添加受害人为好友。

然后诈骗分子会使用通过AI换脸换声技术合成的熟人视频,通过视频通话的方式给受害人播放,骗取受害人信任。并且为了防止受害人发现破绽,视频通话的时间往往十分短暂,诈骗分子会以正在开会等理由故意挂断电话,要求转入文字聊天。

随后,诈骗分子会以有事不方便出面等理由要求受害人代为转账,以此达到诈骗目的。

东胜公安提醒:

1.请广大市民一定要注意保护好个人信息,以防被不法分子掌握信息而实施诈骗。

2.眼见不一定为实,有图也不一定就是真相。

3.涉及转账、汇款等情况时,务必要通过多方渠道核实并确定对方身份。

4.如果有人要你帮忙过账,无论多大的领导,多熟悉的人,必须电话或当面核实,而且要等钱到账之后再进行转账。

又一款AI神器,虽然有点太大,但超级实用!

德克萨斯州达拉斯的一家公司Topaz,旗下有两款产品:Topaz Photo AI和Topaz Video AI,从名字就可以看出它们是基于人工智能(AI)的,一款是图片编辑软件,另一款是视频编辑软件。今天主要来介绍第一款Photo AI:它可以通过大数据模型,自动调整图片,包括:无损放大、降噪、锐化、人脸修复等。以前这些功能都是独立的软件,现在都合而为一了。

无损放大:众所周知,一张图片如果放大的倍数越大就越模糊,Photo AI通过大数据模型的训练,当图片放大时,对图片的细节进行处理,自动填充缺失的像素,增强图片的分辨率,所以放大后不会失真。

下图(左)的老虎比较模糊,用无损放大功能,右侧设置处,将「缩放比例」开关打开,AI模块选择「Low Resolution」,拖动图像去噪、轻微模糊滑块,等待软件自动处理完成。处理后的右图即便放大也会非常清晰,并且细节保留的也很完整。

降噪:消除图片的噪点,提高图片的分辨率。去除噪点的同时,不会影响图片原有的细节。

锐化:图片模糊的原因可能是由于拍摄时相机抖动、对焦问题等等,锐化功能可以自然的逆转模糊的原因,对照片进行锐化。

下图(左)的猴子是来自官网的示意图,我在软件中进行了设置,右侧将「去除噪点」、「锐化」按钮打开,并将参数进行简单的调整,至于怎么调整参数,可以自行选择尝试,直到满意为止。因为计算需要时间,电脑配置越低,速度越慢。

对于老照片,也能进行简单的修复。如果一次修复不满意,还可以保存后,重新再修复一次。

还可以把这个软件和Adobe Photoshop结合起来使用。把Topaz Photo AI 目录下的TopazPhotoAI.8bf文件,复制到Photoshop安装目录Plug-ins下,这样可以在PS的菜单栏:滤镜中找到“opaz Labs”,点击它即可调用Topaz Photo AI。它相当于作为PS的插件使用。

电脑配置最低要求:

Windows10或Windows11;

②CPU带有AVX指令,2013年以后发布的;

③内存12GB(推荐16GB);

④显卡Nvidia GTX 900或更高;AMD Radeon 400或更高;Intel UHD 600或更高。

软件官网:

https://www.topazlabs.com

安装Topaz Photo AI时会自动从官网下载模型,由于网络原因可能会导致下载失败,今天提供一个绿色版的Topaz Photo AI,包含所有的大模型,解压后总共6.34GB。原版软件为英文版,此版本集成了吾爱论坛网友@xzf的汉化补丁。

软件获取:

https://www.123pan.com/s/xY3DVv-03VHA.html

提取码:rXiV

中美科技战,正从AI展开

10月17日,在限制对华出口先进芯片一年后,美国计划进一步收紧相关措施,以阻止中国获得可能有助于其军事发展的尖端技术,相关措施旨在弥补去年10月限制措施的漏洞,拜登政府将寻求加强对向中国公司出售用于人工智能的图形芯片和先进芯片制造设备的控制。

此外,白宫还将对试图通过其他国家运输以规避出口限制的中国企业实施额外检查,并将中国芯片设计公司列入贸易限制名单,要求美国海外的芯片制造商必须获得华盛顿的许可证才能为这些公司供货。新限制措施将阻止一些恰好满足当前技术参数限制的AI芯片的对华出口。

路透社报道称,在美国去年发布对华芯片出口限制后,英伟达公司就针对中国市场推出了H800芯片,以代替被禁售的H100型号AI芯片。而H800被普遍认为是华盛顿希望阻止对华出口的对象之一。美国还计划取消用于限制AI芯片出口的“带宽参数”,用其他标准取而代之,以扩大限制范围。

由此看来,在人工智能领域,中美两国的竞争已趋白热化。

两国都在人工智能技术上投入了数十亿美元,在研究和教育方面处于领先地位,并制定了国家人工智能战略计划。中国宣布计划在2030年成为世界主要人工智能创新中心,这意味着可能取代美国长期占据的领先地位。

有人称人工智能是第四次工业革命的驱动力,它在美国和中国之间的技术竞争中肯定很重要,那么两国在这场技术竞争中处于什么位置呢?

斯坦福Institute for Human-Centered AI(HAI)发布的《2021人工智能指数》显示,在学术研究、投资和技术人才领域,中美越来越相向而行。01

中国学术影响力日益增长

艾伦人工智能研究所(AI2)旗下Semantic Scholar团队对发表的人工智能学术论文进行了研究。

中国在人工智能研究方面的崛起不仅体现在其人工智能论文总量上,现在还体现在被引用最多的人工智能论文中,所占的份额不断增长。

在此项研究中,他们发现中国已经在2019年超过了美国,占据了人工智能论文被引用前50%的位置。到2019年,在排名前50%的论文中,中国的总份额已经增长到31.5%,而美国为30.0%。

引用量衡量的是论文提出的想法是否新颖且具有影响力,而不仅仅是研究人员发表的论文数量。数据表明,中国现在在人工智能基础知识方面做出了更多贡献,有了质的提升。

据分析,中国之所以取得这一领先,是因为在期刊出版方面超过了美国。2019年在学术期刊上发表的Top 50%论文中,中国有11.5万篇,美国有8.0万篇。

在关注最具影响力的人工智能论文(前10%和前1%被引用最多的论文)时,中国论文的比例近年来也在快速增长,并正在逼近美国的份额。以2020年为例,人工智能(AI)领域论文被引用最多的10%中,美国占37%,而中国占36%。02

美国仍然吸引AI人才

虽然中国在论文质量数量上都有赶超美国之势,但在对AI人才的吸引力上,美国仍占据优势。

据AMiner发布的2022年人工智能全球最具影响力学者榜单AI 2000显示,美国依旧在人工智能人才上占有强势领先位置,囊括13个领域的榜首学者。中国收入两个榜首学者,分别是信息检索与推荐和多媒体两个领域。

从学者国家分布来看,美国入选AI 2000学者及提名学者的数量最多,有1146人次,占比57.3%,超过总人数的一半以上。中国排在美国之后,位列第二,有232人次,占比11.6%。

从AI 2000最具影响力学者入选数量来看,谷歌、Meta及微软三大科技公司占据优势地位,公司拥有的顶级AI学者数量,无论是top 10还是top 100数量,均远多于高校。其中位居首位的谷歌公司,共181人次入选榜单,也是唯一一家学者数过百的机构。

从机构所在的国家分布来看,清华大学相较于21年,遗憾离开前十名的位置。前十名均为美国机构,且美国机构学者总体人数遥遥领先。

人工智能的进步取决于人工智能人才,这可能是阻碍人工智能广泛应用的最大瓶颈。

几十年来,美国一直是吸引全球人工智能人才的磁铁,吸引着世界各地最优秀的科技创新人才。2020年美国人工智能员工的招聘率约为2016年的两倍,当时美国已经拥有大量此类员工。相比之下,同期中国的增长率仅为30%左右。

但美国在人工智能人才方面的主导地位可能正在发生变化,由于美国签证难度提升,专注于技术的毕业生越来越难留在美国。

虽然人工智能指数显示,80%的近期人工智能博士毕业生继续留在美国,但像加拿大这样为高技能技术工人提供简化工作/移民途径的国家正在吸引更多原本可能留在毕业国的人才。他们中的许多人仍在为在海外设有办事处的美国公司工作,但从长远来看,如果华盛顿不解决这些趋势的驱动因素,人才竞争可能会成为美国的负担。03

AI融资对比

伴随着生成式人工智能的迅速崛起,巨额投资也纷纷进入了各类初创公司中。

生成式人工智能过去五年的投资共计超过220亿美元,尤其是在2023年,投资金额与往年拉开了明显的差距。

美国在这次生成式人工智能浪潮中独占鳌头,全球89%的投资都流向了美国的初创公司。造就美国主导地位的部分原因是OpenAI的崛起。自ChatGPT推出以来,就备受风险投资的宠爱,VC向OpenAI投入了近120亿美元,引发了生成式AI的热潮。

许多顶级投资者一直在积极建立自己的新一代人工智能投资组合。Andreessen Horowitz和红杉对新一代人工智能的投资比其他任何人都多出近50%。Ycombinator是GenAI初创企业最积极的加速器,已为100多家初创企业提供支持,其中包括OpenAI、Replit等。

在全球范围内,生成式人工智能融资最多的国家是美国,它遥遥领先于其他所有国家。其次是以色列和加拿大,英国、德国、荷兰和瑞典紧随其后,而中国暂未位列其中。但中国一直是人工智能芯片投资的领先地区,中国AI芯片的融资是美国的两倍以上。04

重塑竞争框架

总体而言,将人工智能的发展视为一场零和博弈可能会忽略其中的关键部分。

在人工智能领域的某些维度上,竞争确实成立。人工智能可能会破坏当前的军事力量平衡,有些市场可能只会出现一个或少数几个赢家。但在很多情况下,协作也至关重要。例如中国可能在机器学习的数据标签服务方面具有优势,可以向美国公司出售数据集,以构建更好的算法,以实现互惠互利。

所有国家都应该从人权的角度为全球利益进行人工智能合作,在全球性的挑战中,我们要么会因为出现问题而承受后果,要么我们能够创造出更好的解决方案,就会从中受益。

人工智能已成为一种颠覆性技术,能够利用其力量的国家将会得到巨大的经济和战略优势。

中国大力推动人工智能的应用,正在挑战美国作为该领域全球领导者的地位。鉴于人工智能的巨大潜力,以及两国之间紧张的地缘政治关系,美国已经制定了一系列管制政策,阻止人工智能等尖端科技落地中国。

然而,美政府对人才外流和跨境合作的程度并不完全了解。自2000年以来,中国和美国在AI领域的影响力、创新性、生产力和劳动力方面一直处于领先地位。不少供职于中国的人工智能科学家来自美国,而大多数移民到美国的人工智能科学家则来自中国,这凸显了双向人才流失的显著现象。一项配对实验显示,两国在合作时的影响力总是大于各自单独工作时的影响力。这些发现表明,与其压制两国之间的合作,不如鼓励两国之间的合作。

我们确实开始看到一系列国家展开了合作,共同塑造嵌入人工智能技术中的原则和价值观,以对抗未来发生数字独裁主义。

 来源:陀螺财经

了解人工智能所需的 30 个术语

每一次重大的技术革命都伴随着一波学习浪潮,直到我们对这些新的词汇变得非常熟悉。对于下一个主要的技术浪潮(人工智能)而言,亦是如此。当所有人在考虑这种新兴技术可能带来的风险和好处时,理解人工智能的术语将至关重要。在过去几年中,出现了许多与人工智能相关的新术语,比如 “大语言模型”、“提示工程”等。

为了能够跟上时代的步伐,我们整理了一系列需要熟悉的名词,以便我们更加了解人工智能如何改变我们的世界。

通用人工智能(Artificial general intelligence ,AGI)

AGI中文翻译为通用人工智能,又称为强人工智能。AGI是一种具有与人类相同的思维的人工智能,甚至也有意识,具备数字思维的能力。OpenAI和DeepMind等公司已经明确表示,创造AGI是他们的目标。OpenAI认为,它将“通过增加财富、加速全球经济、协助发现新的科学知识来帮助全人类提升”,并成为“人类聪明才智和创造力的强大助力”。

对齐(Alignment

人类从未与强大的非人类智慧生物共享地球。如何确保人工智能的价值观与人类的价值观保持一致?

这种一致性问题加剧了人们对人工智能灾难的担忧。7月初, OpenAI宣布了一项“超级对齐”计划,旨在确保人工智能系统遵循人类的意图。

偏见(Bias)

为了让人工智能达到预期效果,它需要通过人类提供的数据集进行学习。但是,人类很难没有偏见。如果人工智能从一个有偏差的数据集获得能力,例如,与种族或性别有关的数据,那么它就有可能产生不准确的、令人反感的输出。随着人们赋予人工智能越来越多的把关和决策职能,许多人担心机器可能会产生一些潜在偏见,阻止部分人群获得某些服务或知识。

计算(Compute)

计算指的是训练人工智能所需的计算资源,比如处理能力。它可以被量化,所以它是衡量人工智能发展速度的一个指标(以及人工智能的成本和强度)。

自2012年以来,计算量每3.4个月翻一番,这意味着,当OpenAI的GPT-3在2020年接受训练时,它需要的计算能力是2012年最先进的机器学习系统之一的60万倍。

扩散模型(Diffusion models)

生成对抗网络(generative adversarial networks,Gan)是几年前让人工智能生成图像的主流技术之一。这些算法相互对立,一种算法训练生成图像,而另一种算法则对照现实情况检查结果,从而不断改进。

扩散模型 从本质上讲是通过添加噪声破坏训练数据来实现智能,然后再通过逆向该过程来恢复数据。之所以被称为扩散模型,是因为这种基于噪声的学习过程与气体分子扩散的方式如出一辙。

涌现性和可解释性(Emergence & explainability)

涌现现象是指人工智能做出一些意料之外的事情,超出了创造者的意图或程序设计。随着人工智能学习变得越来越不透明,它所建立的联系和模式甚至连它的创造者自己都无法解读,涌现现象更有可能发生。

大众可能会认为,要了解人工智能,需要掀开它的隐喻罩,看看它是如何训练出来的。然而,现代人工智能并不透明,它的工作原理往往隐藏在所谓的 “黑盒”中。因此,尽管设计者可能知道他们使用了哪些训练数据,却不知道它是如何在黑盒中产生联想和预测的。这就是为什么研究人员现在专注于提高人工智能的 “可解释性”——从本质上讲,就是让人工智能的内部运作对人类更加透明和易懂。

大模型(Foundation models)

这是对过去一两年中出现的新一代人工智能的另一种称谓,也称为基础模型,它们能够掌握一系列技能:写作文、写代码、绘画、作曲等。过去的人工智能针对特定任务,通常只擅长一件事,而大模型则具有创造性能力,能将在一个领域学到的信息应用到另一个领域。

幽灵(Ghosts)

我们可能正在进入一个时代,人们可以获得某种形式的数字永生,以人工智能“幽灵”的身份活着。然而,这一发展引发了一系列棘手的伦理问题:一个人死后,谁拥有他的数字版权?如果人工智能版本违背了本人的意愿而存在呢?

幻觉(Hallucination)

有时候,如果你问ChatGPT、Bard、Bing此类人工智能一个问题,它会非常自信地回答。但它的回答可能是错误的。这就是所谓的“幻觉”。这是因为生成式人工智能的工作方式,它不是求助于数据库来查找固定的事实,而是根据它所接受的训练信息做出预测。

工具趋同(Instrumental convergence)

粗略地讲,“工具趋同理论”认为超级智能机器会发展出基本的驱动力,比如寻求确保自身的自我保护,或者发展额外的资源、工具、认知能力帮助它们实现目标。这意味着,即使人工智能被赋予了一个看似良性的优先级任务,它也可能导致意想不到的有害后果。

越狱(Jailbreak)

在出现了一些AI失控案例后,设计师对AI产生的内容进行了限制。让人工智能回答如何做非法或不道德的事情会被拒绝。然而,仍旧有可能通过“越狱”获取答案,需要使用创造性的语言、假设的场景、诡计绕过保护措施。

知识图谱(Knowledge graph)

知识图谱,也被称为语义网络,是一种将知识作为网络来思考的方式,这样机器就可以理解概念是如何关联的。例如,在最基本的层面上,在这样的图表中,猫与狗的联系会比与秃鹰的联系更紧密,因为它们都是有毛和四条腿的家养哺乳动物。

大语言模型(Large language models,LLMs)

大型语言模型是一种先进的人工智能系统,旨在理解和生成类似人类的语言。它利用具有数百万甚至数十亿参数的深度神经网络架构,使其能够从大量文本数据中学习复杂的模式、语法和语义。

模式坍塌(Model collapse)

为了开发最先进的人工智能模型,研究人员需要用庞大的数据集进行训练。最终,随着人工智能产生越来越多的内容,这些材料将反馈到训练数据中。如果期间犯了错误,这些错误可能会随着时间的推移而扩大,最终导致 “模型坍塌”。

神经网络(Neural network)

在研究人工智能的早期阶段,机器是用逻辑和规则来训练的。机器学习的出现改变了这一切。现在最先进的人工智能可以自己学习。这一概念的演变导致了“神经网络”的出现,这是一种机器学习模式,使用相互连接的节点,模仿人类的大脑。

开源(Open-source)

几年前,生物学家意识到,在互联网上公开危险病原体的详细信息可能存在潜在危险,它可能被不法分子利用。

最近,人工智能研究人员和公司也面临着类似的困境:人工智能应该在多大程度上开源?鉴于最先进的人工智能目前掌握在少数几家私营公司手中,一些人呼吁提高这些技术的透明度和民主化。然而,对于如何在开源和安全之间取得平衡,仍存在分歧。

提示工程(Prompt engineering)

人工智能现在在理解自然语言方面表现优异。然而,要想从中获得最好的结果,需要有能力写出有效的“提示词”,即输入的文本很重要。

一些人认为,“提示工程”可能代表着工作技能的新前沿,就像几十年前掌握微软Excel让你更容易被雇佣一样。人们普遍认为,如果你擅长提示工程,你就可以避免被人工智能取代,甚至可能获得高薪。

量子机器学习(Quantum machine learning)

就最大程度的炒作而言,2023年仅次于人工智能的是量子计算。大家都在期望两者的结合。研究人员目前正在积极探索利用量子过程来增强机器学习。谷歌人工智能研究人员称:“在量子计算机上建立的模型可能会强大得多……可能会在更少的数据上实现更快的计算和更好的泛化”。

逐底竞争(Race to the bottom)

随着人工智能的迅速发展,一些研究人员担心,它们可能会在影响方面引发“逐底竞争”。伴随首席执行官和政界人士竞相将公司和国家置于人工智能的前沿,该技术可能会加速发展,以至于无法建立保障措施、适当的监管减轻道德担忧。

强化(Reinforcement)

人工智能相当于狗粮。当人工智能学习时,通过反馈指导其向正确的方向发展。强化学习奖励那些理想的输出,惩罚那些不理想的输出。

超级智能和修格斯(Superintelligence & shoggoths)

超级智能是指远远超过人类心智能力的机器。这超越了“通用人工智能”的范畴,它描述的是一个实体,该实体拥有世界上最聪明的人类思想也无法匹敌的能力。由于人类目前是世界上最聪明的物种,并使用我们的大脑控制世界,那么如果我们创造出比我们聪明得多的东西会发生什么?

一种黑暗的可能性是“带着笑脸的修格斯”:一种噩梦般的、洛夫克拉夫特式的生物,有人认为它可能代表人工智能接近超级智能的真实本质。对我们来说,它是一个和蔼可亲、快乐的人工智能,但其内心深处隐藏着一个怪物,有着与我们完全不同的外星欲望和意图。

训练数据(Training data)

分析训练数据是人工智能在能够做出预测之前进行学习的方式——因此数据集中的内容、数据是否有偏差以及数据有多大都很重要。

无监督学习(Unsupervised learning)

无监督学习是一种机器学习模式,人工智能在没有人类任何明确指导的情况下从未标记的训练数据中学习。

声音克隆(Voice cloning)

只要一分钟的个人讲话音频,一些人工智能工具就能迅速合成一个听起来非常相似的“声音克隆”。

弱人工智能(Weak AI)

过去,研究人员会用特定的规则和启发式方法训练人工智能,让它能玩单一的游戏,比如国际象棋。像这样的人工智能可能非常擅长一项任务,但在其他方面表现不佳,这就是所谓的“弱人工智能”。

未知风险(X-risk)

人工智能会导致人类灭绝吗?一些研究人员和技术专家认为,人工智能已经成为一种“未知风险”,与核武器和生物工程病原体一样,因此其持续发展应该受到监管、限制甚至停止。

YOLO

YOLO是一种目标检测模型,由于其工作速度快,被人工智能图像识别工具广泛使用。

零样本(Zero-shot)

当人工智能给出零样本答案时,这意味着它对以前从未遇到过的概念或对象做出了回应。

所以,举个简单的例子,如果一个被设计用来识别动物图像的人工智能已经被训练过猫和狗的图像,它很难识别马或大象。但是通过零样本学习,它可以利用对马的语义了解,比如腿的数量、缺乏翅膀,来将它的属性与训练过的动物进行比较。

IDC发布全球信息技术行业十大预测:人工智能将重塑IT行业及企业运营方式


IT技能不匹配

AI、云计算、数据、安全和新兴技术领域的培训不足,将直接对企业依靠这些技术取得成功的努力产生负面影响。到2026年,资金不足的技能培训计划将使65%的企业无法从这些技术投资中实现全部价值。 

服务业转型 

Gen AI将引发战略、变革和培训等人工交付服务的转变。到2025年,40%的服务将包括GenAI支持的交付,影响从合同谈判到IT运营再到风险评估的方方面面。

统一控制

未来几年,IT 团队最具挑战性的任务之一就是驾驭控制平台的成熟,因为它们将从解决几个基本系统发展成为协调基础设施、数据、人工智能服务和业务应用程序/流程的标准平台。

融合型AI

如今对 Gen AI 的痴迷不应延误或破坏现有或其他人工智能方面的投资。企业必须考虑、试用并生产完全融合的人工智能解决方案,使其能够以更低的价格解决新的使用案例和客户角色。

定位体验

Gen AI 的加速应用将使企业能够通过情境体验增强其边缘计算用例,从而更好地将业务成果与客户期望保持一致。

数字前沿

基于卫星的互联网连接将提供无处不在的网络,有助于弥合数字鸿沟,实现一系列新的功能和商业模式。到 2028 年,80%的企业将集成LEO卫星连接,创建统一的数字服务结构,确保弹性无处不在的访问和数据流动性。

原创 IDC中国 IDC咨询

大模型首献2000万营收 人工智能有望成三六零第三增长曲线

8月30日晚间,三六零(下称“360”)公布了2023年半年报。公司上半年实现营收45.03亿元,第二季度营收25.37亿元,同比增长10.42%,环比增长29.08%。值得一提的是,新兴业务“360智脑”大模型已创造近2000万元相关业务收入,有望成为第三增长曲线。

展望未来,对于360而言,互联网、安全、AI三大增长曲线如能实现“共振”,那么其内在价值的释放速度将远超市场预期。

大模型实现营收近2000万元

在众多企业还在为“百模大战”如何取胜绞尽脑汁的时候,大模型已为360带来了第一笔营收。

财报显示,基于 360 智脑给中小企业客户所提供的 AI 增值服务所带来的良好体验,公司取得近 2000 万元的相关业务收入。2000万金额虽然不大,却是中国大模型走向产业化的重要一步,也是360未来商业前景的“星星之火”,这一数字会随着大模型市场需求的井喷,为360带来更大想象空间。

据悉,在“C-Eval”最新公布的中文大模型能力排行榜上,360智脑大模型平均分超过GPT-4,尤其在社会科学及人文科学两项上表现优异。C-Eval是由上海交通大学联合清华大学、爱丁堡大学构建的中文基础模型评估套件,核心考量大模型的知识和推理能力。

消息人士称,国内大模型陆续通过《生成式人工智能服务管理暂行办法》备案,360智脑也将很快通过备案,面向C端用户提供服务。

360集团创始人周鸿祎认为,大模型是工业革命级的生产力工具,将会带来一场新工业革命。“不仅仅是一个聊天机器人,也不是像抖音这样消磨人时间的娱乐工具。大模型真正的机会在企业级市场,最应该抓住产业发展的机会。”

随着数实融合的进一步加深,在中短期内,基于内容创作和娱乐导向的生成式人工智能场景 应用将有较强的市场潜力。而从长期来看,在产业数字化升级的过程中,金融、医疗、教育、工业等 各行各业的人工智能应用也将快速发展,助力行业降本增效的同时,衍生出更多的创新增量。

据了解,360人工智能大模型坚持“两翼齐飞”策略,一方面发展核心技术,另一方面抢占优势场景落地,比如推出企业级AI大模型解决方案,发起GPT产业联盟,在“360智脑”通用大模型的基础上,与合作伙伴一道推出“税务大模型”“企业服务大模型”等行业大模型,推动大模型产业发展。

周鸿祎在采访中解释,有了通用大模型作为基座后,360可以寻找不同的产业合作伙伴,不同的行业、企业、城市场景来做垂直大模型。

“垂直类大模型,不需要用千亿或者万亿模型,可能用百亿、十亿、几十亿参数的模型,这样整个训练时间、调试成本、部署成本,大概比GPT的成本低至百倍以上,如此才能让大模型走下神坛,让大模型赋能百行千业、走进千家万户,才能成为工业革命。” 周鸿祎称。

迄今,360 智脑已升级至 4.0版本,拥有了包括生成与创作、阅读理解、多轮对话、逻辑与推理、 代码能力、知识问答、多语种互译、多模态、文本改写、文本分类等十大核心功能,能够覆盖大模型应用的所有场景,并且成为唯一通过工信部信通院“可信 AIGC 大模型测评”的国产大模型。

此外,在多次权威大模型测评榜单中,360智脑取得的成绩也一直稳居国内第一梯队。

财报披露同日,由清华大学、上海交通大学和爱丁堡大学合作构建的中文语言模型综合性考试评估套件C-Eval榜单披露,360智脑以69分成绩排名第四,这一分数甚至超过ChatGPT 4。此前5月,360智脑参与中文模型基准SuperCLUE测评,更是位列“国产第一”。

360商业化持续升级 三大增长曲线有望“共振”

回顾近20年的发展史,360可谓经历了多轮商业模式的迭代。

最初,360起家于PC互联网时代。当时,知名杀毒软件都是收费服务,只有360适时推出了免费杀毒服务,以广告展示来盈利,这颠覆了传统互联网安全行业模式,甚至也极大影响了后续中国互联网行业的商业模式。

从财报来看,互联网广告相关业务依然是公司的主力营收来源。上半年,360互联网商业化及增值服务共实现收入 26.81 亿元。截至报告期末,360 PC安全产品的平均日活跃用户数(DAU)近1亿,平均月活跃用户数(MAU)4.7亿,安全市场持续排名第一。

之后,随着360杀毒在短时间内得到大范围的普及,其受众也从最初的C端用户逐步拓展到B端,商业模式出现了跃进式的迭代与变迁,从而形成了多元化的收入来源结构。

财报显示,公司上半年安全及其他相关业务实现营收9.08亿元,其中第二季度收入6.54亿元,同比增长98.76%,环比增长157.16%。安全第二增长曲线已完全成型。

值得一提的是,“安全即服务”是360最新锚定的市场。把安全能力全面“云化”和“服务化”, 360打造了多租户云化安全服务平台360安全云。产品发布两周后,客户数已突破数百家。这对安全服务的红海市场将带来商业模式的巨大颠覆,有望开辟全新的蓝海市场,甚至未来网络安全行业都会变成服务业。

“靠卖盒子已经是红海市场,价格战打得非常厉害,利润率非常低。”周鸿祎分析,“而我们希望通过这件事推动行业的创新。如果再靠卖盒子,市场就是这么大,原来不愿意买的人还是不会买。但通过安全即服务的方式,降低客户的采购成本,就能吸引更多的客户在安全上以适度的投入,来解决安全问题。”

当前,一阵大模型和生成式人工智能的旋风,正在席卷众多领域,安全行业亦不例外。从财报来看,大模型初显360第三增长曲线的潜力。

凭借领先的AI技术,360于6月推出企业级AI大模型解决方案,发起GPT产业联盟,在“360智脑”通用大模型的基础上,与合作伙伴一道推出“税务大模型”“企业服务大模型”等行业大模型,推动大模型产业发展。

作为数字安全龙头企业,360长期进行人工智能安全研究,涉及框架安全、模型安全、生成式AI安全等,累计发现主流机器学习框架的漏洞200多个,影响全球超过40亿终端设备。360将全球前三的安全能力与“360智脑”结合打造出国内首个安全大模型。目前,360安全大模型已在360内部及自有产品落地应用,并可面向市场和用户交付。

作为同时涉足互联网、安全、大模型的企业,360无疑具有独特的竞争优势。“人工智能安全是一个特别大的问题。现在很多做大模型的公司不太了解安全,了解安全的公司又没有能力做自己的大模型。360恰恰在这个中间是一个跨界,本身做互联网安全,也有搜索引擎业务。”周鸿祎提到。

在周鸿祎看来,360未来的使命,一方面用人工智能解决传统安全问题,另一方面用人工智能技术结合安全能力,解决人工智能的问题。“既利用它为人类创造新的文明,同时又能够把它的能力放在一个框架、放在一个笼子里,不要伤害人类。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

人工智能会取代基金经理吗? 是的,总有一天

几十年来,人工智能取代人类一直是科幻小说的主题。人工智能通常无法替代的明显的人类部分往往是“情感”部分,也就是灵魂。

这对于那些经常以不带感情色彩地追求利润和客观分析财务数据而自豪的基金经理来说,这是个坏消息,因为它们没有任何太人性化的认知偏见。他们似乎是被没有灵魂的人工智能所取代的主要目标,这些人工智能不仅客观地分析每秒数百万个数据点,而且还能坚决执行基于这些数据点的有效投资策略。 

根据《巴伦周刊》的筛选,迄今为止,只有11只人工智能运营的ETF基金。不过,其他人可能正在幕后使用人工智能。“如果我现在处于一家资产管理公司的位置,我会全面关注人工智能,但更多考虑的是如何从我的业务中剥离一些成本,并提高其运营效率?”晨星公司首席分析师李 · 戴维森(Lee Davidson)说。

对人工智能经理人来说,好消息是指数基金仍然是主要威胁,因为目前由人工智能管理的基金也难以跑赢基准指数。只有一只基金:Qraft AI-增强型美国大盘基金(QRFT) ,业绩跑赢了大市。但随着更多基金的推出和认可机构的“学习”,这种情况应该会随着时间的推移而改变。

用计算机分析股票数据并不是什么新鲜事,这被称为“量化投资”。但是人工智能教会计算机独立思考,适应不断变化的市场、商业或经济环境。这甚至可能最终取代人力资本经理仍在进行的对公司业务的定性分析。 

Kaiju Worldwide 首席执行官瑞安·帕内尔(Ryan Pannell)说,人工智能已经被用来监控与分析师举行的盈利电话会议。Kaiju Worldwide 是一只名为 BTD Capital (DIP)的人工智能 ETF 的子公司。人工智能将会“实时监听”,他说,它不仅会分析高管演讲的文本,寻找影响业绩的关键词,还会“监控首席执行官声音的基调、音调和节奏。由此,它将能够确定市场对(首席执行官)言论力度的可能反应。” 

今天的人工智能ETF基金还远没有那么先进。BTD Capital 对股票采取“逢低买入”的策略。帕内尔表示,挑战在于“找出真正的“低”——一种本质上是人为导致的价格回调。因此,如果你买入,价格将从低位平均回升至高位,你将从价格小幅上涨中受益。” 

问题在于,一些股票可能会因行业或公司的具体情况而下跌,但不会反弹。今年3月,硅谷银行(Silicon Valley Bank)破产,加州其它银行倒闭,就是这种情况。“区域性银行的崩溃是人工智能以前从未见过的模式,”帕内尔表示。这种缺乏理解的情况影响了ETF基金的表现,今年的业绩也不尽如人意。但是 ETF基金的人工智能现在已经“了解了这种模式是什么样的,”帕内尔说,所以它可以减轻未来的损失。 

Qraft 人工智能增强型美国大盘基金采用自适应人工智能系统,根据市场状况调整其对五大股票因素(价值、质量、规模、动量和波动性)的敞口。在过去的三年里,在没有人类经理的情况下,它已经击败了晨星大型增长类别中70% 的同行。 

Qraft Technologies 首席执行官弗朗西斯·奥(Francis Oh)表示,说服家庭投资者相信一台机器是很困难的,所以这些基金规模只有3000万美元。Qraft Technologies 运营着四只基于因子的人工智能ETF基金(AI ETF)。“人类仍然倾向于相信人类的决策,不管他们是否正在获得良好的回报,”他说。

投资者花了几十年时间才接受了1971年发明的自动化指数基金。鉴于华尔街对人工智能的热爱,人工智能可能会更早会被接受。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI算力不止GPU 国产大模型有望“摆脱”英伟达?

自ChatGPT爆火之后,AI大模型的研发层出不穷,而在这场“百模大战”激战正酣之际,美国芯片公司NVIDIA(英伟达)却凭借其GPU在大模型计算中的出色发挥赚得盆满钵满。

而就在近日,科大讯飞创始人、董事长刘庆峰表示:“华为的GPU(图形处理器)能力现在已经跟英伟达A100一样了,现在已经做到对标英伟达的A100。”

华为方面对此并没有回应,不过,多位业内人士对《中国经营报》记者表示,目前,国内在AI芯片领域已经取得了一定的成就,但要与英伟达A100相媲美,还存在一些挑战。

GPU被掣肘

英伟达在去年收到美国政府的通知,通知称:“若对中国(含中国香港)和俄罗斯的客户出口两款高端GPU芯片——A100和H100,需要新的出口许可。”不仅如此,该许可证要求还包括未来所有的英伟达高端集成电路,只要其峰值性能和芯片间I/O性能均大于或等于A100的阈值,以及包括这些高端电路的任何系统,都被纳入许可证限制范围。

不过,英伟达针对中国客户推出了替代型号A800,与原有的A100系列计算卡相比,A800系列的规格基本相同,比较大的区别在于NVLink互连总线的连接速率,A100系列为600GB/s,A800系列则被限制在了400GB/s,综合使用效率只有A100的70%左右。

但即使这样,原本7.4万元左右一枚的A800,现在也涨到10万元以上,并且“一卡难求”。

刘庆峰指出,尽管中国开发的AI算法非常强大,但国内硬件的计算能力传统上落后于英伟达。他提到了中国企业在训练AI大模型方面面临的挑战,这主要是在英伟达的硬件上完成的,企业内部只能做出微小的调优和训练。由于美国对中国超级计算机行业的限制,对英伟达硬件的依赖成为中国人工智能企业的一个主要限制。

近日,科大讯飞与华为共同发布用于构建专属大模型的软硬件一体化设备“星火一体机”让国内的大模型厂商再燃希望。刘庆峰表示,华为在GPU领域取得了重大进展,实现了与英伟达A100 GPU相当的能力和性能。

对此,华为方面并未作出回应。不过,记者注意到,华为并不研发GPU产品,其旗下共有昇腾310、昇腾910两款AI处理器加速器。

深度研究院院长张孝荣对记者表示,目前国内尚未有媲美英伟达A100的能力。英伟达A100是2020年一款高性能计算芯片,2023年最新GPU是H100,具有更强大的AI推理能力和超高的浮点计算性能。虽然国内厂商的GPU能力已经有所提升,但目前还远远没有达到与英伟达A100相媲美的水平。

不过,在天使投资人、资深人工智能专家郭涛看来,近几年来,我国芯片产业高速发展,在一批关键核心技术取得新突破,目前已经具备生产媲美英伟达A100芯片的能力,但若想实现大规模出货仍然面临很多挑战。

全联并购公会信用管理委员会专家安光勇也认为,目前,国内在AI芯片领域已经取得了一定的成就,但要与英伟达A100相媲美,还存在一些挑战。英伟达A100是一款面向高性能计算和人工智能任务的GPU,具备出色的计算和训练能力,但要达到A100的水平仍需要时间。

“中国有很多GPU的初创公司,不要低估中国在芯片领域的追赶能力。”英伟达CEO黄仁勋曾表示。

虽然距离国内厂商赶超英伟达尚有较大的距离,但AI芯片并非只有GPU。

AI场景需要多核、高并发、高带宽的AI芯片。AI芯片,也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块。当前,AI芯片主要分为GPU、FPGA(现场可编程门阵列),及以TPU、VPU为代表的ASIC(特定应用集成电路)芯片。

FPGA属于具备可编程硬件结构的集成电路,其可编程性和灵活性可快速适应不同AI算法要求,但也存在高功耗的问题。ASIC属于专用芯片,通过算法固化实现更高的算法利用率和能耗比,但开发周期较长、灵活性较弱。

郭涛表示,中国在AI芯片领域的研发和生产方面已经取得了一些重要成果,除GPU芯片外,未来有望在CPU(中央处理器)、FPGA芯片、ASIC芯片等多个方面实现弯道超车。

张孝荣也认为,除了GPU之外,国内厂商还可以研发其他类型的加速器,如FPGA、DSP等。这些加速器可以针对特定的AI计算任务进行优化,提高计算效率和性能。除此之外,还可以通过优化算法和模型设计,减少对计算资源的依赖,提高计算效率。例如,剪枝、量化等技术可以减少模型的参数量和计算量。将AI计算能力下沉到设备端,减少对云端计算资源的依赖。通过在设备端进行本地计算,可以提高响应速度和数据隐私保护。总之,国内可以通过不断创新和技术积累,在AI芯片领域有所创新,不要着眼于不切实际的弯道超车,而要以满足实际需求为主,逐渐缩短GPU领域的差距。

安光勇表示,国内致力于发展本土芯片产业,通过政策和资金支持,促进产业生态的形成,这将有助于国内企业在芯片领域进行合作和创新。不仅如此,中国在人工智能算法和应用方面也有很强的优势。即使在芯片技术上难以迅速迎头赶上,通过优化算法和软件,仍可以在性能和效率上取得优势。

实际上,国内的厂商也在不断实现突破。“当前中国大模型中有一半是由华为昇腾AI来支撑的。”今年7月,华为轮值董事长胡厚崑对外透露。华为昇腾计算业务总裁张迪煊也透露,截至目前,昇腾已认证了30多家硬件伙伴、1200多家软件伙伴,联合孵化了2500多个AI场景方案。在中国,平均每两家AI企业就有一家选择昇腾。

作为“科创板AI芯片第一股”的寒武纪此前在互动平台回复,公司设计、研发的智能芯片不属于GPU,是面向人工智能领域专门设计的芯片。智能芯片的性能和能效优势主要集中于智能应用,在人工智能领域可以替代GPU芯片,但不适用于人工智能之外的其他领域。

而在“传统”的GPU领域,国内厂商也有所建树。摩尔线程全功能GPU显卡可以完成AI模型的训练、推理、精调全流程,目前可以进行ChatGLM和GLM系列模型的推理,并且支持超大大模型的分布式推理和offload推理。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI重塑未来营销,把营销创新预算的26.9%留给AI

嘉宾|任一 董浩宇 谭北平

编辑|王小坤

AIGC在社媒营销领域的渗透速度比我们预想中更快。来自业内的一线调研显示,如今在一些大的MCN 机构中,用AI 生成内容的占比已经从50%上升到更高。在用户端几乎没有感知的情况下,AIGC在生产效率和转化效果维度都展现出了不错的结果。

「同样主题的内容我们分别让AI和人工来生产然后进行投放,在算法逻辑的维度,人工生产的内容和AI生成的内容相比在逐步落后;在转化效果维度,即媒介投放后链路真金白银的购买上,我们发现AI生成内容的效果也在逐步提升。」数字营销专家、中国广告协会学术与教育委员会副主任董浩宇通过和MCN的一项测试,验证了AIGC当下在社媒营销中的应用潜力。

来自技术方和品牌的实践案例也印证了这一趋势。AI营销公司奥创光年目前可以为国内一线电商平台单日生产10万条视频素材,替代过往素材组合等大量重复性工作,据奥创光年市场副总裁任一介绍,「它的投放效果一般会比过往(人工生产)更好,在一项代理合作投放测试中,我们的视频在抖音的跑出率是该机构原视频的两倍。」

在媒介碎片化和信息大爆炸的时代,内容和创意越来越难出圈,但率先掌握AI工具的机构和品牌方则已经摸索到新的解法。本期对话,我们邀请到了资深品牌市场人、奥创光年市场副总裁任一,数字营销专家、中国广告协会学术与教育委员会副主任董浩宇,以及资深营销人、秒针营销科学院院长谭北平围绕AIGC在社媒营销领域的应用与实践进行了深度探讨。

以下为三位嘉宾的观点分享(经编辑):

社媒平台上的AI内容,比你想象中更多

36氪品牌主理人:在社媒营销领域,各位有关注到哪些与AI相关的应用和趋势变化?

董浩宇:两个月前我在闭门会上分享过当时已经有大概50%的MCN机构在用AI生产内容,之前大家更关注的是你有没有用AI。现在行业里讨论更多的如何用好数据,把过往积累的达人粉丝、回购等数据等更好地应用在AI 内容生产中,如今在一些大的MCN机构中,用AI生成内容的占比已经从50%上升到更高。

整体来看,AI在社媒营销领域的应用可以概括出三个维度:

一是在时间和效率层面的提高上,批量化生产和企业定制化的小模型在逐步增多,我调研的一些大型MCN企业已经在大模型框架下研究如何定制与优化归于它自己的小模型;

二是内容的多账号生产、多样性校验和内容批量化分发的AI驱动的创意与传播新生态模式已经开启;

三是人工智能内容生产和数据的结合,已经应用到品牌创意传播管理的层面,即 AI生成内容之后进入投放周期,再根据投放效果优化下一轮AI内容的创意生产,在这样一个闭环中AI的主导作用在增强。

再补充一个有趣的发现,近期我和一家MCN做了一个数据维度的测试,同样主题的内容我们分别让AI和人工来生产然后进行投放,在算法逻辑的维度,人工生产的内容和AI生成的内容相比在逐步落后,第二在转化效果维度,即媒介投放后链路真金白银的购买上,我们发现AI生成内容的效果也在逐步提升。

任一:董老师刚提到的将数据和AI生成结合的第三种趋势,非常符合奥创光年目前整体的一个服务模式,我们把它叫AI全链路营销。简单来说就是从市场策略洞察到内容生产、分发投放,再到用投流、回流以后的效果数据持续优化我们的模型,给客户提供一站式的全链路解决方案。因为它是一个动态调优的过程,所以投放时间越久结果就会越好。

举个例子,我们服务过一个国际美妆品牌,它们本身的画面调性、内容点都很好,也符合平台的调性,但ROI 或者前端CPE这些数据一直上不来。通过AI的策略洞察我们发现,它的竞品包括行业里大家在展示防晒品的时候,会尽可能地降低画面里的油腻感,但它们的防晒产品在视频里就显得很厚重,通过AI对画面的分析我们知道问题出在哪,视频内容怎么调整,后面整个ROI包括 CPE就都上来了。

以上是决策式AI通过洞察分析能够给到的一些结论,比如你的视频应该是什么样的情感调性?画面语言的卖点是什么?形成既标准同时又多元化的模版,这是视频生成的基础条件。接下来第二步就是我们今天重点在讨论的生成式AI。

奥创有两个比较核心的能力点,一是用AI做10到100批量化的内容生产。比如我们为某国内一线电商平台一天生产10万条视频素材,这个层面更多是代替重复类工作,在决策式AI洞察并形成模版的基础之上,结合已有的品牌素材或者电商素材生成原创性不低于人的新视频,它的投放效果一般会比过往效果更好,在一项代理合作测试中,我们的视频在抖音的跑出率是该机构原视频的两倍。

另一种更偏创意类0-1的视频生产,比如我们和某新消费雪糕品牌合作过一个风格化广告片,包含大量的视频特效,我们用的是video to video的形式去生成,整个广告片的质感和效果非常好,但制作周期只用了三四天。还有一块是我们文生商品视频技术,给到我们一个商品之后,我们可以通过AI结合3D建模把产品应用到不同场景、组成类似广告片的内容。

基于以上,我们还有一个可以管理所有物料素材和图文视频的系统,方便品牌在一个系统里对过往内容做重复利用。此外,所有分发出去的新内容也是模型训练的一部分,投放结果会再影响后续的内容策略,形成一个完整的全链路营销。

谭北平:品牌营销人非常善于学习新概念、使用新工具,我相信很多从业者应该都已经尝试或者正在用AI协助工作,我能看到的一些变化是什么?第一,社媒营销不止内容生成这一部分,而是要往前走一步,把内容之外的需求、调性都分析清楚;第二,要把自己独特的数据和资源放进模型,才能生成差异化的内容。

广告主都很焦虑,现在有一个词叫AI平权,工具面前人人平等,但实际上企业追求的并不是平等而是竞争优势。AI时代怎么获得竞争优势,具体到社媒营销这个层面企业一定要从内容生产端向前延伸,洞察消费者心理、洞察新趋势。当然除了生成内容之外,今天我们讲多模态,包括数字人直播等形式也在进一步加速AI在社媒领域的应用。

除此之外,行业内包括我们自己也在探索一件事:通过AI帮助中国品牌更好地出海。本地化运营一直是品牌出海的难点,让AI学习海外市场与消费者的特征与行为习惯,直接生成更本土化的内容,让产品研发更适配海外市场需求,服务当地客户,我觉得这也是大家未来都会探索的一个方向。

任一:非常认同谭老师这个观点。中国在短视频领域的营销应该是领先世界的,包括我们的算法逻辑也非常先进,现在大家更多讨论的是怎么把中国这套系统和模式放到全球体系内运行,而在全球化的竞争中,AI的渗透作用会更强。

36氪品牌主理人:能感受到这一轮技术爆发让大部分行业内的人都比较兴奋,感觉机会又来了。因为这两年品牌的日子大多不太好过,现阶段他们做社媒营销主要面临哪些痛点?

董浩宇:我们在过去五六年经历了从流量增速红利时代,到「留量」时代,进而进入到精准营销时代这样一个过程。现在很多品牌方都在讲「我如何把精准的内容投放给精准的消费者,最终带来产品转化和整个品牌好感度的提升」,这是他们最关注的问题。

它的痛点在于「算法窘境」这四个字。无论是小红书、抖音、快手还是其他一些社媒平台,现在基本是用算法逻辑去判定内容,然后推荐给对应的人群,所以只有获得的推荐够多,才能带来好的品牌曝光以及转评赞、转化等数据,这就变成了算法窘境,大家在这个窘境中不断挣扎,为了要完成KPI中的各种数据和转化,过去做10条内容如今可能要做100条内容才有一条能爆,为了流量与转化而去迎合算法。

AI生产内容的时代,可以用数据去推演平台、社媒的算法,然后不断进行内容优化,也许就可以让品牌从算法窘境中走出来。所以现在有一个说法是用AI算法打败算法、判定算法,最后让算法去帮品牌赢得消费者。

谭北平:除了算法窘境,另一个我想强调的是内容衰减的问题。今天我们社媒平台里的内容分发是由算法决定的,这个过程中内容的消耗是一个巨大的问题,你的内容可能只会被一小部分人看到。

过去一个广告片可以反复播放很多遍,强化记忆效果,但在社媒平台上内容重复是大忌,还没迈出门槛就会被算法挡住,挡住之后就没有在消费者面前出现的机会了。所以算法其实在加速内容的消耗。

社媒需要大量的内容投放,过去内容生产力是一个问题,现在AIGC能够解决这个困境。今天的社媒还有一个痛点是内容生产的尺度把控,卡太严内容很难做,卡太松可能对品牌有损耗,所以内容策略该怎么做?需要把品牌进一步故事化、生活化、场景化,这背后也反映了marketing在从广告思维向社媒思维转变。

任一:很同意董老师的观点。其实现在各平台的算法都是黑盒,每个平台的黑盒还不一样,所以品牌方制作的视频到底能获得什么样的流量?你都是不确定的。

我之前做品牌市场的时候,可能三个月做一支广告片,然后通过OTV这种投放就能完成整个季度目标,这是过去市场部的运营模式。但现在的营销逻辑是每天都需要生产大量的内容,给到不同消费者,平台的竞争逻辑是鼓励创意,但算法和分发也更偏向于日抛型,这就不仅是算法窘境,也是从业人员精力的窘境、是管理者的决策窘境。

十几二十个视频内容拿过来到底哪一条能跑出来?市场部也很难给到执行人员非常明确的决策,这就导致现在有大量重复的工作,生产了大量达不到效果的内容。

一方面受制于平台算法不得不做,一方面人工生产力和决策力存在局限性,这两块都比较难。

社媒营销我把它分为两种类型。第一种以信息流这类效果广告为代表,我能知道自己投进去的钱换回多少流量、多少用户,但现阶段的瓶颈是当你优化到一个数值的时候就很难再获得流量。第二种是种草的逻辑,可能有一部分CPE焦虑,比如怎么把视频的互动量做高,但更焦虑的点其实是CPE上去了销量没上去,这两者的关联很难做到。你的视频曝光非常好,但没有销量转化,就很难衡量这些钱花出去带来了什么直接结果。

这样一对比好像还不如直接去做信息流,这也会导致大家不愿意做创意和创新。以上是品牌方比较核心的几个焦虑点。

36氪品牌主理人:以奥创的产品为例,有可能针对性地去解决以上哪些痛点?

任一:举个例子,某个产品它的受众里既有小镇青年也有退休妈妈,那针对这两个群体的卖点、生成的内容包括使用的场景可能都是不同的。

我们的产品能从洞察开始就把这个层次分解出来,然后根据不同的人群的痛点生产批量化的内容。过去品牌的视频量可能最多几百个,也很难针对各个人群精准地输出不同卖点,奥创的能力就可以针对性地解决这个问题,更好地优化投放结果。

刚才大家有提到用算法对抗算法,因为当我们不断用大量视频去尝试就会发现其中哪些视频的跑量率更高,就能找到更匹配算法的解法。当然媒体平台的算法逻辑也在迭代,我们就需要不断地生成内容去持续地反馈调优。

36氪品牌主理人:现阶段还有哪些比较成功的AI实践案例?

董浩宇:快消品牌通过AIGC生产社媒内容已经比较多了。曾经我在伊利的时候有一个项目叫「未来牛奶」,现在它们充分用AI不断做产品包装创新,在社媒上抛出海报号召用户参与,让消费者成为AI共创新品反馈的一环,然后快速上市。

过去的选品逻辑是品牌方要自己说这是一个新品,想办法让消费者种草、买单。现在利用AI工具的便捷性实现内容的参与和共创,根据反馈做创新是非常有趣的,消费者也更愿意为其买单,这是一个很好的闭环逻辑。

我的上一家公司美的,现在很多社媒内容也开始用机器生成,比如将节气和时下热点事件结合,社交媒体内容的实效性能够被充分体现。过去一张海报的制作周期两三天,现在几个小时就能完成从创意生成到审核反馈的过程。

谭北平:我们服务的很多品牌,过去他们的直播话术都比较简单、重复,我们就帮助品牌方提炼产品特性,结合热点和时效,通过AI完善了很多辅助话术。当然最终选择权在主播个人,我们提供的是更多的角度和素材去帮他优化直播效果。

这个过程是,我们先通过AI洞察找到产品在不同场景中的卖点和故事性,针对不同人群和痛点生成大量故事线,KOL可以找到最契合他特性的内容,整体提高内容生产的效率和个性化。这里你看不到AI的痕迹,因为技术是藏在营销后面、帮助品牌和主播提高效率的。

把营销创新预算的26.9%留给AI

36氪品牌主理人:一个确定性趋势是随着技术的发展,工具的使用门槛会进一步降低,未来大家都模型化、批量化使用AI内容生成,品牌个性化表达如何实现?尤其是和竞品之间的内容壁垒如何构建?

任一:大模型更多解决的是通用问题,具体到不同的领域现在有很多垂直模型,它能进一步学习行业或者品牌数据。比如我们服务过某国际知名可乐品牌,通过学习它过往的文案、广告片等数据,让机器理解它的语言,就能生成符合品牌逻辑和调性的内容。

公司可以部署这种私有化模型,品牌投放的内容越多,在平台里跑出的数据就越多,只要合作程度足够深,模型也会越来越个性化。

董浩宇:我现在接触的一些大品牌,比如某国际顶级的快消品牌和顶级的餐饮品牌,都在自建自己品牌的小模型。把品牌的定位、产品包括人群的数据、过往的创意内容都给到模型去训练,确保调性的一致。

和这些CMO交流的时候,我问你们为什么要这么做?他们讲到一个知识体系传承的问题。从这个维度来看未来人工智能就能够把控品牌与内容的调性。

回到任总刚提到的问题,现在大量的生成内容可能都来不及审核,未来可能就需要靠品牌小模型去设定算法审核的机制,70分的内容可以直接投放,当然每个品牌还是需要10%的精品内容需要靠人的创意实现。

谭北平:内容的模版化其实分两种,比如多巴胺营销、特种兵旅游很火,品牌内容往热点和社会情绪上去靠很正常,甚至要比谁的速度更快、做得更好。另一种是品牌自己的模版,当消费者看到某个场景、元素、某种表达方式或者VI就知道这是哪个品牌,这是品牌应该追求的状态。

品牌个性化模版+衍生的内容创意,这是品牌的长期资产。所以我认为模版化是好事,但一定是自己的模版化。

36氪品牌主理人:各位都有提到小模型、私有化部署,国内明确在做这件事的品牌好像没那么多,有哪些顾虑点?

谭北平:大企业束缚太多,数据隐私、合规和安全是现在它们更关注的点。小品牌其实可以更大胆一点,因为小品牌跑得快,就不要瞻前顾后,这是一个快速追赶的机会。

任一:这里其实有一个责任问题,因为AI也会犯错,当内容生成量足够大的时候靠人工审核把控是很难的,如果画面调性不符、出现违禁词,谁来承担这个责任?所以不止在技术层面,也要考虑责任划定的问题、立法的问题,每一个环节都要完善。

谭北平:相比自动驾驶这类零容错率的领域,营销行业其实还好,我认为可以大胆一点尝试,允许AI犯错。

董浩宇:要有容错机制。很多大品牌方比如可口可乐,就是70、20、10的原则,10%的营销预算是可以去犯错的。这部分钱就是用来去尝试和创新的,品牌要愿意承担失败的风险,因为一旦成功回报可能超过百分之几百。

品牌方现阶段最关心两个问题,一是版权,二是法律,这部分现在已经逐步有解决方案去完善了。我认同谭老师提到的,在创新的过程中品牌方可以大胆一点,当然前提是这个失败要在可控风险范围之内。

36氪品牌主理人:总结大家提到的几个关键点,一是要允许试错,二是胆子要大一点,尤其是中小品牌,所以这是一个更容易跑出来、或者进一步拉开差距的机会?

董浩宇:做到「三个垂直」的中小品牌在AI时代更有机会。第一是心智垂直,它的产品心智、品牌心智和特定消费者能够垂直共融;第二是产品垂直,它的产品属性和消费者的需求融合;第三是渠道垂直,不需要大而全的泛化,一个阶段内专注做好小红书或者抖音等某一个垂直渠道。

做好三个垂直,中小品牌完全有机会跑出来,然后再把优势扩大到全域营销。当然大品牌的优势在于它的资源、数据,以及能够用更敏捷的方式孵化体系内的创业团队,去进行阶段性创新。人工智能是算法均权的时代,大家各有优势。

任一 :国际化公司和大企业对AI的拥抱程度非常高,刚才提到的伊利,据我们了解它可能有100多人的团队去做AI的模型训练,投入非常高。

为什么看好大企业在这一轮的发展?首先头部公司在资源能力上是有抢跑优势的,第二模型训练的核心要素是数据、算力和模型,很多中小企业存在一个问题是很多资产还没有数字化,这点非常关键。

所以人工智能时代带来最主要的两个提升,一是在营销的精准度层面,因为有历史数据化的模型、广告内容等资源沉淀,这一定是更利好大型企业做更精准的投放和内容生成,它的模型也会更精准。二是带来生产效率的提升,这一点对中小企业更友好,过去可能市场部总共两三个人,未来AI可以帮助解决生产力的问题。

36氪品牌主理人:有品牌方关注现阶段AI的收费问题,目前品牌合作或者部署私有化的成本大概在什么水平?

任一:奥创目前更多服务大品牌客户,以定制化需求为主,这类按项目制收费,比如我们给品牌提供一个技术方案以及模型算法的训练等。

AI内容生产可以按生产的模式做相关的收费,它一定比人工成本低,可能行业里普遍三、四百块一条视频,在内容收费端里就几十块。还有另外一块是很多客户会合作全链路营销的服务,从洞察到制作到投放,当ROI超过一个数字的时候,超过的部分也可以跟品牌做结算。

谭北平:如果你是本身具备一定技术能力的公司,可以用一些开源模型,它基本不收费,可能会有少量的商业license费用但是也非常低,比过去真的要便宜太多了。

董浩宇:品牌方关心这个问题有可能是因为马上又要做预算了,到底是留100万还是200万做 AIGC呢?

给大家一个参考,你营销创新预算的26. 9%,明年可能是要留给人工智能的,这是International Data Corporation针对美国上百个企业CMO做的一个调查统计结果。

我个人建议你明年如果有1000万营销创新的预算,可能要留269万做AI。就像谭老师刚也提到的,如果它是一个通用大模型,品牌现在就可以先用起来了。和老板去讲一下,申请一部分预算开启你在AI营销上的创新,我的团队找我的话,我之前批起来也是很快的。

人工智能时代的企业转型,CMO可以做主导

36氪品牌主理人:听下来在当下的营销领域,数据、计算和科学性的比重越来越大,创造力和感性的部分还有多大价值?

董浩宇:我自己是个营销人,我觉得营销最重要的还是创意,在学术理论中,它展现的是其实两种能力:一种叫结合能力,即如何将已有信息、元素像拼图一样组成一个全新的概念;另一个是扩散思维与聚焦思维,比如我们过去一直在做的脑暴。

在扩散思维的部分,AI可以形成辅助,但在聚焦思维的部分,对广告营销人的挑战会变得更大,因为你的选项太多了。其实并不是有了AI对创意人的需求减弱了,而是对批判性思维和独特见解、聚焦思维的能力要求更高了。

谭北平:创造力、创意和情绪都可以被量化,并且可以通过AI技术实现标准化生产,从而提升营销效率和效果。其中人的个性、需求和情绪都可以被科学方法量化,这与过去的大五人格理论(big-five theory of personality)类似。

现在随着AI技术的发展,这些量化的数据可以被用于提升创造力和生产效率,从而实现更精准的营销。这是我们营销科学对于这件事情的理解,我认为万物都是可以用科学的方式来工作的。

任一:其实可以观察到两个现象,第一在媒体端信息大爆炸的时代,创意其实更难出圈,这是时代趋势;第二作为一个市场营销人,从KPI的角度来看,其实是你的老板对营销科学的部分更感兴趣。

比如我投了100万信息流广告,要明确到底能带来多少新用户,衡量工作结果,才能达到老板的需求。过去我们做TVC、创意广告,可能投了200万下去一个水花都没有,很难计算其为公司带来的收益,价值就不容易被认可。

所以从汇报包括整个市场体系搭建的现实情况来看,科学的部分会越来越多地占据我们的核心工作时间,企业的数据化资产沉淀也会更多,形成越来越多体系化的方法论。当然我不会觉得创意不重要,创意还是未来营销中的一个重要环节。

36氪品牌主理人:既要保持创造力,又要拿出可量化的数据结果验证工作价值,挑战还是挺大的。有没有一些建议可以给到团队和从业者。

谭北平:上一轮元宇宙的时候大家都还有点懵,但人工智能已经是确定性方向了。最早我们做洞察的时候,数据表格都是手画的,后来有了Excel,今天有了AI。率先去掌握它,未来比的就是谁用得更好。

任一:我们认为人工智能在市场营销端更像一个Copilot的角色,帮助从业人员制作更好的内容,但替代不了你的策略能力。什么是策略能力?比如我今年的目标是800万增长,具体到市场策略要通过什么样的方式去完成,这是由人决定的部分。

董浩宇:我在品牌方工作很多年,过去品牌喜欢brief agency去干活,但现在你还brief agency可能都赶不上AI可以为你赋能的这个阶段了,品牌方也要会用模型、会用工具,同时保持自己的批判性思维能力。

我觉得营销人要向前走一步。过去我们marketer一直在整个决策链路的中后端,一个产品已经定品了、价格确定了,营销的同学你去给它种草、卖好,但是它的前端已经被定制化了,你的影响力是弱的。

人工智能时代来了,营销人反而是第一个冲上去拥抱的。过去企业做数字化转型阶段,主力军是IT部门,是CTO、CIO们,在人工智能时代,主力其实是CMO们。有了人工智能的辅助,我们是不是可以在选品的阶段、甚至产品创意的早期就介入?这时候营销人就从中后端走向了前端,再走到最后销售的环节形成闭环。

别产品卖不好的时候,就说是marketing 没做好,对吧?

所以当你掌握了AI,并且能够将AI工具和数据结合在一起,你就是这个品牌组织里最有能力的核心部门。我们可以跟老板要钱、要资源,保底先干起来,营销人一定要抓住这个时机。数字化时代有的是CTO做主导、有的是CMO做主导,我认为现在AI时代必须是营销人做主导,属于我们的时代来了。

任一:接着补充一点,我们前面讨论的更多偏向于怎么在现有工作流里去做效率的优化,但董老师讲的其实是C2M的反向定制模式。

每家企业都有两条供应链,一条是内容供应链,一条是产品供应链。过去内容供应链端受限于实际的生产力和成本,没办法做这样的反向定制,比如先在用户端用内容做产品或者卖点的测试,然后反馈到产品研发端推动生产。

刚刚董老师分享伊利的案例,就特别像一个反向定制。当内容生产成本足够低,我们完全可以在产品出来之前,先去做卖点测试,根据用户反馈思考哪些卖点需要调整,反向推动产品定制,这就完全可以改变整个供应链生产的形式。所以董老师刚刚分享的这一点,非常贴合未来整体的发展方向。

36氪品牌主理人:当营销进入人机协作时代,大家有什么畅想或者期待吗?

任一:在未来的市场部里,Copilot会帮我们完成所有执行的工作,人可以聚焦在创意和策划,给公司做更有品牌调性、更爆款的东西,让大家可以专注在更核心的创意类工作,这是我们希望能够实现的状态。

董浩宇:我希望AI能够帮助我们创造更多的品牌价值、然后是商业价值,最后要落到社会价值的实现。我希望企业能够把由AI产出的价值回馈给到这个社会,承担足够的社会责任感,让更多普通人也受益。这个责任其实在我们肩上很重,所以我希望营销人能够努力先把商业价值和品牌价值实现,然后再用它创造的价值去反哺社会。

谭北平:我看到了更多中国人的机会,过去我们讲品牌的国际化,虽然我们有很强的制造力,但营销能力是一个短板。随着我们积极拥抱AI,未来会涌现一批中国品牌建设和全球化的浪潮,塑造更多全球品牌,这是我们行业和所有品牌人的新机会。

本文由「阿至」原创出品

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

Nature最新封面:AI战胜了人类世界冠军,创下最快无人机竞速记录

人工智能(AI)再次战胜了人类冠军。

这一次,是在无人机竞速领域。

来自苏黎世大学机器人与感知研究组(Robotics and Perception Group)的 Elia Kaufmann 博士团队及其英特尔团队联合设计了一种自动驾驶系统——Swift,该系统驾驶无人机的能力可在一对一冠军赛中战胜人类对手。

这一重磅研究成果,刚刚以封面文章的形式发表在了最新一期的 Nature 杂志上。

图|最新一期 Nature 封面。(来源:Nature

在一篇同期发表在 Nature 上的新闻与观点文章中,荷兰代尔夫特理工大学的研究院 Guido de Croon 教授写道,“Kaufmann 等人的研究是机器人学家克服现实差距的一个很好的案例。尽管 Swift 使用 AI 学习技术和传统工程算法的巧妙组合进行训练,但该系统应该在一个更真实多变的环境中进一步开发,从而充分释放这项技术的潜力。”

尽管如此,研究团队表示,该研究标志着移动机器人学和机器智能的一个里程碑,或可启发在其他物理系统中部署基于混合学习的解决方案,如自动驾驶的地面车辆、飞行器和个人机器人。

融合 AI 与工程算法的智能训练

当前,基于深度强化学习的人工智能(AI)系统在雅达利(Atari)游戏、国际象棋、《星际争霸》和 GT 赛车(Gran Turismo)等游戏中已经超越了人类冠军。然而,这些成就全部发生在虚拟环境中,而非真实世界中。

无人机竞速对经验飞行员和 AI 都具挑战,但 AI 而言,更具挑战性。因为在虚拟环境中,资源几乎是无限的,而转向现实世界意味着必须使用有限的资源。对于无人机来说,情况尤为如此,因为取代人类飞行员的传感器和计算设备必须被搭载到空中。

另外,现实世界比虚拟世界更加不可预测。虽然模拟的比赛无人机可以按照预先编程的轨迹完美地行驶,但对一个无人机发出的单一指令可能产生多种效果,影响难以预测,对于通过 AI 训练的无人机尤为复杂。

传统的端到端学习方法难以将虚拟环境的映射转移到现实世界,虚拟和现实两者之间存在着现实差距,而现实差距构成了机器人领域中主要的挑战之一。

在该研究中,Swift 系统通过将 AI 学习技术与传统工程算法融合,实现了智能训练。首先,该系统通过人工神经网络处理无人机从相机中获取的图像,从而精准地检测到门的角落。然后,利用双目视觉软件用来计算无人机的速度。

Swift 系统的创新之处在于另一个人工神经网络,将无人机的状态映射到调整推力和旋转速率的命令。利用强化学习,通过模拟中的试错过程来优化从环境中获得的奖励。在这个算法中,该系统采用了强化学习,而非端到端学习,从而可以通过抽象概念来弥合现实与模拟之间的差距。

由于状态编码的抽象层次高于原始图像,强化学习模拟器不再需要复杂的视觉环境。这一优化减少了模拟系统与真实系统之间的差异,提升了模拟速度,使得系统能够在大约 50 分钟内完成学习。

据论文描述,Swift 由两个关键模块组成:observation policy 和 control policy。其中,observation policy 由一个视觉惯性估计器和一个门检测器组成,可以将高维视觉和惯性信息转化为任务特定的低维编码;control policy 由一个两层感知器表示,可以接受低维编码,并将其转化为无人机指令。

超越人类飞行员的速度和性能

此次比赛的赛道是由一位外部世界级 FPV(第一人称主视角)飞行员设计的。赛道包括七个正方形的门,排列在一个 30×30×8 米的空间内,组成了一圈长达 75 米的赛道。

此外,该赛道具有特色鲜明且具有挑战性的机动动作,包括 Split-S 等。即使发生碰撞,只要飞行器能够继续飞行,飞行员依旧可以继续比赛。如果发生碰撞且两架无人机均无法完成赛道,距离更远的无人机获胜。

Swift 与 Alex Vanover(2019 年无人机竞赛联盟世界冠军)、Thomas Bitmatta(2019 年 MultiGP 冠军)和 Marvin Schaepper(3X Swiss 冠军)等人进行了多场比赛。

其中,Swift 在与 A. Vanover 的 9 场比赛中赢得了 5 场,在与 T. Bitmatta 的 7 场比赛中赢得了 4 场,在与 M. Schaepper 的 9 场比赛中赢得了 6 场。

另外,Swift 共有 10 次失利,其中 40% 因与对手碰撞,40% 因与门碰撞,20% 因比人类飞行员飞行较慢。

总体而言,Swift 在与每位人类飞行员的大多数比赛中取得了胜利。另外,Swift 还创下了最快的比赛时间记录,比人类飞行员 A. Vanover 的最佳成绩快了半秒钟。

从数据分析中可以看出,Swift 在整体上比所有人类飞行员都要快,尤其在起飞和紧急转弯等关键部分表现更为出色。Swift 的起飞反应时间更短,平均比人类飞行员提前 120 毫秒。而且,Swift 的加速度更大,在第一个门处达到更高的速度。

此外,Swift 在急转弯时表现出更紧密的机动动作,这可能是因为它在较长时间尺度上优化了轨迹。与此相反,人类飞行员更倾向于在较短时间尺度内规划动作,最多考虑到未来一个门的位置。


此外,Swift 在整体赛道上实现了最高的平均速度,找到了最短的比赛线路,并成功地将飞行器保持在极限附近飞行。在时间试验中,Swift 与人类冠军进行比较,自主无人机表现出更加一致的圈速,平均值和方差都较低,而人类飞行员的表现则更加因个体情况而异,平均值和方差较高。

综合分析表明,自主无人机 Swift 在比赛中展现出了出色的性能,不仅在速度上表现优越,还在飞行策略上具备独特的特点,使其能够在整个比赛中保持高水平的表现。

不只是无人机竞速

这项研究探索了基于来自物理环境的嘈杂和不完整传感输入的自主无人机竞速,展示了一个自主物理系统在竞速中取得了冠军级的表现,有时甚至可以超越人类世界冠军,突显了机器人在受欢迎体育项目中达到世界冠军级表现的重要意义,为机器人技术和智能取得了重要里程碑。

然而,与人类飞行员相比,研究中的系统并未经过撞击后的恢复训练。这限制了系统在撞击后继续飞行的能力,而人类飞行员可以在硬件损坏的情况下继续竞赛。

另外,与人类飞行员相比,Swift 系统对环境变化的适应能力较弱,使用的相机刷新率较低;尽管该方法在自主无人机竞速中表现优异,但其在其他现实系统和环境中的泛化能力尚未充分探究。


显然,Kaufmann 及其团队的成就不仅仅局限于无人机竞速领域,这项技术或许可能会在军事应用中找到用武之地
。而且,他们的技术可使无人机更平稳、更快速、更长程,有助于机器人在驾驶、清洁、检查等领域更有效地利用有限的资源。

但要实现这些目标,研究团队依然需要解决诸多挑战。正如 Croon 在评论文章中所说,“为了在任何竞赛环境中都能打败人类飞行员,该系统必须能应对外部干扰,如风,光照条件变化,定义不太清晰的各种门,其他竞速无人机和许多其他因素。”

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌AI芯片“火力全开”大升级,推出第五代AI芯片:瞄准大模型和生成式AI

当地时间29日,谷歌举办了Google Cloud Next 2023大会,宣布了20多款从产品更新。

推出了全新的 TPU 产品 ——Cloud TPU v5e,它是 AI 优化的基础设施产品组合,并将成为迄今为止最具成本效益、多功能且可扩展的云 TPU。

TPU v4性能确实卓越,但是AI芯片向来竞争激烈,而且人工智能技术本身有很多的不确定性和风险。未来,谷歌是否能够保持其在人工智能硬件领域的领先地位,还有待观察。

谷歌首次公布了其用于训练人工智能模型的AI芯片TPU v4的详细信息,并称比英伟达系统更快、更高效——与同等规模的系统相比,谷歌超级计算机比基于英伟达A100芯片的系统最高快1.7倍,节能效率提高1.9倍。

据科技媒体TechCrunch报道,谷歌云计算和机器学习基础设施副总裁兼总经理马克·洛迈尔(Mark Lohmeyer) 表示,“这是迄今为止最具成本效益且易于访问的云TPU。” 洛迈尔强调,谷歌云确保用户能够将其TPU集群扩展到以前无法达到的水平,让客户能够轻松扩展他们的人工智能模型,超越单个TPU集群的物理边界。也就是说,单个大型人工智能工作负载可以跨越多个物理TPU集群,扩展到数万个芯片,并且经济高效。“在云GPU和云TPU方面,我们为客户提供了很多选择和灵活性,以满足我们看到的人工智能工作负载的广泛需求。”

随着谷歌云不断升级 AI 基础设施,越来越多的客户将选择使用谷歌云服务。据此前谷歌母公司 Aplabet 的介绍,超过半数的生成式 AI 初创公司正在使用谷歌的云计算平台。

对于谷歌而言,此次 Cloud TPU v5e 拉开了进一步变革产品模式、赋能云客户的序幕。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

谷歌推出 AlloyDB AI可创建生成式 AI 应用

DoNews8月31日消息,谷歌北京时间 8 月 31 日发布新闻稿,宣布推出 AlloyDB AI 服务,进一步扩充现有 AlloyDB 服务的功能,主要帮助开发者充分利用运营数据,创建生成式 AI 应用程序。

AlloyDB 是兼容 PostgreSQL(开源数据库)的全代管式数据库服务,可以自动执行备份、复制、修补和容量管理等管理任务,并使用自适应算法和机器学习技术进行 PostgreSQL 真空管理、存储和内存管理、数据分层和分析加速,方便开发者专注于构建应用。

本次引入的 AlloyDB AI,允许开发者结合大语言模型的功能和实时操作数据,为向量嵌入提供全面支持。AlloyDB AI 使用简单的 SQL 函数将数据转换为向量嵌入,并且它可以执行向量查询,速度比标准 PostgreSQL 快十倍。

AlloyDB AI 让用户能够以简单的 PostgreSQL 函式,对数据生成嵌入,官方强调,只需要一行 SQL 语法,便可以访问 Google 的嵌入模型,比如数据库内的嵌入生成模型,或者 Vertex AI 的各种最后一个模型。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

ChatGPT集体诉讼案最新进展:OpenAI否认侵犯著作权指控

知产财经从海外媒体路透社获悉,近日,OpenAI公司要求旧金山联邦法院驳回包括喜剧演员Sarah Silverman在内的作者提出的两起诉讼的部分内容,此前这些作者指控该公司侵犯了他们的版权。

本周一, OpenAI公司针对诉讼中所谓的“附属”(ancillary)主张,向法院表示,ChatGPT创建的文本并没有侵犯作者的著作权。OpenAI公司还否认了这些作者的核心指控,即使用他们的书籍训练ChatGPT侵犯了他们的版权,但OpenAI公司没有要求法院驳回这些指控。

OpenAI公司的代表和作者没有立即回应置评请求。今年夏季早些时候,两个独立的作者团体对OpenAI公司提起了集体诉讼,指控它非法将他们的书籍纳入用于训练ChatGPT对人类文本提示做出反应的数据集中。喜剧演员Silverman的组织还对Meta Platforms提起了相关的诉讼。其他一些公司也对谷歌、微软和 Stability AI 等公司的人工智能训练提起了类似诉讼。

OpenAI公司周一回应了这些作者的指控,即ChatGPT生成的文本构成了他们书籍的“衍生作品”,间接侵犯了他们的版权。该公司表示,作者未能证明ChatGPT的输出内容与他们的作品足够相似,因此无法证明其侵犯版权。

OpenAI公司还要求法院驳回作者们根据州法律和“数字千禧年版权法”(Digital Millennium Copyright Act)提出的相关索赔。

这些案件分别是Tremblay诉OpenAI Inc,美国加利福尼亚州北区地方法院,编号为3:23-cv-03223号和Silverman诉OpenAI Inc,美国加州北区地方法院,编号为3:23-cv-03416号。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

8家AI大模型产品今日起陆续上线,腾讯华为讯飞等后续开放

今日消息,百度、字节跳动、商汤、中科院旗下紫东太初、百川智能、智谱华章等8家企业/机构的大模型产品已经首批通过《生成式人工智能服务管理暂行办法》备案,可正式上线面向公众提供服务。

而据贝壳财经报道,从多位独立信源处获悉,国内将有11家大模型陆续通过《生成式人工智能服务管理暂行办法》备案,首批将在8月31日起将陆续向全社会公众开放服务。其中北京5家,上海3家率先上线,广东省2家和其他省市1家也将陆续开放。据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。

具体的首批通过备案的大模型公司如下:五家北京企业机构:百度(文心一言)、抖音(云雀大模型)、智谱AI(GLM大模型)、中科院(紫东太初大模型)、百川智能(百川大模型)三家上海企业机构:商汤(日日新大模型)、MiniMax(ABAB大模型)、上海人工智能实验室(书生通用大模型)但是据报道称,阿里通义千问、360 智脑不在首批获批名单中。而在此前,据相关媒体介绍,在 2023 世界人工智能大会(WAIC 2023)上,国家标准委指导的国家人工智能标准化总体组宣布我国首个大模型标准化专题组组长,由上海人工智能实验室与百度、华为、阿里、360 集团等企业联合担任,现场进行了证书颁发并启动大模型测试国家标准制订。

与此同时,大模型专题组组长、副组长申报条件也一起公布了。

  1. 由总体组成员单位推荐单位内部大模型领域专家进行申报,申报人需具有中华人民共和国国籍,政治思想素质较高,遵纪守法,具有良好的科学道德、诚信记录、职业操守和较强的责任心。
  2. 在大模型理论研究和产业应用等方面具有较高专业水平,熟悉该领域国际前沿科技发展态势、法规制度与标准规范等。牵头起草过国际、国家或行业标准,具有在主要国际组织或标委会中有大模型标准化相关工作经验的优先。
  3. 原则上不超过 65 周岁,具有能够适应和完成相关工作的身体条件。

百度、华为、阿里、360目前都在AI大模型方面有所建树,包括百度文心一言、华为盘古、阿里通义千问、360智脑大模型等,标准化制定将推动AI大模型进一步发展。目前来看,国内已经有多款产品正式发布启用,后续还会有不少的产品跟进,标准化的专题组也正式组建,感兴趣的小伙伴可以保持关注。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

雅虎推出人工智能电子邮件助手,可与 Gmail 配合使用

雅虎的新人工智能助手可以通过快速问答会话取代原先繁琐的收件箱搜索功能。

无需搜索发件人姓名或文本字符就能找到一封告诉你欠费多少或下一班飞机何时起飞的电子邮件,人工智能增强过的搜索框可让你在自动填写框的帮助下提出明确的问题。

“之前当我尝试用电子邮件进行搜索时,基本已经把自己训练得像机器一样说话了,”雅虎邮件高级副总裁兼总经理 Josh Jacobson 说:“有了LLMs,我们反而可以让机器根据人们自然说话的方式做出反应。”

在演示中,该工具帮助 Jacobson 询问信用卡账单金额或预定航班等详细信息,答案会与搜索到的相关电子邮件一并弹出。

这款助手是周一推出的整套人工智能工具的一部分,作为雅虎邮箱用户的可选测试版,包括那些使用雅虎平台访问谷歌或微软等其他提供商电子邮件的用户。这些功能可能对那些主要使用电子邮件购物的人来说特别有吸引力。它遵循了雅虎之前的产品特点,可以快速显示商业电子邮件中的信息,例如礼品卡代码或跟踪号码。 

Jacobson 估计, 90% 的电子邮件来自企业或机构,这可能会给其他电子邮件提供商的用户一个重新考虑雅虎的理由。尽管网络上出现了许多由生成式人工智能支持的写作助手和组织工具,包括一些旨在帮助处理电子邮件的第三方插件,以及 Outlook 与微软 Copilot 人工智能的集成,但雅虎的插件仍然是电子邮件提供商推出的最先进的插件之一。

一项名为 Shopping Saver 的新功能旨在检测用户在网上购买商品却没有意识到自己拥有适用的礼品卡、商店积分或折扣代码的情况。在这种情况下,雅虎的人工智能将会检测到新的购买行为和未使用的节省机会,并弹出警报,建议用户向商家发送电子邮件,要求追溯使用礼品卡或折扣。如果用户同意,新的人工智能写作助手将会自动起草一份电子邮件发送给商家追回损失。

Jacobson 表示,在早期的测试版中,大约一半的此类电子邮件是成功的,尽管他表示很难知道随着越来越多的人采用该工具,这个百分比是否会发生变化。但它仍有可能节省大量资金,因为研究表明大约一半的消费者至少拥有一张未使用的礼品卡。

写作助手还可用于其他目的,根据用户的快速提示和人工智能对以前与收件人通信的扫描来起草电子邮件,以了解上下文和适当的语气。用户可以自由地建议人工智能调整语气——强调紧迫性,采取感激或道歉的态度,甚至添加表情符号,用户还可以在点击发送按钮前自己编辑草稿。

雅虎的人工智能还可以弹出现有电子邮件的快速摘要,突出显示关键信息并建议采取行动,例如将事件添加到日历中。

尽管这些工具确实需要雅虎的人工智能来解析你的电子邮件,但 Jacobson 表示,该公司会尽力确保你的邮件内容保持私密性,并强调电子邮件内容不会用于训练其他用户可以访问的人工智能模型。 

随着人工智能的进步和对用户意图理解能力的不断提高,这些工具可能会继续发展。例如,未来版本的搜索工具可能会融合来自多封邮件的信息,而目前的版本则只能根据一封邮件的内容回答问题。Jacobson 表示,即使产品在不断进步,公司仍将致力于向用户免费提供这些产品。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

聊天机器人神器,Poe导入Llama 2模型、增添Mac桌面版

知识问答网站Quora旗下的AI聊天机器人平台Poe,目标如同网络浏览器般,将所有聊天机器人整合在同一个地方。

Poe近期增添一系列新功能,包括释出macOS版App、支持日语、串接Anthropic Claude、导入Meta Llama 2模型(包括参数量700亿、130亿以及70亿的版本)等,加上原本就有的iOS、Android版以及网页版,便于用户使用。

用户可以付费订阅Poe平台服务,支付月费19.99美元或年费200美元,就能无限使用Poe平台上的聊天机器人。

不只如此,Poe也在规划新的企业版方案,以便公司统一管理平台以提供员工使用。

Poe现在允许用户与同一聊天机器人进行多次对话,透过探索页面搜寻不同的聊天机器人。Poe也是一个拥有API的聊天机器人建立平台,现在可让开发者针对提示调整不同回答样式。

Poe母公司Quora的执行长德安吉洛(Adam D’Angelo)身兼OpenAI董事,他认为聊天机器人的数量将持续增加,并希望Poe成为一个用户可以轻松找到它们的地方。

「我认为这将会有个庞大的生态系统,类似现今的网络」,德安吉洛表示,「我可以想像一个世界,大多数公司都有一个向大众提供服务的聊天机器人。」

ChatGPT等聊天机器人可为人们的工作、生活解答许多问题,帮助学习新知识和新技能,省下许多时间和精力,甚至还能创造新的娱乐和社交方式。聊天机器人势必越来越多种,透过Poe这样的平台就能一站式使用不同的聊天机器人服务。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI独角兽又要裁员了!巨亏469亿,软银亏本减持了

在各大企业纷纷招人布局生成式AI和大模型之际,国内这个AI独角兽却还在大力裁员。

近日,财新从多名商汤科技在职和离职员工处了解到,公司新一轮裁员潮到来,涉及多个部门,最快要求一周内离职。

这一消息很快在网上引起热议,要知道,就在去年,商汤科技才刚刚裁掉了2000人。

作为“AI四小龙”中最先实现上市的一家,商汤科技一直备受市场关注。但与它一度高达3000亿港元市值相对的,却是连年扩大的亏损。从2018年以来,商汤科技已累计亏损469.4亿。

今年以来,商汤科技深陷股东减持、营收下滑、裁员传闻的漩涡之中。被寄予厚望的大模型,在发布后又陷入“造假”风波,股价再次进入下行,仅仅四个月时间,市值就蒸发了730多亿港元。相较2022年初的巅峰,更是蒸发了2500多亿港元。

去年刚裁2000人

现在又要大裁员?

作为国内AI独角兽,商汤科技也曾是最靓的崽。但这个国内AI四小龙的头号选手,最近又站上风口浪尖。

据财新报道,商汤科技新一轮裁员潮到来,涉及多个部门,最快要求一周内离职。

据几名商汤科技员工表示,此次裁员幅度较大。一名智慧城市与商业事业群(SCG)员工表示,他所在的部门裁员约10%至15%;SCG下属的质量中心解散,产品质量检验的任务被分配到各组。另一名SCG员工表示,一些产品不管是否盈利,都转为维护状态,不做新版本。

一名智能产业研究院员工称,该研究院这轮按照约10%的比例裁员。此次裁员的赔偿金标准为“N (每年工龄补偿一个月工资) +2”,外加缴付9月社保,部分合同到期不续约员工及应届生,赔偿金为“N+1”。

消息传了几天,8月28日,商汤科技在发布2023年中报时,才终于做出了回应,但措辞上,和去年对“大裁员”的回应几乎一模一样。

去年9月,商汤科技就曾传出要裁员30%,赔偿N+2,部分员工内部转岗的消息。2022年上半年,商汤总员工人数接近6000人,裁员30%意味着要裁掉约1800人。

当时,商汤科技的回应也是如此平淡:公司员工总数略有增长,作为一家快速发展的科技创新企业,商汤会根据市场环境及自身状况调整组织和人才结构,以更好满足业务发展。

默认裁员的同时,却对具体裁员比例避而不答,只是表示将正常进行社招和校招。

从财报也可看出商汤近年来员工的骤减。2021年末时,商汤科技的员工总数为6114名,而到了2022年末,人数直接变成了5098人,减少了1016人,占比16.6%。这还是包括了去年新招员工后的数据,实际上被裁掉的员工人数可能更多。

去年年底,商汤科技员工的爆料也证实了这一点。有商汤员工在职场社交平台脉脉上爆料称,商汤已裁员接近2000人,裁员范围涉及北京、上海、深圳多地。


而在最新财报中,截至今年6月30日,员工人数又减少至5016人。伴随着新一轮裁员潮,有猜测认为,商汤的员工人数可能将减少到4000区间。

值得注意的是,在去年的大裁员中,有不少员工爆料其暴力裁员。去年年底,就有商汤科技员工在社交平台上爆料称,上商汤科技存在给员工绩效打NI,扣发年终奖、以背调时候恶意诋毁工作经历等方式,暴力裁员。这些举动引起部分员工的愤怒,差点引来数百名员工的集体仲裁。

5年巨亏438亿

机构早已出逃  软银亏本减持

大规模裁员背后,商汤科技业绩欠佳。

8月28日,商汤科技发布2023年上半年财报。财报显示,商汤上半年实现营收14.3亿元,同比增长1.3%;亏损31.4亿元,同比收窄2%,但依旧是营收的两倍多。同时,毛利率45.3%,同比下降了30.6%,创历史新低。

如果把时间拉长来看,商汤科技的亏损金额更是令人震惊。2018年-2022年,商汤分别亏损34.33亿元、49.68亿元、121.58亿元、171.7亿元和60.9亿元,5年累计亏损超过438亿元。

如果从减少亏损的角度,裁员也无可指摘。但在大幅度裁员后,商汤“烧钱”的状况却并没有改善。

财报显示,2022年净亏损虽然同比大幅缩窄,但销售费用和研发费用却再创新高。销售费用从上一年的6.82亿元增长至9.01亿元,研发费用从上一年的36.14亿元,增长至40.14亿元,甚至超过了当年的总营收。

连续5年的巨额亏损,也让曾经赶着砸钱的资本受不住了。

据资料显示,商汤科技上市前,共经历了12轮融资,包括软银、春华、阿里、银湖、IDG、中国国有企业结构调整基金、上海国际集团、赛领和鼎晖等,累计融资金额达到52.5亿美元,按现在汇率来算,就是380多亿人民币。

软银集团、阿里、春华资本、银湖资本、IDG分别为商汤的前五大风险投资机构股东,持股比例分别为14.88%、7.59%、3.08%、3.05%、1.42%。

好不容易等到上市,结果商汤科技不仅业绩难看,股价也拉胯。去年6月30日,限售股禁售期一到就吓崩市场,商汤科技的股价直接断崖式暴跌46.77%,跌到3港元出头。

等到限售解禁后,任泉的Star VC、IDG、阿里巴巴等商汤A至C轮的早期投资者就纷纷获利离场。其中,阿里从去年11月开始减持,第一次减持了商汤8000万股股票。今年4月又减持4000万股,6月又两次减持1.2亿股,7月6日减持5.57亿股后,阿里持股比例降至3.15%,不再是持股5%以上的大股东。

而D轮后的投资者就惨了。比如软银。据了解,软银从C+轮至D+轮,共参与了5轮融资,合计持仓成本约14.3亿美元,折合约112亿港元。到IPO前,软银集团合计持有47.31亿股,平均每股成本约为2.37港元。

从去年12月至今,软银共六次减持商汤。去年12月减持1294.8万股、今年2月减持了5000万股,今年3月两次减持2亿股,今年4月减持5000万股,7月31日又减持1490.4万股。

其中,去年12月和今年7月31日两次减持的价格分别为1.98港元和1.79港元,相较2.37港元的成本,已经是亏本减持了。最新一次减持后,软银的持股比进一步从13.04%降至12.99%。不过,仍旧是商汤的第一大风险投资机构股东。

AIGC能救商汤吗?

作为目前计算机领域最前端的科技,AI的落地一直是行业的一大难题,商汤也不例外。虽然每年营收三四十亿,但商汤却没有一个真正能拿得出手的业务。

招股书显示,商汤科技的业务,主要集中在智慧城市、智慧商业、智慧生活和智慧汽车四个领域。从营收规模来看,智慧城市和智慧商业占绝大多数。

而据最新财报显示,到2023年上半年,智慧商业占总营收的比重大大提高,提升到59.5%。商汤表示,这主要是生成式AI相关业务涌现的商机。曾经占比最大的智慧城市业务,下降到了如今的12.8%。

那么,AIGC真的救得了商汤吗?

如果说去年,商汤科技的股价和持续扩大的巨额亏损,让市场和资本开始对“AI四小龙”祛魅。那么今年,AIGC风口的爆发,商汤这回也算是妥妥站在风口上了。但事实却并没有像人们料想的那样。

4月10日,在国产大模型浪潮中,商汤科技也推出了其大模型产品——日日新SenseNova。原本也想赶上一波大模型的热度,没想到却陷入一场“造假风波”。

在发布会展示其文生图模型“秒画”时,其中一张展示图片却被发现与AI模型站civitai的图片高度相似,而被网友质疑是“造假”。


大模型的发布不仅没有在市场上砸出什么水花,反而还让商汤科技的股价,在此后开始持续下行。

截至8月30日收盘,商汤大模型发布后的四个多月里,商汤股价从最高的3.700港元跌到如今的1.510港元,跌去了近60%,市值蒸发了730多亿港元。

商汤的大模型除了PPT,也没有给外界带来真实的体验和感受。

今年以来,从百度的文心一言,到科大讯飞的星火大模型,或是直接向消费者开放,或是犹抱琵琶半遮面,只提供“内测”机会。但商汤却只将大模型开放面向政企客户的API接口。让市场无法摸清其大模型的真实水平。

最主要还是担心这是否又是一波画大饼、割韭菜的手段。

因为,在2021年底元宇宙风口爆火的时候,深耕计算机视觉的商汤,就一头扎了进去。不仅在招股书中49次提及元宇宙,上市后的第一份财报中,其对元宇宙业务寄予厚望。

2022年8月,商汤又发布了一款名为“元萝卜SenseRobot”的AI下棋机器人,还请来郭晶晶代言,却被网友吐槽“伪需求”、“门面性质的东西罢了”。

从最新的财报来看,生成式AI和大模型似乎确实给商汤带来了几分想象力,但至于能否成为商汤的救命稻草,还依然是个问号。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

OpenAI推出企业级ChatGPT,提供先进数据分析功能

OpenAI周一宣布推出企业级ChatGPT(ChatGPT Enterprise),提供企业级安全和隐私、无限量使用高速GPT-4、先进数据分析功能以及客制化选项。

OpenAI表示,ChatGPT自9个月前推出以来、迄今已获得超过八成的财富(Fortune)500大企业采用,企业级ChatGPT的早期用户(包括Block、Canva、凯雷集团、雅诗兰黛公司、普华永道、Zapier)正透过ChatGPT重新定义营运方式。

OpenAI强调,企业拥有并控制企业级ChatGPT的商业数据,OpenAI不会根据用户的商务数据或对话进行训练,OpenAI模型也不会从用户的使用情况进行学习。

企业级ChatGPT取消了所有使用上限限制且执行速度提高了两倍。

CNBC周一报导,OpenAI营运长Brad Lightcap受访时表示,企业级ChatGPT的开发时间不到一年并获得超过20家不同规模和产业企业的协助。他并且表示、不会公开企业级ChatGPT价格,具体而言需视用户的使用情境和规模而定。

报导指出,OpenAI计划在未来某个时间点为较小规模团队推出名为商用ChatGPT(ChatGPT Business)的服务。

华尔街日报周一报导,Lightcap表示,他不认为企业级ChatGPT必然会与微软(Microsoft Corp)的产品竞争。

Lightcap拒绝透露OpenAI在开发企业级ChatGPT时是否与微软讨论过。他说,OpenAI、微软是两家独立的公司,OpenAI聚焦ChatGPT用户、使其成为一种出色的产品体验。

英国金融时报8月22日报导,Alphasense的统计数据显示,标准普尔500指数成分股当中、将近40%的企业在最新季度财报电话会议中提及AI或相关术语。同一时间,仅有16%在对应监管文件中提到AI、凸显出人工智慧尚未对绝大多数的蓝筹企业产生显著影响。

《经济学人(The Economist)》7月指出,除非矽谷以外的数百万家企业采取实际行动拥抱新科技,否则AI对经济的影响将会相对平淡。

微软周一上涨0.22%、收323.70美元,年初迄今上扬34.98%。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

剑桥资讯|让AI更像人:怎样的“确定”才算“确定”?将人为错误纳入机器学习

人为错误和不确定性是许多人工智能系统未能掌握的概念,尤其是那些基于人类反馈的机器学习模型系统,它们的编程中大多预设人类行为总是正确且确定的,但现实世界的决策往往包含偶然错误和不确定性。

Human error and uncertainty are concepts that many artificial intelligence systems fail to grasp, particularly in systems where a human provides feedback to a machine learning model. Many of these systems are programmed to assume that humans are always certain and correct, but real-world decision-making includes occasional mistakes and uncertainty.

来自剑桥大学、艾伦·图灵研究所(Alan Turing Institute)、普林斯顿大学和谷歌“深度思维”(Google DeepMind)的研究人员一直试图弥合人类行为和机器学习之间的差距,以便在人类和机器协同工作的人工智能应用中更充分地考虑不确定性。这有助于降低风险,提高相关应用程序的可信度和可靠性,尤其是在医疗诊断等需要高安全性的场景中。

Researchers from the University of Cambridge, along with The Alan Turing Institute, Princeton, and Google DeepMind, have been attempting to bridge the gap between human behaviour and machine learning, so that uncertainty can be more fully accounted for in AI applications where humans and machines are working together. This could help reduce risk and improve trust and reliability of these applications, especially where safety is critical, such as medical diagnosis.

该团队采用了一个著名的图像分类数据集,以便人们在标记特定图像时提供反馈并指出自身不确定性水平。研究人员发现,使用不确定标签进行训练可以提高这些系统处理不确定反馈的性能,尽管人类参与也可能降低这些混合系统的整体性能。

The team adapted a well-known image classification dataset so that humans could provide feedback and indicate their level of uncertainty when labelling a particular image. The researchers found that training with uncertain labels can improve these systems’ performance in handling uncertain feedback, although humans also cause the overall performance of these hybrid systems to drop. 

该研究结果将发布于2023年人工智能、伦理和社会会议(AIES 2023),该会议由国际先进人工智能协会(AAAI)和美国计算机协会(ACM)联合举办,今年在蒙特利尔召开。
Their results will be reported at the AAAI/ACM Conference on Artificial Intelligence, Ethics and Society (AIES 2023) in Montréal.

“人机协同”机器学习系统是一种能够提供人类反馈的人工智能系统,被认为有希望在自动化模型无法独立决策的情况下降低风险。但如果人类也充满不确定性呢?

 ‘Human-in-the-loop’ machine learning systems – a type of AI system that enables human feedback – are often framed as a promising way to reduce risks in settings where automated models cannot be relied upon to make decisions alone. But what if the humans are unsure?

该研究的第一作者、来自剑桥大学工程系的凯瑟琳·柯林斯(Katherine Collins)表示:“不确定性是人类推理世界的核心,但许多人工智能模型未能考虑到这一点。许多开发人员都在致力于解决模型的不确定性,但是很少有人解决人类角度的不确定性。”

“Uncertainty is central in how humans reason about the world but many AI models fail to take this into account,” said first author Katherine Collins from Cambridge’s Department of Engineering. “A lot of developers are working to address model uncertainty, but less work has been done on addressing uncertainty from the person’s point of view.”

我们习惯在权衡各种可能性之后做出决定,却鲜少对此认真思考。大多数时候即使我们做出错误的决定也无伤大雅,比如说将陌生人误认成朋友并向其挥手。然而在某些应用中,不确定性带来了真正的安全风险。

We are constantly making decisions based on the balance of probabilities, often without really thinking about it. Most of the time – for example, if we wave at someone who looks just like a friend but turns out to be a total stranger – there’s no harm if we get things wrong. However, in certain applications, uncertainty comes with real safety risks.

柯林斯说:“许多人类-人工智能系统预设人类始终坚持自己的决定,但事实并非如此,是人都会犯错。”“我们想弄清楚当人们表达不确定性时会发生什么,这在诸如医疗人工智能系统临床应用等注重安全的场景中尤为重要。”

“Many human-AI systems assume that humans are always certain of their decisions, which isn’t how humans work – we all make mistakes,” said Collins. “We wanted to look at what happens when people express uncertainty, which is especially important in safety-critical settings, like a clinician working with a medical AI system.”

“我们需要升级工具来重新校准这些模型,让使用者能够即时表达其不确定性。”该研究的共同作者马修·巴克(Matthew Barker)说道,他刚在剑桥大学冈维尔与凯斯学院取得工程硕士学位。“在对不确定性表达充分自信的情况下,机器可以被训练,但人类通常无法提供这种自信,机器学习模型也难以应对这种不确定性。”

“We need better tools to recalibrate these models, so that the people working with them are empowered to say when they’re uncertain,” said co-author Matthew Barker, who recently completed his MEng degree at Gonville & Caius College, Cambridge. “Although machines can be trained with complete confidence, humans often can’t provide this, and machine learning models struggle with that uncertainty.”

这项研究还引入了三个机器学习基准数据集,分别用于数字分类、胸部X射线分类和鸟类图像分类。

For their study, the researchers used some of the benchmark machine learning datasets: one was for digit classification, another for classifying chest X-rays, and one for classifying images of birds.
研究人员对前两个数据集进行了不确定性模拟,但对于鸟类数据集,他们让人类参与者表明对所看图像的确定程度:例如,鸟是红色还是橙色。这些由人类参与者提供的注释“软标签”让研究人员能够修改并确定最终结果。然而他们发现,当机器被人类取代时,性能会迅速下降。

For their study, the researchers used some of the benchmark machine learning datasets: one was for digit classification, another for classifying chest X-rays, and one for classifying images of birds. For the first two datasets, the researchers simulated uncertainty, but for the bird dataset, they had human participants indicate how certain they were of the images they were looking at: whether a bird was red or orange, for example. These annotated ‘soft labels’ provided by the human participants allowed the researchers to determine how the final output was changed. However, they found that performance degraded rapidly when machines were replaced with humans.

“我们从数十年的行为研究中得出,人类几乎不会100%确定,但将这一点纳入机器学习是一个挑战,”巴克说。“我们试图在这两个领域之间架起一座桥梁,这样机器学习就可以开始处理人类的不确定性,因为人类是系统的一部分。”

“We know from decades of behavioural research that humans are almost never 100% certain, but it’s a challenge to incorporate this into machine learning,” said Barker. “We’re trying to bridge the two fields so that machine learning can start to deal with human uncertainty where humans are part of the system.”

研究人员表示,他们的研究结果已经确定了几项将人类纳入机器学习模型过程中的开放性挑战。他们正在发布数据集以进一步研究,并将不确定性纳入机器学习系统。

The researchers say their results have identified several open challenges when incorporating humans into machine learning models. They are releasing their datasets so that further research can be carried out and uncertainty might be built into machine learning systems.  

“正如我们的一些同事所说的,不确定性是透明性的一种形式,这非常重要,”柯林斯说。“我们需要弄清楚什么时候可以信任一个模型,什么时候可以信任一个人,以及其中的原因。在某些应用中,我们关注的是概率而不是可能性。例如,特别是随着聊天机器人的兴起,我们需要更好地融入可能性语言的模型,这可能会带来更自然、更安全的体验。”

“As some of our colleagues so brilliantly put it, uncertainty is a form of transparency, and that’s hugely important,” said Collins. “We need to figure out when we can trust a model and when to trust a human and why. In certain applications, we’re looking at probability over possibilities. Especially with the rise of chatbots, for example, we need models that better incorporate the language of possibility, which may lead to a more natural, safe experience.”

“在某些方面,这项工作中显现的问题比它解决的要多,”巴克说。“但即使人类可能在不确定性方面被错误校准,我们也可以通过考虑人类行为来提高这些人机协同系统的可信度和可靠性。”

“In some ways, this work raised more questions than it answered,” said Barker. “But even though humans may be miscalibrated in their uncertainty, we can improve the trustworthiness and reliability of these human-in-the-loop systems by accounting for human behaviour.”

这项研究得到了剑桥信托基金、马歇尔委员会、利华休姆信托基金、剑桥盖茨信托基金和英国工程和自然科学研究委员会(EPSRC)的部分支持,EPSRC隶属于英国国家科研与创新署(UKRI)。

The research was supported in part by the Cambridge Trust, the Marshall Commission, the Leverhulme Trust, the Gates Cambridge Trust and the Engineering and Physical Sciences Research Council (EPSRC), part of UK Research and Innovation (UKRI).

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

OpenAI、Meta 等七巨头联手,打造 AI 时代的防伪「身份证」

由 AI 生成的内容也要有「身份证」了。

近日,包括 OpenAI、Meta 在内的七家科技巨头承诺将采用一些安全措施来增强 AI 技术的安全性。

值得注意的是,在承诺中,这七家科技巨头都不约而同谈到了 AI 的监管问题并承诺将共同开发和应用一种水印系统,可用于人工智能生成的所有形式的内容,包括文本、图像、音频和视频。

通过留意嵌入内容中的水印标识,用户能够自行甄别由 AI 生成的深度伪造的图像或音频,从而在用户端上降低暴力、诈骗等负面信息内容的传播风险。

事实上,自去年 ChatGPT 爆火以来,入局的科技巨头势必要在这场竞争中拔得头筹,AI 技术的发展一日千里。

而随之,不成熟的 AI 技术也衍生出一些值得关注的问题,其中首当其冲的正是如何甄别信息内容的真实性。

2019 年,一名诈骗犯利用 AI 语音模仿软件冒充成公司的大老板,成功让一家英国能源公司的 CEO 以为自己正在跟德国母公司的老板通话。

    在电话中,诈骗犯凭借 AI 技术模拟后的语音,让该 CEO 立即转账 22 万欧元(注:约合 176 万人民币)到匈牙利的一家供应商的银行账户,以避免缴纳「滞纳金」,并要求将转账信息以邮件形式发送。该 CEO 在模拟语音的迷惑下,毫不犹疑地照做了,然后,这 22 万欧元就这样「打水漂」了。

为这家能源公司承保的保险公司表示:「骗子使用的某种 AI 软件,不仅能够模仿他人的声音、语调,甚至还能模仿带德国口音的英语。」被骗的 CEO 在一份电子邮件中愤怒地写道:「(假的)「约翰内斯」甚至在我与真正的约翰内斯通话时,要求跟我通话」

这过于离谱的事件,也普遍引发了用户对 AI 无序发展的担忧。突破常规的人工智能技术被用于诈骗时,更像是「猜猜我是谁?」的进化版。

但在降维打击面前,普通人的警惕心显得毫无用武之地。

而这还只是发生在 2019 年的事件,须臾三年,AI 技术的迅猛发展足以让人瞠目结舌,而信息内容真实性问题也再次回到公众视野。

倘若以「AI 诈骗」为关键词,在搜索引擎上筛选最新资讯,我们会发现当前关于 AI 诈骗的事件可谓是比比皆是。这种普遍性的现象恰恰反映了实施有效措施的迫在眉睫。

今年 6 月份的时候,欧洲议会以 499 票赞成、28 票反对和 93 票弃权,高票通过了欧盟的《人工智能法案》,明确了 AI 监管中不可逾越的红线,基于 AI 的四个等级(从风险最小到不可接受)进行区分管理,其中就明确 ChaTGPT 等工具,必须披露哪些内容是 AI 生成的,以便帮助区分所谓的深度造假图像和真实图像,并确保防止生成非法内容。欧洲议会议员图朵拉赫表示:「如果人工智能的开发者不这样做,他们可能会被迫立即删除应用程序或被罚款,罚款最高可达其收入的 7%。」可能高达数亿欧元的罚款对于科技巨头而言,也算得上「伤筋动骨」了。

因此七家科技巨头选择在技术层面给信息内容嵌入水印,一方面有利于用户甄别信息内容的真实性,方便用户溯源信息内容的源头,另一方面也是对《人工智能法案》的一种无声回应,毕竟强如苹果也不敢轻易放弃欧盟市场。当然,尽管这也是治标不治本的事情,但口头在前,行动在后,总归还是一件不错的事情。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

语言科技资讯丨Meta推出“AI翻译官”,能翻译和转录近百种语言!

秉持其一贯的开源策略,Meta在开源协议CC BY-NC 4.0下公开发布了SeamlessM4T,开发人员可以在这个模型的基础上进行开发。同时,Meta还发布了SeamlessAlign的数据集,其博客提到这也是迄今为止最大的开放多模态翻译数据集,覆盖挖掘的语音和文本对齐总计达270000小时。

录音、选择、翻译一气呵成  

不惧背景噪声干扰、还能区分多人角色

Meta的博客中提到一般而言,现有的语音到语音翻译过程,会被划分为多个阶段,然后不同阶段会有对应的单独系统,很少能有统一的系统去完成多个任务。

SeamlessM4T的出现就解决了语音到语音翻译任务对单独系统的依赖的难题。

打开SeamlessM4T的Demo体验网站,用户点击下方的“START RECORDING”按钮就可以开始录音,录制完成进入第二步,“SELECT TRANSLATION LANGUAGE”选择需要翻译的语言种类,最后点击下方的“TRANSLATE”就会出现翻译的文本、语音两种结果。

在Meta的测试中,SeamlessM4T在保持高资源语言性能的同时,提高了中低资源语言的翻译性能,并且在近100种语言中实现了自动语音识别、语音转文本、语音转语音、文本转语音和文本转语音等多任务支持。

为了在不依赖基于文本的指标情况下更准确地评估SeamlessM4T,研究人员将无文本指标扩展到可以进行跨语音和文本单元评估的BLASER 2.0。进行鲁棒性测试时,与当前其它模型相比,SeamlessM4T在语音转文本任务中背景有噪声和出现多个说话人时的表现更好,平均分分别提高了37%和48%。

从基本的数据来看,SeamlessM4T的模型需要大量高质量端到端数据,仅仅靠人工转录和翻译的语音无法满足近100种语言语音翻译的需求。因此,Meta为200种语言构建了大规模多语言和模态文本嵌入空间SONAR,能快速搜索具有相似性的多种语言。

同时,通过挖掘公开可用的网络数据存储库中的数百亿个句子和400万小时的语音数据,Meta还构建了语料库SeamlessAlign,能自动将超过443000小时的语音与文本进行对齐,并创建了约29000小时的语音到语音对齐。

同时,SeamlessM4T的构建还借鉴了Meta此前的技术积累,包括去年发布的文本到文本机器翻译模型NLLB、发规模多语言翻译数据集SpeechMatrix,以及今年的跨1100种语言的语音识别技术Massively Multilingual Speech等,基于大量先前的研究成果,才使得SeamlessM4T能仅用单一模型就实现多语言和多任务的翻译功能。

适配多任务模型架构、语音文本编码器

为了构建统一模型,Meta的研究人员在工具包、模型架构、编码器等上都进行了适配。

Meta重新设计了序列建模工具包fairseq,并使用多任务UnitY模型架构,这一新架构能实现自动语音识别、文本到文本、文本到语音、语音到文本和语音到语音翻译。

处理语音的过程中,自监督语音编码器w2v-BERT 2.0相比于w2v-BERT版本,训练稳定性和生成质量有了提升,编码器可以将获取到的音频信号分解为更小的部分构建内部表示。

文本编码器采用的是文本到文本翻译模型NLLB,它经过训练可以理解近100种语言的文本并生成对翻译有用的信息。

然后到了生成文本的步骤,通过多任务训练,Meta利用NLLB模型,通过标记级知识蒸馏来指导语音到文本翻译模型,就可以将这一编码器应用于自动语音识别、多语言翻译任务。例如,某人用法语说“bonjour(你好)”,可以将其翻译为斯瓦西里语的文本“habari”。

翻译内容的语音输出,Meta基于UnitY模型中的文本到单元(T2U)组件,这一组件可以根据文本输出生成离散语音单元,并在UnityY微调之前根据自动语音识别数据进行预训练。然后使用多语言HiFi-GAN单元声码器将这些离散单元转换为音频波形。

语:语言翻译仍需清除有害内容输出

就Meta的测试结果来看,SeamlessM4T相比于其他系统的翻译、转录效果更好,并且覆盖的语言范围也更为广泛。

值得一提的是,与所有生成式AI存在的风险类似,翻译过程的准确性也十分重要,这一AI模型可能会错误转录用户说的话,或转录有害信息等。

因此,Meta还将高度多语言的有害性内容分类器扩展到语音,以帮助识别语音输入和输出中的有害内容。

SeamlessM4T Demo体验网址:

https://seamless.metademolab.com/

模型代码下载地址:

https://github.com/facebookresearch/seamless_communication

中国AI生态将呈现三大特征

在智能革命浪潮的推动下,人工智能(AI)技术不断发展,催化着中国加速形成完整的AI生态。近日,在2023中国算力大会开幕式主论坛上,联想集团执行副总裁兼中国区总裁刘军表示,这一生态将呈现终端超级智能、混合架构计算、行业全场景应用三大特征。

“未来终端将嵌入超级算力,具备AI能力的终端与用户的交互方式将持续演化。超级智能终端多设备之间可实现无缝衔接与协同,端侧AI模型与用户数据充分结合的各种应用,将成为用户贴身的超级智能助理。”刘军解释道,“此外,AI的训练负载将由云端进一步向边缘和端下沉,并在云、边、端侧合理分配,从而形成云/边/端混合架构;从部署模式看,可根据公域、私域等不同场景混合部署AI;同时,智算中心正加速部署,将形成智算/超算/通用算力混合发展格局。AI将在行业全场景应用,使企业效率得到指数级提升。”例如,在联宝(合肥)电子科技有限公司每天生产的超过10万台电脑中,80%是数量小于5台的客制化订单,排产复杂度约为10的160次方。使用人工智能排产后,每天排产时间从以前的6小时减少到只需要90秒。

构建完整的AI生态,需要有完善的AI硬件基础设施。国际数据公司的数据显示,联想集团是2022年市场占有率增长最快的AI硬件基础设施(服务器和存储)提供商,同比增长139%,全球排名第三。为促进AI硬件基础设施建设,在2023中国算力大会上,联想正式对外发布“全栈智能布局”,这一布局包括:AI内嵌的智能终端、AI导向的基础设施和AI原生的服务及方案。

“联想AI导向的算力基础设施已全面覆盖云端、边缘算力场景。未来,联想全部算力基础设施产品都将支持AI,50%的基础设施研发资金都将投入到AI领域,AI技术将覆盖全域AI应用。”刘军表示,站在时代的新起点,联想集团将继续全面拥抱人工智能,加快推动普慧算力的落地,推动中国AI生态向纵深发展,助力中国企业跑出智能化转型加速度。

文章来源:科技日报

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

新一代AI绘画工具ideogram注册使用介绍,可碾压Midjourney

继Midjourney前几天的七夕刚推出区域改图之后

AI绘图领域又出一王炸

可以生成表意文字的AI绘图工具

可以准确清晰的生成提示词中的文字信息

这些都是这个工具做出来的效果

AI绘图不会写字也成为了历史

过去几个月,AI绘画技术取得了惊人的进步。今年初,AI绘画的人物还非常畸形,五官位置不正确。但是到了8月,大多数AI绘画已经能绘制出比较精致的人物,有时甚至比新人画师画的还要好。

现在连平面设计的工作也要替代了

这种进步速度比火箭还快,直接冲击了设计行业

全球每月产出成千上万的作品,为AI提供了海量学习材料

AI通过不断学习这些作品,只用了短短几个月就取得了惊人的进步

Midjourney、OpenAI的Dall-E 2和Stability AI的Stable Diffusion等

我们已经有了足够的选择,但还不够,这个工具

它可能最终解决了迄今为止困扰大多数其他流行AI图像生成器的问题:图像中的可靠文本生成,例如标志上的字母和公司徽标。

这极大地提升了AI图片生成工具的实用性

这个新的生成式AI创业公司是一个由前Google Brain研究人员创立的生成式AI创业公司,最近完成了由a16z和Index Ventures领投的1650万美元种子轮融资。

可谓也是有背景,有来头的

这就是Ideogram

Ideogram当前已经开放公测注册,示例效果令人印象深刻

甚至不需要魔法上网

直接登录网站https://ideogram.ai/

即可来到ideogram的主页

毕竟是谷歌背景的产品

目前只能以谷歌账号的形式登录

使用方式也非常的简单

With text “xxxx”+提示词,即可生成精确带有“xxxx”文字的图片

比如做一个A movie poster of Donald Trump, vector art, photo, dressed as the Terminator, with text “Shige, reliable!”

就轻轻松松请川普做代了个言

如果实在不知道怎么怎么创作,就看看主页别人的,把他的提示词复制过来,更改“引号”里面的内容为自己的就好

每张别人生成的图片下面的文字就是这个图片的提示词

罢工未停,好莱坞96%娱乐公司先砸钱用AI替代人力了

自今年5月开始,代表好莱坞编剧的美国编剧工会(WGA)已经罢工近100多天。

本次大罢工,原因除了演员、编剧与资方的薪资矛盾外,AI取代演员和编剧的威胁也是主因之一。然而,罢工问题还未解决,好莱坞96%娱乐公司倒先加大对生成性AI的支出,想用AI替代人力。

对此不少网友都认为,娱乐艺术是需要创造力的,AI本质上不具备创造力,只是基于互联网内容合成,而这样就会有侵权的风险。

企业高管拥抱AI

就在好莱坞编剧罢工间隙,美国大数据应用搜索提供商Lucidworks做了一份关于”企业应用生成式AI”的报告,调查了来自12个行业的6000名受访者,其中大部分都是拥有决策权的高管,且参与了企业在AI投资决策的过程。

调查结果显示,96%的娱乐公司高层都在考虑提高使用生成式AI的支出,在所有十二个行业里排名第一。而且有意思的是,一向被视为走在前沿的科技公司,在加大AI支出的这块,竟然和娱乐公司一样了。

另外,早在今年3月,Lucidworks也发布过一份关于OpenAI这类大模型对劳动力市场影响的研究报告,报告中α代表GPT,β和ζ代表不同由GPT大模型驱动的工具。

研究人员通过使用GPT和其他AI工具进行测评,结果显示使用GPT可以直接缩短写作近70%的时间,如果用AI工具,则100%的写作都能用AI来完成。

虽然报告指出,这并不一定意味着AI将取代人工,不可否认的是,AI对写作这一工作,已然产生巨大影响。

这次好莱坞大罢工,最令人关注的是人们对AI可能取代演艺人员和编剧工作的担忧。

事实上,现在已经有很多AI工具可用,仅文本生成方面就有包括Jasper、Notion.AI等数十个,除此之外还有很多通过文本提示就能生成视频的工具,比如Runway。

今年,已经80多岁的好莱坞老牌男星哈里森·福特在《夺宝奇兵》系列影片中,借助人工智能技术让观众看到了青年时的福特再现英姿。此外,一家名为Metaphysic的人工智能技术公司采用数据采集技术批量捕捉演员信息,让演员在荧幕上实现“长生不老”。

对此,投资人、行业分析师Jeremiah Owyang就表示:

AI会先取代剧本创作人员,然后再取代演员,因为AI合成演员不会罢工、不请病假、也不会变老。

亏损严重,想用AI扭转局势

好莱坞急着拿AI做筹码,背后原因是整个影视行业的商业模式面临挑战。

过去几年,以Netflix为代表的流媒体崛起后,很多项目都是“一锤子买卖”,也就是一次性酬劳,不再提供后续分红。相比于传统电视剧、电影播出模式中,普通从业者按劳拿薪的情况,收益少了不止一点点。

而现在,“订阅”这一被资本市场备受认可的商业模式,如今也陷入了困境。

2021年前后在Netflix最火的时候,其股价曾超过700美元。但随着海外通胀持续上涨,按月付费这一看似“稳定的收入源”也很快成为用户最先砍掉的非必需开支之一。据不完全统计,相比之前Netflix、Disney+、Hulu等数十家流媒体纷纷上调了月费。

另外,Netflix还开始严厉打击账户共享,要求同一账户名下的设备每31天至少需要登录一次该账户所属的Wi-Fi。其他地址的用户要想共用该账户,需要每月额外付7.99美元。

与此同时,线下的院线大片表现也不理想。

包括华纳兄弟、派拉蒙、迪士尼旗下卢卡斯影业、漫威等多家公司在内,近两年推出的多数电影基本都是“赔本赚吆喝”的状况。比如派拉蒙前段时间热映的《碟中谍7》,上映第一周全球票房2.35亿美元,但由于疫情导致延期,影片成本高达2.9亿美元,回本任务艰巨。

因此,各大媒体集团从去年开始就陆续表态要降本增效,去年华纳兄弟探索(Warner Bros. Discovery)仅在第二季度就亏损超过34亿美元,今年一季度又继续亏损超过10亿美元。

在这样的大环境下,好莱坞资本方急于寻找新的增长点,这时候AI恰好出现在他们视野。

只要有电有网,AI就可以利用现有素材实现“无限量”的内容创作,不仅可以提高生产效率,还能显著降低成本,相比起使用真实演员,更为经济实惠。只要观众能够接受,潜在的亏损问题也就迎刃而解。

制片方承诺:不会用AI取代

目前好莱坞罢工还未有停止迹象,制片公司这边开始先着急了。

根据路透社消息,最近代表好莱坞制片公司的美国电影电视制片人联盟(Alliance of Motion Picture & Television Producers)向编剧提出了一项新的提议,提议包括:“保证编剧将由真人负责,不会被AI取代”。

并且,联盟所代表的公司已提出共享流媒体收视率数据,以便编剧能够衡量节目的受欢迎程度,结算劳务。

你怎么看这次好莱坞罢工,AI真的可以替代编剧、演员吗?

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

骨灰级语言COBOL二度出圈,秒变Java!

在编程语言中,COBOL 绝对算得上是“上古神兽”,可以追溯到1959年左右,目前全球仍有众多大型企业或政府机构用的是COBOL 编写的旧软件。但因为太过古旧,很多新手开发者甚至闻所未闻。

为了解决COBOL应用程序现代化的问题,IBM最近推出了IBM Z 服务,意在利用 AI 技术将COBOL 代码转译成 Java 语言。

骨灰级语言迎来新生机

COBOL这门语言虽然古老,但生命力惊人。根据2022年的一项调查,生产系统中使用的COBOL代码超过了8000亿行。但问题在于,COBOL 的存在已逾一个甲子,很多编写应用程序的开发人员早已退休甚至离世了。

正因为“懂COBOL”的程序员极为稀缺,所以他们的薪水是相当可观的,甚至连美国政府都曾经公开招募COBOL程序员,以便维护那些还在运转中的众多关键任务应用程序。

无论从可操作性还是效率来说,COBOL在当下都过时了,但正是由于COBOL专家的数量极少,这也导致“迁移”往往成为一个复杂昂贵的命题。2012年,澳大利亚联邦银行下决心更换了其核心COBOL平台,这场改造耗时5年,耗资超过7亿美元。

在这一背景下,IBM发布了IBM Z的Code Assistant,它使用代码生成AI模型将COBOL代码转换为Java。

IBM介绍,用于 Z 大型机的 watsonx Code Assistant 旨在帮助开发人员评估和确定最需要现代化的代码,使他们能够更快地更新大型应用程序,专注于关键任务。

Omdia 首席分析师 Roy Illsley对此评论道,将代码迁移到 Java 意味着可以找到更多的程序员来做支持,如果 COBOL 应用程序在Z大型机上的 Linux 系统中运行,那么它们将来可能更容易地从大型机上迁移下来(尽管这并不总是像看起来那么容易)。

据悉,IBM Z的Code Assistant将于今年第四季度上市,在此之前,IBM 会在今年9月初于拉斯维加斯举行的TechXchange会议上演示该功能。

转换成Java,代码高度自然

那么IBM Z服务到底是如何发挥作用的呢?

IBM研究院首席科学家Ruchir Puri在接受外媒采访时表示:“IBM建立了一个新的、最先进的生成人工智能代码模型,将遗留的COBOL程序转换为企业Java,生成的代码具有高度的自然性。”

为帮助企业重构其大型机应用程序,IBM Z的Code Assistant可以在本地配置中运行,也可以作为托管服务在云中运行,由代码生成模型CodeNet提供支持。

Puri提到,CodeNet 模型使用1.5万亿个参数进行训练,拥有 200 亿个参数,设计了一个大的上下文窗口(32,000个令牌),以“捕获更广泛的上下文”,实现“更有效的COBOL到Java转换”。

放眼当前市场,将COBOL应用程序转换为Java语法的自动化工具并不少见。Puri也承认这一点。他进一步指出,Code Assistant采取措施避免牺牲COBOL的功能,同时降低成本并生成易于维护的代码,这就区别于市场上的一些同类竞品。

因为有些类似的产品主要是针对COBOL 代码进行静态和动态分析而不是运用AI,究其根本,它们只是将代码拆分为仍然基于 COBOL 的微服务。

watsonx Code Assistant for Z 生成的 Java 代码将是面向对象的,但仍会与 IBM 声称的 COBOL 应用程序的其余部分以及 CICS、IMS、DB2 和其他 z/OS 运行时等关键服务进行互操作。

“IBM为IBM Z构建了代码助手,以便能够混合和匹配COBOL和Java服务,”Puri说。“如果系统的‘理解’和‘重构’功能建议应用程序的给定子服务需要保留在COBOL中,那么它将保持这种方式,而其他子服务将转换为Java。”

但这并不是等于说IBM Z的服务是完美无瑕的。斯坦福大学最近的一项研究发现,使用类似于它的代码生成人工智能系统的软件工程师更有可能在他们开发的应用程序中造成漏洞。实际上,Puri警告不要在由人类专家审阅代码之前部署由Code Assistant生成的代码。

转换成Java的影响:风险与垃圾代码

“像任何人工智能系统一样,企业的COBOL应用程序可能有独特的使用模式,而IBM Z的Code Assistant可能还没有掌握这些模式。”“必须用最先进的漏洞扫描仪扫描代码,以确保代码的安全性。”Puri如是说道。

事实上,也有开发人员对AI生成的代码的不可控性提出了质疑。在Reddit论坛的相关讨论中,有网友指出:“在某些时候,我们无法知道人工智能的下一个动作,到底是处于天才还是愚蠢的决策。”

“有些东西我们可以理解和单元测试,但在更大的规模上,系统非常复杂,有很多细微差别和级别,以至于没有一个人知道每个设计决策的‘原因’。”

还有人直接提出,“Java真的是这里最好的选择吗?”对此,有人表示理解,认为选择Java是个务实的决定。“Java是选项,因为IBM大型机有一个JVM。因此,从通过 CICS 运行 COBOL 过渡到运行 Java 是相当无缝的。特别是使用 IBM 的 Rational Developer 工具集。”

但也有人提出异议。“最大的问题是Java和COBOL的结构完全不同,因此机械翻译往往会产生完全的垃圾。认为它是一个好的候选者的唯一原因是因为你也没有实际编程的经验。所以……很大程度上是一个管理决策。”

不过,开发者们多数还是认为,Java拥有强大的企业影响力,并且已经在遗留环境中采用多年,所以考虑用它进行迁移并不令人惊讶。

IBM对这类争论应该也有所预料,因此该公司也表示watsonx Code Assistant产品组合将在未来扩展到其他编程语言。

COBOL二度出圈,不远了

撇开风险不谈,在IBM看来,像Code Assistant这样的工具对其未来的发展至关重要。今天,大约84%的IBM大型机客户运行COBOL——主要是政府部门和金融业的客户。虽然IBM的大型机部门仍然是其整体业务的很大一部分,但该公司将大型机视为通往广阔的、有利可图的混合计算环境的桥梁。

尤其再这样一个代码生成AI工具的时代,许多类Copilot的工具已经问世。早前,GitHub Copilot和亚马逊CodeWhisperer等工具的出现打响了竞逐的号角。蓝色巨人当然不能示弱。今年5月,IBM在其Watsonx人工智能服务中推出了fm.model.code,该服务为沃森代码助手提供支持,允许开发人员在程序(包括红帽的Ansible Lightspeed)中使用简单的英语提示生成代码。

如今IBM Z服务的推出,显而易见是在AI编码助手领域针对Z大型机的针对性优化。可以想象通过这样的方式,COBOL的应用前景会更加的扩大,Java技术栈的开发者也许再也不用看见这个晦涩的老语种避而远之了。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

MathGPT:国内首个千亿级数学大模型上线,颠覆解题与教学体验!

数学界的未来将在这一时刻开启新的篇章。国内首个专为数学领域量身定制的千亿级大模型MathGPT正式亮相,通过在多个基准测试中轻松压倒GPT-4,刷新SOTA(State of the Art)记录。

这一数学AI大模型或许将对数学领域带来革命性的变革。今天,备受瞩目的国内首个数学领域千亿级大模型MathGPT迈向内测阶段!从现在开始,用户可以通过MathGPT的官方网站申请注册账号,免费试用并亲身体验其强大功能。

背后的推动力是「好未来」团队,这是一支在数学领域深耕已达20年之久的团队,他们自主研发了这个面向全球数学爱好者和科研机构的大模型,其核心特点是解题和讲题算法。MathGPT是国内首个专为数学打造的大模型,用户只需输入文字或上传数学题图片,即可获得与之对话式的解答反馈。此外,用户还可以选择「随机来一题」,由系统生成随机数学题并提供解答。MathGPT目前在PC端和移动端提供中文和英文版本的体验。

MathGPT在数学解题方面展现出领先的能力。事实上,早在今年5月,「好未来」就已经公开表示他们正在自主研发一款数学大模型,取名为MathGPT。据CTO田密介绍,MathGPT汇集了「好未来」多年的教育教研数据,专注于数学领域。该模型具备千亿级的训练、推理和部署框架,赋予了其强大的能力。通过精选优质的教育数据,MathGPT实现了题目计算、讲解、问答等多任务的持续训练和有监督微调,从而展现出卓越的性能。另外,通过人类反馈对齐,模型的综合素质得到了进一步提升。评估结果显示,MathGPT在解题准确率、稳定性以及用户体验方面都具备显著优势。

MathGPT的官方网站显示,它的数学计算能力已覆盖小学、初中和高中的数学题,涵盖了计算题、应用题、代数题等多个题型。用户不仅可以获取答案,还可以在需要的情况下对题目进行追问。MathGPT在解题的过程中呈现出专业、清晰的步骤,以清楚的方式进行讲解。

在数学任务评测方面,MathGPT在多个公开评测集合中表现优异,不仅在各项测试中取得了最高分数,还在初高中全科测试集合上展现出良好的成绩。根据MathGPT的技术报告,它在CEval-Math、AGIEval-Math、APE5K、CMMLU-Math、高考数学和Math401等六个评测集合中取得了顶尖成绩。

MathGPT在解题稳定性和讲解友好度方面,借助海量名师解题数据进行模型训练,确保了其解题步骤专业且清晰。例如,对于一道数列题,MathGPT会提供「分析」、「详解」和「点睛」三个部分的答案。这种详细的讲解方式使得用户能够更好地理解解题思路和方法。

好未来AI的内测顺利展开,MathGPT的解题能力将继续提升。除此之外,基于MathGPT的产品级应用也正在紧锣密鼓地研发中,预计将在近期发布。随着大模型技术的崛起,AI在教育领域的发展前景令人兴奋,MathGPT的推出为数学教育带来了更多的可能性。好未来将继续探索如何通过AI技术实现大规模因材施教,助力全球学习者和数学爱好者更好地理解数学、提升学习体验。通过不断分享经验,好未来还将与整个教育科技行业共同前进,共同推动AI技术在教育领域的积极变革。

百度李彦宏宣布年底推出文心大模型4.0,AI领域再掀创新浪潮

人工智能是当今世界最具变革性的技术之一,也是百度未来发展的核心驱动力。百度作为全球最大的中文搜索引擎,一直致力于用科技让复杂的世界更简单。


近年来,百度加速了AI业务的布局和发展,以文心大模型为核心,围绕搜索、智能云、智能驾驶、智能小程序等多个方向,打造了一系列具有竞争力和影响力的AI产品和服务。

当前,百度已经成为中国乃至全球AI领域的领军企业,市场对百度的估值也越来越高。

文心大模型今年以来的成就和突破
文心大模型是百度基于飞桨平台打造的产业级知识增强大模型,通过持续学习技术,不断吸收海量文本数据中的词汇、结构、语义等方面的新知识,实现模型效果不断进化。

今年以来,文心大模型在多个领域和场景中取得了令人瞩目的成就和突破,展现了强大的创新能力和应用价值。


首先,在技术层面,文心大模型不断刷新世界纪录,领跑AI技术发展。今年5月,百度发布了文心大模型3.5,参数规模达到2600亿,是全球首个知识增强千亿级大模型。

根据IDC发布的《AI大模型技术能力评估报告,2023》显示,文心大模型3.5拿下12项指标的7个满分,综合评分、算法模型、行业覆盖均为第一。

此外,文心大模型还包括了多个领先的子模型,如全球首个超百亿参数规模的中英文对话预训练模型PLATO-XL、全球最大规模中文跨模态生成模型ERNIE-ViLG等,在各类真实场景的生成准确性、流畅性、相关性上全面领先业界其他大模型。


其次,在应用层面,文心大模型不断推动产业智能化升级,赋能各行各业。今年7月,百度联合行业头部企业新发5个行业大模型,包括深圳燃气-百度·文心、吉利-百度·文心、泰康-百度·文心、TCL-百度·文心、辞海-百度·文心等,成为峰会一大亮点。这些行业大模型在通用大模型的基础上学习行业特色数据与知识,建设行业AI基础设施。

例如,深圳燃气-百度·文心可以实现智能客服、智能巡检、智能安检等功能,提升服务效率和安全水平;辞海-百度·文心可以实现词条自动生成、词条智能纠错、词条语义扩展等功能,提升词典质量和用户体验。


最后,在生态层面,文心大模型不断开放技术资源和平台支持,促进AI生态繁荣。

今年5月,百度宣布启动“文心杯”创业大赛,并设立10亿投资基金。该创业大赛旨在鼓励更多的创业者利用文心大模型进行AI创新应用,并为其提供资金支持、技术支持、市场支持等全方位帮助。在1个月内吸引了近1000项目参与。

“文心杯”最高奖项为价值 1000 万元早期投资。此外,百度还为开发者提供了千帆大模型平台、EasyDL-大模型、BML-大模型等工具与平台,支撑高效便捷的应用开发。

百度的AI业务布局

当前已经处于怎样的地位?


百度作为全球最大的中文搜索引擎,一直致力于用科技让复杂的世界更简单。

近年来,百度加速了AI业务的布局和发展,以文心大模型为核心,围绕搜索、智能云、智能驾驶、智能小程序等多个方向,打造了一系列具有竞争力和影响力的AI产品和服务。当前,百度已经成为中国乃至全球AI领域的领军企业,市场对百度的估值也越来越高。


首先,在搜索方面,百度利用文心大模型和飞桨平台,不断提升搜索质量和用户体验。今年6月,百度App月活跃用户达6.77亿,同比上涨8%,百度用户基本盘稳健。

此外,百度搜索正在内测“极致满足”“AI伙伴”“AI BOT”等功能,通过大模型生成更具创造性的回答,满足用户多样化的信息需求。据第三方机构QuestMobile数据显示,截至2023年6月30日,百度App在中国移动互联网市场中占据第一位的份额为17.9%,高于第二名的13.1%。


其次,在智能云方面,百度智能云是经过AI调优的云基础设施,为大模型训练提供强大的算力,并迅速扩展合作客户群。今年7月,百度智能云获得国际数据公司(IDC)发布的《2023年中国公共云(IaaS+PaaS)市场半年跟踪报告》中显示,在中国公共云(IaaS+PaaS)市场中排名第三,在中国AI公有云市场中排名第一。

在第二季度,百度智能云签约客户数量持续增加,包括兴业银行、南网总调、汉得信息、金蝶、软通动力等外部企业。值得注意的是,百度智能云在本季度实现了盈利(non-GAAP),收入同比增长 8% 至 42 亿元。


再次,在智能驾驶方面,百度自动驾驶出行服务平台萝卜快跑快速拓展运营规模。

第二季度,萝卜快跑提供71.4万次乘车服务,同比增长149%。截至2023年6月30日,萝卜快跑累计向公众提供的乘车服务数量达到330万次。今年6月,萝卜快跑获得深圳市坪山区颁发的首批全无人商业化试点通知书。


目前,萝卜快跑已获批在武汉、重庆、北京和深圳四个城市向公众提供全无人自动驾驶出行服务。

今年7月,萝卜快跑获得上海市浦东新区颁发的首批全无人商业化试点通知书,成为全国首个获得两个城市全无人商业化试点通知书的自动驾驶企业。

今年8月,百度与长安汽车达成战略合作,共同推进智能汽车的研发和生产。百度将为长安汽车提供Apollo自动驾驶系统、智能座舱系统、智能云服务等技术支持,长安汽车将为百度提供高品质的汽车制造能力和渠道资源。


最后,在智能小程序方面,百度智能小程序是基于文心大模型和飞桨平台的一种新型应用形态,可以实现语音交互、图像识别、自然语言理解等功能,为用户提供更加便捷和智能的服务。

今年7月,百度智能小程序月活跃用户达到6.4亿,同比增长28%。百度智能小程序已经覆盖了超过200个行业和领域,包括教育、医疗、金融、旅游、电商等。百度智能小程序还与多个平台进行了合作,如微信、支付宝、快手、抖音等,实现了跨平台的互通和共享。


总结来看,百度的AI业务布局已经处于全球领先的地位,文心大模型和飞桨平台为百度的各个业务方向提供了强大的技术支撑和平台赋能。市场对百度的估值也越来越高,根据第三方机构数据显示,截至2023年8月23日收盘,百度在纳斯达克市场的总市值为1.2万亿美元,在中国互联网企业中排名第二,在全球互联网企业中排名第四。

人工智能对百度的未来有什么影响?


人工智能是当今世界最具变革性的技术之一,也是百度未来发展的核心驱动力。在人工智能时代,百度将以文心大模型为代表的AI技术作为自身的核心竞争力,不断创新和优化产品和服务,提升用户体验和满意度,拓展新的市场和机会,实现可持续发展和社会价值。


首先,在产品和服务方面,人工智能将使百度的产品和服务更加智能化、个性化、多样化。通过人工智能技术,百度可以更好地理解用户的需求和偏好,提供更加精准和高效的信息检索和推荐。

通过人工智能技术,百度可以更好地满足用户的多媒体和多模态的交互方式,提供更加丰富和有趣的内容生成和呈现。通过人工智能技术,百度可以更好地支持用户在各个场景和领域中的应用需求,提供更加便捷和安全的服务解决方案。


其次,在市场和机会方面,人工智能将使百度的市场和机会更加广阔、深入、前沿。通过人工智能技术,百度可以更好地拓展海内外市场,增加用户规模和覆盖范围。通过人工智能技术,百度可以更好地深耕垂直行业,增强行业合作和影响力。通过人工智能技术,百度可以更好地探索新兴领域,增加创新能力和领先优势。


最后,在发展和价值方面,人工智能将使百度的发展和价值更加可持续、高效、负责。通过人工智能技术,百度可以更好地优化资源配置,降低成本和风险。通过人工智能技术,百度可以更好地提升运营效率,增加收入和利润。通过人工智能技术,百度可以更好地履行社会责任,增加公益和环保。人工智能对百度的未来有着巨大的影响和意义,百度将继续以人工智能为核心,不断创新和进步,为用户提供更好的产品和服务,为社会创造更多的价值。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

AI 的「iPhone时刻 」,英伟达赢麻了,最贵的芯片性价比最高

在 3 月份的 GTC 大会上,英伟达 CEO 黄仁勋表示,「AI 的 iPhone 时刻已经到来。」

时隔 5 个月后,黄仁勋这句话或许可以改写为「英伟达 AI 的 iPhone 时刻已经到来。」今天,英伟达公布了 2024 财年第二财季财报。

第二季度营收为 135.1 亿美元,同比增长 101%,环比增长 88%。此外净利润 61.88 亿美元, 同比暴增 843%值得注意的是,这也是英伟达首次在季度营收上超过英特尔,迎来了一个历史性时刻。

创纪录的英伟达,狂飙的新计算时代财报公布后,英伟达股价盘后交易飙升 9.6%,股价再创新高,突破 500 美元,成为美股市场里「最靓的仔」。英伟达对下一个财季也作出了颇具野心的展望,收入预计达到 160 亿美元,上下浮动 2%。而这个数字几乎是一年前水平的 3 倍,比分析师平均预期的 123 亿美元还要高出 37 亿美元。

在财报中,黄仁勋表示:「一个新的计算时代已经开始,全球各地的公司正在从通用计算向加速计算和生成式 AI 转型。」

芯片依旧是英伟达的收入支柱,其向数据中心供应芯片的部门是公司最大的收入来源,该部门第二财季营收达到 103.2 亿美元,增长 171%,远高于市场预期的 79.8 亿美元。

其中 H100 是市场上最抢手的芯片,一度被炒到超过 4 万美元(约 29 万元人民币)。此前消息人士向投资银行公司的 Raymond James 透露,H100 GPU 的成本为 3320 美元(约合 24181 元人民币),而英伟达选择以 25000 至 30000 美元(当前约 18.2 万至 21.9 万元人民币)的价格出售这些 GPU。

虽然这一说法可能没有考虑到运输物流等其他成本,不过仅从生产成本 / 售价的比例来看,英伟达 H100 GPU 简直就是一个「超级摇钱树」。

据 Tomshardware 报道,英伟达今年内计划出售超过 55 万块 H100 GPU。倘若属实,这意味着英伟达光从 H100 GPU 中获得的收益就已经是个天文数字。不过由于 H100 芯片需要先进的生产工艺和同样复杂的封装技术,供应量将直接和代工厂台积电的封装能力相关,也是 H100 缺货的重要原因,行业高管预计 H100 的短缺将持续到 2024 年。

黄仁勋表示,英伟达正在寻求与其生产合作伙伴合作,将更多芯片推向市场,包括通过与其他公司合作来补充台积电的封装能力,并表示「今年剩余时间和明年的供应量将大幅增加。」生成式 AI 的爆火,无数科技巨头争先抢后地躬身入局生成式 AI 赛道,试图打开这道充满机遇的科技大门。

英伟达这个守在金矿大门外卖「铲子」的人率先成为了赢家。微软和 Google 这些巨头虽然已经在 AI 投入了上百亿美元,但目前基本还没转化为利润。

至于风头正劲的 OpenAI,Analytics India Magazine 报道称其每日维护 ChatGPT 这一项服务就需花费 70 万,尽管一直试图通过 GPT-3.5 和 GPT-4 实现盈利,但目前的收益仍未能实现收支平衡。

然而,如果 OpenAI 无法扭转局面,面对每日高额的成本及其无法快速实现盈利的情况,Analytics India Magazine 认为 OpenAI 甚至可能在不久将来就要宣布破产。

而在 AI 芯片这个赛道英伟达更是遥遥领先,目前还没有哪家科技公司能望其项背。研究公司 Omdia 的数据显示,虽然 Google 、亚马逊、Meta、IBM 等公司也在生产 AI 芯片,但英伟达已占据了超过 70% AI 芯片销售额,并且在训练生成式 AI 模型方面有着更显著的优势。

Futurum Group 分析师 Daniel Newman 表示,很多客户宁愿等待 18 个月向英伟达采购芯片,也不从初创公司或其他竞争对手那里购买现成的芯片。即便是十多年前就开始布局 AI 芯片的 Google,有些工作也不得不依赖英伟达的 GPU 来完成。尽管芯片的价格高昂且缺货,但反而英伟达芯片可能是目前世界上成本最低的解决方案。

黄仁勋表示高性能芯片其实为客户节约了更多资金。如果能够将价值 50 亿美元的数据中心的训练时间减少一半,所节省的费用将超过所有芯片的成本。


算力、模型、数据一直是 AI 发展的三大要素,AI 芯片所代表的算力既是人工智能的底层基石,也是打开这道科技大门的钥匙。这把通往未来的钥匙正掌握在英伟达的手中,并形成了自己的护城河。

英伟达的芯片护城河58 年前,英特尔创始人之一戈登• 摩尔提出了著名的摩尔定律。集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍。


随后新的推断又涌现了出来,两年的时间间隔被缩短到了 18 个月。在摩尔定律的作用下,CPU 和 GPU 的处理性能都获得了指数级的增长,2000 年以后,CPU 从单核走向多核,核心数量得到大幅提升。

AI 深度学习的训练和推理大量依赖矩阵计算和浮点计算,对算力提出了极高的要求,而 GPU 能够大规模并行计算,在矩阵和向量计算上远超 CPU,成为高性能计算的「宠儿」。

此外,高速的内存宽带、可扩展性强的算力池、专门优化的深度学习框架、云端部署支撑等优点,也坚定确立了 GPU 在 AI 时代的算力核心地位。

成立于 1993 年 4 月的英伟达最初便是靠 GPU 起家,通过不断的创新和发展,逐渐成为了高性能计算领域的领导者。根据 Jon Peddie Research 发布的 GPU 市场数据统计报告,英伟达以 84% 的市场份额排名第一,排名第二的 AMD 为 12%,第三位的英特尔为 4%。

A100 和 H100 都是英伟达专门为 AI 计算设计的顶级数据中心 GPU,在训练和推理大型神经网络方面,性能都远超其他竞争对手,二者也都采用专门的 Tensor Core 和数据流架构,堪称英伟达手里的两张王牌芯片。

今年以来,英伟达主打的就是「你买的越多,省的也越多」,非常熟练且「贴心」地推出各种迭代更新的 GPU。3 月,英伟达一口气发布了 H100 NVL GPU、L4 Tensor Core GPU、L40 GPU 以和 NVIDIA Grace Hopper 四款 AI 推理芯片。

两个月后,5 月的台北电脑展上,黄仁勋发布了用 256个 NVIDIA GH200 Grace Hopper 超级芯片组成的超级计算机 DGX GH200。

就在两周前,黄仁勋又发布了搭载 HBM3e 内存新版 GH200 Grace Hopper,这也是世界上首个搭载 HBM3e 内存的 GPU 芯片。

HBM3e 内存是一种新型的高带宽内存技术,在运算速度上 HBM3e 能比 HBM3 运算速度快 50%,提供最高 5TB/秒的传输速率。训练和推理是 AI 大模型的非常重要的两个步骤,而这恰恰是 GH200 所擅长的部分。

在黄仁勋看来,未来 GH200 的典型应用场景就是大语言模型,并且「加速运算」、「AI 运算」将逐渐取代传统 x86 GPU的「通用计算」。

过往无数的案例证明,优异生态系统一旦构筑成护城河,外来者在竞争中便占了下风。英伟达过硬的生态系统自然少不了竞争对手的盖章认证,神经网络科学家 Naveen Rao 曾在英特尔担任过副总裁与人工智能平台事业部总经理。

他发现英伟达的最大优势不仅仅在于芯片本身,而是英伟达拥有一个具有大量优秀人工智能程序员的大型社区和集散地。每个人都优先以英伟达为基础,当你推出了一款新硬件,就会全力追赶它。


在第二财季财报中,黄仁勋也谈到:

「通过我们的 Mellanox 网络和交换机技术连接并运行我们的 CUDA AI 软件堆栈的英伟达 GPU 构成了生成式 AI 的计算基础设施。」

CUDA 是英伟达基于其生产的 GPUs 的一个并行计算平台和编程模型,目的是便于更多的技术人员参与开发。开发人员可以通过 C/C++、Fortan 等高级语言来调用 CUDA 的 API,来进行并行编程,并进行高性能计算,这种生态系统的建立使得许多开发者依赖于 CUDA。

此前,黄仁勋向外界透露,CUDA 在全球已经拥有超过 400 万开发者和超过 3000 个应用程序,CUDA 下载量累计达到 4000 万次,全球 有40000 家大型企业正在使用英伟达的产品进行加速计算,已有 15000 家初创公司建立在英伟达的平台上。

庞大的数字折射出英伟达显著的先发优势,倘若其他对手想要推出新的硬件,则还需要考虑追赶这个已经形成的人工智能创新生态系统。

交易的两端,一端连着卖方,一端连着买方。4 月份,「双标」的马斯克一边联名签署禁止训练 AI,一边偷偷扫货 1 万张 GPU 来开发大模型,甚至还不忘在 X 上公开吐槽:「似乎每个人、每条狗都在购买GPU」。

上个月,甲骨文董事长在公开场合表示,甲骨文公司将斥资数十亿美元购买英伟达的 GPU,以扩大针对新一波人工智能公司的云计算服务。

得算力者得天下,在你追我赶的生成式 AI 赛道上,国内也同样蔓延着求「芯」若渴的焦虑。在财报电话会议上,英伟达 CFO Colette Kress 称:「我们预计,连续增长将主要由数据中心驱动,其中对中国客户的销售约占英伟达最新季度数据中心收入的 20%至 25%。」

此前,据英国《金融时报》报道,中国互联网巨头正争相抢英伟达高性能 AI 芯片,今明两年的订单价值高达 50 亿美元。其中百度、腾讯、阿里巴巴以及字节跳动今年向英伟达下达的支付订单金额合计 10 亿美元,总共采购 10 万张 A800,相当于每张 A800 芯片的价格达到 1 万美元,明年再交付余下的 40 亿美元。

A800 本质上是 A100 的「阉割版」。由于去年 8 月份受到政策影响,英伟达只能面向中国大陆市场推出不受限制的替代版本。

不少行业人士认为,GPU 已经成为市场上公认的稀缺货,一芯难求的局面在未来的一两年内依旧难以缓解。因此,在 GPU 供不应求的持续追捧下,英伟达的 GPU 甚至成为一些 AI 初创公司的硬通货。

作为一家云计算初创公司,CoreWeave 想要获得创业贷款并不是一件容易的事情。得益于英伟达的投资人身份,CoreWeave 甚至可以将 H100 GPU 作为抵押物,轻易获得了 23 亿美元的贷款。

在贷款方看来,这自然不会是一笔亏本的买卖。一方面,这笔贷款能够让 CoreWeave 的计算规模和实力得到快速扩张,增强偿还贷款的能力,另一方面,英伟达明年将推出更多迭代的 GPU,凭借与英伟达密切的合作关系以及这笔高额度贷款,CoreWeave 还可以在抢购明年上市的 GH200 GPU 上夺得先机。

正如前面所提到,既然头部大厂在市场上都抢不到 GPU,那实力并不雄厚的 AI 初创公司的处境显然更加堪忧。

一些聪明的 AI 初创公司只能选择另辟蹊径,抱团取暖,投入英伟达的怀抱。

今年 6 月份,人工智能初创公司 Inflection AI 官宣,完成 13 亿美元的新一轮融资,值得注意的是,崭新的投资名单里首次出现英伟达的身影。

拿到融资后,Inflection 转头将从英伟达购买了 22000 个 H100 GPU,以打造一台先进的超级计算机,其中包括近 700 个Intel Xeon CPU的四节点机架服务器Inflection AI 表示,将和合作伙伴 CoreWeave 以及英伟达一起,构建世界上最大的 AI 集群。

看似欢喜的强强联合更像是一种无奈的抉择,Inflection AI CEO Mustafa Suleyman 接受《纽约时报》的采访时表示:

「公司没有义务使用英伟达的产品,但竞争对手没有提供可行的替代方案。」

今年是英伟达的「而立之年」,在五月的最后一天,英伟达成为全球第一家市值突破 1 万亿美元的芯片公司,这也是历史上第九家跻身万亿市值俱乐部的科技公司。

今年 6 月,身穿毕业服的黄仁勋受邀参加了台湾大学的毕业演讲,用过往的人生经验寄语毕业生。

无论是什么,像我们一样全力以赴地追求它,跑吧!不要慢慢走。不论是为了食物而奔跑,或不被他人当做食物而奔跑。你往往无法知道自己正处在哪一种情况,无论如何,都要保持奔跑。


历史的机遇稍纵即逝,GPU 的赛道可能又是一个赢者通吃的赛道。

一直狂奔的黄仁勋抓住 AI 的机遇,让诞生于路边连锁餐厅的英伟达成功跻身于万亿美元俱乐部,成为这波 AI 浪潮的最大赢家,或许还将继续领跑下个时代。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

这个功能我们等太久了!Midjourney图像局部重绘功能!

借助修复功能,我们能够轻松处理编辑图像中的各个区域,对于经常使用MJ的小伙伴来说,一定有这个苦恼,按照提示词生成了一张图片,结果选中了一张满意的图片,结果有部分区域又不是不满意,用ps又麻烦,或者重新添加提示词,又不一定能生成刚刚满意的图片
比如下图,整体满意,却有三只手…

又比如下图想要变成黑色的猫,但是修改提示词重新生成,可不一定能再生成这个帅哥了

那么如何进行操作呢,如图所示,官方版本的操作首先在MJ界面生成图片后,选择一张图片进行U1,放大然后就会出现 Vary(Region) 选项

点击后进入如下界面

在用工具选择眼睛部分后,填写新的提示词,比如给他添加一副眼镜

重新二次生成的图片就是这样的

是不是瞬间觉得新功能更强大了!

Tips:

1  

在局部重绘的时候选区尽量大一些,如果选区过小,太细节,可能会出现融合不自然的情况!就像官方提示的:重绘区域最好是占总画幅的20%-50%

2  

如果提示词的更改能够与原始图像很好地融合,修复效果会更可靠,如果修复改变了图像的基本元素,或者很古怪,实现的难度就越大,比如“森林中加入一只海豚”类似的提示词

来看看网友们的修复效果吧

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

YouTube将与环球音乐集团合作探索生成式AI时代的音乐未来

近日,YouTube首次发布了AI音乐原则,环球音乐集团和YouTube计划在产品开发、在人工智能程序中使用音乐的指导原则以及向人工智能生成内容中采用的艺术家作品支付报酬的新方法等方面开展合作。参与YouTube计划的艺术家将可以提前接触到正在开发的人工智能产品,并向该视频服务提供反馈意见。

环球音乐集团董事长兼首席执行官卢西恩-格兰奇爵士(Sir Lucian Grainge)在一篇罕见的YouTube客座博客中表示:“对人类创意的持续信念是环球音乐集团与YouTube合作的基石。我们共同的愿景是采取措施建立一个安全、负责任和可盈利的音乐及视频生态系统,艺术家和词曲作者有维护他们的创意完整性的能力,他们的选择权以及得到公平补偿的能力。”

“今天,我们的合作伙伴关系正基于这个基础,共同致力于负责任地领导,如YouTube的AI原则所述,人工智能是为了赋予人类创意,而不是相反。AI永远不会替代人类创意,因为它缺乏驱使最有才华的艺术家创作的关键火花,那就是‘意图(intention)’。从莫扎特到甲壳虫乐队到泰勒·斯威夫特,天才从来都不是随机的。”

双方还宣布推出YouTube的AI音乐孵化器,它将汇集一些当今最具创新性的艺术家、词曲作者和制作人,帮助打造YouTube在音乐中的生成性AI应用。孵化器将开始与环球音乐集团旗下的创意人士合作,包括Anitta、Björn Ulvaeus、d4vd、Don Was、Juanes、Louis Bell、Max Richter、Rodney Jerkins、Rosanne Cash、Ryan Tedder、Yo Gotti和Frank Sinatra遗产等。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

事关人形机器人、生成式人工智能标准研制!四部门联合发文

8月22日,工信部等四部门印发《新产业标准化领航工程实施方案(2023─2035年)》(下称《方案》),持续完善新兴产业标准体系建设,不断提升新产业标准的技术水平和国际化程度。

《方案》以定量与定性结合的方式,分别提出2025年、2030年和2035年的“三步走”目标,工程化推进实施。到2025年,支撑新兴产业发展的标准体系逐步完善、引领未来产业创新发展的标准加快形成。共性关键技术和应用类科技计划项目形成标准成果的比例达到60%以上,标准与产业科技创新的联动更加高效;开展标准宣贯和实施推广的企业10000家以上,以标准服务企业转型升级的成效更加凸显等。到2030年,满足新产业高质量发展需求的标准体系持续完善、标准化工作体系更加健全。

到2035年,企业主体、政府引导、开放融合的新产业标准化工作体系全面形成。《方案》主要聚焦新兴产业与未来产业标准化工作,形成“8+9”的新产业标准化重点领域。

其中,新兴产业聚焦新一代信息技术、新能源、新材料、高端装备、新能源汽车、绿色环保、民用航空、船舶与海洋工程装备等8大领域;未来产业聚焦元宇宙、脑机接口、量子信息、人形机器人、生成式人工智能、生物制造、未来显示、未来网络、新型储能等9大领域。

全面推进新兴产业标准体系建设新一代信息技术领域,《方案》提出,面向重点场景和行业应用,优化完善5G标准。研制集成电路、基础器件、能源电子、超高清视频、虚拟现实等电子信息标准。研制基础软件、工业软件、应用软件等软件标准。研制大数据、物联网、算力、云计算、人工智能、区块链、工业互联网、卫星互联网等新兴数字领域标准。新能源领域,研制光伏发电、光热发电、风力发电等新能源发电标准,优化完善新能源并网标准,研制光储发电系统、光热发电系统、风电装备等关键设备标准。

新材料领域,研制先进石化化工材料、先进钢铁材料、先进有色金属及稀土材料、先进无机非金属材料、高性能纤维及制品和高性能纤维复合材料标准。高端装备领域,《方案》明确,研制工业机器人基础共性、关键技术和行业应用标准。研制高端数控机床关键共性技术、整机、数字化控制与核心部件标准。

研制工程机械基础通用、关键材料、核心部件、电动化以及高端化智能化绿色化标准等。新能源汽车领域,聚焦新能源汽车领域,研制动力性测试、安全性规范、经济性评价等整车标准,驱动电机系统、动力蓄电池系统、燃料电池系统等关键部件系统标准,汽车芯片、传感器等核心元器件标准,自动驾驶系统、功能安全、信息安全等智能网联技术标准,以及传导充电、无线充电、加氢等充换电基础设施相关标准。

前瞻布局未来产业标准研究《方案》要求,开展元宇宙标准化路线图研究。加快研制元宇宙术语、分类、标识等基础通用标准,元宇宙身份体系、数字内容生成、跨域互操作、技术集成等关键技术标准,虚拟数字人、数字资产流转、数字内容确权、数据资产保护等服务标准,开展工业元宇宙、城市元宇宙、商业元宇宙、文娱元宇宙等应用标准研究,以及隐私保护、内容监管、数据安全等标准预研。开展脑机接口标准化路线图研究。

加快研制脑机接口术语、参考架构等基础共性标准。开展脑信息读取与写入等输入输出接口标准,数据格式、传输、存储、表示及预处理标准,脑信息编解码算法标准研究。开展制造、医疗健康、教育、娱乐等行业应用以及安全伦理标准预研。同时,聚焦量子计算领域,研制量子计算处理器、量子编译器、量子计算机操作系统、量子云平台、量子人工智能、量子优化、量子仿真等标准。聚焦量子通信领域,研制量子通信器件、系统、网络、协议、运维、服务、测试等标准。

在人形机器人领域,《方案》提出,开展人形机器人专用结构零部件、驱动部件、机电系统零部件、控制器、高性能计算芯片及模组、能源供给组件等基础标准预研。研制人形机器人感知系统、定位导航、人机交互、自主决策、集群控制等智能感知决策和控制标准。开展人形机器人运动、操作、交互、智能能力分级分类与性能评估等系统评测标准预研。开展机电系统、人机交互、数据隐私等安全标准预研。面向工业、家庭服务、公共服务、特种作业等场景,开展人形机器人应用标准预研。

此外,围绕基于生成式人工智能(AIGC)的应用及服务,面向应用平台、数据接入、服务质量及应用可信等重点方向,研制AIGC模型能力、服务平台技术要求、应用生态框架、服务能力成熟度评估、生成内容评价等应用标准。在工业、医疗、金融、交通等重点行业开展AIGC产品及服务的风险管理、伦理符合等标准预研。

引导社会资本向新产业标准领域汇聚在拓展高水平国际标准化发展新空间方面,《方案》提出,扩大标准制度型开放,积极营造内外资企业公开、公平、公正参与标准化工作的环境,保障外商投资企业依法参与标准制定。聚焦贸易便利化,结合重大国际合作项目积极推动质量标准、检验检测、认证认可等有效衔接。加快国际标准转化,在国家标准计划和行业标准计划中优先支持国际标准转化项目,持续提升国际标准转化率,推动我国标准与国际标准体系兼容。鼓励国内企事业单位积极参与国际标准组织和各类国际性专业标准组织活动,健全以企业为主体、产学研联动的国际标准化工作机制,携手全球产业链上下游企业共同制定国际标准。

此外,《方案》还明确,要加大对新产业标准化工作的经费支持,强化政策保障。发挥好国家先进制造业集群等优势作用,支持地方加大新产业重点领域标准化工作力度,鼓励重点企业加大标准化相关经费投入,积极引导社会资本向新产业标准领域汇聚,形成多元化的经费保障机制。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群