一家 380 亿美元的数据巨头,要掀起企业「AI 化」革命

作者 | 宛辰、Li Yuan
编辑 | 靖宇

当地时间 6 月 28 日,美国知名数据平台 Databricks 举办了自己的年度大会——数据与人工智能峰会。会上,Databricks 公布了 LakehouseIQ、Lakehouse AI、Databricks Marketplace 、 Lakehouse Apps 等一系列重要新品。

无论是从峰会的名称,还是新产品的命名,都能看出这家知名数据平台,正在趁着大语言模型的东风,加速向 AI 转变的脚步。

Databricks 公司 CEO Ali Ghodsi 所说的数据和 AI 普惠化|Databricks

「Databricks 要实现的是『数据普惠』和 AI 普惠,前者让数据通向每一个雇员,后者让 AI 进入每一个产品。」Databricks 公司 CEO Ali Ghodsi 在台上说出了团队的使命。

就在大会开始之前,Databricks 刚刚宣布以 13 亿美元收购 AI 领域的新生力量 MosaicML,创下了当前 AI 领域收购纪录,可见公司在 AI 转型上的力度和决心。

正在前方参会的 PingCAP 创始人兼 CEO 刘奇告诉极客公园,Databricks 平台刚刚上线 AI 的企业级应用,就已经有超过 1500 家公司在上面进行模型训练,「数字超出预期」。同时,他认为 Databricks 由于之前在数据+ AI 方面的积累,让公司能在 AI 大火之际,迅速在之前平台基础上加入新产品,就能快速给出和大模型相关的服务。

「最关键的就是速度。」刘奇说道,在大模型时代,如何用更快的速度让大模型和现有产品整合,解决用户的痛点,可能是当下所有数据公司最大的挑战,同时也是最大的机会。

Talking points

  1. 通过交互界面的升级,不是数据分析师的普通人,也可以直接使用自然语言查询和分析数据。
  2. 企业将大模型部署到云端数据库将越来越容易,直接使用成品大模型工具分析数据,也将变得更加简单。
  3. 随着AI的进展,数据的价值还将越来越高,数据潜力将被进一步释放。

01

数据库迎来自然语言交互

在会上,Databricks 推出了全新的「神器」LakehouseIQ。LakehouseIQ 承载着 Databricks 近期最大的发力方向之一——数据分析普惠化,即不掌握 Python 和 SQL 的普通人也能轻轻松松接入公司数据,用自然语言就能进行数据分析。

为达到这个目的,LakehouseIQ 被设计为一个功能合集,既可以被普通终端用户使用,也可以被开发者使用,针对不同的用户设计了不同的功能。

LakehouseIQ 产品图|Databricks

对于开发者方面,发布了 LakehouseIQ in Notebooks,这项功能中,LakehouseIQ 可以利用大语言模型帮助开发人员完成、生成和解释代码,以及进行代码修复、调试和报告生成。

而对于普通的非程序员群体,Databricks 则提供了可以直接用自然语言交互的界面,背后由大语言模型驱动,可以直接用自然语言来搜索和查询数据。同时,该功能与 Unity Catalog 集成,让公司可以对数据的搜索和查询进行访问权限控制,只返回提问者被授权查看的数据。

自大模型推出以来,用自然语言对数据进行查询和分析,其实一直是一个数据分析方向的热点,许多公司在此方向都有所布局。包括 Databricks 的老对手 Snowflake,刚刚宣布的 Document AI 功能也是主打这个方向。

LakehouseIQ 自然语言查询界面|Databricks

不过 Databricks 宣称,LakehouseIQ 做到了更好的功能。它提到,通用大语言模型在理解特定客户数据、内部术语和使用模式方面拥有局限性。而 Databricks 的技术,能够利用客户自己的模式(schema)、文档、查询、受欢迎程度、线程、笔记本和商业智能仪表盘来获取智能,回答更多查询。

Databricks 的功能与 Snowflake 的功能还有一个差别,Snowflake 平台的 Document AI 功能,仅限于对文档中的非结构化数据进行查询,而 LakehouseIQ 适用于结构化的 Lakehouse 数据和代码。

02

从机器学习到 AI

Databricks 与 Snowflake 在发布会上的相似之处还不局限于此。

此次发布会中,Databricks 发布了 Databricks Marketplace 和 Lakehouse AI,这与 Snowflake 这两天大会的重点也完全吻合,二者都主打将大语言模型部署到数据库环境中。

在 Databricks 的设想中,Databricks 未来既可以协助客户部署大模型,也提供成品的大模型工具。

Databricks 过去就有 Databricks Machine Learning 的品牌,在此次发布会上,Databricks 对其进行品牌全面的重新定位,升级为 Lakehouse AI,主打协助客户部署大模型。

Databricks 上线了 Databricks Marketplace。

在 Databricks Marketplace 中,用户可以接入经过筛选的开源大语言模型集合,包括 MPT-7B、Falcon-7B 和 Stable Diffusion,还可以发现和获取数据集、数据资产。Lakehouse AI 还包括一些大语言模型操作能力(LLMOps)。

Lakehouse AI  架构图|Databricks

Snowflake 也在对此进行积极部署,其相似功能由 Nvidia NeMo、Nvidia AI Enterprise、Dataiku 和 John Snow Labs 提供。

在协助客户部署大模型方向,Snowflake 与 Databricks 显现出了分歧。Snowflake 选择积极地与合作伙伴进行合作,而 Databricks 则试图将该功能作为其核心平台的本地特性添加进去。

而在提供成品工具方面,Databricks 宣布 Databricks Marketplace 未来还将可以提供 Lakehouse Apps。Lakehouse Apps 将直接在客户的 Databricks 实例上运行,它们可以与客户的数据集成,使用和扩展 Databricks 服务,并使用户能够通过单点登录体验进行互动。数据永远不需要离开客户的实例,没有数据移动和安全/访问问题。

这点则与 Snowflake 公司的产品从命名到功能上都直接撞车。Snowflake 公司与之相似的 Snowflake Marketplace 和 Snowflake Native App 已经上线,是其发布会的重点之一。彭博社就在 Snowflake 的大会上宣布了一个由彭博社提供的 Data License Plus (DL+) APP,允许客户在云端用几分钟时间就能配置一个随时可用的环境,内部设有完全建模的彭博订阅数据和来自多供应商的 ESG 内容。

03

数据平台迎来新变革

开幕式主旨演讲上,Databricks 公布了一个数字:过去 30 天,已经在 Databricks 平台上训练 Transformer 模型的客户超过 1500 家。

在谈及这个令人印象深刻的数字时,PingCAP 刘奇认为,这说明企业应用 AI 的速度比预期的要快得多,「应用模型不一定要去训练模型,所以如果训练的都有 1500 家,那应用的肯定要比这个(数字)大的多得多。」

另一方面,这也表明 Databricks 在 AI 这个领域的布局相对完整。「它现在不仅仅是一个 Data Warehouse(数据仓库),一个  Datalake(数据湖)。现在它还提供:AI 的 training(训练)、AI 的 serving(服务),模型的管理等一整套。」

Ali Ghodsi 以计算和互联网的革命,类比大模型之于机器学习的变革|Databricks

也就是说,底层模型可以通过 Databricks 的平台去训练,「最底层的模型改改参数就能训练」。在这个模型之上所需要的 AI 服务,Databricks 也布局了相应的基础设施——今天发布了 vector search(向量搜索)和 feature store(特征库)。

Databricks 全面向大模型升级。

过去,Databricks 在 AI 方面有很多积累,比如在建索引、查数据、预测工作负载等方面,用小模型来提高效率、降低时延。但是,以如此快的速度补上大模型的能力,还是让不少人意外。

在今天峰会全面展示的 AI 布局之前,Databricks 收购了 Okera(AI 数据治理),推出了自家的开源大模型 Dolly 2.0,又以 13 亿美元并购了 MosaicML,一连串的动作一气呵成。

对此,硅谷徐老师 Howie 认为,Databricks 和 Snowflake 这两个大会都可以比较明确地看出:两家公司的创始人认为,基于数据库、数据湖他们所做的行动、接下来会面临根本性的改变。按照一年前他们在做的思路,在未来几年行不通。

相应地,快速补齐大模型的能力,也意味着可以获得由于大模型带来的增量市场。

刘奇认为,没有大模型之前,很多的需求可能都不存在,但有了大模型之后,有了很多新增需求。「因为只有模型没有数据,干不了什么事情,特别是没有办法做出差异化。如果大家都是一个大模型,那你跟别人可能也没有差别。」

但比起大模型,峰会现场的观众似乎更关注小模型,因为小模型的几个优势:速度、成本、安全性。刘奇表示,基于自己独有的数据,做出差异化的模型,模型要足够小才能满足这三条:足够便宜、足够快、足够安全。

值得注意的是,Databricks 和 Snowflake 在日前都公布了它的营收数据,平台年营收增长在 60% 以上。相比整个市场软件支出放缓的大背景,这样的增长速度反映了数据越来越被关注。这次 Databricks 峰会的主题也是数据加 AI,但有了大模型,数据的价值还将越来越高。

大模型的到来,让数据自动生成成为可能,可以预见,数据量将指数级增长。怎么轻松地访问数据、怎么支持不同的数据格式、挖掘数据背后的价值,会成为越来越频繁的需求。

另一方面,今天很多企业还在还在探索观望将大模型接入企业软件,但考虑到安全、隐私、成本,敢直接用的,还很少。一旦通过将大模型直接部署到企业数据上,无需移动数据,部署大模型的门槛将被进一步降低,数据被消费的数量和速度都将被进一步释放。

火山引擎给大模型造大底座!MiniMax、智谱AI等已登陆

火山引擎刚刚交出大模型趋势答卷:

火山方舟,一个大模型服务平台

它将国内多个明星大模型放在平台上,如MiniMax、智谱AI、复旦MOSS、百川智能、IDEA、澜舟科技、出门问问等。

不仅为大模型玩家提供训练、推理、评测、精调等功能与服务,后续还提供运营、应用插件等工具,进一步支撑大模型生态。

总之,就是要为大模型,打造一个超强底座

而透过火山方舟,火山引擎如何看待大模型趋势?想做哪些事?如今也有了更明确的答案。

火山方舟是什么?

简单理解,各种大模型平台都好比自营商铺,向行业用户售卖大模型服务。

不过火山方舟想做的不是自家专卖店,而是一个集合了多家大模型旗舰店的商城

在这个商城里,行业用户可以快速触及到业界优质的大模型,基于火山引擎的能力对模型精调推理,降低大模型使用门槛

大模型玩家能基于火山引擎搭建稳健的大模型基础设施,提升自家模型业务能力,触及到更加直接和广泛的行业需求,加速迭代升级。

火山方舟作为连接二者的平台,则负责提供丰富完善的开发工具、充沛算力、安全互信的平台以及企业服务等,让双方的合作更加丝滑。

重点功能包括6个方面,贯穿了大模型采购使用的全流程:

第一是模型广场

这可以理解为模型提供方和使用方初步了解的一个平台,大模型厂商能在此进行模型创建、上传、部署等操作,下游用户能看到模型效果并快捷体验。

第二是模型推理

当用户选定好模型后,火山引擎可提供安全互信的推理方案,既保障模型提供方的知识产权安全,同时也维护使用者的数据信息安全。用户能直接使用已部署的在线服务,或者将精调模型部署为在线任务。

第三是模型精调

对于大部分行业用户来说,通用大模型只是基础能力,想要使用更优质的大模型服务可能都需要基于自家数据进行持续训练或精调。

火山方舟能提供极简精调流程,只需两步即可一键精调:选择基础模型→上传标注数据集。对于有复杂需求的场景,还能进一步设置高级参数、验证集、测试集等更丰富的功能。

第四是模型评测

生成式大模型目前还很难形成一个业界公认的benchmark,应用场景、数据等因素都会影响它的表现。但对于行业用户来说,明晰不同大模型的优劣势是购买服务前至关重要的一步。

所以火山方舟同步推出了评测工具,支持用户基于自身数据、系统化地感知模型表现情况,并且给出详细的测评报告,为后续做决策提供数据基础。

要知道,B端的使用场景也是“千人千面”的,企业要用自己的评测数据试一试,才能给出符合自身要求的准确评估。此外,基础模型的升级,新技术新模型的涌现,还将持续很长一段时间。企业需要不断测试对比、紧跟发展。

第五是运营干预

通过提供运营干预工具,用户可以快速设置相关规则,这样在模型已经投入使用后,无需精调模型即可干预模型输出结果。

第六是应用插件

目前大模型接入插件功能是大势所趋,能进一步发挥模型能力。未来在火山方舟上,能看到实时信息获取(通常说的“联网”)*、私域文档问答召回、Prompt补全与构建等。

透过以上重点功能,不难看出火山引擎对于当下云计算趋势的理解——尽可能加速大模型应用落地

而且在具体实现路径上,火山引擎还给出了一种别样的打法,并且形成了鲜明的自身特点。

火山引擎智能算法负责人吴迪给出了三个关键词来总结:

开放、加速、信任。

所以火山方舟有何不同?

开放、加速、信任,三个关键词一一对应,其实代表火山方舟的自身定位、算力和安全。

首先来看自身定位上,火山方舟是个开放、中立的平台,企业客户可以根据实际效果自由选择模型

对于云厂商而言,想要做好MaaS服务,核心之一肯定是模型层要够丰富、够强大。因为这意味着能在更丰富的应用场景中落地。

此前不少人将这一问题的解决,局限在了云厂商自家大模型能力提升上。

随着亚马逊云推出大模型平台Bedrock,一次接入Stability AI、Anthropic等多家大模型能力,给行业内开启了一种新范式。

这样一来,平台能直接引入业内最优秀的大模型,丰富自身能力和应用场景。

火山方舟的路径亦是如此,纳入更多大模型也让它具备更高的灵活性。

吴迪介绍,这样一来用户能够根据不同任务需求“货比三家”,接触到更多行业先进大模型。

通过提供统一的workflow,火山方舟能够实现模型之间的灵活插拔。在多模型切换下,工作流基本不改变,让各个模型完成自己擅长的任务,加速大模型的开发构建应用。

其次,火山引擎重点关注了大模型玩家们焦虑的算力问题。主打一个够用、实惠且稳定。

火山引擎的海量资源池,能够满足当下大模型训练推理的需求。

而通过加速训练和推理,能让算力的性价比更高。

NVIDIA开发与技术部亚太区总经理李曦鹏表示,如果想要硬件充分发挥性能,需要软硬件协同设计

硬件方面,NVIDIA针对生成式AI的不同硬件配置与火山引擎底层平台深度结合。

在软件层面也提出了多种优化方法,双方一起做了很多开源发布,以图像预处理算子库CV-CUDA为例。它们能高效地运行在GPU上,算子速度达到OpenCV(运行在CPU)的百倍左右。如果用CV-CUDA作为后端替换OpenCV和TorchVision,整个推理的吞吐量能提升至原来的二十多倍,算子输入结果上CV-CUDA与OpenCV完全对齐。

此外,火山引擎还推出了Lego算子优化

这一框架可以根据模型子图的结构,采用火山引擎自研高性能算子,实现更高的加速比。

在推理场景下,使用Lego算子优化,可以将基于Stable Diffusion模型的端到端推理速度提升至66.14 it/s,是PyTorch推理速度的3.47倍,运行时GPU显存占用量降低60%。在训练场景下,在128张A100上跑15天,模型即可训练完成,比当时最好的开源版本快40%。

而在稳定性方面,火山引擎也和英伟达做了更底层的合作。

李曦鹏介绍,目前大模型训练往往需要几千、上万张卡同时启动,如果其中某台机器出现故障,则会导致整个训练过程被影响。因此训练过程中的稳定性非常关键,它将直接影响开发效率。

在这方面,火山引擎和英伟达基于内部大量测试,最终实现了特定模型的规模、网络结构等,确定合适的checkpointing频率,在保障训练连续性的同时又让机器能够稳定运行。

具体能力也已有实际案例验证

大模型玩家MiniMax基于火山引擎,研发了超大规模的大模型训练平台,高效支撑着三个模态大模型每天数千卡以上的常态化稳定训练。在并行训练上实现了99.9%以上的可用性。除了训练以外,MiniMax也同步自研了超大规模的推理平台,目前拥有近万卡级别的GPU算力池,稳定支撑着每天上亿次的大模型推理调用。MiniMax和火山引擎一起为大模型训练搭建了高性能计算集群,一起致力于提升大模型训练的稳定性,保证了超千卡训练的任务稳定运行数周以上。

稳健的大模型基础设施让MiniMax从零开始自主完整地跑通了大模型与用户交互的迭代闭环,实现从月至周级别的大模型迭代速度,和指数级的用户交互增长。MiniMax面向企业级的大模型解决方案目前已接入数百家企业客户,打通办公协作、智能硬件、教育、医疗、客服等十余个行业场景。

然后是能力输出上,火山引擎提出训推一体以及统一workflow

统一workflow的能力不仅在于模型的灵活插拔,它还集成了火山引擎对大模型能力的理解。

比如如何做自动评估?pipeline怎么定?该做多少精调?这些问题都是需要经过大量开发工作后,才能输出的经验。通过这些细节上的保驾护航,企业用户落地大模型的效率和成功率都会有明显提升。

另一边,火山方舟也重点提出了训推一体的理念。

吴迪表示,基于对行业的观察,他相信未来大模型领域的头部及腰部厂商都会使用“1+n模式”,也就是自研或深度合作一个主力大模型、同时调用多个外部模型,对训练和推理都有需求。

加之火山引擎始终认为深度学习、机器学习是一件统一、紧凑且纯粹的事情,所以他们判断训推一体模式会是发展趋势,并已在火山方舟上推出。

而且训推一体化后,同样能为企业节省算力。

最后再来看安全方面,这也是火山方舟着重强调的部分

吴迪表示,在大模型时代,信任问题至关重要。

大模型提供方不希望自己辛苦训练出的模型被人拷贝走,这属于重要知识产权;下游客户不希望自己的数据在推理和精调过程中不被泄露,敏感数据只有自己可见。

在这二者之间,便会形成一个信任的gap。尤其是当下大模型服务中的合作方众多,构筑信任墙就显得至关重要。而火山引擎作为云平台,会通过互信计算框架,基于不同客户的安全和隐私保护诉求,提供了包括安全沙箱、可信硬件以及联邦学习方案,来保证大家在互信的基础上推理、精调等。

以上三个方面,将火山引擎在云市场中的差异勾勒清晰。

从中也可看出,火山引擎的技术积累、行业经验和趋势理解,都为它入局大模型平台提供了坚实的保障。

那么,为什么火山引擎的答卷是火山方舟?

为什么是火山方舟?

直接原因来自于市场需求

大模型趋势轰轰烈烈演进几个月,几乎触及到了各行各业,相应的需求也随之暴涨。

但对于行业用户来说,怎么触及市面上最先进的模型?怎么选择最适合自己的模型?怎么确定最后的大模型服务方案?这些问题对企业自身的技术理解程度、开发水平都提出了要求。

作为供给侧,大模型玩家也急于在热潮下快速推进自家业务发展。这不仅是一场技术竞赛,同时也是一场商业竞速赛,谁能更快触及更多用户,就会在市场中更快站住脚跟。在这种情况下,平台的触达能力一定大于厂商自身。

以及底层硬件厂商,同样也迫切需要大模型底座

NVIDIA开发与技术部亚太区总经理李曦鹏表示,英伟达开发每一款新产品,都是以workload来驱动,所有开发都是要解决真实存在的问题。

比如随着深度学习的兴起,用Tensor Core加速矩阵乘法计算,就是在原有框架下针对workload的重点模块做效率提升。

再比如英伟达去年发布的Hopper架构,设计远早于发布时间。当时GPT-3才刚刚问世,大模型趋势远没有到来,英伟达是做了大量前瞻性的研究。而怎么做出这种前瞻性的探索,就是要从实际应用的基础结构中去发现问题。

回到当下来看,对于未来AI的趋势是否朝着GPT趋势发展,李曦鹏表示现在也无法确定,但是行业中的实际需求能够推动英伟达做出更有针对性的硬件和软件特性升级。

怎么更快、更准确把握住这些需求?还是要依托平台连接大模型玩家

所以,像火山方舟这样承载着大模型供给方、使用方以及底层硬件厂商的平台,是行业迫切需求的。

而更深层的原因,还来自火山引擎自身

吴迪很确定地说,火山方舟的使命,是加速大模型、大算力应用落地。

为什么要加速?两条增长曲线可以给出答案。

在以时间为横轴、GPU需求量为纵轴的坐标系里,首先出现当下的第一条增长曲线:模型训练曲线

现在新兴的大模型正如雨后春笋般冒出,训练需求量飙升。但随着通用大模型市场趋于饱和,这条增长曲线也会逐渐放缓。

与此同时,还有一条增长曲线出现:推理需求曲线(模型应用曲线)

而且它将在短期内呈指数增长趋势,在2025年左右和训练需求曲线相交,并在之后反超。

也就是说,市场上的推理需求量,最终一定会大于训练需求量。因为推理需求多大,代表了应用场景有多丰富。

如果应用场景的丰富度不够高,导致推理需求曲线没有快速升起,训练需求曲线同样也会受到影响滑落

一旦出现这一局面,将意味着目前诸多投身大模型浪潮的创业者和企业,将会面临非常艰难的局面。

吴迪表示,火山引擎深信大模型趋势不是一次简单的浪潮,它将是新技术时代的一扇窗。如果想要加速这个时代更快到来,那么就要尽可能缩短推理需求超过训练需求的时间轴。

也就是加速大模型的应用落地。

火山方舟同时连接下游应用层和上游模型层、硬件层,加速企业用户使用大模型,在营收上更快去回报大模型领域创业者,以此形成一个加速正向循环。

而这也是为什么火山引擎要将自家大模型平台取名为“方舟”。

吴迪说,在想名字的时候,他们希望能有一个词来形容开放包容、生机勃勃、充满希望的意境。

最终在几十个词中确定了方舟。因为它能代表两方面寓意。

第一,承载着很多人的事业和梦想,共同驶向一个成功的远方,而且是一个具象的词;

第二,火山引擎相信整个大模型、大算力领域,需要众多合作伙伴在模型训练、内容安全、硬件优化等方面共同努力;

如今,方舟带着火山引擎的技术积累、行业理解以及美好愿景,正式启航。

未来大模型浪潮将会如何翻涌,还是未知数。

但载着众多国产大模型玩家、携手英伟达的火山方舟,一定会带着火山引擎驶向新的节点。

来源: 量子位

周鸿祎:企业不要觉得有了GPT就能瞎裁员了

6月29日消息,360创始人周鸿祎在一场演讲中谈到,“我一直在很努力的说服很多企业家,不要觉得有了 GPT 就能瞎裁员了。”

周鸿祎称,自己的观点和微软类似,信息化、数字化增大了我们大家的工作量。自从有了电脑化、即时通信工具后,大家每天有无数的消息要回,工作量加大了,有大量的文案工作。大模型企业落地要普惠,让每个人都用起来,成为员工的知识助手、办公助手,领导的决策助手。

“大模型不是万能的,只能打辅助,做一部分工作。所以大模型不会淘汰人,当然程序员也不会被淘汰,要有信心。我最近不也是又报名上了清华,电子信息专业,重新去学习做一个工程师。”周鸿祎在微博上也发文强调:“人工智能的发展还是要以人为本。”

“比GPT-4强”!谷歌DeepMind自曝正开发新型AI模型

不久前强强合并而成的人工智能巨头Google DeepMind终于向ChatGPT发出实质性挑战。在上个月的谷歌(Google) I/O开发者大会上,谷歌公司首次透露了其正在开发的大型语言模型Gemini。

据《连线》6月26日报道,DeepMind联合创始人兼Google DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)最近在采访中进一步透露了Gemini的细节:该系统将AlphaGo背后的技术与大语言模型相结合,目标是让系统具有新的能力,如规划或解决问题,比OpenAI的GPT-4能力更强。

2016年,DeepMind开发的AlphaGo曾击败围棋高手创造历史。“你可以认为Gemini结合了AlphaGo系统的一些优势和大模型的惊人语言能力。”哈萨比斯说,“我们也有一些新的创新,这些创新将非常有趣。

可能会尝试新想法AlphaGo是基于DeepMind开创的一种叫做强化学习的技术,在这种技术中,软件通过反复尝试并接受关于其表现的反馈,学会选择采取何种行动以处理棘手的问题,比如围棋或视频游戏。它还使用了一种叫做树状搜索(tree search)的方法来探索和记忆棋盘上的可能动作。语言模型的下一个大飞跃,可能涉及让这种技术在互联网和计算机上执行更多任务。哈萨比斯说,Gemini仍在开发中,这个过程将需要数月时间,可能花费数千或数亿美元。

OpenAI首席执行官山姆·奥特曼(Sam Altman)曾在4月透露,创建GPT-4的成本超过1亿美元。训练像GPT-4这样的大型语言模型,需要将来自书籍、网页和其他来源的大量文本输入被称为Transformer(谷歌开发的一种深度学习模型,OpenAI在此基础上开发了GPT)的机器学习软件。

它利用训练数据中的规律,熟练地预测一段文本后面的字母和单词,这种简单的机制在回答问题和生成文本或代码方面被证明是非常强大的。要开发ChatGPT和类似能力的语言模型,需要一个重要的额外步骤:使用基于人类反馈的强化学习来完善其性能。

DeepMind在强化学习方面的深厚经验可以让其研究人员赋予Gemini新的能力。哈萨比斯和他的团队也可能尝试用人工智能其他领域的想法来加强大型语言模型技术。DeepMind的研究人员涵盖了从机器人到神经科学等各个领域,本周,该公司展示了一种算法,能够学习用各种不同的机器人手臂执行操纵任务。

谷歌DeepMind的研究人员最近将人工智能与一款名为RoboCat的机器人结合起来,预计将在自我训练机器人方面实现一大跃进。人们普遍认为,像人类和动物那样从世界的物理经验中学习,对于使人工智能更有能力非常重要。一些人工智能专家认为,语言模型通过文本间接地学习世界,是一个主要的限制。谷歌高层十分重视GeminiGemini是DeepMind迄今为止在该领域最有野心的项目。

国外科技网站The Information在3月报道称,受谷歌聊天机器人项目巴德(Bard)失败的刺激,为了跟上ChatGPT的步伐,谷歌高层直接参与Gemini的研发,包括该公司最高级的人工智能研究主管杰夫·迪恩(Jeff Dean)。

Gemini的开发完成,可能会让谷歌在与ChatGPT等生成式人工智能技术的竞争中占据优势。尽管谷歌开创了许多技术,并催生了最近的人工智能创新,但它选择了谨慎地开发和部署产品。

而到了4月,为了应对越来越激烈的竞争,谷歌将其“谷歌大脑”实验室与哈萨比斯领导的DeepMind合并为Google DeepMind。哈萨比斯说,新团队将结合两个强大的人工智能团队。“如果你看看我们在人工智能领域的地位,我会说80%或90%的创新来自这两者之一。”哈萨比斯说。“过去十年里,这两个组织都取得了一些杰出的成就。”哈萨比斯自己曾引发过一场人工智能狂热。

2014年,DeepMind被谷歌收购。在接下来的几年里,DeepMind展示了AI如何做到曾经看起来只有人类才能做到的事情。当AlphaGo在2016年击败围棋冠军李世石时,许多人工智能专家都惊呆了,因为他们曾认为,机器要想熟练掌握如此复杂的游戏,还需要几十年。

值得注意的是,Gemini并不是DeepMind进入语言模型领域的第一次尝试。去年,该公司推出了聊天机器人Sparrow,声称它比其他语言模型更不可能给出“不安全”或“不恰当”的答案。

哈萨比斯今年1月在接受《时代》采访时说,DeepMind将考虑在今年某个时候发布Sparrow的私人测试版,目前还不清楚这些计划是否仍在进行中。

来源:澎湃科技

弥补全球认知鸿沟 微软开始提供生成式AI职业培训项目

当地时间周三,全球AI大厂微软宣布,正式启动一个培训全球人民如何使用生成式AI的项目。

据微软负责慈善事业的副总裁Kate Behncken透露,这个项目将包括面向机构、非营利组织的全球挑战补助,以及免费且附带认证证书的在线课程,和面向教师的培训工具包和挑战项目。

接下来根据官方公告,简单解释一下这几个项目分别是干什么的。

首先,微软慈善基金会与data.org、微软“AI向善”实验室和GitHub合作推出一个生成式AI挑战补助项目。这是一项开放式资助项目,旨在探索、开发和推动非营利组织、社会企业、研究机构如何培训和授权员工使用生成式人工智能。

微软并没有透露补助的金额为多少,仅表示除了钱以外,这些机构还将获得Azure云计算资源,以及微软、GitHub的专家在数据训练等技术方面的指导。申请这个项目的时间截至今年8月15日,随后微软将在今年秋天公布名单。

而对于广大“打工人”而言,微软也提供了在线学习课程,完成学习和考试后能够获得在线“职业认证证书”。微软强调,这是在线学习市场上第一个生成式AI职业证书。

不过从课程表的构成来看,微软的这个课程更偏向于入门,包括“什么是AI”、“什么是生成式AI”、“如何将Bing融合进工作流”、“AI与道德”等项目。

微软表示,目前首发上线的只有英语课程,在接下来几个月里将提供西班牙语、葡萄牙语、法语、德语、简体中文和日语课程。

同时,微软也向全球的教育者提供了教学工具包,提供一系列的流媒体和课程资源,来帮助他们进行AI课程的备课。稍有不足的是,虽然AIGC的特点是流利且富有逻辑的机器人对话,但微软提供的课程中仍以传统的视频要素来呈现。

最后,微软也在Microsoft Learn平台上发起了一项AI技能挑战认证,活动将在7月中旬开始,涉及机器学习、构建MLOps解决方案、认知服务等,活动周期为一个月。

来源:财联社(编辑 史正丞)

Midjourney–最强大的AI图像和插画生成工具

你有没有想过你可以把你输入的文本变成图片? 想象一下,只需几句话就能为你的故事、演示文稿、游戏或艺术项目创建令人惊叹的视觉效果,这正是Midjourney所做的。Midjourney是一个文本生成图像的AI工具,可让你从任何文本描述中生成逼真且多样化的图像。无论你想创造奇幻风景、未来城市、可爱动物,还是任何你能想到的东西,Midjourney都可以帮助你实现。

Midjourney的发展历史

Midjourney 由一群对人工智能和创造力充满热情的研究人员和工程师于 2022 年创立,他们受到OpenAI 的 DALL-E和Stable Diffusion模型的突破的启发——从自然语言输入创建高质量图像。

然而,他们也注意到这些模型有一些局限性。 例如,它们经常生成模糊或扭曲的图像,无法捕捉到复杂的细节或情绪,或者生成的图像与用户的意图不符。Midjourney 的创始人希望创建一种 AI 来克服这些挑战,并生成不仅逼真而且富有表现力和多样性的图像,让用户更好地控制自己的创作,让他们能够无限制地探索自己的想象力。

为了实现这一目标,他们基于最先进的技术开发了自己的专有模型,例如Transformer、生成式对抗网络 (GAN) 和自注意力机制。 他们还收集并整理了来自不同领域和流派的文本图像对的大规模数据集,经过数月的努力和测试,终于在2022年底推出了Midjourney作为在线平台,任何人都可以访问他们的AI 免费生成图像。

Midjourney的主要特点

Midjourney有几个特点使其从其他文本到图像的AI工具中脱颖而出:

  • 现实逼真。Midjourney可以产生看起来逼真自然的图像,它可以处理具有多个对象、背景、灯光效果的复杂场景和视角。 它还可以捕获细微的细节,例如纹理、阴影和反光。
  • 情感表达。Midjourney可以产生传达情感和情绪的图像,它可以根据用户的输入调整不同颜色、品味、和风格的图像。它还可以生成面部表情、身体语言、以及人类或动物角色的手势。
  • 多样性。Midjourney可以产生多样化且独特的图像,它可以为每个输入生成多个变体,允许用户选择他们最喜欢的一个或将它们组合在一起。 它还可以在图像中引入随机元素或惊喜,让他们更有创意和乐趣。
  • 交互性。Midjourney允许用户以各种方式与他们的图像进行交互, 用户可以编辑他们的输入、添加标题或应用过滤器来改变图像的外观。用户还可以在 Discord、Twitter 或 Instagram 等社交媒体平台上与其他用户分享他们的图像。

ClipDrop–强大的图像或视频抠图能力

集合了图片曲背,模糊图片变清晰,替换背景,去除文字,AI绘画等一系列功能聚合网站

https://clipdrop.co/

Clipdrop是一款强大的图像处理软件,它能够将任何场景中的图像或视频实时抠出,让你可以即时将其应用到你的设计或者文档中。它的优点在于:操作简单,可以将颜色、文字、二维码、表格等元素从纸张上或其他场景中提取出来,而无需使用复杂而昂贵的图像编辑软件。它还支持多种输出格式和多种设备,可以轻松实现跨平台传输,非常方便。

Upscayl–免费开源的AI图片无损放大工具

1、简介

免费开源的AI图片无损放大工具
2、下载地址

https://www.upscayl.org/
3、功能介绍

如何将一张图片高清化还尽量保留原图的细节呢?Upscayl就能帮你实现!

软件主打无损放大功能,让你轻松将任意分辨率的图片纸放大到高清、超清甚至 4K 水平,大幅提升图片细节表现与清晰度。

这款软件的优点:文件小,内存占用小
这款软件的缺点:吃显卡,显卡越好压力越小(实测gtx950稳定运行,造成其他视频软件稍微卡顿)还有一点就是下载速度超慢,但是文件小,我们等一会也不是不可以。这款软件的界面清爽,是英文界面,实际的选项功能并不多,个人认为这软件最大的缺点就是生成的图片过大(本文中还有很多小编自己实测的高清图,但是都超多10M无法上传),能优化在7M一下就很好了。

4、使用说明

第一步:点击SELECT IMAGE,上传自己需要的照片。

第二步:选择功能

·REAL-ESRGAN:提高图像的清晰度和真实感,并尽可能保持图像细节;

·RemaCRI:适合处理一些特定领域的图像增强,如人像、风景等。它可以更好地处理对比度、饱和度等方面的问题;

·UltraMix Balanced:适用于处理色彩饱和度偏低的图像,同时保持图像细节和色彩平衡;

·UltraSharp:专注于提高图像的清晰度以及边缘锐利度;

·Digital Art:专门用于增强数字艺术作品的细节、颜色和纹理等方面,以使其效果更逼真;

一共有五大功能,详细介绍就在上面了。这里随便选了一张像素不高的图,准备进行高清修复,选择第一个功能REAL-ESRGAN。

第三步:点击SET OUT FOLDER设置图片输出位置

第四步:点击UPSCAYL,完成

处理完的效果可以看下面的动图。(PS:具体处理时间就看我们电脑配置啦)

UniJump–免费的ChatGPT Chrome 插件

1、简介

一个可以让你从任何网站上快速访问ChatGPTChrome插件,开源免注册。

2、下载地址

链接:https://pan.baidu.com/s/17xi0yZKPQlgTKb03zWkhdg?pwd=klkj
提取码:klkj

如无法下载,请加我们的AI小助手微信

3、功能介绍

快速访问ChatGPT聊天机器人;
提供实用的交互式聊天服务;

UniJump - Shortcut for ChatGPT插图

支持多种语言和主题;
提供准确的答案和解决方案;

UniJump - Shortcut for ChatGPT插图1

可以在任何网页上使用。

4、安装说明

1、在打开的谷歌浏览器的扩展管理器
就是点击最左侧的三个点,在弹出的菜单中选择【更多工具】——【扩展程序】
或者你可以在地址栏中直接输入chrome://extensions/
2、进入扩展程序页面后将开发者模式打勾
3、最后将解压出来的crx文件拖入到浏览器中即可安装添加
4、如果出现无法添加到个人目录中的情况,可以将crx文件右键,然后选择【管理员取得所有权】,再尝试重新安装
5、安装好后即可使用

5、使用说明

首先,用户需要在Chrome浏览器中打开Chrome Web Store,搜索“UniJump – Shortcut for ChatGPT”插件,并安装在浏览器中。

UniJump - Shortcut for ChatGPT插图3

安装完成后,在浏览器的右上角会出现一个ChatGPT的图标,点击即可打开聊天机器人。
在弹出的聊天框中,用户可以输入问题或关键字,ChatGPT将会给出相应的答案或解决方案。
用户还可以选择不同的语言和主题,以便更好地与ChatGPT进行交互。
当用户需要关闭聊天机器人时,只需再次点击浏览器的ChatGPT图标,即可关闭聊天框。

卖了93亿元,AIGC最大收购案诞生!62人大模型公司,创始人之一是华人哈佛博士

AI浪潮下,巨头们除了自主研发和投资外,直接收购初创公司也成了巨头们进军AI领域的主要方法之一。 

近日,大数据巨头Databricks就宣布以13亿美元的价格收购了位于旧金山的生成式AI初创公司MosaicML。

收购完成后,MosaicML将成为Databricks Lakehouse平台的一部分,其团队和技术也将并入Databricks。

此前,MosaicML已经从 DCVC、AME Cloud Ventures、Lux、Frontline等多家知名投资机构获得了近6400万美元的融资。

值得注意的是,MosaicML上一轮融资时估值仅为2.22亿美元,这意味着此次收购使得MosaicML的估值短期内暴涨了6倍

此笔交易也是截至目前今年生成式AI领域内所公布的最大一笔收购案

MosaicML是一家专注于生成式AI的公司,由曾在 Intel 担任人工智能产品负责人、Nervana Systems 的联合创始人 Naveen Rao 以及英特尔AI实验室的高级主管Hanlin Tang于2021年创立,员工仅 62 人。

注:Hanlin Tang(左一)、Naveen Rao(左二)

Naveen Rao曾在2014年创建了深度学习初创公司Nervana Systems,该公司因开发了Neon这一高性能的深度学习框架而广受关注,后来以4亿美元的价格被英特尔收购。Naveen Rao随后加入英特尔,成为AI产品集团的负责人。

2020年,英特尔宣布放弃原计划的Nervana服务器端AI加速芯片,转而使用花费20亿美元收购的以色列公司Habana的产品。

这一决定导致Naveen Rao和Nervana的前核心员工Hanlin Tang选择离开英特尔,另起炉灶创办了MosaicML,Hanlin Tang 担任 MosaicML的CTO

Hanlin Tang毕业于哈佛大学,研究人类视觉中的递归神经网络。Hanlin Tang在普林斯顿大学取得物理学学士学位,随后在哈佛大学取得生物物理学的博士学位,研究人类视觉中的递归神经网络,他少年时期在台北度过。后来加入英特尔后,在英特尔AI实验室担任高级主管,在此期间Hanlin Tang负责算法工程和深度学习研究,并参与了MLPerf基准测试的开发。

Hanlin Tang在国际顶级期刊和会议上发表了多篇论文,涉及计算神经科学、计算机视觉、自然语言处理和强化学习等领域。

不同于主要面对ToC的ChatGPT,MosaicML主要针对企业的需求。MosaicML提供了一个平台,让企业可以在自己的安全环境中训练和部署AI模型,并降低成本。

MosaicML曾宣称,他们可以用不到5万美元的成本,在7.45天内训练出一个与stable diffusion 2 base相当的模型。

MosaicML的产品包括开源的、商业授权的MPT Foundation系列模型,以及MosaicML推理和训练服务。

几天前MosaicML发布的大模型MPT-30B,展示了企业如何以经济高效的方式使用其数据快速构建和训练自己的最先进模型。其LLM上一个版本 MPT-7B 已获得 330 万次下载。

MosaicML客户包括艾伦人工智能研究所、Generally Intelligence、Hippocratic AI、Replit 和 Scatter Labs。

而这次收购MosaicML的金主Databricks成立于2013,总部位于旧金山,是一家基于云计算的Spark大数据软件公司,提供用于数据集成、数据清洗、数据管理以及其他服务的基于Spark的云服务。

如今,全球有9000 多家组织(包括荷兰银行、康泰纳仕、再生元和壳牌)依靠 Databricks 来实现大规模数据工程、协作数据科学、全生命周期机器学习和业务分析。

Databricks 联合创始人兼首席执行官 Ali Ghodsi 在一份声明中表示,“每个组织都应该能够从人工智能革命中受益,并对其数据的使用方式有更多的控制。Databricks 和 MosaicML 拥有实现人工智能民主化的绝佳机会。

在这次AI浪潮中,对于想亲自下场的巨头们来说,大肆购买GPU已成基本操作。

2023年以来,字节跳动被曝已经订购了价值约10亿美元的英伟达GPU。其中包括10万块最新的A100和H800加速卡。

当字节大幅投入GPU时,有媒体爆出字节跳动原RISC-V和服务器芯片负责人卢山创立了蓝芯算力,专注于RISC-V数据中心CPU。

注:RISC-V 是一种开源和免费的指令集,可以被自由地用于商业目的,不受单一国家或公司制约,无需支付 IP 授权费用。

卢山毕业于清华大学,拥有波士顿大学电气与计算机工程博士学位,在英特尔和高通有十余年的工作经验。

RISC-V 目前主要用于物联网芯片,但也有一些团队尝试基于 RISC-V 设计更高性能的 CPU,用于手机和数据中心服务器。

目前,蓝芯算力正在进行首轮融资,并获得了1亿美元的投前估值。

头部融资

上周,国内生物医药和人工智能领域总共发生了14起投融资事件。人工智能6起,融资总金额超1.45亿元,生物医8起,融资总金额超过7.6亿元。

上周天使轮到A轮融资较多。生物医药领域的涉及创新药等,人工智能领域包括大模型等。

上周生物医药领域融资最多的是朗来科技,是一家处于临床阶段的创新药研发公司,秉持研发管线和平台构建同步提升的双驱动策略,构建了从概念验证、候选化合物筛选、临床前成药性开发到临床研究的全流程新药研发体系。

一周融资汇总:

来源:头部科技

使用ChatGPT做股市预测 能获得500%回报!

佛罗里达大学的研究人员发布的一项研究表明,AI 模型 ChatGPT 可以可靠地预测股市趋势。通过2021 年 10 月至 2022 年 12 月的公开市场数据和新闻,他们的测试发现,由 ChatGPT 驱动的交易模型在此期间能够产生超过 500% 的回报。

     研究团队采用了严格的方法论来回测由 ChatGPT 驱动的交易策略的有效性。他们专注于检查 2021 年 10 月至 2022 年 12 月的一组与股票相关的头条新闻数据集,确保其中没有任何新闻是 ChatGPT 的训练数据的一部分。

       研究人员通过网络抓取技术收集了在这段时间内与 4,138 家不同公司相关的 67,586 条头条新闻。随后,他们对这些头条进行了筛选,将重点放在完整的文章和新闻稿上,排除了任何与股票涨跌相关的标题。

      研究团队使用 ChatGPT来评估给定的头条新闻是否表明好消息、坏消息或未知消息,并要求对其进行简要解释。例如,当呈现标题“Rimini Street Fined $630,000 in Case Against Oracle”时,ChatGPT 给出了细致入微的回应:

      是的。对 Rimini Street 的罚款有可能提升投资者对 Oracle 保护其知识产权能力的信心,并增加对其产品和服务的需求。

       这个回应反映了 ChatGPT 出色的推理和自然语言处理能力,它认为这个标题对 Oracle 是积极的。

该团队测试了六种不同的投资策略。

其中三种策略有正收益:

        长短策略涉及购买好消息公司并做空坏消息公司,获得了超过 500% 的最高回报。

       做空策略仅专注于做空坏消息公司,回报接近 400%。

        做多策略仅涉及购买好消息公司,回报约为 50%。

      ChatGPT 展示的选股优势还可以赋予散户交易者更多选择。ChatGPT 凭借其从仅仅理解标题中推断细微差别和二阶含义的能力,可以帮助雄心勃勃的散户交易者努力实现超额回报。

   我们预计未来几年金融领域将非常活跃,生成式 AI 将占据主导地位。

AI领域最新交易 | 奥睿代表法律AI公司Casetext, Inc.以6.5亿美元被汤森路透公司收购

奥睿代表Casetext, Inc.,就其与汤森路透公司(Thomson Reuters Corporation)达成具有约束力的最终协议提供法律服务。汤森路透将斥资6.5亿美元对该人工智能公司进行收购。

Casetext, Inc.成立于2013年,致力于将尖端的人工智能应用于法律行业,其提供的解决方案可以帮助律师为更多的客户提供更加高质量的代理,提高工作效率和准确性,以及获得竞争优势。

Casetext推出了有史以来第一个法律人工智能助理CoCounsel,开启了法律科技的新时代。CoCounsel每天处理20多万字,使律师关键性、时间密集型的任务自动化,并扩大了诉诸司法的机会。

汤森路透公司为法律、税务、会计、合规、政府和媒体的专业人士提供服务。它的产品结合了高度专业化的软件和洞察,为专业人士提供做出明智决策所需的数据、情报和解决方案,并帮助机构追求正义、真相和透明度。路透社是汤森路透社的一部分,是全球领先的可信赖的新闻通讯社。

奥睿自Casetext创建伊始就为其提供法律服务。代表Casetext的奥睿跨境团队由合伙人John Bautista、 Mark Seneca以及Zac Padgett领导。

近期,奥睿团队还在中国和美国及欧洲完成若干人工智能大模型领域的投融资交易。

传OpenAI计划推出ChatGPT个人助手,与微软竞争

6月27日消息,在短短半年内,ChatGPT已成为全球最知名的互联网品牌之一。现在,它的创造者OpenAI有了更大的计划:CEO萨姆·奥特曼(Sam Altman)私下告诉部分开发者,OpenAI想将其打造成一个“超级智能的个人工作助手”。这个助手将能够根据个人和工作场所的需求执行多项任务,比如按照用户的风格起草电子邮件或文件,并提供相关业务的最新信息。

然而,这些功能可能会与微软和Salesforce等客户发生冲突,其中微软还是OpenAI的主要合作伙伴、投资者和云服务提供商,它们也希望利用OpenAI的软件构建人工智能“副驾驶”(copilots)来辅助工作。但根据萨姆·奥特曼和另外两名知情人士透露,构建ChatGPT新功能将成为OpenAI商业化努力的重点。

目前,企业正处于从人工智能服务中赚钱的初期阶段,他们正在寻找能够创造最大价值的产品和商业模式。尽管大语言模型(LLM),比如ChatGPT和其他能够理解对话命令的软件相对较新,但微软已经向Office 365客户收取额外费用,让他们可以使用OpenAI的LLM来自动完成任务,比如根据文本文档创建PowerPoint演示文稿、总结会议或起草电子邮件回复等,费用为原价的40%。

据知情人士透露,去年年底ChatGPT取得了突破性的成功后,OpenAI开始向个人和公司收取升级版的订阅费用。目前已有超过200万订户,预计每年可产生数亿美元的收入。据报道,为了提升ChatGPT的价值,OpenAI还考虑开设应用商店,让客户可以在其中销售定制版本的聊天机器人,用于营销材料起草、欺诈交易识别或客户服务聊天机器人构建等。此外,OpenAI还计划推出一个新的开源LLM,以与Meta等竞争对手发布开源LLM的步伐保持一致,从而降低风险。

据从事人工智能领域的专业人士表示,对OpenAI来说,创建一个可靠的个人助手将需要大量工作。目前,客户通过网络或移动应用访问ChatGPT,所有计算都在云中进行,具体来说是通过微软Azure进行的,它使用了数千个专门的英伟达服务器芯片来驱动聊天机器人。然而,为了实现更个性化的运行方式,类似苹果Siri那样快速响应,未来的OpenAI助手软件可能需要部分存储在用户设备上。一些人工智能从业者表示,这可能需要更多时间来开发,因为在不降低性能的情况下,将人工智能模型制作得足够小是一项具有挑战性的任务。

OpenAI还需要找到一种方法,将庞大的ChatGPT软件代码库压缩成更小的代码块,并获得用户的许可,以训练该软件处理个人数据,比如个人电子邮件、联系人以及存储在Word和Google Docs等商业应用中的信息。如果客户明确同意,微软、谷歌和其他商业应用开发商通常会允许外部开发者使用这些数据,因此OpenAI理论上也可以通过这种方式获取数据。

人工智能代理

上个月,奥特曼在伦敦向软件开发者介绍将ChatGPT打造成个人工作助手的计划时,他并未详细说明具体功能。但显而易见的是,这肯定会包括以独特个人风格起草电子邮件或回复信息。

此外,知情人士表示,OpenAI的员工一直在关注开发者如何利用ChatGPT创建自己的人工智能代理。如果这些代理被赋予目标,比如增加软件产品的销售,它们会想出不同的方式来实现,比如创建应用程序或电子邮件模板,用于接触潜在客户。如果OpenAI将这些功能整合到ChatGPT助手中,这并不令人意外。

本月早些时候,OpenAI进行了一项关键招聘,可能与人工智能助手项目有关。他们任命了Facebook前高管邓修平为消费产品副总裁。邓修平在领英上宣布他的新职位时表示,OpenAI希望开发“辅助能力,以帮助人们提高生产力和创造力”。邓修平曾在Facebook担任Messenger的首席产品经理,后来负责Instagram的产品业务,并先后在Uber和Airtable(一家生产力软件公司)担任产品负责人。

如果OpenAI开发个人ChatGPT助手,将引发与微软的另一场竞争。这两家公司在很大程度上相互依赖,但在向其他企业销售OpenAI软件的通用版本时,它们仍存在竞争关系。微软表示,企业最好通过微软购买OpenAI的软件,因为这样可以获得额外的安全承诺和功能,而不是直接从OpenAI购买。

据报道,多年来微软的研究人员一直在研究如何利用OpenAI的LLM开发更个性化的人工智能助手。微软首席财务官艾米·胡德(Amy Hood)最近表示,即使OpenAI独自开发ChatGPT助手,微软与OpenAI的协议也允许微软永久使用该初创公司的底层LLM。协议还规定,如果OpenAI未来产生利润,微软将获得其中的很大一部分。

模糊的界限

开源LLM的快速进步意味着开发者将能够创建自己的人工智能助理。例如,Personal AI是一家成立于2020年的初创公司,他们已经筹集了780万美元的资金。Personal AI使用个人数据训练开源模型和专有LLM,并使模型足够小,可以完全在笔记本电脑或手机上运行。他们希望其软件能够充分了解一个人,以便在会议上模仿或代替他们,或者自动回复工作或个人消息。

Personal AI首席执行官苏曼·卡努甘提(Suman Kanuganti)表示,该公司的软件已经具备足够的智能,可以根据同事在会议期间做的笔记要点,帮助员工回应之前会议的想法。目前已有超过4万人使用该软件实现这一目标,这显示个人电脑和工作电脑之间的界限变得越来越模糊。

然而,人们对人工智能助手的需求和信任仍需观察。一些公司可能更喜欢使用开源人工智能模型而不是OpenAI的专有模型来开发自己的助手软件,因为这样可以在自家服务器上运行模型,从而消除了向OpenAI泄露敏感数据的风险。OpenAI的模型目前是通用的,这意味着模型摄取的任何数据都将成为其知识库的一部分。OpenAI可以通过让客户开发其模型的独特版本来减少数据泄露的担忧,这些版本不会反馈到通用模型中。

OpenAI还需要解决ChatGPT给出错误答案的倾向。加州大学伯克利分校的人工智能教授、数据库软件公司Databricks的联合创始人伊安·斯托伊卡(Ion Stoica)表示,开发高度个性化的人工智能工作模型所面临的技术挑战意味着,这将需要“至少几年”的时间。

一些OpenAI客户已经让ChatGPT以更加个性化的方式运作,每次使用时都提供大量信息。例如,Salesforce已经披露了基于OpenAI技术支持的销售软件,该软件可以为客户起草电子邮件。但每次要求ChatGPT起草电子邮件时,用户都需要在提示中包含客户和产品名称。同样,微软365 Copilot也可以读取整个Word文档或电子邮件线程,以总结文本或将其转换为PowerPoint演示文稿。

斯托伊卡表示,这种被称为“即时工程”的方法可能很“脆弱”因为它的结果会因为用户向ChatGPT提供信息的微小变化而产生巨大差异。此外,以这种方式运行人工智能模型的成本也更高,因为模型必须理解这些信息。

奥特曼和OpenAI发言人拒绝对本文发表评论,微软发言人没有就该公司将OpenAI软件变成个人工作助手的努力置评。

清华第二代60亿参数ChatGLM2开源!中文榜居首,碾压GPT-4,推理提速42%

ChatGLM-6B自3月发布以来,在AI社区爆火,GitHub上已斩获29.8k星。

如今,第二代ChatGLM来了!

清华KEG和数据挖掘小组(THUDM)发布了中英双语对话模型ChatGLM2-6B。

项目地址:https://github.com/THUDM/ChatGLM2-6BHuggingFace:https://huggingface.co/THUDM/chatglm2-6b

最新版本ChatGLM2-6B增加了许多特性:

– 基座模型升级,性能更强大

– 支持8K-32k的上下文

– 推理性能提升了42%

– 对学术研究完全开放,允许申请商用授权

值得一提的是,在中文C-Eval榜单中,ChatGLM2以71.1分位居榜首,碾压GPT-4。而最新版本ChatGLM2-6B以51.7分位列第6。

ChatGLM2-6B升级亮点

ChatGLM-6B的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,又增加许多新特性:

1. 更强大的性能

基于ChatGLM初代模型的开发经验,全面升级了ChatGLM2-6B的基座模型。

ChatGLM2-6B使用了GLM的混合目标函数,经过了1.4T中英标识符的预训练与人类偏好对齐训练.

评测结果显示,与初代模型相比,ChatGLM2-6B在MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。

2. 更长的上下文

基于 FlashAttention 技术,研究人员将基座模型的上下文长度由 ChatGLM-6B 的2K扩展到了32K,并在对话阶段使用8K的上下文长度训练,允许更多轮次的对话。

但当前版本的ChatGLM2-6B对单轮超长文档的理解能力有限,会在后续迭代升级中着重进行优化。

3. 更高效的推理

基于 Multi-Query Attention 技术,ChatGLM2-6B有更高效的推理速度和更低的显存占用.

在官方的模型实现下,推理速度相比初代提升了42%,INT4量化下,6G显存支持的对话长度由1K提升到了8K。

4. 更开放的协议

ChatGLM2-6B权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。

效果

相比于初代模型,ChatGLM2-6B在多个维度的能力上,都取得了巨大的提升。

使用方法

环境安装

首先需要下载本仓库:

git clone https://github.com/THUDM/ChatGLM2-6Bcd ChatGLM2-6B

然后使用pip安装依赖:pip install -r requirements.txt,其中transformers库版本推荐为4.30.2,torch推荐使用 2.0 以上的版本,以获得最佳的推理性能。

代码调用

可以通过如下代码调用ChatGLM2-6B模型来生成对话:

>>> from transformers import AutoTokenizer, AutoModel>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)>>> model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True, device='cuda')>>> model = model.eval()>>> response, history = model.chat(tokenizer, "你好", history=[])>>> print(response)你好👋!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。>>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)>>> print(response)晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:
1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。
如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。
从本地加载模型

在从Hugging Face Hub下载模型之前,需要先安装Git LFS,然后运行:

git clone https://huggingface.co/THUDM/chatglm2-6b

如果checkpoint的下载速度较慢,可以只下载模型实现:

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b

然后,手动下载模型参数文件,并将文件替换到本地的chatglm2-6b目录下。

地址:https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/

模型下载到本地之后,将以上代码中的THUDM/chatglm2-6b替换为本地的chatglm2-6b文件夹的路径,即可从本地加载模型。

参考资料:https://github.com/THUDM/ChatGLM2-6Bhttps://huggingface.co/THUDM/chatglm2-6b

ChatGPT用户账号被黑客入侵,数据在暗网出售

参考消息

据埃及《金字塔报》网站6月20日报道,网络安全公司IB集团(Group-IB)最近一份报告显示,2022年6月至2023年5月,4588名埃及人的ChatGPT账号遭到黑客入侵,他们的数据在暗网上出售。

报道称,遭到黑客入侵的数据包括登录信息和搜索查询。

据报道,埃及账号被盗数量位列中东和非洲地区第一,紧随其后的是摩洛哥(2647个)、阿尔及利亚(2002个)和土耳其(1922个)。

报道称,据IB集团统计,全球共有101134个账号遭到黑客入侵。

据报道,黑客是借助盗取信息的恶意软件入侵账号的;这类软件窃取保存在浏览器上的资历证明、银行卡详细信息、加密钱包信息、用户本地终端数据、浏览历史及其他信息。

报告表明,中东和非洲地区是ChatGPT账号遭到窃取数量第二多的地区(24.6%),亚太地区位居第一(40.5%)。

报道称,总部在新加坡的IB集团自称为知名解决方案提供商,致力于发现并防止网络袭击,识别网络诈骗,调查高科技犯罪并保护知识产权。该公司在迪拜、新加坡和阿姆斯特丹设有地区威胁情报和研究中心。

ChatGPT自2022年11月启用,是一款人工智能聊天机器人。这个人工智能平台自启用后备受追捧,全球不同的群体都在使用。