白宫发布AI监管重磅炸弹 – 10项规定将颠覆该行业

OpenAI、Google、微软等知名AI参与者必须遵守新的AI立法。

白宫刚刚宣布了一项针对AI监管的重大行政命令。根据白宫副幕僚长布鲁斯·里德(Bruce Reed)的说法,这些指令是“全球任何政府迄今为止采取的最强有力的行动”,旨在保护AI对美国公民的影响。

拜登政府一直在制定监管自由度较大的AI行业的计划。这项命令基于拜登-哈里斯关于AI权利法案的蓝图,以及15家领先科技公司自愿与政府合作推动安全和负责任的AI开发。

白宫并未等待国会通过自己的立法,而是通过行政命令来减轻AI风险,同时充分利用其潜力。随着像ChatGPT这样的生成式AI的广泛使用,利用AI的紧迫性变得非常真实。

白宫AI行政命令:您需要了解的10个关键规定

这个行政命令是什么样的?它将如何影响AI公司?以下是您需要了解的情况。

1. 开发强大AI系统的开发者必须与联邦政府分享其安全测试的结果

换句话说,当一家知名AI公司(例如OpenAI、Google和微软)正在训练其模型时,它必须在向公众发布之前分享红队安全测试的结果。(红队是一组人,通过冒充恶意行为者来测试数字实体的安全性和安全性。)

根据一位高级政府官员的说法,该命令侧重于未来一代AI模型,而不是像ChatGPT这样的当前面向消费者的工具。此外,需要分享安全测试结果的公司是那些符合最高计算性能门槛的公司。该官员表示:“这不会捕捉到由研究生甚至教授培训的AI系统。这实际上是针对世界上最强大的系统。”

2. 红队测试将符合国家标准与技术研究院(NIST)制定的高标准

国土安全部和能源部还将共同合作,确定AI系统在网络安全以及化学、生物、放射性和核基础设施领域是否存在某些风险。

3. 解决使用模型进行科学和生物相关项目的AI参与者的安全问题

正在制定新的“生物合成筛选”标准,以防范由AI工程化的“危险生物材料”。

4. AI生成的内容必须加上水印

商务部将发布指导方针,确保所有AI生成的内容 – 音频、图像、视频和文本 – 都标明来源。这将使美国人能够确定哪些内容是由非人类实体创建的,从而更容易识别欺骗性的Deepfake

5. 持续推进“AI网络挑战”

对于未曾了解的人,AI网络挑战是拜登政府的一个倡议,旨在建立一个高级别的网络安全计划,加强AI工具的安全性,确保漏洞得到修复。

6. 依靠国会通过“跨党派数据隐私立法”

这项行政命令是对国会的一项信息,要求立法者加快速度。拜登呼吁立法者确保在知名AI参与者训练其模型时保护美国人的隐私。儿童的隐私将是主要关注点。

7. 深入研究公司的数据政策。

白宫表示,将评估机构和第三方数据经纪人如何收集和使用“商业可得”信息,即公共数据集。一些“可以识别个人身份”的数据是对公众可得的,但这并不意味着AI参与者可以自由使用这些信息。

8. 减少AI引发的歧视

将会推出指导方针,减少房东、联邦承包商等领域歧视的可能性。此外,政府将介绍在刑事司法系统中关于判刑中使用AI的问题的最佳实践。此外,拜登政府将处理与AI在刑事司法系统中的使用相关的问题。

9. 吸引全球顶尖AI人才

截止到今天,ai.gov网站为寻求AI奖学金和美国政府工作机会的申请人提供了一个门户网站。该命令还寻求更新具有AI专业知识的移民的签证标准。

10. 支持容易受到AI发展影响的工人

拜登政府将通过制定原则和最佳实践来支持工人的集体谈判权,以保护工人免受潜在的监控、工作替代和歧视等危害。该命令还宣布了有关AI对劳动力市场潜在扰乱的报告计划。

紧急提醒!东胜区发现首例“AI换脸”新型诈骗

近日,东胜市民李女士遭遇了冒充熟人的诈骗,被骗30万元。诈骗分子冒充李女士的同学“贾某”,伪造微信账号添加李女士后,主动提出视频聊天。视频中,李女士看到了“贾某”本人,对方称信号不好不便继续视频,打完招呼后转入文字聊天。

“贾某”说他有个领导的亲戚正在参加一个项目竞标,急需周转资金,自己不便出面,想借李女士的名义将钱转给对方。“贾某”向李女士索要了银行卡号,声称已经把钱转到了李女士的账户上,还把银行转账底单的截图(PS图片)通过微信发给李女士。基于对好友的信任,加上已经通过视频聊天核实了身份,李女士没有核实钱款是否到账,就把自己全部存款30万元转了过去。对方要求李女士借钱继续转账,李女士产生了疑虑,拨打好友电话,才知道原来遇上了高端的电信诈骗。骗子通过智能AI换脸和拟声技术,佯装好友对她实施了诈骗。

什么是“AI”诈骗?

诈骗分子利用AI换脸技术,提前制作了冒充领导或熟人的视频,而并不是实时的视频互动通话。

其本质就是冒充领导和熟人类诈骗的升级版。

首先诈骗分子通过非法渠道获取受害人的通讯录和社会关系等信息,使用领导或熟人的姓名和照片,包装社交账号并添加受害人为好友。

然后诈骗分子会使用通过AI换脸换声技术合成的熟人视频,通过视频通话的方式给受害人播放,骗取受害人信任。并且为了防止受害人发现破绽,视频通话的时间往往十分短暂,诈骗分子会以正在开会等理由故意挂断电话,要求转入文字聊天。

随后,诈骗分子会以有事不方便出面等理由要求受害人代为转账,以此达到诈骗目的。

东胜公安提醒:

1.请广大市民一定要注意保护好个人信息,以防被不法分子掌握信息而实施诈骗。

2.眼见不一定为实,有图也不一定就是真相。

3.涉及转账、汇款等情况时,务必要通过多方渠道核实并确定对方身份。

4.如果有人要你帮忙过账,无论多大的领导,多熟悉的人,必须电话或当面核实,而且要等钱到账之后再进行转账。

又一款AI神器,虽然有点太大,但超级实用!

德克萨斯州达拉斯的一家公司Topaz,旗下有两款产品:Topaz Photo AI和Topaz Video AI,从名字就可以看出它们是基于人工智能(AI)的,一款是图片编辑软件,另一款是视频编辑软件。今天主要来介绍第一款Photo AI:它可以通过大数据模型,自动调整图片,包括:无损放大、降噪、锐化、人脸修复等。以前这些功能都是独立的软件,现在都合而为一了。

无损放大:众所周知,一张图片如果放大的倍数越大就越模糊,Photo AI通过大数据模型的训练,当图片放大时,对图片的细节进行处理,自动填充缺失的像素,增强图片的分辨率,所以放大后不会失真。

下图(左)的老虎比较模糊,用无损放大功能,右侧设置处,将「缩放比例」开关打开,AI模块选择「Low Resolution」,拖动图像去噪、轻微模糊滑块,等待软件自动处理完成。处理后的右图即便放大也会非常清晰,并且细节保留的也很完整。

降噪:消除图片的噪点,提高图片的分辨率。去除噪点的同时,不会影响图片原有的细节。

锐化:图片模糊的原因可能是由于拍摄时相机抖动、对焦问题等等,锐化功能可以自然的逆转模糊的原因,对照片进行锐化。

下图(左)的猴子是来自官网的示意图,我在软件中进行了设置,右侧将「去除噪点」、「锐化」按钮打开,并将参数进行简单的调整,至于怎么调整参数,可以自行选择尝试,直到满意为止。因为计算需要时间,电脑配置越低,速度越慢。

对于老照片,也能进行简单的修复。如果一次修复不满意,还可以保存后,重新再修复一次。

还可以把这个软件和Adobe Photoshop结合起来使用。把Topaz Photo AI 目录下的TopazPhotoAI.8bf文件,复制到Photoshop安装目录Plug-ins下,这样可以在PS的菜单栏:滤镜中找到“opaz Labs”,点击它即可调用Topaz Photo AI。它相当于作为PS的插件使用。

电脑配置最低要求:

Windows10或Windows11;

②CPU带有AVX指令,2013年以后发布的;

③内存12GB(推荐16GB);

④显卡Nvidia GTX 900或更高;AMD Radeon 400或更高;Intel UHD 600或更高。

软件官网:

https://www.topazlabs.com

安装Topaz Photo AI时会自动从官网下载模型,由于网络原因可能会导致下载失败,今天提供一个绿色版的Topaz Photo AI,包含所有的大模型,解压后总共6.34GB。原版软件为英文版,此版本集成了吾爱论坛网友@xzf的汉化补丁。

软件获取:

https://www.123pan.com/s/xY3DVv-03VHA.html

提取码:rXiV

中美科技战,正从AI展开

10月17日,在限制对华出口先进芯片一年后,美国计划进一步收紧相关措施,以阻止中国获得可能有助于其军事发展的尖端技术,相关措施旨在弥补去年10月限制措施的漏洞,拜登政府将寻求加强对向中国公司出售用于人工智能的图形芯片和先进芯片制造设备的控制。

此外,白宫还将对试图通过其他国家运输以规避出口限制的中国企业实施额外检查,并将中国芯片设计公司列入贸易限制名单,要求美国海外的芯片制造商必须获得华盛顿的许可证才能为这些公司供货。新限制措施将阻止一些恰好满足当前技术参数限制的AI芯片的对华出口。

路透社报道称,在美国去年发布对华芯片出口限制后,英伟达公司就针对中国市场推出了H800芯片,以代替被禁售的H100型号AI芯片。而H800被普遍认为是华盛顿希望阻止对华出口的对象之一。美国还计划取消用于限制AI芯片出口的“带宽参数”,用其他标准取而代之,以扩大限制范围。

由此看来,在人工智能领域,中美两国的竞争已趋白热化。

两国都在人工智能技术上投入了数十亿美元,在研究和教育方面处于领先地位,并制定了国家人工智能战略计划。中国宣布计划在2030年成为世界主要人工智能创新中心,这意味着可能取代美国长期占据的领先地位。

有人称人工智能是第四次工业革命的驱动力,它在美国和中国之间的技术竞争中肯定很重要,那么两国在这场技术竞争中处于什么位置呢?

斯坦福Institute for Human-Centered AI(HAI)发布的《2021人工智能指数》显示,在学术研究、投资和技术人才领域,中美越来越相向而行。01

中国学术影响力日益增长

艾伦人工智能研究所(AI2)旗下Semantic Scholar团队对发表的人工智能学术论文进行了研究。

中国在人工智能研究方面的崛起不仅体现在其人工智能论文总量上,现在还体现在被引用最多的人工智能论文中,所占的份额不断增长。

在此项研究中,他们发现中国已经在2019年超过了美国,占据了人工智能论文被引用前50%的位置。到2019年,在排名前50%的论文中,中国的总份额已经增长到31.5%,而美国为30.0%。

引用量衡量的是论文提出的想法是否新颖且具有影响力,而不仅仅是研究人员发表的论文数量。数据表明,中国现在在人工智能基础知识方面做出了更多贡献,有了质的提升。

据分析,中国之所以取得这一领先,是因为在期刊出版方面超过了美国。2019年在学术期刊上发表的Top 50%论文中,中国有11.5万篇,美国有8.0万篇。

在关注最具影响力的人工智能论文(前10%和前1%被引用最多的论文)时,中国论文的比例近年来也在快速增长,并正在逼近美国的份额。以2020年为例,人工智能(AI)领域论文被引用最多的10%中,美国占37%,而中国占36%。02

美国仍然吸引AI人才

虽然中国在论文质量数量上都有赶超美国之势,但在对AI人才的吸引力上,美国仍占据优势。

据AMiner发布的2022年人工智能全球最具影响力学者榜单AI 2000显示,美国依旧在人工智能人才上占有强势领先位置,囊括13个领域的榜首学者。中国收入两个榜首学者,分别是信息检索与推荐和多媒体两个领域。

从学者国家分布来看,美国入选AI 2000学者及提名学者的数量最多,有1146人次,占比57.3%,超过总人数的一半以上。中国排在美国之后,位列第二,有232人次,占比11.6%。

从AI 2000最具影响力学者入选数量来看,谷歌、Meta及微软三大科技公司占据优势地位,公司拥有的顶级AI学者数量,无论是top 10还是top 100数量,均远多于高校。其中位居首位的谷歌公司,共181人次入选榜单,也是唯一一家学者数过百的机构。

从机构所在的国家分布来看,清华大学相较于21年,遗憾离开前十名的位置。前十名均为美国机构,且美国机构学者总体人数遥遥领先。

人工智能的进步取决于人工智能人才,这可能是阻碍人工智能广泛应用的最大瓶颈。

几十年来,美国一直是吸引全球人工智能人才的磁铁,吸引着世界各地最优秀的科技创新人才。2020年美国人工智能员工的招聘率约为2016年的两倍,当时美国已经拥有大量此类员工。相比之下,同期中国的增长率仅为30%左右。

但美国在人工智能人才方面的主导地位可能正在发生变化,由于美国签证难度提升,专注于技术的毕业生越来越难留在美国。

虽然人工智能指数显示,80%的近期人工智能博士毕业生继续留在美国,但像加拿大这样为高技能技术工人提供简化工作/移民途径的国家正在吸引更多原本可能留在毕业国的人才。他们中的许多人仍在为在海外设有办事处的美国公司工作,但从长远来看,如果华盛顿不解决这些趋势的驱动因素,人才竞争可能会成为美国的负担。03

AI融资对比

伴随着生成式人工智能的迅速崛起,巨额投资也纷纷进入了各类初创公司中。

生成式人工智能过去五年的投资共计超过220亿美元,尤其是在2023年,投资金额与往年拉开了明显的差距。

美国在这次生成式人工智能浪潮中独占鳌头,全球89%的投资都流向了美国的初创公司。造就美国主导地位的部分原因是OpenAI的崛起。自ChatGPT推出以来,就备受风险投资的宠爱,VC向OpenAI投入了近120亿美元,引发了生成式AI的热潮。

许多顶级投资者一直在积极建立自己的新一代人工智能投资组合。Andreessen Horowitz和红杉对新一代人工智能的投资比其他任何人都多出近50%。Ycombinator是GenAI初创企业最积极的加速器,已为100多家初创企业提供支持,其中包括OpenAI、Replit等。

在全球范围内,生成式人工智能融资最多的国家是美国,它遥遥领先于其他所有国家。其次是以色列和加拿大,英国、德国、荷兰和瑞典紧随其后,而中国暂未位列其中。但中国一直是人工智能芯片投资的领先地区,中国AI芯片的融资是美国的两倍以上。04

重塑竞争框架

总体而言,将人工智能的发展视为一场零和博弈可能会忽略其中的关键部分。

在人工智能领域的某些维度上,竞争确实成立。人工智能可能会破坏当前的军事力量平衡,有些市场可能只会出现一个或少数几个赢家。但在很多情况下,协作也至关重要。例如中国可能在机器学习的数据标签服务方面具有优势,可以向美国公司出售数据集,以构建更好的算法,以实现互惠互利。

所有国家都应该从人权的角度为全球利益进行人工智能合作,在全球性的挑战中,我们要么会因为出现问题而承受后果,要么我们能够创造出更好的解决方案,就会从中受益。

人工智能已成为一种颠覆性技术,能够利用其力量的国家将会得到巨大的经济和战略优势。

中国大力推动人工智能的应用,正在挑战美国作为该领域全球领导者的地位。鉴于人工智能的巨大潜力,以及两国之间紧张的地缘政治关系,美国已经制定了一系列管制政策,阻止人工智能等尖端科技落地中国。

然而,美政府对人才外流和跨境合作的程度并不完全了解。自2000年以来,中国和美国在AI领域的影响力、创新性、生产力和劳动力方面一直处于领先地位。不少供职于中国的人工智能科学家来自美国,而大多数移民到美国的人工智能科学家则来自中国,这凸显了双向人才流失的显著现象。一项配对实验显示,两国在合作时的影响力总是大于各自单独工作时的影响力。这些发现表明,与其压制两国之间的合作,不如鼓励两国之间的合作。

我们确实开始看到一系列国家展开了合作,共同塑造嵌入人工智能技术中的原则和价值观,以对抗未来发生数字独裁主义。

 来源:陀螺财经

了解人工智能所需的 30 个术语

每一次重大的技术革命都伴随着一波学习浪潮,直到我们对这些新的词汇变得非常熟悉。对于下一个主要的技术浪潮(人工智能)而言,亦是如此。当所有人在考虑这种新兴技术可能带来的风险和好处时,理解人工智能的术语将至关重要。在过去几年中,出现了许多与人工智能相关的新术语,比如 “大语言模型”、“提示工程”等。

为了能够跟上时代的步伐,我们整理了一系列需要熟悉的名词,以便我们更加了解人工智能如何改变我们的世界。

通用人工智能(Artificial general intelligence ,AGI)

AGI中文翻译为通用人工智能,又称为强人工智能。AGI是一种具有与人类相同的思维的人工智能,甚至也有意识,具备数字思维的能力。OpenAI和DeepMind等公司已经明确表示,创造AGI是他们的目标。OpenAI认为,它将“通过增加财富、加速全球经济、协助发现新的科学知识来帮助全人类提升”,并成为“人类聪明才智和创造力的强大助力”。

对齐(Alignment

人类从未与强大的非人类智慧生物共享地球。如何确保人工智能的价值观与人类的价值观保持一致?

这种一致性问题加剧了人们对人工智能灾难的担忧。7月初, OpenAI宣布了一项“超级对齐”计划,旨在确保人工智能系统遵循人类的意图。

偏见(Bias)

为了让人工智能达到预期效果,它需要通过人类提供的数据集进行学习。但是,人类很难没有偏见。如果人工智能从一个有偏差的数据集获得能力,例如,与种族或性别有关的数据,那么它就有可能产生不准确的、令人反感的输出。随着人们赋予人工智能越来越多的把关和决策职能,许多人担心机器可能会产生一些潜在偏见,阻止部分人群获得某些服务或知识。

计算(Compute)

计算指的是训练人工智能所需的计算资源,比如处理能力。它可以被量化,所以它是衡量人工智能发展速度的一个指标(以及人工智能的成本和强度)。

自2012年以来,计算量每3.4个月翻一番,这意味着,当OpenAI的GPT-3在2020年接受训练时,它需要的计算能力是2012年最先进的机器学习系统之一的60万倍。

扩散模型(Diffusion models)

生成对抗网络(generative adversarial networks,Gan)是几年前让人工智能生成图像的主流技术之一。这些算法相互对立,一种算法训练生成图像,而另一种算法则对照现实情况检查结果,从而不断改进。

扩散模型 从本质上讲是通过添加噪声破坏训练数据来实现智能,然后再通过逆向该过程来恢复数据。之所以被称为扩散模型,是因为这种基于噪声的学习过程与气体分子扩散的方式如出一辙。

涌现性和可解释性(Emergence & explainability)

涌现现象是指人工智能做出一些意料之外的事情,超出了创造者的意图或程序设计。随着人工智能学习变得越来越不透明,它所建立的联系和模式甚至连它的创造者自己都无法解读,涌现现象更有可能发生。

大众可能会认为,要了解人工智能,需要掀开它的隐喻罩,看看它是如何训练出来的。然而,现代人工智能并不透明,它的工作原理往往隐藏在所谓的 “黑盒”中。因此,尽管设计者可能知道他们使用了哪些训练数据,却不知道它是如何在黑盒中产生联想和预测的。这就是为什么研究人员现在专注于提高人工智能的 “可解释性”——从本质上讲,就是让人工智能的内部运作对人类更加透明和易懂。

大模型(Foundation models)

这是对过去一两年中出现的新一代人工智能的另一种称谓,也称为基础模型,它们能够掌握一系列技能:写作文、写代码、绘画、作曲等。过去的人工智能针对特定任务,通常只擅长一件事,而大模型则具有创造性能力,能将在一个领域学到的信息应用到另一个领域。

幽灵(Ghosts)

我们可能正在进入一个时代,人们可以获得某种形式的数字永生,以人工智能“幽灵”的身份活着。然而,这一发展引发了一系列棘手的伦理问题:一个人死后,谁拥有他的数字版权?如果人工智能版本违背了本人的意愿而存在呢?

幻觉(Hallucination)

有时候,如果你问ChatGPT、Bard、Bing此类人工智能一个问题,它会非常自信地回答。但它的回答可能是错误的。这就是所谓的“幻觉”。这是因为生成式人工智能的工作方式,它不是求助于数据库来查找固定的事实,而是根据它所接受的训练信息做出预测。

工具趋同(Instrumental convergence)

粗略地讲,“工具趋同理论”认为超级智能机器会发展出基本的驱动力,比如寻求确保自身的自我保护,或者发展额外的资源、工具、认知能力帮助它们实现目标。这意味着,即使人工智能被赋予了一个看似良性的优先级任务,它也可能导致意想不到的有害后果。

越狱(Jailbreak)

在出现了一些AI失控案例后,设计师对AI产生的内容进行了限制。让人工智能回答如何做非法或不道德的事情会被拒绝。然而,仍旧有可能通过“越狱”获取答案,需要使用创造性的语言、假设的场景、诡计绕过保护措施。

知识图谱(Knowledge graph)

知识图谱,也被称为语义网络,是一种将知识作为网络来思考的方式,这样机器就可以理解概念是如何关联的。例如,在最基本的层面上,在这样的图表中,猫与狗的联系会比与秃鹰的联系更紧密,因为它们都是有毛和四条腿的家养哺乳动物。

大语言模型(Large language models,LLMs)

大型语言模型是一种先进的人工智能系统,旨在理解和生成类似人类的语言。它利用具有数百万甚至数十亿参数的深度神经网络架构,使其能够从大量文本数据中学习复杂的模式、语法和语义。

模式坍塌(Model collapse)

为了开发最先进的人工智能模型,研究人员需要用庞大的数据集进行训练。最终,随着人工智能产生越来越多的内容,这些材料将反馈到训练数据中。如果期间犯了错误,这些错误可能会随着时间的推移而扩大,最终导致 “模型坍塌”。

神经网络(Neural network)

在研究人工智能的早期阶段,机器是用逻辑和规则来训练的。机器学习的出现改变了这一切。现在最先进的人工智能可以自己学习。这一概念的演变导致了“神经网络”的出现,这是一种机器学习模式,使用相互连接的节点,模仿人类的大脑。

开源(Open-source)

几年前,生物学家意识到,在互联网上公开危险病原体的详细信息可能存在潜在危险,它可能被不法分子利用。

最近,人工智能研究人员和公司也面临着类似的困境:人工智能应该在多大程度上开源?鉴于最先进的人工智能目前掌握在少数几家私营公司手中,一些人呼吁提高这些技术的透明度和民主化。然而,对于如何在开源和安全之间取得平衡,仍存在分歧。

提示工程(Prompt engineering)

人工智能现在在理解自然语言方面表现优异。然而,要想从中获得最好的结果,需要有能力写出有效的“提示词”,即输入的文本很重要。

一些人认为,“提示工程”可能代表着工作技能的新前沿,就像几十年前掌握微软Excel让你更容易被雇佣一样。人们普遍认为,如果你擅长提示工程,你就可以避免被人工智能取代,甚至可能获得高薪。

量子机器学习(Quantum machine learning)

就最大程度的炒作而言,2023年仅次于人工智能的是量子计算。大家都在期望两者的结合。研究人员目前正在积极探索利用量子过程来增强机器学习。谷歌人工智能研究人员称:“在量子计算机上建立的模型可能会强大得多……可能会在更少的数据上实现更快的计算和更好的泛化”。

逐底竞争(Race to the bottom)

随着人工智能的迅速发展,一些研究人员担心,它们可能会在影响方面引发“逐底竞争”。伴随首席执行官和政界人士竞相将公司和国家置于人工智能的前沿,该技术可能会加速发展,以至于无法建立保障措施、适当的监管减轻道德担忧。

强化(Reinforcement)

人工智能相当于狗粮。当人工智能学习时,通过反馈指导其向正确的方向发展。强化学习奖励那些理想的输出,惩罚那些不理想的输出。

超级智能和修格斯(Superintelligence & shoggoths)

超级智能是指远远超过人类心智能力的机器。这超越了“通用人工智能”的范畴,它描述的是一个实体,该实体拥有世界上最聪明的人类思想也无法匹敌的能力。由于人类目前是世界上最聪明的物种,并使用我们的大脑控制世界,那么如果我们创造出比我们聪明得多的东西会发生什么?

一种黑暗的可能性是“带着笑脸的修格斯”:一种噩梦般的、洛夫克拉夫特式的生物,有人认为它可能代表人工智能接近超级智能的真实本质。对我们来说,它是一个和蔼可亲、快乐的人工智能,但其内心深处隐藏着一个怪物,有着与我们完全不同的外星欲望和意图。

训练数据(Training data)

分析训练数据是人工智能在能够做出预测之前进行学习的方式——因此数据集中的内容、数据是否有偏差以及数据有多大都很重要。

无监督学习(Unsupervised learning)

无监督学习是一种机器学习模式,人工智能在没有人类任何明确指导的情况下从未标记的训练数据中学习。

声音克隆(Voice cloning)

只要一分钟的个人讲话音频,一些人工智能工具就能迅速合成一个听起来非常相似的“声音克隆”。

弱人工智能(Weak AI)

过去,研究人员会用特定的规则和启发式方法训练人工智能,让它能玩单一的游戏,比如国际象棋。像这样的人工智能可能非常擅长一项任务,但在其他方面表现不佳,这就是所谓的“弱人工智能”。

未知风险(X-risk)

人工智能会导致人类灭绝吗?一些研究人员和技术专家认为,人工智能已经成为一种“未知风险”,与核武器和生物工程病原体一样,因此其持续发展应该受到监管、限制甚至停止。

YOLO

YOLO是一种目标检测模型,由于其工作速度快,被人工智能图像识别工具广泛使用。

零样本(Zero-shot)

当人工智能给出零样本答案时,这意味着它对以前从未遇到过的概念或对象做出了回应。

所以,举个简单的例子,如果一个被设计用来识别动物图像的人工智能已经被训练过猫和狗的图像,它很难识别马或大象。但是通过零样本学习,它可以利用对马的语义了解,比如腿的数量、缺乏翅膀,来将它的属性与训练过的动物进行比较。

IDC发布全球信息技术行业十大预测:人工智能将重塑IT行业及企业运营方式


IT技能不匹配

AI、云计算、数据、安全和新兴技术领域的培训不足,将直接对企业依靠这些技术取得成功的努力产生负面影响。到2026年,资金不足的技能培训计划将使65%的企业无法从这些技术投资中实现全部价值。 

服务业转型 

Gen AI将引发战略、变革和培训等人工交付服务的转变。到2025年,40%的服务将包括GenAI支持的交付,影响从合同谈判到IT运营再到风险评估的方方面面。

统一控制

未来几年,IT 团队最具挑战性的任务之一就是驾驭控制平台的成熟,因为它们将从解决几个基本系统发展成为协调基础设施、数据、人工智能服务和业务应用程序/流程的标准平台。

融合型AI

如今对 Gen AI 的痴迷不应延误或破坏现有或其他人工智能方面的投资。企业必须考虑、试用并生产完全融合的人工智能解决方案,使其能够以更低的价格解决新的使用案例和客户角色。

定位体验

Gen AI 的加速应用将使企业能够通过情境体验增强其边缘计算用例,从而更好地将业务成果与客户期望保持一致。

数字前沿

基于卫星的互联网连接将提供无处不在的网络,有助于弥合数字鸿沟,实现一系列新的功能和商业模式。到 2028 年,80%的企业将集成LEO卫星连接,创建统一的数字服务结构,确保弹性无处不在的访问和数据流动性。

原创 IDC中国 IDC咨询