热点资讯

你的位置:天天自拍在线 > 四色电影 > hongkongdoll face 亚马逊云科技“反攻”:投资、投资再投资,从“云时期”向“AI时期”决骤

hongkongdoll face 亚马逊云科技“反攻”:投资、投资再投资,从“云时期”向“AI时期”决骤


发布日期:2025-01-02 10:28    点击次数:188


hongkongdoll face 亚马逊云科技“反攻”:投资、投资再投资,从“云时期”向“AI时期”决骤

(原标题:亚马逊云科技“反攻”:投资、投资再投资hongkongdoll face,从“云时期”向“AI时期”决骤)

21世纪经济报说念记者倪雨晴 西雅图、深圳报说念

硅谷和西雅图是好意思国AI的两大高地,顶尖的AI工程师掀翻了一波波波浪。

OpenAI在硅谷的楼里开放AI魔盒、谷歌的Transformer架构为大模子奠定基础;通盘向北,西雅图的微软、亚马逊正在从“云时期”往“AI时期”决骤。

尤其是2024年的亚马逊云科技(AWS),营收体量也曾接近1000亿好意思元,2024年第三季度的营收同比增长19%。但成本阛阓是尖刻的,对比微软Azure等云作事同期33%的增幅、谷歌云35%的增幅时,外界依然会磋议AWS增幅不足同业的影响。

对此,AWS CEO Matt Garman在近期领受21世纪经济报说念在内的媒体采访时谈说念:“如果你从十足范围来看,咱们的业务仍在增长,AWS的业务仍然动身点于而况大于统统其他公司的业务,咱们需要不绝专注于客户。”

(亚马逊云科技CEO Matt Garman)

对于云阛阓的竞争,他进一步强调,这个阛阓范围深广,它并不是一个“赢家通吃”的行业,这个界限会有多个赢家,“如果你看和咱们最接近的竞争敌手,比如微软,他们有些举措本色上是在将现存业务的阛阓份额飞舞到这个新业务中。因此,并不行进行浅近类比,需要看其他业务和合座情况。”

同期,Matt Garman指出,当今苟简80%到90%的责任负载仍然运行在土产货,对统统的云作事竞争者来说,若何将这部分迁徙到云表,面前是最大的契机所在。

而AWS并非从零运转,客户解释蕴蓄是它上风,“但咱们也意志到,必须历久保捏饥渴感,必须不休为客户进行立异。咱们需要不绝为客户虚拟价钱、增多新功能,同期也要不休拓展地舆覆盖范围。因此,咱们毫不会因为今天是最大的云作事提供商而停驻脚步。”Matt Garman说说念。

在2024年的re:Invent全球大会上,AWS如实迈出了大措施,推出Amazon Nova系列基础模子并强化Amazon SageMaker、Amazon Bedrock和Amazon Q等中枢作事;告示AI检修芯片Trainium2实例讲求可用,并推出新一代Trainium3。

面前,AWS正在AI产业链的各个法子上秣兵历马。正如亚马逊符号性的球体建筑(Amazon Spheres)中茁壮滋长的植物,AWS也在构建生成式AI时期热带雨林式的更生态。

投资、投资再投资

AI,毫无疑问也曾成为AWS、乃至亚马逊的主题词。就连卸任CEO的亚马逊创举东说念主Jeff Bezos(杰夫·贝索斯),也追思一线,指令AI责任。

在2024年12月的一场媒体访谈中,杰夫·贝索斯久违地出面,并告示我方仍然在亚马逊,并插足好多时辰在亚马逊,面前参与的责任中95%皆集在东说念主工智能。

同在2024年12月,AWS一年中最报复的re:Invent大会上,亚马逊CEO Andy Jassy也躬行上台,发布新款基础大模子Amazon Nova系列。面前,Nova包括6款大模子,涵盖谈话、图像生成和视频生成模子。

此前,AWS也曾有Titan模子,当今更多的模子正在路上,岂论自家模子照旧第三方模子,都将在其AI应用蛊卦平台Bedrock上提供。

同期,AWS推出的新一代AI芯片Trainium3,将选拔3纳米工艺制造。而Adobe、Poolside、Databricks、Qualcomm等企业已大范围插足使用Trainium2。

比拟2023年围绕Bedrock和强化英伟达联结,赫然2024年AWS的节律更快。

谈及AWS的生成式AI策略,Matt Garman提到,AWS在生成式AI方面选定了相敬如宾的搪塞形状。

行动在AI界限深耕20多年的企业,AWS早在十年前就推出了SageMaker,匡助客户在云中构建AI模子。苟简两年前,AWS已入辖下手尝试生成式AI模子蛊卦,并以为这是一项极具出路的本领。ChatGPT的出现颤动了天下,烽火了东说念主们的瞎想力,篡改了客户对AI的看法。

然而AWS选定了长久布局,而非仓猝中推出功能。AWS信托生成式AI将成为每个应用模范的中枢本领。此外,Matt Garman强调,他们以为不会有单一模子主导阛阓,推敲到生成式AI上流的运行成本hongkongdoll face,AWS取舍构建一个平台,确保数据隐秘与安全内置其中,为企业提供更全面的支捏。

2024年AWS如实在AI界限火力全开,投资也更凶猛。

在2024年11月底,AI初创明星Anthropic告示与AWS进一步加深联结,同期亚马逊将新增40亿好意思元投资。这意味着,亚马逊对Anthropic的总投资达到80亿好意思元。

在2024年三季度功绩会上,Andy Jassy还暗示,2025年推测破耗750亿好意思元在AWS和生成式AI之上。

大笔的成本支捏,也反应了AWS要补皆AI板块的深广诡计。

与此同期,微软和谷歌等巨头也在捏续投资树立。尽管近日微软CEO纳德拉在采访中暗示算力投资要严慎,微软不会胆大妄为、大力采买,然而从范围上看依然很可不雅。

摩根士丹利(Morgan Stanley)2024年11月发布的禀报炫夸,亚马逊、Google、Meta和微软2025年的成本支拨总共将达到3000亿好意思元傍边,2026年将进一步增长至3365亿好意思元,这些支拨巨额将插足固定钞票,举例数据中心和房地产。

其中,摩根士丹利将亚马逊2025年景本支拨预估值调高22%至964亿好意思元,主若是数据中心加码采购AI GPU与作事器,2026年预估将进一步增长至1050亿好意思元。

从数据中也能看出,亚马逊正在加速插足,然而生成式AI能否达到如斯高的禀报,也成为成本阛阓的拷问。

对于投资禀报问题,Matt Garman暗示,面前客户案例中也曾初现生成式AI的后劲。这并不单是是“请为我写一首对于咖啡杯的俳句”这样的浅近应用。尽管筹谋机模范能够生成这些内容,这种智力虽意旨,但并非能撑捏万亿好意思元阛阓的想法。如今,AWS也曾看到了一些本色案例的出现,比如在医疗界限,一些公司也曾愚弄生成式AI尝试蜿蜒性的计划。

在Matt Garman表看来,尽管许多模子的智力尚不够强劲,用具仍需完善,数据的应用也有待优化,但从投资角度来看,这是一条正确的说念路。这些本领正不休越过,履历了从第一代到第四代的捏续纠正。信托这种趋势将不绝下去,生成式AI将带来久了的影响。

“6页文档”和芯片旅途

在Matt Garman谈完战术后,西雅图市中心一家历史悠久的餐厅Virginia里,AWS副总裁兼了得工程师James Hamilton向记者禀报了AWS Silicon(芯片)的降生。

James Hamilton在AWS里面亦然颇具传闻颜色的东说念主物,在他走动责任和家庭(一艘汽船)的路上,通常会来到Virginia。用他的话说,AWS Silicon,也即是芯片业务即是在这家餐厅起步的。

“我每周会有2到3次来到Virginia,和初创公司、供应商、客户等东说念主会面,花一个小时详备了解别东说念主的东西。我总能学到一些东西,偶尔我也会有新想法,在这里还际遇了树立AWS硬件部门的伙伴。”James Hamilton说说念。

因此,他取舍在Virginia和媒体交流AWS的芯片办事,在十年前,即2013年傍边,他提议让亚马逊投资芯片,还写了一份“6页文档”(6 page document)。

亚马逊里面有一个特有的“6页纸”(6 pager)文化,包括研发团队的本领工程师都要写文档,文档从分析客户需求运转脱手。而当会议运转时,各人先埋头读文档20分钟傍边,然后再进行发问疏通法子。

James Hamilton回忆说念:“那是2013年8月,也曾是很久以前的事了。其时AWS的CEO Andy Jassy让我整理一份文档,重心是硬件立异,而咱们其时是一家软件公司。他是一个具有前瞻性想维的东说念主,他以为硬件是这个行业的报复构成部分。因此,我写了这份文档,并向Jeff Bezos、Andy Jassy以及AWS团队的科罚层进行了展示。”

这份文档中有两个基本论点,第一个论点是“范围老是胜出”,越过货量会推进立异。他以ARM处理器为例,当今每部手机、每台电视里都有一个ARM处理器,它们无处不在,面前ARM出货量已超2000亿个。

第二个论点是公司需要立异作事器,简化团队的责任历程,“咱们但愿从硬件最底层、从作事器的中枢运转进行立异,为客户创造特有的价值,必须要这样作念。2013年于今,统统的立异和组件都被整合到芯片上。”James Hamilton谈说念。

AWS筹谋与网罗副总裁Dave Brown进一步暗示,AWS于2017年运转蛊卦第一款生成式AI芯片Inferentia,这亦然一款专注于机器学习的芯片,于2019年推出,“咱们一直在追求的地点是,匡助客户每花一好意思元获取更多性能。这有点像夙昔的摩尔定律,但摩尔定律基本上在2003年傍边就也曾失效了,咱们都领受了这极少。但AWS定律是新的,它一直在捏续发展。”

他还提到,AWS将芯片从流片到数据中心部署的周期裁汰至一两个月,大幅加速了蛊卦进度,匡助客户更快获取性能进步。以Graviton系列为例:2018年推出第一代,2019年推出第二代,如今第四代芯片已于2024岁首发布。AWS苟简每18个月推出一款新的Graviton芯片,涵盖从遐想、流片到部署,再到为客户提供作事的完好历程。

此外,AWS还有自研AI检修芯片Trainium系列,最新的Trainium3基本上统统遐想都会围绕生成式AI。而在芯片层面,绕不开的话题即是和英伟达等芯片巨头的竞争,面前岂论AWS、谷歌、微软,都也曾有我方的芯片业务,大多是用于自家业务,然而AWS的芯片和作事器对外售售。

谈及竞争,Dave Brown回答说念,NVIDIA、Intel和AMD是AWS最细腻的联合股伴之一,客户在AWS可取舍Intel、AMD或Graviton,每种决策都有不同的优过错。部分客户取舍Intel或AMD以愚弄x86架构和成本省俭,而另一些客户则倾向于Graviton,因为其可提供约40%的性价比进步。

在AI界限,这种取舍权一样适用。有些客户偏疼NVIDIA的生态系统,而另一些客户则尝试AWS的检修芯片和Inferentia,以杀青成本省俭并完成更多任务。他还提到,AWS还与Intel联结,使Sapphire Rapids芯片在AWS上的性能进步约18%,AWS与NVIDIA联结推出GB200的集群,用于检修大型谈话模子和支捏DGX Cloud。

而AWS强调最多的即是多方联结虚拟成本,岂论是对自身业务照旧客户业务。多位分析师也向21世纪经济报说念记者暗示,互联网巨头自研芯片多是出于成本和业务发展推敲,面前尤其是在推理阛阓上,定制化芯片正在和英伟达变成竞争之势。

在谈及AI推理带来的新需求时,亚马逊云科技大中华区产物本领总监王晓野告诉21世纪经济报说念记者:“一方面在模子结束上,智能体调用时模子智力至关报复;另一方面在底层,不仅要优化延迟latency,还有极少值得关切,那即是底层算力中CPU和GPU筹谋的配比。以前在模子智力优化时,各人多聚焦预检修阶段(此阶段GPU使用较多),但如今在优化推明智力时,好多作念法是预检修到一定程度后,在后续一步推理中选拔强化学习等形状,而况会凭证CPU筹谋结束来判断和退换,这势必会使CPU算力比例发生相应变化。”

推测芯片界限的本领趋势,James Hamilton暗示:“夙昔几年大巨额立异都联结在芯片自己过甚若何松开尺寸方面。当今,咱们进入了大范围多芯片封装的阶段。面前关切的重心是,多大范围的多芯片封装本色可行?咱们若何通过光互连本领来进步性能?以及接下来四到五年内,这一界限将会发生什么变化?我极端肯定,这将是改日五年内立异的中枢界限。”

云厂商的“ABCD模子”竞赛

云厂商的竞争如今更加热烈,大致咱们不错用“ABCD模子”来推测厂商概述智力的模范。

一位AI资深从业者向21世纪经济报说念记者暗示,要在面前阶段胜出,一家云厂商至少需要具备AI(东说念主工智能)、Business(业务)、Cloud(云筹谋)、Data(数据)四项智力,成为“万能型选手”,而非只是专注于某一界限。

AI行动中枢本领框架无疑是整个模子的领头见解,各家都在不休发力。但商用的要津性通常被残酷。许多公司盲目投资AI,但愿通过本领蜿蜒业务瓶颈,正确的旅途应是业务优先,通过明确的业务场景推进AI本领的落地。

从面前的竞争来看,业务先行方面,亚马逊集团电商垂类业务动身点,微软合座增长较快,平直将C端一系列应用迁徙上云。

云则是基础智力,凭证Gartner的统计,2023年全球基础设施即作事(IaaS)阛阓上,亚马逊在2023年不绝位居IaaS阛阓第一,微软、谷歌、阿里巴巴和华为紧随自后,以39%的阛阓份额不绝领跑。

而数据是应用AI的要津,数据的丰富性和各样性平直决定了AI检修和应用的结束。亚马逊合座有丰富的电商数据上风,微软数据类型较为各样化,谷歌在数据界限一样证据出色,依托搜索引擎蕴蓄的海量数据上风,但在云上的证据稍显一般。

合座而言,AWS的上风则在于云的强劲智力,集团电交易务垂直界限的基础塌实,数据也多元,面前它在AI界限插足深广,补皆关系的短板。对照ABCD四个宗旨,微软、谷歌也各有优劣。

推测改日,AI厂商要想真的扩大AI和云的范围,必须更加依赖业务的驱动,这亦然2024年以来业界关切的交易模式话题。

成人小说

从全球竞争态势来看,AI阛阓的竞争仍在加重。DeepSeek发布的新一代大谈话模子DeepSeek-V3,与全球顶尖大模子并列,这标明国内AI初创企业正别具肺肠,试图在这场竞争中占据方寸之地。在全球AI名次榜中,OpenAI、谷歌的Gemini、Anthropic等依然占据动身点位置,但新的竞争者不休知道,为阛阓注入了新的活力。

与此同期,基础设施的能耗问题成为云厂商发展的新挑战,换言之,ABCD除外,E所代表的动力(Eenergy)也将成为要津要素。

数据炫夸,在好意思国,基础设施的耗电量面前占电网总负荷的2%,而改日十年可能飞腾至6%-7%以至更多。动力成本和效率也曾成为云厂商无法掩盖的问题,影响着基础设施推广和AI本领的部署。

Matt Garman暗示,高效愚弄动力是AWS的报复地点之一。云数据中心相较于传统土产货数据中心,效率更高,愚弄率更强。关联词,夙昔浅近央求更多电力的时期也曾结束,当今需要从长久角度筹谋电力供应,尽头是零碳动力的容量问题。AWS将电力筹谋延长至2024年、2030年乃至2040年,效力推进可再纯真力神色的推广。

但风能和太阳能可能不足以得志改日需求,核能成为报复补充。AWS此前与核电厂达成联结公约,并对微型模块化反应堆(SMR)进行了大范围投资。这些自包含的反应堆可部署在围聚数据中心的位置,有用减少电力传输损耗。尽管SMR的部署或需比及2030年,但AWS对自后劲充满期待,视其为改日几十年得志需求的要津契机。

谷歌也告示将从SMR 蛊卦商Kairos Power购买电力。微软也与Constellation Energy联结重启三哩岛核电站,为其数据中心供电。

云厂商的竞争已从单一界限的比拼转向多维度的较量hongkongdoll face,各大厂商在自如中枢智力的同期,不休寻求立异旅途以搪塞全球阛阓的挑战和变化。改日,云厂商的得手不仅依赖本领实力,更需在业务驱动、生态构建和动力筹谋上杀青蜿蜒。