对话华为云CTO张宇昕:互联网是应用大模型的冲锋军?我们都想错了

360影视 2024-12-27 17:06 4

摘要:1999 年加入华为的张宇昕,至今担任华为云 CTO 已有七个年头。从一名基层软件开发工程师做起,先后经历了互联网和移动互联网浪潮(过程中创立了欧拉部),而这一次,他确定,生成式 AI 的技术浪潮,真的与以往不同。

文 | 卫诗婕

「这一次,狼真的来了。」张宇昕对我说。

1999 年加入华为的张宇昕,至今担任华为云 CTO 已有七个年头。从一名基层软件开发工程师做起,先后经历了互联网和移动互联网浪潮(过程中创立了欧拉部),而这一次,他确定,生成式 AI 的技术浪潮,真的与以往不同

「这一波人工智能让大家看到了泛化与通用——通用就是大家都能用。」

「AI 从一个局部真理,走向了人人都信。」

「人工智能浪潮来临后,没有一个企业说我不用人工智能。」

不过,冰冷的现实是,人们对于技术的畅想无限,而落地时却进展缓慢——这是大模型浪潮迄今经历的,从热情高昂,到冷静务实的 600 多天。

昂贵、使用门槛高、技术仍存在局限,是大模型难以进入现象级应用的真相。

因此,放眼中外,云厂商成为大模型剧目中的绝对主角。他们既是辅导员——帮助一批企业率先用上大模型,过程中也售卖出自己的算力、基础设施和服务;同时也是攒局者——凭借对产业上下游的连接,先实现技术最大面积地应用,并充分观察、统筹、整合,再让产品反向牵引技术进步。

而中国的众多云厂商中,只有华为云,坚定地选择了难度最大的「AI for industry」——要将大模型率先应用于工业领域。

如果将华为视作一扇窗口,便能窥见千行百业在这次新技术浪潮下的众生相——

产业里的热情和焦虑都是空前的。在此情绪之下,一批巨无霸工业龙头,已经率先踏上大模型应用的牌桌,因为只有它们——拥有足够的财力和数据积累,有资格当「第一批吃螃蟹的人」。

一周前,我在海南,创原会技术峰会的现场,目睹了这些令人称奇的先进案例:在生产精煤、炼钢、水泥制造、医药开发与研制、疾病预测等等重要的场景里,贴着行业训出的大模型,能极大地提升这些场景的计算效率——在原本高危、高成本、高精度的作业场景里,大模型能够实现加速计算。举一个通俗例子,过去,做一次气象预报需要几千台高档的服务器,并运算上半天。现在,仅用一张卡,10 秒钟就能出结果。

看起来,第一批吃螃蟹的企业也已经尝到了甜头:通过加速计算,行业能够极大地缩短生产周期(原本需要研发十年的药物可能缩短到月、甚至天)、减少生产过程中的冗余(炼错一炉钢可能产生几十吨的废料),从而达到惊人的效益提升——在山东,仅一个矿井,在大模型的加持下,一年的产煤量能够提升 2000 多吨。

那天,我身边的与会人士西装革履,他们大多来自传统行业——但会颠覆你认为它「传统」的刻板印象。因为,在生成式 AI 的浪潮下,居然是中国工业界,现象级地、率先涌现出一批大模型应用的小闭环。

我在创原会现场,访问了华为云的 CTO 张宇昕先生。我们谈到了新的人工智能浪潮下,中国产业里的集体性焦虑及其对策,以及华为对于AI Native的思考。

企业用上、用好大模型的正确姿势是什么?这项技术在哪些行业已经率先落地,具体如何应用?华为所倡导的大模型to B 路线,如何理解?

有关这些关键问题,以及大量华为的内部视角,都蕴藏在这次高密度的访谈之中。

以下是访谈整理,经编辑后发布:

要充分发挥制造业优势:「中国是 AI 最好的黑土地」

Q :如果姑且把 ChatGPT 诞生作为这一波大模型浪潮的源头,这两三年间,华为云内部是如何反应的?有哪些关键的决策和判断?张宇昕 :华为对于人工智能机会的捕捉,其实比 ChatGPT 要早。

张宇昕 :早在2018 年华为的全联接大会上就发布了相关战略,当时我们认为,人工智能未来会成为一个通用技术;到了2021年,在华为开发者大会上,余总(余承东)发布了我们的盘古大模型;2023 年,我们把盘古大模型升级到了 3.0 版,今年又升级到了5.0版,基本是和 GPT 同步。

但是我们所走的路可能跟美国大模型的路不完全相同,跟国内业界也不完全相同。我们的定位是 「AI for industry(工业 AI) 」。

Q:「AI for industry」的战略,是基于华为的基因吗?

张宇昕 :是的,但也是结合我们中国产业的特点——全球 666 个工业行业里,我们国家有 220 多个是全球领先。我们的产业门类也最齐全。这意味着,我们国家在这些行业里的技术经验、工程能力都是领先的,如果把这些技术经验、工程能力用数据沉淀下来,就是人工智能最好的数据集。这是人工智能大有可为的地方。

所以,中国要在人工智能上构建优势,一定是要充分发挥中国制造业领先的优势。

Q :我也留意到一句很有意思的话,中国是 AI 发展的黑土地。您认同吗?

张宇昕 :我认同,这是我们的结构、产业特点所决定的。

与以往不同的技术浪潮:「这一次,狼真的来了」

Q :华为云连接着千行百业。如果把你们视作一扇窗口,中国企业拥抱新技术浪潮时,呈现出什么样的心态和姿态?

张宇昕 :不同的客户可能有不同的特点,大体分为两类:

一类客户对于新技术变革的意愿度不是太高,因为他们有大量传统的业务和模式,传统的软硬件的包袱,很难改变,他们偏向一种平缓的、渐进式的变革;

但是很多创新型的企业,他们对新技术很敏感,认为这些技术一定会带来新机会、以及价值分配的变化,所以他们会有某种急迫感和渴望,甚至有些焦虑。

不过技术肯定有门槛,对于很多企业而言,他们获取、掌握、运用这些技术,存在诸多的困难;他们希望用一些快捷、低门槛、但能够支撑自己业务的方式来快速进入大模型的应用。华为有着长期、大量的技术研发投入,能够很好地支持他们(去做这件事)。

Q :就是在华为这片很深的技术土壤中,长出一些大模型的基建和一系列工具,企业直接拿来用。

张宇昕 :对,我们把基础的能力构建好,也把客户业务所需要的这些能力,构建成服务。所以我们提出:「一切皆服务」,包括技术设施——技术数据库、大数据、安全等,把这些做成云服务。

客户就在这些能力上,搭自己的业务系统。

Q :刚才您介绍了两大类客户的画像,这两类客户,哪一类占比更大?

张宇昕 :现在来看,起码五五开,甚至拥抱新技术的还超过一半以上。

Q :大模型这波技术浪潮跟过往的技术浪潮有什么不一样?

张宇昕 :大家更觉得这个浪潮是难以抵挡的,是所有企业必须采纳的。

中国云化的节奏是比美国的节奏至少晚 5 年——很多企业还觉得自己不用上云,或者不一定要拥抱公有云,但是美国绝大部分的企业、政府机构都已经拥抱公有云了。但是人工智能浪潮来临后,没有一个企业说我不用人工智能。大家都觉得我必须拥抱这个浪潮,如果我不拥抱它,我就会被这个浪潮打翻。

Q :为什么呢?

张宇昕 :这一波人工智能让大家看到了泛化、或者说通用技术的一个前景。换言之就是广泛应用——通用就是大家都能用、各行各业都能用。要知道过去这么多年,人工智能还在一个小众范围。

此外,大家看到新技术带来了很多颠覆商业模式、创新体验的可能性,这些企业客户是很担心的——要么我做,我去改变自己,要么我就可能被新的(对手)颠覆掉。

Q :人工智能这个词出现已经 70 年了,过程当中也有过一些热点高潮,比如 Alphago 下棋、人脸识别,但都是昙花一现,热情一下子脉冲到很高,然后又回落了,大模型一定不会是昙花一现吗?

张宇昕 :过去 70 年,人工智能的科学理论虽然有很多的进步,但这些科学理论始终难以落地到实际的产业当中,都是在一些局部的环境、场景里应用,过去的人脸识别或是图形识别,都只是影响很少一些客户、或者很小一些场景。

而这一次 ChatGPT 解决了大家一个共识问题——就是大家终于意识到,通过海量 AI 算力的计算,用无监督、自动化的训练方法,完全可以实现人工智能的通用化。 ChatGPT 给大家最大的震撼在于这里,以前大家觉得人工智能是一个局部真理,但一旦它是一个通用的技术,那所有的人都与此相关了。

Q :通用这个词可以用一个通俗比喻,我们常说训大模型就像训一个大学生,比如华为有那么多的就业岗位,很多也是从校招生培养起来的。那如果可以培养一个人,其实也可以培养一个智能体。

张宇昕 :是的,完全可以。

Q :既然这波技术浪潮与以往不同,行业上下游的企业最直观的反应是什么?

张宇昕 :所有B端的企业都意识到,这一次真的是狼来了。

这个新技术将会深刻地改变B端的企业,这是他们又兴奋又焦虑的重要原因。客户的积极性是空前的,几乎我们谈到的所有客户都想拥抱人工智能,只是他们不知道该从哪里下手,该如何去应用。尽管他们不知道,但是这种愿望是很强烈。

Q :这当中有没有什么泡沫、幻想、误解是要戳破的?

张宇昕 :当然会有。大家对新技术的期望很高。但首先,人工智能不是无所不能,毕竟人工智能沉淀的是我们人的知识、经验和技能,人不会的,不能指望大模型它会;人所不具备的知识和经验它一样不具备。

现在的大模型解题也就是大学生的水平,我们输入哥德巴赫猜想给他还是解不出来的,因为人没解决这问题。Sora 虽然能够生成视频,大家觉得很新奇,但是你拿它和李安比,肯定还差太远。它并不具备思想、美学的观点、光、流体动力学,这些它都不懂,我们说可控性比较差,离真实也比较远,还有幻觉问题等等,这是人工智能当前的局限。

但如果等人工智能已经特别成熟了,已经到了 100% 可以产业化的阶段,你再去用,你就已经落后于这个时代。

Q :先下场练习很重要。

张宇昕 :拥抱 AI,与技术共同成长。因为技术的成熟是要靠产业的实践不断去推动它。新技术一定会带来新应用,反过来新应用又会给技术提要求,给它提供场景、练兵场,两者是像 DNA 一样螺旋型、循环成长的过程。

大模型是云的Game Changer:过去是水电煤气,「今天,云的服务层更厚实了」

Q :回顾整个大模型浪潮,我们会发现不管是中国还是美国,云厂商都在其中扮演最关键的角色,这其中的深层次逻辑是什么?

张宇昕 :人工智能有三大要素,第一是要消耗大量的算力,第二,人工智能的原料是大量的数据。第三,人工智能还需要许多客户的应用场景、用算法把业务融入,才能让客户使用成功。

那么,在哪一个平台能把这些要素聚集在一起?想来想去只有云厂商——云上有规模的算力,云上汇聚了海量的数据,通过云的生态,我们连接着产业上下游所有的伙伴,所以,云是最好的人工智能的黑土地。

Q :过去外行看云,会很粗略地认为云就是卖算力、卖存储,大模型来临后,云厂商是否有额外的价值会凸显?

张宇昕 :在云的最早期,我们的确是卖算力、卖计算、卖存储,帮助客户搭建基础设施,这是云的最初级的价值;我们提供的第二层价值是技术即服务——软件开发的技术,数据库、大数据的技术,包括安全的技术,人工智能来临后,技术即服务这一层就会做的更加厚实了。

比如我们过去的数据库和大数据,其实并不理解数据本身的价值,以及数据里的含义是什么?这些价值和含义原本藏在企业的各类专家脑海里——比如一个财务报表,给我这个不懂财务的人看,可能就是个阿拉伯数字而已;但是财务专家一看,就知道数据背后的含义,因为我脑海里没有这些知识,但是财务专家有——我们现在做的人工智能,就是帮助企业进一步把这些知识数字化,他们数仓、大数据湖里面的数据,要变成人工智能数据集。

所谓模型表达,就是让这些数据里的经验、知识、以及相互之间的关系,通过模型和软件,让这些数据进一步发挥价值。过去,我们用人来做各种各样的数据分析、洞察、决策支撑,现在就可以用机器来辅助,辅助成本要低一些,效率要高,可能精度也要更高。

Q :你们呼吁企业,基于模型来改造自己的应用和软件,把原本行业里各种专家含金量最高的经验喂给人工智能?

张宇昕 :对,回到最开始的比喻,通用大模型已经被训练成一个大学生水平。如果我们能够把行业知识注入到大模型里去,就相当于把一台计算机变成了一个行业专家。

人类大学生进入到一个企业,也是要靠老师傅带,才能逐渐培养成一个专家;现在我们把老师傅的这些经验和知识,数据化后,喂给大模型,过去一个专家可能理解 50 个维度的经验,不同的专家有不同维度的经验,一个人无法同时掌握这么多(知识),但是机器可以。于是机器就可以帮助大家提升效率。这就是人工智能的价值。

所以,云过去是提供基础设施和技术,现在还能帮企业把经验传承,把宝藏数据的价值发挥,这意味着云本身的价值也在提升。

Q :所以我之前看到过一句话:过去云厂商提供的价值就像水电煤气,你不能缺少它,但是似乎也不会为它付出太高的交易价格。今天的云厂商能做的事情就可能更丰富了,它的价值也更大了。

张宇昕 :对。它变成一种类似于你业务的一种咨询顾问,提供一些更有价值的决策的判断,这就跟过去的云发挥的价值层次就不一样。

过去一年,云的竞争:「我们派了几百个科学家深入田间地头」

Q :大模型的淘金热,卖铲子的人最高兴。过去一年,云行业经历了怎样的竞争?

张宇昕 :如你所说,整个云行业里有两个层面的竞争,一个是就是卖铲子,即算力;第二个层面就是大模型本身。

我讲了,美国、包括中国的互联网厂商,他们主要做的是以 toC 服务为主的业务类型,所以还是倾向于往通用大模型里放更多的通识,如此一来,大模型更大,所包含的通识更多、更广,这是一条路子。所以我们看见了国内外很多云厂商都提供了类似于 ChatGPT 这类对话的能力,大家调用 API 即可。

但是华为服务 to B ,对于很多企业客户来说,你给我提供一个对话机器人又如何呢?当然可以帮助解决一些客服、内部交流等问题,但是企业客户,更关注人工智能是否能在生产系统上发挥价值。所以我们希望让每个企业都拥有自己的大模型,让每一个开发者都有自己的人工智能助手,说白了就是结合行业应用、行业知识来做行业的大模型。

我相信,慢慢地,toC 和 toB 这两条路径会分叉开来。

Q : 业内很多人还是会认为,算力是华为云的最大的优势,据我所知一些友商也买华为的芯片,因为他们的政企客户需要国产替代。您认可算力是华为云目前最大的优势吗?

张宇昕 :算力肯定是我们的优势之一。如您所说,算力不止是我们自己有,也卖给友商和行业。因此绝不是独特优势。如果说华为云有什么独特优势,也许是我们能实现软硬件协同——软件的服务能够驱动华为芯片和硬件的定义,我们能结合客户业务场景的需求,来设计整个系统,由此能发挥整系统的优势。

Q :硅谷那边,对 Scaling law 的追求有放缓,但与此同时一些世界大厂仍在算力豪赌这条路上狂奔着。再反观国内,2024年相比2023年是更理性冷静的。但前阵子袁进辉老师提出一个观点:如果说大模型的训练成本是一池游泳池的水,那么推理成本可能是一片汪洋大海,是无止尽的。您有观察到中美两边对于算力需求的变化吗?如果说推理成本无限,是否意味着算力这门生意也是无限的?

张宇昕 :我们早就判断,世界上能持续做大模型训练的,夸张一点说,中美各五家就差不多了,确实没必要每个厂商都从头去做,因为模型的训练是一个很高的投入,很苦的差事,而绝大部分的客户用大模型,其实主要就是推理,所以推理的市场空间确实是远远大于训练的市场空间。

第二个就是关于成本的问题,我的观点是 Scaling law 还会持续的发展,为什么?因为当前的人工智能技术,单位计算成本仍然太高,效率还是太低。以人脑为例,首先现在 AI 还没达到我们人脑的算力水平。其次,人最多消耗一点吃的、穿的,但是要堆起一个跟人的思维能力相同的算力系统,还要多少钱?

如果人工智能真的要替代人的一些基础工作,它必须把成本降到和人相当、甚至更低,才符合经济规律。就像您手上拿的笔记本电脑,如果还是大型机的阶段,我们绝对都拥有不了。

要做到这样的成本水平,意味着算力规模还要继续扩大。所以从长期来看,我觉得未来5年、10年,可能还有几十倍、数百倍的需求增长。

而我们之所以看到现在市场的理性,是因为现有成本结构下,一味地扩大算力意味着高代价,这不是所有厂商都负担得起的。所以,必须设置一些低门槛、高效率、低成本的方案,让第一批愿意吃螃蟹的客户,能及早地应用这些技术,及早地产生效益。更重要的是,应用之后,它就会给技术以反馈,来推动技术进步。

Q :这种正反馈发生了吗?

张宇昕 :时时刻刻都在(发生)。

我们这几年做了 30 多个行业,上千个客户,每一个客户在构建大模型的过程中都会提出很多新的要求,都是当前大模型的能力还没有具备的;

所以我们这几年派了几百个科学家、博士专家深入田间地头、工厂车间,生产一线——不是说做好了一个东西拿给人家用,人家马上就能用的;还是要到客户的业务系统里去、到现场,看见新的问题,提出新的挑战,再回过头来攻克这些技术。

这个过程也是人工智能技术发展的过程。

大模型的实用性问题:「精度好的『小模型』,可能是企业的未来」

Q :你刚才讲到大模型的成本还不够低。周鸿祎在前不久的演讲中讲了一句话,他说希望「把大模型拉下神坛」,先用一个模型解决一个具体的问题,他觉得这是最重要的。您应该挺认同的吧?

张宇昕 :我非常认同。我认为他这个观点表达了两个含义。

第一,大模型高,但是不能贵,华为过去也经常讲这句话,叫「高而不贵」。因为如果一个技术又高又贵,那只能飘在天上,落不了地;大家都能用得起来,这是叫「高而不贵」。

第二是,在大模型的早期,如果能够聚焦解决生产系统当中的某一个问题或者某一类问题,把成本降下来、自动化水平提上去,也是个好事。

Q :提一个有点尖锐的问题,华为也自研了盘古大模型,但跟其他厂商比起来,它不太参与刷榜,我们也较少在媒体的宣传上看到它,为什么?

张宇昕 :刚才讲过,华为是走大模型 to B 路线最坚定的践行者之一。基于这个选择,我们没有必要跟随人家去刷榜,因为现在绝大部分的刷榜是基于 NLP 通用的评测榜,这类通用能力无法解决企业的问题。

不如沉下心来,踏踏实实地帮助客户去构建他们的人工智能系统——让客户拿着自己的行业 know-how 在我们的(大模型)底座上去做增量训练,做微调,训出自己的大模型。

所以我们是一个使能者,是个黑土地,我们并不是黑土地上最后长出来的那棵树或那朵花。树和花是客户的;但对于互联网而言,他们本身就是树,就是花;各自定位不一样,所以有些指标没有必要去比。比如对于技术大模型而言,可能需要考虑行业数据和通用数据的配比,才能使得整体效果最优,一味追求某个指标可能是种浪费。

Q :这里就有个细节问题,关于您讲的配比问题,据我所知,训大模型时会有一组矛盾——模型的泛化能力和专业性能力是相牵制甚至相悖的。

张宇昕 :是的,专业数据训得越多,泛化性就会受影响;如果追求泛化性很好,那专业能力肯定就会比较差,这是目前的难题。

Q :这个问题现在有解吗?

张宇昕 :技术还需不断地攻克。

可能未来模型的架构还会发生变化,又或是训练数据的处理方法会变;当然也许未来算力大了,这个问题就不成问题了——就像小学生一样,一次教多了他消化不了,教了A,忘了B。但是如果对方是个大学生,你会发现一次教他 3 件事,他是记得住的。这就是当下的人工智能技术还不成熟。

如果未来有更新的技术,更强的算力,也许这种泛化性和专业性的矛盾就不会这么尖锐。

Q :今天我看到你们台上演讲的一些客户案例,都是巨无霸企业,体量挺大的,我有些怀疑您所说的,「希望把模型价格打下来,让企业都能用得起」。现在普通企业能用得起你们的模型和服务吗?

张宇昕 :为什么现在只有大企业在玩人工智能?

因为人工智能三要素里面,第一是算力,第二是算法,这两点华为也许能帮客户解决——没有算力我们可以帮客户去借,算法不行我们也有足够多的专家;但第三点,数据,只有大企业拥有足够的数据。行业里的小企业们,他们也很想赶紧拥抱人工智能,但是他们手上所掌握的数据(知识和经验)太少。

所以,我们提出了大模型的层次结构: L0 叫通识大模型,通用大模型是一个底座,其实并不是客户最终使用的。第二层 L1 的行业大模型要靠行业的领头羊,这些企业掌握的数据够多,能把行业的通用能力也做成大模型,不仅仅自己能用,也开放出来给中小企业用,这就降低了中小客户的门槛;第三层 L2 指的是特定场景的大模型,这就进一步降低了使用门槛了。

同时我们还号召行业来共建这种开放数据集。因为一类型的企业,你有一些,我有一些,只要这些数据不涉及企业的隐私或保密数据,这些脱敏的通用数据都可以拿出来,在行业里建立、共享一个行业通用数据集。他人的数据和经验,可能刚好能补我之不足,这个过程也充分体现了竟合的精神。

Q:上午还有一个观察,我发现拿出来讲的模型从参数量级来看,并不算大,比如一个药物分子大模型,是亿级参数。今天我们很少在公共叙事中看到亿级参数的模型。小模型的价值有多大?模型越做越小、把小参数模型做好,会是一个趋势吗?

张宇昕 :你说的「小模型」,「小」应该指的是参数量级,我把它理解为小的大模型——在通用数据训练的基础上,再叠加专用数据。

为什么会有小的大模型?业界很多客户容易被误导了。其实参数量大的主要是自然语言(NLP)的模型,现在NLP模型起步都是千亿级、甚至万亿级。但是如果是视觉模型,几十亿(参数)可能也够。推理决策的模型,几十亿、几亿都够;像药物分子大模型,它不需要(参数)这么大。

对于一个企业而言,第一,它首先要求大模型要有专业能力,第二,一个企业要选择多种模态——不止要语言,也要视觉,也要决策推理,也要优化。像分子药物大模型和我们做的气象大模型,都叫做科学计算大模型——过去我们用解方程的方式算出来,现在用学习的方式加速计算。

比如过去做一次气象预报,需要3000台到5000台高档的服务器算半天才能算一次,现在,我们用一张卡,10秒钟就能出来。过去研制一个药物要10年,现在一个药物筛选,可以由月的时间缩短到天,甚至缩短到小时。这些案例,都是用人工智能的方式在加速计算。所以,小的大模型也有价值。

第三,企业也要选择尺寸——因为同等能力的大模型,尺寸越小,成本越低,这就需要我们有技术了,比如做量化抽取,能否尽量降低它的算力成本,使得精度在下降不多的情况下,更经济地使用。

以上这些,都是企业要综合考虑的问题。在未来,小参数、但是精度非常好的大模型,可能是未来企业里不断追求的。

产业里的高价值 AI 场景:「一个矿井,我们一年帮他多生产 2000 吨煤」

Q:你们跟那么多客户贴身合作,发现哪些高价值的 AI 场景?

张宇昕 :比如煤矿是一个高风险的场景,过去靠人值守,现在可以通过摄像头和CV(视觉大模型)来判断挖煤的工况,甚至还可以通过声音来判断,地底下是煤还是水?还是岩石?过去都是老师傅站在那听,老师听得不对,(喊)「不能挖了!」,因为再挖可能挖透了或者怎么的。现在这些场景都可以用人工智能方式去判断。

还有一个场景是传送带分拣,过去主要靠人分辨煤渣、石头和煤块,效率又低、成本又高。现在分拣的效率会大大提升。

还有生产精煤,精煤是需要各种配比,过去的配比是按一个比例生产出来后,再去检验成分,如果达不到期望就再回去重新配,需要反复试验——但现在我们把多种数据综合起来,模型分析就会给出最佳参数,就省去了反复试验。在山东,就一个矿井,我们一年帮他多生产 2000 吨煤。如果推广到全国,可想而知能够提产多少。

同样原理的还有炼钢,钢要炼得质量好,温度、原料、各种微量元素的配比,都需要很精确。过去是靠炼钢师傅的经验,去做各种试验——一炉钢几十吨就去了。现在人工智能就不需要那么长时间去反复跑试验,炼出的精度质量比原来要好很多。哪怕一吨钢降低一块钱的成本,当然我们初步测算的效果可能还不止一块钱,可以看一看我们国家一年生产多少亿吨钢。其中的降本将是个惊人的数字。

Q:我相信你们一定从产业里挖掘了非常多的场景和需求,但也不可能一上来就所有都做,一定有一个优先级排列的过程,选择做什么、不做什么,先做什么、后做什么。在华为内部,这个过程是怎样的?

张宇昕 :首先第一步,还是必须深入到客户一线。以煤炭为例,有三种场景,假设人力有限,只能做一种场景,那我必须知道,哪一个场景条件最成熟、产生的价值最大、客户最着急。这需要基于客户自己的经验以及我们的经验,结合起来才能判断。

收集到这些需求后,我们每一层专家和主管都在碰撞,如何用手上有限的人,把这些需求里共性的东西抽取出来?这需要先理解业务、识别需求,在需求中抽取共性——我们讲去粗存精、去伪存真,由表即里,由此即彼。这样的话,也许客户没有提出的问题,也有机会解决。这也是技术团队最大的价值。

做出技术和产品后,我们要再把它带回到客户现场去验证。是一个不断持续迭代的过程。

Q :收集并确定第一批次的需求,这个周期经历了多久?

张宇昕 :比较快速。实际上对于大颗粒度的需求有年度的规划,中间会有迭代,以季度或月为单位的需求可以识别和纳入进去;对于紧急需求也会有紧急决策的流程。云还是比较灵活。

Q :大模型浪潮来临后,华为云用多久定义了自己的新目标?

张宇昕 :不太好说,其实这几年我们还在不断地学习,也在不断地调整目标,有些调整是觉得方向偏了,有些是目标低了。或者目标的优先级要排一排。

Q :方向偏了和目标低了,可以举一个例子吗?

张宇昕 :比如到现在为止,公司里还有人问我,为什么我们不提供大模型的 API ?

但在我看来,大模型的 API 其实是个类 toC 的业务。我们绝大部分的政企客户,你提供给他们一个大模型的API,对于企业的生产应用,帮助并不大。API 主要是类似于 ChatGPT 这样的对话机器人,企业希望它答的问题,背后用到的知识可能是机密的,可能涉及隐私,不能开放的;

所以,如果说我们也去提供公开的 API,优先级到底高不高?这个公司内部就有争论。那通过一段时间的思考,我们还是觉得不要走这条路,走 AI for industry,这就是修正方向。

Q :那哪些目标定低了呢?

张宇昕 :那当然仍然还是大家最关心的性价比。

我们每一回都觉得对性价比的追求还不够,还要再去挖可靠性;尽管我们的大模型的训练集群稳定度已经在业界算是比较好的了。但是我们还是希望中断时间能否再短一点,客户恢复(维持)的时间能否再长一点,每回都是还要加码,还要再提升。

AI Native、中国道路与产业协同「优势挡不住趋势」

Q :三四年前我们还在提「云原生」,今天所有人都在提「 AI 原生」,华为云怎么理解 AI native?去年李彦宏在提到 AI native 的时候,讲到他要内部抛弃所有旧有的认知,完全解构了之后重新做,他说大厂在这件事情上肯定会反应慢。您认不认同他的看法?

张宇昕 :通过我们这几年的一些合作和实践,我把 AI Native 总结成四个方面,不一定全,但是能概括我们现在看到的比较主要的四个实践路径:

第一,如果要做人工智能,一定要选择 AI Native 的算力,也就是新型的算力——一定要能支持大算力、大带宽、低时延,能支持大模型训练和推理中,大量的数据同步,传统算力搞不定。

第二,因为客户要构建智能化的应用,所以它的业务系统必须要构筑在一个已经智能化的底座之上。过去的底座包括传统的数据库、数仓、大数据安全、软件开发等等这些技术,都需要升级。底座不智能,也就无法支撑业务的智能化。这是云服务的智能化。

第三,很关键的一点是要构建行业或企业的大模型,这是人工智能的核心。一个企业能不能人工智能化,核心就在于它能不能把这些知识经验做到大模型里去。

第四,如果我们既用了算力,也用了智能化的底座服务,也构建了自己的大模型,毫无疑问,那整个应用系统就要改造,我们叫大模型系统。

这四个方面是企业必须要做的事情。如果这四个方面做得比较好,我们觉得这可能就是走向 AI Native 之路。那么,第二个问题就不言自明了:技术的每一层都变化了,所以李彦宏说要重构,是很自然的。

Q:那华为有没有经历过这种结构又重构?

张宇昕 :这两年,我们华为云已经把自己的基础设施全部重构了。我们叫「 reshape the cloud service(重塑云服务)」。我们所有的云服务都用人工智能加持了。有的是增加了智能助手,有的是为大模型做了很多功能,比如安全态势、漏洞攻击的感知,比如数据库的管理、运维,当然升级的过程没有完成,这是一个长期不断迭代的过程。

所以这个重构已经开始了。

Q :解构和重构这件事,对华为来说有包袱吗?

张宇昕 :包袱肯定是有。

过去这么多年积累的代码,谁都不想说这些代码要改,甚至于有些代码要抛弃掉。但是我们华为有一句话,叫「优势挡不住趋势」。如果你不想变革,你可能就被这场变革给颠覆掉。与其被这场变革颠覆掉,不如及早地拥抱他,你还成为这场改革红利的享受者。

Q :就在我们谈话的今天,行业里发生了一件大事, ChatGPT 之父离开了 OpenAI,我们看到美国(AI 业界)现在人才流动非常的剧烈。在中美 AI 的竞争路上,您有什么主张和判断吗?

张宇昕 :我有几个想法。第一是,中国的人工智能发展道路一定要走中国特色,结合我们自己的产业特点去走。我们如果走美国的道路,不一定能成功,比如以语言大模型为例,我个人认为,英语语言的大模型我们是无论如何很难超过西方世界的。因为英语是西方世界的主流语言。工业革命以来,人类最主要的公开的文化、论文、知识,基本上都是英语的。这条路,现实来讲我们可能赶不上。

第二点是,美国现在在打压我们的人工智能,技术上打压,未来可能在人才上也打压。中国学生再想去美国学计算机、人工智能相关专业都很困难。这就更加要求我们中国的产业界要协同起来。在人工智能这件事上,更多的是协作,而不是竞争,只有发挥各自的优势、协同起来,才能把整个产业带起来,才能跟美国进行这种全栈的竞争。

第三,产业界和学界也要协同起来。比较好的事情是人工智能的学术研究,除了美国就是中国,世界上再找不到其他地方了。所以中国的产业一定要给学术界提问题,给他们以场景,给他们以这种理论发展的空间和机会。当学术界研究出了新技术,要快速地到产业里来进行验证。

如果能把这样一个循环做起来,那我们的人工智能产业,就谁也不怕了。

来源:钛媒体

相关推荐