照恒科技网

李开复大模型公司“零一万物”官网上线打造全新的 AI 20平台

李开复大模型公司“零一万物”官网上线打造全新的 AI 20平台

李开复大模型公司“零一万物”官网上线打造全新的 AI 20平台

IT之家7月3日消息,由李开复打造的AI大模型创业公司“零一万物”官网现已上线,官网首页显示该公司是一家致力于“打造AI2.0平台和应用的全球公司”。

据“零一万物”官方介绍,该公司秉持着“坚定的技术愿景和人工智能信仰”,致力打造全新的AI2.0平台,将有效帮助提升人类生产力,进而创造“巨大的经济价值及社会价值”。

“零一万物”官方表示,他们深信“以大语言模型为突破的AI2.0正在掀起技术、平台到应用多个层面的革命”。根据他们的判断,AI2.0时代将诞生“比移动互联网大十倍的平台机会”,将把既有的软件、使用界面和应用重写一次,改写用户的交互和入口。

该公司预测,AI2.0时代将诞生新一批“AI-first”的应用,催生以AI为内核的应用生态,探索崭新的商业模式。

创新工场董事长兼CEO李开复于今年3月下旬正式宣布,以ProjectAI2.0之名入局大模型,“零一万物”正是这家创业公司的正式公司名。公开资料显示,“零一万物”公司主体注册地址位于北京,所属行业为科技推广和应用服务业。

截至IT之家发文,“零一万物”官网暂未透露关于产品的具体信息。

《人工智能》李开复/王咏刚

我读该书最大的收获:

什么是深度学习? 李开复举得例子很通俗易懂、很形象

这一次人工智能复兴的最大特点是,AI在语音识别、机器视觉、数据挖掘等多个领域走进了业界的真实应用场景,与商业模式的紧密结合,开始在产业界发挥出真正的价值。

1 三次人工智能浪潮:

2 第三次人工浪潮的特点:

语音识别领域的三次跨越:

创新工场管理合伙人、资深投资人汪华认为,人工智能的商业化分为三个主要阶段:

第一阶段
AI会率先在那些在线化程度高的行业开始应用,在数据端、媒体端实现自动化。
这一过程会首先从线上“虚拟世界”开始,随着在线化的发展扩张到各个行业,帮助线上业务实现流程自动化、数据自动化和业务自动化。

拥有高质量线上大数据的行业会最早进入人工智能时代。
互联网和移动互联网的发展已经在许多领域为AI做好了业务流程和数据上的准备。例如:大家常说的金融行业是目前人工智能应用的热点,这正是因为金融行业特别是互联网金融已经做好了使用AI的准备。此外,美团等公司将餐饮服务与线上业务连接了起来,滴滴、摩拜单车等公司将交通出行与线上业务连接了起来。在这些拥有线上业务流程和高质量数据积累的地方,AI同样开始发挥作用,大幅提高线上业务的自动化程度。

第二阶段
随着感知技术、传感器和机器人技术的发展,AI会延伸到实体世界,并率先在专业领域、行业应用、生产力端实现线下业务的自动化。

可以感知实体世界信息的传感器和相关的感知技术会越来越成熟,越来越便宜。在线下业务中,计算机系统可以通过物理方式接收线下信息或帮助完成线下操作。这个转变意味着人工智能从线上的“虚拟世界”走进了线下的实体世界。这个阶段,人工智能的商业化会首先从生产力的角度切入,整个世界的生产制造会逐渐被AI渗透。工业机器人、仓储机器人、物流机器人等将在这个阶段实现大范围的普及。

第三阶段
当成本技术进一步成熟时,AI会延伸到个人场景,全面自动化的时代终将到来。

随着技术的日趋成熟,相关的智能产品价格大幅下降, AI终将从企业应用进入个人和家庭 。那时,每个人的工作和生活中,大量的应用场景都会因为AI的帮助而更加自动化、更有效率,人类的生活质量终将因AI的普及而大幅提升。这个阶段里,AI商业化的核心目标是创建全面自动化的人类生活方式

根据汪华的判断,我们目前正在进入A商业化的第一个阶段,也许只需要3年的时间,AI就可以在各种在线业务中得到普及。AI商业化的第二个阶段,要花5~7年的时间才能充分发展起来。而标志全面自动化的第三个阶段,需要十几年的时间。

清晰的领域界限
人工智能创业,要解决的领域问题一定要非常清晰,有明确的领域边界,因为这一类问题是今天以深度学习为代表的人工智能算法最善于解决的。例如,同样是做机器人,如果做一个借助视觉传感器更好地规划扫地线路、提高清洁效率的扫地机器人,将机器人的需求限定在一个有限的问题边界内,这样的解决方案就相对靠谱。
如果上来就要做一个长得像人一样、可以与人交流的人形机器人,那以今天的技术,做出来的多半不是人工智能,而是“人工智障”。

闭环的、自动标注的数据
针对要用AI解决的领域问题,最好有在这个领域内,有闭环的、自动标注的数据。例如,基于互联网平台的广告系统可以自动根据用户点击以及后续操作,收集到第一手转化率数据,而这个转化率数据反过来又可以作为关键特征,帮助AI系统进一步学习。 这种从应用本身收集数据,再用数据训练模型,用模型提高应用性能的闭环模式更加高效。 谷歌、百度等搜索引擎之所以拥有强大的人工智能潜力,就是因为它们的业务,比如搜索和广告本身就是一个闭环的系统,系统内部就可以自动完成数据收集、标注、训练、反馈的会
过程。

千万级的数据量
今天人工智能的代表算法是深度学习。而深度学习通常要求足够数量的训练数据。一般而言,拥有千万级的数据量是保证深度学习质量的前提。当然,这个“千万级”的定义过于宽泛。事实上,在不同的应用领域,深度学习对数据量的要求也不尽相同。 而且,也不能仅看数据记录的个数,还要看每个数据记录的特征维数,特征在相应空间中的分布情况,等等。

超大规模的计算能力
深度学习在进行模型训练时,对电脑的计算能力有着近乎“痴狂”的渴求。创新工场曾经给一个专注于研发深
学习技术的团队投资了1000万元人民币。结果,团队建设初期才两三个月时间,仅购买深度学习使用的计算服务器就花掉了700多万元,一个类型的深度学习任务,通常都要求在一台或多台安装有四块甚至8块高性能GPU芯片的计算机上运行。涉及图像、视频的深度学习任务,则更是需要数百块、数千块GPU芯片组成的大型计算群。在安装了大型计算集群的机房内,大量GPU在模型训练期间发出比普通服务器多数十倍的热量。许多机房的空调系统都不得不重新设计、安装。在一些空调马力不足的机房里,创业围队甚至购买了巨大的冰块来协助降温。

顶尖的AI科学家
今天的人工智能研发还相当依赖于算法工程师甚至是AI科学家的个人经验积累。水平最高的科学家与普通水平的算法工程师之间,生产力的差异不啻千百倍。人工智能创业公司对顶尖AI科学家的渴求直接造成了这个领域科学家、研究员的身价与日俱增。谷歌雇用杰弗里·辛顿、李飞飞,Facebook雇用扬·勒丘恩,据说都开出了教百万美元的年薪。国内AI创业公司如旷视科技,也用令人瞠目的高薪,将机器视觉领域的顶尖科学家孙剑“挖”了过来,把任公司的首州时科学家。

把握时机对创业和投资至关重要。创新工场根据技术成熟度和未来发展趋势,将人工智能各应用领域划分为现阶段已成熟、3到5年成熟、5到10年成熟、10年后成熟等不同类型,并分别设计相应的投资策略。

如图中所示,创新工场将人工智能领域的应用划分为大数据、感知、理解、机器人、自动驾驶等不同门类,每个门类中,按照人工智能技术的成熟度,将具体应用领域排列在时间维度上。

总体来说,人工智能在互联网、移动互联网领域的应用,如搜索引擎、广告推荐等方面已经非常成熟。在商业自动化、语音识别、机器视觉、手势识别、基础传感器、工业机器人等方面,人工智能可以立即应用,立即收效。

金融类人工智能的应用虽然已经起步,但尚需一段时间才能真正普及。智能教育、智能医疗、AR/VR中的人工智能、量产的传感器、商业用机器人等,预计会在3到5年成熟可用。

可以供普通技术人员乃至非技术人员使用的人工智能平台(包括计算架构、算法框架、传感平台、云服务等),会在3到5年后趋于成熟并拥有足够大的商业机会。

通用的自然语言对话工具、智能助手、普及型的家用机器人等,则至少需要10年甚至更长的时间,才有可能完成商业化。

另外,在自动驾驶领域,3到5年内,必将是第2级到第3级的辅助驾驶最先大规模商用,而且,鉴于安全考虑,这些自动驾驶应用也会是限定场景、限定道路等级的。真正意义上的“无人驾驶”,即第4级或第5级的自动驾驶,还需要5到10年才能上路运行。

我的理解:
跟着“数据”走,哪里有质量高的大数据,哪里就有金子。

「大模型+大算力」加持,通用人工智能和智能驾驶双向奔赴

开年以来 ChatGPTGPT-4 的相继面世再度掀起计算机科学领域通用人工智能(AGI)研究热潮,也不断刷新我们对 AI 的认知。

作为具有人类水平表现的大型多模态模型,GPT-4 被视为迈向 AGI 的重要一步,标志着创新范式的深度变革和生产力的重新定义,也必将带来更多元的产品迁移。

截至目前,全球已经有超百万家初创公司声称使用这一秘密武器来创造新产品,而这些产品将彻底改变从法律到股票交易,从游戏到医疗诊断的近乎一切领域。

尽管其中很多是营销泡沫,但与所有技术突破一样,总会存在炒作周期和意想不到的远期效果。

事实上在另一边,进入 2023 年智能汽车领域同样十分热闹。

智能化已然成为上海车展全场关注的最大焦点,除了激光雷达等关键传感器的单点式突破,各大巨头也纷纷展示智能驾驶全产品矩阵,城市场景辅助驾驶量产落地加速推进。

更加值得注意的是,BEV、大模型、超算中心等计算机热词正在与自动驾驶、行泊一体、城市 NOA 等智驾焦点火速排列组合,颇有相互交融、双向奔赴的味道。

在这背后,一方面是近年来智驾、智舱持续升级对 AI 在汽车场景落地的数据、算法、算力不断提出更高要求,另一方面,AGI 的重大突破也已将触角伸向智能汽车,将其视为实现闭环应用的重要场景,很多企业布局已经相当高调。

日前,商汤科技 SenseTime 举办技术交流日活动,分享了以「大模型+大算力」推进 AGI 发展的战略布局,并公布该战略下的「日日新 SenseNova」大模型体系。

在「大模型+大算力」加持下,本次上海车展商汤绝影一体产品体系已全栈亮相,近 30 款合作量产车型集中展出,商汤也再度分享了智能汽车时代的 AGI 落地新思考。

本次上海车展亮相的部分绝影合作车型展示

01、算法:AI 正式步入大模型时代

如商汤科技联合创始人、首席科学家、绝影智能汽车事业群总裁王晓刚所言,「AGI 催生了新的研究范式,即基于一个强大的多模态基模型,通过强化学习和人类反馈不断解锁基模型新的能力,从而更高效地解决海量的开放式任务。」

通用大模型并非为自动驾驶而生,或为满足自动驾驶的特定任务需求而设计。但智能驾驶开发的诸多新需求已在推动算法从专用小模型向通用大模型快速演进。

首先是应对海量数据处理和 Corner Case 问题的迫切需求。

对于感知系统低频出现但至关重要的小目标及带来的潜在安全隐患,算法开发需要面对海量数据,传统的 AI 小模型将难以同时处理大数据量和高复杂度的任务。通用大模型则可用在长尾目标的初筛过程,并叠加语料文字处理得到很好的效果。

再比如智驾算法开发对自动化数据标注、降低人工成本的诉求。相比于人工标注,通用大模型将自动化对海量数据完成标注任务,大幅降低标注数据获取的时间成本和本身的金钱成本,从而缩短研发周期、提升成本效益。

处于类似的考量,近年来国内外巨头企业已围绕大模型纷纷展开各自智驾布局。

继 Google 于 2017 年提出将 Transformer 结构应用在 CV 领域图像分类,大模型已在 GPT-2、GPT-3、BERT 等当中不断证明实力,特斯拉率先站台 Transformer 大模型征战图像视觉。

国内企业也紧随其后:

毫末智行已宣布自动驾驶认知大模型正式升级为 DriveGPT,百度表示利用大模型来提升自动驾驶感知能力并将大模型运用到数据挖掘,华为也已宣布加入大模型争霸赛,自研「盘古」即将对外上线。

作为行业领先的人工智能公司,商汤在大模型领域可谓乘风破浪,过去一两年则全面将大模型能力在各业务线 20 多个场景落地,包括智能驾驶。

商汤「日日新 SenseNova」大模型体系背后是大模型研发中深厚的积累。商汤有自己的全栈大模型研发体系,其中就包括针对大模型的底层训练及实施过程中的各种系统性优化。

例如,商汤近期向社区发布的用于真实感知、重建和生成的多模态的数据集 OmniObject3D 中包含 190 类 6000 个物体,数据质量非常高。

再比如,商汤在 2019 年就已首次发布 10 亿参数的视觉大模型,到 2022 年参数规模已达到 320 亿,这也是世界上迄今为止最大的视觉模型。

此外,商汤也在智驾领域持续展示大模型能力。2021 年开发的 BEV 感知算法在 Waymo 挑战赛以绝对优势取得冠军,2021 年 BEV Former 的 Transformer 结构至今仍是行业最有影响力的 BEV 工作,今年开发的 UniAD 是业内首个感知决策一体化的端到端自动驾驶解决方案

在技术实力的另一端是量产进度。商汤也给出了自己的智能驾驶量产公式:

自动驾驶技术能力=场景数据 x 数据获取效率 x 数据利用效率? =场景数据 x 数据获取效率 x 先进算法 x 先进算力。

而先进的算法大模型不仅将通过跨行业数据汇聚提升驾驶场景数据资源,通过数据闭环开发模式和自动数据标注提升数据获取效率,更将大幅提升感知精度和感知丰富度进而成倍提升数据利用效率。

依托原创 AI 算法和模型积累,商汤领先的 BEV 感知算法推进国内首批量产应用,并采用 Domain Adaption 算法有效解决跨域泛化问题。商汤首创的自动驾驶 GOP 感知体系将目标数据获取的人力成本降低 94%,实现低成本的车端模型开发,目前也已投入量产应用。

02、算力:智能汽车时代的重要基础设施

随电子电气架构技术由分布式不断向集中式演进,大算力芯片成为新型电子电气架构实现的物理基础。

近年来车端芯片算力发展突飞猛进,如英伟达规划中的 Atlan 单颗芯片算力超 1000TOPS,THOR 单颗算力超 2000TOPS,将大幅提升单车感知决策能力。

而在云端,AGI 在自动驾驶、网联等场景的泛化应用将提出比车端指数级更高的算力要求——从数据标注到模型训练,从场景仿真到算法迭代。

算力将是智能汽车时代的新型基础设施。

在此背景下,近年来主流企业纷纷开启双线并行探索,车端自研算力平台,云端建立超算中心。而进入大模型时代后,数据量随着多模态的引入也将大规模增长,因此必然也会导致 AGI 对算力需求的剧增。

可以看到,英伟达车端云端同步布局并将提供端到端的全栈式 AI 加速计算解决方案,特斯拉也早在 2021 年 8 月发布自研云端超算中心 Dojo。

据近期报道,埃隆·马斯克也将成立一家人工智能公司来与 OpenAI 竞争,已购买数千个英伟达 GPU 并一直招募 AI 研究人员和工程师。

国内方面,吉利、蔚来、特斯拉、毫末智行、小鹏等企业也已跟进布局云端算力集群,投入巨大以提升智驾开发算力储备。

对于商汤来说,如果说大模型将是支撑智能驾驶的上层建筑,那么大算力就是数字基座。

商汤科技董事长兼 CEO 徐立表示,目前大模型对基础算力、基础设施的需求非常旺盛,基础算力对并行效率的要求也非常高,但真正好用的基础设施其实十分稀缺。

出于这一原因,商汤历时五年自建了业界领先的 AI 大装置 SenseCore,完成 2.7 万块 GPU 的部署并实现 5.0 exa FLOPS 的算力输出能力,是亚洲目前最大的智能计算平台之一,可同步支持 20 个千亿规模参数量的超大模型同时训练。

位于上海临港的 AIDC 人工智能计算中心将为智能汽车的数据存储、标注、脱敏、仿真训练、算法迭代到部署的闭环提供算力支持,打通基于数据驱动的算法生产全流程,加速高级别智能驾驶技术的 AI 模型生产和持续迭代,推动实现规模化量产。

在 AIDC 的基础上,AI 大装置也将提供支持大模型生产的一系列服务:

处理大模型需要的自动化数据标注,将使智能标注效率提升百倍;大模型推理部署,使得推理效率提升 100% 以上;大模型并行训练,最大 4000 块卡并联的单集群,可训练参数量超 5000 亿的稠密模型,可训练超万亿参数;大模型增量训练,增量微调成本降低 90%;开源模型和大模型训练开发者工具,大规模提升开发效率。如此规模的算力设施即使特斯拉同期也尚难以望其项背,也必将推动大模型的高效闭环。

03、「大模型+大算力」推动智能汽车行业整体进程

汽车行业正在面临百年未有之大变革。尽管此次以「大模型+大算力」推进 AGI 发展是商汤提出的战略布局,但事实上,这一理念早已在行业层面达成共识。

基于感知决策规控 AI 云三大核心能力,商汤「大模型+大算力」已赋能绝影驾、舱、云三位一体产品体系量产落地:

除智能驾驶领域的全栈能力和行泊一体量产解决方案外,「大模型+大算力」也正在助力商汤打造智能座舱跨场景生态

车展期间,与商汤「日日新 SenseNova」大模型体系深度融合的绝影未来展示舱升级亮相,语言大模型「商汤商量 SenseChat」以及 AIGC 文生图平台「商汤秒画 SenseMirage」也已上车,多点融合重构人车交互方式,打造第三空间。

以「商量」为例,作为千亿级参数的自然语言处理模型,其使用大量数据训练并充分考虑中文语境,展示出出色的多轮对话和超长文本的理解能力。

商汤也展示了语言大模型支持的诸多汽车场景创新应用,如在行车过程中化身「邮件助手」自动提炼关键信息,作为「会议助理」自动生成会议纪要,大大节省用户行车时处理工作的时间和精力,为未来出行的应用场景拓展带来丰富的想象空间。

此外,以人工智能大模型开发、生产、应用为核心,一站式

【本文来自易车号作者汽车之心,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】

打赢AI争夺战,要靠一张算力网

  AI算力是未来国家、城市、企业的核心竞争力。

   文丨华商韬略 陈必章

  在人工智能时代,AI算力就是电,AI计算中心就是电厂。

  电力时代,我们构建了一张“电网”,如今随着国内各地人工智能计算中心的相继落地,我们正在编织一张AI算力网络。

  目前,人工智能的发展已提升到国家战略层面,加快人工智能产业发展,保障和提供充沛的AI算力,对于赢在AI时代的国家、城市和企业来说,已经是迫在眉睫的问题。

   【没有算力 就像没有电】

  最近这段时间,全国很多地方政府和企业领导最闹心的事情什么?

  答案可能是两个字:缺电。

  但这个闹心的事情还没解决,在全球各国,乃至一国之内的不同地区,又开始面临一个像电力一样,决定国计民生的关键要素。

   这个关键要素就是AI算力。

  AI算力,顾名思义,就是支撑AI的计算能力。 此处的计算不是加减乘除,而是对世界万物的计算,是万物互联、人工智能之下的高度复杂、无所不在的计算。

  不同于传统算力,AI算力为了支撑AI模型的开发、训练和推理,对并行处理能力的要求特别高,也因此需要专门的AI芯片和框架。

  比如, 具备强大浮点运算能力的AI芯片,才能够通过训练、持续迭代优化提供满足行业企业智能化转型的高质量AI模型。 复杂模型训练中,需对上千亿个浮点参数进行微调数十万步,需要精细的浮点表达能力。如果没有强大的训练芯片,则难以保障算法模型产出的效率。千亿级中文NLP(自然语言处理)大模型“鹏程·盘古”,面向生物医学领域的“鹏程·神农”平台的发布,都离不开AI芯片的支撑。

  再比如,被视为“AI领域操作系统”的AI框架,90%的AI应用是基于AI框架层来开发。在该领域国内 科技 企业已取得重大成果: 业界领先的AI计算框架升思MindSpore,是一款支持端、边、云全场景的深度学习训练推理框架。 除具备自主可控的优势之外,一套框架即可支持AI+科学计算等多样性应用。当前升思MindSpore社区累计下载量超过60万,有超过100家高校选择升思MindSpore进行教学。

  正是有了这些AI芯片和AI框架释放出的AI算力,我们才能加速进入万物互联和人工智能时代。

  今天,从每个人手里的手机,到企业的云上平台,再到城市大脑……我们的生产和生活越来越依赖于AI,越来越深入向AI获取力量。

   对中国来说,AI是从制造大国向制造强国转型升级的关键。 最近多年,众多城市都在努力争夺各种资源提升城市的发展力和竞争力,而AI算力就是未来发展最重要的“资源”。

   在人工智能的世界,没有AI算力,就像没有电。

  AI算力已渗入到我们生活和生产的方方面面,以大家较为熟悉的医院药房取药为例:

  拿到处方药单,在药房前排队等候,由医务人员拿着处方照单分药,这种漫长的等待和焦虑,很多人都有切身体会。现在,已经有企业开发出利用人工智能技术进行全自动补发药品的机器人,用到了3D视觉定位、机器人智能抓取、智能视觉复核技术,能够确保100%补药准确率,而且效率也更高,发药速度可以达到每小时2500盒,8秒钟就可以处理一个订单。在药品发放过程中,系统可以自主调度搬运药品,不需要人工的干预。

  它带来的最直观的改变,就是可以把药品分拣的时间从原来的50秒缩短到3秒,患者只需要一分钟就能取到药品。

  这个过程中,怎么识别处方单,怎么准确分拣并发放药品?要实现这些功能就得看这个机器人使用的AI系统能算得有多快、多好、多准,这就是AI算力。

   【要有电 就得有电厂和电网】

  AI算力如此重要,但很多企业缺乏足够的资金来搭建自己的AI算力。那AI算力需求该如何被满足,国家、城市又该如何提供足够的AI算力支持,推动AI产业发展并赢得AI时代的竞争力呢?答案是, 要让AI算力成为公共资源,配套建立新型基础设施。

  这种新型的算力基础设施就是人工智能计算中心,用回电气时代的比喻,那就是要建电厂和电网。

   首先是,加快人工智能计算中心的建设。

  人工智能计算中心,是以基于人工智能芯片构建的人工智能计算机集群为基础,涵盖了基建基础设施、硬件基础设施和软件基础设施的完整系统,其核心功能就是,提供从底层芯片算力释放到顶层应用使能的人工智能全栈能力,也就是输出AI算力。

  人工智能计算中心除了是提供公共算力服务的平台,还同时应该是应用创新的孵化平台、产业聚合发展平台和科研创新人才培养平台。只有同时扮演好这些角色,才能打通“政产学研用”,集中最多的力量,形成产业汇聚力并提升AI竞争力。

  目前,全世界都在加快人工智能计算中心建设。尤其是美国,它一方面千方百计地打压其它国家的发展,一方面则大手笔投入加强本国人工智能的发展,拜登政府更一度公布了3000亿美元的投资计划,捍卫美国在人工智能领域的领先地位,而其中很重要的投入,就是加强数据中心和智算中心的新基建。

  中国当然不会轻易错过人工智能产业发展带来的机遇。早在2017年,国务院就发布了《新一代人工智能发展规划》,并强调要“建设高效能的计算基础设施”。去年疫情期间,中央进一步明确提出新基建战略,而加强数据中心和人工智能计算中心建设,则是整个新基建的重中之重。

  因为,没有强大的算力,以数字化为着眼点的新基建七大领域几乎都无法实现其建设目标。

  国家战略指引,市场前景召唤,甚至经济转型升级的压力下,诸多地方政府都已积极行动,牵头人工智能计算中心建设,并以此为基础提升本地算力水平,构筑数字时代的核心竞争力。

  今年5月31日, 科技 部批复的15个国家人工智能创新发展试验区中,武汉的人工智能计算中心已率先竣工并投入运营;西安未来人工智能计算中心也已经上线,其它省市的人工智能计算中心建设也陆续规划中。

   武汉人工智能计算中心投运以后,为武汉乃至湖北地区的经济发展、科研创新、企业转型等提供了算力支撑。

  比如,武汉大学基于武汉人工智能计算中心打造了全球首个遥感专用框架武汉.LuojiaNet,针对“大幅面、多通道”遥感影像,在整图分析和数据集极简读取处理等方面实现了重大突破。

  再比如,中科院自动化所利用该中心的算力支持,研发了全球首个视频生成多模态大模型——紫东.太初。作为业内首个千亿级三模态大模型,紫东.太初的视频理解与描述性能已做到全球第一,不仅具有多任务联合学习能力,还能通过学习实现AI化的图文搜索,以及音频、短视频、MV制作,极大缩短音视频的创造时间。

  9月份,西北地区第一个人工智能计算中心落子西北重镇西安市,一期规划具备300P AI算力的西安未来人工智能计算中心,基于升腾AI基础软硬件平台建设,将提供精准可靠的模型训练及推理。

  西安未来人工智能计算中心,已经签约了西安电子 科技 大学遥感项目、西北工业大学语音大模型项目、陕西师范大学“MindSpore研究室”多个项目,在支撑西安“6+5+6+1”现代产业体系发展的同时,也会强化西安乃至整个西北地区的人工智能产业集群,为西北地区人工智能产业的发展提供算力支持。

  刚刚上线的西安未来人工智能计算中心,算力使用率已快接近满负荷状态。当地各行业企业、科研机构、高校对于算力的渴求可见一斑。

   其次,高效利用人工智能计算中心的算力资源。

  当越来越多人工智能计算中心建成、投运,如何让它们的算力更高效并服务到更多的行业和企业?如何避免各地算力分布不均衡、使用效率不一致的情况?如何让没有规划建设人工智能计算中心的地方,也能享受到AI算力的使能?人工智能计算中心之间的互联、协同、共享,成为需要各界考虑的一个问题。

  这就需要人工智能算力网络了,就像电网之于电厂和用电对象。

  有了算力网络,我们就能将分布在各地的人工智能计算中心节点连接起来,动态实时根据算力资源状态和需求,实现统筹分配和调度计算任务,构成全国范围内的感知、分配、调度人工智能中心的算力网络,然后在此基础上汇聚和共享算力、数据、算法资源。

  最重要的是,有了这张网,更多的行业和企业,就能像现在用电一样使用AI算力了。

  那么,算力网络这张网还会给整个人工智能行业有哪些作用呢?

   首先是算力的汇聚, 就是把不同地区、不同城市的算力资源高速互联,实现跨节点之间的算力合理调度,资源弹性分配,这有利于提升各个人工智能计算中心的利用率,实现对于整体能耗的节省,后续可支持跨节点分布学习,为大模型的研究提供超级算力。

   其次是数据的汇聚, 政府牵头与各行业企业合作,在达成人工智能领域的公共数据开放之后,可依托人工智能计算中心汇聚高质量的开源、开放的人工智能数据集,能够促进人工智能领域的算法开发和行业落地。

   最后是生态的汇聚, 各个人工智能计算中心之间,统一互联标准、应用接口标准,实现网络内大模型能力开放与应用创新成果共享,强化跨区域科研和产业协作,为全国范围用户进行人工智能应用创新提供更多的资源选择和更便捷的合作方式,加速产业聚合,激活产业共融共生。

   简单总结算力网络,就是汇聚大数据+大算力,使能大模型和重大科研创新,孵化新应用。进而实现算力网络化,降低算力成本,提升计算能效。

   科技 部在三年行动规划中指出,要“布局若干人工智能计算中心,形成广域协同的人工智能平台”。在这一规划的指引下,人工智能计算中心陆续在许多城市落地。就在刚刚结束的HC2021上,20多个人工智能计算中心建设城市联合点亮了“人工智能算力网络”。

  这张人工智能行业的算力网络,已经开始编织构建。

   【AI算力建设 不是从长计议而是迫在眉睫】

  2020年,麻省理工学院计算机科学家、并行计算先驱Charles Leiserson在《科学》杂志上撰文指出:

  深度学习正逼近现有芯片的算力极限。

   事实上,过去十年,人类最好的AI算法对算力的需求几乎增长了100万倍,平均每3.4个月翻一倍。

  相比之下,全球AI算力的增长却十分有限。

  需求与供给之间的巨大鸿沟,促使各国政府,尤其是中、美、欧、日等AI技术领先的地区大力建设AI算力。

   没有强大AI算力,一个国家或地区必然在未来的 科技 竞争中处于劣势。

  从当前算力基础设施建设进度来看,深圳、武汉、西安等城市均已建成人工智能计算中心并投入运营,成都、河南等城市正在建设中,北京、南京、上海等地的人工智能计算中心加速建设,也是蓄势待发。

  未来,一旦人工智能计算中心全部建成,并组成人工智能算力网络,不但将为 社会 提供跨地域、源源不断的超级算力。而且,还能够实现跨区域的科研和产业协作,使能大模型和重大科研创新,为千行百业孵化新应用。

  最终,使得人工智能赋能更多的行业和场景,让我们在未来国家之间的产业和 科技 竞争中立于不败之地。

  ——END——

   版权所有,禁止私自转载!

毫末布局大模型、智算中心 自动驾驶新基建如何筑成?

2023伊始,先是开年毫末智行举办HAOMOAIDAY,放出自动驾驶行业最大智算中心,再有小鹏、理想新春全员信剑指城市导航辅助驾驶,随后是对话式AI大模型ChatGPT火遍全网,自动驾驶AI技术再次成为顶流。

无论是自动驾驶的“进城”,还是ChatGPT的“进化”,其背后都是对数据、算力需求指数级增长的态势以及对大模型的训练。当需求上来了,智算中心作为自动驾驶的“新基建”也就被业界越来越多的提及。

智算中心即智能计算中心,是基于人工智能理论,采用领先的AI计算架构,提供人工智能应用所需算力服务、数据服务和算法服务的公共算力新型基础设施,换句话说,智算中心其实是一个算力的供应和生产平台。那为什么有了它“自动辅助驾驶”就可以变为“自动驾驶”了?

“降服”自动驾驶边际成本 自动驾驶智算中心“专云专用”

有人说,智算中心是自动驾驶发展的助推器,因为自动驾驶算法模型训练是机器学习的典型场景之一,其视觉检测、轨迹预测与行车规划等算法模型需要同时完成高并发的并行计算,对算力有着极高的需求,而智算为提高算法模型的成熟度提供了巨大的算力。

在自动驾驶领域,说起智算中心,还得先提特斯拉。2017年,Transformer网络出现后,奠定了当前大模型领域主流的算法架构基础,随后,2020年,特斯拉将Transformer大模型引入自动驾驶领域中,是AI大模型应用于自动驾驶的开端。在这之后,特斯拉开始着手打造属于自己的AI计算中心——Dojo,总计使用了1.4万个英伟达的GPU来训练AI模型。为了进一步提升效率,特斯拉在2021年发布了自研的AI加速芯片D1,并计划将25个D1封装在一起组成一个训练模块(Training tile),然后再将训练模块组成一个机柜(Dojo ExaPOD)。最近一期的特斯拉AI DAY上,马斯克称将于2023年一季度部署完成特斯拉超级计算机群组ExaPOD。

国内方面,2022年8月,小鹏汽车和阿里云合建了当时国内最大的自动驾驶智算中心“扶摇”,专门用于自动驾驶模型训练,算力规模达600PFLOPS,相当于每秒可以完成60亿亿次浮点运算。不过这个记录仅仅维持了4个多月。

今年1月,毫末智行联合火山引擎,共同推出自动驾驶行业最大的智算中心MANA OASIS(雪湖·绿洲),每秒浮点运算达67亿亿次,存储带宽每秒2T,通信带宽每秒800G。吉利也在1月28日上线了吉利星睿智算中心,目前已接入智能驾驶和车联网实验数据近百PB,在线车辆的并发计算支持达百万辆。

从现有情形来看,成本和需求两重因素,是智算中心的诱人之处。

成本层面,算力作为自动驾驶的基本要素,需要更高性能的智算中心来完成训练、标注等工作。以毫末的MANA OASIS为例,通过部署Lego高性能算子库、ByteCCL通信优化能力,以及大模型训练框架,软硬一体,毫末把算力优化到极致。在训练效率方面,基于Sparse MoE,通过跨机共享,轻松完成千亿参数大模型训练,且百万个clips(毫末视频最小标注单位)训练成本只需百卡周级别,训练成本降低100倍。

搭建高效、低成本的数据智能体系是自动驾驶技术健康发展的基础,也是自动驾驶系统能够不断迭代前行的重要环节,更是自动驾驶商业化闭环的关键所在。

小鹏汽车董事长何小鹏曾表态,“如果现在不以这样的方式(智算中心)提前储备算力,那么今后5年内,企业算力成本会从亿级,加到数十亿级。”

如果持续使用公有云服务,边际成本不断上涨只是一方面,更重要的是,智算中心可以让自动驾驶企业实现“专云专用”。自动驾驶的开发包括从数据采集到数据筛选、打标、模型训练、回放性验证、仿真测试等等环节。而云计算的本质是租赁计算设备,云服务商的设备都是统一采购,为了获得更多客户,这些设备都具备很大的通用性,设备内部使用的CPU、GPU/AI加速器、内存的型号与规格都相对固定,很难与车企和自动驾驶公司的算法形成最佳匹配。并且,云服务厂商对自动驾驶算法的了解程度不高,不可避免的会在调度算力时出现损耗和效率不高的问题。所以,从需求的角度来看,智算中心似乎可以成为自动驾驶和车企的托底神器。

同样以毫末为例,有了MANA OASIS的加持,毫末MANA五大模型全新亮相升级,车端感知架构实现跨代升级,毫末的技术栈布局继续保持完整领先的态势,尤其在感知、认知等层面领跑行业,引领大模型、大算力、大数据发展方向,冲刺进入自动驾驶3.0时代。

拿数据采集、筛选和标注来说,自动驾驶系统在前期开发阶段,需要采集大量的道路环境数据,以此让车辆像人类驾驶员一样快速准确地识别车道、行人、障碍物等驾驶环境中的关键信息。唯一的办法是,通过在海量数据基础上不断的重复训练与验证,车辆对道路环境的认知水平逐渐趋近于真实情景,判断的准确性在这一过程中不断提升。

不仅如此,车企收集到的数据还需要进行模型训练,算法通过在数据上进行运算产生模型,而智算中心将是驱动大模型和海量数据训练的加速器。基于Sparse MoE,毫末根据计算特点,进行稀疏激活,提高计算效率,实现单机8卡就能训练百亿参数大模型的效果,实现跨机共享exper的方法,完成千亿参数规模大模型的训练,训练成本降低到百卡周级别;毫末设计并实现了业界领先的多任务并行训练系统,能同时处理图片、点云、结构化文本等多种模态的信息,既保证了模型的稀疏性、又提升了计算效率;MANA OASIS训练效率提升了100倍。

毫末智行CEO顾维灏也在详细阐释了建设智算中心的底层逻辑:“自动驾驶对智算中心的第一要求肯定是算力。智算中心的超大算力代表了有多少的AI工程师在这个练武场中能够做出什么大模型,能训练多少大模型。”

智能辅助驾驶“进城” MANA OASIS帮助毫末解决了哪些难题?

现在很多车企和自动驾驶技术企业已经开始把打造智算中心当成下一阶段竞争重点。今年1月的HAOMO AI DAY上,毫末智行董事长张凯给出了2023年自动驾驶行业趋势的十大新预测,超算中心赫然位列其中,“超算中心会成为自动驾驶企业的入门配置。”

事实上,当下,随着新能源汽车品牌普遍已经把高速公路场景下的辅助驾驶列为标配,赛场已经悄然从高速路转向城市。与高速导航辅助驾驶相比,城市行车涉及了红绿灯、十字路口、行人电动车、遮挡、固定障碍物、频繁刹停起步等一系列难题,复杂度又提升了好几个数量级。

如果仅用实测车辆去挑战这些城市场景无法穷尽的Corner Case,成本、安全性、时间都将成为企业发展的壁垒。由此,虚拟仿真就成为了解决部分成本及场景多样性的关键,其中,大规模的长尾场景需要数据中心提供充足的算力支持。同时,仿真场景对现实的回归过程,同样需要巨大的算力提供支持。

在MANA OASIS的加持下,毫末的数据智能体系MANA五大模型全新亮相升级。而在五大模型助力下,MANA最新的车端感知架构,从过去分散的多个下游任务集成到了一起,形成一个更加端到端的架构,包括通用障碍物识别、局部路网、行为预测等任务,毫末车端感知架构实现了跨代升级。这也意味着毫末的感知能力更强,产品力更强,向全无人驾驶加速迈进。

首先是视觉自监督大模型,让毫末在中国首个实现4D Clip的自动标注。毫末利用海量videoclip,通过视频自监督方式,预训练出一个大模型,用少量人工标注好的clip数据进行Finetune(微调),训练检测跟踪模型,使得模型具备自动标注的能力;然后,将已经标注好的千万级单帧数据所对应的原始视频提取出来组织成clip,其中10%是标注帧,90%是未标注帧,再将这些clip输入到模型,完成对90%未标注帧的自动标注,进而实现所有单帧标注向clip标注的100%的自动转化,同时降低98%的clip标注成本。毫末视频自监督大模型的泛化性效果极佳,即使是在一些非常困难的场景,例如严重遮挡的骑行者,远处的小目标,恶劣的天气和光照,都能准确地完成自动标注。

其次是3D重建大模型,助力毫末做数据生成,用更低成本解决数据分布问题,提升感知效果。面对“完全从真实数据中积累corner case困难且昂贵”的行业难题,毫末将NeRF技术应用在自动驾驶场景重建和数据生成中,它通过改变视角、光照、纹理材质的方法,生成高真实感数据,实现以低成本获取normal case,生成各种高成本corner case。3D重建大模型生成的数据,不仅比传统的人工显式建模再渲染纹理的方法效果更好、成本更低。增加NeRF生成的数据后,还可将感知的错误率降低30%以上,且数据生成可实现全程自动化,无需任何人工参与。

多模态互监督大模型则可以完成通用障碍物的识别。毫末在成功实现车道线和常见障碍物的精准检测后,针对城市多种异形障碍物的稳定检测问题,毫末正在思考和探索更加通用的解决方案。目前,毫末的多模态互监督大模型,引入了激光雷达作为视觉监督信号,直接使用视频数据来推理场景的通用结构表达。该通用结构的检测,可以很好地补充已有的语义障碍物检测,有效提升自动驾驶系统在城市复杂工况下的通过率。

动态环境大模型,可以精准预测道路的拓扑关系,让车辆始终行驶在正确的车道中。在重感知技术路线下,毫末为了将对高精地图的依赖度降到最低,面临着“道路拓扑结构实时推断”的挑战。为此,毫末在BEV的feature map(特征图)基础上,以标精地图作为引导信息,使用自回归编解码网络,将BEV特征,解码为结构化的拓扑点序列,实现车道拓扑预测。让毫末的感知能力,能像人类一样在标准地图的导航提示下,就可以实现对道路拓扑结构的实时推断。

毫末认为,解决了路口问题实际就解决了大部分城市NOH问题。目前在保定、北京,毫末对于85%的路口的拓扑推断准确率高达95%。即便是非常复杂、非常不规则的路口,毫末也能准确预测,比老司机还老司机。

人驾自监督认知大模型在今年2月已经被正式升级为DriveGPT,这也是全球首个自动驾驶认知大模型。它能让毫末的驾驶策略更加拟人化,安全及顺畅。目前,毫末DriveGPT已完成模型搭建和第一阶段数据的跑通,参数规模可对标GPT-2的水平。接下来,DriveGPT将持续引入大规模真实接管数据,通过人驾数据反馈的强化学习,来不断提升测评效果,同时也将DriveGPT作为云端测评模型,用来评估车端小模型的驾驶效果。

仿真测试能有效缩短技术和产品开发周期,降低研发成本。业内典型的长尾场景问题不够丰富,现实中可遇而不可求的极端场景,利用仿真平台可以便捷生成。由于仿真测试中的模拟环境需要实现多模态融合,以支持传感器模组的复杂性,因而也需要大算力的支持。

除了毫末,特斯拉超算中心拥有近2万张GPU,对自动驾驶训练效率产生立竿见影的效果,最大限度地提升了自动驾驶系统的开发效率;大陆集团的高算力集群,将开发周期从几周缩短至几个小时,使自动驾驶得以在中短期商业计划中落实;机器学习时间的缩短加快了新科技进入市场的速度;“扶摇”支持小鹏自动驾驶核心模型的训练时长从7天缩短至1小时内,大幅提速近170倍……

当前,一个不争的事实就是,在自动驾驶领域具有长期规划的车企,无论是造车新势力还是传统品牌,或者技术供应商,都在搭建自己的超算中心,以掌握稳定的算力资源,缩短开发周期,加快自动驾驶产品的上市。相反,如果没有超算中心,那么自动驾驶训练速度将明显放缓,自动驾驶企业间的差距也将愈发明显。

用智算中心打造数据护城河 数字新基建逐步成为发展“标配”

自动驾驶发展至今,业界发现乘用车智能辅助驾驶是最有可能大规模铺开的商业场景。据高工智能汽车研究院数据显示,2022年中国市场(不含进出口)乘用车前装标配搭载L2级辅助驾驶的搭载率,已经连续第二个月超过30%。智研咨询数据显示,预计到2025年,全球新车L2自动驾驶的渗透率可达53.99%。

今年,城市导航辅助驾驶也开启了量产的征程。西部证券预测,2023~2025年,国内市场上搭载城市导航辅助驾驶的车型将分别达到70万、169万和348万辆,占比将分别达到17%、40%和70%。

在城市导航辅助驾驶落地加速的背景下,更容易复制、拓展的重感知的方案,受到了更多关注。在重感知技术路线下,面对“道路拓扑结构实时推断”的挑战,毫末的选择是在特征图基础上,以标精地图作为引导信息,使用自回归编解码网络,通过结构化的拓扑点序列解码,实现车道拓扑预测。由此不难看出,业界逐渐达成共识的重感知路线,相比高精地图方案,更依赖算力加持。

人工智能是创新的加速器,智算中心则可以为各类技术创新提供支撑。一方面,智算中心可以为构建安全可信、可复用的技术研发环境提供算力设施支撑,为各领域科技研发提供智能计算服务,加速科技研发的进程;另一方面,智算中心是新一代信息技术的集成应用载体,智算中心的快速建设推广与规模化应用将推动通信服务网络、大数据、人工智能等技术的快速迭代,从而促进技术创新。自动驾驶数据是片段式的,特点是小文件多,达到百亿个,而且训练需要交换的数据多,智算中心可以提供充足的带宽,并且可以让自动驾驶模型拥有更好的并行计算框架,在训练的时候把硬件资源都利用起来。

2020年4月20日,国家发展改革委首次明确新型基础设施的范围,其中就包括以智能计算中心为代表的算力基础设施。2023年1月10日,国家工业信息安全发展研究中心推出《智能计算中心2.0时代展望报告》,指出经过5年多发展,智算中心正由1.0粗放扩张阶段走向2.0精细规划阶段。

根据相关统计和测算,目前全国超过30个城市在建或筹建智算中心,未来5年我国智能算力规模年复合增长率将达52.3%。智算中心的创新发展,将进一步为人工智能夯实“算力底座”,成为带动人工智能及相关产业快速发展的新引擎。

“我们测算,智算中心带来的成本优化是惊人的,将达到亿元级别。”这是今年1月,张凯提出的预测。从目前及未来的规划量产规模来看,毫末自建智算中心可节约巨额成本;同时,其带来的效率提升也非常明显。

人工智能发展很快,新的算法层出不穷,需尽快引入新的技术和模型,与此同时,数据是智能化发展最大的驱动力,也占据了大量成本构成。用自建智算中心来打造数据护城河,不仅能够完善产业智能生态,更能让企业在智能化方面占据先发优势,智算中心作为数字新基建,未来势必将引领自动驾驶技术持续迭代升级。

【本文来自易车号作者车业视界,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】

分享:
扫描分享到社交APP