全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
云从科技:
大
模型
给AI行业带来了巨大的想象空间和市场机会
go
lg
...
GPT的发布,业界已经广泛感受到预训练
大
模型
给AI行业带来的巨大机会。 首先,ChatGPT将“预训练
大
模型
+下游任务微调”的训练方法发挥到了天花板级的水准,模型效果较过去有了跨越式的进步,作为一个超级对话模型,ChatGPT对用户意图的理解、应答的正确性,异常情况下的反应,体验都显著超出了大家的预期,给AI应用带来新的想象空间;其次,ChatGPT的跨越式效果提升,主要得益于人机协同,即基于人类反馈的强化学习(RLHF),同时ChatGPT会给未来的人机交互体验带来巨大的提升,也使得各个应用场景下的人机协同变得更加容易和高效;人工智能技术产业落地的关键是技术平台化和应用场景化,而ChatGPT的成功是非常鼓舞人心的范例,过去的模型以具体场景下的专用模型为主,导致成本和门槛成为AI应用广泛落地的障碍,预训练
大
模型
兼顾了通用性和灵活性,可以实现建模过程通用化、应用开发场景化,这将加速各行业的智能化升级进程。 云从科技称,公司的理念与OpenAI很大程度上是一致的,而且目前的发展趋势与公司的长期布局相吻合。 首先,公司的研究团队高度认同“预训练
大
模型
+下游任务微调”的技术趋势,从2020年开始,已经陆续在NLP(Natural Language Processing,即自然语言处理)、OCR(Optical Character Recognition,即光学字符识别)、机器视觉、语音等多个领域开展预训练
大
模型
的实践,不仅进一步提升了公司各项核心算法的性能效果,同时也大幅提升了公司的算法生产效率,已经在城市治理、金融、智能制造等行业应用中体现价值;其次,公司一直以来都在人机协同领域布局,打造了像人一样思考和工作的人机协同操作系统(CWOS),致力于整合打通视觉、语音、NLP等多个领域的
大
模型
,不止于像ChatGPT那样在文本世界实现超级智能,还要彻底打通数字世界和物理世界,为“像人一样思考和工作”打下坚实的技术基础;公司也通过开放的人机协同操作系统实现了技术平台化,加上多年的行业深耕,能够通过“平台化的通用模型+带行业knowhow的专用模型”来帮助各行各业快速实现智能化升级。与此同时,更多颠覆性的消费级应用场景也会因技术进步而打开。 云从科技表示,
大
模型
给AI行业带来了巨大的想象空间和市场机会,也是公司的巨大想象空间和市场机会。 (来源:界面AI) 声明:本条内容由界面AI生成并授权使用,内容仅供参考,不构成投资建议。AI技术战略支持为有连云。
lg
...
有连云
2023-01-30
【研报透市】两天股价暴涨3倍!ChatGPT、AIGC爆火,券商:万亿市场开启,互联网奇异点正逐渐临近
go
lg
...
深度学习模型不断完善、开源模式的推动、
大
模型
探索商业化的可能,AIGC有望加速发展,互联网奇异点正逐渐临近。 东吴证券指出,GPT的升级增强了AIGC能力,释放更多潜在市场空间。AIGC在内容生成中的渗透率将快速提升,应用规模快速扩增。根据Gartner《2021年预测:人工智能对人类和社会的影响》,到2025年AIGC产生的数据将占所有数据的10%,而该比例在2021年不足1%。而量子位智库根据现有技术及需求成熟度预测,2030年AIGC市场规模将超过万亿人民币。 ChatGPT横空出世,利好相关基础设施和应用 投资机会上,东吴证券指出,ChatGPT上线象征着文本类AI进入新阶段,利好其基础设施及应用。 算法、数据、算力是AI
大
模型
训练的基础,建议关注基础设施相关标的:科大讯飞、海天瑞声、拓尔思等; ChatGPT上线推动文本类AI渗透于文本生产、智能批阅等应用领域,同时其对训练模型的改进对AIGC的全面发展有广泛意义,建议关注在相关领域布局的:微软、Meta、百度、阅文集团、中文在线、粉笔等。
lg
...
金融界
2023-01-30
从Chat-GPT看生成式人工智能AIGC产业机遇与落地场景
go
lg
...
史的记忆能力和篇幅增强。与GPT-3等
大
模型
相比,Chat-GPT回答更全面,可以多角度全方位进行回答和阐述,相较以往的
大
模型
,知识被挖掘得更充分。Chat-GPT的强势“出圈”引来了对其未来可能的产业化方向的一系列测试,从测试结果来看,在归纳性文字、创作性文字、代码修改、科研辅助以及其它领域Chat-GPT均表现出了前代所没有的优点。对话式AI开始能在大范围、细粒度问题上给出普遍稳妥的答案,并根据上下文形成有一定的逻辑性的创造性回答。本篇报告将关注Chat-GPT背后的技术逻辑以及对AI产业链的整体影响以及产业化落地可能性。 ▍技术逻辑:GPT-3.5基础上基于人类反馈学习进行额外训练,给出了Transformer模型未来的发展方向。 OpenAI团队从 GPT-3.5 系列中的一个模型进行微调,使用与InstructGPT相同的方法,即人类反馈强化学习(RLHF)训练该模型,并对数据收集设置相对做了优化。从最终结果看,Chat-GPT仅仅使用了精选的百亿级别参数(对比GPT-3的千亿级别参数)就完成了与GPT-3结果相当甚至更好的回复质量,凸显了数据质量的重要性,
大
模型
可能将告别过去一味堆叠数据量大小的时代。Chat-GPT的成功是在前期大量坚实的工作基础上实现的,不是横空出世的技术跨越。模型找到了一种面向主观任务来挖掘GPT3强大语言能力的方式,让模型“解锁”(unlock)和挖掘GPT3学到的海量数据中的知识和能力。因此从这样的底层技术逻辑出发,我们能迅速找到中短期内适合Chat-GPT的产业化方向:一个真正全方位的智能内容生成助手。 ▍AI产业影响:算力成本下降+高质量数据催生底层应用,模型开放成为未来趋势,并加速迭代效率。 Chat-GPT的成功证明了两点:1)单纯扩大模型参数并非唯一出路;2)让模型在早期开放给大众测试并收集人类反馈数据更有利于模型迭代。在近10年AI发展的前两个阶段,人工智能的进展更多体现在基于规模的技术突破,如2015-2020年,用于模型训练的计算量增长了6个数量级,同时随着规模的增大,输出结果的质量亦迎来质变,在语言文字、书写、图像识别等领域皆表现出超越人类的水平。但在实用层面,由于所需要的算力巨大,往往需要特殊的GPU配置,同时训练过程相对封闭,大多数人并无法使用,因此技术无法被多数人触达。而人工智能的第三个阶段,随着更新的技术、更优的算法、更大的模型出现,算力的成本越来越低,使得模型训练与运行所需成本持续下降,而算法从封闭测试到开放测试、开源的逐渐普及,亦降低了使用门槛。由此人工智能无论在经济性与可获得性上都达到了支持普及的水平。得益于AIGC基础设施可获得性的逐步提高,平台层变得更加稳固,算力成本持续下探,模型逐渐趋于开源与免费,应用层爆发式发展的节点正在靠近。 ▍应用场景:实现从UGC到AIGC的助推器。 目前我们正经历从Web2.0开始向Web3.0转型的启航阶段,我们已经看到内容创造从专业创作(PFC)转型为了用户创作(UGC)。而Chat-GPT的出现以及中短期内的产业化落地将会为从用户创作(UGC)到AI创作(AIGC)的转型提供关键的辅助支持。结合Chat-GPT的底层技术逻辑,我们认为Chat-GPT中短期内产业化的方向主要分为四大板块。 1)Chat-GPT对于文字模态的AIGC应用具有重要意义,在归纳性的文字类工作中展现出了极其优异的表现。中短期内Chat-GPT能在办公辅助类工具中迅速落地,例如会议总结、文件翻译、例行报告等,提升办公效率并节省人力成本。 2)代码开发相关的工作更加规整也非常适合AI辅助生成。2021年中与Github、微软合作上线的Copilot是目前最成熟的AI代码补全工具,根据Github数据,测试一年来已有120万用户,这些用户编写的代码中40%是由Copilot自动生成,而截至2022年10月,Copilot已经融资2200万美元。Chat-GPT在目前测试中表现出的代码生成能力相比于Copilot更加灵活,但欠缺一些底层的稳定性。在进行针对性的优化后,基于新GPT模型的AI代码辅助工具也有望在中短期内落地。 3)图像生成领域成为了2022年下半年一级市场公司布局的热点,随着Dalle2的热度,在商稿方面用AI取代人类画手的思路基本明确。GPT模型在图像生成领域目前效果略逊于扩散模型,但扩散模型可以利用Chat-GPT生成较佳的Prompt,对于AIGC内容和日趋火热的艺术创作,提供强大的文字形态的动力。 4)Chat-GPT最适合直接落地的项目就是智能客服类的工作。根据模型现有的完成度,在垂直行业针对性的做人工反馈训练,Chat-GPT就可以落地为智能客服产品,在toC场景中率先应用。对比目前的智能客服,Chat-GPT支撑的客服将在灵活性与人性化服务方面有显著的进步。 ▍风险因素: AI核心技术发展不及预期风险;科技领域政策监管持续收紧风险;全球宏观经济复苏不及预期风险;宏观经济波动导致欧美企业IT支出不及预期风险;全球云计算市场发展不及预期风险;企业数据泄露、信息安全风险;行业竞争持续加剧风险等。 ▍投资策略: Chat-GPT模型的亮眼表现的背后是研究者在Transformer模型前进的道路上发现了类反馈强化学习这一方法带来的潜力,对产业界AI的发展而言,数据质量的优化、AI研究人员的储备与计算能力将是未来能否走在AI应用前沿的核心能力。Chat-GPT的成功证明了Transformer模型并非陷入困境,不断的AI技术方法上的新突破正驱动全球AI产业进入加速发展阶段,叠加AI产业集群效应的不断凸显,AI产业有望成为全球科技领域中期最具投资价值的产业赛道之一。AI产业有望继续保持“芯片+算力基础设施+AI框架&算法库+应用场景”的稳定产业价值链结构,拥有完整数据闭环结构、良好数据自处理能力的企业有望持续成为产业受益者。
lg
...
金融界
2023-01-20
国家信息中心联合浪潮信息发布《智能计算中心创新发展指南》
go
lg
...
算中心通过提供预置行业算法、构建预训练
大
模型
、推进算法模型持续升级,提供专业化数据和算法服务。算力基建化和算法基建化相辅相成,共同推动算力的普惠化。 以服务智件化为依托。随着人工智能算法开发和模型训练从专业化、高门槛向泛在化、易用性转变,智算中心的发展将由传统的硬件、软件向"智件"升级。" 智件"的构建,让用户无需关注底层算力芯片和技术细节,以低代码甚至无代码开发的模式,为用户提供功能丰富、使用便捷的智能算力、算法服务和个性化开发服务,实现"带着数据来、拿着成果走"。 以设施绿色化为支撑。智算中心通过采用液冷等先进节能降碳技术,全面降低智算中心能耗,实现绿色发展。 如果说"四化"中的"算力基建化"、"算法基建化"和"服务智件化",是为了让智算中心普适普惠、"好用、用好","设施绿色化"则是践行国家双碳战略的绿色发展要求。"四化"相互支撑、相互协同,共同构建起智算中心高效运行体系。 《指南》还对智算中心的建设类型和运营模式提出了建议。智算中心建设需要结合建设基础、当地或区域产业特色,分类引导施策,改建并行,发展与数字经济相适应的智算中心;还需要选择合理的建设和运营模式,实现长效运营、促进有序布局,保证智算中心所释放的经济社会效益最大化。
lg
...
美通社
2023-01-12
引领智算新时代:浪潮服务器全球第二 中国第一
go
lg
...
工智能场景创新的关键需求,缓解企业面对
大
模型
训练成本高、技术门槛高的问题。2022年,源1.0
大
模型
加持智能客服大脑获《哈佛商业评论》鼎革奖-新技术突破奖,源
大
模型
对专业IT知识问题的解决率高达80%,提升浪潮信息整体服务效率达160%。 智算产品创新,竞争力全球领先 数字经济蓬勃发展带来巨大机遇的同时,也面临着多元化、巨量化、生态化的挑战。浪潮信息融合多元算力需求,持续创新面向未来的智算体系结构及领先的智算产品与方案,并不断完善产品组合,应对智慧转型面临的多重挑战,推动智算成为智慧进化的核心引擎。 早在2014年浪潮信息就提出了融合架构及三步走技术路线,指出了数据中心计算体系结构的发展方向。目前,融合架构正逐步进入3.0阶段,2022年,浪潮信息研制成功了以数据为中心的计算架构,在计算节点内部实现了CPU与加速器之间的缓存一致性、高速总线互连,解决了CPU与加速器之间共享内存数据、统一编址、协同工作的难题。 浪潮信息不断升级智算产品及方案,浪潮服务器融合主流算力平台,实现了关键计算、通用计算、AI计算、边缘计算等业界最全场景覆盖,满足广泛的应用场景和企业需求。作为人工智能计算的领导品牌,浪潮信息拥有业内最全的AI计算全堆栈解决方案,涉及训练、推理、边缘等全栈AI场景,还构建了领先的AI框架优化、AI开发管理和应用优化等全栈AI能力。在存储领域,浪潮存储坚持软硬一体化的技术路线,推进融合创新,围绕软硬融合、硬件重构、软件定义,一方面打造性能领先的高端存储,支持自研双端口SSD,多路多核性能翻倍提升;另一方面打造全球领先的支持多元算力的分布式融合存储,实现文件/对象/大数据多协议无损互通。此外,浪潮信息边缘四大产品系列包括边缘微中心、边缘服务器、便携式AI服务器、边缘微服务器,已在能源、交通、制造、通信等行业广泛落地应用。 浪潮信息的智算产品性能一直处于全球领先水平。浪潮M6服务器打破305项国际性能测试世界纪录,代表了全球服务器设计最高水平。2022年,在全球最权威的人工智能性能基准评测竞赛中,浪潮信息包揽了95个赛道的半数冠军,并且专为多元人工智能处理器设计的智算方案在语言和图像识别类测试创造了新的世界纪录,带动整个多元人工智能计算产业实现历史性突破;在当前最热门的自动驾驶领域,浪潮信息在NuScenes竞赛纯视觉3D目标检测比赛中获得第一名,算法精度再创新高…… "All in液冷",推动智慧计算可持续发展 随着"双碳"目标及"东数西算"工程推进,绿色低碳已成为数据中心建设的主旋律。液冷凭借其在制冷领域节能降碳的突出优势,成为未来新型数据中心、智算中心建设的重要选择。 2022年,浪潮信息将"All in 液冷"纳入公司发展战略,全栈布局液冷,实现通用服务器、高密度服务器、整机柜服务器、AI服务器四大系列全线产品均支持冷板式液冷,并提供液冷数据中心全生命周期整体解决方案。为更好的推进液冷产业化,浪潮信息还建成了亚洲最大的液冷数据中心研发生产基地,年产能达10万台,实现了业界首次冷板式液冷整机柜的大批量交付,帮助用户数据中心PUE降低至1.1以下,整体交付周期缩短至5-7天之内。 作为我国液冷数据中心建设的重要领导者之一,浪潮信息积极推进数据中心液冷技术的研发与提升,在直接冷却与间接冷却等领域持续创新,持续优化改进传统散热技术的能耗大、效率低等问题,实现制冷系统30%-50%的综合能效提升。目前,浪潮信息已拥有100多项液冷技术领域核心专利,已参与制定与发布10余项冷板式液冷、浸没式液冷相关设计技术标准,并牵头制定《模块化数据中心通用规范》国家标准,牵头立项国内首批冷板式液冷核心部件团体标准,对液冷产业的快速发展及液冷技术的大规模普及建设具有重要的指导意义。 通过智慧计算战略的布局与践行,领先智算产品方案的持续创新,浪潮信息已拥有多达200家全球500强企业客户,业务覆盖全球120个国家和地区,拥有8个全球研发中心、10个全球制造中心,为保持业务稳定持续增长及其在算力基础设施领域的领先地位奠定了坚实基础。未来,浪潮信息将继续聚焦智慧计算的创新,持续通过提供高效多元智算力赋能全球客户的数智化转型,同时也将保持自身发展方式的持续转型升级,践行高质量发展。
lg
...
美通社
2023-01-12
李彦宏:要做市场真正需要的技术,否则就是自嗨
go
lg
...
片(昆仑芯)、框架(飞桨)、模型(文心
大
模型
等)、应用(搜索、自动驾驶等)都有覆盖。这是百度的优势和根本,如果每一层之间都有反馈,借助反馈,就可以实现端到端优化。 李彦宏举了Robotaxi的例子。他最看重“萝卜快跑”的单量,并不仅是为了收入,而是因为单量代表用户需求,也是反馈。单量越多,代表市场反馈越多,百度自动驾驶技术提升速度就更快。
lg
...
金融界
2023-01-06
李彦宏首谈chatGPT:把酷技术变成人人需要的产品才是最难的
go
lg
...
片(昆仑芯)、框架(飞桨)、模型(文心
大
模型
等)、应用(搜索、自动驾驶等)都有覆盖。这是百度的优势和根本,如果每一层之间都有反馈,借助反馈,就可以实现端到端优化。 李彦宏举了Robotaxi的例子。他最看重“萝卜快跑”的单量,并不仅是为了收入,而是因为单量代表用户需求,也是反馈。单量越多,代表市场反馈越多,百度自动驾驶技术提升速度就更快。 AIGC令人兴奋,更重要的是做成人人需要的产品 去年 11 月底,美国人工智能机构 OpenAI 推出聊天机器人应用chatGPT,人们只需要输入问题,chatGPT就能给出看上去准确且有意义的回答。 chatGPT上线不到五天,就吸引了 100 万人用它写代码、回答问题、创作剧本、做游戏设定等等。一度有人提出搜索引擎将会受到重大冲击,存在价值会大打折扣。 根纽约时报报道,12 月下旬,谷歌 CEO 在内部发起了与chatGPT有关的“红色警报”,让员工充分警惕chatGPT。据了解,红色警报在谷歌代表最严重、紧迫的业务警告。在全员会上,李彦宏也被员工问到如何评价引发巨大关注的 chatGPT,百度有什么部署。 李彦宏说,最近有许多人问他类似的问题,不只是同业、同领域的朋友,还有许多不同领域,跨界的人都在关注,“很高兴我们天天琢磨的技术方向,能够让这么多人关注,确实是挺不容易的。” 他认为不论是AIGC(人工智能生成内容,比如输入一句话生成图片),还是chatGPT,都是技术、尤其是AI技术,发展到一定地步产生出来的新的机会。“这其实就是属于百度的机会,我们准备度上是最好的。” 过去一年,百度推出人工智能作画辅助工具文心一格,并与出版商、设计师合作,探索可能的商业化空间。今年 7 月,李彦宏在百度世界大会上说,AIGC技术的成熟,代表AI从理解内容,走向了生成内容,AI作画、创作视频、甚至构建虚拟世界,可能会变得像手机拍照一样简单。未来十年,AIGC将颠覆现有内容生产模式。可以实现以“十分之一的成本”,以百倍千倍的生产速度,去生成AI原创内容。 技术前景诱人,但李彦宏在全员会中透露着谨慎。他提醒,现在这个机会还不是很清晰,技术能做到这一步,它会变成什么样的产品、满足什么样的需求?“在这个链条上,其实还有很多不确定性。” 李彦宏说,一方面他很激动、兴奋,但也觉得有很大责任,“我们是个商业机构,能不能把这么酷的技术变成人人需要的产品?”这一步才是最难的,他觉得这很伟大、最能产生影响力。 对未来充满信心,希望有新业务跑出来 今年第三季度财报会上,李彦宏告诉参会的分析师们,随着大城市新冠疫情缓解,百度在旅游、本地服务等垂直领域的广告收入应该会反弹。 随着中国调整新冠病毒防控政策,李彦宏预期正变成现实。根据多家在线酒旅平台数据,从12月中旬以来,元旦出行的火车票、机票预订量持续增长,单日增幅超过30%。 在全员会上,李彦宏说他经济的长期发展感到乐观,有挑战不表明没有机会,“不论是对于中国的机会,对于百度的机会,对于我们每一位同学的机会,还是有非常非常多能够让人期待的地方”。 “中国人很想干事儿,非常勤奋,非常努力,一旦有机会的话,就很多人真的会冲上去”这是整个民族的特点。“我很推崇这样一种文化,这样一个民族的特点”。 李彦宏说。 全员会的最后,李彦宏还分享了自己新一年的目标。他说对于新业务来说,不论团队上报的指标是什么,他都会设定一个高不少的指标。 对于多个业务,李彦宏不用“和”而是用“或”把它连接起来。“有三个或者四个新业务,只要有一个业务跑出来,我就觉得做的不错”。 多位百度内部人士说,目标设定的方式体现“Robin理性乐观主义者”的一面。 李彦宏说,现在离2022年已经没几天,那个“或”还是0,希望 2023 年“或”出来一个1。“有机会,但不容易,设目标应该设成这样子。”
lg
...
金融界
2023-01-06
新名词来了,涨5%的AIGC是什么?
go
lg
...
深度学习模型不断完善、开源模式的推动、
大
模型
探索商业化的可能,AIGC有望加速发展。 对于分不清各种细分概念的投资者,既想布局处于放量前夕的新技术(AIGC),又想要布局进入加速放量期的国产替代细分方向(操作系统等),可以关注软件ETF(515230)和计算机ETF(512720)。 说到元宇宙,游戏被业界普遍认为是最有可能率先实现“元宇宙”的领域,今日表现也较为亮眼,游戏沪港深ETF和游戏ETF分别收涨3.11%和2.75%。 游戏产业天然就具有虚拟场域以及玩家的虚拟化身。根据安信证券提出的元宇宙投资框架,游戏属于元宇宙应用的“内容与场景”端,硬件及软件(VR/AR/MR/AIGC)等技术成熟后,游戏端或是元宇宙产业链 to C 流量端。预计2025年中国云游戏市场规模达342.8亿元,云游戏或将打破终端壁垒。 还要考虑到最近又放了一大批版号,2022年12月28日,国家新闻出版署下发2022年进口版号,共下发44个进口网络游戏版号,其中移动版号数量33个,客户端版号数量9个,主机游戏版号数量2个。其实此次版号下发数量是超市场预期的,特别是腾讯获得的端游和手游版号大作数量较多,有望拉动2023年游戏行业流水复苏。可以关注游戏沪港深ETF(517500)和游戏ETF(516010)。 (来源:界面AI) 声明:本条内容由界面AI生成并授权使用,内容仅供参考,不构成投资建议。AI技术战略支持为有连云。
lg
...
有连云
2023-01-04
银行智算中心部署浪潮AIStation,模型训练效率提升7倍
go
lg
...
近1000种,但同时缺乏大规模分布式、
大
模型
训练算力基础设施所需的资源管理和开发平台,导致某些业务的模型迭代周期较长。同时由于业务部门分散,缺乏有效的算力统一管控平台。 浪潮智能业务生产创新平台AIStation通过不断的技术创新与实践,将大规模GPU并行计算优化能力与AI算力池化智能化调度结合起来,成功将典型AI模型的训练周期由1周缩短为1个工作日,支持银行AI业务场景快速上线,已在大型国有银行落地。本文将阐述浪潮如何在具体业务场景下帮助银行智算中心快速构建AI生产创新平台,实现高性能、高可靠、高扩展。 全生命周期管理的AIStation平台,助力银行业务创新 完备的任务全生命周期管理能更好地支持银行智算中心,帮助开发者快速使用算力,协助管理者管好资源,实现业务快速创新。 AIStation平台提供了作业全生命周期管理,能够让开发者跟踪作业状态、为训练优化提供必要的信息、分析平台资源使用率状态、帮助制定资源使用率提升方案。同时提供完备、高效的异构计算资源管理,从数据加速、网络优化、业务系统无缝对接等维度保障银行业务,实现开发者便捷无感知的开发模式和管理者高效可控的管理模式。 便捷高效异构计算管理,充分发掘算力价值 目前异构人工智能芯片发展迅速,越来越多银行智算中心正在从传统架构迁移至异构算力架构,但面临异构芯片种类多、管理复杂、开发门槛高等难题。 针对异构算力资源接入与管理,AIStation平台建立了加速卡管理模型,可以实现零业务代码修改和异构算力资源接入、配额管理、算力使用的配置化流程,以及异构加速卡的类型识别、算力识别。同时提供报表统计、监控告警功能,使平台管理员能够获取异构算力的健康状态及使用情况,可以通过配置化的方式实现异构算力资源的接入和管理。目前,AIStation已经适配了超20款当前市场主流不同架构的加速卡,具有良好的适配性和通用性,能够充分满足不同业务场景对银行智算中心的算力要求。 镜像分发加速,降低分布式任务的环境准备时间 通常情况下,计算集群在为训练任务分配了资源后,节点将准备环境(如下载作业镜像),此时加速卡算力资源处于完全空置状态。尤其是分布式作业涉及多个计算节点并发下载镜像,对镜像仓库产生较大压力,导致镜像下载较慢甚至失败,严重浪费了算力资源。 AIStation提供了镜像P2P分发加速功能,能在无需新增硬件的情况下实现镜像分发加速。镜像仓库仅提供一次下载带宽,镜像加速系统即可在计算节点缓存镜像数据,并为其他计算节点的镜像下载提供数据服务,同时提供节点数线性相关的镜像网络总带宽,有效降低了分布式任务的环境准备时间。实测证明可将耗时降低至原来的1/2。 此外,AIStation具有节点数据缓存功能,可以仅进行一次性存储系统读取,依靠本地高速磁盘消除网络传输时延,极大提高了存储IOPS,加速训练效率,能够将典型AI模型的训练周期由1周下降为1个工作日。并且AIStation在缓存机制基础上提供了缓存生命周期管理,在磁盘使用率不高时尽可能缓存数据,同时实现数据亲和性调度。 大规模分布式作业的另一大挑战是异常故障处理。由于分布式任务使用了更多的资源,因而更容易受到硬件、网络等故障的影响,进而引发训练中断。一般来说,分布式任务异常处理需要人工介入操作,时效性无法保障,并且还需要一定的人工经验判断任务失败的具体原因和解决方法,对算法人员的要求较高。AIStation平台提供了完备的故障检测识别、任务容错的机制,在故障发生时能够识别当前故障类型,对于通过重启即可恢复的故障(如加速卡故障、网络故障等),平台自动触发训练任务的重提。AIStation通过自动化流程,提高了故障处理效率,节省了集群机时资源,提高了资源利用率。 领先网络方案,实现GPU资源灵活调度 银行智算中心网络构建方案目前有很多,其中RoCE网络基于以太网协议实现RDMA,可以复用已有数据中心的网络设备,从而降低集群搭建成本。基于RoCE的网络方案,需要充分考虑GPU资源的协调调度,实现物理主机GPU的共享使用,来满足训练任务任意GPU数的需求,同时也需将RDMA网卡透传到容器内,以满足跨节点GPU的RDMA通信需求,但是目前还没有一个有效的解决方案。 浪潮提出基于RoCE网卡虚拟化和网络互通性管理相结合的解决方案,实现了在容器云平台上对RoCE网络的快速接入适配,同时降低网络适配难度。方案已部署到某大型国有银行的实际生产环境中,帮助客户解决了GPU资源碎片的问题,实现RoCE网络下GPU资源灵活调度分配,实际效果超出了客户预期。 RoCE网卡虚拟化:对于AI训练网络,存在多种实现网络设备共享的方案,例如MacVLAN、Calico、Flannel、SR-IOV等。考虑到RoCEv2实现RDMA通信的机制,我们选择了SR-IOV技术,通过SR-IOV将宿主机的物理RoCE卡(PF)虚拟化为多个RoCE网卡(VF),实现了一对多的场景要求。 网络拥塞控制:基于AI平台运行训练任务时,任意节点GPU都可以与其他节点GPU进行通讯,这必然会出现网络流量 “多打一”的场景。为了保证RDMA网络高带宽、低延时,必须解决拥塞问题实现无损传输。AIStation提供交换机测、宿主机侧、容器侧的流控管理配置,从而避免网络拥塞导致训练性能下降。 网络互通性管理:目前大部分AI训练任务都是基于NCCL提供训练加速,但基于NCCL架构的方案,只会关注本机的GPU与本地RDMA网卡信息,并不会考虑是否与远端的RDMA网卡能正常通信。RoCEv2是基于UDP协议实现RDMA通信,此时需要发送端和接收端的RoCE网卡都能够正常通信,否则不同节点GPU无法基于RoCEv2实现RDMA通信。AIStation基于自研的网络互通性管理功能,保证了集群中任意GPU间互通性。 性能测试表明,在浪潮AIStation平台容器内基于不同网卡进行通讯时,在不同的数据包大小下,性能和时延都没有损失。针对银行业务特点,AIStation测试了大规模图像类别训练任务,采用ResNet50并使用ILSVRC 2012数据集测试加速比,结果显示大规模分布式训练的加速比达94%以上,性能优异。同时物理主机RDMA网卡能够透传到容器并能够基于RoCEv2完成RDMA通信,在有多个RoCE网卡时,能够根据GPU与高性能网卡的拓扑关系、NCCL亲和性等选择最优的RoCE网卡进行跨节点通信。 强大的平台对接能力,实现用户业务无缝对接 银行业务具有多样化和精细化的特点,在进行AI业务时一般需要多个系统支撑与协同,包括数据采集系统、数据处理系统、AI开发训练系统、模型管理系统、推理服务系统、运营管理系统等。虽然内部通用平台能够把各个系统整合起来,但AI开发训练系统中的AI资源管理、AI单机和分布式训练任务全生命周期管理、异构算力管理等方面能力是欠缺的,很难达到AI业务需求。 针对银行内部复杂的系统、业务流程,AIStation平台提供了通用的AI业务调用接口能力,以达到简化流程和整合能力的目的。同时兼容异构资源任务,让银行无需关心底层资源部署和连接情况,把精力放在业务处理上。AIStation平台提供了涵盖任务、数据全生命周期管理、集群资源监控和报表的全能力域API接口,帮助管理者掌握集群运行情况。同时平台API管理实现了全程加密传输以保证数据安全。通过丰富、完备且安全的API接口,AIStation能够快速与银行已有系统集成,让银行快速拥有专家级AI算力基础设施管理能力。 总结 浪潮AIStation在某大型国有银行的实践中取得了显著的示范效果。通过以上关键技术实现了GPU间通信性能大幅提升,减少节点间网络通信开销,提升整体处理性能,有效降低总能耗。同时可以减少机柜占用,提高集群算力密度,实现基础资源降本增效。助力构建高性能、高可靠、可扩展的软硬件系统架构,实现AI训练场景下算力资源的统一管理与智能化调度。 浪潮AIStation为银行前沿的大规模人工智能模型开发训练和场景应用打下了坚实的技术基础。未来,浪潮信息将继续通过全栈智算能力赋能金融AI业务创新,推进金融数字化转型和数字经济高质量发展。
lg
...
美通社
2022-12-30
12月30日国内四大证券报纸、重要财经媒体头版头条内容精华摘要
go
lg
...
2年中国AI市场规模将达130亿美元
大
模型
已具备“通用智能”雏形 报告预测,2022年中国人工智能市场相关支出将达到130.3亿美元,并有望在2026年达到266.9亿美元,2022至2026年年复合增长率达19.6%。其中,人工智能服务器仍是人工智能市场增长的主力军。IDC数据显示,2021年全球人工智能服务器市场的同比增速为39.1%,超过全球整体人工智能市场增速(20.9%),是整体人工智能市场增长的推动力。 第一财经 记录2022 推动2023:十大“热词”看中国产业升级 2022年,面对复杂多变的国际环境和艰巨繁重的国内改革发展任务,中国经济迎难而上,发展动能正逐渐切换,经济的高质量、可持续发展,以及自主可控技术、数字经济、生命科学等所带来的机遇正在显现。 2022年房地产金融:大小政策超千条 三支箭齐发5万亿元资金在路上 从LPR三连降到数百个省市(县)因城施策逾千条,从监管定调“保交楼”到“三支箭”齐发,政策的着力点从稳需求拓展到保项目、助房企。期间银行未能避免不良率攀升,但开发贷、并购贷、按揭贷的投放还在集中度要求下择优进行;信托、AMC在自身艰难转型中积极纾困,带动出险企业优质项目复工复产;银行间债券市场携手中债信用增进公司,为民企融资保驾护航。 经济参考报 机构投资者前瞻2023年投资机会 业内人士普遍认为,近期债券市场波动是对银行理财子公司稳健经营的一次重要考验,考虑到理财产品的期限错配和市场规律,债券收益并不会持续下行。与此同时,随着一系列政策措施的起效,2023年我国宏观经济大概率将企稳回升,权益市场投资也将迎来机会,其中数字经济、老龄化带来的产业变革,以及消费等多个领域都值得关注。 虚拟现实产业加速融合千行百业 随着技术日趋成熟以及应用加速落地,我国虚拟现实产业正进入一轮爆发期。中国电子信息产业发展研究院预计,2025年我国虚拟现实产业的规模有望超过2500亿元,可能带动万亿元的市场规模。 (文章来源:东方财富研究中心)
lg
...
东方财富网
2022-12-30
上一页
1
•••
787
788
789
790
791
下一页
24小时热点
突发语出惊人!普京支持与习近平、特朗普“砍半”军防 美国可共享稀土开采权
lg
...
全球吓了一跳,特朗普突发对中国大规模攻势!比特币失守9万,英伟达财报逼近
lg
...
中国突传重磅利空!港媒:外资企业大批撤离 中国写字楼市场前景黯淡
lg
...
中美突传重磅消息!彭博独家:特朗普团队寻求加强拜登对中国的芯片控制
lg
...
路透调查:眼下中国房价恐进一步下跌,稳定预计到等到这一年
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
60讨论
#VIP会员尊享#
lg
...
1759讨论
#比特币最新消息#
lg
...
911讨论
#CES 2025国际消费电子展#
lg
...
21讨论