全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
央行发布2022年第四季度中国货币政策执行报告
go
lg
...
助力加快构建新发展格局、扎实推进中国式
现
代
化。从战略全局出发,从改善社会心理预期、提振发展信心入手,坚持系统观念,做到“六个更好统筹”,把实施扩大内需战略同深化供给侧结构性改革有机结合,加大宏观政策调控力度,建设
现
代
中央银行制度,充分发挥货币信贷政策效能,重点做好稳增长、稳就业、稳物价工作,推动金融支持实体经济实现质的有效提升和量的合理增长,为全面建设社会主义
现
代
化国家开好局、起好步。 稳健的货币政策要精准有力。要搞好跨周期调节,既着力支持扩大内需,为实体经济提供更有力支持,又兼顾短期和长期、经济增长和物价稳定、内部均衡和外部均衡,坚持不搞“大水漫灌”,稳固对实体经济的可持续支持力度。保持流动性合理充裕,保持信贷总量有效增长,保持货币供应量和社会融资规模增速同名义经济增速基本匹配,助力实现促消费、扩投资、带就业的综合效应。结构性货币政策工具聚焦重点、合理适度、有进有退,引导金融机构加强对普惠金融、科技创新、绿色发展等领域的金融服务,推动消费有力复苏,增强经济增长潜能。持续发挥政策性开发性金融工具的作用,更好地撬动有效投资。继续深化利率市场化改革,优化央行政策利率体系,发挥存款利率市场化调整机制的重要作用,发挥贷款市场报价利率改革效能和指导作用,推动降低企业融资和个人消费信贷成本。密切关注通胀走势变化,支持能源和粮食等保供稳价,保持物价水平基本稳定。坚持以市场供求为基础、参考一篮子货币进行调节、有管理的浮动汇率制度,坚持市场在汇率形成中起决定性作用,增强人民币汇率弹性,优化预期管理,保持人民币汇率在合理均衡水平上的基本稳定。统筹金融支持实体经济与风险防范,稳步推动重点企业集团、中小金融机构等风险化解,保持金融体系总体稳定,守住不发生系统性金融风险的底线。
lg
...
金融界
2023-02-24
证监会高质量完成2022年全国人大代表建议和全国政协委员提案办理工作
go
lg
...
办出更多共识、更大成效,为建设中国特色
现
代
资本市场、推进中国式
现
代
化积极贡献力量。
lg
...
金融界
2023-02-24
万字圆桌实录:ChatGPT背后的AIGC 将生成怎样的浪潮?
go
lg
...
对的净化,因为绝对净化其实又违背了我们
现
代
人生活的一些最基本的初衷。因为关于什么东西是干净的或不干净的,没有一个绝对的标准。最后还是有一个大家要共同接受的过程。所以在这种情况下,我们要认识到事物的复杂性,只有认识到这样一个复杂性,才能够开拓前进。在开拓过程中,我们就能够知道哪些东西是可以接受的,哪些东西是现在还不能接受的。 在我看来,法律、伦理和社会问题要纳入到AIGC带来新的认知范式背景下,新的认知方式对整个社会的法律伦理等方面的动态冲击,以及我们如何动态的应对。 杨健(主持人):很多时候技术问题确实是一个度的把握问题。AIGC作为新技术,要在法律伦理上给予一定的约束,但是又不能抑制它的发展。那么,未来怎么样能够安全、可信、负责任地发展应用AIGC就变得非常的重要,我们在这些方面应该具备什么条件才能够把它做好? 姚新:我觉得从内容生成来说,安全、可信和负责任发展的确稍微落后了一点。第一个问题是,现在大部分数据来源于互联网,互联网中有不小比例的数据是错误或者是不准确的,但这些数据用于训练AI大模型,然后用AI大模型生成新的数据,最后这些生成的数据也会被新一代的AI大模型用来训练。所以可以想象,就像做计算的时候误差会叠加,有一些错误在大模型中会被固化,一旦固化了以后就比较难解决。 第二个问题是,AIGC如果真正有一些工业应用,或者应用跟人相关的比较密切,安全性和可信性问题应该在哪一个阶段考虑?不可能是在AI生成以后,再去找办法来判断它是否安全、可行。肯定是在整个模型的建立和训练过程中都要考虑。 第三个问题是,比如有一些学生写毕业论文也是这里抄一下,那边抄一点,没准他最后写的还不如ChatGPT,那么为啥不让他用这个工具?这里有一个比较深层次的问题。教育应该教学生什么?应该怎么教学生?这是挺重要的问题。因为依赖某一个AI大模型去生成知识,会不会损失产生知识的多样性,假如失去了产生知识的多样性,会对我这个社会有什么影响?这都是AIGC发展之初应该考虑的,否则就有可能走推荐系统老路,好像咱们的世界视野被一个个推荐系统封闭了,将来会不会被一个大模型给封闭住。 杨健(主持人):谢谢姚老师。姚老师提的三个问题都是非常重要的。首先是数据源头污染的问题,这个问题进入到整个内容基因里是非常可怕的;第二是对技术的干预到底是在什么样的阶段,要以一个什么样的度来把握;第三是AI大模型会不会从人类助手变成人类的一个桎梏,成为约束人类的牢笼。 吴保元:我从自身研究的可信AI领域来探讨一下。可信AI的定义已经很明确了,鲁棒性、公平性、隐私和可解释性等。然而这些仅限于此前判别式、决策式AI,AIGC的相关研究还比较少。第一,如同姚老师所言,AIGC的安全问题更可能是在源头上制造的,危害可能更大。所以针对AIGC的可信问题,除了以前的老问题,还应该关注新的挑战,比如版权问题、责任追溯问题等。因此,需要先把它的问题定义清楚,后面技术解决方案可以进一步探讨。 第二,AIGC有个特点是它的危害性好像不那么直接,即AIGC的衍生问题,作为技术人员而言,他可能想不到那么清楚,所以AIGC治理需要更多的交叉学科更早的参与进来,共同把问题定义清楚,从源头上去管控它,这样有助于AIGC健康发展。 AIGC 未来可期 杨健(主持人):对AIGC和人工智能领域的未来发展有何期待和展望?它对人类社会的未来影响可能会是怎样的? 殷俊:整个AIGC,以及未来人工智能技术,一定会给我们现有的生产工具跟生产力带来一个根本性变革。这些变革一定会引起生产关系的变化,这可能会对人类未来以及社会产生比较大的影响。 王蕴韬:AIGC可能对于未来数字原生世界而言是一个重大的机遇,同时也是一个全新挑战。相对于物理世界的数字化转型来说,未来数字原生世界很有可能就是元宇宙世界,人类可以凭空创造出很多新应用、新业态、新商业模式,而AIGC是不可缺少的一环。 那么它也存在着很多挑战,包括对传统经济理论的挑战,也就是AIGC可能改变未来人类生产生活的成本结构,未来智慧能力的成本会下降很多,也就是对智慧使用的边际收益会增长很多,因此人类会面临一个更加复杂、更加多元的新世界。 姚新:第一,应该拥抱AIGC技术,这是毫无疑问的。第二,在拥抱AIGC的过程中一定要明确它潜在的挑战,当然也不是一定要解决这些挑战才可以推广AIGC应用。 史树明:第一,我相信AIGC和整个人工智能技术还会持续高速发展;第二,我很期待这种发展会有利于提升整个人类的生活品质,让我们的生活更加舒适便捷。 段伟文:AIGC主要是带来了一种内容生产自动化,那么这种自动化实际上会彻底改变人和机器的认知协同过程。它真正的挑战是,AIGC作为一个内容生产或者知识生产的引擎,我们有没有在内容本身上做好准备,包括法律和伦理规则等。 吴保元:AIGC对于人工智能而言,应该是又一波热潮。这里也有一个潜在影响,就是目前人工智能教学和教材需要大幅度的更新修改。以往我们的教学重点是在判别式网络,但现在可能需要增加生成式AI方面的内容。 杨健(主持人):感谢各位嘉宾的精彩分享!可以说我们正是在经历着这么一场AIGC引领的生成大浪潮,它不只是科技行业的进展,也是整个社会都要面对的一个趋势,我们要用更加开放的心态去认知它,用乐观而且谨慎的态度去接受它,可能这样才能够看清,并且受益于这个浪潮。 来源:金色财经
lg
...
金色财经
2023-02-24
格上每日收评—2023年02月24日
go
lg
...
区建设的意见》和《关于金融支持前海深港
现
代
服务业合作区全面深化改革开放的意见》。两份《意见》各提出三十条金融改革创新举措,涵盖民生金融、金融市场互联互通、
现
代
金融产业发展、促进跨境贸易和投融资便利化、加强金融监管合作等方面。 其中《关于金融支持横琴粤澳深度合作区建设的意见》提出,到2025年,电子围网系统和跨境金融管理体系基本建立,合作区与澳门金融服务一体化初步实现,便利澳门居民生活就业的金融环境初步形成,助力澳门经济适度多元的
现
代
金融产业集聚发展,在跨境资金流动自由便利、投融资汇兑便利化、金融业对外开放等方面先行先试。 到2035年,电子围网系统和跨境金融管理体系更加完善,合作区与澳门金融一体化水平进一步提升,金融环境更加优化,
现
代
金融产业进一步发展。将合作区打造成为我国金融业扩大对外开放的新高地、中国—葡语国家金融服务平台和粤港澳大湾区金融市场互联互通的示范区。 《关于金融支持前海深港
现
代
服务业合作区全面深化改革开放的意见》提出,到2025年,建立健全以金融业扩大开放、人民币国际化为重点的政策体系和管理体制,基本实现与香港金融市场高水平互联互通,金融风险监测、防范和化解体系更加完善,金融对粤港澳大湾区发展的支撑作用日益彰显。 到2035年,实现以负面清单为基础的更高水平金融开放,跨境资金高效便捷流动,基本建成与国际接轨的金融领域规则体系,金融环境达到世界一流水平,为全国金融业扩大开放起到更强示范引领作用。 市场有风险,投资需谨慎。本内容表述仅供参考,不构成对任何人的投资建议。 格上研究
lg
...
格上财富
2023-02-24
第十九届国际络病学大会即将举行,2月24日至26日北京不见不散
go
lg
...
:共享中医络病理论重大成果,共谋中医药
现
代
化发展之路 据了解,中医络病学作为中医理论体系独特组成部分,通过近40年的努力,系统构建了“络病证治”“脉络学说”“气络学说”,对多种难治性疾病的防治具有重要指导作用。探讨中医络病理论最新研究成果,对于提高临床的防治水平、不断推动络病学科的发展和中医药
现
代
化发展具有重要意义。 本次大会将开设主论坛及多场分论坛,主论坛为络病理论创新转化高峰论坛。届时,与会专家将聚焦“络病研究与成果转化”作主题报告,就络病理论研究取得的一系列创新成果以及络病理论在多个疾病领域的防治价值展开深入的学术交流,为满足人民群众对丰富多样健康服务的需求“集思广益”,共谋中医药
现
代
化发展之路。 分论坛:聚焦临床疾病,解锁疾病诊疗新思路 大会分论坛包括脑血管病论坛、动脉粥样硬化与冠心病论坛、心律失常论坛、心力衰竭论坛、糖尿病论坛、呼吸论坛、抗衰老论坛、前列腺疾病论坛、医药卫生发展论坛、肿瘤论坛、基层卫生健康服务能力提升论坛、精神神经论坛等,与会专家将分别以不同的临床疾病为主题,分享其最新研究成果,探讨治疗新策略。 传承精华、守正创新。此次国际络病学大会将充分展示中医络病理论研究取得的重大成果,加强各专家学者的学术交流,为促进络病学学科的发展和中医药
现
代
化进程开启新的篇章。 2月24~26日,第十九届国际络病学大会邀您不见不散。
lg
...
证券之星
2023-02-24
ChatGPT的前世今生:OpenAI的技术「执拗」与「豪赌」
go
lg
...
略了这一点。如今 ChatGPT 的出
现
代
表了人工智能不再是过去那种「有用,但是也挺蠢」的形态了。 为了更好地理解 ChatGPT 这种非常智能的感觉是怎么产生的,难免要从过去那种「很蠢」的人工智能说起。准确地说,ChatGPT 背后使用的依然是自然语言处理(NLP)技术,但却打破了原有的范式。 要理解这一点,可以先看看目前的主流做法是怎样的。人类交流依托的是语言,甚至也有很多人认为人类的思维也是建立在语言上的。因此,理解运用自然语言一直是人工智能的重要课题。但语言实在太复杂,因此为了让计算机理解运用语言,通常会将这个过程拆分为很多的细分项,这就是在技术领域中常说的「任务」。举几个例子: 情感分析任务,针对的是理解语言所蕴含的情感倾向; 句法分析任务,针对的是分析文本的语言学结构; 实体识别任务,针对的是从文本中定位出实体片段,例如地址、名字等等; 实体连接任务,针对的是从文本中抽取出实体间的关系; 这样的任务还有很多,都是从某个细分的侧面去对自然语言进行分析、处理。这样做有很多好处,比如有了这些拆分,就可以从不同的维度来考察一个自然语言处理系统的细分能力;也可以针对某一个细分的项专门做系统或者模型的设计等。从技术的角度来说,将一个复杂的任务(理解并运用自然语言)拆分为很多的简单任务(各种各样的 NLP 任务)确实是一种比较典型的解决复杂问题的路径,这也是目前的主流做法。然而在 ChatGPT 出现之后,以马后炮视角去看,也许在让计算机理解并运用自然语言这条路上,这种拆分并不是最有效的途径。 因为在单个任务上的优秀表现,并不能代表系统就掌握了自然语言。人对于人工智能体的「智能感」,是基于对它应用自然语言的整体能力而产生的,这一点在 ChatGPT 上有明显的体现。虽然 OpenAI 没有开放 ChatGPT 的 API 服务,外界还无法测评它在各个细分 NLP 任务上的具体效果,但以过往外界对它的前身 GPT-3、InstructGPT 等模型的测试情况表明,对于某些特定的任务,一个用专门数据精调过的小模型,确实可以获得更好的效果(详细分析请参考《深入理解语言模型的突现能力》)。但这些在单个任务上有更好表现的小模型,并没有引起很大的出圈效应。归根结底,是因为它们只有单一的能力。单个的能力出众并不能代表它们具有了理解和运用自然语言的能力,从而也无法独自在实际应用场景中发挥作用。正因如此,通常在一个真实的应用场景中,都是多个具有单点能力的模块经过人为的设计拼凑而成,这种人为的拼凑方式是过去的人工智能系统让人感觉并不智能的原因之一。 从人类理解和运用自然语言的视角去看,这个现象其实很好理解。普通人在理解、运用自然语言的时候,并不会在脑内将它拆分为很多步不同的任务,逐个任务进行分析,然后再汇总,这不是人类使用自然语言的方式。就好比一个人,在听到一句话的时候,并不会对它的句法结构、实体内容与关系、情感倾向等这些内容逐一分析,然后拼凑出这句话的含义,人对语言的理解过程是一个整体过程。再进一步,人对这句话的整体理解,会以自然语言的形式,通过回复的方式整体地表现出来。这个过程并不是像人工智能系统那样,拆分单个任务,然后逐一输出情感分析的标签、实体信息的片段、或是别的某个单个任务的结果,然后用这些东西拼凑出回复。 而以 ChatGPT 为代表,GPT 系列模型所做的事情才真正接近了人类理解和运用语言的能力 —— 直接接收自然语言,然后直接回复自然语言,并保证了语言的流畅性与逻辑性。这是人与人的交流方式,所以大家对它抱以「很智能」的体验感。也许很多人会认为,如果能做到 ChatGPT 这样当然很好,过去那种对任务的拆分是因为技术的限制不得已而为之。从技术应用的视角来看,这样迂回的方式当然是需要的,这种方法也在很长的一段时间内被采用,并且确实也能够解决很多实际场景中的问题。但如果回顾 GPT 系列模型的发展过程,就会发现 OpenAI「赌」了另一条路,并且他们「赌」赢了。 2、OpenAI 的「赌局」 GPT 初代,一切开始的地方 早在 2018 年,OpenAI 就发布了最初版本的 GPT 模型,从 OpenAI 公开的论文(Improving Language Understanding by Generative Pre-Training)可以了解到,这个模型采用了 12 层的 Transformer Decoder 结构,用了大约 5GB 的无监督文本数据进行语言模型任务的训练。虽然初代 GPT 模型采用的就已经是生成式的预训练(这也是 GPT 名字的由来,Generative Pre-Training,即生成式预训练),但使用的是无监督预训练 + 下游任务微调的范式。这一范式其实并不是什么新的发明,它在 CV(计算机视觉)领域已经有比较广泛的应用,只是由于当年 ELMo 模型的出色表现,把它重新「介绍」到了 NLP 领域。 GPT 模型的出现在那一年确实引来了一些业内的关注,但它并不是那一年的 C 位主角。因为就在同年,Google 的 BERT 模型横空出世,以优异的效果吸引了几乎全部的目光(这个景象有点像现在的 ChatGPT,不禁感叹 Google 和 OpenAI 之间的「恩恩怨怨」真是天道好轮回)。 图片来自 BERT 论文,从图示中可以一窥当年 BERT 对标的就是 GPT,并引以为傲地指出双向编码能力。 BERT 模型虽然也是采用和 GPT 一样的 Transformer 模型结构,但它几乎就是为「无监督预训练 + 下游任务微调」的范式量身定制的模型。和 GPT 相比,BERT 所使用的掩码语言模型任务(Masked Language Model)虽然让它失去了直接生成文本的能力,但换来的是双向编码的能力,这让模型拥有了更强的文本编码性能,直接的体现则是下游任务效果的大幅提升。而 GPT 为了保留生成文本的能力,只能采用单向编码。 以当年的眼光来看,BERT 绝对是一个更加优秀的模型。因为既然 BERT 和 GPT 两者都是采用「预训练 + 微调」的范式,并且下游任务依然是分类、匹配、序列标注等等「经典」的 NLP 任务形式,那么像 BERT 模型这种更注重特征编码的质量,下游任务选一个合适的损失函数去配合任务做微调,显然比 GPT 这种以文本生成方式去「迂回地」完成这些任务更加直接。 从 BERT 模型出来以后,「无监督训练 + 下游任务微调」的范式便奠定了它的霸主地位,各类沿着 BERT 的思路,琢磨「如何获得更好的文本特征编码」的方法大量涌现,以至于 GPT 这个以生成式任务为目标的模型显得像一个「异类」。马后炮地说,如果当时 OpenAI「顺应大势」,放弃生成式预训练这条路,也许我们要等更长的时间才能见到 ChatGPT 这样的模型。 GPT-2 带来的希望 当然,我们现在见到了 ChatGPT,所以 OpenAI 没有放弃生成式预训练的路线。实际上坚持的「回报」隐约出现在了第二年,也就是 2019 年。OpenAI 发布了有 48 层 Transformer 结构的 GPT-2 模型。在发布的论文(Language Models are Unsupervised Multitask Learners)中,他们发现通过无监督数据配合生成式训练后,GPT 展示出了零样本(zero-shot)的多任务能力。而奇妙的是,这些多任务的能力并不是显式地、人为地加入到训练数据中的。用通俗的话来举个例子,GPT-2 其中一个展示出来的能力是做翻译,但令人吃惊的是,通常专门用来做翻译的模型是需要大量的平行语料(即两种不同语种之间配对的数据)进行监督训练,但 GPT-2 并没有使用这种数据,而仅仅是在大量的语料上进行生成式的训练,然后它就「突然」会做翻译了。这个发现或多或少地带有点颠覆性的意味,它向人们展示了三个重要的现象: 想让模型去完成一种 NLP 任务,也许并不需要和任务匹配的标注数据。例如 GPT-2 训练时没有用标注的翻译数据,但它会做翻译; 想让模型去完成一种 NLP 任务,也许并不需要和任务匹配的训练目标。例如 GPT-2 训练的时候并没有设计翻译任务和相关的损失函数,它只是在做语言模型任务。 仅仅用语言模型任务(即生成式任务)训练的模型,也可以具有多任务的能力。例如 GPT-2 展现出了翻译、问答、阅读理解等等的能力。 虽然以现在的眼光来看,当时的 GPT-2 所展示出来的各种能力还比较初级,效果距离使用监督数据微调后的一些其它模型还有明显的差距,但这并没有妨碍 OpenAI 对它所蕴含的潜在能力充满期待,以至于在论文摘要中的最后一句话中,他们提出了对 GPT 系列模型未来的期望: “These findings suggest a promising path towards building language processing systems which learn to perform tasks from their naturally occurring demonstrations.” 后来一系列事情的发展也证明了他们确实是一直朝着这个 promising path 的方向在前进。如果说在 2018 年,GPT 初代模型出来的时候,GPT 的生成式预训练还面临着被 BERT 这类以「提取特征」为目地的预训练模型在各方面碾压,那么在 GPT-2 中的发现,给了生成式预训练一个 BERT 类模型无法替代的潜在优势,即语言模型任务所带来的多任务能力,且这种多任务能力是无需标注数据的。 当然,在那个时间点上,生成式的技术路径依然面临风险和挑战。毕竟当时的 GPT-2 在各任务上的表现还是差于经过微调的模型,这导致了 GPT-2 虽然有着翻译、摘要等等能力,但效果太差以至于无法实际使用。因此,如果在当时想要一个可用的翻译模型,最好的选择依然是老老实实用标注数据训练一个专门用来翻译的模型。 GPT-3,数据飞轮的开始 从 ChatGPT 时代往回看,也许 OpenAI 在 GPT-2 中的发现确实坚定了他们对 GPT 系列模型的信心,并决定加大研发投入力度。因为在随后的 2020 年他们发布了 1750 亿参数量的 GPT-3,一个即便以现在的眼光去看也大得让人惊叹的模型。虽然 OpenAI 没有明确公开训练这个模型的费用,但大家的估算是当时花了 1200 万美元。同时公开的还有一篇长达 60 多页的论文(Language Models are Few-Shot Learners),其中详细阐述了这个新的庞然巨物所展示出来的新能力。最重要的发现莫过于论文标题中所说的,语言模型具有小样本(few-shot)学习的能力。 小样本学习是一个机器学习领域的专业术语,但它有着很朴素的理念,即「人类是可以通过少量的几个例子就学会一个新的语言任务」。想象一下在语文课上学习怎么掌握「把」字句换成「被」字句样(雨把衣服淋湿了 —— 衣服被雨淋湿了)的情形,老师会给出几个例子,同学们就能够掌握这项能力。 但对于深度学习模型来说,它通常需要学习(训练)成千上万的例子才能掌握一项新的能力,但大家发现 GPT-3 却像人类一样具有类似的能力。而且重点在于,只需要给它展示几个例子,它就会「有样学样」地完成例子给出的任务,而不需要进行额外的训练(即不需要进行常规训练中的梯度反传和参数更新)。后来的研究表明,这种能力是巨型模型所特有的,被业内叫做「在上下文中学习」(in context learning)的能力。 GPT-3 论文中所展示的英语翻译法语的 In context learning 能力。 实际上,小样本学习能力本身并不是很惊人的发现。毕竟业内一直都在对小样本学习进行研究,很多专攻小样本学习的模型都有出色的小样本学习能力。但 GPT-3 展示出来的这种「在上下文中学习」的小样本能力却非常出人意料,其原因也和 GPT-2 所展示的多任务能力一样: GPT-3 并没有为了获得小样本的能力而在训练数据、训练方式上做特别的设计,它依然只是一个用语言模型任务训练的生成式模型; GPT-3 的小样本能力是以「在上下文中学习」的方式展现出来的。换句话说,想让它获得新的能力,不需要对它再训练,而只需要给它看几个示范的例子。 除了这个能力以外,GPT-3 还展示出了优秀的文本生成能力,相比 GPT-2,它生成的内容更加流畅,而且可以生成很长的内容。这些能力综合体现在一个模型上,让 GPT-3 在当时成为了大家的关注焦点,它也成为 OpenAI 正式对外提供服务的模型。 但随着这个模型服务的开放,越来越多的人尝试使用这个模型。从这时起,OpenAI 通过开放给公众的方式,同时也在收集着更具有多样性的数据(用户使用时输入的内容可能会被用于模型的训练,这一点是写在用户条款中的),这些数据在后来的模型迭代中也发挥着重要的作用。自此 GPT 系列模型的数据飞轮便转动了起来,越多优质的用户数据,迭代出效果越好的模型。 与 ChatGPT 不同的是,GTP-3 并不是采用对话的形式交互的模型,而是一个文本的续写模型(也就是在你输入的文字后面接着往下写),因此它并不具备如今的 ChatGPT 所拥有的多轮对话能力。但它已经能够干很多的事情,例如编写故事、给邮件做自动补全等等。但同时,大家也慢慢发现了一些问题,例如它会一本正经地输出不符合事实的内容,并且会输出一些有害的言论等等。这是这种文本生成模型最突出的弊端,虽然经过多次迭代,但 ChatGPT 如今也依然面临类似的问题。 CodeX,让计算机自己写代码 OpenAI 在对 GPT-3 的研究中还有一个意外的发现,它能够根据一些注释生成很简单的代码。因此在随后的 2021 年,他们对生成代码这件事情进行了专门的研究投入,并发布了 CodeX 模型。它可以看作是一个有着代码专精能力的 GPT 模型,能够根据自然语言输入生成比较复杂的代码。 从外部视角来看,我们无法判断代码生成的研究与 GPT 系列模型的研发是否在同时进行。但放在当时,让模型具有生成代码的能力,从实用化的角度来说确实更加具有意义,毕竟 GPT-3 还未拥有如今 ChatGPT 这般强悍的能力。另一方面,让模型去生成代码也能规避它生成有危害文本内容带来的风险。 在 CodeX 论文中提及了几个要点,首先是让经过文本数据预训练的 GPT 模型在专门的代码数据(数据来自 github 的开源代码,一共 159G)上训练确实能够明显提升模型对代码的理解和输出能力。其次是论文中用的是一个 120 亿参数的「小」模型,这个信息从侧面反映出 OpenAI 内部除了对外开放接口的 1750 亿参数的 GPT-3 模型外,还有别的不同大小的模型版本。 而加入代码训练,让模型获得理解和生成代码的决定,原本的初衷也许只是希望 GPT 能够多一种应用场景。它看似与 GPT 系列模型在理解和运用自然语言的能力没有太大的联系,但根据后续的研究(详细的分析请参考文章《拆解追溯 GPT-3.5 各项能力的起源》),增加对代码数据的训练很有可能触发了后来的 GPT 模型在自然语言上的复杂推理和思维链的能力。 也许在 OpenAI 做 CodeX 之初并没有预料到会有这样的结果,但就像他们一直使用文本生成任务来做 GPT 模型,然后在 GPT-2 和 GPT-3 中「解锁」了「多任务的能力」和「在上下文中学习的能力」那样,代码数据的引入又一次让他们获得了意料之外的收获。虽然看上去似乎有一些偶然,但对技术路线的前瞻性认知,加上坚持与持续的投入显然是一个至关重要的因素。 InstructGPT,让 GPT 好好说话 在前面我们提到了 GPT-3 虽然已经有很强的能力,但上线以后随着使用的人越来越多,也发现了很多问题,最严重的应该要数「一本正经地胡说八道」和「输出带有危害性的内容」这两点了。虽然在 2021 年 OpenAI 似乎暂时将重点放在了让模型理解和生成代码这件事情上,但他们应该一直在尝试解决 GPT-3 的这些问题。 在 2022 年初,OpenAI 发表了 InstructGPT 的论文(Training language models to follow instructions with human feedback),从中我们可以一窥解决这些问题的方法。论文的核心理念是让模型接受人类的教导(反馈),这一点在标题中就已经开宗明义了。 GPT-3 之所以会出现「一本正经地胡说八道」和「输出有害的内容」这样的问题,其根源来自于它所使用的训练数据。像 GPT-3 这样的庞然大物,对数据的需求量是海量的。我们从 GPT-3 的论文中可以找到它的数据来源,大致可以划分为三类:网页内容、百科内容以及书籍。虽然网页内容的量非常大,但也非常「脏、乱、差」,自然会包含很多非真实性和有害的内容。GPT-3 在这些数据上进行训练,自然也就学到了这些东西。 但作为一款对外提供服务的产品,GPT-3 的回答应该更小心一些。要解决这个问题,其中的一难点在于怎么去定义模型应该怎么说话。因为生成模型的输出内容是自然语言本身,而不是一个分类的标签或一个实体名词这种有明确的、客观对错的内容。没有明确的对错,就导致无法像训练经典的 NLP 模型那样直接针对目标设计训练任务。 而 InstructGPT 给出的解决思路是非常直接的,既然对于「好的回答」这个评价指标有很多不同的影响因素,这些因素又相互交织在一起,那就让人来教它怎么写回答。因为人类是比较善于处理这种「既有明确的要求,又有模糊的范围」的问题的,让真人写一些「优秀范例」,让模型去学习这些「优秀范例」,这正是 InstructGPT 提出的总体思路。 具体而言,InstructGPT 提出了两个阶段的路径来让 GPT 学习人类给出的「优秀范例」,第一阶段是监督学习,第二阶段是强化学习。在第一阶段中(对应下图中最左边的 Step 1),让真人根据不同的 Prompt(粗浅可以认为是我们使用 ChatGPT 时,在对话框里输入的那条文本,在业界这个东西叫做指令)写真实的、无害的、有用的回答。实际操作过程中,为了保证这些内容的质量,会给写回答的标注人员一些规范性的指引,然后让已经经过预训练的 GPT 模型在这些人类编辑的数据上继续训练。这一阶段可以看作是对模型的一种「规训」,用一个不严谨的类比来说,就像语文老师让你默写优秀范文那样。 图片来自 InstructGPT 论文,提出通过监督式的指令微调 + 人类反馈的强化学习来让模型的输出变得合理。 第二阶段是强化学习,技术上分为两步。第一步(对应上图中间的 Step 2)是让被「规训」后的模型根据不同的 Prompt 生成多个不同的回答,并由人来给这些回答按照好与差的标准来排序。然后用这些标注了优劣之分的数据训练一个打分模型,让它可以自动给更多的数据进行排序打分。强化学习阶段的第二步(对应上图中右边的 Step 3)就是利用这个打分模型作为强化学习中的环境反馈,以策略梯度(Policy Gradient,准确地说是 PPO 算法)的方式对已经「规训」后的 GPT 模型进行训练。整个第二阶段的过程可以看作是对模型的一种「强化」,再用一个不严谨的类比来说,就像语文老师给你写的作文打分,让你从分数中分辨什么是好与不好,然后不断进步。 因此,用一种非常不严谨,但普通人或许也能够理解的方式来说,InstructGPT 先是让一个「口无遮拦」的 GPT 通过「默写人类的优秀范文」的方式初步学会「好好说话」,然后再「给它独自写出来的东西打个分,让它回去好好领悟,继续进步」。当然,在技术上牵涉事情会更复杂一些,比如「优秀范文」的具体规范和数量等数据上的问题,以及强化学习中打分模型的选择,算法参数的设置等算法上的问题,都会对最后的效果产生影响。但最终的结果表明,这种方式是非常有效的,论文中也指出一个通过上述方式训练出来的 13 亿的小模型,效果就能够超过没有经过这种训练的更大的模型。 另外论文中还有一些非常值得一提的内容。首先是关于 Prompt 的一些发现。InstructGPT 训练时所使用的 Prompt 主要由两部分构成,一部分是专门的 AI 训练师编写的,另一部分自来 OpenAI 的模型在线服务期间,由用户使用中编写的内容,这时数据飞轮的作用就体现了。可以发现,无论是哪种,这些 Prompt 都是由真人写出来的,虽然文章中没有对这些 Prompt 的具体涵盖范围、分布情况以及提问的方式展开详细的分析,但可以合理地猜测这些 Prompt 具有一定的多样性和较高的质量。其实文章中对比了使用这些真人编写的 Prompt 训练的模型和使用一些开源 NLP 任务数据集中构建的 Prompt(例如 T0 数据集、FLAN 数据集)训练出来的模型,结论是由真人编写 Prompt 训练出来的模型,给出的答案更加能被评测的人接受。 另外一点是关于训练好的模型对新的 Prompt 的泛化能力的问题,可想而知的是,如果训练完成的模型无法产生 Prompt 的泛化能力,那么现在 ChatGPT 所表现出来的,几乎百问百答的能力是不太可能产生的。因为在模型做微调的阶段,即便是再多的数据,也不可能把人们有可能会输入的内容都覆盖完整。而 InstrctGPT 论文中点明了文中所采用的方法是可以产生 Prompt 的泛化能力的。 之所以花了更多的文字对 InstructGPT 做介绍,因为根据 ChatGPT 官方页面的介绍,InstructGPT 中的方法正是用来训练 ChatGPT 的方法,不同的只是 ChatGPT 使用了对话式的数据组织方式。 GPT-3.5 时代和 ChatGPT 的诞生 在随后的时间内,OpenAI 发布了多个被称为 GPT-3.5 系列的模型,虽然这些模型并未有相关的论文跟随发表,但根据这篇文章的分析,GPT-3.5 系列应该是融合了 OpenAI 在 GPT-3 时代积累的技术、数据以及经验开发出来的。由于没有详细的官方公开信息参考,关于这些模型的具体资料,外界主要是通过分析使用的体验、相关的技术论文以及 OpenAI 的 API 文档介绍来进行推测。 根据分析,GPT-3.5 系列的模型有可能并不是在 GPT-3 上继续微调而来,而很可能是将代码和自然语言的数据融合在一起,重新从零开始训练了一个基础模型。这个模型可能比 GPT-3 的 1750 亿参数量更大,它在 OpenAI 的 API 中被命名为 codex-davinci-002。然后在这个基础模型上,通过指令微调和人类反馈得到了一系列后续的模型,包括 ChatGPT。 GPT 系列模型的发展路径。 简要地说,从 code-davince-002 这个模型开始,经过有监督的指令微调得到 text-davinci-002。以及后续的 text-davinci-003 和 ChatGPT,也是在 GPT-3.5 系列的某个模型上通过指令微调以及人类强化学习反馈得到的。并且 text-davinci-003 和 ChatGPT 都是在 2022 年 11 月发布的,不同的是 text-davinci-003 和 GPT-3 一样,是一个文本补全模型。而根据 ChatGPT 的官方介绍,它是通过将过往的数据处理成对话交互的形式,并增加了新的对话数据训练出来的。 至此,我们大致回顾了 OpenAI GPT 系列模型从 2018 年的初代 GPT 到现在的 ChatGPT,一路发展迭代的过程。在这个过程中,OpenAI 一直保持着对生成式预训练模型这一技术路径的「执拗」,并且也一直从不断发展的 NLP 技术中吸纳新的方法,从最初的 Transformer 模型结构,到后来的指令微调(Prompt tuning)等技术的出现,这些因素共同促成了如今 ChatGPT 的成功。有了对 GPT 系列模型发展的了解,我们可以再回过头来看看如今的 ChatGPT。 3、走近再看 ChatGPT 在第一章节中我们阐述了 ChatGPT 出圈的原因主要是:「它以流畅、符合逻辑的自然语言来反馈人类对它输入的自然语言」,从而给与它交流的人带来了很强的「智能感」。在第二章节中通过回顾 GPT 系列模型的发展历史来了解 ChatGPT 成功之路。而这一章节会尝试以尽可能让圈外人都能理解的方式,稍微深入一些技术的内容,并且探讨一下当前的一些大型文本生成式模型为什么未能做到相同的效果。这一部份的主要参考来自于《深入理解语言模型的突现能力》和《拆解追溯 GPT-3.5 各项能力的起源》这两篇文章以及相关的一些论文,建议希望详细了解细节的读者阅读原文。 虽然在第一章中指出,ChatGPT 所带来的惊艳效果是由许多不同的 NLP 任务综合体现出来的,但在分析它背后的技术时,还是通过将它的能力进行拆解会更加清晰明了一些。总体而言,ChatGPT 所体现出来的能力可以大致划分为以下几个维度: - 文本生成的能力:ChatGPT 的所有输出都是即使生成出来的文本,所以文本生成的能力是它最基本的要求。 这一项能力实际上是来自于它的训练方式,ChatGPT 在预训练时,是一个标准的自回归语言模型任务,这是 OpenAI 所有 GPT 系列模型的基底。所谓的自回归语言模型任务,通俗的理解是这样的:它可以根据已经输入的文本,预测下一个 token 应该是什么。这里所说的 token,所代表的是模型所使用的最小单位的字符片段,它可以是字(在中文里采用字是很常见的),也可以是词(英文的每个词天然地被空格隔开了,所以常采用词),甚至是字母。但现在的方法通常采用的是子词(subword,介于字母和词之间,主要的目的是减少词表数量)。但不论是哪种,自回归语言模型任务的基本思路都是根据已经输入的文本,预测下一个要输出的文本是什么,就像下图的例子中那样: 这个例子中,BOS 代表了输入的开头,而每个 token 是一个词,GPT 模型根据输入的「今天」和 「天气」两个词,预测下一个要输出的是「不错」。 在训练的时候,会准备很多文本数据,比如网页上的文章、各类书籍等等,只要是正常的文字内容,都可以用来训练。值得说明的是,这种数据不需要进行额外的人工标注,因为这类数据本来就是人写的,模型要做的事情就是根据这些人写出的文本,去学习「给定了前面的文字,接着这些文字后面这个地方应该是什么」的问题。这便是业内所称的「无监督训练」,实际上模型并不是真的没有监督(不然模型学什么呢?),只是它的数据不需要额外的人工标注。也正因为这个任务是不需要额外标注的,因此可以「免费」获得大量的数据,得益于互联网的普及,可以「轻松地」获得海量的由真人写出的文本内容用来训练。这一点也是 GPT 系列模型的特点之一,用海量的数据,去训练很大的模型。 那么在我们使用 ChatGPT 的时候,它是怎么工作的呢?其实也和它的训练方式一样,模型会根据我们在对话框里输入的内容,去预测接在这些内容的下一个 token 是什么,得到这个 token 后,会将它与前面的内容拼接成一个新的文本给模型,模型再预测下一个 token,如此反复,直到满足某个条件后停止。这个停止的条件有很多不同的设计方式,比如可以是输出的文本达到特定的长度,又或者是模型预测出某个用来代表停止的特殊 token。另外值得一提的是,模型预测下一个 token 时,其实背地里是一个采样的过程。换句话说,模型在预测 token 时,输出的其实是所有可能出现的 token 的概率,然后从这个概率分布里采样一个 token。因此,在使用 ChatGPT 时,会发现即便对于相同的输入,它的输出每次也会不一样,因为在背地里它采样了不一样的 token 作为输出。 了解这些之后,可以再回过头来思考一下模型在学什么。它在学习怎么回答问答吗?又或者说它在学习怎么理解自然语言所蕴含的信息、逻辑、情感?还是说它在学习海量的知识?从训练任务的设计来看,似乎都没有,它只是从海量的文本数据里,学习了「根据输入的这些文本,一个人类在后面会接着写什么」这件事。但正是这样的模型,在「进化」到 ChatGPT 时,它却掌握了丰富的知识、复杂的逻辑推理等等,它似乎掌握了一个人类运用语言所需要的几乎所有的能力。这是一件非常神奇的事情,它的「进化」历程将会在下一章节中做更加深入的介绍。 - 丰富的知识储备:ChatGPT 能够正确回答非常多的问题,包括历史、文学、数学、物理、编程等等。因为目前版本的 ChatGPT 并没有利用外部知识,因此这些知识的内容是「储存」在模型内部的。 ChatGPT 所拥有的丰富知识储备,来自于它的训练数据,以及它足够大的体量,以便学会这些内容。虽然官方并没有公开 ChatGPT 所使用的训练数据的具体细节,但从它的前身 GPT-3 的论文可以推测,这些数据大致可以分为三个大的范畴:网页内容、书籍内容以及百科内容。可想而知的是,这些内容天然地蕴含了大量的知识,百科和书籍自然不必说,而网页内容也包含了许多新闻、评论、观点等,并且网页也包括了很多专门的问答垂直类网站,这些都是 ChatGPT 的知识来源。在官方的介绍里指出 ChatGPT 无法回答 2021 年以后发生的事情,因此合理的猜测是训练的数据收集截止到 2021 年。 但数据量只是其中一个方面,要让模型「掌握」这些数据,其自身的体量是不可能小的。以 GPT-3 为例,它有 1750 亿参数,可以粗浅地理解为,这些数据的内容以及模型的各项能力,都以这一个个参数的具体数值的形式,固定在了训练完成的模型中。感性的理解是,假设一个模型只有 1 个参数,那它什么也干不了。更严谨的分析和对比可以参考这篇论文《Holistic Evaluation of Language Models》的测评,方向性的结论是越大的模型,在需要知识来完成的任务上表现得越好。论文地址:https://arxiv.org/pdf/2211.09110.pdf - 逻辑推理与思维链的能力:从第一章图片中的鸡兔同笼的例子可以看出,ChatGPT 具有很强的逻辑推理能力。并且它能够将复杂的内容,通过拆解,分成多个小的步骤,一步步地进行推理,获得最后的答案,这种能力被称为思维链。 从前面的介绍我们知道,模型在训练的时候并没有针对逻辑推理以及思维链做特定的设计。而当前的主流观点认为,逻辑推理和思维链很可能和两个因素相关,第一个是模型的体量,第二个是模型是否在代码数据上进行过训练。 关于模型体量与推理、思维链能力的关系,在《深入理解语言模型的突现能力》中有对应的介绍。下面这张图展示了思维链能力与模型体量的关系。 不同模型不同尺寸的思维链效果对比,图来自论文。GSM8K,SVAMP 和 MAWPS 是三个需要逻辑推理的数学应用题数据集,LaMDA,GPT 和 PaLM 分别是 3 个不同的模型。 简要地说,图表中给出了三个不同的模型,在三个数学应用题数据集上的答对率。而值得关注的是以下几个方面: 思维链的能力(蓝色实线)在模型体量够大的时候产生了效果上的突变; 思维链的能力在模型够大的前提下,效果超过了标准的指令(Standard prompting,黑色实线)方法; 思维链的能力在模型够大的情况下,可以接近甚至超过有监督的方法(橙色虚线)。 用通俗的话来说,就是在模型足够大的时候,思维链的能力突然展现了出来,能够达到、甚至超过那些在推理数据集上专门进行有监督训练的模型。这个图也许部分解释了现在我们看到的 ChatGPT 所具有的优异推理和思维链能力。 而另一个关于推理以及思维链能力的产生因素,与模型是否在代码数据上做过训练有关。目前这一点只是一个推论,《拆解追溯 GPT-3.5 各项能力的起源》中的分析表明体量类似的大型模型,没有在代码上做过训练的话,只有很弱或几乎没有思维链和推理能力。而 ChatGPT 确实是在代码数据上进行过训练的,这一点从它能够理解并生成代码也可以看出来。在第二章回顾发展历程中提到了,OpenAI 在 2021 年就发布了专门针对代码的 CodeX 模型,将代码数据加入 GPT 的训练数据应该就是从那时开始的。 - 按照人的提问或者指令给予回复的能力:ChatGPT 除了可以用狭义的基于「问答」形式的交互以外,还能够按照输入的要求进行回复。例如,在应对「帮我写一封信」这类指令式的要求时,它同样也展现出了优秀的能力。这种能力让它不仅是一个提供答案的「高级搜索引擎」,更是一种可以用自然语言来交互的文字处理工具。 虽然目前大众普遍把目光聚焦在将 ChatGPT 作为一种类搜索引擎的工具,但查阅相关知识并给予回答并不是它的唯一能力。实际上,单就 ChatGPT 本身而言,回答知识性的问题并不是它的强项,毕竟它本身的训练数据被定格在了 2021 年。即便用更新的数据去训练,但它终究跟不上时事的变化,因此要将它用作知识性的问答工具,还是需要与搜索引擎等外部知识源做结合,就像现在 Bing 做的一样。 但换一个角度来看,ChatGPT 像是一个「语言完备」的文本工具,也就是它能够按照你给它的要求,完成指定的、可以用文本形式表达出来的内容,就像下面这个例子。 按照给定的计划内容生成英文邮件进行汇报。 这里所说的「语言完备」,指的是运用语言的能力。可以看出上面这个例子里,其实不涉及知识性的内容,因为需要它写的内容已经提供给它了。但要写出这封邮件,涉及到的是运用语言的能力,比如遣词造句、语种切换、邮件格式等等。 现在我们回过头来,尝试分析它的这种「按照指令完成任务」的能力是怎么获得的。在学界中,这种指令被称为 prompt,实际上对话中的用户输入、问答中的问题也是一种 prompt,因此可以粗浅地理解为,在聊天框里输入的所有内容都是 prompt。如果了解我们在本章第一节介绍语言模型的内容,那么更严谨一些的说法应该是「输入给模型的上文」都是 prompt。 ChatGPT 根据输入的指令(prompt)进行回复的能力,是来自于一种被称为指令微调的模型训练方式(prompt tuning)。其实原理很简单,模型依然还是「根据输入的内容,预测下一个 token 是什么」,只是在指令微调的阶段,输入的内容被换成了这些事先写好的 prompt,而 prompt 后面需要生成的内容,则是事先写好的答案。因此在这一阶段和一开始所说的无监督自回归语言模型训练,最大的不同在于数据。这里的数据,也就是 prompt 以及对应的回复,都是人写的,换句话说,这一阶段用的是人工标注的数据进行的监督训练。 提到人工标注的数据,就自然牵涉到了所需要的数据量了,因为每一条标注数据都是需要成本的。如果是不需要标注(就像第一阶段的训练),那么自然有海量的文本数据可供训练,但如果要标注,那到底需要多少这种数据呢?要知道,让标注人员手写一个 prompt,然后再手写一个几百字的、真实详尽的回答,成本是很高的。根据论文《Training language models to follow instructions with human feedback》的介绍,所需要的数据其实不需要太多(相比于无监督阶段所使用的数据来说)。虽然具体到 ChatGPT 到底使用了多少没有确切的信息公开,但可以确定的是在数量级上一定远比用来进行无监督训练的网页、百科和书籍所构成的数据集要小非常多。 论文地址:https://arxiv.org/pdf/2203.02155.pdf 只需要相对少量的人工标注的 prompt 数据就能达到让模型按照指令做出回复的目的,这一点背后其实隐含了一个现象,在学界内被称为 prompt 的泛化能力。可以想象一下,如今全世界都在不停的向 ChatGPT 提问,所提的问题也必定是千奇百怪的,这些问题其实就是一个个的 prompt。但用来对 ChatGPT 进行指令微调的 prompt 肯定不会有这么多,这说明模型在学习到了一定量的 prompt 和相应的答案以后,它能够「举一反三」地对它没有见过的 prompt 进行回答,这就是 prompt 的泛化能力。文章《拆解追溯 GPT-3.5 各项能力的起源》分析指出,这种泛化能力与在指令微调阶段让模型学习的标注数据数量以及多样性相关。 此外,用少量的 prompt 数据就能微调出类似于 ChatGPT 这样拥有强大能力的模型,背后还隐含了另一个猜测,即模型所表现出来的各项能力,可能在无监督训练的阶段就已经存在于模型当中了。其实这也很好理解,毕竟相比于无监督的数据,这些人工标注的 prompt 数量太少了,很难想象模型是通过对这些仅有的标注数据学习而产生了各种各样的能力。从这个角度来说,指令微调的过程更多只是让模型学会按一定的规范来进行回复,而它的知识、逻辑等能力是早已存在的。 - 「客观公正」的能力:如果对 ChatGPT 询问一些有害或者有争议的问题,可以看到 ChatGPT 的回答都是非常「小心」的,很像是经过训练的新闻发言人般的回答。虽然它目前依然做得不够好,但这种能力是 OpenAI 敢将它公开作为一款产品使用的核心因素。 让模型的输出符合人类的价值观是 OpenAI 一直在做的事情。早在 2020 年 GPT-3 的时候,OpenAI 就发现这种通过网上的数据训练出来的模型,会生成带有歧视、危险、争议的内容。作为一个对外提供服务的产品,这些有害的内容显然是不合适的。而现在的 ChatGPT 在这一点上有着明显的改善,让模型做出这种「行为改变」的主要方法也来自于 InstructGPT 的论文,更确切地说,是通过有监督的指令微调加上人类反馈的强化学习共同完成的,这一点在第二章中也已经做过介绍了。 通过上述的分析可以发现,从技术方法的角度来说,ChatGPT 相关的内容都是已知的,但为什么当前只有它拥有如此惊艳的表现呢。实际上从 ChatGPT 推出之后,NLP 社区就一直在分析这其中的原因,虽然很多结论是推测性的,但也为同类模型的国产化带来一些启示。 模型体量的因素 能力涌现出现的前提是模型体量达到一定的规模,虽然没有具体的指标指引,但从目前的事实情况来看,类似于思维链等比较「高级」的能力,需要在数百亿参数量以上的模型中才表现得足够优异。 数据量的因素 模型的大小不是唯一的因素。DeepMind 在这篇论文《Training Compute-Optimal Large Language Models》提供了一些分析性的结论,指出训练的数据量需要随着模型的体量相应地增加,更确切地说,是模型训练时「见过的 token」数量,需要随着模型体量增加。 论文地址:https://arxiv.org/pdf/2203.15556.pdf 数据质量的因素 对于无监督的数据,数据量相对而言并不是很大的障碍,但数据质量往往更加容易被忽视。实际上在 GPT-3 的论文中,就有专门的内容介绍数据的处理工作。为了清洗 GPT-3 的训练数据,OpenAI 专门训练了一个数据过滤模型,来从海量的网页数据中获取更高质量的数据。相比而言,与 GPT-3 体量相当的一些开源模型,例如 Meta 的 Opt 和 BigScience 的 Bloom,似乎没有进行这一步清洗。这也许是这两个开源模型效果劣于 GPT-3 的原因之一。 此外,数据质量的衡量维度不是单一的,诸如数据的多样性、内容重复度以及数据的分布情况都是需要考虑的因素。例如虽然 GPT-3 所使用的网页、百科、书籍这三大类数据中,网页数据的总量是最多的,但在训练时这三类数据的采样并不是按照实际数据的多寡进行的。 另外值得一提的是,在指令微调的阶段,采用人工编写指令也许是一个重要的影响因素。InstructGPT 的论文明确指出在测评过程中,采用人工编写的指令训练出来的模型,比采用现有的 NLP 数据集通过模版的方式构建指令训练出来的模型有更好的效果。这也许解释了在 T0、FLAN 等由 NLP 数据集构成的指令数据集训练出来的模型为什么效果会差一些。 训练过程的影响 这类巨型模型在训练时通过集群进行训练,同时采用数据并行、模型并行以及 ZeRO 优化器(一种降低训练过程显存占用的方法),这些方式为训练的稳定性引入了更多的变量。如下这篇分析指出甚至模型是否采用 bfloat16 精度都对结果有明显的影响。 分析链接:https://jingfengyang.github.io/gpt 相信了解了上面的这些内容,大家对复刻一个类 ChatGPT 的方式以及会面临的问题会有一个大致的了解。有幸的是 OpenAI 已经证明了这技术路径是能够走通的,ChatGPT 的出现也确实正在改变 NLP 技术的发展走向。 4、未来的展望 ChatGPT 从 2022 年 11 月上线以来,引起了极大的关注。相信即便是非专业领域,甚至是与计算机也很少打交道的群体,或多或少地都知道它的存在,这个现象本身就已经反映出它的出现有些不同寻常。圈外的大众更多的是以好奇、惊讶或者惊叹的方式来感性地认识它的出现。而对从业者来说,它的出现更多的是对未来技术走向的思考。 从技术的角度来说,ChatGPT 的出现标志着 NLP 领域的又一次范式切换。之所以说是「又」一次,是因为在 2018 年,也就是初代 GPT 发布的那一年,与之同年发布的 BERT 模型以自身优异的表现,开创了 NLP 的「预训练 + 微调」范式的时代,具体内容在第二章中已经做过介绍了。这里主要介绍由 ChatGPT 开启的「文本生成 + 指令」的范式。具体来说,就是利用训练好的 ChatGPT 或类似的文本生成模型,通过输入适当的指令(prompt)来完成某一项具体的场景。 这种范式与此前的 NLP 技术应用有很大的不同。不论是早期的利用 LDA、RNN 等统计模型或很小的深度学习模型的时代,还是后来利用 BERT 等预训练配合微调的时代,技术所提供的能力是相对原子化的,距离实际的应用场景有一定的距离。 就拿前面举的让 ChatGPT 根据要求写英文邮件的例子,按照此前的做法,可能需要先抽取实体、事件等内容(比如时间、地点、事件等),然后通过模版或是模型形成邮件的样式,再通过一个翻译模型转化为英文。当然如果数据量足够训练端到端模型的情况下,也可以跳过中间的若干步骤。但不论采用哪种方式,要么需要将最终的场景拆解成原子化的 NLP 任务,要么需要对应的标注数据。而对于 ChatGPT 来说,只需要一个合适的指令。 三个阶段的 NLP 技术范式。 这种生成式模型搭配 prompt 的方式,直接略过了中间的各项 NLP 能力组件,用最直接的方式解决应用场景的问题。在这种范式下,完成终端应用的技术路径将不再是用单点 NLP 能力模块通过搭积木的方式组合起来。 当然,这个过程不是一蹴而就的,也不意味着 NLP 的单点能力变得不重要。从测评的角度来说,每一个单点能力的好坏依然可作为评价模型效果的指标。并且,就某些场景来说单点能力依旧是一个强需求。例如在订票系统中本身就需要针对时间、地点进行提取。但与此前不同的是,ChatGPT 本身也可以完成单点能力,而不需要使用额外的功能模块。 ChatGPT 进行信息提取。 ChatGPT 进行情感判断。 从这个角度来说,可以把 ChatGPT 看作是一个以自然语言作为交互媒介的 NLP 工具。如果说在过去,我们是通过模型 + 数据 + 设计训练任务的方式来完成某项 NLP 能力,那么 ChatGPT 则是通过设计指令来完成这些能力。 可想而知,ChatGPT 的出现大大降低了 NLP 技术的应用门槛。但它目前还不是全能的。最重要的一点在于它缺乏准确可靠的垂直领域知识,为了让它的回答可靠,最直接的方式是为它提供外部的知识来源,就像微软将 Bing 的搜索结果作为它回答的信息来源那样。 因此,「传统」的 NLP 技术并不会就此完全消亡,而是会以「辅助」的角色,作为目前 ChatGPT 短板的补充,这也许会是未来 NLP 技术应用的新范式。 来源:金色财经
lg
...
金色财经
2023-02-24
央行等五部门:支持前海合作区内优质地产项目在香港上市融资
go
lg
...
人民政府联合印发《关于金融支持前海深港
现
代
服务业合作区全面深化改革开放的意见》。 《意见》从六个方面提出三十条金融改革开放创新举措,覆盖民生金融、金融市场互联互通、
现
代
金融产业发展、促进跨境贸易和投融资便利化、加强金融监管合作等方面。 《意见》提到深化深港金融市场和基础设施互联互通,在跨境金融领域先行先试,强化跨境人民币业务创新试验区功能。 《意见》提出支持前海合作区内企业依法利用香港(开放式基金型公司或有限合伙基金等)平台进行融资及开拓海外业务,以及利用房地产投资信托基金将优质地产及基础设施项目在香港上市及进行融资。 同时提及扩大港资金融机构业务范围,支持境外特别是香港地区银行在前海合作区的分支机构取得基金托管业务资格。支持前海合作区内证券公司在境内开展跨境业务试点、承销熊猫债业务等,对相关业务明确相应监管政策。 允许证券业金融机构在香港开展直接融资。允许前海合作区内证券公司、期货公司通过境外上市等跨境融资方式补充资本金。 支持深圳证券交易所设立粤港澳大湾区债券平台,推动内地与香港交易所债券市场互联互通机制建设。允许前海合作区面向香港开展跨境双向股权投资便利化试点,简化申办流程,进一步拓展投资范围。 试点开展私募股权和创业投资份额转让。探索开展私募股权和创业投资份额转让试点,建设私募股权和创业投资二级交易市场,拓宽行业退出渠道,增强流动性,促进行业良性发展。
lg
...
金融界
2023-02-24
【预见2023】中粮信托曲晓燕:信托公司坚定发展信心,加快转型步伐,助力实体经济复苏与乡村振兴
go
lg
...
是高质量推进乡村振兴,走中国式农业农村
现
代
化之路 ·在财政政策方面,适度扩大中央政府负债、降低地方政府负债;运用结构性货币政策,防止资金堰塞湖,有效降低企业融资成本 ·提振市场信心,2023年资本市场相对乐观,关注低估值股票 ·需求侧的政策空间已打开,房地产销售有望逐步企稳。 以下为对话全文: 美联储还将加息2-3次,预计今年年中将结束本轮加息周期 金融界:您认为当前影响全球经济前景的最主要因素有哪些?请您展望一下2023年的全球经济? 曲晓燕:2023年全球经济增速并不乐观,世界银行在今年1月将全球经济增速预期下调至1.7%,预计各主要经济体的经济增速都会较低,欧元区和英国经济还有较大可能陷入负增长。在这个背景下,市场普遍关心美联储本轮加息周期何时结束。当前美国CPI仍处高位、但衰退预期已来,一般认为今年美联储还将加息2-3次,在年中的时候结束本轮加息周期。 地缘政治冲突为世界经济增长增添了较多不确定性,这在2022年就已有所表现,预计2023年仍将持续。短期内俄乌冲突较难得到缓解,尚无法预计于什么时候、以什么方式结束,这将持续影响全球的能源和农产品市场。中美关系近年来持续低迷,经济全球化难以回到从前,虽说完全脱钩并不现实,但美国对高技术产品出口所实施的限制封锁可能还将长期存在,这对世界经济,对国际产业链、供应链乃至跨境资本流动都会产生越来越深的影响。 对2023年中国经济充满信心,经济逐步复苏的趋势是明确的 金融界:您如何看待当前中国经济面临的挑战?请您展望一下2023年的中国经济? 曲晓燕:经济复苏不会一蹴而就,面临不少挑战。国民经济三驾马车中,随着国外经济衰退迹象逐步显现,三年来表现最为强劲的出口自去年第四季度以来下降得很快。从投资端来看,地方政府财政压力逐步显现,城投债融资延续低迷表现;虽然房企融资环境有所好转,但资产负债表改善仍需时日。在消费方面,疫情对中低收入者的影响较大,消费能力和消费意愿都需要时间恢复,居民存款的创纪录增加反映了居民的风险偏好以及对未来经济和收入预期的降低。 从内外部环境整体来看,外需拉动作用趋弱后,内需重要性进一步提升,关键在于改善社会心理预期、提振发展信心。随着疫情影响逐步减弱,生产生活秩序恢复及地产政策的不断放松,需求收缩和预期转弱的问题将逐步得到改善。从开年数据来看中国经济已经有所好转,1月份PMI重回扩张区间,新增信贷也创下单月历史新高,景气度显著回暖。我们对于2023年的中国经济充满信心,经济逐步复苏的趋势是明确的,复苏的速度和力度还有待观察。 2023年中国经济三大核心增长点:新兴产业培育、绿色低碳创新发展、农业
现
代
化与乡村振兴 金融界:在全球经济下行的背景下,预计2023年我国经济将有哪些核心增长点? 曲晓燕:鉴于2022年的低基数,2023年的经济增长较为确定,同时还需要挖掘一些新的增长点。一是要支持战略性新兴产业的培育发展,包括补齐供应链“短板”,解决基础“卡脖子”问题,维护产业链竞争优势。推动战略性新兴产业融合集群发展,构建新一代信息技术、人工智能、生物技术、新科技、高端设备制造等一批新的增长引擎。 二是继续支持绿色可再生能源、绿色清洁能源的高效利用,支持传统能源绿色转型,支持绿色低碳技术创新成果的转化,支持绿色环保技术创新,在实现碳达峰、碳中和的目标中,培育新的产业竞争优势。 三是农业
现
代
化与乡村振兴。中央农村工作会议提出要实施新一轮千亿斤粮食产能提升行动,牢牢把住耕地和种子两个要害,逐步把永久基本农田全部建成高标准农田,把种业振兴行动切实抓出成效。一号文件提出要加强农业基础设施建设,特别是加强水利基础设施建设,强化农业防灾减灾能力建设。 实施更加有力有效的财政政策,运用结构性货币政策工具,有效降低实体经济融资成本 金融界:为进一步提振市场信心,财政、货币政策应具备哪些应对之策? 曲晓燕:中央经济工作会议已经明确,2023年继续实施积极的财政政策和稳健的货币政策。财政政策要加力提效,中央政府杠杆率21.4%,未来有提升空间,财政赤字比重还可以提高,可以适度扩大中央政府负债、降低地方政府负债。地方政府专项债发行规模不低于2022年,保证重点项目投入力度,继续发挥基础设施建设对投资与消费的有效带动作用。 货币政策方面在美国加息周期逐步见顶的背景下更有空间,可以继续推动市场利率稳步下行,改善价格型货币政策工具的调控能力,适度下调政策利率,推动LPR尤其是五年期LPR下行,着力扩大企业与居民中长期信贷需求,降低实体经济融资成本。同时要避免大水漫灌,以结构优化为主,PSL和各类再贷款工具投放规模继续加量。 提振市场信心,2023年资本市场相对乐观,关注低估值股票 金融界:2023年我国资本市场将会有怎样的表现?哪些领域值得关注? 曲晓燕:我们对于2023年资本市场相对乐观。一是美联储货币政策预计今年转向,人民币汇率的升值空间提升,有利于国际资金流入。二是随着经济复苏,上市公司利润表现也将逐步提升,目前市场估值水平相对低估,下跌空间不大。三是注册制等各类提振市场信心的政策逐步落地,居民超额储蓄在风险偏好提升后有望进入股市。 注册制系列制度的快速出台,标志着监管对市场的重视,股市继续保持高速扩容态势不变。后续市场的走势将主要取决于整个经济复苏的节奏与幅度,投资者对经济的预期也可能会因为实际经济数据的波动而产生起伏,从而导致指数整体的宽幅波动。从中长期的视角来看,当前A股市场整体估值水平中性偏低,整个经济的复苏也是刚刚起步,没有理由对市场过于悲观,而受益于经济恢复增长,同时估值尚在低位的公司可能具有最好的投资性价比。 托底政策频出,房地产销售有望逐步企稳 金融界:请您展望一下2023年房地产市场的走向?2023年楼市能找回信心吗? 曲晓燕:去年以来房地产纾困政策频出,三支箭改善了房企融资环境,贷款利率政策动态调整机制等政策落地也打开了需求侧政策空间,相信随着这些托底政策的起效房地产销售将逐步企稳。 从金融十六条等政策来看,仍然坚持房住不炒,更多的是着眼于金融行业系统性风险的防控。对信托行业而言,通知鼓励支持房地产企业和项目,应当解释为对保交楼的配套融资支持和为优质房企维持正常经营提供的金融支持。在三分类的背景下,监管鼓励信托公司依法合规为房地产企业项目并购、商业养老地产、租赁住房建设等提供金融支持,这也预示着房地产市场未来的发展方向。
lg
...
金融界
2023-02-24
2023年加密赛道全景展望 10亿用户在哪爆发?
go
lg
...
,我们需要定义什么是 Web3 社交。
现
代
社会网络在我们的生活中随处可见,比如与人交流的即时信息,表达思想的社交媒体,以及可以展示生活中一切的视频网站都是社交的内容。大家可以想象一下,如果这些都发生在产业链上,但目前的基础设施显然无法容纳,所以如果我们只是改变利益分配的环节,让现有的 Web2 社交平台开始发行代币,那么他们是不是 Web3 社交呢? 我们不想预设 Web3 社会化的产品形式,我们只讨论几个方面:数据所有权、产业链上的数据量以及数据产生的价值。这些方面的进展意味着社会化正从 Web2 走向 Web3. 数据所有权是定义 Web3 是否发生社交的标志。 如果 Twitter 发行的数字货币(或 DOGE 币)可以用来捐款,或者广告商用它来支付广告费,我们可以认为这是 Twitter 在努力进行数字化转型,但这不是 Web3 的社交。原因是,Twitter 上的所有内容仍然存储在一个集中的服务器上,审查员也有权在未经用户许可的情况下封锁用户的账户,因此,如果我们必须定义 Web3 是什么,我们认为社交化数据应该存在于区块链上,用户对账户数据有绝对的控制权。这是业内顶尖团队正在努力构建的社交化基础设施的一部分,所有的平台包括基于比特币闪电网络的 Nostr、基于以太坊的 Farcater 和基于 Polygon 的 Lens Protocol 都在努力重新建立一套数据规则,这将在成熟的区块链上建立社交化协议,实现去中心化和抗审查。基于这些协议产生的内容也是基于区块链的,而数据和账户所有权属于用户自己。在这些协议的基础上,社区开发了一些前端程序,可以帮助用户更好地使用这些协议。我们相信这是 Web3 社交的开始。 在数据所有权确立后,Web3 将需要大量的数据来建立护城河。如果我们回顾一下比特币的发展历程,“共识”是其多年来生存的重要因素,这也是 BTC 与其他相同代码的分叉币相比的最大优势。在获得技术基石后,Web3 社交的关键是迅速扩大用户和共识。此刻,代币可能发挥重要作用,作为激励用户或帮助建立更好的应用商业模式的一种方式。构建前端也是获得用户的一个关键部分。如果你测试一个建立在 Nostr 或 Lens Protocol 之上的产品前端,你会发现,与成熟的 Web2 产品相比,它们还太年轻。这只是时间问题,基础设施还在建设过程中,在呈现出初步的竞争格局后,抢占用户的竞争点将转移到入口端,届时,不管是游戏、交易所还是钱包,都将成为社交的入口。此外,由于协议和用户自有账户的互操作性,应用切换将变得更加容易,竞争也将更加激烈。与其他社交协议不兼容的应用门户将被用户抛弃。 在获得大量的数据后,如何进行挖掘并产生价值,将是后 Web3 时代最有价值的话题。Web2 的数据价值主要体现在定向广告上。目前很难对 Web3 的价值给予预测,但毫无疑问,它将导向几万亿级别的产品。 回到最初的问题,什么是 Web3 社交?我们今天只能描述 Web3 会给我们带来什么,会有什么样的东西,很难给出一个准确的定义。然而,我们可以肯定的是,Web3 社交还处于建设基础设施的阶段,而投资于基础设施的成功几率要比寻找客户产品的成功几率高得多。 AI ChatGPT 的流行,让人工智能和加密货币的结合重新进入人们的视野。业内大多数人工智能 + 区块链项目的重点是用人工智能来解决区块链的数据隐私和安全问题,而不是应用层产品。 很难预测人工智能和加密货币在未来将如何结合,但目前有一些潜在的案例和应用正在开发或讨论。 人工智能和加密货币可以结合的一个领域是 DeFi 和金融交易。人工智能算法可用于分析市场趋势,并根据这些信息进行交易,有可能导致更有效和有利可图的交易。此外,人工智能可以用来检测 DeFi 系统中的欺诈行为,并帮助维护这些去中心化网络的安全。 人工智能和加密货币的另一个潜在用例是创建去中心化自治组织(DAO)。DAO 是由区块链上编码的计算机程序管理的组织。人工智能可以用来优化和管理这些组织,使决策和治理更有效率。 在隐私和数据安全领域,也有一些有趣的发展。人工智能算法通常在大量数据上进行训练,其中可能包括敏感的个人信息。区块链技术可以保证这些数据的安全,以确保它们只用于其预期目的。这在医疗和金融等领域非常重要,因为这些领域的隐私是至关重要的。 目前已经有几个项目在探索人工智能和加密货币的整合。例如,Ocean Protocol 是一个由区块链驱动的数据交换平台,旨在为交换有价值的数据提供一个安全和可信的环境,并支持 AI 算法的开发和部署。 人工智能技术的发展和加密货币的普及也在推动智能合约的发展。人工智能算法可用于开发和执行这些智能合约,以确保它们以安全和可靠的方式运作。 总之,整合人工智能和加密货币将可能导致一系列新的应用和一个更高效、安全和可信的金融系统。随着这些技术的不断发展和演变,将会有更多有趣的应用和发展。 如果 AI 要相互交易,他们会用法定货币还是数字货币进行交易?我问 ChatGPT 这个问题,它回答说,与传统货币相比,用代币对数据访问进行量化定价是一个更好的解决方案。 这意味着,数字货币和人工智能的结合可能更纯粹,它只是作为未来人工智能互动的账户单位,帮助 AIGC 产品获得用户。 结语 在所有的轨道上观察,我们展望了在下一个周期可能产生大规模用户繁荣的场景。回到最初的讨论,当下一个牛市来临时,应用可能不仅仅是公共区块链生态系统的一部分,相反,这时巨头应用开始自立门户,与 Web2 的垄断战争不同,对互操作性和可组合性的强调将发挥作用。我们期待着这样一个世界:用户拥有自己的数据,以极低的成本在不同的应用程序之间移动,自由社交,自由游戏,不必担心高门槛、高收费,也不必担心自己的资产安全。这样一来,Web3 肯定能承载人们许多美好的愿望,人们也会花更多的时间在互联网和元宇宙上,在这个虚拟世界里许多想法都可以实现。此时,Web3 将迸发出无可比拟的价值。 来源:金色财经
lg
...
金色财经
2023-02-24
恒信集团匠心之作 以匠心赋予产品长久生命力
go
lg
...
意地栖居在大地上”尤其是对于压力倍增的
现
代
人来说,理想景观带来的不仅是视觉冲击,更是从而外的放松,休息之时能与花花草草近距离接触,暂时放下都市生活的压力,实为一种美好。恒信在社区规划建造中便将就自然美学与人文艺术不断结合,将园林景观赋予建筑最灵动的意境,使居者感受到“四季常绿”的美学奢境。从蜿蜒的小径到户外健身区与休憩亭,仿佛建筑与自然无缝融合,每一处细节,都是匠心所在,令人心驰神往。 不甘于赏景单调,恒信别出新意,布局多重归家动线及休闲设施,不仅有专属孩子的游乐园,还有专属老年人的活动领域,更有萌宠活动区,让生活在社区的居者皆能在茶余饭后找到自己的天地,与邻里进行心灵的沟通。而且,每一处活动区域都将空间美学与健康理念悄然融合,重塑人文典雅。 归家途中,静享四季变幻,感受林语花香。居于此,漫步听林风入耳,让业主体验时刻悠然归家的惬意,获得长久的满足感。 来源:金色财经
lg
...
金色财经
2023-02-24
上一页
1
•••
951
952
953
954
955
•••
1000
下一页
24小时热点
特朗普将中国列为“货币操纵国”历史会重演?美国财政部:紧盯人民币贬值趋势
lg
...
美联储12月降息恐“泡汤”!美指暴拉近30点 “恐怖数据”大超预期,消费者韧性依旧
lg
...
曾扬言“购买有关中国的一切”,现在TA态度变了……
lg
...
金价本周惊人暴跌121美元 罪魁祸首就是TA!接下来如何走?FXStreet分析师黄金技术预测
lg
...
重磅!“恐怖数据”意外超预期,美联储12月降息并非“板上钉钉”?
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1301讨论
#VIP会员尊享#
lg
...
1477讨论
#比特币最新消息#
lg
...
576讨论