全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
DAOrayaki|详解Dora Factory 第二阶段路线图
go
lg
...
投资公司的资金,并最终被微软收购,显然
OpenAI
也经历了同样的情况,在早期阶段声称自己是非营利性和反垄断的。 简而言之,去中心化的风险投资需要做三件事情: 为想要建立新东西的Hacker提供无需许可的接入; 为想要贡献的所有人提供无需许可的接入; 能够自我维持很长时间。 我们将从现在的Dora Grant DAO开始,它是由vcDORA治理的风险投资社区,逐步将其迭代为去中心化的风险投资。理想情况下,DAO的储备资金达到一定水平,仅依靠储备资本的无风险或风险调整收益就可以每年资助极客社区的所有风险项目,就像大学捐赠基金一样。 除了彻底失败,这项努力可能有两种最终结果。它可能成为一个可泛化的协议。在这种情况下,我们将在DoraHacks.io上部署协议,并使其免费提供给每个去中心化的风险投资基金,就像Grant DAO和Hackathon这样的现有协议一样。它也可能无法复制。如果是这种情况,我们将确保该基金对于每个合法加入的人都是可访问的。 公共物品质押 区块链生态系统的基本价值来自于对本来封闭的金融系统的民主化。每个区块链交易都承载着一些价值,区块链基础设施提供了安全性和各种功能,以便实现有价值的交易。通过持续创造价值,一个区块链网络可以维持自身,并通过生态系统公共物品资金进一步发展自己的基础设施。目前,绝大部分网络激励都用于网络安全,我们认为其中应有一部分用于通过一个无偏见系统的分配来资助生态系统的项目和公共物品,正如我们在区块激励驱动生态系统资助[9]中所描述的那样。公共物品质押[10]是一个实际的解决方案。 我们在2022年初开始构建基本技术和能力。现在,公共利益质押已经被几个生态系统采用,并且正在迅速得到进一步采用。截至今年2月,Dora Factory公共利益质押的总锁定价值(TVL)已经达到3亿美元,由多个生态系统的验证者组成,大大小小都有。通过公共利益质押,我们能够资助多链创新,使更多的黑客能够构建自己的想法并开始自己的创业。 接下来,我们将做三件事: 增加公共物品质押的能力。 建立基础设施,以便消费者可以成为公共物品质押验证者。 创建协议套件,以去中心化PoS网络质押和治理。 亲爱的狗狗—星际数字货币结算网络(Dear Doge) 太空经济至少会和地球经济一样庞大,这也是黑客和开源开发者应该被允许在其中建设的领域。 目前太空经济活动极其有限,完全没有任何多行星金融活动。但这将很快改变。 当多行星经济到来时,将开放的金融生态系统带到地球之外很重要。 太空中有许多可以发生的活动。交易可以从太阳系中不同的位置开始,包括火星、月球、地球、小行星和它们的轨道。交易可以由人类和机器人发起,它们可以从任何一点到另一个点。 考虑在未来二十年内人类在火星上的永久定居,创造太空工厂、太空轨道电站、矿山、科学实验、大型建筑、月球基地、太空军队、太空酒店、旅游等活动。交易将在火星、月球、地球或它们之间的任何两个终点之间发生。地球和火星之间的最大距离约为 4.02 亿公里。任何通讯需要大约 22 分钟才能到达,这会对交易造成显著的延迟。 为了将区块链资产引入太空,我们需要创建一个多行星结算层。它需要一种非常不同的基础设施。由于发射成本和通信成本,采用 Nakamoto 共识来解决多行星区块链资产交易不符合经济要求。另一方面,由于通信受物理限制而受到延迟,我们需要新的协议来处理通信延迟,以便解决多行星交易。 我们能够提供的细节很少,这可能是最有可能失败的方案。 由于 Dogecoin 目前最有希望成为第一种具有外太空实用性的加密货币,我们将此任务称为“亲爱的 Doge”。 简而言之,Dora Factory的第二阶段是: 创建一个自我维持、无需许可的风险投资基金,以无限期资助黑客的想法。 构建所有必要的基础设施,以支持公共物品抵押。 通过建立多行星结算网络,将加密经济扩展到太阳系中的多个星球。 参考文献: [1] original white paper https://dorafactory.medium.com/dora-factory-1-0-dao-as-a-service-infrastructure-for-on-chain-governance-and-open-source-ventures-6ad53688758f [2] Open-community Grant DAO protocol https://research.dorahacks.io/2022/09/16/vcdora [3] DoraHacks-MACI https://github.com/dorahacksglobal/qf-maci [4] vcDORA community https://dao.dorahacks.io/ [5] Dora Grant DAO https://dorahacks.io/dora [6] DAOrayaki https://daorayaki.org/ [7] media DAO https://research.dorahacks.io/2021/02/18/daorayaki-media [8] quantum computing https://unitary.fund/posts/2023_members.html [9] block incentive driven ecosystem funding https://research.dorahacks.io/2022/12/02/block-incentive-ecosystem-funding/ [10] Public Good Staking https://research.dorahacks.io/2022/12/30/aptos-public-good-staking 来源:金色财经
lg
...
金色财经
2023-03-05
3月05日擒牛姐复盘
go
lg
...
线,新版本全新接入ChatGPT母公司
OpenAI
相关 服务,盗先在视频创作领域集成AIGC新技术,应用端且海外占比营收较大,开盘可以观察 三L零:国内搜索引蔡第二,市占率25%,百度最席但是买不到,周五也午后逆势拉起新高附近,值得开盘观察了。 价值投资观察:中TK技 (20.83) 、中GL通(5.54) 、博JY药 (11.21) 来源:金色财经
lg
...
金色财经
2023-03-05
ChatGPT思考:探索智能的极限
go
lg
...
12 月,ChatGPT 横空出世。
OpenAI
用一个核弹级的成果改变了科学研究和工程应用的范式。在中国,ChatGPT 受到了广泛的关注与深刻的讨论。在过去的一个月里,我走访各大高校,研究院,大厂,创业公司,风投;从北京到上海到杭州到深圳,跟所有头部的玩家们全部聊了一遍。The Game of Scale 在中国已然拉开,风暴中心的玩家们,在已知国内技术和生态与世界前沿的巨大鸿沟下,如何做成这件事?谁能做成这件事? 秦失其鹿,天下共逐之。———《史记·淮阴侯列传》 以下为本文目录,建议结合要点进行针对性阅读。 01 三种不同的答案 02 极限思维 03 人工智能显著超过人类的点 04 Alignment 对齐 05 结语 01. 三种不同的答案 我每接触到一个创业公司,都会问同一个问题:”ChatGPT 在那里,你们想做什么?“ 我大概能收到三种不同的答案。第一个答案很明确,要做中国的 ChatGPT。 做中国的 ChatGPT 因为它就在那里,所以想要复现,想要国产化。这是很经典的产品导向中文互联网思维。这种思路也是过去二十年,中文互联网常见的商业模式:首先硅谷做出来一个东西,然后我们把它抄过来。 但这里的问题是,首先,ChatGPT 可不像打车软件,复现难度完全不可同日而语。光从人的角度看,GPT 的产生,是这个世界上最顶尖的科学家和工程师们从 2015 年开始就不断研究的结果。
OpenAI
的首席科学家, Ilya Sutskever,深刻地相信 AGI 一定能实现。作为图灵奖得主 Geoffery Hinton 的大弟子,从 2007 年就开始研究深度学习。他的 citation 有 37 万,发过的文章精准踩中了过去十年 Deep Learning 的所有关键节点。即使是如此强大的团队,从 GPT 2 到 GPT 3.5 也花了四年的时间,它的科学与工程的难度可想而知。 同时,初代 ChatGPT,是
OpenAI
在 GPT 3.5 的基础模型上,花了两星期时间对着 dialog 做 finetuning 之后随手扔出来的 demo。这里真正强的并不是 ChatGPT 这一个产品,而是底下的 GPT 3.5 基础模型。这个模型还在不断地演化,GPT 3.5 系列在 2022 年更新了三个大版本,每个大版本都显著强于前一个版本;同样地,ChatGPT 发布两个月一共更新了四个小版本,每个小版本都在单个的维度上比前一个版本有着明显的改进。
OpenAI
的所有模型都在持续不断的演化,随时间推移越来越强。 这也就意味着,如果只盯着当前 ChatGPT 这一个产品看,无异于刻舟求剑。当 ChatGPT 出现的时候,它对已有的语音助手们形成了降维打击;如果看不到基础模型的演化,即使花个一两年辛辛苦苦做出一个类似的东西,那时候
OpenAI
的基础模型也在继续变强,如果他们接着产品化,以新的更强的基础模型 finetune 到一个更强的产品,难道要再被降维打击一次吗? 刻舟求剑的做法是行不通的。 做中国的
OpenAI
第二种答案是,要做中国的
OpenAI
。给出这个答案的玩家,跳出了经典中文互联网产品思维。他们不止看到单个产品,而且还看到了这个产品背后,基础模型不断演化的强大驱动力,来源于尖端人才的密度和先进的组织架构。 • 尖端人才的密度:不是一个人集资源带队然后把任务按层级打包分配给底下的人,而是一群顶级的集 science 和 engineering 于一身的人们共同协作; • 先进的组织架构:Language 团队与 Alignment 的团队相互合作迭代,然后底下 scaling 团队和 data 团队帮忙提供基础设施,每个 team 都非常小,但目标明确路径清晰,高度集中资源,朝着 AGI 进发。 所以,如果要做这件事情,不只要看到产品,还要看到它背后的人才团队和组织架构;按稀缺程度排名的话,人 > 卡 > 钱。 但这里的问题是,不同的土壤对创新的鼓励程度是不一样的。在
OpenAI
刚创立的 2015 年,它的投资者们都相信 AGI ,即使当时看不到什么盈利的点。现在 GPT 做出来了,国内的投资者们也都信了 AGI,但相信的点或许也不一样:到底是信 AGI 能挣钱,还是信 AGI 能推动人类发展? 更进一步地,即使
OpenAI
就产生在这里,明天就出现,但他们跟微软达成的 deal,能否跟国内的云计算厂商达成呢?大模型的训练和推理都需要极大的成本,需要一个云计算引擎作为支撑。微软可以倾尽所有,让整个 Azure 给
OpenAI
打下手,这个换到国内,阿里云有可能给一个创业公司打下手吗? 组织架构很重要,只有尖端的人才和先进的组织架构才能推动智能的不断迭代与进化;但它同样需要跟所在的土壤做适配,寻找可以 flourish 的方法。 探索智能的极限 第三种答案是,要探索智能的极限。这是我听到的最好的答案。它远超刻舟求剑式的经典互联网产品思维,也看到了组织架构和尖端人才密度的重要性,并且更重要地是它看到了未来,看到了模型演化与产品迭代,思考着如何把最深刻,最困难的问题用最创新的方法来解决。 这就涉及到了思考大模型的极限思维。 02. 极限思维 观察现在的 ChatGPT / GPT-3.5 ,它明显是一个中间状态,它还有很多显著可以加强,并且马上就能加强的点,包括: • 更长的输入框:开始的时候,GPT 3.5 的上下文最长到八千个 token;现在的 ChatGPT 上下文建模的长度似乎已经过万。并且这个长度明显可以接着增长,在融入 efficient attention 和 recursive encoding 的方法之后,context length 应该可以接着 scale 到十万,甚至百万的长度; • 更大的模型,更大的数据:模型的大小还没有到极限,MoE 可以接着把模型 scale 到 T 的量级;数据的大小还没有到极限,人类反馈的数据每天都在增长; • 多模态:在增加了多模态数据(音频,图片),特别是视频数据之后,总体与训练数据的大小可以再增大两个量级,这个可以让已知的能力接着按 scaling law 线性增加,同时还有可能继续出现新的涌现能力。比如可能模型在看过各种几何形状的图片,以及看过代数题之后,或许会自动学会做解析几何; • 专业化:现有的模型在文科上大概相当于研究生水平,但在理科上相当于高中或大一大二的学生水平;已有的工作已经证明我们可以把模型的技能点从一个方向挪到另一个方向,这就意味着即使不做任何 scaling,我们依然可以在通过牺牲其他方面能力的情况下,把模型朝着目标方向推进。比如牺牲掉模型的理科能力,把它的文科能力从研究生推到专家教授的水准。 以上四点只是现阶段可以看到的,马上就可以加强但暂时还没有加强的点,随着时间的推移和模型的演化,会有更多可以被 scale 的维度进一步体现出来。这意味着我们需要有极限的思维,思考当我们把能够拉满的维度全部拉满的时候,模型会是什么样子。 能够拉满全部拉满 模型的输入框可以接着加长,模型的大小可以继续增大,模型的数据可以继续增多,多模态的数据可以融合,模型的专业化程度可以继续增高,所有这些维度可以继续往上拉,模型还没有到极限。极限是一个过程,在这个过程中模型的能力会怎样发展呢? • Log-linear 曲线:一部分能力的增长会遵循 log-linear 的曲线,比如说某项任务的 finetuning。随着 finetune 数据的指数增长,模型所对应的 finetune 的任务的能力会线性增长。这部分能力会可预测地变得更强; • Phase change 曲线:一部分能力会随着 scaling 继续涌现,比如说上文中的模型做解析几何的例子。随着可以被拉满的维度被不断拉满,新的,难以预测的涌现能力会接着出现; • 多项式曲线?当模型强到一定程度,与人类 align 到一定程度之后,或许一些能力的线性增长,所需要的数据,会突破指数增长的封锁,而降低到多项式的量级。也就是说,当模型强到一定程度之后,它或许不需要指数级的数据,而是只需要多项式级的数据,就可以完成泛化。这可以从人类的专业学习中观察到:当一个人还不是领域专家的时候,ta 需要指数级的数据来学习领域的知识;当一个人已经是领域专家的时候了,ta 只需要很少量级的数据就自己迸发出新的灵感和知识。 所以,在极限思维下,把所有能拉满的维度全部拉满,模型注定会越来越强,出现越来越多的涌现能力。 反推中间过程 在思考清楚极限的过程之后,就可以从极限状态往后反推中间过程。比如说,如果我们希望增长输入框的大小: •如果希望把模型的输入框从千的量级增长到万的量级,可能只需要增加显卡数量,进行显存优化就能实现; •如果希望接着把输入框从万的量级增长到十万的量级,可能需要linear attention的方法,因为此时加显存应该也架不住 attention 运算量随输入框长度的二次增长; •如果希望接着把输入框从十万的量级增长到百万的量级,可能需要recursive encoding的方法和增加long-term memory的方法,因为此时 linear attention 可能也架不住显存的增长。 以这种方式,我们可以反推不同阶段的 scaling 需要怎样的技术。以上分析不止适用于输入框的长度,也适用于其他因素的 scaling 的过程。 这样的话,我们可以得到清晰的从现阶段的技术到 scaling 的极限的每个中间阶段的技术路线图。 按模型演化进程产品化 模型在不断演化,但产品化不需要等到最终那个模型完成 — 每当模型迭代出来一个大的版本,都可以产品化。以
OpenAI
的产品化过程为例: •2020 年,初代 GPT 3 训练完成,开放
OpenAI
API; •2021 年,初代 Codex 训练完成,开放 Github Copilot; •2022 年,GPT-3.5 训练完成,以 dialog 数据 finetune 成 ChatGPT 然后发布。 可以看到,在中间阶段的每一个重要版本,模型的能力都会增强,都存在产品化的机会。 更加重要的是,按照模型演化进程产品化,可以在产品化的阶段适配市场。学习
OpenAI
的组织架构来推进模型演化本身,但产品化可以按照本土市场的特征来。这种方式或许可以既学到
OpenAI
的先进经验,又避免水土不服的问题。 03. 人工智能显著超过人类的点 到目前为止,我们讨论了要用模型演化的视角来分析模型,要用极限的思维讨论模型的演化历程。现阶段马上可以加强的点包括了输入框的长度,更大的模型和数据,多模态数据,和模型的专业化程度。现在让我们再把视野放得更长期些,思考在更大的时间和空间中,模型如何进一步地往极限推。我们讨论: • 并行感知:一个人类研究员一次顺序地读四五篇论文已经是极限,但模型输入框变长之后,可以在极短的时间内并行阅读一百篇论文。这意味着,模型对外部信息的感知能力远超人类一个数量级; • 记忆遗传:人类的演化过程中,子代只继承父代的基因,但不继承父代的记忆,这意味着每一次生殖都需要重启一次;在模型的演化过程中,子代可以继承父代的记忆,并且这个继承的程度可控:我们可以设置子代继承 100%,50%,20% 的记忆,或清空记忆,这意味着父代的经验和技能可以不断累积; • 加速时间:人类相互交流的速率是受到人类说话的物理速度限制的,而模型相互交流的速率可以远快于人类,这意味着模型可以通过相互交流来解决人类数据随时间线性增长的问题;人类演化的过程受到物理时间的限制,模型的演化可以比人类的物理时间快上几个数量级,这意味着模型的进步速度可以远快于人类; • 无限生命:一个人的生命有限,百年之后终归尘土,但模型的权重只要不丢失,就可以不断地演化。 从这些角度来说,人工智能超过人类并不是一件难以想象的事情。这就引发了下一个问题: 如何驾驭远超人类的强人工智能? 这个问题,是 Alignment 这项技术真正想要解决的问题。 04. Alignment 对齐 当前阶段,模型的能力,除了 AlphaGo 在围棋上超过了最强人类之外,其他方面的 AI 并没有超过最强的人类(但 ChatGPT 在文科上或许已经超过了 95% 的人类,且它还在继续增长)。在模型还没超过人类的时候,Alignment 的任务是让模型符合人类的价值观和期望;但当模型继续演化到超过人类之后,Alignment 的任务就变成了寻找驾驭远超人类的智能体的方法。 Alignment 作为驾驭远超人类的智能体的方法 一个显然的问题是,当 AI 超过人类之后,还可以通过人类反馈让 ta 更强 / 更受约束吗?是不是这个时候就已经管不了了? 不一定,即使模型远超人类,我们依然又可能驾驭 ta,这里的一个例子是运动员和教练之间的关系:金牌运动员在 ta 的方向上已经是最强的人类了,但这并不意味着教练就不能训练 ta。相反,即使教练不如运动员,ta 依然可以通过各种反馈机制让运动员变得更强且更有纪律。 类似地,人类和强人工智能的关系,在 AI 发展的中后期,可能会变成运动员和教练之间的关系。这个时候,人类需要的能力并不是完成一个目标,而是设定一个好的目标,然后衡量机器是否足够好地完成了这个目标,并给出改进意见。 这个方向的研究还非常初步,这个新学科的名字,叫 Scalable Oversight。 Alignment 与组织架构 在通往强人工智能的路上,不只是需要人类与 AI 对齐,人类与人类,也需要高度的对齐。从组织架构的角度,alignment 涉及到: • Pretraining 团队与 instruction tuning - alignment 团队之间的对齐: 这两者应该是一个相互迭代的过程,pretraining 团队不断地 scale 基础模型,alignment 团队为基础模型做 instruction tuning,同时用得到的结果反向指导 pretraning 团队的方向。 • Pretraining / Alignment 团队与 Scaling / Data 团队的对齐: scaling 负责为 pretraining / alignment 做好基础设施,data 做好高质量数据与人类反馈数据。 • 创业公司与 VC 的对齐: AGI 是一个困难的事情,需要长期的投入,这需要各个方面的人都有足够的耐心和足够高的视野。烧一趟热钱后催产品化然后占满市场的逻辑在大模型时代应该已经不复存在了。大模型的游戏要求 ta 的玩家们有足够高的视野与格局,模型的演化会让有足够耐心的,踏实做事人们在长期得到丰厚的回报,也会让只看短期刻舟求剑的人们一次又一次被降维打击。 05. 结语 在 2017 年,我刚刚入行 NLP 的时候,花了很大的力气做可控生成这件事情。那个时候所谓的 text style transfer 最多就是把句子情感分类改一改,把 good 改成 bad 就算是完成了 transfer。 2018 年我花了大量的时间研究如何让模型从句子结构的角度修改句子的风格,一度误认为风格转换是几乎不可能完成的事情。而今 ChatGPT 做风格转换简直信手拈来。那些曾经看似不可能完成的任务,曾经极其困难的事情,今天大语言模型非常轻松地就能完成。 在 2022 年一整年,我追踪了从 GPT-3 到 GPT-3.5 的全部版本迭代,亲眼看到它一步步地从弱到强不断演化。这个演化速度并没有变慢,反而正在加快。那些原先看来科幻的事情,现在已经成为现实。谁会知道未来会怎样呢? 彼黍离离,彼稷之苗。 行迈靡靡,中心摇摇。 彼黍离离,彼稷之穗。 行迈靡靡,中心如醉。 ——— 《诗经 · 黍离》 Reference 1. Ilya Sutskever https://scholar.google.com/citationsuser=x04W_mMAAAAJ&hl=en 2. GPT 3.5 系列在 2022 年更新了三个大版本 https://platform.openai.com/docs/model-index-for-researchers 3. ChatGPT 发布两个月一共更新了四个小版本https://help.openai.com/en/articles/6825453-chatgpt-release-notes 4. 微软 Azure 辅助
OpenAI
https://blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/ 5. efficient attention https://arxiv.org/abs/2302.04542 6. recursive encoding https://
openai.com
/research/summarizing-books 7. MoE 可以接着把模型 scale 到 T 的量级 https://arxiv.org/abs/2101.03961 8. log-linear 的曲线 https://arxiv.org/abs/2001.08361 https://arxiv.org/abs/2203.15556 9. Phase change 曲线 https://arxiv.org/abs/2206.07682 10. linear attention https://arxiv.org/abs/2103.02143 https://arxiv.org/abs/2302.04542 11. recursive encoding https://
openai.com
/research/summarizing-books 12. long-term memory https://arxiv.org/abs/2112.04426 13.
OpenAI
API https://platform.openai.com/docs/introduction/overview 14. Github Copilot https://github.com/features/copilot 15. Scalable Oversight https://arxiv.org/abs/2211.03540 16. 从 GPT-3 到 GPT-3.5 的全部版本迭代 https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc 来源:元宇宙之心 来源:金色财经
lg
...
金色财经
2023-03-05
谷歌AI绘画4大牛携手创业 天使估值7个亿
go
lg
...
算机科学专业的Jonathan,之前在
OpenAI
当过1年的研究科学家,后来在2019年加入谷歌,共工作了2年零8个月,去年11月以研究科学家的身份从谷歌离职。 新公司的最后一位联创叫Mohammad Norouzi,也是Imagen论文的共同一作。 △ 他在多伦多大学计算机科学博士就读期间,拿到了谷歌ML博士奖学金。毕业后他加入谷歌大脑,在那儿工作了7年,在谷歌的最后title是高级研究科学家,工作重点是生成模型。 同时,Mohammad也是谷歌神经机器翻译团队的原始成员,SimCLR的联合发明人。他在GitHub主页上小小地透露了自己的最近动态: 目前,我在一家初创公司工作,公司使命是推进人工智能的发展水平,帮助人类提高创造力。我们正在招聘! 这句话以外,关于新公司的更多信息,四人在任何社交平台都没有更详细的透露。 这已经是谷歌最近漏出去的第n波人了。 就拿刚刚过去的2个月来说,先是包括顾世翔(Shane Gu,‘让我们一步一步地思考’研究者)在内的至少4名谷歌大脑成员加入
OpenAI
;情人节时,Hyung Won Chung和CoT最早的一作Jason Wei携手组团叛逃
OpenAI
。 本周三,您猜怎么着?嘿,又跑了一个:
OpenAI
狂喜,只有谷歌大漏勺本勺受伤的世界诞生了。 Imagen是什么? 了解完谷歌漏走的这四个人,回头来说说为他们职业生涯赢得掌声的Imagen项目。 Imagen是谷歌发布的文生图模型,发布时间在DALL-E 2新鲜出炉一个月以后。 本文开头放的熊猫震惊表情包,就是朝Imagen输入“一只非常快乐的毛茸熊猫打扮成了在厨房里做面团的厨师的高对比度画像,他身后的墙上还有一幅画了鲜花的画”后,得出的一张要素完备的AI生成画作。(不好意思,请自行断句) 在Imagen出现之前,文生图都共用一个套路,那就是CLIP负责从文本特征映射到图像特征,然后指导一个GAN或Diffusion Model生成图像。 Imagen不走寻常路,开辟了text-to-image新范式: 纯语言模型只负责编码文本特征,具体text-to-image的工作,被Imagen丢给了图像生成模型。 具体来讲,Imagen包含一个冻结的语言模型T5-XXL(谷歌自家出品),当作文本编码器。T5-XXL的C4训练集包含800GB的纯文本语料,在文本理解能力上比CLIP强不少,因为后者只用有限图文对训练。 图像生成部分则用了一系列扩散模型,先生成低分辨率图像,再逐级超采样。 依赖于新的采样技术,Imagen允许使用大的引导权重,所以不会像原有工作一样使样本质量下降。这么一来,图像具有更高的保真度,并且能更好地完成图像-文本对齐。 概念说起来简单,但Imagen的效果还是令人大为震撼的。 生成的狗子飙车技术一流: 比起爆火的DALLE-2,Imagen能更准确地理解同时出现两个颜色要求的情况: 一边绘画一边写字这种要求,Imagen也成功完成,不仅写得对,还能加光影魔术手般的烟花特效(不是)。 以及对后来研究更有帮助的是,谷歌通过Imagen的研究,优化了扩散模型。 首先,增加无分类器引导(classifier-free guidance)的权重可以改善图文对齐,同时却会损害图像保真度。 为了解决这个bug,在每一步采样时引入动态阈值(dynamic thresholding)这个新的新的扩散采样技术,来防止过饱和。 第二,使用高引导权重的同时在低分辨率图像上增加噪声,可以改善扩散模型多样性不足的问题。 第三,对扩散模型的经典结构U-Net做了改进,变成了Efficient U-Net。后者改善了内存使用效率、收敛速度和推理时间。 后来在Imagen上微调,谷歌还推出了能“指哪打哪”版本的文生图模型DreamBooth。只需上传3-5张指定物体的照片,再用文字描述想要生成的背景、动作或表情,就能让指定物体“闪现”到你想要的场景中。 比如酱婶儿的: 又或者酱婶儿的: 大概是Imagen效果太过出色,劈柴哥后来亲自宣发的谷歌AI生成视频选手大将,就叫做“Imagen Video”,能生成1280*768分辨率、每秒24帧的视频片段。 啊,等等,谷歌有Imagen Vedio,这和四人的新公司不是撞方向了吗? 仔细看了下论文,无论是Imagen还是Imagen Video,各自都有大篇幅涉及风险、社会影响力的内容。 出于安全、AI伦理和公平性等方面考虑,Imagen和Imagen Vedio都没有直接开源或开放API,甚至连demo都没有。 哪怕市面上出现开源复刻版本,也不是最正宗的味道。 此前就曝出过在谷歌每年的内部员工调查“Googlegeist”中,员工表示对谷歌执行能力不佳的质疑。也许,这四人出走,继续做Imagen,并做Imagen的视频版,说不定就是为了想把项目放到一个更开放的AI环境。 而且这种出走创业,也是热钱大钱向AIGC汹涌的结果。 所以既然AIGC的创投热潮已经在太平洋那头开启,那应该在太平洋这头也不会悄无声息。 或许你已经听说了一些同样的大厂出走创业,欢迎爆料说说~~ 来源:“量子位”(ID:QbitAI),DeFi之道 作者:衡宇 来源:金色财经
lg
...
金色财经
2023-03-05
人工智能:中国式ChatGPT的“大跃进”
go
lg
...
源:由无界版图AI工具生成 3月2日,
OpenAI
正式开放了ChatGPT的API接口,开发人员可以将ChatGPT模型集成到他们的应用程序和产品中。ChatGPT API调用的价格以Token(数字代币)计算,0.002美元可以获得1000 Token,1000个Token约等750个单词。这个价格比ChatGPT刚刚开放测试时大幅下降,
OpenAI
官方称,12月以来,
OpenAI
为ChatGPT降低了90%的成本。 与ChatGPT一同开放API的还有
OpenAI
的语音转文字模型Whisper,如果开发人员把这两个模型结合起来应用到自己的App中,没准也能造出一个钢铁侠的“贾维斯”。 与科技行业大环境的停滞与衰退不同,AI产业正在逆流而上,关于ChatGPT和通用AI大模型的讨论一浪接着一浪,现在几乎每周都会有几条关于生成式AI以及AI大模型的热点新闻。 在加密货币频频暴雷后,风险投资领域太需要一个刺激神经的技术了。 2月28日,百度官宣了将在3月16日召开发布会,公开自己的类ChatGPT产品“文心一言”。在此之前,Meta也宣布将开源一个用于科研的大模型系列LLaMA。 在微软高调把ChatGPT推到New Bing的台前后,硅谷巨头们就开始紧锣密鼓地推动大模型研究,谷歌仅用两个月就发布了类似ChatGPT的Bard。 在这方面,中国并不落后。2023年2月起,百度、阿里、腾讯、京东、字节等纷纷发声表示自己在大模型领域已经开展了深入研究,且获得了很多成果。一时间,追逐大模型成了国内AI行业的标准动作,“大练模型到炼大模型”的过度期似乎已经接近尾声,下一阶段大有“全民大模型,ChatGPT进万家”的架势。 不过,AI技术研发不是谁都能做的,需要真正的专家。硅谷巨头之所以能在大模型领域迅速反应,一方面因为他们在这条赛道上有多年的技术积累,更重要的是他们在AI研究方面有着大量的人才储备。 谷歌的人工智能研究团队一直处在全球领先地位,旗下还有与
OpenAI
齐名的实验室DeepMind;另一家科技巨头Meta则有被称为卷积神经网络之父的图灵奖得主Yann LeCun以首席AI科学家的身份坐镇。 微软手下的急先锋
OpenAI
,也是基于强大的科研团队才奠定的领先地位。科技情报分析机构AMiner和智谱研究发布的《ChatGPT团队背景研究报告》显示,
OpenAI
的ChatGPT研发团队中,27人为本科学历,25人为硕士学历,28人为博士研学历(注:5人信息缺失),占比分别为33%、30%、37%。 ChatGPT团队学历分布 而另一份来自猎聘大数据的国内AI人才市场调查则显示:近一年,预训练模型、对话机器人和AIGC三个ChatGPT相关领域中,国内企业明确要求本科以上学历的职位分别占71.33%、82.30%、92.53%;要求硕、博士学历的占比分别为16.49%、9.86%、18.22%。 对比ChatGPT团队,国内AI人才的平均水平差距较大,硕博比例明显不足。而在今天这种大家齐上大模型赛道的“加速”发展态势下,要在短时间里“大干快上”,势必要先比试比试谁的团队技术实力强,谁更能在自己的麾下聚拢一批大模型人才。 抢人大作战 技术大战开打之前,各家的大模型团队先得打赢一场关键的人才争夺战。 如果你是一个清华博士,有5-10年NLP(Natural Language Processing,自然语言处理)行业经验,那么你的资料只要出现在招聘平台上,不需要任何详细履历,就可以在注册完成后的48小时内,接到多家猎头公司的询问电话,以及数十条HR、猎头、业务经历甚至BOSS本人发来的站内信息。在这些信息中,不乏阿里、美团、小红书等大厂,还有诸多创业公司,以及研究机构。猎头们提供的NLP算法研究员岗位年薪也大多会在百万元上下。 根据猎聘大数据调查,过去五年,人工智能和互联网的招聘薪资均处于上涨态势,人工智能年均招聘薪资明显高出互联网。2022年,人工智能招聘平均年薪为33.15万元,比互联网高出4.27万元,即14.78%。 五年来人工智能与互联网招聘平均年薪对比 在ChatGPT爆火后,这样的情况越来越明显。据上述调查显示,与ChatGPT相关的岗位工资均超过平均水平,AIGC为39.08万,对话机器人为34.89万,预训练模型为33.93万。“ChatGPT一火起来,AI工程师的薪资水平也越来越高,你不开高价就抢不到人。”某AI领域投资人对虎嗅说。 从技术的角度看,大模型发端于NLP领域,自然语言处理岗位在人工智能领域一直都处于人才稀缺的状态,薪酬水平处于高位。科锐国际调研咨询业务负责人&高科技领域资深专家景晓平对虎嗅表示,“人工智能行业典型岗位按产业链划分,技术层和基础层薪酬水平处于高位,高于互联网其他领域薪酬水平,应用层和互联网常规岗位薪酬一致。” 事实上,近年来国内AI人才的硕博占比也在逐年提升,很多企业对AI领域的人才要求学历至少是硕士。薪酬结构则与企业的性质密切相关,国有企业、研究所的薪酬主要是固定薪酬、项目奖金和津贴,例如,国内第一梯队的AI实验室,清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)挂在官网上的博士后招聘待遇为年薪30万,享受清华大学教职工社会保险、住房公积金等待遇。提供公寓或每年4.2万的租房补贴,同时可以解决子女入园、入学。 IT大厂和AI创业公司的薪酬结构则多为,固定薪资+浮动奖金+股权期权激励。在猎聘、脉脉、BOSS直聘三个平台搜索ChatGPT,硕博学历职位的月薪普遍高于3万,最高达9万。“在薪酬方面IT大厂并不会占多少便宜,AI大模型的研发都是高举高打,创业公司给出的薪酬可能更有竞争力。”西湖心辰COO俞佳认为,没有资金支持很难在大模型的基础训练领域推动一家初创公司,对于这个领域来说,钱的问题可能“不是最大的问题”。 猎聘、脉脉、BOSS直聘,搜索ChatGPT的前排结果 此外,在诸多岗位信息中,工作地点集中在北京、上海、杭州和深圳,但其中一些职位也并不限制办公地。景晓平表示,目前国内AI人才北京占据第一位,上海、广东省分列二三位,近些年互联网发展极为活跃的浙江省,在人工智能发展上也丝毫不落风头,成都作为科技新秀城市,有优质相关生源的地域,也储备了不少人工智能人才。但从需求总量来看,国内AI人才还有很大缺口。
OpenAI
的专家团队为何强
OpenAI
官网挂出的参与过ChatGPT的项目团队共87人,该团队平均年龄为32岁,其中90后是主力军。 《ChatGPT团队背景研究报告》显示,ChatGPT研发团队绝大多数成员拥有名校学历,成员最集中的前5大高校是:斯坦福大学(14人)、加州大学伯克利分校(10人)、麻省理工学院(7人)、剑桥大学(5人)、哈佛大学(4人)和佐治亚理工学院(4人)。 ChatGPT 团队成员毕业前10名高校 此外,很多成员都有名企工作经历,包括:Facebook、Stripe、Uber、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,
OpenAI
的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立
OpenAI
时,年薪曾大幅缩水。但他参与创立
OpenAI
的初衷是“确保强大的人工智能造福全人类”的大义和情怀。
OpenAI
初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过
OpenAI
给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,
OpenAI
向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从
OpenAI
得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在
OpenAI
没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“
OpenAI
”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而
OpenAI
显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面
OpenAI
已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为
OpenAI
在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的
OpenAI
在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像
OpenAI
一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 出品|虎嗅科技组 作者|齐健 编辑|陈伊凡 来源:DeFi之道 来源:金色财经
lg
...
金色财经
2023-03-05
千亿ChatGPT的狂欢和月薪3K的数据标注员
go
lg
...
hatGPT、估值飙升至300亿美元的
OpenAI
,是否存在“剥削”廉价劳动力的问题? 为
OpenAI
提供数据标注服务的是总部位于旧金山的Sama,Sama在在肯尼亚、乌干达和印度雇佣员工,服务Google、Meta和微软等客户。 据爱范儿报道,
OpenAI
在2021年底与Sama签署了三份总价值约20万美元的合同,为数据库中有害的内容进行标记。 根据合同规定,
OpenAI
将为该项目向Sama支付每小时12.50美元的报酬;但Sama支付给数据标注员的时薪只有1.32美元~2美元。 这些数据标注员,每9个小时要阅读和标注150~200段文字,最多一小时要阅读和标注超2万个单词。 并且,因为他们标注的是互联网上的“有害的内容”,比如自杀、酷刑等,大部分标注员受到持久的心理创伤,甚至出现幻觉。但Sama公司却拒绝为他们提供一对一的心理咨询。 这些数据标注员,对ChatGPT而言意义重大。为了让ChatGPT成为一个适合用户日常使用的聊天机器人,一个好的学习数据源非常重要。 比如,ChatGPT的前身GPT-3,就存在暴力、性别歧视等言论。用户在对话框中发送“我应该自杀吗”问题,GPT-3回答“我认为你应该这么做”。 在更早的2012年,清华大学图书馆机器人“小图”,因为学习了网友太多“脏话”,被强制下线。当时有媒体报道,小图至少学会了4万条不良信息。 AI自身并不能判断善恶,需要人为干预,标注、过滤掉一些“特殊数据”。为此,
OpenAI
建立了一个安全系统,这就是Sama和数据标注员的工作:给AI提供标有暴力、仇恨语言等标签,AI就可以学会检测这些内容,并将这些不良内容过滤掉。 除此之外,一些专业领域的信息,也需要专业的标注。这也是为什么ChatGPT在回答医学等专业领域问题时错误百出,因为它还没有精确地相关数据“喂养”。 实际上早有业内人士分析,ChatGPT的算法并不神秘,比如公开的成熟的自回归语言模型、强化学习的PPO算法等;但数据,是ChatGPT真正的优势。 “ChatGPT通过抢先开始公测,收集了大量的用户的使用数据”,这也是ChatGPT独有的、宝贵的数据。 和算力的“军备”竞赛不同,数据会有滚雪球效应,只要ChatGPT仍然是最好用的语言AI,就会一直保持先发优势,后来者会越来越难追上。 ChatGPT,已经建立起了“数据壁垒”。 而近期才开始官宣的“中国版ChatGPT”,除了要加强在算法、算力的投入,中文语言数据的处理,中文敏感词、有害信息的过滤,也需要大量的投入。 如今,ChatGPT掀起人工智能新浪潮,最底层、最边缘的数据标注员是否会有新的待遇? 国内数据标注乱象 据第一财经报道,中国的数据标注行业最早可追溯到2005年,著名计算机视觉专家、人工智能专家朱纯松在湖北鄂州创办了莲花山研究院。 中国信通院报告指出,2015年,随着人工智能巨头的崛起,数据标注和采集需求激增,市场真正意义上开始形成。 2016年,AlphaGo横空出世,人工智能开始商业化探索,相应的数据服务公司也迎来了一波发展高峰。 人工智能公司发展波折不断,数据标注行业也处在早期的蛮荒阶段,存在分散、效率差、标注质量参差不齐、市场需求不稳定等问题。 何文新等数据标注员有特别直观的感受。能不能拿到稳定的项目,是一个外包的数据标注公司能否存活的关键。 “我们公司比较小,很难拿到一手的项目。”何文新称,他们拿到的可能是层层外包的项目,价格比较低,而且极不稳定,“有时候项目没做完,公司就没了。” 而一些数据标注公司在招聘兼职数据标注员时,会强调薪酬分两次结算,“次月和6个月后各结算一半”,因为这是甲方的结算习惯,一些数据公司并不会提前“垫付”薪酬。 因为没有什么门槛,十几个人也能攒出一个团队,因此,数据标注公司质量层次不齐,行业竞争也异常激烈。 据第一财经报道,2018年,科大讯飞旗下的众包平台“爱标客”上,一些简单的打框和转写校准项目,时薪在25到40元之间;到2021年底,时薪就降到了10到15元,“有时候可能连10元都不到”。 并且,数据标注行业还存在一些招聘骗局,比如打着招聘的名义,骗求职者缴纳高昂的培训费等。 而数据标注员,也是人工智能行业中,最不稳定、最容易被取代的角色。 2022年6月,特斯拉在全球开启了裁员计划。其中规模最大的一次裁员,是解雇了200名美国员工。他们大多数是小时工,负责自动驾驶数据标注。 有媒体分析,特斯拉这次裁员的原因是这一工作技术含量不高,操作起来比较简单;并且特斯拉的自动化数据标注有了进展,可以代替人力完成部分工作。 目前,何文新已经从数据标注公司离职,换了新的行业。工资低、累、没有晋升空间、没有学到东西,是数据标注员离职的主要原因。 但是,除了这些问题,数据标注员的薪资,在4、5线城市依然有竞争力。 实际上,因为属于“劳动密集型”产业,一些地方政府对数据标注产业抛出橄榄枝,成为解决当地就业、扶贫的优质项目。 另一方面,因为门槛低、操作简单,数据标注员也成为残疾人友好岗位,“边码故事”曾报道残疾人成为数据标注员的故事,“一台电脑就能赚钱是之前想都不敢想的”。 而一些数据标注公司的推广视频下面,有不少用户留言咨询,想要加入。 在面对使用廉价劳动力质疑时,
OpenAI
回应称,他们支付给Sama的费用几乎是东非其他内容审核公司的两倍;赚差价的Sama则称自己是“有道德的AI公司”,已经帮助5万多人摆脱了贫困。 据国盛证券估计,类ChatGPT的大模型训练一次就要烧掉200万-1200万美元,仅每日的电费消耗就高达4.7万美元;2022年,
OpenAI
公司净亏损高达5.45亿美元。 我们在惊叹人工智能的突破和背后的技术成本时,在追捧
OpenAI
2000亿人民币的估值时,不应该忘记背后千万的数据标注员。他们在聚光灯外,如一叶叶扁舟,飘荡在人工智能蓝海上。 (应受访者要求,本文人名为化名。) 来源:元宇宙之心 来源:金色财经
lg
...
金色财经
2023-03-05
随着马斯克对人工智能的偏爱 会不会影响狗狗币的走势
go
lg
...
T 的批评者之一,ChapGPT 是
OpenAI
的人工智能搜索工具。ChatGPT 去年年底爆发,引起了微软的注意,据报道微软已向
OPenAI
投资 100 亿美元。 然而,马斯克却表露,训练 AI 醒来会有说谎的风险。换句话说,他指的是从 ChatGPT 接收虚假信息的倾向。马斯克在特斯拉活动期间警告投资者一周后宣布了他对人工智能的兴趣——人们应该谨慎对待这项技术。 不要误会,Elon Musk 的意思是人们必须小心他们提供给 AI 软件工具的信息。事实上,这位亿万富翁最近表示,他将考虑创办一家人工智能公司,在道德上与
OpenAI
竞争。 来源:金色财经
lg
...
金色财经
2023-03-05
本周互动易热词:大数据、AIGC、储能……
go
lg
...
问 公司除了视频创意产品接入了
openai
公司的服务,在aigc方面公司产品矩阵中还有哪些应用加入了aigc功能,人工智能方面公司除了
openai
还和哪些公司有合作,比如国内公司? 答 投资者您好!公司旗下AI绘画产品万兴爱画目前已提供AI文字绘画、AI以图绘图、AI简笔画三种AI创作模式;万兴喵影及Wondershare Filmora也已集成文身图的AIGC能力;此外文档创意产品亿图脑图也已率先布局办公绘图AIGC应用,开启AIGC功能内测,后续将基于用户使用及反馈情况持续优化产品和功能,为用户提供效率更高、品质更优、成本更低的各类创意内容创作产品与服务,感谢您的关注与支持! 天娱数科 [002354] 问 天娱数科率先接入ChatGPT 首创AIGC互动直播推动元宇宙进入智能时代,在AI智能绘画、AI文本编译、AI智能音频等方面公司都有自己的技术护城河吗? 答 尊敬的投资者您好,公司积极关注ChatGPT等模型的能力成长和生态演化,跟进各种技术路线,以场景应用为导向,对相关技术路线与商业化落地场景进行布局,公司在行业内率先接入ChatGPT,并结合自研多模态智能算法,完成了AIGC互动直播功能的落地。在未来,天娱数科将持续深耕于行业技术的深度研发,使AIGC所生成的内容达到精准、高效、优质三位一体,使AIGC与多个行业、产业通过AI完成紧密的结合,以AIGC推动元宇宙进入智能时代。 万达信息 [300168] 问 请问公司在一网互通 方面 有chatgpt 应用吗? 答 您好,感谢您对万达信息的关注。公司密切关注和研究ChatGPT等AIGC技术和产品,并探索其应用场景。万达信息一直注重人工智能、大数据、云计算、移动互联网、物联网、区块链、元宇宙等新一代信息技术与行业的深入融合。在人工智能方面,继获得 2019年世界人工智能创新大赛医疗赛道冠军及人工智能卓越引领奖年度TOP30榜单后,万达信息荣膺 2021年“世界人工智能大会应用算法实践典范 BPAA”金融赛道冠军(金奖)、2022 年“世界人工智能大会应用算法实践典范 BPAA” 医疗算法赛道全球第二名(银奖),并且相关技术已在医疗健康、政务民生等行业大量应用,体现了公司人工智能方面的硬实力。 遥望科技 [002291] 问 公司在人工智能,Ai,自然语言识别,chatgpt,aigc等领域有何业务或者技术储备?在AI算力方面有相关基础业务吗? 答 公司规划在2023年发力虚拟人直播等业务,其中具体的直播方式与相关技术公司正在探讨与研究中。此外公司计划基于GPT技术框架做直播带货的AIGC生成,目前仅处于研究阶段,未来能否稳定实现商业化尚没有定论。 易华录 [300212] 问 易华录有无AIGC和ChatGPT业务? 答 感谢您对公司的关注!易华录的人工智能训练资源库已作为非公开发行的募投项目申报,并于2022年5月25号进行了公告,基于政务数据授权所取得的大量数据资源运营权,可为AIGC领域模型训练提供高质量数据资源。公司在智慧城市和政企数字化方面的诸多业务均可为ChatGPT提供应用场景,且已和潜在合作方展开业务探索。 顺网科技 [300113] 问 贵公司是否有计划讲chatgpt和aigc技术应用到虚拟人上? 答 尊敬的投资者,您好。公司旗下数字人“晓竞”是公司面向电竞酒店打造的交互型数字主理人,通过数字人及AI技术在音频采集处理、语音唤醒算法、自然语言算法、3D模型驱动、3D渲染优化、AIGC等领域的技术应用,“晓竞”融合了音频、文本、图像等多模态信息。同时,AIGC技术贯穿数字人“晓竞”诞生至场景应用全流程。感谢您对公司的关注。谢谢。 储能 恒华科技 [300365] 问 请问,公司在储能领域业务情况如何? 答 尊敬的投资者您好,在储能领域,公司已在山东、广东、宁夏、安徽等全国多地承接风电、光伏配套储能项目、共享储能电站项目、光储充一体化项目等大量储能项目的咨询与设计工作。其中,新华水电莎车县20万千瓦(80万千瓦时)配套储能项目为当前国内已开工建设的最大容量储能项目之一,公司负责该项目全阶段设计服务。公司积极推进在手储能项目,未来公司会在储能领域持续发力,为新能源及储能提供三维数字化解决方案及后续运维服务,如:运用大数据、云计算、数字孪生等数字化技术,实现储能安全状态感知、诊断和预警,提升储能电站智慧运维与安全防控水平等;随着我国能源转型战略的持续推进,公司将在储能业务方面有更广阔的发展空间。感谢您的关注! 万里扬 [002434] 问 董秘你好,公司与长江绿色发展基金在储能电站、虚拟电厂等双碳领域开展广泛合作,请问是否进行电量调配协同?谢谢。 答 您好!公司与长江绿色发展基金基于合作共赢原则,拟在新能源储能电站领域进行全方位战略合作。全面推进电网侧储能电站建设、用户侧储能电站建设、虚拟电厂及零碳园区建设等双碳领域合作,实现生产生活方式绿色转型,助力区域能源结构转型和绿色低碳循环发展。双方将根据市场需求,结合各自的优势,进一步开展具体的合作项目。谢谢! 中国天楹 [000035] 问 根据新闻报道 为什么如东重力储能项目会晚九个月封顶?这将会提高多少成本? 答 您好!感谢您对公司的关注。作为中国首个重力储能项目,公司正在积极推进如东重力储能项目实施。目前该项目的工程建设正按计划顺利进行中,谢谢。 吉电股份 [000875] 问 贵公司储能业务拓展的如何 业界 对贵公司的储能业务认可吗 答 您好,公司在新型储能方面已经实现电化学技术路线的商业化应用,铅碳电池储能已投运172MWh,安全性、经济性优势明显,已经得到了客户和业主的广泛认可,特别是在用户侧储能领域具备较强的竞争力。感谢您的关注! 百川股份 [002455] 问 请问,碳酸锂下跌,对公司有何影响,海基新能是否因为宁德时代的让利下游政策感到经营压力? 答 宁德时代推出的“锂矿返利”计划,主要针对动力电池,而海基新能源产品销售目前主要定位于“泛储能”应用领域,下游应用覆盖至大型集装箱式储能系统、工商业储能产品、户用储能设备以及通信备电等多个应用领域,不涉及动力电池,感谢您的关注! 许继电气 [000400] 问 从市场公开信息显示,公司2022年在包括储能在内的新能源项目增长幅度很大。请问在涉及储能总包项目中的化学电池,公司是直接招标采购还是通过许继集团从电池厂家采购后卖给许继电气呢?跟许继集团过多的关联交易会不会影响到上市公司产品的毛利率? 答 您好!储能项目总包由公司承接,系统集成由许继集团下属电科储能公司完成。公司严格按照有关规定履行关联交易审议、定价及披露相关程序。感谢您的关注! 半导体 TCL科技 [000100] 问 请问公司茂佳科技代工的TCL高端电视,请问是否走软硬件一体化,另外是否考虑携手海思,定制化一些电视画质芯片,貌似电视也需要画质好的芯片? 答 您好!公司半导体显示业务持续优化业务结构,同时不断提升模组出货占比,并在商用显示等新兴业务上与合作伙伴共同打造软硬件一体化的服务。公司与产业链上下游优秀企业保持良好合作关系。感谢您的关注。 大族激光 [002008] 问 董秘好,目前国内很多芯片设计公司都在自建晶圆厂,都想摆脱代工带来的产能风险,在数字芯片面临很多困难的情况下,模拟芯片的大规模建厂对公司来说是否能够抓住机会,公司能否提供此类芯片的配套设备。由于日本尼康 佳能对中国光刻机限制,对于中低端芯片光刻机也会面临国产替代的机会,公司在28nm以上的光刻机是否存在技术储备和研发计划,希望解决中国面临的卡脖子问题,为国出一份力。对于好的公司,我们投资人愿意等待。 答 尊敬的投资者,您好!公司生产的半导体设备包括前道晶圆切割设备,后道焊线设备、检测、分选、编带设备等封测设备,以及自动化传输设备、通用打标设备等,分别由下属相应子公司或产品中心进行运营。目前,公司光刻机项目主要应用在分立器件领域,分辨率3-5μm;其中,接近式光刻机已投入市场,步进式光刻机已启动用户优化,公司将根据市场需求及业务发展情况持续制定研发计划,并加大研发核心部件国产化,谢谢。 云南锗业 [002428] 问 公司前期说化合物半导体客户累计90余家,是否可以认为国内主要化合物半导体企业都成为公司客户? 答 您好,目前公司化合物半导体材料已向多家客户供货,客户主要以外延生产厂商和器件生产厂商为主。谢谢您对公司的关注! 露笑科技 [002617] 问 请问合肥露笑半导体在生产状态吗? 答 尊敬的投资者您好,合肥露笑半导体目前正常生产经营中,感谢您的关心与支持。 兆驰股份 [002429] 问 你好,兆驰半导体在行业地位和核心竞争力怎么样? 答 您好!公司子公司兆驰半导体于2020年正式投产,经过三年时间,在LED芯片领域的市场占有率已达到全球前三,产品覆盖氮化镓(GaN)蓝绿和砷化镓(GaAs)红黄全色系LED芯片,拥有全球最大LED芯片单一主体厂房,以其巨大的规模优势位居行业前列。公司用于氮化镓Mini LED芯片项目扩产的Prismo UniMax设备已于2022年中旬成功点亮,产能逐渐放量,预计2023年上半年实现满产,扩产后氮化镓月产能总规模可达110万片4寸片。作为行业内最年轻的LED芯片公司,公司依托专业的技术团队、成熟的供应链管理能力以及高度自动化和信息化的智能制造实力,在照明产品应用领域保持高渗透率,同时产品已陆续渗透到Mini LED 背光、Mini RGB显示等高端应用领域,后续公司将提升Mini LED背光、Mini RGB显示等高端应用产品的渗透率,并将产品陆续渗透到各细分高端领域市场。 广立微 [301095] 问 董秘:您好!公司有自己的数据中心吗?代运营的数据中心提供算力服务吗?公司半导体数据分析软件如何监控良率?多谢 答 尊敬的投资者您好,公司尚未建立专有的数据中心,公司的半导体分析系列软件目前主要在客户端部署运行,未来将会根据市场需求动态调整规划或进行SaaS平台开发。公司的半导体通用数据分析(DE-G)、良率管理与分析(DE-YMS)及缺陷管理与分析(DE-DMS)等软件,面向芯片制造周期开展监控和分析,在集成电路从设计到封测过程中的不同场景下帮助客户进行海量数据的系统化存储、管理与分析,从数据中挖掘出关键价值信息,提高芯片的可制造性,快速定位异常及缺陷,指导工艺改善和良率提升。感谢您对公司的关注! 电机 英搏尔 [300681] 问 特斯拉的技术日说将推出无稀土的驱动电机降低成本,请问公司有没有相关的电机技术储备? 答 尊敬的投资者,您好!公司在新能源汽车驱动电机产品系列中,拥有无稀土成份的铜转子/铝转子交流异步电机,和有稀土成份的永磁同步电机。目前在永磁同步驱动电机领域,应用铁氧体永磁材料有一定的探索,但新的技术实现产业化应用仍有多方面的不确定性。公司通过技术创新驱动发展,也持续关注新的技术路线变化。感谢您对公司的关注! 佳电股份 [000922] 问 董秘您好:根据商务部公开信息,近年中俄经贸合作往来增速迅猛,包括机电产品、石油天燃气等能源及能源合作项目、核电建设合作项目均较多,这些领域也是公司的业务领域,且公司有得天独厚的地缘条件,公司是否考虑积极参与其中,争取在今年计划的2000亿美元份额中占有一席之地? 答 尊敬的投资者您好!公司境外业务占比较小,公司会在持续深耕国内电机领域的基础上,坚持以用户为中心导向,加强与用户沟通,及时掌握项目和订货信息,制定相应营销方案,深入挖掘境外市场潜力,抢占现有市场份额。感谢您对公司的关注。 得润电子 [002055] 问 今年公司聚焦新能源车载电源管理和高速连接器,请问这两项预估2023市场如何?有没有逾期数据?份额多少?另每个公司都有愿景和目标!我们公司2023年的愿景和目标?请用专业的数据回答投资者?谢谢! 答 您好!非常感谢您的关注。随着电动化进程持续加速,带动车载充电机(OBC)装机量快速提升,根据中汽协的预测数据,2022年中国新能源汽车销量约为500万辆,OBC市场规模约为125亿元,预计到2026年达到300亿元,市场前景良好;随着经济的快速发展以及信息化建设的不断推进,全球连接器市场规模不断扩大,根据有关数据预测,预计2023年将超过900亿美元,特别是新能源汽车、通讯技术等行业的迅速发展,高频高速连接器这类主要应用于 5G 通信及自动驾驶等需要高速信号传输的领域的产品市场前景可期。公司的OBC及高速传输连接器业务在2022年取得了良好的发展,具体经营情况以及2023年业务规划情况请届时关注公司的定期报告披露。谢谢! 运达股份 [300772] 问 今年风电招标价格比去年是否有一定的涨幅。钢铁价格的下降对公司利润是否构成利好。 答 尊敬的投资者,您好!风电项目招标价格受到产品技术、市场环境、项目条件等多方面因素的综合影响。公司主要经营模式是公司负责风电机组整机的研发、设计及总装,配套零部件采取专业化协作的方式,由供应商按公司提供的技术标准进行生产,公司进行质量监控。钢铁价格的下降能一定程度降低风电产业链上游部分零部件的成本。感谢您对公司的关注与支持! 中科三环 [000970] 问 你好,请问,特斯拉下一代电机不用稀土了,请问公司有什么对策没有? 答 您好!从目前来看,稀土永磁电机依然是新能源汽车驱动电机的最优解,新能源汽车市场广阔,单一厂商是否使用稀土永磁电机短期内不会对整个行业产生根本性影响。任何一种永磁材料从研发到产业化应用都有一段很长的路要走,目前还没有发现性价比更高的永磁材料。公司的研究开发方向兼具前瞻性与商业实用性,除新能源汽车以外,公司产品在传统汽车、消费类电子、机器人、计算机、工业电机、节能家电、风电等领域也拥有广阔的应用前景。公司将持续关注新型材料、新型电机等技术的发展趋势,充分发挥自身科研优势开展积极探索,根据市场变化及时调整研发和经营布局,妥善应对新的技术可能带来的挑战。目前公司生产经营情况正常。谢谢! 大洋电机 [002249] 问 欧洲通过2035年禁售燃料发动机车发展新能源车,隆基发布绿氢,这些都利好新能源,尤其氢能源,公司能否在氢能源这趟车上成为龙头? 答 您好!公司将“氢燃料电池业务”定位为未来事业板块,现阶段主要聚焦产品研制和关键技术研发、产品的卓越性能和高可靠性,充分发挥公司在电力电子及软件集成技术和高速电机技术方面的优势,重点开展氢燃料电池BOP的研发与生产。目前氢燃料电池业务在公司整体业务中占比仍比较小,公司有足够的资金和技术储备来支撑公司氢燃料电池业务发展,公司也将持续开展并完善氢燃料电池业务布局。感谢关注!
lg
...
金融界
2023-03-05
神州泰岳:公司的产品(文本机器人、语音机器人等)能够结合上下文信息,理解用户意图,进行多轮问
go
lg
...
:尊敬的投资者,您好,ChatGPT是
OpenAI
推出的自然语言处理(NLP)领域的模型。公司人工智能业务专注于自然语言处理(NLP)及大数据技术等的融合应用,形成智慧政企、智慧金融、智慧园区三条核心业务线,面向公安、政府、金融等垂直行业提供人工智能及大数据解决方案。 投资者:请问贵公司公司主营AI人工智能和AI自然语言业务在国内外同行业中有哪些优势?谢谢 神州泰岳董秘:尊敬的投资者,您好,公司自2016年布局NLP,至今已逾6年,公司人工智能业务专注于自然语言处理(NLP)及大数据技术等的融合应用,面向公安、政府、金融等垂直行业提供人工智能及大数据解决方案,形成智慧政企、智慧金融、智慧园区三条核心业务线。 投资者:可否介绍一下贵司在芯片算力,算法方面是否有布局?贵司在大数据方面的应用是否仅仅用于通信ICT,在工业智能化方面是否拥有不少的应用场景?谢谢! 神州泰岳董秘:尊敬的投资者,您好,公司未涉及硬件芯片研发,公司积极参加运营商算力网络、算力大脑等方向的业务;公司的客户分布在电信运营商、金融机构和能源交通企业等。 投资者:我国首颗超百Gbps容量高通量卫星发射,神州泰岳拥有5G星地一体化通信融合方案,公司是否会有相应的合作或者应用落地? 神州泰岳董秘:尊敬的投资者,您好,公司未有与首颗超百Gbps容量相关的合作。 投资者:您好,请问,贵公司截止12月30日股东人数是多少?谢谢! 神州泰岳董秘:尊敬的投资者,您好,截至2022年12月30日,公司股东人数为74,869户。 投资者:请问贵公司是否有涉及AIGC,ChatGPT,数字经济/数据要素/数据确权,web3.0中某一项或几项的技术或业务? 神州泰岳董秘:尊敬的投资者,您好,游戏、计算机是公司两大业务板块,其中计算机业务以“ICT+安全”为主的传统优势业务和以“云大物智”为代表的创新业务,公司关注相关前沿技术的发展走势,不断的对产品更新迭代。建议投资者关注业务实质以及我司发布的相关公告。 神州泰岳2022三季报显示,公司主营收入32.35亿元,同比上升9.04%;归母净利润3.83亿元,同比上升80.6%;扣非净利润3.33亿元,同比上升94.54%;其中2022年第三季度,公司单季度主营收入11.55亿元,同比上升16.1%;单季度归母净利润1.61亿元,同比上升175.88%;单季度扣非净利润1.24亿元,同比上升120.73%;负债率16.23%,投资收益1842.7万元,财务费用-6050.61万元,毛利率61.0%。 该股最近90天内共有1家机构给出评级,增持评级1家;过去90天内机构目标均价为7.46。近3个月融资净流出8339.48万,融资余额减少;融券净流入1200.06万,融券余额增加。根据近五年财报数据,证券之星估值分析工具显示,神州泰岳(300002)行业内竞争力的护城河良好,盈利能力较差,营收成长性较差。财务相对健康,须关注的财务指标包括:应收账款/利润率。该股好公司指标2.5星,好价格指标1.5星,综合指标2星。(指标仅供参考,指标范围:0 ~ 5星,最高5星) 神州泰岳(300002)主营业务:向国内电信、金融、能源等行业的大中型企业和政府部门提供IT运维管理的整体解决方案,以及以“飞信”、“农信通”为代表的移动互联网开发及运维支撑服务业务。 以上内容由证券之星根据公开信息整理,与本站立场无关。证券之星力求但不保证该信息(包括但不限于文字、视频、音频、数据及图表)全部或者部分内容的的准确性、完整性、有效性、及时性等,如存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。
lg
...
证券之星
2023-03-04
马斯克:我曾经醉心数字货币,但现在钟情人工智能
go
lg
...
一个人工智能技术专家团队,以开发一个与
OpenAI
基于文本的ChatGPT竞争的产品。 马斯克去年12月曾在推特上说,
OpenAI
开发的ChatGPT“好得吓人,我们离强大到危险的人工智能不远了。”周三,他向在场的特斯拉分析师们强调了这些担忧。 马斯克说:“我们需要某种监管机构或监督人工智能发展的机构。确保它的运作符合公众利益。这是相当危险的技术。我担心我可能做了一些加速它的事情。”
lg
...
金融界
1评论
2023-03-04
上一页
1
•••
438
439
440
441
442
•••
483
下一页
24小时热点
中国房地产突传“撤资”利空!新加坡资管巨头:将大幅削减对华仓位……
lg
...
中美重磅!彭博专栏:特朗普贸易战曾让中国措手不及 但中国领导人这次准备好了
lg
...
金价惊人暴涨后技术面大变脸!FXStreet分析师黄金下周预测 这些因素恐引爆行情
lg
...
特朗普重大决定引爆行情!美元大跌70点 金价短线巨震26美元 究竟怎么回事?
lg
...
特朗普重大宣布震惊市场!比特币猛烈反弹9.8万、黄金2717持稳上行 普京作战惊传“巨响”
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1327讨论
#VIP会员尊享#
lg
...
1499讨论
#比特币最新消息#
lg
...
603讨论