全球数字财富领导者
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
跟单社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
区块链动态2023年3月5日早参考
go
lg
...
Spotify,以及消费者配送应用程序
Uber
Eats和Door Dash。 此前报道,美国检察官就保释条款表示,FTX创始人Sam Bankman-Fried(SBF)的通讯设备将是一部翻盖手机或其他“非智能手机”,以确保在他保释期间不能上网或无法上网,他的手机功能将仅限于语音通话和短信。 7 . 3月5日消息,马斯克发布推文表示,目标是在本月晚些时候推出使用任何反应表情符号并加密回复个人私信的功能。 8 . 金色财经报道,在以太坊丹佛大会ETH Denver上,Coinbase协议负责人Jesse Pollak表示,过去十年Coinbase一直以交易为中心,产品创新可能不是首要的,但现在该公司旨在改变这种状况,推出Base其实是对“创建一个平台”的投资,让开发人员更好地构建有用产品。 此外,Jesse Pollak还透露Coinbase并没有放弃NFT,过去一年一直在快速迭代其NFT平台,未来会看到更多增长。(decrypt) 9 . 金色财经报道,自去年以来一直做空Silvergate的空头投资者Marc Cohodes表示,预计Silvergate Bank将在一周内关闭。Cohodes表示,“如果Silvergate Bank下周营业,我会感到非常惊讶”。 据悉,在过去六个月中,Silvergate股价下跌了约 95%。周五,Silvergate的长期发行人评级被穆迪下调,穆迪警告称,在该银行披露其资本不足且未能按时提交年度报告后,进一步下调评级已成为可能。在评级下调后不久,该银行宣布将关闭其名为Silvergate Exchange Network的24小时汇款系统。 来源:金色财经
lg
...
金色财经
2023-03-05
人工智能:中国式ChatGPT的“大跃进”
go
lg
...
包括:Facebook、Stripe、
Uber
、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 出品|虎嗅科技组 作者|齐健 编辑|陈伊凡 来源:DeFi之道 来源:金色财经
lg
...
金色财经
2023-03-05
中国式ChatGPT“大跃进”
go
lg
...
包括:Facebook、Stripe、
Uber
、Quora、NVIDIA、Microsoft、Dropbox、DeepMind、Apple、Intel等公司,其中有10人来自谷歌,OpenAI的首席科学家Ilya Sutskever亦是从谷歌转会而来,Ilya Sutskever是AlphaGo的作者之一,师从人工智能学界泰斗Geoffrey Hinton。 ChatGPT团队成员流动示意图 1985年出生在苏联的Ilya Sutskever,如今已经是英国皇家学会院士。据说Ilya Sutskever退出谷歌,与Sam Altman、Elon Musk等人一起创立OpenAI时,年薪曾大幅缩水。但他参与创立OpenAI的初衷是“确保强大的人工智能造福全人类”的大义和情怀。 OpenAI初创之时是一家非营利研究机构,从这点上来看,无论是否带着情怀加入这家公司的研究人员,还是给“非营利”事业烧钱的投资人,多少都有一点对技术的“信仰”,这种驱动力,可能是钱买不来的。 不过OpenAI给这些科技精英们提供的薪酬待遇并不低。据纽约时报报道,2016年,OpenAI向Ilya Sutskever支付了超过190万美元。另一位行业大佬级的研究员Ian Goodfellow(对抗式生成网络的提出者)2016年从OpenAI得到的报酬则超过80万美元,而他在这一年中只工作了9个月,不过Ian Goodfellow在OpenAI没有待很长时间就离开了。 一直以来,硅谷的AI研究员都是高收入人群。在谷歌发布的官方招聘信息中,在美国工作的全职“高级软件工程师,大型语言模型,应用机器学习”(Staff Software Engineer, Large Language Models, Applied ML)岗位基本工资范围为年薪17.4万-27.6万美元(约120万-190万元人民币)+奖金+股权+福利。 这份工作的主要职责是:为谷歌大型语言模型的关键冲刺做出贡献,将尖端的 LLM(Large Language Mode,大型语言模型) 引入下一代谷歌产品和应用程序,以及外部用户。在建模技术方面进行协作,以支持全方位的 LLM 调整,从提示工程、指令调整、基于人类反馈的强化学习 (RLHF)、参数高效调整到微调。 微软研究院的研究员岗位“博士后研究员-机器学习和强化学习”(Post Doc Researcher-Machine Learning and Reinforcement Learning)年薪则在9.4万-18.2万美元(约64万-125万元人民币)。工作职责是“与其他研究人员合作制定自己的研究议程,推动有效的基础、基础和应用研究计划。” ChatGPT团队中另一个有意思的点是团队中有9位华人成员,其中5人本科毕业于国内高校,美国学界对人才的虹吸效应也正是硅谷巨头以及“OpenAI”们强大人才竞争力的基础。 “中国的AI人才是从14亿人里挑,美国是从80亿人里挑,全世界优秀的人很多都到美国去了。”图灵联合创始人、原智源研究院副院长刘江表示,要承认差距确实存在,不过他也表示,“在这方面,我们也不用气馁。中国也有自己的优势,比如市场化、产品化的能力,近年来我们不比美国同行差了。” 国内大厂的实力如何? 除了人才问题,国内大模型研究落后美国另一个原因是在生成式AI和大模型研究方面起步略晚,而起步晚的原因,则还是与“钱”脱不开关系。 从技术角度看,生成式技术在Stable Diffusion和ChatGPT等网红产品出现之前,技术实现的效果并不理想,且需要消耗大量算力进行研究。所以大厂、资本很难斥以重资,投入到这种看上去不太赚钱,还要烧钱的业务。 中国的AI产业更注重应用场景,而非基础理论和技术创新。各家大厂在NLP的理解方面有很多成熟业务,比如听写、翻译,在视觉识别和AI大数据处理方面也有很多应用场景。所以这部分业务自然是AI研发的主力,一方面他们赚钱,另一方面在这些领域的技术积累,使研究人员能够“在规定跑道上赛跑”,而不是在未知领域探路。 这一点不只是限制了国内公司,更是很多全球巨头的创新桎梏。正如诺基亚做不出iPhone一样,巨头都不喜欢“破坏式创新”,谷歌发布的Bard只因一个小失误就牵动了母公司Alphabet的万亿市值,这也正是谷歌一直声称不愿发布LaMDA大模型的理由,害怕会因AI的失误影响自己的商誉。而OpenAI显然不太在乎ChatGPT在公测中会出什么问题,毕竟他发布ChatGPT时只是一家估值200亿美元的独角兽。 不过,在这波大模型的追赶赛中,国内大厂的团队也可以说是实力颇强。 百度在大模型方面走的最早,百度自2019年开始研发预训练模型,先后发布了知识增强文心(ERNIE)系列模型。文心大模型研发的带头人,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰博士,是自然语言处理领域权威国际学术组织ACL(Association for Computational Linguistics)的首位华人主席、ACL亚太分会创始主席、ACL Fellow,还是IEEE Fellow、CAAI Fellow及国际欧亚科学院院士。他还兼任中国电子学会、中国中文信息学会、中国工程师联合体副理事长等。目前,王海峰在国内外期刊会议上发表的学术论文有200余篇,获得已授权专利170余项。 虽然没有像百度一样公布类ChatGPT产品的发布时间表,但腾讯、阿里和华为分别提出的“混元”、“通义”和“盘古”三个大模型,均已研发了很长时间。 据机器学习和自然语言处理著名学者Marek Rei教授在2022年4月发布的统计(2023年的统计尚未发布)显示,2012-2021年中,在ML(Machine Learning,机器学习)和NLP顶级期刊和会议发表论文数量最多的机构是谷歌,微软紧随其后。发文数量最多的中国机构是清华大学,第二是位列第16的腾讯,腾讯也是前32名中唯一的中国互联网厂商。不过,在2021年单年的统计中,阿里和华为也登上此榜,腾讯仍排在较靠前的位置。 Marek Rei发布的2021年ML、NLP顶会、期刊发文量统计 目前,腾讯官方并没有公布“混元”大模型研发团队的具体信息。不过,腾讯旗下AI研发团队“腾讯AI Lab”的专家构成,也显示出了腾讯在AI领域的一部分实力。腾讯AI Lab由100余位AI科学家和超过300名应用工程师组成,带头人张正友博士是腾讯首席科学家、腾讯 AI Lab 及 Robotics X 实验室主任,腾讯首位17级研究员、杰出科学家。他在美国斯坦福大学(Stanford University)发布的2022 年度“全球前2%顶尖科学家榜单”(World's Top 2% Scientists 2022)中,排名全球“终身科学影响力排行榜”第1002名,中国排名 Top 10。 阿里在LLM领域的研究主要由阿里巴巴达摩院负责,阿里巴巴集团资深副总裁,阿里云智能CTO、达摩院副院长周靖人主导,他是IEEE Fellow,多次担任VLDB,SIGMOD,ICDE等国际顶级会议程序委员会主编、主席,在顶尖国际期刊和会议上发表论文超百篇,并拥有几十项技术专利。 华为也未对“类ChatGPT产品”公开表态,但在大模型方面华为亦有“盘古”大模型正在研究。该项目由华为云人工智能领域首席科学家田奇博士领导,他是计算机视觉、多媒体信息检索专家,IEEE Fellow,国际欧亚科学院院士,教育部长江讲座教授,国家自然科学基金海外杰青,中国科学院海外评审专家,在国内多所高校任讲席教授及客座教授。 在自己组建团队投入研发的同时,百度、阿里、腾讯、华为等IT大厂,也与中科院计算所自然语言处理研究组、哈尔滨工业大学自然语言处理研究所、中国人民大学高瓴人工智能学院等高校研究有很多的技术合作。 “集中力量办大事”的科研机构 数据闭环是大模型研发的关键,用户越多,积累时间越长,就意味着可以用于迭代升级的数据和反馈也就越多。 在这方面OpenAI已经利用前两代的开源GPT模型和GPT-3积累了大量数据。ChatGPT虽然才推出了3个月,但用户量和访问量增长速度飞快,这些都为OpenAI在大模型研发方面积累了巨大的先发优势。 “AI大模型如果落后了,就会面临卡脖子的风险。”很多AI专家对此都有担心,由此国内也诞生了一些应对此种局面的非营利性AI科研机构。这些机构多数有高校研究实验室背景加持,以及地方政策支持,人才聚拢能力非常强劲。 北京智源人工智能研究院(以下简称“智源研究院”)是科技部和北京市政府共同支持,联合北京人工智能领域优势单位共建的非营利性创新性研发机构。智源研究院理事长张宏江,是美国国家工程院外籍院士,ACM Fellow和IEEE Fellow,同时也是微软亚洲研究院的创始人之一。 2021年,智源研究院发布了1.7万亿参数的超大模型“悟道”的1.0和2.0版本,这项工作由100余位科学家共同打造。其中包括清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)的孙茂松教授,清华大学知识工程研究室(KEG)的唐杰教授,清华大学交互式人工智能课题组(CoAI)的黄民烈教授。 目前“悟道”大模型已经与OPPO、好未来、淘宝、搜狗、美团等开展了落地合作。在与美团的合作中,大模型给搜索广告带来了2.7%的收入增长。 在南方的科技重镇也有一家相似的研究机构,粤港澳大湾区数字经济研究院(以下简称IDEA研究院),IDEA研究院是由深圳市政府大力支持的AI研究机构。与智源研究院有一个颇有趣的相似之处,IDEA研究院的创始人沈向洋博士同样出身微软亚洲研究院。沈向洋博士是美国国家工程院外籍院士和英国皇家工程院外籍院士,他参与创建了微软亚洲研究院,担任院长兼首席科学家,并曾担任微软公司全球执行副总裁,主管微软全球研究院和人工智能产品线,并负责推动公司中长期总体技术战略及前瞻性研究与开发工作。 IDEA研究院NLP研究中心负责人张家兴博士也来自微软亚洲研究院,他的团队推出的开源模型“太乙”,据称在中文文生图领域可以达到接近Stable Diffusion(一款开源文生图AI模型)的水平。 目前IDEA研究院正在持续迭代开发的预训练模型体系“封神榜”,已经开源了6个系列共10个模型,包含4种模型结构,模型参数最大为35亿。其中包括:以Encoder结构为主的双向语言系列模型的二郎神系列;面向医疗领域,拥有35亿参数的余元系列;与追一科技联合开发的新结构大模型周文王系列;以Decoder结构为主的单向语言模型闻仲系列;以Transformer结构为主的编解码语言模型,主要解决通用任务的大模型燃灯系列;以及主要面向各种纠错任务的比干系列。 2月20日晚,复旦大学自然语言处理实验室对媒体宣传邱锡鹏教授团队发布了“国内第一个对话式大型语言模型MOSS”,并在公开平台(https://moss.fastnlp.top/),邀请公众参与内测。然而就在外界都等着看MOSS表现如何惊艳之时。MOSS的内测网站却挂出了一则道歉公告。 目前MOSS的测试网站已经挂出了停止服务的公告。一位AI大模型专家对虎嗅表示,“邱锡鹏的实验室学术研究的氛围很浓。虽然这次的MOSS很少有人得到体验机会,但是从后边的公告来看,有可能是在工程优化,并发处理等方面的准备还没有那么充分。” 在近期举行的2023年世界人工智能开发者先锋大会上,邱锡鹏教授公开表示,如果优化顺利,MOSS计划在2023年3月底开源。 虽然,没能成功抢发“国产ChatGPT”,但AI业内人士对邱锡鹏教授团队仍然给出了肯定的评价,“邱锡鹏教授的团队比较偏重学术,这和早期的OpenAI在科研心态上是有共性的,非营利性的AI研究机构,没有那么多功利的考虑。” 创业公司都有“大佬”背书 AI技术属于计算机科学,虽然计算机技术已发展多年,但AI仍属于前沿科技,对LLM以及其他通用大模型的研究更是兴起不久,仍然需要依靠应用数据,持续迭代升级,不管MOSS是不是因为工程经验绊了跟头,要在AI、大模型这些领域实现突破,能推广到市场中,接地气的技术和产品才是王道。事实上,目前国内AI行业活跃的实验室大多已开始尝试商业化,在市场的磨砺中探索大模型未来的出路。 深言科技 深言科技源自清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)。THUNLP由清华大学人工智能研究院常务副院长孙茂松,以及刘洋、刘知远,三位教授带头。实验室在2017年推出的中文诗歌自动生成系统「九歌」则是最有影响的诗歌生成系统之一,「九歌」已经为用户创作了超过3000万首诗词。 孙茂松教授领衔研发的CPM模型是智源研究院的大模型「悟道·文源」的前身,也是国内最成熟的中文生成式大模型之一。深言科技的团队也是由CPM模型的部分研发团队成员所组成的,目前该公司产品包括可以根据意思搜索词语的“WantWords反向词典”,以及根据意思查询句子的“WantQuotes据意查句”。 智谱AI 智谱AI的前身是清华大学知识工程研究室(KEG),KEG专注研究网络环境下的知识工程,在知识图谱、图神经网络和认知智能领域已发表一系列国际领先的研究成果。2006年,智谱AI就启动了科技信息分析引擎ArnetMiner(以下简称AMiner)的相关研究,先后获得了国际顶级会议SIGKDD的十年最佳论文(Test-of-Time Award)、国家科学进步奖二等奖、北京市发明专利奖一等奖。 2022年8月,由KEG与智谱AI共同研发的千亿级模型参数的大规模中英文预训练语言模型GLM-130B正式发布,其在多个公开评测榜单上超过GPT-3 v1。此外,智谱AI还打造了认知大模型平台(BigModel.ai),形成AIGC产品矩阵,提供智能API服务。 聆心智能 2月17日,聆心智能宣布完成由无限基金SEE Fund领投的Pre-A轮融资。聆心智能的底层技术是超拟人大规模语言模型,基于大模型可控、可配置、可信的核心技术优势,聆心智能推出“AI乌托邦”,该系统允许用户快速定制 AI 角色。 聆心智能由清华大学交互式人工智能课题组(CoAI)黄民烈教授支持。CoAI是清华大学朱小燕教授及黄民烈教授领导的实验室。2020年,就已经开源了1200万对话数据和中文对话预训练模型CDial-GPT。黄民烈教授也曾参与了智源研究院的“悟道”大模型研发。 西湖心辰 西湖心辰背靠西湖大学深度学习实验室,创始人是西湖大学助理教授、博士生导师蓝振忠,主要研究大规模预训练模型的训练与应用。蓝振忠曾在谷歌担任研究科学家,也是轻量化大模型ALBERT的第一作者。 西湖大学在人工智能领域的研发实力很强,除了蓝振忠博士的深度学习实验室,西湖大学NLP实验室,在该领域的研究也非常领先。学术带头人张岳博士在Marek Rei教授的顶会、期刊发文量统计中,于2012-2021年期间排名全球第四。 “目前国内LLM领域的创业公司相对IT大厂来说主要有两个优势,技术和数据。”西湖心辰COO俞佳对虎嗅表示,国内大模型创业公司在技术方面普遍已有多年研究经验,构筑了一定的技术壁垒,这是很难短期超越的。同时,由于已经推出了相关产品,“数据飞轮”已经转起来了,这些数据的质量相比互联网数据质量要高很多,能够对产品迭代起到很大支撑作用。 对于国内大模型创业公司未来的发展趋势,俞佳认为可能性很多,“有些公司可能会走出自己的道路,也有的公司可能会像OpenAI一样与IT大厂开展深度合作,甚至像DeepMind直接并入其中。” 来源:金色财经
lg
...
金色财经
2023-03-03
不论谁赢了ChatGPT大战 英伟达都是最后的赢家
go
lg
...
Google Translate 和
Uber
到 Alexa 和 AlphaFold 的一切。 根据 Hinton 的说法,如果没有英伟达,AlexNet 就不会出现。得益于数千个计算核心支持的并行处理能力,英伟达的 GPU 被证明是运行深度学习算法的完美选择。Hinton 甚至在一次演讲上告诉在场的近千名研究人员都应该购买 GPU,因为 GPU 将成为机器学习的未来。 在 2016 年接受福布斯采访时,黄仁勋说自己一直都知道英伟达图形芯片的潜力不止于为最新的视频游戏提供动力,但他没想到会转向深度学习。 事实上,英伟达的深度神经网络 GPU 的成功是「一个奇怪的幸运巧合」,一位名叫 Sara Hooker 的作者在 2020 年发表的文章「硬件彩票」探讨了各种硬件工具成功和失败的原因。 她说,英伟达的成功就像「中了彩票」,这在很大程度上取决于「硬件方面的进展与建模方面的进展之间的正确对齐时刻」。这种变化几乎是瞬间发生的。「一夜之间,需要 13000 个 CPU 的工作两个 GPU 就解决了」她说。「这就是它的戏剧性。」 然而,英伟达并不同意这种说法,并表示,从 2000 年代中期开始英伟达就意识到 GPU 加速神经网络的潜力,即使他们不知道人工智能将成为最重要的市场。 在 AlexNet 诞生的几年后,英伟达的客户开始购买大量 GPU 用于深度学习,当时,Rob Fergus(现任 DeepMind 研究科学家)甚至告诉英伟达应用深度学习研究副总裁 Bryan Catanzaro,「有多少机器学习研究人员花时间为 GPU 编写内核,这太疯狂了——你真的应该研究一下」。 黄仁勋逐渐意识到 AI 是这家公司的未来,英伟达随即将把一切赌注押在 AI 身上。 于是,在 2014 年的 GTC 主题演讲中,人工智能成为焦点,黄仁勋表示,机器学习是「当今高性能计算领域最激动人心的应用之一」。「其中一个已经取得令人兴奋的突破、巨大的突破、神奇的突破的领域是一个叫做深度神经网络的领域。」黄仁勋在会上说道。 此后,英伟达加快布局 AI 技术,再也不只是一家 GPU 计算公司,逐渐建立了一个强大的生态系统,包括芯片、相关硬件以及一整套针对其芯片和系统进行优化的软件和开发系统。这些最好的硬件和软件组合平台,可以最有效地生成 AI。 可以说,GPU + CUDA 改变了 AI 的游戏规则。中信证券分析师许英博在一档播客节目中评价道:英伟达一直在做一件非常聪明的事情,就是软硬一体。在 GPU 硬件半导体的基础上,它衍生出来了基于通用计算要用的 CUDA。这促成了英伟达拿到了软件和硬件的双重规模效应。 在硬件端,因为它是图形和计算的统一架构,它的通用性保证了它有规模性,而规模性摊薄了它的研发成本,所以硬件上本身通过规模性可以拿到一个比较优势的研发成本。 在软件端,因为它有庞大的开发者的生态,而这些宝贵的软件开发人员,即便是这些软件开发人员换了一个公司,但他可能还是在继续用 CUDA 的软件。 主要参考文献: 1)《ChatGPT 火了,英伟达笑了》——中国电子报 2)Nvidia: The GPU Company (1993-2006) 3)Nvidia: The Machine Learning Company (2006-2022) 4)NVIDIA CEO Jensen Huang - AI Keynote Session at MSOE 5)Jensen Huang Q&A: Why Moore』s Law is dead, but the metaverse will still happen 6)How Nvidia dominated AI—and plans to keep it that way as generative AI explodes 7)中信证券许英博:从英伟达看国产 GPU 的挑战与前景 - 小宇宙 - 创业内幕 来源:金色财经
lg
...
金色财经
2023-03-02
对冲基金和共同基金最喜欢和最不喜欢的股票
go
lg
...
),11只基金,11个基点 优步(
Uber
),35只基金,14个基点 富国银行(WellsFargo),11只基金,22个基点 万事达卡(Mastercard),28只基金,32个基点 联合健康(UNH),12个基金,13个基点 ServiceNow(NOW),12只基金,9个基点 Visa(V),36只基金,27个基点 在不受欢迎的股票中,有28只股票同时击中了对冲基金非常重要的空头头寸篮子和共同基金减持篮子。 艾伯维(ABBV)空头权益占流通股上限1%,共同基金减持28个基点 卡特彼勒(Caterpillar),2%,18个基点 福特(F),3%,9个基点 伊利诺伊州工具厂(ITW),2%,11个基点 3M(MMM),2%,9个基点 百事可乐公司(PEP),1%,26个基点 特斯拉(Tesla),3%,66个基点 安进(AMGN),1%,9个基点 好市多(Costco),1%,16个基点 家得宝(HD),1%,28个基点 可口可乐(Coca-Cola),1%,34个基点 默克公司(Merck)上涨1%,10个基点 辉瑞(Pfizer),1%,31个基点 Verizon(VZ),1%,11个基点 博通(Broadcom),1%,23个基点 雪佛龙(Chevron),1%,37个基点 IBM(IBM),3%,15个基点 林德(LIN),1%,19个基点 Moderna(MRNA),4%,12个基点 宝洁(Procter&Gamble),1%,57个基点 沃尔玛(Walmart),1%,24个基点 波音(BA)2%,9个基点 迪士尼(Disney),1%,14个基点 英特尔(INTC),2%,16个基点 礼来公司(EliLilly),1%,18个基点 NextEra能源(NEE),1%,15个基点 美国电话电报公司(AT&T),1%,18个基点 埃克森美孚(ExxonMobil),1%,34个基点 纵观跨界股,有两只股票被对冲基金做空,但共同基金却增持:美国银行(BankofAmerica)和康卡斯特(Comcast)。 在对冲基金青睐的7只股票中,大盘股占主导地位,但共同基金的权重较低:苹果(Apple)、亚马逊(Amazon)、Meta(Meta)、微软(Microsoft)、Alphabet(GOOGL)、英伟达(Nvidia)和伯克希尔哈撒韦(BerkshireHathaway)。瑞银(UBS)表示,对冲基金今年开局强劲。
lg
...
金融界
2023-03-01
解析 Kubernetes“全球首个加密衍生借贷钱包”
go
lg
...
尖端技术和流程自动化是Kubernetes商业模式的核心。凭借Credissimo在线贷款方面超过10年的经验Kubernetes处于开发顶级解决方案的绝佳位置
lg
...
金色财经
2023-02-18
Maverick Capital第四季度清仓英特尔及Carvana,增持动视暴雪、Meta
go
lg
...
涨至140万股;优步科技(NYSE:
Uber
)从445万股增至450万股。 该基金将其在Coupang(纽交所代码:CPNG)的持股从8125万股减持至7620万股;微软股票从60.2万股减持至46.85万股;Alphabet C类股票(纳斯达克股票代码:GOOG)从43.09万股减持至19.47万股;Visa(纽交所代码:V)从74.23万股减持至48.11万股。 此前,老虎环球(Tiger Global)收购了ZoomInfo和TakeTwo,退出了Li Auto和DoorDash。
lg
...
金融界
2023-02-15
“胖协议”还是“胖应用”?Web3 技术堆栈中的最大价值在哪里?
go
lg
...
可视化这一点,让我们看几个例子。 以
Uber
为例,在互联网出现之前,出租车公司垄断了当地的交通运输。这是通过捆绑车牌、调度员和汽车(供应、分配和信任)来实现的。要想搭车,消费者必须挥挥手就能找到一辆车。而
Uber
通过聚合汽车/司机并通过一个不错的应用程序为消费者创造更好的用户体验来打破这种局面。由于可以对司机的进行评价,用户可以信任该服务。 Via Ben Thompson & Stratechery 同样的概念已经在酒店中发挥作用。在互联网之前,酒店捆绑客房、品牌和信任。消费者从来没有考虑过住在别人家里,因为这样的服务是不可信的。然而 Airbnb 出现了。他们通过聚合供应,并将其与用户可以通过房东排名和评论信任的灵活应用程序相结合,从而颠覆了这种模式。 Via Ben Thompson & Stratechery 要点:对于公司来说,互联网是一种不可思议的分销机制,可以与用户建立粘性关系、聚合供应并建立信任。 DeFi 和 Web3 关于公共区块链的(许多)有趣的事情之一是它们降低了信任成本。我们不要忘记,比特币是 2008 年解决信任危机的自由市场解决方案。因此,看起来受益最大的行业自然是金融业、银行、经纪人、交易所等。这些组织花费大量资金来维持信任——可以通过先进技术消除低效率。例如,转让代理成为智能合约。消息传递、会计、结算保证和托管成为公共区块链上的捆绑服务。 请记住,当印刷报纸失去分销优势时,它们就被打乱了——因为实体交付的成本已从等式中剔除。谷歌通过剥离分销成本来获得其广告业务——从而实现更好的广告模式。就目前 TradFi 所拥有的信任优势而言,我们看到 DeFi 和传统金融之间正在发生类似的动态变化。 随着林迪效应(Lindy effect)随着时间的推移而增强,我们认为公共区块链和智能合约将获得用户的信任。即将出台的法规肯定会发挥一定的作用。 能够通过卓越的用户体验获得粘性用户、建立信任和聚合流动性(供应)的应用程序很可能获胜。 让我们探讨一下这个公式如何适用于技术堆栈。 以太坊 DeFi 技术堆栈 钱包和聚合器:钱包和聚合器通过向用户提供对其下的应用程序的访问来实现盈利。他们收取交易费用但不控制流动性。流动性由应用程序运行的智能合约控制。 我们跟踪的一个关键领域是,用户是在钱包和聚合器级别进行交易,还是直接在运行智能合约的界面上进行交易。我们可以通过查看 MetaMask 与 Uniswap 等应用程序的收入来分析这一点。 数据:Dune & Token Terminal 以上数据来自 1/1/21 - 2/9/23。我们可以看到,Uniswap 带来的收益是 MetaMask 的 5 倍。 我们还可以查看交易量与聚合器的对比。下面我们用 Uniswap 与 1inch 进行对比。 数据:由 Arcana 提供支持 数据告诉我们,大多数用户直接进入 Uniswaps 界面。与此同时,Uniswap 一直控制着约 70% 的 DEX 交易量。 让我们进一步深入技术堆栈并检查用户交易的解剖结构。 L2s 和以太坊:通过 Uniswap 处理的每笔交易最终都在以太坊上结算。由于 L2s 交易成本较低,我们相信大多数交易也将通过 L2s 进行。这意味着 Uniswap 用户(以及以太坊上的任何应用程序)必须支付 L2 以及以太坊验证者的 gas 费。 对用户征收的最终税来自 MEV,它也支付给以太坊验证者。因此,可以合理地假设,如果以太坊能够保持其网络效应,它最终可以在技术堆栈中获取最大价值。值得注意的是,早期研究表明,L2s(更便宜的费用)创造的价值中有高达 80% 都在基础层的以太坊中积累。这表明基础架构堆栈中的中间层可能不会看到太多的价值增长。 以太坊 与其他智能合约平台相比,以太坊在其网络效应方面目前处于领先地位。他们在用户、开发者、收入、锁定的总价值等方面占据主导地位。 网络效应带来了网络效应。整个技术堆栈中的开发人员工具、编程语言、EVM 和智能合约标准、流动性和可组合性推动了这些网络效应。 如果你是一个想要推出 Web3 应用的开发者,你很可能会出于这些原因选择以太坊。 同时,技术堆栈顶层的每一笔交易都必须流经下面的每一层,最终汇集到基础层的以太坊。这一切都不是免费的。 “胖协议”(Fat Protocol)论文观察到这一点,并假设以太坊将产生最大的价值。在这种情况下,以太坊成为谷歌、亚马逊、Facebook 和银行的 Web3 版本——从应用层的每个用户那里提取租金(由分布式验证器集和 ETH 持有者捕获)。但以太坊真的有护城河吗? 探索以太坊的护城河 如前所述,如果你是一名想要发布应用程序的开发人员,你今天可能会选择以太坊。以太坊通过提供有关编程语言、工具、强大的开发社区、流动性、用户、钱包集成等的标准,使启动项目变得容易。这使得构建一个项目和快速吸引用户变得更加容易。 但是如果你的项目爆发了怎么办?假设你解决了一个大问题并在生态系统中创造了最佳的用户体验。你的智能合约聚集了最多的流动性,吸引了一群粘性而忠诚的用户——这些用户每天都会访问你的界面并且信任你,他们并不关心你是否在以太坊上,他们只是喜欢使用你的应用。与此同时,你必须向用户收取最低的执行费用(L2)和结算费用(L1)。这是你直接向用户收取服务费用之外的费用。 在什么时候你开始怀疑你为以太坊带来的价值,是否比你得到的回报更多?例如,Uniswap 昨天收取了 360 万美元的手续费。除了交易者支付的这些费用外,他们还向以太坊验证者支付 gas 费和隐藏的 MEV 税。 出于这个原因,我们认为最大和最成功的应用程序可能会寻求构建自己的“应用链”。 在这种情况下,Uniswap 将把其值得信赖的品牌、粘性的用户关系和聚合的流动性转移到别处。然后,他们将向后集成他们可以控制的基础设施。这在 Cosmos、Avalanche 或 Polkadot 上是可能的——这些替代的第 1 层链旨在使应用程序更容易构建自己的区块链,并垂直控制更多的价值堆栈。 通过聚合理论回顾最近的历史,这看起来类似于亚马逊、谷歌或微软在首先与用户建立锁定关系后,通过网络托管 (AWS)、操作系统(Windows/Android)等与基础设施向后集成。在每个案例中,拥有与用户的关系都是最重要的事情。 应用链利弊 大型应用程序只有在认为利大于弊的情况下才会采取行动。 启动应用链的优点 1.控制应用程序、钱包、预言机和区块空间。完全垂直整合和价值获取。 2.主权。改变你不喜欢的关于以太坊的事情。例如,Uniswap 对下一个以太坊改进提案将做什么没有发言权。如果它对他们的用户体验产生负面影响怎么办? 3.通过更多地控制验证者集来减轻 MEV 的负面外部性。 4.更多的费用控制。Uniswap 可以减少或取消交易员费用,而是在验证器级别为其流动性提供者货币化。 5.独特的用户体验控制。例如,Uniswap 可以为持有特定 NFT 的用户提供折扣或奖励。 6.专注于打造最佳的产品和用户体验。 启动应用链的缺点 1.失去对以太坊上大量流动性的访问。 2.引导验证器集/安全性。 3.失去与以太坊生态系统的可组合性。 4.将以太坊资产连接到另一个区块链存在潜在摩擦。 5.增加了复杂性和开发人员的摩擦。 6.失去了编程语言、工具、EVM 等方面的标准化。 dYdX dYdX 是以太坊上最大的衍生品平台,正在跳转到 Cosmos。你最好相信 Uniswap 和其他拥有粘性用户的公司正在密切关注这一点。如果 dYdX 能够在不牺牲流动性、安全性、用户等的情况下执行适当的实施,这应该会使他们的衍生平台更有价值。为什么?他们将能够垂直整合,创造更好的用户体验,并在价值链中占据更大的份额。 *a16z 是 dYdX 和 Uniswap 的投资者。有可能他们建议 dYdX 采取这一举措,目的是吸取教训并将其应用到 Uniswap 中。 结论 聚合理论在分析 Web3 技术栈中哪里可以产生价值时提供了有用的指导。我们目前的想法是应用程序*和*基础设施应该产生最大的价值。也就是说,这显然是一个移动的目标。我们仍处于 Web3 开发的早期阶段。因此,基础设施(第 1 层)迄今为止获得了最大的价值。 以太坊的网络效应使其成为任何开发人员最初构建的非常有效的生态系统。我们预计这种情况会持续一段时间。然而,当我们展望未来时,价值可能会在技术堆栈中上升。与用户建立粘性关系的应用程序可以考虑将它们移植到自己的应用链中,从而在垂直整合的同时捕获更多的价值链。 dYdX 是我们今天的“小白鼠”。如果他们的实施成功,这将是一个明确的迹象,表明“胖协议”的理论可能在更长的时间内处于危险之中。 免责声明:所表达的观点是作者的个人观点,不应被视为投资建议。作者不是投资顾问。 来源:金色财经
lg
...
金色财经
2023-02-14
网约车巨头Lyft发布疲软财报 股价暴跌37% 和
Uber
形成鲜明对比
go
lg
...
糕的。” Lyft在网约车市场面临来自
Uber
的激烈竞争,
Uber
本周报告了有史以来最强劲的季度,收入同比增长49%。
Uber
股价周五下跌约5%。 Wedbush分析师写道:“这是]赢家通吃所有网约车市场的时代,
Uber
是赢家,而Lyft看起来像是前路不明朗的主要输家。” Lyft是美国第二大拼车服务提供商,通过Lyft应用程序将乘客和司机联系起来。Lyft最近进入加拿大市场,以努力将其市场扩展到美国以外的地区。Lyft成立于2013年,通过私家车提供各种游乐设施,包括传统的私家车、拼车和豪华车。除了乘车共享,Lyft还进入了自行车和踏板车共享市场,为用户带来多式联运选择。
lg
...
埃尔文
2023-02-11
金色Web3.0日报 | 以太坊官网新增质押提款页面
go
lg
...
能被归类为美国的一种证券,"我认为这和
Uber
被定为非法一样有可能,而且会产生同样的影响。","不仅是加密货币社区,而且不同的政治家和某些监管机构都会发出巨大的呼声," Lubin补充说他了解与美国证券交易委员会和商品期货交易委员会 "多年来 "的讨论情况。(Cointelegraph) 免责声明:金色财经作为区块链资讯平台,所发布的文章内容仅供信息参考,不作为实际投资建议。请大家树立正确投资理念,务必提高风险意识。 来源:金色财经
lg
...
金色财经
2023-02-10
上一页
1
•••
33
34
35
36
37
•••
41
下一页
24小时热点
【直击亚市】鲍威尔后悔了!降息50基点冲击市场,日元好日子到头?
lg
...
路透:中国央行周五将“降息”
lg
...
彭博深度:为什么鲍威尔选择大幅降息50个基点?美联储不再专注于抗通胀?
lg
...
中东停火谈判突传重大消息!金价飙升逾27美元 接下来如何交易黄金?
lg
...
美联储降息325基点“鸽”声突响!比特币冲破6.3万、黄金2586上演反弹 中东火药桶炸裂
lg
...
最新话题
更多
#海外华人投资#
lg
...
16讨论
#链上风云#
lg
...
17讨论
#美国大选#
lg
...
822讨论
#VIP会员尊享#
lg
...
1210讨论
#比特币最新消息#
lg
...
300讨论