全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
马斯克回应“人工智能拯救世界”:离它消灭我们还有多少年?
go
lg
...
文明造成的威胁发出警告,称人工智能要比
核
武
器
更加危险。 刚刚过去的这个周末,在安德森推文的评论区里,马斯克还回答了一位网友的提问,指出人类现在实际上已经处于“半机器人”(cyborg)状态。 这位网友写道:“有没有任何人计算过,你已经在多大程度上是人工智能了。” 马斯克回复称:“好问题。我们已经是半机器人了。我们的记忆绝大部分都外包给了计算机——它们能极其精确地记住每件事,精确到像素。我们的思维还很少被外包,因为仍然有许多事情是我们可以做的,而人工智能做不到。暂时是这样。”
lg
...
金融界
2023-06-13
揭秘朝鲜黑客大军实力:盗取30多亿美元加密货币、
核
武
器
项目50%资金源于黑客
go
lg
...
%的资金源于黑客盗窃的资金,该项目是与
核
武
器
一起开发的。国防开支占朝鲜总开支的很大一部分;美国国务院估计,2019年平壤在国防上的支出约为40亿美元,占其整体经济的26%。#NFT与加密货币# Sky Mavis首席运营官Aleksander Larsen表示,尽管该公司现在已经向网络攻击的受害者提供了赔偿,但这一事件威胁到了这家当时成立四年的公司的生存。“当你看到被盗资金的数量时,(它)似乎对你正在建立的东西构成了生死存亡的威胁。” 这一事件也引起了白宫的注意,该事件以及朝鲜在2022年期间的其他加密攻击引起了白宫的严重关注。美国负责网络和新兴技术的副国家安全顾问Anne Neuberger说:“去年真正激增的是针对世界各地持有大笔资金的中央加密基础设施,比如Sky Mavis,这导致了更多的大规模抢劫。”“这促使我们高度关注打击这种活动。” 朝鲜的数字窃贼在2018年左右开始了他们的第一次大型加密攻击。根据詹姆斯·马丁防扩散研究中心(James Martin Center for Nonproliferation Studies)追踪的数据,自那以来,朝鲜的导弹发射尝试和成功如雨后春笋般增加,在2022年成功发射了42枚以上。 美国官员警告称,在西方的制裁下,朝鲜的资金来源尚不清楚,因此不可能准确了解加密货币盗窃在导弹试射率上升中所起的作用。但与此同时,金正恩这个与世隔绝的政权进行了核试验,加密货币盗窃事件也出现了令人担忧的上升。 Neuberger说,朝鲜为其弹道导弹项目购买外国部件的外汇资金中,目前约有50%是由该政权的网络行动提供的。这比之前的估计大幅增加,当时的估计是该项目总资金的三分之一。 美国官员说,朝鲜已经在包括俄罗斯和中国在内的世界各国建立了一个实质上由数千名IT工人组成的影子劳动力队伍,这些人从事普通的技术工作,有时年收入超过30万美元。但调查人员表示,这些人往往与朝鲜政权的网络犯罪活动有关。 他们假扮成加拿大IT工作者、政府官员和自由职业的日本区块链开发人员。他们会通过视频面试来获得一份工作,或者,就像Sky Mavis的例子一样,伪装成潜在的雇主。 为了被加密公司雇佣,他们会雇佣西方的“前台人员”——本质上是演员,他们在面试时坐着,以掩盖朝鲜人才是真正被雇佣的事实。前受害者和调查人员说,一旦被雇佣,他们有时会对产品做一些小改动,从而让自己被黑客攻击。 (图源:Chainalysis) 美国官员说,从两年前开始,与朝鲜有关的黑客开始用勒索软件感染美国医院,以筹集资金。勒索软件是一种网络攻击,黑客锁定受害公司的文件,并要求支付赎金才能释放这些文件。 “这似乎是一个现代的海盗国家,”前联邦调查局(FBI)分析师、目前在区块链追踪公司TRM Labs工作的Nick Carlsen表示,“他们只是在那里抢劫。” Carlsen和加密货币行业的其他人表示,清除这些假IT工作者是一个长期存在的问题。 国际专家长期以来一直表示,朝鲜一直在发展一支数字银行抢劫军队,以逃避严厉的制裁,并支持其通过
核
武
器
和弹道导弹投射地缘政治力量的雄心。联合国2020年的一份报告发现,朝鲜政权的创收黑客活动已被证明是“低风险、高回报、难以发现的,而且它们越来越复杂,可能会挫败溯源。” 多年来,美国和其他西方国家政府指责朝鲜实施了一系列肆无忌惮的网络攻击,从2014年对索尼影业(Sony Pictures)的黑客攻击到2017年大规模的全球勒索软件攻击无一不与朝鲜有关。但据美国官员和安全专家说,该国越来越多地寻求将网络攻击的重点放在赚钱上,同时大幅提高其技术水平,以实施大规模盗窃。 白宫的Neuberger说:“大多数国家的网络项目都侧重于传统地缘政治目的的间谍活动或攻击能力。”“朝鲜专注于盗窃,利用硬通货来规避严厉的国际制裁。” 2016年,与朝鲜有关联的黑客从孟加拉国央行窃取了8100万美元,其是纽约联储阻止的10亿美元网络抢劫案的一部分。 据Chainalysis调查副总裁Erin Plante说,朝鲜人还从自动取款机上偷钱,甚至从一种迅速传播的名为“想哭”(WannaCry)的蠕虫病毒中赚取了超过10万美元的加密货币,但没有什么比他们从2018年开始的一系列加密货币抢劫案更赚钱了。“他们很早就进入了加密领域,而且他们是早期加密技术最先进的用户之一。” 与此同时,平壤在社会工程方面表现得更加大胆,其黑客的技术水平也越来越高。过去一年,朝鲜网络犯罪的高超技巧给美国官员和研究人员留下了深刻印象,一些人说,他们看到朝鲜黑客实施了其他任何地方都未曾见过的精心策划的行动。 在今年早些时候的一次引人注目的攻击中,与朝鲜有关的黑客实施了安全研究人员所说的首次级联式供应链攻击。他们一次入侵一个软件制造商,破坏他们的产品,以进入他们客户的计算机系统。 为了策划这次攻击,他们首先攻击了一家名为Trading Technologies的在线交易软件制造商。该公司产品的一个损坏版本随后被3CX的一名雇员下载,该公司本身也是一家软件开发公司,然后利用访问3CX系统的权限来破坏该公司的软件。 调查人员表示,朝鲜人试图从那里闯入3CX的客户,其中包括加密货币交易所。 Trading Technologies表示,它已经聘请了一家取证公司来调查这一事件,但它在2020年4月,也就是3CX遭到入侵两年前,就关闭了有问题的软件。 3CX表示,自从黑客入侵以来,他们已经加强了安全措施。该公司首席执行长Nick Galea说,该公司不知道最终有多少客户受到影响,但由于发现得很快,预计数量不多。 “这是一场与黑客的军备竞赛,”Sky Mavis的Larsen说。
lg
...
夏洛特
2023-06-13
瞄准美元霸权地位!《货币战争》作者警告:“世界对这一地缘政治冲击波毫无准备!”
go
lg
...
口、土地、能源产出、GDP、粮食产出和
核
武
器
等各个方面来看,金砖国家不仅仅是另一个多边讨论组织。他们是西方霸权的实质性和可信的替代品。金砖国家是新多极乃至双极世界的一极。 Rickards随后讨论了全球去美元化趋势,因为越来越多的国家在贸易结算中不再使用美元,而是使用本国货币。这位《货币战争》的作者描述道:“放弃美元的背后是什么?在很大程度上,答案是美国通过制裁将美元武器化。” 他写道:“许多其他国家开始得出结论,如果他们在某些问题上与美国发生冲突,他们可能成为下一个。这种担忧极大地加速了完全退出美元体系的步伐。” Rickards补充说:“金砖国家+提出了一个现实的努力,以实现全球支付的去美元化,最终实现全球储备的去美元化。” Rickards指出,转向使用本国货币的努力“可能很快就会被一种新的金砖国家+货币所取代,这种货币将于8月22日至24日在南非德班举行的金砖国家领导人年度峰会上宣布。” Rickards认为,新的金砖国家货币“将与成员国之间贸易中使用的一篮子商品挂钩”。他预测:“最初,金砖国家+一篮子商品将包括石油、小麦、铜和其他以特定数量在全球交易的必需品。” 他进一步解释说:“新的金砖国家+货币很可能不会以纸币的形式用于日常交易。这将是一种由新的金砖国家+金融机构维护的许可分类账上的数字货币,通过加密的信息流量记录参与方应付或欠下的款项。” 他澄清道,这种新货币不会是加密货币,“因为它不是去中心化的,不是在区块链上维护的,未经批准不会向所有各方开放。” 这位经济学家总结道:“基于大宗商品篮子作为统一价值储存手段的不切实际,看来新的金砖四国+货币可能将与一定重量的黄金挂钩。” Rickards强调说,这符合金砖国家成员国俄罗斯和中国的优势,这两个国家是世界上最大的两个黄金生产国,在100个拥有黄金储备的国家中分别排名第六和第七。 据英国《独立报》6月2日报道称,金砖国家正在考虑扩充成员,甚至可能建立一种新的国际贸易共同货币替代美元。报道称,南非外长潘多尔说,金砖国家新开发银行向该集团介绍了有关引入国际贸易替代货币的可能性。 印度外长苏杰生表示,这次会议必须“发出一个强有力的信息,即世界是多极的,正在重新平衡”。巴西外长毛罗·维埃拉声称,金砖国家是“建立多极世界秩序不可或缺的机制,这种秩序体现出发展中国家的方式和需求”。
lg
...
tqttier
2023-06-12
一则乌龙消息搅翻市场!美国伊朗双双否认 原油上演V型反转
go
lg
...
核项目的方法。 该协议旨在阻止伊朗发展
核
武
器
,要求德黑兰接受对其核项目的限制和更广泛的联合国检查,以换取联合国、美国和欧盟结束对伊朗的制裁。 一个可能的解决方案是达成一项临时协议,根据该协议,伊朗将接受对其核计划更少的限制,以换取比2015年协议更温和的制裁减免。 中东之眼援引两名未具名消息人士的话说,伊朗和美国已经“就一项临时协议达成一致”,并将向他们的上级汇报。 声明说,伊朗将停止纯度为60%或以上的铀浓缩活动,并继续与联合国核监督机构合作,以换取每天出口至多100万桶石油,并获得“收入和其他在国外冻结的资金”。 突发!伊朗和美国传来一则消息 原油闻讯“断崖下跌”超4% 中东之眼报告公布后,油价一度下跌逾3美元/桶,但在白宫予以否认后,油价收复了大部分失地。 (美国WTI原油30分钟走势图,来源:FX168) 该网站说,会谈由美国伊朗问题特使马利和伊朗驻联合国大使伊拉瓦尼主持,这显然改变了伊朗拒绝直接与美国官员打交道的态度。 美国国务院发言人拒绝就任何此类会谈发表评论,只表示有办法向伊朗传递信息,但不愿详细说明信息的内容或传递方式。 两名伊朗官员告诉路透社,谈判取得了进展,但不会很快达成协议。第三名官员说,马利和伊尔瓦尼在过去几周至少见过三次面,但没有透露细节。 “已经取得了一些进展,我们已经与美国人交换了建议和信息,”一名伊朗高级官员说。“不过,我们还有很多细节需要讨论。” 2015年的协议将伊朗的铀浓缩限制在3.67%,该协议于2018年被当时的美国总统特朗普放弃。特朗普政府重新对伊朗实施了制裁,以遏制伊朗的石油出口。 此后,伊朗积累了纯度为60%的铀储备,联合国核监督机构发现了纯度为83.7%的微量铀,接近被视为核弹级别的90%。
lg
...
夏洛特
2023-06-09
中国和古巴达成秘密协议?美国白宫回应:该报告不准确
go
lg
...
巴导弹危机是在莫斯科开始在古巴部署苏联
核
武
器
后爆发的。莫斯科随后做出让步,撤掉了导弹,但人们普遍认为,那是美国和苏联最接近核对抗的时刻。 上世纪60年代中期,苏联在哈瓦那以南的卢尔德岛上设立了一个间谍基地,用抛物面天线对准古巴的北方邻国。俄罗斯总统普京在21世纪初关闭了该设施。
lg
...
财经风云
2023-06-09
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
·诺伊曼对罗伯特·奥本海默关于他在创造
核
武
器
方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
悦读书|欧美银行动荡,如何避免金融危机卷土重来?
go
lg
...
1998年俄罗斯拖欠债务之前也有人认为
核
武
器
国家不会违约。历史上,美国房贷违约率远低于1%,就是在经济衰退的2001年也只有0.5%,2008年金融危机期间才上升到3%。国债利率很低,购买MBS是为了追求高收益,看上去也没有什么风险。加杠杆买房,放大了房价上涨带来的收益。即使房价和通胀一起上涨,真实价格不涨,有杠杆仍然可以获利。杠杆让人迷失方向,忽视房价可能集体下跌的风险。 四、长期繁荣带来的自满 危机前,纽约联储让银行做经济衰退情境下的压力测试,没有一家银行的测试结果显示其资本金不足。事后看,压力测试的情景假设太宽松了,25 年没有发生大的衰退,银行的风险胃口越来越大,资本金的质量逐渐变差,普通股一级资本(common equity)减少。更重要的是,银行真正的杠杆在表外和衍生品,没有被计算进来。也不是银行故意隐瞒,它们也不知道怎么算。这种自满情绪不仅体现在金融市场的被监管对象,也体现在其监管者身上。伯南克2005 年在总统经济顾问委员会主席任上曾想加强“两房”的监管,保尔森2006 年来华盛顿更进一步,推动众议院通过了相关法案,但是在参议院被搁置。加强对住房贷款的监管来得太迟了,一直受到阻力,部分原因在于住房是“美国梦”的一部分,2005 年住房拥有率达到了最高点69%。危机后再加强监管,是亡羊补牢。 五、危机自我加强的循环很难打破 金德尔伯格说危机遵循“疯狂- 恐慌- 崩溃”(mania-panic-crash)路径。在危机集中爆发时刻会出现非线性放大的恐慌效应。伯南克、盖特纳、保尔森在《救火》一书里将这种效应比喻成“大肠杆菌传染效应”:某家汉堡店的某个汉堡里的牛肉有问题,恐慌的结果是全国消费者所有的肉都不吃了,而不是理性分析是哪个地方哪个分店的哪些肉出了问题。对某些资产的担忧会导致抛售,抛售让资产价格下跌导致追加保证金要求(margin call),保证金要求又导致更多的抛售,进一步压低资产价格和投资者净财富。保证金螺旋和净财富螺旋相互加强的反馈机制在危机的形成和泡沫破灭中都有发生,本章专栏8 对此有进一步的简述。 六、危机的终极根源在于人性 “太阳底下无新事。”危机的背后是人性,作为群居动物,恐惧和羊群效应在我们进化的基因之中。人的贪婪和恐惧交织,资产价格的暴涨和暴跌交替。人性不可能被消灭,因而危机总会发生,繁荣和萧条是金融的固有形态。上一场危机的应对常常埋下下一场危机的种子。 从2001 年互联网泡沫到2008 年房地产泡沫,从大衰退后的量化宽松到资产价格繁荣。危机发生,应对危机,宏观刺激,形势好转,监管放松,志得意满,危机又爆发,如此周而复始,政策、市场和人性纠缠在一起。 现在来看2008 年全球金融危机,美国发了十万亿美元次级贷款、百万亿美元信用违约掉期对赌,整个金融市场泡沫化,发生危机是必然的。大家都把雷曼倒闭当作2008 年全球金融危机的标志性事件。如果没有雷曼事件,结果会不会不一样?美联储没有救雷曼,救了贝尔斯登。事实上雷曼总资产约7 000 亿美元,贝尔斯登约4 000 亿美元,雷曼比贝尔斯登大不了多少。如果把雷曼救了,也许不一定会引发一系列的连锁反应,但历史无法假设。 危机真正传染开来、引发恐慌是在货币市场这个看上去最安全的市场。货币市场基金主要储备基金(Primary Reserve Fund)大约持有雷曼1% 的商业票据,雷曼倒闭之后该基金出现亏损,投资者的1 美元只能给付97 美分,也称跌破净值。原来大家都觉得买基金是最安全的,与存银行一样,但基金毕竟不是银行,没有存款保险保护。亏损发生后,买了这只基金的人就开始集中赎回,结果引发了发生挤兑。 当时货币市场的规模是3.5 万亿美元,约有3 500 万人投资货币市场。巴菲特回忆说参加聚会,发现大家都在讨论货币市场是否安全。如果只挤兑这一家基金还行,但这个时候还会发生“大肠杆菌传染效应”。自从雷曼的商业票据出了问题,很多家货币市场基金都遭到了挤兑,因为货币市场基金持有很多大公司的商业票据,如通用电气、苹果、微软等企业的商业票据。平时大家觉得没有风险,不会破产,到这个时候就会想这些公司的票据会不会也有问题?所以一家公司的商业票据、一个产品出了问题,市场就认为所有公司的商业票据和其他产品都有问题。危机一定有意想不到的、协同的、夸张的恐慌效应,从很乐观到恐惧再到崩盘。 危机的爆发也有可能是“灰犀牛”,即在一系列预警信号和危险迹象之后仍然发生的大概率事件。金融危机更多是“黑天鹅”,发生在事前没有想到和监管没有照顾到的角落。如果吸取了以前的经验教训,把监管漏洞堵起来,同样的危机就不会再次发生,风险聚集和金融创新都符合“最小监管阻力原则”,发生在监管边缘地带。回顾以前发生过的危机,比如20 世纪30 年代的银行危机,为避免银行挤兑,推出了存款保险,银行挤兑就很少见。再比如2008 年出问题后,对房地产市场和银行与影子银行体系监管较为严格,2020 年新冠疫情冲击时,这些部门的杠杆率得到有效控制,未发生系统性风险。 没有两次危机是一样的,但是会押着相同的韵脚。2008 年全球金融危机暴露出了影子银行的问题,没有监管到影子银行有很多表外业务,成立了表外的 “特殊投资实体”,加了很多杠杆。投资银行也都依赖短期批发融资,杠杆率更高,再就是签了很多信用违约掉期对赌协议,内嵌有复合杠杆。监管没到位,杠杆率又很高。
lg
...
金融界
2023-05-12
人工智能是新的
核
武
器
?李稻葵:需要高度重视物价指数偏冷,做好四件事中国经济潜在增速5.9%
go
lg
...
联邦预算。在他看来,人工智能相当于新的
核
武
器
,处理不好比气候变化风险还要大,比当下的国际政治、地缘政治还重要,中美需要在人工智能领域协商一致。 中国要做好四件事 1、短期适当帮助消费者,1块钱补贴能拉动4块钱消费 李稻葵分析,短期内需要适当帮助消费者,不能走以前一下滑就搞基建的老路子,因为总体上看基建的空间不是太大了。应该转变思路,适当维护一下消费者的信心。 他介绍,最近去上海系统调研一个星期,上海有个办法非常好,全国范围可以适当推广。上海拿出10个亿在支付环节补贴消费者,初步调研发现,拿出1块钱的补贴能拉动4块钱的消费,也就是10个亿补贴能带来40个亿消费。 李稻葵分析,就全国来看由于我们税收是流转税,40个亿经济活动至少30%是税收,那就12个亿,广义来看最后财政是上升的。这个帐应该全国来算,由中央财政推动地方政府来干这个事情。 2、开启地方债重组,类似20年期国有商业银行债务重组 李稻葵分析,第二个应该做的,紧迫性虽然没有第一个强,也非常重要,就是地方财政必须重组。 他分析,地方财政经过10几年,2007、2008年一轮一轮搞基建,广义地方债(包括地方投资平台)已经比GDP还高。这意味着,完全靠地方财政以及地方国有企业的盈利,已经不足以覆盖还利息的成本。还不要说还本,这是不可持续的。 李稻葵指出,这就造成这样的局面,地方政府头等大事就是债务延展,各式各样的债务,利率很高甚至两位数的利率,这个不能自欺欺人。 他建议,开启一个地方债重组的大的项目,类似于20年前搞的国有商业银行的债务重组。大的方向,给地方政府要建立新的规矩,以后发债必须通过一定的程序;同时,把相当一部分的地方债转到中央来,由国债发。大大降低融资成本,让地方政府更加专心维护经济发展、社会稳定,搞地方债的延展。 3、培育10万亿碳市场 李稻葵指出,碳市场10万亿规模,下一步必须要培育出来。他分析,现在一搞双碳都是各自为战,各个地方政府算,各个产业算,这是违反经济规律的。 “如果碳市场启动,一大批投资,很多绿色投资就有利可图了,很多企业家,很多投资者蜂拥而至,这件事刻不容缓,必须做,而且一定程度讲也能够改善我们的公共财政碳税。” 4、灵活退休体制 李稻葵表示,未来实行灵活退休的机制很有必。因为1963年出生的人今年就退休了,这批人数量是3000万,未来5年之内将有接近1.5亿人劳动人口退休,从交税社保到拿社保,这个事怎么办?强行让人不退休说不过去,因此要灵活退休,愿意继续工作的话,以后的退休金可以高一点,想按时退休就按照目前的退休金拿,这个改革一定要到位。 他提到,经过仔细的测算,中国人口确实在下降,但是如果考虑人口的质量和受教育水平,包括公共健康水平,我国的人力资源一直到2050年基本都是上升的,关键是怎么用好我们的人力资源,因此灵活退休非常重要。 他举例,很多国际一流的公司就是这么干的,领导干部、管理层按时退休,但是工程技术人员搞研发的随便干,你有经验继续干,这是很实事求是的措施。 李稻葵分析,如果上述四项改革能到位,2020到2030这10年潜在增长速度是5.9%。政府跟市场需要同向发力,政府要办好自己的事,启动市场、培育市场、匡正市场。 美国需要解决好金融稳定、联邦预算问题 李稻葵指出,美国的增长不用担心还是有活力的,但是需要解决金融稳定和联邦预算问题。 他分析,美国的命根子是美元的国际货币地位,一轮一轮折腾让其他国家降低了对美元的信任。美国要做到金融稳定,必须在政府与市场经济学里面找答案: 第一个问题,金融监管。1978年以来,每12年搞一次金融危机。原因在于,抓老鼠的猫跑不过老鼠,监管部门能力与金融创新机构的能力不匹配。最聪明的学生跑到华尔街去了,第二级当律师了,再往下才去了金融监管部门,完全是能力倒挂。能力倒挂很大程度上在于金融监管体系高度分散,形成不了高度职业感、高度荣誉感的机构。硅谷银行这么重要的银行出现问题,监管自己承认出了问题,美国必须要在金融监管问题上适当集中。 第二个问题,预算。李稻葵称,美国金融稳定搞不好,更大、更难的问题在预算。在他看来,美国民主是最糟糕的部分就是,联邦预算变成政治家地方选举的比武市场。 “当下一个重大问题,6月1号以前能不能提高债务上限,提高不了又搞一轮,类似于2011年搞的一次金融恐慌,完全是自杀式行为。”他指出。 人工智能是新的
核
武
器
?中美要在人工智能领域协商一致 演讲最后,李稻葵特别强调世界稳定,在他看来人工智能相当于新的
核
武
器
,中美要在人工智能领域协商一致,这件事比搞经济、国际政治、地缘政治还重要,“这是对人类负责”。 他分析,中美是人工智能最重要的国家,在算力、程序员、大数据方面,中美都是领先的国家。在不能排除人工智能对人类造成毁灭性、灾难性打击可能的前提下,中美一定要协商签署“人工智能宪法”,规范什么可以做、什么不可以做。
lg
...
金融界
2023-05-06
李稻葵:人工智能相当于新的
核
武
器
,中美一定要在这个问题上协商一致,比搞经济、地缘政治还重要
go
lg
...
。 李稻葵表示,人工智能相当于新的
核
武
器
,中美一定要在这个问题上协商、签署一个“人工智能宪法”,规范什么可以做、什么不可以做。他认为,这件事比搞经济、国际政治、地缘政治还重要,“这是对人类负责”。
lg
...
金融界
2023-05-06
拜登“打错了算盘”?!对华实施芯片出口管制,实际上影响却“微乎其微”
go
lg
...
实施微芯片出口管制,以冻结中国用于研发
核
武
器
的超级计算机以及ChatGPT等人工智能系统的开发,但这对中国科技行业的影响微乎其微。 这些规则限制了英伟达和 AM芯片的出货量,这些芯片已成为全球科技行业开发聊天机器人和其他人工智能系统的基础。但英伟达已经为中国市场开发了其芯片的“变体”,这些低配版本可以满足美国的规定。 周三(5月3日),行业专家告诉路透社,最新款Nvidia H800于3月发布,执行某些AI任务的时间可能会延长10%至30%,与英伟达最快的美国芯片相比,成本可能会增加一倍。 即使是使用低配的英伟达芯片也代表着中国公司的进步。中国最大的科技公司之一腾讯控股在4月份估计,使用Nvidia H800的系统将把其最大的人工智能系统的训练时间从11天减少到4天,缩短一半以上。 86Research的上海分析师Charlie Chai说:“与我们交谈的人工智能公司似乎认为障碍相对较小且可控。” 政府与行业之间的来来回回,暴露了美国在不伤害美国公司的情况下减缓中国高科技进步所面临的挑战。美国制定规则的部分策略是避免中国人完全放弃美国芯片,并加倍自己的芯片开发。 一位不愿透露姓名的芯片行业高管表示:“他们必须在某个地方划清界限,无论划在哪里,他们都将面临如何不立即造成破坏,但如何随着时间的推移削弱中国能力的挑战。” 出口限制有两部分。第一个限制了芯片计算极其精确数字的能力,该措施旨在限制可用于军事研究的超级计算机。芯片行业消息人士称,这是一项有效的行动。 但是计算极其精确的数字在AI工作中不太重要,例如大型语言模型,在这些工作中芯片可以处理的数据量更为重要。 英伟达将Nvidia H800出售给中国最大的科技公司,包括腾讯、阿里巴巴集团控股有限公司和百度公司,用于此类工作,但尚未开始大量运送芯片。 英伟达上周在一份声明中表示:“政府无意损害竞争或美国工业,并允许美国公司为商业活动提供产品,例如为消费者提供云服务。” 它补充说,中国是美国技术的重要客户。 英伟达上周表示:“去年10月份的出口管制要求我们生产的产品在两个市场之间的差距不断扩大。我们遵守法规,同时在每个市场提供尽可能具有竞争力的产品。” 英伟达 首席科学家Bill Dally本周在另一份声明中表示,随着培训需求继续每6到12个月翻一番,这种差距将随着时间的推移而迅速扩大。 美国商务部负责监督规则的部门工业和安全局的发言人没有回复置评请求。 美国的第二个限制是芯片到芯片的传输速度,这确实会影响人工智能。ChatGPT等技术背后的模型太大,无法放在单个芯片上。相反,它们必须分布在许多芯片上,通常是一次数千个,因为它们都需要相互通信。 英伟达尚未透露中国独有的H800芯片的性能细节,但路透社看到的一份规格表显示芯片到芯片的速度为400GB/秒,不到在中国境外可用H100芯片900 GB/秒峰值速度的一半。 人工智能行业的一些人认为,这仍然是足够的速度。Naveen Rao是一家名为MosaicML的初创公司的首席执行官,该公司专门帮助AI模型在有限的硬件上更好地运行。 他说:“估计系统速度会降低 10-30%,有一些方法可以通过算法解决所有这些问题。我认为这在很长一段时间内都不会成为界限,比如10年。” 中国的芯片完成人工智能训练任务的时间是更快的美国芯片的两倍,但仍然可以完成工作。 一位因与合作伙伴达成协议而要求匿名的业内人士表示:“到那时,你必须花费2000万美元而不是1000万美元来训练它。这很糟糕吗?是的。但这是否意味着这对阿里巴巴或百度来说是不可能的?不,这不是问题。” 此外,AI研究人员正试图精简他们构建的庞大系统,以降低类似于ChatGPT和其他流程的培训产品的成本。这些将需要更少的芯片,减少芯片与芯片之间的通信,减少美国速度限制的影响。 两年前,业界认为AI模型会变得越来越大,Anyscale的软件工程师Cade Daniel表示:“如果今天仍然如此,那么这种出口限制将产生更大的影响,这种出口限制很明显,但它并没有像它本应具有的那样具有破坏性。” Anyscale是旧金山一家提供软件以帮助公司执行AI工作的初创公司。
lg
...
Peng
2023-05-03
上一页
1
•••
25
26
27
28
29
•••
57
下一页
24小时热点
中国房地产突传“撤资”利空!新加坡资管巨头:将大幅削减对华仓位……
lg
...
市场周评:俄乌冲突骤然升级!普京重大宣布 金价暴涨近153美元 油价飙升逾6%
lg
...
中美重磅!彭博专栏:特朗普贸易战曾让中国措手不及 但中国领导人这次准备好了
lg
...
金价惊人暴涨后技术面大变脸!FXStreet分析师黄金下周预测 这些因素恐引爆行情
lg
...
重磅!特朗普提名这位对冲基金经理为财政部长 将负责执行提高关税和减税
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1326讨论
#VIP会员尊享#
lg
...
1495讨论
#比特币最新消息#
lg
...
602讨论