全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
被神话的GPT 造不出你的梦中神车
go
lg
...
度学习的神经网络架构,由谷歌的8位AI
科
学
家
在2017年提出。这是人工智能行业极其重要的一项发明,今天大火的ChatGPT中的“T”,就是指Transformer大模型。 与传统神经网络RNN和CNN不同,Transformer通过自我注意力机制,去挖掘序列中不同元素的联系及相关性,具有很好的时序数据处理能力。这让它在机器翻译、文本摘要、问答系统等任务上,展现出突出的性能。 因此Transformer一开始被人们用在NLP(高级自然语言处理)领域,用于理解人类的文本和语言。 在Transformer模型上进行预训练,经过不断的微调、迭代,OpenAI相继推出了GPT-1、GPT-2、GPT-3、GPT-4等语言训练大模型。ChatGPT是OpenAI对GPT-3模型微调后开发出来的对话机器人。由于它能以对话的方式进行交互,普通人很好上手,且比过去的聊天机器人显得更“聪明”,因此大放异彩。 从根本上,ChatGPT的GPT模型、谷歌的LaMDA大模型,以及百度的文心大模型,同宗同源。 将Transformer模型用于自然语言,诞生了ChatGPT这样的聊天应用;将它用在计算机视觉,同样取得了惊人的效果,这方面的先行者是特斯拉。 Andrej Karpathy在担任特斯拉AI总监期间,负责领导自动驾驶的计算机视觉团队,通过结合Transformer模型,特斯拉成功开发出BEV技术。 BEV全称是Bird's Eye View,即鸟瞰图。它可以将摄像头拍摄的2D图像拼接转化为3D图像,统一转换到俯视角度下进行处理,形成“上帝视角”。这么做的原因是:开车是在三维空间中进行的,人看到的是立体的世界,而不是2D的图像。 这项全新的感知方案,在2021年8月的特斯拉AI DAY上由Andrej Karpathy对外展示。为此特斯拉不惜重写了自动驾驶算法,对训练深度神经网络的基础设施进行了重构。 这是大模型技术首次被应用到自动驾驶行业。 今天回过头来看,虽然GPT目前主要应用在自然语言处理领域,我们并不能让GPT去驾驶一辆汽车,但它背后的AI大模型技术,尤其是Transformer架构,实际上早就已经在自动驾驶领域应用了。 从自然语言处理到计算机视觉,两个领域基于Transformer架构在建模结构上实现了统一,使联合建模更加容易。 而随着对AI的理解加深,汽车公司越来越像人工智能公司。除了特斯拉,理想汽车在今年初公布公司愿景,声称要在2030年成为一家人工智能企业。它将在今年推出的城市NOA导航辅助驾驶系统,技术支撑就是BEV感知和Transformer模型。 让AI跟人对话,与让AI驾驶一辆汽车,似乎本质上并无区别,只是二者落地场景不同。在将底层技术应用到具体产品这件事上,人类永远充满想象力。 GPT教会自动驾驶的那些事 今年以来,GPT展现出来的强大能力,让外界大受震撼。通用人工智能不再是空中楼阁。自动驾驶行业的人开始思考,或许生成式AI在语言模型上的应用思路,可以迁移到自动驾驶上。 本质上,语言模型是对人类的语言建立的数学模型。计算机还是不懂自然语言,但它通过数学建模,把语言问题变成了数学问题。通过给定的文本的历史,预测下一个词出现的概率,间接地理解了自然语言。 换到驾驶场景,如果给定当前的交通环境,给定一个导航地图,以及一个驾驶员驾驶行为的历史,那么,大模型是不是可以预测下一个驾驶动作? 地平线创始人余凯在今年4月举办的电动汽车百人会论坛上说,ChatGPT给他很大启发,“我们要继续用大数据、更大的数据、更大的模型,并且无监督地去学习人类驾驶的尝试,就像你从大量的、无监督的、没有标注的自然文本里去学习一样”。他认为,每个驾驶员驾驶控制的序列,就像我们的自然语言文本一样。下一步,他想构建一个回归自动驾驶的大语言模型。 理论上,这个思路是可行的。人工智能已经具备学习能力。根据自适应的语言模型,机器会根据用户的反馈不断迭代优化,学习用户的习惯,然后改进模型。现在的ChatGPT就运用了这项技术。那么,让机器学习司机的驾驶习惯,就不是一件很难的事情。 特斯拉的影子模式,就是把真人司机的驾驶数据,投喂给机器学习。通过比对人类驾驶员行为,来达到训练算法的目的。 GPT掀起新一轮AI热潮后,对行业造成的一个认知冲击是,通过把模型的参数规模不断变大,数据量指数型增加,也就是所谓的大模型,在达到某个临界点后,模型会突然变得很聪明。 过去,模型在训练阶段需要的数据,是经过人工标注的。以自动驾驶为例,数据标注员通过大量的图片标注,告诉机器什么是猫,什么是狗,猫和狗各有多少种类。标注员就像是机器的老师,一遍一遍教会它认识这个世界。 问题是,老师没教过的东西,机器还是不会。典型的是特斯拉曾多次发生自动驾驶事故,车辆撞上侧翻的大卡车,因为机器识别不了。 和高资本创始合伙人何宇华对深途举过这样一个例子:广州的夏季雨天频繁,在一些灯光比较昏暗的场景下,空中会有大量的飞虫。当汽车驶过时,灯光打过去,可能会有数以千计的飞虫撞向车头。在这种情况下,汽车的自动驾驶感知系统,可能会误认为是一堵墙。 自动驾驶系统不能穷尽所有的corner case(极端场景),是其发展路上的一大难关。 ChatGPT抓取的是全网未标记的数据。在自监督学习中,数据本身被用作监督信号,而不是依赖于人工标记的标签。有一天人们发现,大模型在消化这些数据的过程中,突然具备了举一反三的能力。 那么,如果自动驾驶大模型也能无监督地学习人类驾驶行为,不需要“老师”手把手地教,是不是意味着,系统摇身一变,成了“老司机”? GPT“开车”,还不靠谱 梦想很美好,实现梦想的路总是很骨感。 类似ChatGPT的AI大模型要在自动驾驶领域发挥威力,目前来看至少有如下几个问题需要解决。 首先是数据来源。 ChatGPT的数据来源非常丰富,包括维基百科、书籍、新闻文章、科学期刊等等,相当于全网公开数据都是它的养料。 自动驾驶不同。驾驶员的驾驶数据、车辆行驶数据不公开,很多还涉及隐私。汽车厂商、自动驾驶公司各自为政,数据封闭不流通,这让获取数据变得困难。没有数据,自动驾驶就是无源之水。 联想创投总裁贺志强对深途说,自动驾驶的核心是要有数据,数据对训练模型非常重要。比亚迪这样的主机厂有数据,但算法还需要打磨,“蔚小理”等造车新势力擅长算法,但车的销量还不够。既有数据也有算法的公司,才能充分用好大模型。 其次是系统的计算部署方式有限制。 余凯认为,OpenAI、ChatGPT是在云端的计算,在云端有充分的能量供给、电源供给,同时有非常好的系统,可是如果在车上依赖的是电池,依赖的是车端的散热,那么这个挑战是很大的,意味着自动驾驶不能用那么大的模型、那么大的计算。 大模型对算力的消耗,导致云计算厂商成为这波AI热潮中第一批吃到红利的玩家。大厂开卷云计算,也是为大模型开路。但是在车端,这会是一个矛盾。 更大的问题是,大模型的可靠性尚未验证。 使用过ChatGPT的人知道,ChatGPT有时候会胡说八道,时对时错。这在业内被称为幻觉(hallucination)倾向,即产生完全没有出处的非真实内容。大模型会编造内容,而不在意内容的真实性和准确性。 聊天可以胡说八道,自动驾驶不可以。任何一次错误的输出,导致的结果都可能是致命的。 “ChatGPT取得巨大进展,但自动驾驶迟迟没有到来,因为自动驾驶特别是无人驾驶,可能容错率就是零,那是人命关天的事情。”余凯说。 曾在硅谷某AI创业公司担任COO的龙志勇认为,不可控、不可预测和不可靠,是大模型商业化最大的威胁。典型表现是大模型有幻觉倾向。 现在,要让自动驾驶系统学会选择和辨别,并稳定地输出最优解,还不太现实。 一家人工智能公司的内部人士对深途说:“视觉感知在算法层面的确有不少突破。但车这种场景,要求太高了,我个人不觉得短期能有大的突破。可以关注一下特斯拉的动向。” 然而最近科技圈有一股风气,大大小小的公司,都要蹭一把GPT的热点。有一些汽车厂商,宣布即将应用类似GPT的技术,一堆炫酷的概念让人傻傻分不清楚。 比如某传统车企旗下的自动驾驶公司,就发布了一个自动驾驶生成式大模型,要用这个模型来训练自动驾驶,号称“行业首例”。 一位长期关注智能汽车赛道的投资人,询问一位行业大佬怎么看该模型,对方就回了四个字:“TM扯淡。” “完全就是一个PR行为。”这位投资人对深途评价。 自动驾驶,会被推倒重来吗? 在特斯拉的带动下,再叠加今年兴起的AI浪潮,自动驾驶行业逐渐向大模型、大算力、大数据方向不断靠近。 大模型对自动驾驶的影响,目前还不够剧烈,但嗅觉敏锐的人已经呈现出一种矛盾心态。 就像当年特斯拉利用Transformer将多摄像机数据从图像空间转化为BEV空间,为此不惜将原有架构推翻,重写算法。现在大模型的应用,也可能意味着原有自动驾驶算法,会被推倒重来。 贺志强认为,大模型会对自动驾驶有巨大影响。以前自动驾驶用到很多小模型,现在变成大模型,可能需要重新来一遍。自动驾驶行业会重新洗牌。 一家AI芯片公司的自动驾驶总监赵东翔对深途说,整体端到端更改,等于重新做。 洗牌对新入局者是机会,对领先者是威胁。弯道超车的故事,往往发生在技术急速变革时期。在技术一日千里的时代,在旧路线投入越多,沉没成本可能越大,转身越困难。对于整车厂或自动驾驶公司而言,要拥抱一项新技术,不仅要考虑效果,还要考虑成本。 赵东翔表示,就当前阶段而言,自动驾驶变换技术路线没意义,“现在行业技术能力也不差,大家花那么多钱做了那么久,没有大幅度提高的话没有换的动力。” 在去年底的AI DAY上,特斯拉将BEV升级到占用网络(occupancy network),泛化能力得到进一步提升。通过占用网络,特斯拉的自动驾驶感知系统可以不需要知道看到的物体是什么,就可以判断是否需要躲避,由此解决了更多长尾问题。 不论何种技术路线,现在都处于快速变化迭代中。过去的小模型可能会被大模型替代,今天的大模型也可能在未来被某种新物种替代。 但不管怎样,蹭热点、制造噱头的做法,是无益于技术进步的。“蹭热度是陋习,踏踏实实做产品才有用。”赵东翔说。 自动驾驶真正的“王炸”,还远没有到来。我们需要做的,是对每一轮技术变革保持敬畏之心。被神话的GPT,造不出你的梦中神车,但至少,变化已经发生了。 来源:金色财经
lg
...
金色财经
2023-06-10
撤离中国!微软正将顶尖中国AI研究人员调往加拿大:“派到中国有风险”
go
lg
...
高科技研究人员回到内地。 由台湾计算机
科
学
家
李开复创立的MSRA一直是中国科技人才的重要培训中心。其校友名单包括阿里云创始人王坚、商汤科技首席执行官徐立和人工智能集团旷视科技负责人印奇。 “MSRA对人工智能的贡献是惊人的,”一位曾与微软合作过的中国科技顾问表示。“它已经在这个领域工作了很长时间。许多前同事都加入了中国的科技公司,推动了中国整个人工智能生态系统的发展。” 微软进入中国已有30多年的历史。在谷歌(Google)、eBay、Facebook和优步(Uber)等其他西方科技集团因竞争或监管而被迫退出之际,微软在中国仍保持着强大的影响力。 微软开发了受欢迎的本地化产品,包括其旗舰Office和Windows软件包,以及必应(Bing)搜索引擎。 根据微软去年9月发布的一篇帖子,微软在中国拥有9000名员工,其中逾80%是软件工程师或从事研发工作。该公司还宣布计划在中国再招聘1000名员工。 但中国有很大一部分工程人才从事全球产品的研发,如果中美关系进一步恶化,这可能会给这家美国公司带来越来越大的问题。一位接近该公司的人士表示,未来这些有才华的工程师中,有一些可能也会被调离中国。 今年5月,微软旗下的领英(LinkedIn)在宣布关闭面向中国用户的求职网站InCareer后,对其中国办事处进行了裁员。InCareer在2021年取代了这家专业社交网站。 MSRA是中美两国在高科技研究领域合作的一个罕见例子。但两名研究人员表示,这两个大国之间不断恶化的关系,以及对各自科技野心的偏执加剧,缩小了它们与西方同行合作的能力,并使它们受到中国官员更严格的审查。 在英国《金融时报》报道该研究所与一所中国军方管理的大学合作进行可用于监视和审查的人工智能研究后,该研究所受到了华盛顿方面的批评。 “过去两年,人工智能已成为一个所谓的敏感领域,”一位申请加拿大签证的微软中国研究人员表示。“以前,作为一名在美国机构工作的中国人,意味着可以从两国获得大量资源。交流的空间正在缩小。”
lg
...
夏洛特
1评论
2023-06-10
史上首个!会颤抖、会出汗、会呼吸……
go
lg
...
在,这个印象恐怕得改一改了—— 最近,
科
学
家
们设计出了全世界第一个可以像人类一样会出汗、颤抖和呼吸的机器人…… 喏,就是它了,机器人ANDI↓ ANDI身上不仅有可以使它行走的关节,还有其他机器人身上都没有的东西——它浑身上下还有35块可以独立控制的“皮肤”,上面还有可以排汗的毛孔。 就这么说吧,工作中的ANDI就像是一个闷热环境下大汗淋漓的真实的人类—— 每当天气过于炎热时,ANDI就会大量出汗来帮身体降温,如果温度再高的话,它甚至还会出现呼吸急促的情况…… 现在你一定会很好奇:为什么要创造会出汗的机器人吧? 美国亚利桑那州立大学的研究人员表示,他们正在利用ANDI来测试极端高温对人类的影响,以此来了解我们的身体对于极端热浪天气的忍耐力。 “你总不能把一个人放在危险的极端高温环境中,然后测试会发生什么吧,”亚利桑那州立大学的大气
科
学
家
Jenni Vanos表示,“但ANDI可以帮我们弄清这一点。” 据报道,在美国每年都有数千人死于中暑或由中暑引发的各种疾病,并且这个数字还随着气候的变化还在不断上升中。例如仅在亚利桑那州马里科帕县,2022年一年就有425人死于与高温有关的疾病,比前一年报告的数字还要多一百多。 值得一提的是,ANDI还可以根据不同的年龄、体型或者身体状况进行设置,来获取不同的人在极端热浪或其他恶劣条件下的反应。 比如,科研人员甚至创造出了一个婴儿人体模型。 Emm,虽然它能给研究人员提供多少帮助还不知道,但它绝对有可能成为你的噩梦…… 不知道是不是这个史上首个“会发抖、会出汗、会呼吸”的机器人的样子看着太吓人了,总之不少网友都被这个ANDI给吓到了: 不不不,快停止。 太吓人了,到底是为啥啊 或许是,当科技发展到一个机器人能如此接近人时,有人想到了不少影视剧中的场景,也会害怕这些场景会在现实中真实上演吧…… 例如,美剧《西部世界》讲述了由一座巨型高科技以西部世界为主题的成人乐园,提供给游客杀戮与性欲的满足,随着接待员有了自主意识和思维,他们开始怀疑这个世界的本质,进而觉醒并反抗人类的故事。 因此,有网友提出了更可怕的设想: 但为什么呢?说真的不如研究下帮助人类治疗癌症的方法,而不是试图让人类被血腥机器人杀死! 20年后,他们可能会和人类竞争。 的确,随着科技的迅速发展,它对人类的影响也越来越大。 不论之前就火过好一阵子的ChatGPT,亦或是前两天苹果公司才刚推出的“将显示世界与数字世界无缝融合”的、名为Vision Pro的混合现实头显等等,都极大地改变着我们生活的世界。 所以,未来会是机器人“反噬人类”还是更好地帮助人类的世界,你怎么看呢?
lg
...
加拿大乐活网
2023-06-10
国务院国资委与中国科学院签署战略合作协议
go
lg
...
础性、关键性、前瞻性重大科技问题,推动
科
学
家
与产业工程师协力开展原创性引领性攻关,解决“卡脖子”难题,抢占关键技术制高点。
lg
...
金融界
2023-06-09
新冠可导致癌症?最新研究:新冠重症或是“未确诊癌症”标志
go
lg
...
一项标志。 据中国《科技日报》报道,有
科
学
家
日前首次在新冠病毒重症患者与未确诊癌症患者之间建立联系,认为“新冠重症可能是未确诊癌症的一项标志”。 学术期刊《科学报告》(Scientific Reports)日前刊登一项最新研究,来自法国国家药品和健康产品安全局、法国国家健康保险基金组成的科研小组Epi-Phare,与日内瓦全球健康研究所和日内瓦大学组成联合研究团队,比较了41302名因感染新冠病毒接受重症监护的患者和713670名来自相同地区、年龄、性别且没有因新冠入院治疗的对照组。 结果表明,因新冠重症而住院的患者在接下来的几个月中被诊断出患有癌症的风险陡增31%。在接下来的几个月里,他们中有2.2%被诊断出患有癌症,而对照组的这一比例为1.5%。所患癌症中,肾癌、结肠癌、肺癌或血液癌的风险更高。 《科技日报》报道称,该研究未证明新冠重症与癌症之间存在“因果关系”,但新冠重症“可能是未确诊癌症的一项标志”,即尚未确诊的癌症患者可能有更高风险因感染新冠病毒而导致重症。 近日,在2023大湾区科学论坛上,钟南山院士介绍,当前一位奥密克戎感染者可传染30多人,中国疫情防控战略已经从过去的预防感染调整为现在的预防重症,新冠二次感染后,要及时使用抗病毒药物防重症。 根据中国《新型冠状病毒感染诊疗方案(试行第十版)》,新冠重症高风险人群包括:65岁及以上老年人,尤其是合并基础疾病(包括心脑血管疾病、糖尿病、慢性肺病,慢性肝脏和肾病、肿瘤等),以及透析患者,免疫功能缺陷(如艾滋病患者、长期使用皮质类固醇等);肥胖和孕期女性;重度吸烟者等高风险人群。 北京大学第一医院感染疾病科主任王贵强在国务院联防联控机制回应中表示,从研究数据看,反复感染新冠病毒对重症高风险人群可能有一定影响,包括加重心脑血管疾病、糖尿病的风险等,这部分人群应特别注重做好科学防护。
lg
...
晴天云
2023-06-09
AI游戏剑已出鞘 英伟达、网易、字节纷纷入局
go
lg
...
最近,英伟达首席
科
学
家
Jim Fan等人给游戏行业来了点“科技与狠活”的震撼,竟然把GPT-4装进了“我的世界”(Minecraft),催生出了一个全新的性能完胜AutoGPT的AI智能体——Voyager。 有趣的是,它不仅可以根据游戏的反馈自主训练,而且还能够自行写代码推动游戏任务,在游戏中进行全场景的终身学习,用一个词概括就是:自学成才。因此,网友们大胆推测:未来的游戏,就是由大模型带动NPC来玩的吧? Voyager的出现,引爆了游戏科技创新的新思路——将人工智能技术融入游戏的设计与规则当中,建立一种新的交互和探索方式。 随着AI技术的“爆发式”发展,AIGC与游戏产业的深度结合也受到了前所未有的关注。从PC游戏到手机游戏再到VR游戏,每次游戏形态的变化都是基于技术的一次重大革新。 如今,通过AIGC的先进技术,游戏设计者可以为游戏发烧友们打造更加精细、多样化的沉浸式游戏世界,从而提升其游戏的品质和用户体验。 AI+游戏,蓄势待发 为了实现更加深度和广度的游戏创新,游戏的制作层面也需要遵循一定的流程和标准,以保证质量和效率。一般来说,游戏制作流程大致分为立项、设计、开发、发布、运营几个部分。 立项阶段需要确定游戏的类型、风格、目标用户、市场竞争力等要素;设计阶段是对游戏的核心玩法、剧情故事等进行详细的设计和描述;开发阶段是利用游戏引擎和工具,将游戏设计的内容用程序代码实现;发布阶段是将游戏上架到各个平台,进行市场推广和宣传;最后则是游戏正式上线后的运营阶段,需要企业持续地进行数据分析、用户反馈、内容更新等。 而AI与流程中各个阶段的结合将极大地提升游戏制作的生产效率、标准化方面,并激发新玩法的产生,给玩家带来新的乐趣。 为了让AI能够更好地来辅助游戏制作的各个环节,这里将介绍一些利用AI进行游戏制作所需的技术支撑: ◉ AI策划 提到策划,自然少不了强大的AI辅助工具ChatGPT。利用ChatGPT进行游戏策划,可以大致分为两个思路,一是文本,二是代码。 一方面,从ChatGPT擅长的文本生成能力出发,用来生成游戏的剧情、对话、任务、角色设定等文本内容,为游戏策划提供灵感和参考。 另一方面,利用ChatGPT的代码生成能力,用来生成游戏的UI、音效、动画等代码内容,为游戏策划提供便利和效率。除了ChatGPT之外,Inworld也可以帮助创作者创建出有趣和有生命力的角色。 Inworld提供了一个AI虚拟角色的创建平台,用户可以借助该平台快速生成并在游戏中应用AI角色。同时,因为Inworld基于GPT-3来构建系统,所以能够通过prompt生成具有记忆、个性和实时交互能力的虚拟角色,并使用Inworld SDKs将这些AI角色进行整合。 还有其他AI工具,例如文心一言和通义千问,能够使创作者方便、快捷、低成本地构建模型,也是AI游戏策划的不错选择。 ◉ AI美术 如果说ChatGPT是AI策划的“神器”,那么Midjourney就是AI美术的“法宝”。 Midjourney是一款AI生成算图工具,输入文字就会产生图像,它在图片领域给众人带来的震撼,以及它对设计领域的颠覆,完全不亚于ChatGPT对文字领域的重塑和解构。 在游戏开发领域,Midjourney可以根据用户输入的文字或内容,自动生成各种游戏元素,包括: 游戏素材:像素艺术、卡通风格、写实风格等; 游戏场景:赛博朋克、奇幻世界、恐怖氛围等; 游戏角色:人物、动物、怪物等; 游戏特效:火焰、冰霜、闪电等。 和Midjourney有所不同,Stable Diffusion可以为创作者提供更高质量和更高分辨率的图像。它是一种基于扩散过程的图像生成模型,通过模拟扩散过程,将噪声图像逐渐转化为目标图像。这种模型具有较强的稳定性和可控性,可以生成具有多样化效果和良好视觉效果的图像。 除此之外,Stable Diffusion可以通过生成多样化、修复损坏的图像、应用特定风格到图像上等方式,辅助视觉创意的实现,这些功能都将为游戏创作者提供更多的创作工具和素材。 同样具有美术创作功能的AI工具还有NovelAI、Segment Anything、Avatar Cloud Engine(ACE) for Games等,这些工具能够很好地掌握画面的整体风格并创作出相似画风的各种作品,创作者可根据自身需求自行进行选择。 ◉ AI音频 除了美术创作,音频创作也是游戏制作中不可或缺的一个环节。幸运的是,AI工具在这方面也可以给创作者提供强大的支持和帮助。 利用AI工具进行音频创作可以节省创作者的时间和成本、提高创意和效率、拓展音乐的可能性和多样性。例如能在几秒钟内制作原创歌曲的Boomy、可以为不同的用户和场景提供定制化音乐Mubert、能够根据文本生成高保真音乐的MusicLM等。 ◉ AI编程 在编程领域,虽然AI目前还不足以完全替代程序员来编写复杂的游戏客户端,但它可以辅助程序员生成一部分简单的代码或基于已有的代码进行拓展。例如,游戏创作者可以利用GitHub Copilot来编写游戏逻辑、优化代码、测试与迭代等,也可以利用GPT-4的代码生成能力来创建完整的程序或代码片段。 AIGC,方兴未艾 AI技术的勃兴为游戏行业悄然向AIGC转变提供了基石。无论是游戏公司,还是游戏发烧友,又或者是技术爱好者与研究人员等,都乐此不疲参与其中。我们将分享国内外一些有趣的案例,供大家了解目前的实际应用情况。 ◉ 国外创新涌现 游戏本身所追求的虚拟空间中强沉浸感与AI在泛媒体中的应用不谋而合。在过往时光,《Roblox》、《我的世界》、《塞尔达》、《动物森友会》、《模拟人生》等拥有自由开放的虚拟世界的游戏赢得了世界范围内玩家的买单。 他们中的一部分属于元宇宙游戏的范畴,但还未在游戏制作层面真正应用AI技术。而新秀AI公司绝大部分都在海外地区,这也为海外游戏行业学习技术提供了方便。 早在2018年,R星出品的《荒野大镖客2(Red Dead Redemption 2)》就以其高智能NPC与真实的人机交互轰动业界,玩家完全能体会到真正的《西部世界》并参与其中。 但部分游戏高玩不满足于此,例如《骑马与砍杀2:霸主(Mount & Blade II: Bannerlord)》中一位名叫Bloc的玩家就开发出一款基于ChatGPT的对话MOD,能够实现NPC根据玩家的提问进行动态反馈。 同样的尝试还发生在学术界内。斯坦福大学的一个研究团队与谷歌合作创建了一个名为Smallville的游戏Demo,并发表于学术论文《Generative Agents: Interactive Simulacra of Human Behavior》中。 该试玩版本将ChatGPT的数据库与自定义代码结合制作出25个独立NPC,从而突破固定脚本与无记忆特征的游戏AI行为逻辑。游戏风格类似《星露谷物语》,玩法近似《模拟人生》,但NPC变得更为身临其境,也能够模拟人类行为并测试社会系统与理论。 除了让游戏NPC更类人,英伟达的首席
科
学
家
Jim Fan等人另辟蹊径,直接把GPT-4引入《我的世界》,制造出一个能够自我探索、自我学习、自我发现的AI高玩。是的,不仅是游戏开发者,游戏玩家也将面临来自AI的挑战。 实际上之前有过构建通用智能体的尝试,但始终无法像人类一样具备终身学习能力。Voyager不仅能在GPT-4的反馈下实时改进,还能够积累经验到技能库中实现长久记忆。 Voyager作为首个由LLM驱动的通用智能体,无需调整模型参数就表现出超强的学习能力与对游戏的熟练深度,是不止于游戏领域开发通用智能体的起点。 ◉ 国内实践频繁 如果说国外游戏业界让我们看到了AI+Game的前沿性,那么国内游戏圈则展现了实践操作的多样性。 有人一石激起千层浪。名不见经传的超参数科技在发布“活的长安城”技术Demo后,可谓是一战成名。Demo视频形象展现了拟真“AI社会”的运转,并介绍了其自研的GAEA技术,主打让虚拟场景与NPC“活起来”。 有人紧锣密鼓筹备不停。由字节跳动旗下品牌朝夕光年江南工作室研发的《星球:重启》曾获得刘慈欣颁发的华语科幻星云奖,领奖者便是游戏内应用英伟达技术研发的数字人+智能NPC李星澜。 该工作室曾打造出A-SOUL头部虚拟偶像产品,并为游戏生成了数百位智能NPC。该作此前已在港澳台公测,并将于今年在内地公测。 有人仰望天空心怀大地。值得关注的还有引入数字疗法的《AI星河》,该项目脱胎于盛趣游戏“GAME+实验室”,后由世纪华通投资的数药智能研发,针对儿童孤独症制作虚拟现实老师进行康复训练,并提供沉浸式教育场景,寓教于乐。 无论是AI+医疗的脑机接口,还是Game+医疗的各种游戏项目,都是业内近来发展风向之一,我们亦期待三者结合后给社会带来的直接正向作用。 有人断臂后孤注一掷。一边是此前仙剑IP单机团队解散的说法已被知情人士证实,另一边是中手游跟风开放世界+MMO品类,花3亿巨资研发《仙剑世界》,并与微软Azure OpenAI、百度文心一言联合,实现高交互NPC,提供“万物皆可交互”的沉浸式体验。 除了高自由度的开放世界游戏本体,该游戏还将搭建出“仙剑灵境”,用户可以在个人家园娱乐,也可以共建空间,官方更是宣称为国内首款元宇宙国风游戏平台。该游戏预计在今年6月进行首次测试,并于7月放出元宇宙相关概念CG,我们拭目以待。 有人剑已出鞘锋芒毕露。当一些游戏玩家还对AI+Game持有怀疑画饼想法时,网易《逆水寒》手游早已再三测试,即将在6月底进行公测,受到国内外诸多媒体关注。 众所周知,《逆水寒》当年以“会呼吸的江湖”一句宣传语而闻名,再经王思聪、PDD等知名玩家的分享交流,曾火爆一时。虽然端游曾因定价高昂引发许多舆论哗然,但其一直在新兴技术领域进行着各种尝试,比如曾在游戏内基于区块链技术发行全新虚拟资产——伏羲通宝。 而《逆水寒手游》更是表示将是国内第一个实装与ChatGPT同源的游戏GPT,主要应用在主城几百位NPC上,不仅会与玩家进行各种交互,还能实现智能NPC相互沟通并储存记忆,此外还提供了NPC陪玩的功能,解决玩家游戏中的“社恐”。 游戏更号称要做AI技术X传统文化正向运用倡导者,创新使用AI文字捏脸,提供了AIGC地图生成道具提笔成川,可供玩家一键生成3D专属场景,以及在超过40个游戏内景点设置AI作词打卡点并自动生成诗画截图。 AI好比《重返未来:1999》的一场暴雨,它难以躲避,而我们都是行人,它能带我们重塑尘封的历史,亦能将我们指向崭新的未来。 拥抱AI,拥抱未来 科技浪潮势不可挡,AI的加持不可否认的是能够降低游戏的制作成本,提高游戏的品质、游戏的可玩性、游戏的安全性以及内容的丰富性等,但是游戏开发者们也会担忧自己是否会被AI取代?也许在未来,它可以参与游戏开发的某些方面。但是目前而言,还不能完全代替人类开发游戏。 因为游戏的开发需要大量的创造力、想象力和审美能力,这些是AI目前还无法完全替代的。并且,游戏开发还需要涉及到复杂的人际交往和协作。因此,尽管AI可以在游戏开发的某些方面提供帮助,但是游戏开发仍需要人类主观的的创造力和协作能力。 AIGC的应用引领着游戏产业的迭代升级,从UGC向AIGC转变,游戏行业也面临着一些新的思考。AIGC可以帮助游戏开发者更好地理解玩家的需求,并且可以根据玩家的行为来调整游戏规则,使得游戏更加公平。此外,AIGC还可以帮助游戏开发者根据玩家的行为来调整游戏内容,使得游戏更加有趣。 然而,AIGC也面临着一些新的问题。首先,AIGC需要大量的数据来进行训练,这意味着需要大量的时间和资源来进行训练;其次,AIGC在处理复杂问题时可能会出现错误;最后,AIGC可能会受到一些限制,例如计算能力和存储容量等方面。 总之,从UGC向AIGC转变是一个必然趋势。随着人工智能技术的不断发展,拥抱AI就是拥抱未来,我们相信人工智能将会在游戏中扮演越来越重要的角色。 【声明】:本文为元宇宙之心运营团队原创,未经允许严禁转载,如需转载请联系我们,文章版权和最终解释权归元宇宙之心所有。 来源:金色财经
lg
...
金色财经
2023-06-08
研究人员:中国的新冠疫情可能每六个月爆发一次 “我们将反复感染”
go
lg
...
这波浪潮中再次感染,总计超过4亿人。
科
学
家
们说,鉴于感染周期将继续发生,拥有一个良好的监测系统来监测和跟踪新出现的病毒变体非常重要。Mokdad说,一个新的变种可能取代现有的变种仍然是一个问题。“想象一下具有XBB传播能力的Delta型变体。这将给我们造成很大的损失。” 追踪病毒的进化也意味着
科
学
家
可以相应地更新加强剂疫苗。 面对持续的感染浪潮,包括北京和上海在内的中国几个主要城市已经开始为居民接种由神州细胞生产的四价加强剂。该疫苗于今年3月首次获批用于紧急用途,旨在提供针对甲型、乙型、德尔塔和奥密克戎BA.1冠状病毒变体的广谱保护。神州细胞上个月宣布,使用这种疫苗的一次加强注射可以预防82%的SARS-CoV-2感染,包括XBB引起的感染,持续时间长达4个月。该疫苗临床试验的最终结果尚未公布。 钟南山说,中国正在开发针对XBB的疫苗。虽然目前的疫苗可以提供很好的保护,防止严重疾病和死亡,但它们在提供长期的感染保护方面并不很好。“但这并不意味着我们应该放弃。反复感染,即使是像XBB这样的轻微病毒,仍然会导致像长新冠这样的健康问题。弱势群体,如老年人,仍然有患重病的风险,”曹云龙说。
lg
...
财经风云
2023-06-08
行业报告 | 2023年5月全球AIGC行业月报
go
lg
...
。此外,卢志武同时兼任软通动力首席AI
科
学
家
。 智子引擎是一家多模态大模型研究和开发商,发布了第一款应用级多模态ChatGPT产品“元乘象 ChatImg”。“元乘象ChatImg”的参数量在百亿级别,主要使用了图文对数据和VQA数据作为训练集,同时进行图文匹配、图文检索、图像描述生成、文本描述生成等多种任务的训练。根据用户输入的图片或文字,“元乘象ChatImg”可以进行智能聊天、讲故事、写广告等。 潞晨科技 2023年5月22日,分布式AI开发和部署平台潞晨科技宣布完成数亿元的A轮融资,由蓝驰创投独家投资,同时蓝驰创投也是潞晨科技的天使轮领投方。本轮融资是潞晨科技成立18个月内完成的第三轮融资,此次融资资金将主要用于团队扩张和业务拓展。 潞晨科技成立于2021年,主要业务是通过打造分布式AI开发和部署平台,帮助企业降低大模型的落地成本,提升训练、推理效率。公司创始人尤洋此前在伯克利、新加坡国立大学均从事分布式计算、机器学习、高性能计算相关研究,曾创造ImageNet以及BERT训练速度的世界纪录。而在2021年左右,他更加笃信大模型的趋势,所以在当年创立潞晨科技,希望降低大模型的落地门槛。 波形智能 X 藕舫天使 2023年5月30日,构建新一代AI交互内容平台波形智能宣布完成数百万元种子轮融资,本轮融资由藕舫天使独家投资。本轮资金将主要用于技术研发、产品迭代、以及运营推广。由源合资本担任公司长期独家融资顾问。 波形智能聚焦AI原生的全新娱乐体验“交互式内容生成”,基于公司自研模型,从工具端切入,逐步构建覆盖娱乐全产业链的AI交互内容平台。目前,波形智能基于与多数NLP产品形成差异化的“交互长文本生成”技术,自研无限生成交互内容的产品。 瑞波软件 2023年5月31日,行业领先的AIGC液冷算力基础设施科技公司瑞波软件,宣布完成数百万元的种子轮融资。此轮资金注入将为瑞波软件加快产品研发和基础建设以及国际市场拓展提供强大的支持,进一步推进以先进液冷算力为底座的数字经济新基建服务,以及AGI智算平台的开发和落地推广工作,预计内容创作的AIGC模块在今年六月底上线。 作为行业领先的数字科技新基建技术服务型公司,瑞波软件在硬件和软件开发上并行推进其中包括新研冷却液、高密度液冷服务器、一体化数据集装箱以及云容器算力管理系统等软硬件设备。 瑞波软件的核心理念是提供先进的液冷算力、顶尖的AI算芯和高性能处理器的合作渠道以及智能的AIGC创作,为高新产业数字能源升级、终端应用高效运行以及多行业AI智创加持等场景提供全流程解决方案。 报告申明 3.1 团队介绍 非凡产研是非凡资本旗下专业的新商业创新及发展研究中心。非凡产研专注于商业场景下国内及出海企业服务生态领域的研究,涉及方向包括:新营销、新零售、新体验等,来帮助品牌和商家在全球化和数字化的时代获得先机和提升竞争力,同时,非凡产研致力于将数据技术、人工智能和自动化等新技术与不同领域传统产业相结合,包括:消费零售、本地生活、医疗健康等,助力企业插上数智化的翅膀。团队成员来自知名研究咨询公司、私募基金和科技媒体等,是一支具有深入洞察、专业知识和丰富资源的分析师团队。 3.2 数据说明 责任承担 受研究方法和数据获取资源的限制,本报告只提供给用户作为市场参考资料,本公司对该报告的数据和观点不承担法律责任。 数据释义 本报告中投融资分析篇的数据来源于烯牛数据。在轮次分布分析中,由于种子轮融资规模和次数较少,与天使轮合并统计; 投资机构累计参投规模统计方法:若机构为领投方,按该轮融资规模的50%估算,非领投方按该轮融资规模的平均值估算; 在数据占比统计中,由于四舍五入会引起所有项目加总不等于100%,本报告预先设定总和为100%,最后一项由100%减去其余项得出,数据误差控制在1%左右。 汇率换算 2023之前所有年份的融资金额按2022年12月31日当日汇率换算;2023年之后各月融资金额按当月融资当天汇率换算。 金额计算 3.3 免责声明 本报告由非凡产研发布,本报告版权归非凡产研所有。任何中文转载或引用,需注明报告来源,国外机构如需转载引用,请提前联系授权。 本报告为非凡产研作为第三方机构的独立原 创分析,报告内容不代表任何企业的立场,且均不构成对任何人的投资建议。因此投资者务必注意,因据此做出的任何投资决策与非凡产研及其员工或者关联机构无关。 在法律许可的情况下,非凡产研及其关联机构可能持有报告中提到的公司的股权,或为其提供或争取提供筹资或财务顾问等相关服务,其员工可能担任报告中所提及公司的董事。 本文经非凡产研授权发布 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-07
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
最大程度地提高每个人的成果。 • 每个
科
学
家
都将拥有一个能够大大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生和护理人员的世界也将如此。 • 每个领导者——CEO、政府官员、非营利组织主席、运动教练、教师——也将如此。领导者的更好决策所产生的放大效应是巨大的,因此智能增强可能是最重要的。 • 整个经济的生产率增长将大大加速,推动经济增长、新产业的创造、新工作的创造和工资增长,从而实现地球上物质繁荣的新时代。 • 科学突破、新技术和新药物将大幅扩展,因为人工智能帮助我们进一步解码自然法则并将其用于我们的利益。 • 创意艺术将进入黄金时代,因为受到人工智能增强的艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模实现他们的愿景。 • 我甚至认为人工智能将改善战争,当它不得不发生时,通过大大降低战时死亡率。每场战争都以非常有限的人类领导者在极度压力和信息有限的情况下做出可怕的决策为特征。现在,军事指挥官和政治领导人将有人工智能顾问,帮助他们做出更好的战略和战术决策,最小化风险、错误和不必要的流血。 • 简而言之,人们今天用自己的自然智能做的任何事情,通过人工智能都能做得更好,我们将能够接手那些没有人工智能无法解决的新挑战,从治愈所有疾病到实现星际旅行。 • 而且这不仅仅涉及智能!人们最低估的人工智能质量也许是它的人性化。人工智能艺术给那些本来缺乏技术技能的人自由创作和分享他们的艺术思想。与富有同理心的人工智能朋友交谈确实能提高他们应对逆境的能力。而且,与人类对比,人工智能医疗聊天机器人已经更富同情心。无限耐心和同情心的人工智能将使世界变得更加温暖、更加友好。 这里的利害关系重大,机遇深远。人工智能很可能是我们文明有史以来最重要、最好的事物,至少与电力和微芯片不相上下,甚至可能更超越它们。 发展和普及人工智能——并远离我们应该害怕的风险——是我们对自己、对我们的孩子和对我们的未来的道义义务。 我们应该生活在一个有了人工智能的更好的世界,现在我们可以实现这个目标。 那么,为什么会引发恐慌? 与这种积极的观点相反,目前关于人工智能的公众对话充斥着恐慌和偏执。 我们听到各种声称人工智能将毁灭我们所有人、破坏我们的社会、夺走我们的工作、导致严重的不平等,并使坏人做出可怕的事情。 为什么在潜在的结果中存在着这种从接近乌托邦到可怕的反乌托邦的分歧呢? 从历史上看,每一项重要的新技术,从电灯到汽车、从收音机到互联网,都引发了道德恐慌——一种社会传染,让人们相信新技术将摧毁世界,或者社会,或者两者都会毁灭。悲观主义档案馆的优秀人员已经记录了这些几十年来由技术驱动的道德恐慌事件;他们的历史清晰地显示出这种模式。事实证明,现在对于人工智能的恐慌甚至不是第一次出现。 现在,确实有许多新技术导致了不良后果——通常是那些对我们福利有巨大好处的技术。所以,并不是说道德恐慌的存在就意味着没有任何需要担心的事情。 但是,道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大成一种歇斯底里的程度,讽刺的是,这使得我们更难以面对真正严重的问题。 现在我们正处于对人工智能的一场全面的道德恐慌中。 这场道德恐慌已经被多种行为者利用为推动政策行动——推动制定新的人工智能限制、规定和法律。这些行为者正在公开发表关于人工智能危险的极端戏剧化的言论——它们以此滋养并进一步煽动道德恐慌——它们都自诩为无私的公益捍卫者。 但他们真的是这样吗? 他们是对还是错? 人工智能的浸礼会和私酒贩子 经济学家观察到,在这类改革运动中存在一种长期以来的模式。这些运动中的行动者可以分为两类——“浸礼会”和“私酒贩子”,这是基于20世纪20年代美国禁酒令的历史例子: • “浸礼会”是真正的信徒社会改革者,他们深深而情感上(尽管不一定是理性上)相信,需要采取新的限制、规章和法律来防止社会灾难。对于禁酒令来说,这些行动者通常是真诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行动者是真正相信人工智能会带来一种或另一种生存风险的人——如果将他们绑在测谎仪上,他们是真心相信的。 • “私酒贩子”是自利的机会主义者,他们在新的限制、规章和法律实施后可以从中获利,并使自己免受竞争对手的影响。对于禁酒令来说,这些人是指那些在合法酒类销售被禁止时,通过非法销售酒精赚取巨额财富的走私者。对于人工智能风险来说,这些人是指那些如果建立起一种由政府批准的人工智能供应商组成的垄断联盟,并受到新创企业和开源竞争的保护,那么他们可以赚更多钱的首席执行官们——这是“太大而不能失败”的银行的软件版本。 愤世嫉俗的人可能会认为,一些表面上的浸礼会也是私酒贩子——特别是那些受他们的大学、智库、活动组织和媒体机构支付薪水或获得拨款来攻击人工智能的人。如果你获得薪水或拨款来煽动人工智能恐慌,你很可能是个走私者。 私酒贩子的问题在于他们会取得胜利。浸礼会是天真的意识形态信奉者,私酒贩子是愤世嫉俗的运作者,因此,这类改革运动的结果通常是私酒贩子得到了他们想要的——获得监管控制、免受竞争的保护、形成垄断,而浸礼会则对社会改善的推动感到困惑。 我们刚刚经历了一个令人震惊的例子——2008年全球金融危机后的银行改革。浸礼会告诉我们,我们需要新的法律和规章来解散“太大而不能失败”的银行,以防止类似危机再次发生。因此,美国国会通过了2010年的多德-弗兰克法案,这被宣传为满足洗礼者目标的法案,但实际上被走私者——大银行——利用了。结果是,2008年那些“太大而不能失败”的银行现在变得更加庞大。 因此,在实践中,即使浸礼会是真诚的,即使浸礼会是正确的,他们也会被狡猾和贪婪的走私者利用,以使自己受益。 这正是当前推动人工智能监管的情况。 然而,仅仅识别行动者并对其动机进行指责是不够的。我们应该根据浸礼会和私酒贩子的论点进行评估。 AI风险 1:人工智能会杀死我们吗? 第一个和最早的人工智能末日风险是人工智能将决定杀死人类的担忧。 我们对技术自身将会崛起并摧毁我们的恐惧在我们的文化中根深蒂固。希腊人通过普罗米修斯神话表达了这种恐惧——普罗米修斯给人类带来了破坏性的火焰力量,更一般地说是技术("techne"),因此普罗米修斯被神永远地折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》中为现代人创造了我们自己的这个神话版本,其中我们开发了永生的技术,然后这个技术崛起并试图摧毁我们。当然,关于人工智能的恐慌报纸报道中必不可少的是詹姆斯·卡梅隆的《终结者》电影中一个闪闪发光的红眼杀人机器人的静止图像。 这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,就像火同时也是现代文明的基础一样,用来保暖和保护我们在寒冷和充满敌意的世界中,这个神话忽视了大多数甚至可能所有新技术的更大优势,并实际上引起了破坏性情绪而不是理性分析。只因为古人像这样恐慌不安,并不意味着我们也要恐慌;我们可以运用理性。 我认为人工智能会决定杀死人类的想法是一个深刻的范畴错误。人工智能不是经历了数十亿年演化来参与适者生存之争的活生生的存在,如同动物和我们自己。它是数学——代码——计算机,由人类构建、拥有、使用和控制。认为它会在某个时刻发展出自己的思想,并决定它有导致它试图杀死我们的动机是一种迷信的挥手。 简而言之,人工智能没有意愿、没有目标,它不想杀死你,因为它不是活的。人工智能是一台机器——不会比你的烤面包机更有生命。 现在,显然,有些人对人工智能杀手深信不疑——浸入它们的可怕警告的媒体报道突然疯狂增加,其中一些人声称他们研究这个主题已经几十年了,现在对他们所了解的内容感到恐惧不安。其中一些真正相信者甚至是技术的实际创新者。这些人主张对人工智能实施各种离奇而极端的限制,从禁止人工智能的发展一直到对数据中心进行军事空袭和核战争。他们主张,因为像我这样的人无法排除人工智能未来可能造成的灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡,以防止潜在的存在风险。 我的回应是,他们的立场是非科学的——有什么可测试的假设?什么样的事实可以证明这个假设是错误的?我们如何知道我们何时进入了危险区域?这些问题基本上得不到回答,除了"你无法证明它不会发生!"实际上,这些浸礼会的立场是如此非科学和极端——一个关于数学和代码的阴谋论——他们已经呼吁实施物理暴力,所以我将做一件我通常不会做的事情,质疑他们的动机。 具体而言,我认为有三件事情正在发生: 首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能
科
学
家
出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
诺纳生物任命Steve Arkinstall博士为首席科学顾问
go
lg
...
,期待Arkinstall博士与我们的
科
学
家
及管理团队共同合作,推动诺纳生物向着更创新、更高效的业务方向发展并进一步拓展高质量的全球合作。" "我很高兴在诺纳生物发展的关键时期给予其支持。诺纳生物有望在抗体技术创新方面取得重大进步,我期待利用我的专业知识和能力为团队的成功做出贡献。" Arkinstall博士表示。 Arkinstall博士的任命即刻生效,他将协助公司发展战略的优化、指导整体科学研究事务并帮助进一步拓展公司对外合作项目。 关于诺纳生物 诺纳生物是一家国际化的创新生物技术公司,作为和铂医药(股票代码:02142.HK)全资子公司,致力于前沿技术创新,并为合作伙伴提供涵盖靶点验证和多元化形态药物分子从发现至临床前研发等I to ITM(Idea to IND)完整服务。运用整合创新的技术平台及全球领先的
科
学
家
团队,公司提供涵盖抗原制备、动物免疫、单B细胞筛选、抗体开发与工程、成药性评估和药理评估的完整抗体发现解决方案。 Harbour Mice®可生成经典抗体(H2L2)和仅重链(HCAb)形式的全人源单克隆抗体,与单B细胞克隆筛选平台相互协作从而优化抗体发现效率。诺纳生物聚焦全球专利技术平台,赋能全球生物医药源头创新,助推全球新一代抗体药物开发。更多资讯,请访问www.nonabio.com
lg
...
美通社
2023-06-07
上一页
1
•••
135
136
137
138
139
•••
203
下一页
24小时热点
特朗普突然给市场“下马威”!全球疯狂巨震:美元急拉、这一货币惨跌
lg
...
中国军方突发重磅消息!英国金融时报独家:中国国防部长因腐败被调查
lg
...
特朗普向中国打响“第一枪” !彭博: 特朗普风险回归 中国为人民币划了条红线
lg
...
中美突传重磅信号!路透调查:特朗普2025年初对华征收40%关税 打击中国GDP增长率
lg
...
中美突传关税贸易战!荷兰国际集团:特朗普启动《国际紧急经济权力法》恐严重冲击汇市……
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
14讨论
#链上风云#
lg
...
47讨论
#美国大选#
lg
...
1329讨论
#VIP会员尊享#
lg
...
1510讨论
#比特币最新消息#
lg
...
625讨论