全球数字财富领导者
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
跟单社区
视频
直播
点评旗舰店
商品
财富汇
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
Future3 Talk四期回顾丨DePIN未来趋势 哪些应用方向值得关注?
go
lg
...
的Web3存储市场中,Arweave、
Filecoin
等项目的问题在于整个存储流程以及模型设计得过于复杂,开发者的使用门槛很高,数据读取和写入的性能也无法达到专业化存储的要求,所以很多dApp开发者还是倾向于使用中心化存储。但近几年,一些中心化云厂商存储问题频发,这对用户的数据来说显然也并不是一个好的归宿。这就是IPDN目前想做的事情,即热数据存储。 Yan:先说DePIN的重要性。Web2是基于平台的互联网,Web3则是以用户为中心的互联网。而作为一个以用户为中心的互联网,其底层基础设施必须由用户自己把握;一个Web3.0的基础设施如果仍是由平台来控制,那么它一定是“挂羊头卖狗肉”。当然,这个世界的网络形态是复杂的,并不是说所有东西都要DePIN化,但DePIN一定要存在,这是我们做DePIN的一个本质原因。我自己加入了很多互联网标准的制定工作组,关于Web3.0未来的互联网技术栈也有过很多讨论,其中最基础、最底层的还是P2P communication等等。所以DePIN对Web3是个刚需,只有把基础设施交还给用户本身,才能够建立一个以用户为中心的互联网。 第二点,MetaBlox为什么要做DeWi即去中心化无线网络这个赛道呢?这里有着现实的考量。目前,无线网络上网只有两种方式,一是手机上网,二是WiFi上网,而手机上网是整个互联网的基础。上网的核心要求是安全、加密,同时可以自由漫游,手机网络和WiFi网络都可以实现,它们都是用安全证书来登录的,但区别在于手机网络是付费的,而WiFi网络是免费的,这也是为什么现在全球74%的手机网络流量走的是WiFi,而付费的手机网络运营商也有相应的资金建设基础设施后台来处理证书登录。 免费的WiFi网络怎么实现这一点呢?只能通过DePIN,这也是MetaBlox能够成为WiFi联盟和WBA(无线宽带联盟)全球九个Certified OpenRoamingTM ID Provider之一的原因,因为我们代表了WiFi联盟实现WiFi漫游的方向。WiFi是免费的,要做到和手机网络同等水平的漫游和安全,就必须借助社区力量来构建一个去中心化的身份网络。因此,DePIN对于WiFi行业是个刚需,它的全球构建是需要通过DePIN来实现的。 总得来说,我们认为DePIN是Web3的基础,也是WiFi领域的一个刚需,这就是我们做MetaBlox的原因。 彭昭(主持人):我看到新闻说MetaBlox实现了百万mPoints发行与2000节点部署,这里的mPoint指的是什么? Yan:这个问题问得很好。MetaBlox的代币经济学和万向区块链的三代币经济学其实是有异曲同工之妙,mPoint相当于点卡,通过staking产生股权币,同时还有NFT,代表矿机。我们的测试网从今年3月到5月底开始陆续测试并正式上线,目前每个月的节点数翻倍,10月是1000个节点,今天已经有2000多个节点了,增长速度非常快。 mPoint就是我们用来激励早期社区参与者的,mPoints通过staking产生股权币MBLX,目前社区已经产生了100万个mPoints。MBLX预计明年一季度正式上线,目前全球50多个国家的矿工正在参与我们的生态建设。 彭昭(主持人):这2000个节点中的每一个都相当于一个WiFi通讯设备,可以这么理解吗? Yan:不一定是一个WiFi的网络节点,也可以支持无线接入点。目前全球支持MetaBlox协议的节点有300万个,这些是WiFi联盟已经部署下去的节点,用户可以在这300万个节点中自由漫游,但不能挖矿。刚刚说的2000个节点是挖矿节点,它们是由社区共建的。我们和WBA约定是希望未来全球OpenRoamingTM的网络中有20%的节点是由社区推动的,也就是说当节点达到500万个时,其中有100万是由无线网驱动的方法建立的。 彭昭(主持人):下面请EMC的Zed来介绍一下。 Zed:EMC主要是为AI服务的,所以我们会关注AI多一些。我们把针对GPU的算力分为三种:训练算力、推理算力、渲染算力。 EMC通过自己的路由协议与底层的传输协议,把这些GPU聚合在一起。很多人认为把去中心化算力运用到AI似乎是不可行的,因为大语言模型对显存和数据量的要求很高,大多数使用的是英伟达的GPU,而英伟达GPU最核心的价值是NVLink和HBM高速显存。从这方面来讲,目前我的确看不到去中心化的节点如何去跑一个大模型训练的可能,在这种情况下,多半是把一些节点的集群合在一起,通过NVLink达到每秒900G的传输速率。但这样的集群也可以成为EMC网络上的一个节点,同时,我们把个人零散的GPU与一些中心化节点结合在一起,组成了一个去中心化网络,这是目前已经做到的。 第二个应用场景是跑推理。我个人判断明年年中左右,大语言模型的训练可能会相对冷下来,因为特别烧钱。中国现在最大的大语言模型MiniMax的算力需求是1万张H100,我们现在最大的一个节点上有200台,大约1600张H100,总投资是多少呢?将近7亿人民币,这不是小公司能玩得起的,而且这样大算力的租用成本也非常高,所以大语言模型公司能否长期持续进行这样的投入,我表示质疑。要保持长期训练,必须产生经济收益,就像GPT和Midjourney虽然花了很多钱训练,但它们有2C服务,可以产生商业变现,那就可以持续投入。所以我个人预估,明年对AI来说可能是推理的大年。 一旦进入推理服务,对大的集群的需求就会降低,去中心化的方式反而非常合适。前不久有家做图片训练的爱沙尼亚公司租用了EMC网络一个区域中的8个去中心化节点,部署花了两天,然后用一天时间跑完了100万张图片的训练,相当于仅用了三天时间就跑完了原本三个月的工作量,成本也低了很多。同时EMC也不用为此付费,而是通过DePIN的方式给予节点奖励,这就实现了双赢:使用方很满意,节点本身也能够产生收益并变现。同时我们正在和一些上市公司以及有意在GPU方面做资产布局的公司合作,合作的规模都很大,因为投入这样的节点建设基本要一两千万美金起步。 现在做AI主要考虑三点:模型、数据、算力。模型通常是不成问题的,可以在开源的模型上进行调整,也可以自研;做某个行业的AI训练的话,数据集也不会缺,所以算力就是唯一的问题,没有足够的算力,做什么AI都是天方夜谭。但算力不是想投入就能投入的,英伟达H100的订单已经排到18个月后了,有钱也买不到;即使能买到,还需要建大规模的IDC、服务环境,投入也极高。对这些AI公司来说,时间就是成本,EMC能让他们直接使用起来,且成本仅仅是自建或是传统云服务厂商的25%~30%,这其中的经济效益是非常可观的。 第三是数据。EMC从建初始节点的时候,就与其他存储项目合作并打通,现在EMC网络中的Lora、checkpoint、LLM模型,以及用户直接产生的数据,都是采用去中心化方式存储的,目前我们正在进行第二阶段的合作,第一阶段已完成模型调用,实现了去中心化存储。 这里多说几句,我认为存储并不是一个大赛道,目前还为时过早,因为存储空间里的大多数文件都是从Web2世界来的,但Web2世界里有价值的数据都已经被巨头垄断了,他们不会因为去中心化存储的成本比云存储低,就把数据迁移过来,他们更多考虑的是数据价值以及迁移和运维的成本。而AI数据都是原生数据,这些原生数据可以在最开始就存储在去中心化网络中,这比迁移原来的数据要容易得多,且这部分数据并不以其大小作为价值,而是以数据本身作为价值。举个最简单的例子,私钥最大只占十几K字节,但价值是巨大的。AI模型训练出来的数据集中,跑一个GAN或是CNN可能不算海量数据,但这些数据的价值是巨大的。 在第二阶段的合作中,EMC要求的不仅仅是存储,还有全球CDN的加速,AI模型动辄几个G甚至几十G,没有大量CDN的加速,就无法实现大量数据的相互调用,传统互联网节点之间的相互传输就会成为一个瓶颈。 如果数据已经实现了去中心化存储,下一步就是怎样利用AI去使用这些数据。我相信在座各位都会使用ChatGPT,但我自己宁愿去使用EMC节点上部署的大语言模型,为什么呢?因为我用的时间越长,它就变得越聪明,经过我的大量训练,它开始学会用我所引导的思维方式和我对话了,但这部分数据不在我手上,我就不放心,我训练出来的结果可能都跑到OpenAI或是微软这样的公司名下了。 我有这样的担心,相信其他人也会有这样的担心,所以EMC有个“算力插座”,我们希望训练出来的数据集是由用户的私钥来调动的,它是切片的,加密地存在整个网络中,归用户个人所有,这样你才敢放心地使用AI,否则AI的效果越好,可能你就会越担心。 总而言之,我们之所以做EMC,就是因为看到了AI和Web3的结合点。AI是一个典型的生产力工具,它的速度和学习能力比人强得多。区块链的底层是个制度,能够分权和去垄断,它牺牲了效率,但带来了一个更安全的环境,这两者听起来是矛盾的,但考虑到AI已经是个战略级的武器了,是国策的竞争,那么当这匹马跑得越来越快的时候,缰绳握在谁的手里就是个重要的问题。通过Web3的体制与AI结合,给它制造一个缰绳,制造一个约束的环境,制造一个更安全的环境,我觉得这两者结合是更合适的。 彭昭(主持人):我们之后会更具体地讨论DePIN和AI的结合点。现在直播间有上千位朋友,很多朋友可能是今天第一次来收看我们的直播,也是第一次接触DePIN,因此想请杜总和林总来介绍一下DePIN以及DePIN相关的一些优势和价值,并点评一下Future3 Campus的项目。 杜宇:好的,我先讲,之后再请林总补充,林总也是物联网行业的老兵了。我可能更多地从区块链行业的角度或者站在万向区块链的角度来说,为什么对DePIN这么重视和感兴趣。 一方面,万向本身是一个具有传统行业背景的公司,所以在过去这么多年中,我们在国内做了很多产业区块链的应用。在这个过程当中,我们经常会遇到的挑战是“区块链如何保证数据源头的真实性”。当我们和工业企业、设备厂商乃至整个产业中的参与者们打交道时,怎么保证数据源头的真实性?怎么与现实世界相结合?这些与当下区块链原生的那些圈子十分不同。物联网是一个很重要的手段,之前在做产业应用时,例如生物资产、工业互联网等都涉及到很多硬件的东西,所以我们很早就和林总在区块链+物联网模组的领域有合作,我们也由此看到产业中的大量需求。 第二,从比特币问世至今已有十余年,业内很多人都在讲金融服务,包括一些主流的金融机构、主流产业等,其实他们很多都看不懂Web3,认为Web3都是DeFi等看不懂的东西。但我觉得DePIN其实是把Web3带进产业的绝佳桥梁,不管是通过硬件,还是通过大家所熟知的供应链、ESG、绿色金融等,这是很重要的一点。 第三,DePIN是非中心化的基础设施,或者说是新一代的基础设施。上次我们聊到DePIN和CePIN之间的关系,我一直觉得DePIN可以很好地对CePIN进行补充。以通信为例,国内很多城市的基础设施非常好,但是在大量的发展中国家,甚至在一些发达国家中比较偏的地区,其信号覆盖其实是很差的。在这种情况下,DePIN就是对现有网络建设的良好补充。 刚才Zed也提到了,AI模型训练面临着很多的问题,其中之一便是只有训练量够大才能提升AI的质量,但在算力紧张的情况下,我们可以通过DePIN来利用更多闲置的算力,例如通过Token和经济激励的方式,把闲置的资源利用起来,这也是很好的建设网络效应的手段。例如,我们上周聊到的充电桩的案例就是DePIN提升网络效应,补充现有网络建设的方式。家用充电桩大多一天只用一次,甚至可能一周只用一两次,如果能够把充电桩共享出来将对于推动整个新能源汽车的发展有很大的帮助,所以我们看到了DePIN的巨大潜力。甚至我之前跟林总也聊过,DePIN是重建数字世界的物理基础设施的巨大机会。 彭昭(主持人):感谢杜总。提到上次充电桩的DePIN项目,我想补充一个项目进展。我们在上周的直播中帮他们找到了合作伙伴,所以希望各位嘉宾到在介绍自己的项目时,可以分享一下各自想与什么样的合作方合作等,说不定我们就能搭上这个线索。接下来有请林总进行分享。 Leo:好的,我来接着杜总刚才的分享做点补充。首先,我非常认同刚才杜总讲的“DePIN是对当前自上而下的基础设施建设的有效补充”,我认为这是在加速全人类的数字化进程。因为传统基础设施建设是自上而下、由政府或大企业来驱动的,它的投入很大,建设周期也比较长。如果能够通过社区自下而上地对基础设施的建设进行补充的话,将对数字化进程有很大的帮助。 此外,我们也看到一个商业的趋势,即如今的商业都在往数字化变革,包括现在很多的DePIN形态其实在某种程度上来说也是未来商业的发展趋势,例如充电桩、自动贩卖机、无线网关等,相当于是无人值守的商户,它们能够对外提供服务,如果有第三方使用这个服务就需要对该网络提供的服务进行付费。 这类商业模式如果按照传统的方式来做,要么自己有资金去投入,要么VC融很多钱,或是走上市等途径。而DePIN事实上是一个很有意思的创新,他把这些商业行为、资产状态都通过数字化的手段,实时地、透明地登记到全球公开透明的账本——区块链上,让所有来参与建设的建设者、投资者都可以非常清楚地看到自己和共建者对网络建设的贡献,这些都是非常公允、透明地呈现在账本上面的,这样就使得激励的分配和未来网络的收益都是公允、透明的。 因此,我们可以看到DePIN的一个项目能够调动全球几十万甚至上百万的社区中的个体进行大规模的协同,这些社区的贡献者之间虽然没有雇佣关系,但是大家可以一起奔着同样一个目标去做协同,我们觉得这种方式是非常有意义的,也极有可能是未来数字化程度比较高的情况下,商业存在的一个新形态。 大家都提到了在DePIN模式下,数据的使用权能够归还给用户。除此之外,DePIN还有一个有价值的地方,尤其是当DePIN项目呈现为一个数据的网络时,例如DIMO是汽车出行数据的聚合网络,WeartherXM是全球气象数据的聚合网络,Arkreen是能源数据的聚合网络……这些数据网络通过DePIN可以实现,但却是传统的数字化比较难触达的长尾市场。因为传统自上而下去做数字化时会看ROI,希望投入能够最大化地得到回报。因此,有很多数字化项目都会挑比较大的标的、比较大的资产,因为无论是人力的投入还是资源的投入,资源集中后,如果资产标的比较大,它就能够有比较可观的ROI。但如果资产是比较分散的,它的投入就会支撑不了,或者说它的收入覆盖不了这些投入,这个市场它就没法去触达。事实上在数字化的进程当中,有不少这样的长尾市场是没办法用传统的模式去触达的。 这就是今天DePIN的模式,即利用全球社区自下而上进行建设,并由社区的builder来承担Capex的资本投入、Opex的运营支出,从而能够有机会把长尾的市场开发出来,这是DePIN模式对于去聚合数据资产的特别好的一个手段。我就先补充这两点。 彭昭(主持人):刚才杜总和林总把DePIN的价值和优势都提炼得很明确。相比中心化的基础设施,DePIN是一种去中心化的、分布式的基础设施,能够通过使参与者获得相关的收益来充分调动其动力,进而推动基础设施的建设。它是一种自下而上的变革,这与以前大资本投入,大人力、物力投入的建设方式完全不一样。 现在有很多项目实际上都是和AI相关的,所以我们今天想深入讨论AI与DePIN的结合。这两个技术都处在非常火爆上升的阶段,DePIN和AI的结合会发生在什么样的交叉点上?先请杜总和林总来说说关于DePIN和AI结合的整体性看法,然后再请项目代表们来具体说说各自是如何看待DePIN和AI的结合的? Leo:我认为可能会有如下几个结合的点。一个是大家先前也提到过的,AI大模型是需要大量的数据来训练,当下的格局其实会出现具备大模型算力的一方,也会存在具备海量数据的一方,双方之间有可能会存在博弈。例如,有数据的一方会有可能被有算力的一方切断资源导致算力不足,而有数据的一样也有可能切断数据供应,让有算力的一方无法继续训练资源。这是中心化的算力平台或数据平台在未来可能会产生的博弈。如果要打破博弈,那就意味着需要有无需许可的、去中心化的资源网络去支撑大模型的算力平台。数据是训练大模型的重要资源,我们需要探索的是未来能否以去中心化的方式获取数据的来源,并由数据的使用者自行来决定是否开放给平台用于训练。 第二个是能源,因为大模型的计算是一个非常大能耗的场景。如果大模型未来要持续地发展,就需要有持续的、可靠的能源供应,包括绿色能源供应、低成本能源供应等,这也是支撑大模型持续发展的重要资源。我认为,“如何得到无需许可的能源”是第二个对AI来说很重要的底层基础设施。 此外,AI未来的能力一定是依托在连接之上的,如何构建一个去中心化的、无需许可的网络也是我们需要思考的。因此,我认为DePIN与AI有非常强的互相依赖的关系。未来,AI需要有基于DePIN模式构建的无需许可即可访问的基础设施,包括能源基建、数据基建、连接基建。我觉得这些可能是DePIN未来网络的重要价值所在,或者说是会有很大的市场需求的。未来,大模型可能非常依赖于DePIN网络的这些资源的供应。 另一方面,我觉得刚才Rock提到的边缘计算也是一个结合方向。因为如今的大模型已经把互联网上所有能够爬到的数据基本上都爬完了。此后的新训练就需要优化数据来源,例如各种各样的传感器就是新的数据来源。未来,我们完全可以将部分数据的预处理和部分的AI计算分配到边缘,因为现在有些边缘计算的能力也越来越强,这是第二个我们认为DePIN和AI可以有很好结合的方向。 彭昭(主持人):这两点都是很关键的结合点,AI的发展也需要嫁接在一个良性发展的基础设施网络上,DePIN和AI这个结合是挺关键的。 杜宇:我想从两个角度做一些补充。第一,我觉得DePIN本质上是个基础设施,特别站在Web3的角度来看,它不是一个应用,而是基础设施。今天参加Future3 Talk的4个项目以及林总的Arkreen,分别代表了数字经济新基建的各个方向,包括计算存储、存储算力、网络、能源等,这些都是我们可以用Web3来重新做一遍的。数字经济除了给人用以外,还有服务于AI的。因此,DePIN可以说是未来AI的基础设施。这个其实大家刚刚已经讲了很多了,我就不去展开了。 第二,其实是和激励相关的,因为Web3核心的技术是区块链,区块链的核心是一个账本。因此,未来AI不管是数据维度还是AI算法维度,互相之间的经济行为一定是记载在区块链账本上的,包括如今Web3领域中提到很多的DeFi、智能合约衍生的DeFi协议、SocialFi协议等,都是构建以AI驱动的经济体的重要金融基础设施。综上,我觉得DePIN与AI的结合在于这两点,第一个是物理世界的基础设施,第二个是AI的金融基础设施。 彭昭(主持人):这两个视角也挺关键的。刚才杜总和林总都提到了DePIN和AI的结合点。接下来请各个项目代表结合自己的时间来谈谈DePIN和AI的结合。从Rock先开始吧。 Rock:我就举一个例子,以手机硬件为例。手机上有很多的视频和图片,这些都是很珍贵的数据集。但是用户又不想把这些资料上传到云端,因为有泄露隐私的风险。因此,我们就可以用联邦学习来链接这些用户设备上的数据,通过隐私计算来保证这些数据不离开用户本机,但是可以用于训练贡献梯度,即在本地完成训练贡献梯度,然后再到集成器里加权平均后经过几轮迭代使算法收敛。这样一来,手机厂商就可以利用这些训练好的模型去增强手机上的一些功能。例如,未来手机上的相机就可能会自带一些美图或者是物体消除AI调整照片的功能,即在手机本地就可以实现,不需要联网。这对于手机厂商来说,既提升了手机市场竞争力,又不用担心用云端算力增加成本的问题,是一个很值得发力做的方向。 对用户来说是手机性能上的提升,体验上的增强,也会便于手机厂商出货。他们会卷这些软件的AI算法去赋能他们手机,同时也会卷硬件,然后把他们的手机里安上性能更强的芯片来使手机具有本地推理和计算能力,从而更快更好的完成AI算法的训练和推理。这是手机行业上的一个应用,那么对应的电动汽车,智慧城市,健康医疗等AIoT涉及的领域还有很多用例,我就先不展开讲了。 彭昭(主持人):如果想到新的观点什么的,随时可以参与讨论。接下来请Yan进行分享。 Yan:我们昨天还在和一位上市公司的朋友讨论边缘AI与网络的结合。我们团队是英伟达的合作伙伴项目,所以我知道H100、H200显卡有多贵。但是就像Rock说的,现在在场景中有很多在边缘侧的算力服务需求,我们在做MetaBlox路由器的时候就考虑到了这样的需求。但这当中也有很多挑战,比如现在专业的编辑端的板卡和专业的WiFi板卡,它之间可以实现功能上互通,但性能并不是完美地匹配,需求却是非常高的。我给大家可以举个参考数据,例如现在大量的家用摄像头背后的边缘侧的处理就是一个很大的市场,也是一个非常好的现金流的生意,所以这些都是非常适合用DePIN与AI结合来做的。我觉得这是一个很好、很强的商业模式,Web2已经形成了很多正向的现金流的案例,那么Web3只会把这个趋势越做越宽,越做越大,希望大家一起努力。 彭昭(主持人):Zed刚才也提到,如果用GPT,可能会担心自己的数据并不能存在自己这里,但如果使用EMC的大模型,就能够保证自己数据的安全性,是这样吧? Zed:我就简单发散一下。我觉得还有件很重要的事:公平。去年年底GPT出来之后,大家都想去赶上AI这班快车,这其实是件好事,因为在AI这个行业里,大家的差距并没有那么大。Web2的创业是非常难的,流量垄断一切,但AI赛道的机会还有很多,很多人切入赛道比较早,做一些AIGC的应用,还是能获取一些红利。 但是很快红利就没有了,现在就开始卷得不得了。不但是大模型卷,应用也卷,卷到最后大家都在为英伟达和OpenAI打工——无非是你把他们的算力和模型拿来使用或者出租、出售,这其实不利于AI行业的发展。做AI创业,租用算力的成本很高,而且还不一定租得到,因为你不敢签长期协议。这是从AI创业者的角度来说。 第二是GPU芯片的生产厂家。一些国产厂商最新的GPU都会寄给我们做测试,通过去跑各种各样的环境,得到一个比较公平的数据。实话实说,差距还是挺大的,这个差距并不是硬件层面的,更多是软件层面的。硬件的制式可以做到7纳米或者更低,但实际上一跑起来就会发现,所谓CUDA兼容和原生CUDA还是两码事,所有应用都需要重新编译一遍,几乎不敢拿去让别人使用。这样的话,你的市场要怎么打开?但投硬件的话,成本又非常高,所以我们看到很多企业最终为了保险起见,还是会去购买英伟达。 但反过来说,是不是那些企业就没有竞争力呢?肯定不是的。如果通过DePIN的方式并入进来,跑一些小模型训练和推理服务,可能会发现性价比还是挺高的。EMC网络是按AI任务完成度计费的,虽然可能性能上有40%-50%的差距,但成本只有20%,这样使用起来性价比还是挺高的,而且任务也可以随意调度,不用在前期投入那么多资金去买硬件。 从这两个层面来讲,DePIN结合Web3的经济模型为用户和企业创造了一个更加公平的环境,再结合RWA,变现渠道就更简单一些。Web2的商业模式就是吸引更多用户,然后让用户付费,Web3有更高级的玩法。大家都知道金融化,金融不是洪水猛兽,如果结合一些金融产品的设计,可以让赛道里的一些创业者和企业更快地获得收益,那么他们就会有持续不断的资金来投入,这是加速行业发展的一件好事。 彭昭(主持人):接下来原本还有一个硬核的话题,就是RWA和DePIN的结合,但RWA也是一个新的叙事,门槛比较高,需要讨论很长时间,考虑到我们的时间比较紧,接下来不如趁着直播间有这么多朋友在线,我们每个项目聊一聊想和什么样的项目合作,找找合作的机会。 Zed:我谈一些真实需求,特别有趣。现在其实不缺客户,去中心化存储也没问题,就是数据传输太慢。上次我们想跑一个训练,把香港、新加坡、美国的IDC都问了个遍,最后发现最简单的办法就是买张机票,然后带着硬盘过去拷,否则这么大的数据量,根本不可能做到高速传输。我觉得数据传输对AI的发展是个极大的刚需,存储这方面我不是专家,海量数据调来调去,我也想不到什么特别好的办法,Rock和Ben在这方面应该都比较专业。 Rock:边缘设备,你直接在有数据的地方训练就会快很多。我也和其他行业交流过,他们宁可用卡车来传硬盘。 Zed:真的是这样,我一开始只是当作笑谈,但后来算了一下,好像这个方式确实是最可行的。说到边缘化的方式,小模型推理都没问题,速度已经非常快了,但对一些中大模型来说,要用DePIN的方式做到效率最高,就是要把闲置的加以使用,但并不是说离你最近的那个地方一定会闲置,算法做不到这一步,算法只能做到“你是最合适的,所以我往那儿去”,但做不到“我需要你,你就在哪儿”。 还有隐私计算,这部分我们也很早就在做了,未来大家担心的不仅是数据归谁所有的问题,还有数据会不会被滥用和盗取的问题。虽然目前还没有涉及个人数据的安全性问题,但很快就会提上日程,特别是对一些非常有价值的数据,当它的数据量不是特别大的时候,它的切片、加密等方式也是我们最近刚刚涉及的问题,这方面我研究得不是特别透,也想听听大家的建议。 Rock:可信计算是大趋势,有个核心的概念叫TEE(可信执行环境),这个很重要。未来的大趋势是在边缘设备上加TEE芯片,支持大家做可信计算。可信计算的核心之一是在CPU内做数据的加解密,数据即便是在RAM里,也是加密的,只有进到CPU里才进行加解密的动作,这就是TEE。所以未来TEE的CPU也是一个趋势,各个制造厂商都会加TEE的芯片,来解决数据隐私性的问题。我先补充这一点。 Zed:那天我们也提到了这点,但去跑数据之前它还是需要解密的。如果有更好的方式的话,我觉得未来会是个大有可为的垂直赛道。 杜宇:我补充一点,TEE还是有一些缺陷,需要先解密再去算,最新的方向一定是全同态。两个月前我见过一个在欧洲做全同态的团队,他们在用硬件的方式加速全同态的计算,说今天的全同态可能和两三年前的zk情况差不多。其实即使是今天的zk,也还没有做到完全可用,在速度、性能方面还存在问题,但全同态一定是最成熟、最完备的解决方法,虽然距离实现还有很大差距,对硬件的要求也非常高,特别是大模型训练,可能真的要等量子计算成熟了才有可能性。 彭昭(主持人):直播间有朋友想问下Zed,如果想和EMC项目合作,无论是作为builder、用户还是投资人,应该怎样来切入? Zed:EMC除了做DePIN外,还有EMC Hub。我相信做AI的一定知道Hugging Face和C站。Hugging Face和C站今年特别火,Github也是开发者非常熟悉的平台,但它们中间都是断层的。做过AI的可能都知道,在刚开始接触AI的时候,绝大多数精力并不是放在开发上面,而是去配置环境,这就特别浪费时间。整个社会分工已经很明晰了,为什么要反复造轮子呢? 所以我们当时就觉得可以在基础设施上加一个应用层,相当于把Github和AWS进行结合,做了EMC Hub。EMC Hub是一个类似于Hugging Face的模型聚合市场,基于Web3的经济系统让大家来贡献内容,你所贡献出来的内容是归自己所有的,如果别人去使用或是进行了商业化,你也可以从中获得收益。有赖于整个算力网络的支持,代码可以作为一个服务直接部署在网络上,就是“代码即服务”,算力提供者、开发人员甚至AI爱好者都可以把自己开发或微调出来的模型部署在上面当作服务,并获得收益。用声纹识别举例,其实开发难度并不大,有很多开源代码,只需要微调一下即可当作服务卖给很多有需要的企业。现在去做一个2C产品是很难的,但你如果把自己的API服务部署在EMC Hub上并收取费用,很快就能够变现,这就打开了很多新的创业空间。 彭昭(主持人):很清晰,大家应该也都知道怎样和EMC合作了,Rock和Yan也可以说一下。 Rock:我也说一下需求。我们base在硅谷,对于AI行业来说,这里的大厂也已经垄断了算力资源、一流的人才和数据集,我们这种创业公司的生存空间是很有限。我们目前的需求主要是人才,硅谷的算法工程师工资每年动辄20-30万刀起,我这次回国发现国内的算法人才也很多,特别是一些高校的同学们非常有天赋,能把业界前沿的论文快速消化吸收并且快速代码化的能力非常强。我们把AI搬到边缘上去需要三项最核心的技术:Efficient AI即模型的压缩优化、Federated Learning 联邦学习,以及刚才提到的Confidential Compute隐私计算,有对这三项技术感兴趣或是在这三个方向上有所积累的小伙伴和同学们请到Network3.ai上联系我们。 另外一个需求就是合作伙伴。如果有IoT厂商想尝试在边缘设备上训练模型赋能自己产品的,请联系我们,我们可以一起做个Pilot program。Web2的APP开发者如果不想去自己搭一套AIinfra,但是也想快速训练出自己app里的垂直模型的,也可以联系我们。谢谢! 彭昭(主持人):对刚刚说的这几个方向感兴趣的小伙伴可以给我们的视频号小助手留言,我们会有相关的同事来联系。接下来请Yan和Ben说一说。 Yan:我一直在关注视频号的互动,看到有网友问有没有社群的合作,我们是热烈欢迎社群合作的。现在几乎家家户户都有WiFi,现在既然要升级到WiFi6,同样的价格,为什么不换一个可以支持OpenRoamingTM的WiFi6 AX 6000设备呢?所以现在国内国外的需求都很旺盛,我们也非常欢迎社群合作,希望大家可以一起把OpenRoamingTM技术遍布到各家各户。有社群的朋友们欢迎跟我们联系,这是第一点。 第二,WiFi是一个难得的、每家每户、每个商店都需要的入口设备,伴随着WiFi6的换机潮,这些入口设备会是一个流量入口。拿小米举例,小米一般只做四个设备,手机、路由器、电视和汽车,其他都是生态链伙伴来做。我们也是希望聚焦入口设备,把兼容性做到最好。我们的WiFi路由器可以对接1-2T的SSD,设备都支持TrustZone,我本人在这个领域也有相当多专利,特别希望和存储、CDN等项目方合作,我们一起把DePIN部署下去。 第三,我们也希望与AI项目方开展深度合作。刚刚也提到我们团队是英伟达的合作伙伴项目,我们购买的所有机器都要支持SGX环境。但也有很多项目是用一个完整的机器作为可信执行环境,这也预示着隐私AI将是大势所趋。我个人特别看重边缘计算的隐私AI,早期各个小区施行人脸门禁的时候,大家都很担心自己的人脸信息被盗用,现在通过TEE环境可以确保即使黑客黑到设备里面成为root,也拿不走你的人脸信息。今后随着GPT等的发展,这个方向一定是大势所趋。MetaBlox虽然是WiFi网络,但因为我们是核心的入口设备,我们也支持边缘计算网络,希望可以和大家共建去中心化的隐私保护的边缘计算网络。 Ben:首先我们非常欢迎对IPFS技术有深入研究的开发者和我们一起去完善IPDN这个产品。同时,如果有开发者对去中心化存储有需求,比如你想构建一个dApp,用去中心化的CDN做数据、文件的存储,可以和我们联系,我们一起合作。 彭昭(主持人):我们的活动现在也接近尾声,接下来请杜总和林总每人做个一分钟的总结吧。 Leo:我也打个小广告。几周前香港金融科技周期间,我在Future3 Campus DePIN加速营的开营仪式上也讲到了DePIN应用链的启动,希望对DePIN赛道感兴趣的开发者和创业的团队和我们多多交流,看看DePIN应用链及其赋能能力能否支撑大家更快速地开发出DePIN产品的原型,也一起努力把DePIN赛道做得越来越热。 彭昭(主持人):DePIN应用链是个特别有价值的事情,很可惜今天的直播内容没涵盖这个话题,下次活动一定要包含进来。最后请杜总来总结。 杜宇:我个人感觉到今天为止,我们在DePIN方向上的探索还处于非常早期的阶段。今天我们主要讨论的是基础设施类别,上周是应用类,目前为止还没有看到整个DePIN生态完全的大爆发,我们今天和在场的几位行业先驱们一起在DePIN赛道做了更多的探索,希望能有更多示范性的案例出来给大家新的启发。 在全球范围内来说,我们的大湾区有着非常好的DePIN基础,但凡涉及到硬件都离不开大湾区,离不开深圳,这也是我们华人在整个Web3和DePIN赛道的巨大优势。我们希望能和从事物联网、硬件等行业的优秀企业家有更多交流,大家一起探讨如何将Web3与硬件、物联网相结合,探索出一片新的增长区域,我觉得这会是一件非常有意思的事。 彭昭(主持人):我也感觉随着讨论的深入,关注DePIN的朋友们的热情和数量都有了明显的提升,也期待下次和大家继续交流DePIN这个话题。我们今天的活动就到这里,谢谢各位。 来源:金色财经
lg
...
金色财经
2023-12-07
为什么亚马逊要推出贝佐斯稳定币?
go
lg
...
力。 为了了解这是如何运作的,让我们以
Filecoin
为例,该项目在其2017年的ICO中筹集了2.57亿美元。该项目的基本目标是建立一个数据存储市场。买家和卖家都必须使用FIL代币进行交易,
Filecoin
承诺发行最多2亿个FIL代币。因此,原则上,所有FIL代币的总价值将等于在磁盘存储市场的那一部分所产生的收入,单个代币的价值是该收入除以代币数量。 持有FIL代币的所有者实质上是在购买与数据存储市场收入相关的证券(并对其进行投注),持有这种证券的人可以将其转售给想要在网络上购买存储空间的人。在ICO中,有10%的代币出售给投资者,因此
Filecoin
未来收入的总估值为25.7亿美元。 亚马逊并不是唯一一个有可能创建在很大程度上取代美元的私人数字货币的公司,谷歌也拥有庞大的消费者和商业用户群,苹果是另一个明显的例子。 这并不是说由这些科技巨头之一创建的私人数字货币会创造社会价值。事实上,这将带来涉及逃税、货币政策、非法活动等复杂的问题。 美国政府面临的挑战是,保持现状似乎困难重重,可能需要采取预防性措施,推出中央银行数字货币,以防止建立一个与美元竞争的私人数字货币。但无论如何,您很可能很快就会看到这样一种货币的出现。 来源:金色财经
lg
...
金色财经
2023-12-03
DePIN成为新的风口 去中心化存储的价值逻辑是否成立?
go
lg
...
分析+代表性项目一览:从Helium、
Filecoin
到Render和Akash DePIN赛道是一个特殊且广泛的领域,它涵盖了多种类似或相近的项目。根据Messari的DePIN Sector Map,我们可以从几个不同的维度来更清晰地理解这个赛道。 DePIN赛道可以从两个主要维度进行分类:一是区块链网络本身的一部分,二是利用区块链技术实现新业务。在区块链网络中,DePIN可以优化数据存储、调用、归档,以及L3扩容的可能性。例如,
Filecoin
和Arweave这类的独立存储层已成为主流,而通过租用外部通信网络或GPU网络来提升L3层效能的项目,也可以归类为DePIN。另一个维度是基于区块链的新业务,如物联网、云计算、能源存储等,这些项目通过区块链协调硬件设施的提供和需求。 在设备方面,DePIN涉及的硬件设备主要包括PC、手机、服务器、通信信号和GPU等。同时,定制化硬件,如Helium的案例,虽然一度流行,但也面临着市场接受度和经济可行性的挑战。Helium曾尝试建立一个兼容第三方网络的“network of networks”,但其效果尚未明确。Helium的经验表明,定制化硬件模式在发展节奏上需谨慎处理,以避免市场失衡。 DePIN赛道还可以从提供服务的具体领域来分析。例如,物联网和无限通信、GPU渲染、real-life数据和影像收集等。Hivemapper、Spexigon和DIMO等项目展示了不同的硬件设备在构建特定服务中的应用,但它们的共同挑战在于需求量的不确定性。在现有的web2生态中,许多服务可以被替代,而DePIN项目的优势在于代币激励。然而,代币激励并非web3的全部,DePIN的真正意义在于通过硬件设施将现实生活与web3连接起来,从而更好地融入人们的生活。 1、Helium:成为一个网络的网络 Helium是DePIN领域的先驱之一,自2019年7月推出其LoRaWAN网络以来,就一直引领着DeWi(去中心化无线网络)的发展。Helium的最初目标是创建一个低功耗的广域网(LoRaWAN),用于物联网(IoT)设备间的连接。这种网络在当时是一个创新的服务,使Helium在物联网领域占据了先发优势。它还与多个项目建立了合作关系,这些项目涉及天气跟踪、空气质量监测以及GPS整合等领域。 到了2022年,Helium调整了其发展目标,致力于成为一个“网络的网络”。这一战略转变意味着Helium不仅自身为物联网提供服务,还支持其他DePIN项目,例如为Wi-Fi、5G、VPN等构建去中心化解决方案。至今,已有近100万个热点接入了Helium网络。 然而,Helium也面临着一些批评。Web3评论家Liron Shapira指出,Helium的实际用例可能被夸大了。他认为,Helium的大部分收入来源于向新网络提供商销售硬件,而不是通过其提供的服务。供应量虽然在增加,但Helium产品的实际需求和收益似乎并不显著。这种模式可能导致供需不平衡,对项目的长期可持续性提出了疑问。 Helium的经历反映了DePIN领域中的一个关键挑战:如何确保技术创新与市场需求之间的平衡,以及如何维持项目的长期生存和发展。 2、
Filecoin
:分布式云存储解决方案
Filecoin
,作为DePIN赛道的一个重要项目,于2020年推出,旨在提供与Web2巨头如谷歌云和亚马逊网络服务类似的云存储服务。然而,与这些中心化提供商不同,
Filecoin
提供的是一个分布式存储解决方案,其特点是利用加密经济激励措施来保障服务。
Filecoin
的机制是将需要存储空间的用户与有空闲空间的硬盘驱动器用户连接起来,后者通过FIL代币获得支付。 尽管
Filecoin
初期表现出色,但其每月收入在熊市期间经历了大幅下滑。研究员Domica认为,
Filecoin
在2021年夏季的扩张和发展期间,其规模和效用可能被夸大了。为应对这一挑战,
Filecoin
推出了
Filecoin
Plus,这是一种为经过验证的用户提供免费存储空间的新产品,已经吸引了大量用户转向使用。
Filecoin
的案例引发了对DePIN赛道的更深入思考:作为推动物联网经济的Web3网络,中心化的物理基础设施网络DePIN是新的概念炒作,还是真正推动发展的新动力?目前来看,尽管存在巨大的市场潜力,DePIN服务之间的壁垒仍然存在。如何使加密技术和激励模型真正服务于现实世界的用例,成为了亟待解决的问题。但与DeFi、NFT等更成熟的项目相比,DePIN仍处于待开发的蓝海市场。期待未来有更多开发者通过技术创新推动DePIN赛道的发展,实现Web3价值网络的愿景。 3、Render Network:去中心化GPU渲染服务平台 Render Network是一个革命性的去中心化GPU渲染服务平台,它通过连接需要进行渲染作业的用户和拥有空闲GPU资源的用户来提供服务。这个平台的核心是一个代币激励机制,旨在优化和激励GPU渲染过程。 为了确保服务的高效性和公平性,Render Network采用了基于OctaneBench (OB)的标准来衡量渲染力,将空闲GPU用户分为三个不同层级。这些层级是根据GPU渲染速度的不同来区分的,以确保每个用户根据其硬件的能力获得相应的激励。 Render采用了一种独特的Burn-and Mint Equilibrium (BME)代币激励模型。在这个模型中,用户使用RNDR代币购买GPU渲染服务,任务完成后,所用的代币被销毁。与此同时,服务提供者的奖励是通过新产出的代币来发放的。这种方式确保了RNDR代币在整个经济体中的价值,同时通过销毁和新铸造的代币之间的算法来调整供需平衡。除了任务完成的标准之外,还包括了诸如客户满意度等综合因素,以奖励高质量的服务提供。 Render Network的商业模式从最初的简单C2C模式逐渐演变为更加有管理和控制的B2C模式。这种创新的激励机制不仅提升了渲染服务的效率和质量,还为渲染行业带来了新的发展机遇,通过去中心化的方式激活了全球范围内未被充分利用的GPU资源。 4、Akash Network:可让用户享受80%的成本优惠 Akash Network是一个创新的去中心化云服务网络,由各个云服务提供商构成。它的核心功能是聚合这些提供商的云计算资源,并以较低的成本向开发者提供所需的云计算能力。这种去中心化的方法不仅使服务更加高效,还显著降低了成本。 与传统的中心化云服务提供商如AWS、Google Cloud和Microsoft Azure相比,Akash Network提供的服务能够让用户享受到大约80%的成本优惠。这种巨大的成本优势使Akash成为开发者和小型企业的理想选择,特别是对于那些寻求高质量但成本效益高的云计算资源的用户。 Akash Network的去中心化模式不仅优化了资源分配,还通过允许多个服务提供商共享其未被充分利用的计算资源,提高了整个网络的效率。这种模式的成功实施,展示了去中心化技术在传统行业中的应用潜力,尤其是在云计算这样一个高度集中和成本密集的领域。 通过观察,我们见证了多个项目如Helium、
Filecoin
、Render Network和Akash Network等在去中心化基础设施和服务方面的创新尝试。这些项目不仅展示了区块链技术在传统行业的应用潜力,还为我们提供了对未来数字经济可能走向的窥视。 DePIN后市如何仍未可知,未来发展有待市场检验 尽管DePIN领域充满了挑战,如需求与供应的不平衡、市场接受度、技术的复杂性和可持续性问题,但这些项目已经在推动行业朝着更加去中心化、高效和经济的方向前进。我们期待看到更多创新者加入这个领域,带来更多突破性的技术和商业模式。 DePIN作为一个新兴领域,其真正的潜力和影响还有待市场和时间的检验。然而,无论结果如何,DePIN已经证明了自己作为推动技术和商业创新的一个重要力量。它不仅为现有的经济模式提供了替代方案,还为我们展示了一种更加分散和民主化的未来可能性。 来源:金色财经
lg
...
金色财经
2023-12-01
Pantera Capital合伙人:DePIN如何将去中心化硬件引入新数据经济
go
lg
...
涵盖广泛的项目。 从Arweave和
Filecoin
等去中心化存储网络,到Helium等去中心化WiFi连接,再到Hivemapper等社区软件应用程序,所有这些都被称为“DePIN”。 Messari 在 2023 年 1 月的开创性 DePIN 报告中提出了这一观察,该报告将 DePIN 分为 4 个主要领域:去中心化服务器、无线、传感器和能源网络 。 来源:Messari 。 检索日期:2023 年 11 月 11 日。 从 Messari 描绘的项目和领域中,我们可以看到 DePIN 的最初定义很大程度上倾向于项目的“物理”本质——传感器、服务器和路由器的物理使用,从硬件层向上创建一个去中心化的互联网堆栈 。 然而,从那时起,DePIN 的这一常见概念逐渐扩大到包括更多面向消费者的应用程序,例如旨在打造“去中心化 Uber”的 TRIP 。 因此这就提出了一个问题:我们如何开始概念化“DePIN”所指的是什么? 因此,我们的第一个任务是注意这些项目在原始Messari报告和这个术语的逐渐演变中的概念相似性。许多这些项目共享一些相似之处,包括集体所有权、分布式基础设施成本以及随着更多用户进入生态系统而逐渐扩大的规模经济。事实上,这可以总结为Messari的DePIN飞轮,解释了这是通过代币激励来促成的。 来源:Messari 。 检索日期:2023 年 11 月 11 日。 上述DePIN飞轮最初的概念只涵盖了“物理基础设施”网络,例如
Filecoin
和Helium,用户为网络提供资源(磁盘空间或WiFi连接),作为回报获得代币奖励,进而使网络具有更多容量并吸引更多用户。 然而,这个飞轮并不仅限于硬件基础设施;对于数据基础设施也存在类似的论点。这将涵盖其核心重点是收集和协调消费者数据的项目,利用区块链和代币作为协调新的基于数据的经济的共同接口。这方面的示例包括面向消费者的应用程序,如Messari所指出的“传感器网络项目”和“去中心化的Uber”等项目,以及区块链在供应链或物流管理中潜在的企业应用案例(尽管在这里,对代币的金融化关注较少)。 因此,将 DePIN 概念化为一种趋势的一种方法是将去中心化硬件层与社区拥有的新数据经济相融合。 DePIN案例研究 鉴于 DePIN 的一般特征,我们现在可以探索该领域中一些最具特色的项目 。 Helium Helium是最古老和最显著的DePIN项目之一,于2013年成立,旨在通过让用户以分散的方式部署LoRa网关来扩展宽带基础设施。2017年,该网络决定抓住围绕加密货币的势头,开始通过自己的L1区块链网络提供加密货币支付。 多年来,这种方法使Helium不仅成为DePIN的代表项目之一,更是整个加密行业的代表。许多人称其为“人民网络”,因为这是一个重要项目,人们可以清晰地看到如何利用代币激励社会有益行为。然而,随着时间的推移,Helium网络和协议都遇到了流动性和采用问题,网络的周收入一直在稳步下降。批评者还指出,网络的用例被夸大了,而且激励措施是不可持续的。 从 Coinmarketcap 检索 2022 年 2 月至 2023 年 3 月的数据,2023 年 11 月访问。 2023 年 4 月,Helium 完成了从自己的 L1 区块链到 Solana 上的应用程序的转变 ,希望此举能够增强用户的覆盖范围和流动性,并利用 Solana 的高交易吞吐量来扩展 。 因此,这个 Helium 的例子凸显了 DePIN 领域的一些关键机遇和风险。 代币在启动现实世界用例的行为方面非常有效,但在较长时间内保持足够的理由和兴趣水平是相当困难的。 此外,随着 L1 和 L2 逐渐整合,很难证明运行独立链而不是利用另一个更广泛采用的链的可扩展性、基础设施和流动性的论点是合理的。 Hivemapper Hivemapper 是 Solana 网络上另一个著名的 DePIN 项目,旨在创建一个去中心化的“谷歌地图”。 本质上,该项目的用户在他们的汽车中安装行车记录仪,并与 Hivemapper 分享实时录像,以获得 HONEY 代币作为回报 。 然后,该公司使用所有这些分布式数据来构建具有应用程序 API 接口的去中心化地图。 资料来源:Hivemapper 仪表板,截至 2023 年 11 月 11 日:https://hivemapper.com/explorer Hivemapper 相对于 Google 地图的关键优势在于,作为一个去中心化的、代币激励的网络,它能够以更便宜、更快的方式完成代币映射过程。 反过来,Hivemapper 能够提供更便宜的 API,作为“打破”Google 地图垄断的一种方式 。 Hivemapper突显了DePIN的核心“飞轮”原则,即我们使用代币以高效的方式执行分布式、去中心化的任务。有趣的是,在原始的Messari报告中(2023年1月),Messari将Hivemapper描述为“传感器网络”的典型例子。然而,有人可能认为这并没有充分捕捉到Hivemapper真正的创新。 确实,Hivemapper的核心竞争力在于它收集的数据基础设施——来自其用户网络的去中心化数据——然后通过提供API访问来实现对该数据基础设施的货币化。诚然,该项目使用传感器和行车记录仪来收集数据;但这只是一种偶然。我们可以想象,即使这些数据不是由“传感器网络”生成的,而是通过其他活动(例如浏览,类似于Brave浏览器),甚至是由用户与人工智能进行交互生成的,同样的总体模型可能仍然成立。DePIN利用代币激励通过去中心化方式生成大规模数据(例如通过去中心化硬件网络),从而创造新的数据经济。 Teleport 在Teleport这个以Solana为基础的去中心化Uber竞争对手的案例中,新数据经济的重要性更为明显。随着其最近的应用程序推出(2023年10月)和参与Solana的Breakpoint会议,Teleport是“The Rideshare Protocol”(TRIP)的关键部分,该协议旨在创建一个公平而独立的市场,没有中介或集中式前端获取乘车收入的重要部分(通常高达40%)。 尽管 Teleport 和 TRIP 的采用和持久力还有待观察,但 Teleport 是一个重要的案例研究,展示了开放和去中心化的“数据市场”作为 DePIN 项目价值主张的核心部分的重要性。 IoTeX IoTeX是DePIN领域内的另一个关键参与者,突显了区块链技术与去中心化硬件设备如何在社会上产生不同维度的效益,即安全性和隐私维度。IoTeX的旗舰产品是Ucam,这是一款只有用户自己可以访问的家用安全摄像头,其数据通过区块链的加密和不可变属性来保护。 随着 DePIN 的整体趋势在过去一年中不断增长,IoTeX 的目标不仅仅是构建特定的智能设备,而是构建物联网设备的“开放网络”,并普及“MachineFi”的概念。 然而,正如 Helium 的故事所表明的那样,在 L1 场景整合的整体背景下,即使 DePIN 拥有强大的消费者,在这样的生态系统中建立一个独立且专业的网络并引导流动性也变得越来越困难。 区块链的用例和应用程序层。 更广泛的生态系统影响 DePIN在过去一年的发展对整个区块链生态系统产生了相当大的影响。 其中最重要的原因之一是,DePIN 是面向消费者的应用层,很像 DeFi、游戏和社交,具有大规模采用的潜力,并有可能推动消费者对底层链或生态系统的需求。 正如上面的例子所展示的,Solana似乎是DePIN领域内活动显著的区块链,还有其他像IoTeX这样的参与者,致力于构建为DePIN定制的新颖替代解决方案。作为一个与大量用户和物联网设备进行交互的应用层,可能会对高性能和可组合性的区块链提出需求——既能承载大规模消费者的负载需求,也能在通用语言(如Rust和WebAssembly)中进行组合,以便轻松在物联网设备上运行。 此外,DePIN趋势的增长还对去中心化治理产生了下游影响。因为在推出代币后,通常会习惯性地启动由基于代币的投票协调的去中心化自治组织(DAO),许多知名的DePIN项目似乎在其路线图上设有DAO治理。 目前,大多数最显著的DAO,如Uniswap、Compound和MakerDAO,几乎专门处理数字或金融化资产。但随着DePIN项目的成熟,并逐渐将其治理交接给DAO,对DAO协调购买、使用和维护物理设备的需求将不断增加,无论是服务器、传感器还是硬盘。因此,DePIN可能成为一种趋势,将DAO的治理职责从数字资产扩展到物理资产,最终创造出可能需要DAO运作和行为更类似于传统公司的任务。从长远来看,这可能是“web3”在“现实世界”中被采纳的一个转折点。 来源:金色财经
lg
...
金色财经
2023-12-01
Flostream项目解析:创新型的去中心化存储和内容分发新方案
go
lg
...
项目都做出了自己的权衡和取舍。例如,
Filecoin
追求去中心化,但由于其时空证明算法计算量大,写入速度慢,影响了存储体验和性能;Storj在追求高性能的同时,牺牲了部分去中心化特性;另辟蹊径的Arweave很好地实现了永久存储,但也因此带来了较高的存储成本,更适合NFT和DApp。 市场 目前去中心化存储赛道的整体市场体量相对较小。据Messari发布的一份报告,四个头部存储协议(
Filecoin
、Arweave、Storj和Sia)的2022 年的总收入仅约1450万美元,这与当前数百亿美元的云存储市场需求形成了鲜明对比。据Vantage Market Research的研究报告,全球云存储市场预计将从 2022 年的 900 亿美元增长到 2030 年的 3,300 亿美元,2023 年至 2029 年期间的年复合增长率(CAGR)为 17.7%。 物联网(IoT)、人工智能(AI)和自动化等新技术的采用正在推动数据创建和存储需求指数级增长。中心化数据存储服务商在占据巨大市场份额的同时,暴露出了数据和市场垄断的诸多弊端,去中心化存储领域急需更多改变游戏规则的初创公司加入,以推动更多对数据主权有高要求的 Web3用例的实现。 全球云存储市场规模预测/来源:Vantage Market Research Flostream Network:去中心化的Web3基础设施服务商 Flostream Network 试图为去中心化云存储市场带来一些改变。Flostream 是一家去中心化基础物理设施(DePIN)服务提供商,正在为Web 3构建全新的去中心化存储和分发解决方案。 Flostream Network不仅通过Amazon S3 兼容的API 提供内容存储服务,还能快速检索内容,实现按需内容分发,并支持社交媒体或视频点播流等应用程序,且性能上与Web 2同类产品无异。 Flostream 的设计将使其生态中的用户或应用享受到数据持久性、安全性和可靠性。加载到 Flostream 的任何数据都完全归用户所有,从而确保了数据的数字财产所有权。Flostream有一个本地验证服务,可以通过数字签名和时间戳验证加载的任意数据。 Flostream团队希望通过永久存储和原生认证功能保护互联网的完整性,允许用户将其社交媒体资料、创作者内容或整个互联网的副本备份到Flostream网络,从而在深度伪造(Deepfake)和AI时代保护真相。 Floststream 存储与内容可用性 Flostream 的创始人David Rhodus曾在 Consensys 工作,为一些大型公司开发了很多基于以太坊的 POC 产品,其中很多项目最终都困于扩展问题。David 及其团队花了大量时间试验如何将分布式系统与区块链连接起来,以及如何使用区块链控制这些系统。 在开发开放的、去中心化的钱包到钱包消息元协议的过程中,团队遇到了一个扩展性问题。大量的通信会产生海量数据,Flostream Network 团队意识到现有的去中心化存储解决方案(IPFS、
Filecoin
、Crust 等)存在诸多限制,这促使 Flostream 开始寻求自己的去中心化存储解决方案。 目前Flostream已经推出了自己的Amazon S3 兼容存储服务 Flostream Storage,从底层技术到存储架构设计都进行了大量创新,以实现差异化竞争。 通过引入专有的元数据层、Flostream 数据传输协议(FDTP)和基于 BLAKE3 的尖端哈希算法等创新技术,Flostream Storage有望很好地解决目前去中心化存储市场面临的可扩展性和低性能问题。 开发自主存储协议的目的是优化内容分发,并最终成为 Web3的内容可用性层,使数据能够轻松存储、移动、检索和分发。 技术概览 Flostream Storage由多个单元组成,每个单元包含一个存储集群以及相关的控制和监控基础设施。 这些单元为客户提供与Amazon S3 兼容的存储服务,确保客户数据的隔离和安全。单元由存储节点和网关节点组成,后者是单元存储集群的入口。集群中的节点可用作存储节点或网关节点。这两种类型的节点都能与集群中的所有其他节点通信,维护元数据库,并提供 S3 API 端点。 由存储和网关节点构成的Flostream 存储架构 /来源: Flostream 文档 竞争格局 目前,无论是主流的中心化存储服务商如AWS、谷歌云或者去中心化存储服务商
Filecoin
、Arweave都存在明显的不足。中心化方案尽管存储性能较高,但价格并不便宜,也存在单点故障的可能性。去中心化方案价格相对便宜(Arweave为一次性付费所以略有不同),但无论是存储或者吞吐均存在较多性能限制,无法应用于大规模、高并发的Web3应用场景。 现有的IPFS等分布式存储协议痛点在于:将数据存储在不断扩大的节点分支上,并依赖于线性文件检索方法,从而限制了可扩展性和速度。Flostream的目标是既达到中心化存储服务商的性能优势,同时能做到价格低廉,并且网络延迟比市面上头部去中心化存储项目都要低,寻求一种更为均衡的存储方案。 针对这一系列瓶颈,Flostream存储采用了专有元数据层,可实现快速数据检索和低成本运行。此外,Flostream采用了自研基于BLAKE3的尖端散列算法进行数据压缩和网络管理,比目前AWS用的SHA-256快14倍。同时引入了高性能数据传输协议FDTP,在现有UDP协议基础上进行了优化。Flostream还采用了智能数据放置和数据迁移,人工智能数据位置迁移能够减少热点部署,边缘存储可以在更靠近数据源的地方处理数据,从而实现更快速的访问,并在高负载时提供更快的吞吐量。自创的智能重复数据删除算法则最大限度地减少存储冗余并优化容量的使用,从而降低成本并提高数据传输速度。通过一系列的技术优化,Flostream存储在多个维度上实现了较大的改进: 存储和流量价格低于中心化AWS和谷歌云,尽管仍略高于
Filecoin
和Storj等去中心化项目,但在同等成本情况下能够提供更为优越的存储和带宽性能。 读/写吞吐量能够达到目前中心化存储服务商水平,且在中心化运作模式下,吞吐能力将远超去中心化存储头部项目
Filecoin
、Arweave、Storj等。 仍然保持类似中心化存储服务商的高可扩展性和低时延。 Flostream目前已经为数千位个人用户提供服务,并正在与多家企业开展试点,未来会将存储工作负载从 AWS 和谷歌转移到 Flostream。 坚实而富有经验的团队 Flostream团队成员在区块链、软件工程、云计算、数据存储和项目管理方面拥有丰富的经验,致力于利用自身的技能和资源,提供加密行业最先进的Web3解决方案。创始人David是一位拥有超过25年工程经验的连续创业者。早在2010年,他建立了一个每年支持超过 100,000 场体育赛事直播的流媒体平台,最后被Amazon Web Services成功收购,这样的案例在Web3创业者中并不多见。2015年他加入Consensys,专注于大型企业区块链解决方案的开发。David连续创业的背景不但为项目提供了强有力的背书,同时也已吸引到不少知名机构的关注。Flostream于今年2月完成了300万美元融资,DFG、Fuse、Scytale、D1 Ventures和TRGC等机构参投,是为数不多在加密熊市中仍然能获得外部资金的去中心化存储项目。 总结 目前,大部分的云存储市场份额仍然被Amazon、Google等巨头提供的中心化方案垄断,去中心化存储项目产品在用户体验、性能、成本等方面并未显现出明显优势。这些去中心化项目主要以挖矿方式运作,试图通过代币激励来吸引用户,这也就导致了加密熊市中代币激励减少后,用户大量流失。缺乏Web3原生应用属性,长期必然无法吸引更多的用户和企业,实现规模化的增长。 虽然去中心化存储可以解决很多问题,如数据隐私保护、抗审查、避免单点故障等,但目前去中心化系统的发展还不成熟,仍有很多问题亟待解决, 去中心化存储的行业规模远未达到顶峰。由于先前熊市整体市场萎靡、缺乏内容分发能力、应用场景有限等原因,即使是
Filecoin
、Arweave 和 Storj等头部去中心化项目在市场规模上也无法与中心化存储巨头相抗衡。 随着 Layer 2 技术的成熟,DApp 变得更便宜、速度更快。海量数据的积累和市场需求将再次将行业的焦点转向去中心化存储。未来整个DSN市场一方面需要更多的中间件和聚合器来承载更多的用户流量,另一方面也需要不断调整和优化DSN应用的门槛和成本,从而吸引更多的用户。Flostream的存储和数据可用性产品是目前DApp和去中心化存储无缝结合的理想解决方案。作为Flostream的早期投资者,DFG很高兴看到Flostream Network的产品正在为更广阔的Web3市场带来更多实用的应用解决方案。David 是云服务行业的资深人士,他之前的初创公司被 AWS 收购,证明了他卓越的领导力和创造力。我们相信 David 将能够带领团队取得新的成功,并使 Flostream 成功引领去中心化存储和 Web3 应用程序的新一波创新浪潮。 来源:金色财经
lg
...
金色财经
2023-11-30
Filecoin
(FIL)价格激动人心?市场震荡中或迎涨势1000%+?
go
lg
...
Filecoin
(FIL)是由Protocol Labs支持的去中心化存储网络和加密货币,旨在提高世界数字信息的存储效率、安全性和可用性。自2020年10月推出以来,随着对数据存储解决方案的高效需求的不断增长,
Filecoin
价格再次呈现出引人注目的上涨势头。 尽管近几周,
Filecoin
与全球加密货币市场同时经历了严重的调整,但许多专业人士认为这种下跌可能是短期的。然而,仍然存在一个问题:
Filecoin
的价格是否会迅速回升? 在本文中,我们将研究可能导致
Filecoin
再次上涨或下跌的因素,公开的 FIL 价格是否会保持稳定或快速回升做出一些预测。
Filecoin
的最新网络发展
Filecoin
虚拟机(FVM)于今年正式推出,为
Filecoin
网络引入了独特的存储利用层。这一令人激动的发展标志着
Filecoin
生态系统迈向新的里程碑,FVM为开发者提供了一种创新的方式,可以定制适合个人需求的存储解决方案。 通过FVM,开发人员可以在外部掌控其应用程序的云原生数据,并通过可定制的智能合约提高了Web服务的效率和可扩展性。这种新的虚拟机为
Filecoin
的进一步发展和生态系统的扩展提供了强大的工具。 影响FIL价格的因素
Filecoin
的价格在很大程度上受到其他加密货币相同的影响因素的影响。与任何资产或商品一样,营收和需求是推动价格最重要的市场力量。 市场投机和投资者情绪在任何特定时间影响单个代币的价值。由于加密货币是相对较新的资产类别,与股票或大宗商品等更成熟的市场相比,可用的研究和理解要少因此预测其未来表现可能会很困难。 除了考虑趋势之外,比特币的成功还对包括
Filecoin
在内的众多山寨币产生了影响。如果比特币保持强势,可能会导致人们对
Filecoin
等其他代币的兴趣增加,这将在短期内进一步推高价格。 当前
Filecoin
市场分析 今天,
Filecoin
的价格为3.34美元,过去24小时的交易量为86,788,598美元。
Filecoin
的价值今天下跌了0.31%。在CoinMarketCap上,目前排名第31位,总市值为14.8亿美元。流通中的代币数量为4.5亿枚,而该代币没有设定最大供应量。 2021年4月21日,FIL的价值达到历史最高值237.62美元,较2020年12月30日的历史最低值19.95美元高出不少。FIL的可用价值为1.1487亿美元,但最高值为19.7亿美元。 然而,自去年以来,该代币一直承受着巨大的看跌压力,并一直低于其发行价11美元。 2023年
Filecoin
还能涨吗? 根据我们对 2023 年底
Filecoin
的预测,
Filecoin
的价格可能会在 2.94 美元至 13.01 美元的范围内波动,平均成本约为 7.99 美元。预测显示,到 2023 年 10 月,FIL 的价格区间可能为 3.27 美元至7.88美元。 到2024年12月,
Filecoin
的预测价格预计将大幅上涨至50.20美元。从技术指标来看,长期市场趋势看涨。
Filecoin
上个月的价格变动幅度为6.26%,30天或15天以正值计算结束。 根据历史趋势,分析师预计
Filecoin
在2024年的交易价格可能在5.63美元至55.38美元的范围内波动,未来可能会上涨。 结论
Filecoin
(FIL)的未来价格如何变化尚不确定。加密货币市场的不可预测性和活跃性令人非常。这意味着无论该项目进行了多少研究、分析或预测,未来都存在许多不确定性性。 投资任何高度投机性的资产(如FIL)时最好保持观望态度。在做出任何投资决策之前,投资者应始终进行充分的尽职调查,并了解所涉及的风险。 来源:金色财经
lg
...
金色财经
2023-11-30
Kernel Ventures:一文解析 DA 和历史数据层设计
go
lg
...
括 Bitcoin,Ethereum,
Filecoin
中,节点存储方式为 Leveldb 数据库。在 Leveldb 中,数据以三种方式存储。首先是即时写入的数据会存储在 Memtable 类型文件中,当 Memtable 存储满了后则会将文件类型从 Memtable 改为 Immutable Memtable。这两种类型的文件均存储在内存中,但是 Immutable Memtable 文件无法再做更改,只能从中读取数据。IPFS 网络中使用的热存储就是将数据存储在了这个部分,当要调用时就可以快速从内存读取,但是一个普通节点的移动内存往往都是 GB 级别,很容易就会写慢,并且当节点出现宕机等异常情况后,内存中的数据便会永久丢失。如果希望数据持久存储,则需要以 SST 文件的形式存储到固态硬盘(SSD),但读取数据时需要先将数据读到内存,因而大大降低数据索引速度。最后,对于采取了分片存储的系统,其数据还原时需要向多个节点发送数据请求并进行还原,这个过程也会降低数据的读取速度。 Leveldb 数据存储方式,图片来源:Leveldb-handbook 2.4 DA 层通用性 随着 DeFi 的发展,以及 CEX 的种种问题,用户对于去中心化资产跨链交易的要求也不断增长。而无论是采取哈希锁定,公证人还是中继链的跨链机制,都避免不了对两条链上历史数据的同时确定。这个问题的关键在于两条链上数据的分离,不同的去中心化系统中无法实现直接沟通。因而现阶段通过改变 DA 层存储方式提出了一种解决方案,既将多条公链的历史数据存储在同一条可信的公链上,验证的时候只需要在这条公链上调用数据即可。这需要 DA 层能够与不同类型的公链建立安全的通信方式,也就是 DA 层具有较好的通用性。 3. DA 相关技术探索 3.1 Sharding 传统的分布式系统中,一份文件不会以完整的形式存储在某一个节点上,而是将原始数据分成多个 Blocks 后在每一个节点中存储一个 Block。并且 Block 往往不会仅存储在一个节点上,而是会在其他节点上留有适当的备份,现有主流分布式系统中,这个备份数量通常设置为 2。这种 Sharding 机制可以减少单个节点的存储压力,将系统的总容量扩展为各个节点存储量的总和,同时又通过适当的数据冗余确保存储的安全性。区块链中采取的 Sharding 方案大体与之类似,但在具体细节上会存在不同。首先是由于区块链中默认各个节点是不可信的,实现 Sharding 的过程中需要足够大的数据量备份以供后续数据真实性的判断,所以这个节点的备份数量需要远超过 2。理想情况下,在采用这种方案存储的区块链系统中,如果验证节点总数为 T,分片数量为 N,那么备份数量应该为 T/N。其次是对 Block 的存储过程,传统分布式系统中节点较少,因而往往是一个节点适配多个数据块,首先是通过一致性哈希算法将数据映射到哈希环上去,然后每个节点存储某个范围内编号的数据块,并且可以接受某个节点在某次存储中并没有分配存储任务。而在区块链上,每个节点是否分配到 Block 不再是随机事件而是必然事件,每个节点都会随机抽取一个 Block 进行存储,这一过程通过将带有区块原始数据与节点自身信息的数据哈希后的结果对分片数取余完成。假设每份数据被分为了 N 个 Blocks,每个节点的实际存储大小仅为原来的 1/N。通过适当设置 N,可以实现增长的 TPS 和节点存储压力的平衡。 Sharding 后的数据存储方式,图片来源:Kernel Ventures 3.2 DAS(Data Availability Sampling) DAS 技术是基于 Sharding 在存储方式上的进一步优化。在 Sharding 过程中,由于节点简单的随机存储,可能会出现某个 Block 丢失的情况。其次,对于分片后的数据,还原过程中如何确认数据的真实性与完整性也非常重要。在 DAS 中,通过 Eraser code 与 KZG 多项式承诺对这两个问题进行了解决。 Eraser code:考虑以太坊庞大的验证节点数量,某个 Block 没有被任何节点存储的概率几乎为 0,但是理论上来说仍然存在这种极端情况发生的可能。为了减轻这一可能造成的存储缺失的威胁,此方案下往往不直接将原始数据切分为 Block 进行存储,而是先将原始数据映射到一个 n 阶多项式的系数上,然后在多项式上取 2n 个点,并让节点从中随机选择一个进行存储。对于这个 n 阶多项式,只需要 n+1 个点便可以进行还原,因而只需要有一半的 Block 有被节点选中,我们便可以实现对原始数据的还原。通过 Eraser code,提高了数据存储的安全程度与网络对于数据的恢复能力。 KZG 多项式承诺:在数据存储中非常重要的一环便是对于数据真实性的检验。在没有采用 Eraser code 的网络中,校验环节可以采用多样的方法,但是如果引入了上文的 Eraser code 以提高数据安全性,那么比较合适的方法是使用 KZG 多项式承诺。KZG 多项式承诺可以直接以多项式的形式对单个 Block 内容校验,从而省去将多项式还原为二进制数据的过程,验证的形式总体与 Merkle Tree 类似,但是不需要具体的 Path 节点数据,只需要 KZG Root 与 Block 数据便可对其真伪进行验证。 3.3 DA 层数据校验方式 数据校验既确保从节点中调用的数据未被篡改且具有没有出现丢失。为了尽可能减少校验过程中所需要的数据量以及计算成本,DA 层现阶段采用树结构做为主流的校验方式。最简单的形式便是使用 Merkle Tree 进行校验,使用完全二叉树的形式记录,只需要保留一个 Merkle Root 以及节点路径上另一侧子树的哈希值便可以进行校验,校验的时间复杂度为 O(logN) 级别(如果 logN 不加底数默认为 log2(N))。虽然已经极大简化了校验过程,但是验证过程的数据量总体还是随着数据的增加而增长。为了解决增加的验证量问题,现阶段提出了另一种验证方式,Verkle Tree。Verkle Tree 中每个节点除了存储 value 还会附带一个 Vector Commitment ,通过原始节点的值和这个承诺性证明就可以快速对数据真实性进行验证,而不需要调用其他姐妹节点的值,这使得每次验证的计算次数只和 Verkle Tree 的深度有关,是一个固定的常数,从而大大加速了验证速度。但是 Vector Commitment 的计算需要同一层所有姐妹节点的参与,这大大增大了写入数据与更改数据的成本。但是对于历史数据这类做永久性存储而不能篡改的数据,只有读而没有写的需求,Verkle Tree 就显得极为合适了。此外 Merkle Tree 与 Verkle Tree 本身还有 K-ary 形式下的变体,其具体实现机制相似,只是改变了每个节点下子树的数量,其具体性能的对比可以见下表。 数据校验方式时间性能对比,图片来源:Verkle Trees 3.4 通用 DA 中间件 区块链生态的不断扩大,随之带来公链数量的不断增加。由于各条公链在各自领域的优势与不可替代性,短时间内 Layer1 公链几无可能走向统一。但是随着 DeFi 的发展,以及 CEX 的种种问题,用户对于去中心化跨链交易资产的要求也不断增长。因此,可以消除跨链数据交互中的安全问题的 DA 层多链数据存储得到了越来越多的关注。但是要接受来自不同公链的历史数据,需要 DA 层提供数据流标准化存储与验证的去中心化协议,比如基于 Arweave 的存储中间件 kvye ,采取主动从链上抓取数据的方式,可以将所有链上的数据以标准的形式存储至 Arweave,以最小化数据传输过程的差异性。相对来说,专门为某条公链提供 DA 层数据存储的 Layer2 通过内部共享节点的方式进行数据交互,虽然降低了交互的成本并提高了安全性,但是具有比较大的局限性,仅能向特定公链提供服务。 4. DA 层存储方案 4.1 主链 DA 4.1.1 类 DankSharding 这类存储方案暂时还没有确定的名称,而其中最突出的代表就是以太坊上的 DankSharding,因而本文中使用类 DankSharding 代称这一类方案。这类方案主要使用了上述的两种 DA 存储技术,Sharding 和 DAS。首先通过 Sharding 将数据分成合适的份数,然后再让每个节点以 DAS 的形式抽取一个数据 Block 进行存储。对于全网节点足够多的情况,我们可以取一个较大的分片数 N,这样每个节点的存储压力只有原来的 1/N,从而实现整体存储空间的 N 倍扩容。同时为了保证防止某个 Block 没有被任一区块存储的极端情况,DankSharding 对数据使用 Eraser Code 进行了编码,只需要一半的数据就可以进行完整还原。最后是对数据的检验过程,使用了 Verkle 树的结构与多项式承诺,实现了快速的校验。 4.1.2 短期存储 对于主链的 DA,一种最为简单的数据处理方式就是对历史数据进行短期存储。本质上来说,区块链所起的是一个公示账本的作用,在全网共同见证的前提下实现对账本内容的更改,而并没有永久化存储的需求。以 Solana 为例,虽然其历史数据被同步到了 Arweave 上,但是主网节点只保留了近两日的交易数据。基于账户记录的公链上,每一时刻的历史数据保留了区块链上账户最终的状态,便足以为下一时刻的更改提供验证依据。而对于这个时间段之前数据有特殊需求的项目方,可以自己在其他去中心化公链上或者交由可信第三方进行存储。也就是说对于数据有额外需求的人,需要对历史数据存储进行付费。 4.2 第三方 DA 4.2.1 主链专用 DA:EthStorage 主链专用DA:DA 层最重要的就是数据传输的安全性,这一点上安全性最高的便是主链的 DA。但是主链存储受到存储空间的限制以及资源的竞争,因而当网络数据量增长较快时,如果要实现对数据的长期存储,第三方 DA 会是一个更好的选择。第三方 DA 如果与主网有更高的兼容性,可以实现节点的共用,数据交互过程中也会具有更高的安全性。因而在考虑安全性的前提下,主链专用 DA 会存在巨大优势。以以太坊为例,主链专用 DA 的一个基本要求是可以与 EVM 兼容,保证和以太坊数据与合约间的互操作性,代表性的项目有 Topia,EthStorage 等。其中 EthStorage 是兼容性方面目前开发最完善的,因为除了 EVM 层面的兼容,其还专门设置了相关接口与 Remix,Hardhat 等以太坊开发工具对接,实现以太坊开发工具层面的兼容。 EthStorage:EthStorage 是一条独立于以太坊的公链,但其上运行的节点是以太坊节点的超群,也就是运行 EthStorage 的节点也可以同时运行以太坊,通过以太坊上的操作码便可以直接对 EthStorage 进行操作。EthStorage 的存储模式中,仅在以太坊主网保留少量元数据以供索引,本质上是为以太坊创建了一个去中心化的数据库。现阶段的解决方案中,EthStorage 通过在以太坊主网上部署了一份 EthStorage Contract 实现了以太坊主网与 EthStorage 的交互。如果以太坊要存入数据,则需要调用合约中的 put() 函数,输入参数是两个字节变量 key, data,其中 data 表示要存入的数据,而 key 则是其在以太坊网络中的标识,可以将其看成类似于IPFS中 CID 的存在。在(key,data)数据对成功存储到 EthStorage 网络后,EthStorage 会生成一个 kvldx 返回给以太坊主网,并于以太坊上的 key 对应,这个值对应了数据在 EthStorage 上的存储地址,这样原来可能需要存储大量数据的问题现在就变为了存储一个单一的 (key,kvldx)对,从而大大降低了以太坊主网的存储成本。如果需要对之前存储的数据进行调用,则需要使用 EthStorage 中的 get() 函数,并输入 key 参数,通过以太坊存储的 kvldx 便可在 EthStorage 上对数据进行一个快速查找。 EthStorage 合约,图片来源:Kernel Ventures 在节点具体存储数据的方式上,EthStorage 借鉴了 Arweave 的模式。首先是对于来自 ETH 的大量 (k,v)对进行了分片,每个 Sharding 包含固定数量个(k,v)数据对,其中每个(k,v)对的具体大小也存在一个限制,通过这种方式保证后续对于矿工存储奖励过程中的工作量大小的公平性。对于奖励的发放,需要先对节点是否存储数据进行验证。这个过程中,EthStorage 会把一个 Sharding(TB 级别大小)分成非常多的 chunk,并在以太坊主网保留一个 Merkle root 以做验证。接着需要矿工首先提供一个 nonce 来与 EthStorage 上前一个区块的哈希通过随机算法生成出几个 chunk 的地址,矿工需要提供这几个 chunk 的数据以证明其确实存储了整个 Sharding。但这个 nonce 不能随意选取,否则节点会选取出合适的 nonce 只对应其存储的 chunk 从而通过验证,所以这个 nonce 必须使得其所生成的 chunk 经过混合与哈希后可以使难度值满足网络要求,并且只有第一个提交 nonce 和随机访问证明的节点才可以获取奖励。 4.2.2 模块化 DA:Celestia 区块链模块:现阶段 Layer1 公链所需执行的事务主要分为以下四个部分:(1)设计网络底层逻辑,按照某种方式选取验证节点,写入区块并为网络维护者分配奖励;(2)打包处理交易并发布相关事务;(3)对将要上链的交易进行验证并确定最终状态;(4)对于区块链上的历史数据进行存储与维护。根据所完成功能的不同,我们可以将区块链分别划分为四个模块,即共识层、执行层、结算层、数据可用性层(DA 层)。 模块化区块链设计:很长一段时间,这四个模块都被整合到了一条公链上,这样的区块链称为单体区块链。这种形式更加稳定并便于维护,但也给单条公链带来了巨大的压力。实际运行过程中,这四个模块之间互相约束并竞争公链有限的计算与存储资源。例如,要提高处理层的处理速度,相应就会给数据可用性层带来更大的存储压力;要保证执行层的安全性就需要更复杂的验证机制但拖慢交易处理的速度。因此,公链的开发往往面临着这四个模块间的权衡。为了突破这一公链性能提升的瓶颈,开发者提出了模块化区块链的方案。模块化区块链的核心思想是将上述的四个模块中的一个或几个剥离出来,交给一条单独的公链实现。这样在该条公链上就可以仅专注于交易速度或者存储能力的提升,突破之前由于短板效应对于区块链整体性能造成的限制。 模块化 DA:将 DA 层从区块链业务中剥离出来单独交由一条公链复杂的方法被认为是面对 Layer1 日益增长历史数据的一种可行解决方案。现阶段这方面的探索仍处于早期阶段,目前最具代表性的项目是 Celestia。在存储的具体方式上,Celestia 借鉴了 Danksharding 的存储方法,也是将数据分成多个 Block,由各个节点抽取一部分进行存储并同时使用 KZG 多项式承诺对数据完整性进行验证。同时,Celestia 使用了先进的二维 RS 纠删码,通过 kk 矩阵的形式改写原始数据,最终只需要 25% 的部分便可以对原始数据实现恢复。然而,数据分片存储本质上只是将全网节点的存储压力在总数据量上乘以了一个系数,节点的存储压力与数据量仍然是保持线性增长。随着 Layer1 对于交易速度的不断改进,节点的存储压力某天仍可能达到一个无法接受的临界。为了解决这一问题,Celestia 中引入了 IPLD 组件进行处理。对于 kk 矩阵中的数据,并不直接存储在 Celestia 上,而是存储在 LL-IPFS 网络中,仅在节点中保留该数据在 IPFS 上的 CID 码。当用户请求某份历史数据时,节点会向 IPLD 组件发送对应 CID,通过该 CID 在 IPFS 上对原始数据进行调用。如果在 IPFS 上存在数据,则会经由 IPLD 组件和节点返回回来;如果不存在,则无法返回数据。 Celestia 数据读取方式,图片来源:Celestia Core Celestia:以 Celestia 为例,我们可以窥见模块化区块链在解决以太坊存储问题中的落地应用。Rollup 节点会将打包并验证好的交易数据发送给 Celestia 并在 Celestia 上对数据进行存储,这个过程中 Celestia 只管对数据进行存储,而不会有过多的感知,最后根据存储空间的大小 Rollup 节点会向 Celestia 支付相应 tia代币作为存储费用。在Celstia中的存储利用了类似于 EIP4844 中的 DAS 和纠删码,但是对 EIP4844 中的多项式纠删码进行了升级,使用了二维 RS 纠删码,将存储安全进行了再次升级,仅需 25% 的 fractures 便可以对整个交易数据进行还原。本质上只是一条存储成本低廉的 POS 公链,如果要实现用来解决以太坊的历史数据存储问题,还需要许多其他具体模块来与 Celestia 进行配合。比如 Rollup 方面,Celestia 官网上大力推荐的一种 Rollup 模式是 Sovereign Rollup。不同于 Layer2 上常见的 Rollup,仅仅对交易进行计算和验证,也就是完成执行层的操作。Sovereign Rollup 包含了整个执行和结算的过程,这最小化了 Celestia 上对交易的处理,在 Celestia 整体安全性弱于以太坊的情况下,这种措施可以最大提升整体交易过程的安全性。而在以太坊主网 Celestia 调用数据的安全性保障方面,当下最主流的方案是量子引力桥智能合约。对于 Celestia 上存储的数据,其会生成一个 Merkle Root(数据可用性证明) 并保持在以太坊主网的量子引力桥合约上,当以太坊每次调用 Celestia 上历史数据时,都会将其哈希结果与 Merkle Root 进行比较,如果符合才表示其确实是真实的历史数据。 4.2.3 存储公链 DA 在主链 DA 技术原理上,向存储公链借鉴了类似 Sharding 的许多技术。而在第三方 DA 中,有些更是直接借助存储公链完成了部分存储任务,比如 Celestia 中具体的交易数据就是放在了 LL-IPFS 网络上。第三方 DA 的方案中,除了搭建一条单独的公链解决 Layer1 的存储问题之外,一种更直接的方式是直接让存储公链和 Layer1 对接,存储 Layer1 上庞大的历史数据。对于高性能区块链来说,历史数据的体量更为庞大,在全速运行的情况下,高性能公链 Solana 的数据量大小接近 4 PG,完全超出了普通节点的存储范围。Solana 选择的解决方案是将历史数据存储在去中心化存储网络 Arweave 上,只在主网的节点上保留 2 日的数据用来验证。为了确保存储过程的安全性 Solana 与 Arweave 链自己专门设计了一个存储桥协议 Solar Bridge。Solana 节点验证后的数据会同步到 Arweave 上并返回相应 tag。只需要通过该 tag,Solana 节点便可以对 Solana 区块链任意时刻的历史数据进行查看。而在 Arweave 上,不需要全网节点保持数据一致性,并以此作为参与网络运行的门槛,而是采取了奖励存储的方式。首先 Arweave 并没有采用传统链结构构建区块,而更类似一种图的结构。在 Arweave 中,一个新的区块不仅会指向前一个区块,还会随机指向一个已生成的区块 Recall Block。Recall Block 的具体位置由其前一区块与其区块高度的哈希结果决定,在前一区块被挖出之前,Recall Block 的位置是未知的。但是在生成新区块的过程中,需要节点具有 Recall Block 的数据以使用 POW 机制计算规定难度的哈希,只有最先计算出符合难度哈希的矿工才可以获得奖励,鼓励了矿工存储尽可能多的历史数据。同时,存储某个历史区块的人越少,节点在生成符合难度 nonce 时会有更少的竞争对手,鼓励矿工存储网络中备份较少的区块。最后,为了保证节点在 Arweave 中对数据做永久性存储,其引入了 WildFire 的节点评分机制。节点间会倾向于与可以较快的提供更多历史数据的节点通信,而评分等级较低的节点往往无法第一时间获得最新的区块与交易数据从而无法在 POW 的竞争中占取先机。 Arweave 区块构建方式,图片来源:Arweave Yellow-Paper 5. 综合对比 接下来,我们将从 DA 性能指标的四个维度出发,分别对 5 种存储方案的优劣进行比较。 安全性:数据安全问题的最大的来源是数据传输过程中导致的遗失以及来自不诚信节点的恶意篡改,而跨链过程中由于两条公链的独立性与状态不共享,所以是数据传输安全的重灾区。此外,现阶段需要专门 DA 层的 Layer 1 往往有强大的共识群体,自身安全性会远高于普通存储公链。因而主链 DA 的方案具更高的安全性。而在确保了数据传输安全后,接下来就是要保证调用数据的安全。只考虑用来验证交易的短期历史数据的话,同一份数据在临时存储的网络中得到了全网共同的备份,而在类 DankSharding 的方案中数据平均的备份数量只有全网节点数的 1/N,更多的数据冗余可以使得数据更不容易丢失,同时也可以在验证时提供更多的参考样本。因而临时存储相对会有更高的数据安全性。而在第三方 DA 的方案中,主链专用 DA 由于和主链使用公共节点,跨链过程中数据可以通过这些中继节点直接传输,因而也会有比其他 DA 方案相对较高的安全性。 存储成本:对存储成本最大的影响因素是数据的冗余数量。在主链 DA 的短期存储方案中,使用全网节点数据同步的形式进行存储,任何一份新存储的数据需要在全网节点中得到备份,具有最高的存储成本。高昂的存储成本反过来也决定了,在高 TPS 的网络中,该方式只适合做临时存储。其次是 Sharding 的存储方式,包括了在主链的 Sharding 以及第三方 DA 中的 Sharding。由于主链往往有更多的节点,因而相应一个 Block 也会有更多的备份,所以主链 Sharding 方案会有更高的成本。而存储成本最低的则是采取奖励存储方式的存储公链 DA ,此方案下数据冗余的数量往往在一个固定的常数附近波动。同时存储公链 DA 中还引入了动态调节的机制,通过提高奖励吸引节点存储备份较少的数据以确保数据安全。 数据读取速度:数据的存储速度主要受到数据在存储空间中的存储位置、数据索引路径以及数据在节点中的分布的影响。其中,数据在节点的存储位置对速度的影响更大,因为将数据存储在内存或 SSD 中可能导致读取速度相差数十倍。存储公链 DA 多采取 SSD 存储,因为该链上的负载不仅包括 DA 层的数据,还包括用户上传的视频、图片等高内存占用的个人数据。如果网络不使用 SSD 作为存储空间,难以承载巨大的存储压力并满足长期存储的需求。其次,对于使用内存态存储数据的第三方 DA 和主链 DA,第三方 DA 首先需要在主链中搜索相应的索引数据,然后将该索引数据跨链传输到第三方 DA,并通过存储桥返回数据。相比之下,主链 DA 可以直接从节点查询数据,因此具有更快的数据检索速度。最后,在主链 DA 内部,采用 Sharding 方式需要从多个节点调用 Block,并对原始数据进行还原。因此相对于不分片存储的短期存储方式而言,速度会较慢。 DA 层通用性:主链 DA 通用性接近于零,因为不可能将存储空间不足的公链上的数据转移到另一条存储空间不足的公链上。在第三方 DA 中,方案的通用性与其与特定主链的兼容性是一对矛盾的指标。例如,对于专为某条主链设计的主链专用 DA 方案中,其在节点类型和网络共识层面进行了大量改进以适配该公链,因而在与其他公链通信时,这些改进会起到巨大的阻碍作用。而在第三方 DA 内部,与模块化 DA 相比, 存储公链 DA 在通用性方面表现更好。存储公链 DA 具有更庞大的开发者社区和更多的拓展设施,可以适应不同公链的情况。同时,存储公链 DA 对于数据的获取方式更多是通过抓包主动获取,而不是被动接收来自其他公链传输的信息。因此,它可以以自己的方式对数据进行编码,实现数据流的标准化存储,便于管理来自不同主链的数据信息,并提高存储效率。 存储方案性能比较,图片来源:Kernel Ventures 6. 总结 现阶段的区块链正在经历从 Crypto 向更具包容性的 Web3 转换的过程中,这个过程中带来的不仅是区块链上项目的丰富。为了在 Layer1 上容纳如此多项目的同时运行,同时保证 Gamefi 和 Socialfi 项目的体验,以以太坊为代表的 Layer1 采取了 Rollup 和 Blobs 等方式来提高 TPS。而新生区块链中,高性能区块链的数量也是不断增长。但是更高的 TPS 不仅意味着更高的性能,也意味着网络中更大的存储压力。对于海量的历史数据,现阶段提出了主链和基于第三方的多种 DA 方式,以适应链上存储压力的增长。改进方式各有利弊,在不同情境下有不同适用性。 以支付为主的区块链对于历史数据的安全性有着极高的要求,而不追求特别高的 TPS。如果这类公链还处于筹备阶段,可以采取类 DankSharding 的存储方式,在保证安全性的同时也可以实现存储容量的巨大提升。但如果是比特币这种已经成型并有大量节点的公链,在共识层贸然进行改进存在巨大风险,因而可以采取链外存储中安全性较高的主链专用 DA 来兼顾安全性与存储问题。但值得注意的是,区块链的功能并不是一成不变而是不断变化的。比如早期的以太坊的功能主要也局限于支付以及使用智能合约对资产和交易进行简单的自动化处理,但是随着区块链版图的不断拓展,以太坊上逐渐加入了各种 Socialfi 与 Defi 项目,使以太坊向着更加综合性的方向发展。而最近伴随着比特币上铭文生态的爆发,比特币网络的交易手续费自 8 月以来激增了近 20 倍,背后反映的是现阶段比特币网络的交易速度无法满足交易需求,交易者只能拉高手续费使交易尽快得到处理。现在,比特币社区需要做出一个 trade-off,是接受高昂的手续费以及缓慢的交易速度,还是降低网络安全性以提高交易速度但违背支付系统的初衷。如果比特币社区选择了后者,那么面对增长的数据压力,相应的存储方案也需要做出调整。 比特币主网交易费用波动,图片来源:OKLINK 而对于综合功能的公链,其对 TPS 有着更高的追求,历史数据的增长更加巨大,采取类 DankSharding 的方案长期来看难以适应 TPS 的快速增长。因此,较为合适的方式是将数据迁移到第三方 DA 进行存储。其中,主链专用 DA 具有最高的兼容性,如果只考虑单条公链的存储问题,可能更具优势。但是在 Layer1 公链百花齐放的今天,跨链资产转移与数据交互也成为区块链社区的普遍追求。如果考虑到整个区块链生态的长期发展,将不同公链的历史数据存储在同一条公链上可以消除许多数据交换与验证过程中的安全问题,因此,模块化 DA 和存储公链 DA 的方式可能是一个更好的选择。在通用性接近的前提下,模块化 DA 专注于提供区块链 DA 层的服务,引入了更精细化的索引数据管理历史数据,可以对不同公链数据进行一个合理归类,与存储公链相比具有更多优势。然而,上述方案并未考虑在已有公链上进行共识层调整的成本,这个过程具有极高的风险性,一旦出现问题可能会导致系统性的漏洞,使得公链失去社区共识。因此,如果是区块链扩容过程中的过渡方案,最简单的主链临时存储可能更合适。最后,以上讨论都基于实际运行过程中的性能出发,但如果某条公链的目标是发展自身生态,吸引更多项目方和参与者,也有可能会倾向于受到自身基金会扶持和资助的项目。比如在同等甚至总体性能略低于存储公链存储方案的情况下,以太坊社区也会倾向于 EthStorage 这类以太坊基金会支持的 Layer2 项目,以持续发展以太坊生态。 总而言之,当今区块链的功能越来越复杂,也带来了更大的存储空间需求。在 Layer1 验证节点足够多的情况下,历史数据并不需要全网所有节点共同备份,只需要备份数量达到某个数值后便可保证相对的安全性。与此同时,公链的分工也变得越来越细致,Layer1 负责共识和执行,Rollup 负责计算和验证,再使用单独的一条区块链进行数据存储。每个部分都可以专注于某一功能,不受其他部分性能的限制。然而,具体存储多少数量或让多少比例的节点存储历史数据才能实现安全性与效率的平衡,以及如何保证不同区块链之间的安全互操作,这是需要区块链开发者进行思考和不断完善的问题。对于投资者而言,可以关注以太坊上的主链专用 DA 项目,因为现阶段以太坊已有足够多的支持者,不需要再借助其他社区扩大自己的影响力。更多的需要是完善与发展自己的社区,吸引更多项目落地以太坊生态。但是对处于追赶者地位的公链,比如 Solana,Aptos 来说,单链本身没有那么完善的生态,因而可能更倾向于联合其他社区的力量,搭建一个庞大的跨链生态以扩大影响力。因而对于新兴的 Layer1 ,通用的第三方 DA 值得更多的关注。 来源:金色财经
lg
...
金色财经
2023-11-29
Filecoin
Layer2未来已来, IPFS赛道再掀浪潮, 官方明牌空投活动, FIL能否再崛起?
go
lg
...
自2023年3月
Filecoin
虚拟机(FVM)正式上线以来,自此
Filecoin
区块链现已可通过 FVM 支持智能合约和用户可编程性。通过 FVM,开发者可部署智能合约,并规划数据存储、治理和在公开市场变现的方式。目前,
Filecoin
已部署超过3000个智能合约,
Filecoin
虚拟机(FVM)带来了以太坊式的智能合约支持的新用例,包括流动性质押、永久存储和去中心化计算。 据星球日报报道,SINSO和FILDAO在伊斯坦布尔举办的“Web3时代·
Filecoin
的未来之夜”的活动中展示了在数据存储和治理领域的重大进展,强调了
Filecoin
生态对Web3世界的重要性。 据悉,本活动聚焦
Filecoin
及其虚拟机(FVM)在构建Web3平台的角色。活动吸引了领域内的专家、开发者和投资者。特别嘉宾包括
Filecoin
Foundation的Clara Tsao和Protocol Labs的Colin Evran。 如何参与FILDAO?有什么新的机遇? FILDAO是协议实验室唯一指定官方社区,现在参与者质押FIL就能获得FILX空投奖励。 我们相信,随着
Filecoin
生态系统的不断发展和完善,尤其是在智能合约和FVM的推动下,FIL将再次展现其市场领导力。技术创新、合作伙伴关系的增强以及对Web3基础设施的持续贡献将推动FIL的价值上升。 来源:金色财经
lg
...
金色财经
2023-11-28
Filecoin
大翻身 牛市将至 99%跌幅会逆转吗?
go
lg
...
IPFS 和
Filecoin
概述。 文件系统(IPFS)是一种协议和网络,旨在以点对点的方式创建星际文件系统,用于存储和共享超媒体。 与传统的文件共享系统不同,IPFS建立在去中心化系统之上,用户不再从单一中央服务器获取数据,而是从多个分散节点获取数据。 这确保了更快、更具弹性的数据访问,并降低了中心化故障点的风险。 IPFS生态系统门户为这一革命性系统中的各种项目、工具和社区提供了全面的指南。 另一方面,
Filecoin
是一个去中心化存储网络,将云存储转变为算法市场。 工人通过向客户提供存储来存储
Filecoin
,而客户则花费
Filecoin
来雇用工人存储或分发数据。 这种共生关系确保了数据随着时间的推移被可靠地存储。 通过与Brave浏览器的集成,
Filecoin
进一步巩固了其在去中心化存储领域的地位,改变了游戏规则。 去中心化存储的意义及其对互联网的影响。 IPFS和
Filecoin
所带来的去中心化存储不仅是技术上的进步,也是对数据存储和访问方式的重大改变。 传统的互联网结构依赖于集中式服务器,这些服务器很容易受到中断、审查和数据泄露的威胁。 去中心化系统将数据分布在节点节点上,保证即使少数节点离线,数据仍然可访问。 Brave浏览器与Protocol Labs的合作体现了去中心化存储的实际应用。通过集成IPFS,Brave为用户提供了一种恢复弹性、更快速且抗审查的内容访问方式。这在网络基础设施有限或审查制度的划分非常重要。 此外,NFT(不可替代代币)的崛起凸显了可验证数据真实性和漏洞的重要性。像Pinata等平台正在利用IPFS确保NFT的元数据安全存储并可靠检索,从而完全消除了NFT元数据存储从本质上讲,去中心化存储正在重新定义互联网的结构,承诺未来数据不仅可以存储,还可以更优先于用户隐私、安全和自由的方式拥有、控制和访问。 IPFS生态系统 IPFS 生态系统门户的亮点。 IPFS生态系统门户是通往IPFS非法世界的入口,旨在为用户提供对IPFS网络中各种项目、工具和社区的全面意见。从IP及其FS核心概念的基础知识到高级主题,该门户主题了新手和经验丰富的IPFS需求者所需的信息宝库。 该门户的一个显着特点是强调社区推动的项目。它展示了多种应用程序,包括互联网文件扩展项目(如InterPlanetary Wayback Machine)和发布去中心化Web应用程序的Fleek平台。 此外,该门户强调了合作的重要性,正如2023年推出的IPFS生态系统工作组所展示的,该工作组致力于促进IPFS社区内部的增长和创新。在我的研究中,我还发现了其他创新解决方案,如Beloga和Distributed Press。其中,Distributed Press指导用户在全球网络上设置网站。 IPFS 生态系统工作组的作用及其 2023 年介绍。 IPFS生态系统工作组成立于2023年,是推动IPFS社区增长和发展的重要举措。该工作组致力于创建一个繁荣的生态系统,为项目、工具和社区提供合作、创新和推动IPFS推广的平台。 工作组的重要成就之一是建立了IPFS生态系统目录。该目录是一个精选列表,包括项目、工具和资源,确保开发人员和用户能够轻松访问IPFS社区中的最佳内容。从去中心化应用程序(dApp)到基础设施工具,该目录覆盖了广泛的IPFS相关举措。 此外,工作组在组织活动、参与者和黑客马拉松方面发挥着关键作用。这些活动促进了IPFS社区内部的合作、知识共享和创新。例如,工作组主办了有关IPFS Camp和2024年事物的时间安排的通过讨论,突显了其在计算IPFS生态系统未来方面的作用。 Brave 浏览器和去中心化网络 Brave 与 Protocol Labs 的合作以及 IPFS 的集成。 Brave是一款以隐私为中心的浏览器,拥有超过5700万用户,一直处于共识去中心化网络(dWeb)。从2021年1月开始,Brave与IPFS背后的组织协议实验室展开了一项变革性的合作。 此次合作将IPFS支持直接集成到Brave的桌面版本中,从而主流浏览器采用去中心化协议迈出了重要的一步。这种集成不仅为用户提供了更高效、更灵活的内容访问方式,还开启了全新的体验网络的方式。 通过利用IPFS,勇敢的用户现在可以从节点网络获取内容,而不再依赖集中式服务器。这种去中心化的方法保证了更快的内容交付、减少延迟并提高对审查的抵抗力。 Brave 中自动 NFT 钉扎的介绍及其意义。 在这个越来越被 NFT(不可替代代币)所吸引的世界中,Brave迈迈开创了一步,在其桌面版本 v1.51 中引入了自动 NFT 固定。这一功能会自动备份支持的NFT元数据到IPFS,确保它们在去中心化网络中持续可用。 这种功能的重要性无法过分强调。 一个常见的误解是NFT元数据存储在区块链上。事实上,大多数NFT集合完全将其元数据存储在IPFS等去中心化存储解决方案上。通过“固定”此元数据,勇敢确保文件无限期地存储在特定位置,供给间歇性检索。这不仅增强了NFT的价值,还解决了人们对NFT相关数据的持久性和可访问性的担忧。
Filecoin
的潜力及其与 Brave 钱包的集成。
Filecoin
,去中心化网络,已经无缝集成到Brave Wallet中,进一步放大了浏览器对去中心化网络的承诺。这种集成旨在彻底改变互联网上的数据、访问和分发的方式。 其中一个突出的功能是在 Brave 钱包中引入了
Filecoin
虚拟机(FVM)和
Filecoin
EVM(FEVM)。 FVM 为
Filecoin
带来了智能合约的强大功能,而 FEVM 则只允许以太坊和 Solidity 开发人员进行最少的修改即可在 FVM 上运行它们的合约。这种集成不仅简化了对去中心化存储解决方案的访问,还为跨链合约调用、去中心化金融、游戏等开辟了途径。外部,山寨币是百倍币的最大可能发源地。在这里,你只需要记住三个关键要点: WebTransport 和 libp2p WebTransport 简介其相对于 WebSocket 的优势。 WebTransport是由互联网工程任务组(IETF)和万维网联盟(W3C)合作开发的新兴传输协议和Web API。其主要目标是促进浏览器和服务器之间的低延迟通信,满足各种协议和实例,同时维护当代解决方案的安全标准。 多年来,WebSocket 一直是 libp2p 生态系统中浏览器连接的首选解决方案。然而,它也面临着一系列挑战,例如连接时间延长、双重加密导致效率低下以及延迟增加。 另外,在去中心化环境中为WebSocket获取有效的TLS证书也存在一些障碍。WebTransport正面解决了这些痛点。它拥有更快的连接时间、本机流复用、先进的丢失恢复机制和强大的拥塞控制。 此外,WebTransport 引入了一个新颖的验证选项,允许使用自签名 TLS 证书,使其成为 libp2p 等去中心化网络的更合适的选择。 深入研究 WebTransport 及其与 libp2p 的集成。 WebTransport的核心是通过标准的HTTP/3连接实现浏览器到服务器的通信。一旦建立连接,通过发送扩展的CONNECT请求,双方能够创建流并进行数据交换。这一机制保证了数据传输的无缝性和高效性。 WebTransport与libp2p的集成提供了该协议的多功能性和潜力。通过与WebTransport的集成,libp2p致力于增强浏览器的连接性,使得去中心化网络更容易访问和用户展示友好。同时WebTransport提供了许多优势,但需要注意的是,它不支持浏览器到浏览器的连接,而这正是WebRTC的优势所在。然而,libp2p正在积极努力集成WebRTC支持,以克服这一限制。这种集成将进一步提高去中心化网络的灵活性和性能。 WebTransport 的未来及其对去中心化网络的影响。 目前,IETF的WebTransport规范正在起草阶段。对于WebTransport的浏览器支持目前主要集中在Chromium。在libp2p生态系统中,WebTransport被视为go-libp2p和js-libp2p中的实验性功能。 WebTransport的整合开启了无数应用场景。它使得浏览器节点能够在去中心化网络中发挥完整的对等作用,推动浏览器扩展和加密钱包直接向区块链作业交易,并为去中心化的点对点视频流提供平滑通道。随着去中心化网络的不断演进作用,像WebTransport这样的协议将在塑造其发展轨迹方面发挥关键作用。 Pinata:彻底改变区块链相关内容 Pinata 概述及其使命。 Pinata已成为中心化存储领域的创新引领者。在面对区块链上存储大量数据的挑战时,Pinata积极去努力去克服这一领域的空白。尽管区块链在中心化信任验证方面Pinata 的平台提供了一个独特的解决方案,将链下数据连接到区块链的桥梁,以保证数据的完整性和可验证性。 Pinata 的核心使命在于简化开发者、创作者和区块链之间的交互。通过巧妙运用 IPFS 等 Web3 协议,Pinata 实现了去中心化存储的平等访问,从而变得更加美观和用户交互。 IPFS 在 Pinata 运营中的作用。 IPFS是Pinata兼容方式中模块的一部分。IPFS的内容锁定机制被戏称为“区块链果冻中的花生酱”,能够确保在分散系统之间实现无缝通信和验证。IPFS采用基于内容的它选择性,而不是传统的基于位置的巴勒斯坦。这意味着在请求数据时,系统根据内容而不是位置来检索数据。对于像Pinata这样的平台,这种方法无疑是无价之宝。确保一旦数据存储,就保持不可变,并可以可靠地检索,无论其实际位置在哪里。这不仅提高了数据的局限性,还保证了数据永久可访问,从而消除了对去中心化网络中数据持久性的担忧。 NFT、数据真实性和数据所有权的未来。 NFT(不可替代代币)的迅猛崛起突显了验证真实性和线程开始的重要性。NFT 为数据赋予了独特的“起源故事”,确保其线程、历史和真实性从一开始就可追溯。 Pinata 这样的平台位于革命性的前沿,通过利用 IPFS,确保 NFT 元数据存储和永久可访问。 借助NFT,数据话题超越了传统的范式。它为个人和实体提供了数据的真正话题,突破了传统网络的限制。 Pinata展望未来,设想任何数据或文件都可以独立存在,与NFT绑定,以确保绑定和历史记录可被验证。这种创新的潜力正在从艺术和娱乐到房地产和金融等各个行业重新定义。 结论:Pinata 的去中心化网络愿景。 Pinata 的创始人 Kyle Tutt 和 Matt Ober 对 IPFS 和去中心化网络的潜力充满乐观。他们设想未来数据不再只是简单的静态存储,而是以用户自主性、隐私和自由为优先,以主动拥有、控制和访问的方式存在。 随着去中心化网络的不断演进,像Pinata这样的平台将在定义其发展趋势方面发挥关键作用,确保数据仍然是卫生革命的核心。这意味着用户将增强主动权,能够更加个性化化和安全的方式管理和使用他们的数据。这种前景在塑造数字未来的同时,也在重新定义用户使用数据之间的关系。 现实世界的应用程序和用例 使用 IPFS 绕过审查。 在这个信息即力量的时代,自由获取和分享数据的能力至关重要。然而,全球许多地区都在采取严格的审查措施,希望这限制了信息的自由流动。在此背景下,IPFS成为引领的明灯。考虑到IPFS的去中心化属性,中心化实体很难审查或阻止内容。IPFS上的每一个数据都分布在多个节点上,确保即使一个访问点被封锁,数据也可以通过其他方式分配节点访问。 比如说,在政治动荡或社会运动时期,IPFS可以成为活动家、记者和公民分享信息的平台,而无需担心信息被删除。IPFS时事通讯中强调的全球化新闻项目证实了这种能力,引导用户在去中心化网络上建立网站,规避传统的审查。这为信息的自由流动提供了一条创新的道路。 NFT 在验证数据真实性和所有权方面的变革潜力。 NFT(不可替代代币)横扫数字世界,远不止局限于艺术和收藏品领域。NFT的核心在于提供一种验证数字资产真实性和流通的机制。平台如Pinata充分利用IPFS保证与NFT相关的元数据安全存储并永久可访问。 除了数字艺术之外,NFT在各个领域都表现出了变革潜力。在学术界,NFT可用于验证研究论文的真实性,确保原作者获得应有的荣誉。在娱乐行业,艺术家可以通过NFT维护其创作NFT正成为推动不同领域创新的有力工具,重新定义了数字资产的价值和权益保护。 Pinata 等平台在重塑互联网方面的作用。 随着去中心化网络的不断演进,像Pinata这样的平台在完善其发展统计上扮演着至关重要的角色。通过提供区块链和链外数据之间的无缝接口,Pinata使开发者、创作者和用户能够充分利用去中心化存储的威力。 同时,随着IPFS等Web3协议的整合,Pinata等平台正在推动去中心化网络访问的民主化。他们的努力使去中心化网络变得更加直观、用户友好,并为用户提供更广泛的服务。不仅加强了去中心化存储的价值构建,还为更加开放、灵活且以用户为中心的互联网开启了新的可能性。这是一条通向更加遏制和创新数字未来的道路。 挑战与未来之路 IPFS 和
Filecoin
当前面临的挑战。 尽管IPFS和
Filecoin
在去中心化网络方面革命取得了显着进展,但它们也面临着一些挑战。其中一个主要问题是网络的可扩展性。随着越来越多的用户加入IPFS网络和存储数据,确保一致的性能和搜索数据速度变得至关重要。 另一个挑战是采用率。技术专业社区已经接受了IPFS和
Filecoin
,但它们在主流应用方面仍处于初级阶段。尽管简化用户体验、改进文档并提供更用户友好的界面是获得更广泛接受的关键步骤。 另外,经济方面的挑战,尤其是
Filecoin
所面临的,也开始显现影响。解决这些挑战将有助于进一步推动去中心化网络的发展。 确定工人因为其存储贡献而获得充分的收益,同时保持用户能够负担的存储成本是需要维持的微妙平衡。 持续努力应对这些挑战。 IPFS 和
Filecoin
社区正在积极应对这些挑战。例如,2023 年 IPFS 生态系统工作组的推出展示了社区致力于促进增长和创新。该小组的目标是协作简化、分享最佳实践,并推动 IPFS 的更广泛采用。 在
Filecoin
方面,我们正在持续努力经济完善模型,确保对工人的公平补偿,同时保持用户承担的网络负担。与Brave等平台的合作以及与钱包流行的集成也朝着正确方向的重要一步,为更广泛的受众提供了去中心化存储的可能性。 IPFS 和
Filecoin
的未来发展和愿景。 IPFS和
Filecoin
的未来充满希望。随着去中心化网络的不断发展,这些平台将在其发展轨迹方面发挥关键作用。先进的传输协议如WebTransport的整合、NFT的崛起,以及对数据密钥和隐私密钥的重视,都是IPFS和
Filecoin
可以充分利用的趋势。 此外,随着越来越多的平台、应用程序和服务集成IPFS和
Filecoin
,网络效应将推动进一步的采用。愿景很明确:一个去中心化的互联网,数据不仅被存储,而且优先考虑用户自主、隐私和自由的方式拥有、控制和访问。这是一个数字未来的清晰愿景,IPFS和
Filecoin
积极推动实现这一愿景。 新互联网时代的黎明 数字景观正在经历一场巨大的变革。随着我们站在新互联网时代的风口浪尖,去中心化、数据共享和用户自治的原则正在逐渐成为焦点。像IPFS和
Filecoin
这样的平台不仅仅是技术奇迹。他们代表着一个更加开放、灵活、以用户为中心的互联网的愿景。然而,守护旅程才刚刚开始。正如IPFS时事通讯强调的那样,该社区充满活力、创新,并致力于突破可能的界限。从IPFS在Brave等流行浏览器中的集成,到NFT的崛起以及去中心化存储的承诺,这些里程碑都蕴含着巨大的经济意义,潜力巨大。然而,仍然存在一些挑战。可扩展性、采用率和模型是社区正在积极解决障碍。IPFS生态系统工作组等协作努力诠释了推动奋进的集体革命精神。这是一个充满希望的数字未来,IPFS和
Filecoin
等平台正在为实现而努力。 展望未来,愿景才十分清晰。在互联网上,数据不再受制于中心化实体,而是由用户自由访问、拥有和控制。在这个未来的互联网上,信任是根深蒂固的,而非事后考虑的。这个愿景得到了像IPFS、
Filecoin
以及许多相信更美好数字未来的创新者和梦想家的支持。 Protocol Labs,IPFS背后的组织,表达了这样的信念:“我们相信互联网已经成为人类最重要的技术。构建我们的协议、系统和工具来改进其工作方式。”通过深入研究2023年IPFS和
Filecoin
的状况,我们看到这种信念不仅仅是一个宣言;而是一个正在实践中的使命。这是一个充满活力的使命。 来源:金色财经
lg
...
金色财经
2023-11-24
浅谈重塑世界之区块链和AI的交汇
go
lg
...
化物理基础设施网络(DePINs),如
Filecoin
和Arweave,已建立了用于存储的系统,这些系统本身就包含区块链技术。 还有其他公司,如Gensyn和Together,致力于解决分布式网络模型训练的挑战,而Akash则推出了一个令人印象深刻的P2P市场,将过剩的计算资源与需求联系起来。 此外,Ritual以激励网络和模型套件的形式为开源AI基础设施的建设提供基础,将分布式计算设备连接起来,供用户进行推理和微调。 其中最重要的是,像Ritual、
Filecoin
或Akash这样的DePIN还可以创建一个更大、更有效的市场。他们通过向更广泛的供应端开放,包括能够释放潜在经济价值的被动供应商,或者将性能较差的硬件整合到与高水平同行竞争的池中来实现这一点。 技术栈的各部分都涉及不同的约束和价值偏好,并且对这些层进行规模性实战测试(特别是去中心化模型训练和计算的新兴领域)方面仍有大量工作要做。 然而,基于区块链的计算、存储甚至模型训练解决方案的基础已存在,这些解决方案最终可以与传统市场一较高下。 10、综上所述,加密技术和人工智能的结合已经成为最具前景的设计领域之一,影响到了从内容创作到企业工作流程及金融基础设施等方方面面。 我们相信在未来几十年内,这些技术将对世界进行重塑。最好的团队将结合基础设施、加密经济学和人工智能等技术,以提升产品/服务性能、实现全新行为或实现具有竞争力的成本结构。 加密技术为协作网络引入了前所未有的规模、深度和标准化数据粒度,而人工智能将信息池转换为相关背景或关系的向量。当这两个领域结合在一起时,可以形成一种独特的互惠关系,为去中心化未来的建设者奠定基础。 来源:金色财经
lg
...
金色财经
2023-11-22
上一页
1
•••
25
26
27
28
29
•••
91
下一页
24小时热点
中国经济又传坏消息!青年失业率创重新调整发布后的新高 加剧政府面临的压力
lg
...
金价暴涨近35美元创历史新高!下周美国重磅通胀数据来袭 如何交易黄金?
lg
...
中国比特币交易量上升!加密货币禁令未扼杀市场 “场外交易”激增逾200%
lg
...
【黄金收评】美联储降息预期延续历史性涨势,金价突破2620美元
lg
...
【美股收评】道指收涨至新高,联邦快递暴跌15%
lg
...
最新话题
更多
#海外华人投资#
lg
...
16讨论
#链上风云#
lg
...
18讨论
#美国大选#
lg
...
822讨论
#VIP会员尊享#
lg
...
1215讨论
#比特币最新消息#
lg
...
305讨论