Skip to main content
 首页 » IPFS

ipfs相对http有什么好处

2021年05月08日21

Red Badger:云计算将死亡

原标题:Red Badger:英国数字咨询公司Red Badger的技术总监Viktor Charypar在VentureBeat上发表文章说,云服务将迎来最后一刻,而云计算将在云计算发展蓬勃发展之际消亡。指出对等网络将是未来的发展方向。

云将终结。我知道这是一个大胆的结论,也许听起来有些疯狂。但是请忍受我,让我继续。

一直存在传统观点:运行服务器的应用程序,无论是Web应用程序还是移动应用程序的后台,将来都将在云中。

亚马逊,谷歌和微软在其云服务中添加了各种工具,以使在其中运行的软件服务更加轻松,便捷。因此,最好的方法是在AWS,GCP或Azure上托管代码。东西-方便,便宜,易于自动化,您可以灵活地控制秤...

那么,为什么我要预言所有这些都会结束呢?原因有很多:不能满足长期扩展要求,以构建可伸缩,可靠且高度可用的Web应用程序,即使在云中也很困难。如果您做得很好并且使您的应用程序取得了巨大的成功,那么巨大的规模将消耗您的金钱和精力。即使您的业务非常成功,您最终也将达到云计算的极限:计算机计算速度和存储容量的增长速度超过了网络带宽。

忽略有关网络中立性的争论,这对大多数人(Netflix和Amazon除外)来说可能不是问题,但这种情况很快就会出现。随着我们的视频质量从高清到4K到8K,我们所需的数据量急剧增加,VR数据集将很快出现。

这是一个问题,主要是因为我们组织网络的方式。有许多用户想要获取内容并使用程序,并且很少有服务器拥有这些程序和内容。例如,当我在Slack上看到一张有趣的照片时,我想与我旁边的20个人分享,但是他们都必须从托管服务的服务器下载该照片,并且服务器需要将照片发送20次。随着服务器迁移到云中,例如Amazon或Amazon或Google数据中心中的Google计算机,靠近这些地方的网络需要具有令人难以置信的吞吐量来处理所有这些数据。此外,必须有大量的硬盘驱动器来存储每个人和CPU的数据,然后将数据通过网络传输给每个需要它的人。随着流媒体服务的兴起,情况变得越来越糟。

所有这些活动都需要大量的能源和冷却,这会使整个系统效率低下,昂贵且对环境有害。

它是我们的数据和程序的集中式和易碎式集中式存储。另一个问题是可用性和耐用性。如果亚马逊的数据中心被小行星撞击或被龙卷风摧毁,该怎么办?或者,如果它在一段时间内断电,会发生什么?现在无法访问其计算机上存储的数据。它甚至不能永久丢失。

我们通常通过将数据存储在多个位置来缓解此问题,但这仅意味着更多的数据中心。这样可以大大减少意外丢失的风险,但是您非常关心的数据又如何呢?您的婚礼视频,孩子成长的照片或重要的公共信息源,例如Wikipedia。现在,所有这些信息都存储在Facebook,Google Drive,iCloud或Dropbox之类的云端网站上。当这些服务停止运营或亏损时,数据将如何处理?即使它们没有发展到现在,也限制了您访问自己的数据的方式。与朋友分享时,必须使用他们的服务。当时,他们还必须通过此服务。

它需要信任,但不能为使用云服务提供保证。您必须说服朋友,他们获取的数据是由您发送的,并且该数据是通过受信任的中介传递的。在大多数情况下,这可以很好地工作并且可以接受,但是我们使用的网站和网络必须经过注册才能合法运营。监管机构有权强迫他们做很多事情。在大多数情况下,这是一件好事,可以用来帮助解决犯罪或从Internet上删除非法内容,但是在很多情况下,滥用此功能。

就在几周前,西班牙政府已竭尽全力防止对加泰罗尼亚的独立进行公民投票。它采取的措施包括封锁信息网站并告诉人们在哪里投票。它使我们的数据更容易受到攻击。高度集中化的Internet真正令人恐惧的方面是个人数据的集中化。那些为我们提供服务的大公司拥有大量数据,这些数据包含足够的信息,可以预测您将要买的东西,将投票给谁,您可能会买房子,甚至可能有多少孩子。这些信息足以申请信用卡,贷款,甚至以您的名义购买房屋。

此外,您可能也同意。毕竟,如果您选择他们的服务,则只能信任他们。但这不是您需要担心的事情。您需要担心的是其他人。今年早些时候,信用报告机构Equifax丢失了1.4亿客户的数据,这是历史上最大的数据泄露事件之一。这些数据现已公开。我们可以将其视为十年一次的活动。如果我们更加谨慎,则可以避免这种情况,但是越来越明显的是,这样的数据泄漏很难完全避免。而且一旦出现,那就太危险了,不能容忍。真正防止此类事件再次发生的唯一方法是,首先不收集此类大规模数据。

那么,什么将取代云?

互联网主要由客户端-服务器协议(例如HTTP)支持,基于中央机构信任的安全性(例如TLS)存在缺陷,并且会引起一些基本难以解决或无法解决的问题。是时候找到更好的东西了-一个模型框架,在这个模型框架中,没有其他人可以完全存储您的个人数据,大媒体文件分布在整个网络中,整个系统完全是点对点和无服务器的(我并不是说从托管的角度讲,这是一种“无服务器”云,我的意思是实际上没有服务器)。

在这一领域,我已经阅读了很多文献,并且我坚信点对点是我们未来的必然发展方向。对等网络技术使用协议和策略来替代我们所知道的网络构建块,并解决了我上面提到的大多数问题。我们的目标是建立一个完全分布式,永久冗余的数据存储,并且每个参与网络的用户都在存储一些可用数据的副本。

如果您听说过BitTorrent,那么以下内容听起来应该很熟悉。在BitTorrent上,网络用户可以将大型数据文件分为较小的块或片段(每个块具有唯一的ID),而无需任何中央权限的授权。要下载文件,您只需要一个“魔术”数字,它是一个散列,即内容的指纹。然后,您的BitTorrent客户端将根据“内容指纹”找到拥有文件碎片的用户,并从文件中一个一个地下载文件碎片,直到您拥有所有碎片为止。

有趣的一点是如何匹配用户。 BitTorrent使用称为Kademlia的协议。在Kademlia中,网络上的每个对等方都有一个唯一的ID号,其长度与唯一的块ID相同。它将在节点上存储具有特定ID的块,该节点的ID与该块的ID“最接近”。块和网络对等点的随机ID在整个网络中的存储分布中应该相当一致。但是,块ID不需要随机选择,而是使用加密散列-这是块本身内容的唯一指纹,这是有益的。确保这些块是可寻址的。这也使验证块的内容(通过重新计算和比较指纹)变得更加容易,并且可以确保用户无法下载原始数据以外的数据。

另一个有趣的功能是,通过将一个块的ID嵌入到另一个块的内容中,可以以不被篡改的方式将两个块连接在一起。如果链接块的内容更改,则其ID将更改并且链接将被破坏。如果修改了嵌入式链接,则包含块的ID也将相应更改。

这种将一个区块的ID嵌入另一个区块的机制可以创建这样的区块链(例如由比特币和其他加密货币提供动力的区块链),甚至是更复杂的结构,通常称为有向无环图或DAG。短的。 (在Ralph Merkle发明了这种链接之后,通常将其称为“ Merkle链接”。因此,如果您听到有人谈论默克尔DAG,您可能知道他们在说什么。)Merkle DAG的一个常见示例是Git存储库。Git将提交历史记录以及所有目录和文件保存在一个巨大的Merkle DAG中。

这导致了基于内容寻址的分布式存储的另一个有趣的功能:它是不可变的。内容无法更改。相反,新修订版将存储在现有修订版的旁边。在两个修订版之间未更改的块将被重用,因为根据定义,它们具有相同的ID。这也意味着不能在这样的存储系统中复制相同的文件,也不能将其转换为有效的存储。因此,在这个新网络上,每个唯一的搞笑图片仅存在一次(尽管整个组中有多个副本)。

诸如Kademlia,Merkle链和Merkle DAG之类的协议为我们提供了工具,用于对文件级别和修订时间表进行建模,并在大型P2P网络中共享它们。已经有一些协议使用这些技术来构建满足我们需求的分布式存储。看起来很有希望的是IPFS。

名称和共享问题很好。通过以上技术,我们可以解决我一开始就提出的一些问题:我们在连接到网络的设备上获得了分布式的,高度冗余的存储,这些设备可以记录文件的历史记录。 ,并在需要时保留所有版本。这(几乎)解决了可用性,容量,耐用性和内容验证的问题。它还解决了带宽问题,因为它使用了点对点的数据传输,因此没有服务器负担不起的情况。

我们还需要可扩展的计算资源,但这并不困难:每个人的笔记本电脑和手机现在都比大多数应用程序所需的功能更强大(包括相当复杂的机器学习计算),并且计算通常是可扩展的。因此,只要我们能使每台设备为用户做必要的工作,就不会有大的问题。

因此,现在我在Slack上看到的有趣图片可以来自坐在我旁边的一位同事,而不是来自Slack的服务器(在此过程中,不会出现“海洋”现象)。但是,为了发布有趣的照片,我需要更新一个频道(也就是说,该频道将不再是发送消息之前的状态,它将发生变化)。听起来很简单,这是整个系统中最难的部分。

最难的部分:实时更新实体的概念将随着时间而改变。这实际上只是一个人类独有的想法,它使世界在我们的思想中具有秩序感和稳定感。我们还可以将这样的实体视为身份或名称,随着时间的流逝,它将展现出一系列不同的值(它是静态且不可变的)。 (Richard Hickey在讲话中很好地解释了这一点,请戳这里观看)。在计算机中模拟信息是一种更自然的方式,并且会产生更自然的结果。如果我告诉你一件事,我将无法再改变对你说的话,也无法让你忘记它。例如,美国总统的身份不会随着时间的推移而改变。它只会被具有相同性质(身份和名称)的其他事实(人)代替。在Git示例中,ref(分支或标签)可以在不同的时间点指向(持有ID和值)不同的提交,并提交提交以替换当前持有的值。 Slack通道还代表一种身份,其价值会随着时间的推移而不断增长。

真正的问题是我们不是唯一拥有访问权限的人。许多人有时试图同时发布新闻和更改频道,并且需要确定结果。

在集中式系统中,几乎所有当前的Web应用程序都具有一个中央实体来确定结果并序列化事件。但是,在分布式系统中,每个人都是平等的,因此需要一种机制来确保可以在网络上达成共识。

处理分布式共识有一些主要策略。问题之一是选择一个相对较小的“小组”经理。他们的机制是选择一个决定事实真相的“领导者”(如果您有兴趣,请参阅Paxos和Raft协议)。所有更改都将通过这些管理器进行。这实质上是一个集中式系统,可以弥补中央决策实体的丢失或网络中的中断(“分区”)。

另一种方法是基于验证的系统,如比特币区块链,其中通过让用户解决“难题”(例如,在Merkle链中添加有效的区块)来编写更新,以达成共识。这种“困难”很难解决,但很容易发现。如果冲突仍然存在,则需要一些其他规则来解决它。其他几个分布式区块链使用基于验证的共识,同时降低了解决问题的能源需求。如果您有兴趣,可以阅读此白皮书中有关BitFury的相关证据。

处理特定问题的另一种方法是围绕CRDT(一种无冲突的副本数据类型)运行,在某些情况下不会受到共识问题的困扰。最简单的示例是一个递增计数器。如果所有更新只是“添加一个”,只要我们确保每个更新仅应用一次,顺序就不重要了,结果将是相同的。

这个问题似乎没有一个明确的答案,也许永远不会只有一个答案,但是有很多聪明的人正在努力解决这个问题,并且已经有很多有趣的解决方案可供选择。您只能称量它。这种权衡通常反映在您“定位”的组的规模上,以及从您愿意放弃可用性或一致性(或从技术上讲,是网络划分,但在高度分布式的系统中)的共识中选择的特征。 ,就像我们正在讨论的系统一样,这似乎很难避免。只要状态在合理的时间内保持一致,大多数应用程序似乎就支持可用性而不是即时一致性。

公共文件网络中的隐私问题中需要解决的一个明显问题是隐私问题。也就是说,如何在不将内容公开的情况下将其存储在分布式群集中?如果它可以隐藏事物,那么内容地址存储是一个不错的选择,因为要找到某物,您需要知道它的内容。柱子。因此,从本质上讲,我们具有三个级别的隐私:公共,隐藏和私有。第三个问题的答案似乎是对存储内容和“外部”共享密钥(例如纸张共享,NFC设备传输或QR码扫描等)的加密强加密。

起初,依靠加密技术听起来可能有风险(毕竟,黑客总是会发现漏洞),但实际上,这并不比我们今天做的糟。实际上,这在实践中可能会更好。公司和政府经常以无法与公众共享的方式存储敏感数据(包括数据中涉及的个人)。相反,只有拥有数据的组织雇用的少数员工可以访问它,并且至少在密码方面受到了保护。通常,如果您可以访问存储此数据的系统,则可以拥有所有这些数据。

但是,如果我们转而以公开的方式存储私有数据,则我们必须保护它(使用强大的加密技术),这对任何获得访问权限的人都是不利的。 。这个想法与安全性相关软件开发人员开放代码的原始意图相同,因此任何人都可以查看和发现问题。知道安全系统的工作原理并不能帮助您破坏它。

此访问控制的一个有趣功能是,一旦您授予某人访问某些数据的权限,他们将始终修改该数据。当然,您可以随时更改加密密钥。尽管这可能并不明显,但这并不比我们今天的情况更糟:只要他们能够访问某些数据,任何人都可以复制它们。

在这一领域中,有趣的挑战是建立一个良好的系统,该系统可以验证身份并在需要随时间变化的一群人之间共享私有数据。例如,在私有Git存储库中有一组协作者。绝对可以通过私钥密码和旋转密钥的某种组合来实现,但是对于用户来说,要获得流畅的体验可能是一个挑战。

从云到雾,尽管有一些问题需要解决,但我们从云计算的迁移将是一个非常令人振奋的未来。首先,在技术方面,我们应该从对等网络中获得很多改进。内容可寻址存储可以在不受信任的授权下提供对内容本身的加密验证,并执行永久托管(只要有人对此感兴趣),即使它处于发展的边缘,我们也应该看到其速度有了显着提高。远离数据中心的世界(甚至在另一个星球上)。在某些时候,甚至数据中心也可能成为历史。消费类设备已经变得如此强大和无处不在,几乎可以在任何地方看到计算能力和存储空间。

对于运行Web应用程序的公司,此更改将节省大量成本。公司还将能够减少对停机风险的关注,而将更多的精力放在增加客户价值上,以使所有人受益。我们仍然需要云托管服务器,但它们只是许多类似服务器中的一种。我们还可以看到更加多样化的应用程序,在这些应用程序中,并非所有应用程序都是相同的-在同一个应用程序中,存在面向消费者和后端的功能,不同之处仅在于访问权限不同。

对于企业和客户而言,另一个巨大的好处是处理客户数据。当不再需要集中存储大量客户信息时,将减少丢失这些数据的风险。软件工程领域的领导者(例如,Erlang的创始人乔·阿姆斯特朗(Joe Armstrong),他的谈话值得关注)长期以来一直认为,在互联网上,将数据发送到公司程序的客户的设计正在退化,公司应该向客户发送客户。发送程序,以便它们可以执行私有数据,并且这些数据将不会直接共享。这样的模型似乎更安全,并且不会阻止公司以任何方式收集他们需要的有用的用户指标。

此外,当前尚无办法阻止不透明并保留私有数据的混合服务模型。

这种类型的应用程序架构似乎是提供大规模计算和软件服务的一种更自然的方式,并且也更接近于开放信息交换的思想,任何人都可以轻松地将内容转发给其他人并控制发布和访问它的过程不受拥有服务器的私有实体的控制。

对我来说,这非常令人兴奋。这就是为什么我要组成一个小组,在几周内使用上面提到的一些技术来构建一个简单的移动应用程序,以证明这一概念并展示可以通过对等网络完成的事情。到目前为止,我唯一的想法是小到足以相对快速和有趣,足以证明此方法的功能是Twitter的对等,真正无服务器的克隆,但这并不是特别令人兴奋。

用区块链改变人工智能:去中心化带来数据新范式

原始标题:使用区块链改变人工智能:去中心化带来新的数据范式近年来,从转到语音识别到人类语音识别,人工智能(AI)研究人员终于在他们探索了数十年的领域取得了成功。取得突破性进展的关键是研究人员可以收集大量数据并“学习”这些数据,从而将错误率降低到可接受的范围。

简而言之,大数据极大地改变了人工智能的发展,使其推向了几乎不可思议的高度。

区块链技术当然也可以以自己的特定方式彻底改变人工智能。区块链用于人工智能的方法的一部分仍然非常简单,例如人工智能模型的审计追踪。有些应用程序几乎令人难以置信,例如拥有自己的人工智能-人工智能分散式自治组织(AI DAO)。这些都是发展的机会。本文将详细讨论这些应用程序。

作为蓝海数据库的区块链在讨论这些应用程序之前,让我们首先了解区块链与传统的大数据分布式数据库(例如MongoDB)之间的区别。

我们可以将区块链视为一个“蓝海”数据库:它们避开了鲨鱼在现有市场中竞争的“红海”,但避开了没有市场竞争的蓝海。蓝海的著名例子是视频游戏机Wii(损害了原始性能,但增加了新的交互模式)或黄尾酒(忽略了葡萄酒爱好者的复杂和自命不凡的规定,使葡萄酒更受啤酒爱好者的欢迎)。

根据传统的数据库标准,传统的区块链(例如比特币)很糟糕:低吞吐量,低容量,高延迟,不良的查询支持等。但是在蓝海思想中,这是可以接受的,因为区块链引入了三个新功能:去中心化/共享控制权,不变性/审计线索和本地资产/交换。受比特币启发的人们愿意忽略基于数据库的传统缺点,因为这些新好处可能以全新的方式影响整个行业和整个社会。

这三个新的“区块链”数据库功能对于人工智能应用也具有潜在的参考意义。但是,大多数实际的人工智能工作都涉及大量数据,例如对大数据集的培训或高吞吐量流处理。因此,对于区块链在人工智能领域的应用,需要具有大数据可扩展性和查询性的区块链技术。诸如BigchainDB及其公共网络IPDB(Internet弹球机数据库)之类的新兴技术就是这种情况。这使得不必为了获得区块链的好处而放弃传统大数据数据库的优势。

人工智能区块链概述大规模区块链技术已经释放了其在人工智能应用中的潜力。从区块链的三个好处开始,让我们探索这些潜力。

这些区块链的好处为人工智能从业者带来了以下机会:去中心化/共享控制鼓励数据共享:(1)带来更多数据,从而可以训练更好的模型。

(2)带来了新的定性数据,因此有了新的定性模型。

(3)允许共享控制人工智能的训练数据和模型。

不变性/审计线索:(4)为训练/测试数据和模型提供保证,并提高数据和模型的可信度。数据也需要信誉。

本地资产/交换:(5)使培训/测试数据和模型成为知识产权/ IP资产,这可以带来分散的数据和模型交换。可以更好地控制上游数据的使用。

还有另一个机会:(6)人工智能和区块链释放了AI DAO /去中心化自治组织的可能性。这些人工智能可以积累财富。在很大程度上,它们是“软件即服务”(Software-as-a-Service)。

区块链还可以通过更多方式帮助人工智能。反过来,人工智能可以通过多种方式帮助区块链,例如挖掘区块链数据(例如丝绸之路调查)。这是另一个讨论话题:)这些机会中有许多是关于人工智能和数据之间的特殊关系的。让我们先讨论一下。之后,我们将更详细地讨论区块链在人工智能领域的应用。

人工智能与数据在这里,我将描述现代人工智能如何使用大量数据来产生良好的结果。 (尽管并非总是如此,但它很常见,值得描述。)“传统”人工智能和数据的历史1990年代我开始进行人工智能研究时,一种典型的方法是找到固定的数据集(通常很小)。

设计一种提高性能的算法,例如为支持向量机分类器设计一个新的内核函数以增加AUC值。

在会议或日记中发布算法。只要您的算法本身足够花哨,就只需将“可发布的最低改进”提高10%。如果您的改进介于2到10倍之间,则可以发布到该领域的最佳期刊,尤其是在算法确实很复杂的情况下。

如果这听起来很学术,那是因为它非常学术。尽管有实际应用场景,但大多数人工智能工作仍在学术界。以我的经验,这在许多人工智能子领域都是正确的,包括神经网络,模糊系统,进化计算,甚至更少的人工智能技术,例如非线性编程或凸优化。 。

在我的第一篇发表的论文《用于快速,精确地建立多项式时间序列的最小平方的遗传程序设计》(1997年)中,我自豪地表明,我新发明的算法可与最先进的神经网络,遗传程序设计等媲美。在最小的固定数据集上获得最佳结果。

迈向现代人工智能和数据然而,世界已经发生了变化。 2001年,微软研究人员Banko和Brill发表了一篇论文,取得了令人瞩目的成果。首先,他们描述了一种情况,其中自然语言处理领域的大多数工作都是基于少于一百万个单词的小型数据集。在这种情况下,旧/无聊/不太喜欢的算法(如朴素贝叶斯和Perceptron)的错误率为25%,而新的基于内存的新颖算法(基于内存的算法)的错误率为19%。这些是下面最左边的四个数据点。

到目前为止,不足为奇。但是,Banko和Brill揭示了一些不寻常的情况:当您添加更多数据(不仅是一点点数据,而且是数据的几倍)并且保持算法相同时,错误率将继续下降很多。 。当数据集为三个数量级大时,误差小于5%。在许多领域,这是18%和5%之间的差异,但只有后者足以满足实际应用。

另外,最好的算法是最简单的。最差的算法是最花哨的。 1950年代无聊的感知器算法正在击败最先进的技术。

并非只有现代的人工智能和数据Banko和Brill才发现这种模式。例如,在2007年,Google研究人员Halevy,Norvig和Pereira发表了一篇文章,展示了数据如何在人工智能的许多领域“不合理地有效”。

这像原子弹一样冲击了人工智能领域。

数据是关键!因此,开始收集更多数据的竞赛。获取良好的数据需要花费大量的精力。如果您有资源,就可以获取数据。有时甚至可以锁定数据。在这个新世界中,数据是data沟,人工智能算法是日用品。由于这些原因,“更多数据”是Google和Facebook等公司的关键。

一旦了解了这些动态,“数据越多,财富就越多”,每个人对其具体操作都有一个简单的解释。 Google收购卫星影像公司并不是因为它喜欢卫星影像。谷歌开放了TensorFlow。

深度学习直接适用于这种情况:给定足够大的数据集,它可以弄清楚如何获得相互影响和潜在变量。有趣的是,给定相同的大规模数据集,1980年代的反向传播神经网络有时可以与最新技术相提并论。请参阅论文“关于手写数字识别的深层简单神经网络Excel”。因此,数据是关键。

作为一名人工智能研究员,我的成熟年龄差不多。当我遇到现实问题时,我学会了如何吞并自己的骄傲,放弃“炫酷”算法,只是满足眼前的问题,并学会热爱数据和扩展规模。我们将重点从自动化创意设计转移到了``无聊的""参数优化;同时,当用户要求我们将变量从10个增加到1000个总和时,我们对急促响应的兴趣就减少了-我是第一次这样做。这就是ADA公司(1998-2004)的情况。我们将重点从华丽的建模方法转移到了超级简单但完全可扩展的机器学习算法(例如FFX);当用户需求从100个变量增加到100,000个,从100亿个蒙特卡洛样本增加到10亿个(有效样本)时,我们也不感到无聊-这发生在我的第二家公司Solido(2004年至今)中。甚至我第三家也是当前公司的产品BigchainDB,也反映出对规模的需求(2013年至今)。扩展功能并扩展比例。

机会1:数据共享→更好的模型。简而言之:分散/共享控制可以促进数据共享,进而导致更好的模型,更高的利润/更低的成本等。解释如下:人工智能热衷于数据。数据越多,模型越好。但是,数据通常是孤立的,尤其是在这个新世界中,数据可能是无法克服的鸿沟。

但是,如果有足够的积极收益,区块链将鼓励独立实体之间的传统数据共享。区块链的分散性质鼓励数据共享:如果没有单个实体控制数据存储基础架构,则共享冲突将更少。稍后我会列举更多好处。

数据共享可以发生在企业(例如区域办事处),生态系统(例如“财团”数据库)或整个星球(例如共享的星球数据库,即公共区块链)内。

每个对应的示例如下:在企业中:使用区块链技术合并来自不同区域办事处的数据,因为它可以降低审核自己的数据并与审核员共享数据的成本。有了新数据,公司就可以构建人工智能模型。例如,与仅在区域办事处级别构建的先前模型相比,新模型可以更好地预测客户流失。每个地区办事处都有一个``数据集市""吗?

在生态系统内:竞争对手(例如,银行或唱片公司)过去从未共享过他们的数据。但是现在可能会坦率地表明,合并来自多家银行的数据可以提供更好的模型来防止信用卡欺诈。或者供应链机构通过区块链共享数据,并在供应链中较早的时间使用人工智能处理数据,这可以更好地确定供应链故障的根本原因。例如,大肠杆菌菌株到底出现在什么地方?

在全球范围内(公共区块链数据库):考虑不同生态系统之间的数据共享(例如能源使用数据+汽车零件供应链数据);或行星级生态系统(例如网络)的单个参与者。更多的数据源可以改善模型。例如,中国某些工厂的能源使用高峰可能与在市场上运输非法汽车零件所花费的时间有关。总的来说,我们已经看到公司汇总数据,进行粉饰,重新包装和出售。从彭博终端到数十(或数百)家通过http API出售数据的初创公司。稍后我将详细说明这个未来。

敌人共享他们的数据以提供人工智能。 2016年真是太有趣了!机会2:数据共享→新模型在某些情况下,合并独立数据时,不仅会获得更好的数据集,还会获得新的数据集。这可以带来一个全新的模型,您可以从中收集新的见解并执行新的业务应用程序。换句话说,您可以做以前无法做的事情。

这是识别钻石欺诈的示例。如果您是一家提供钻石保险的银行,则要开发一个分类器,以识别钻石是否是欺诈性的。地球上有四个值得信赖的钻石认证实验室(当然,这取决于您要问的人)。如果您只能访问其中一个实验室的钻石数据,那么您将看不到其他三个实验室的数据,并且您的分类器可以轻松地将其他钻石标记为欺诈钻石(请参见左图)。错误警报率会使您的系统无法使用。

相反,如果区块链促进四个认证实验室共享其数据,则您拥有所有合法数据,并且通过使用它们,您将构建分类器(右下)。输入的任何钻石(例如在eBay上看到的钻石)都将遍历系统并将其与分类器中的每个类别进行比较。分类器可以检测到真实的欺诈行为并避免误报,从而降低了误报率,并使保险提供者和认证实验室受益。这可以简单地用作搜索框,不需要人工智能。但是,人工智能的使用进一步改善了人工智能,例如根据颜色和克拉来预测价格,然后使用“价格与价值的接近度”作为主要欺诈分类器的输入。

此处的第二个示例是,去中心化系统中的适当令牌激励方案可以激励以前未标记的数据集以进行标记,或者以更经济的方式。这基本上是去中心化的Mechanical Turk(亚马逊的众包服务平台)。有了新标签,我们得到了一个新的数据集。我们使用新的数据集进行训练以获得新的模型。第三个例子是令牌激励机制可能导致从物联网设备直接输入数据。这些设备控制数据,并可以将其交换为资产,例如能源。同样,此新数据可能会导致新模型。

积与共享?

这里的两个对立动机之间存在紧张关系。一种是ho积数据,即“数据就是新的护城河”。另一种是共享数据以获得更好的/新的模型。分享行为必须具有足够的推动力,超过“护城河”的好处。技术驱动力是获得更好的模型或新模型,但是该驱动力必须具有商业价值。可能的好处包括减少供应链中的原材料或保险储蓄欺诈行为;使用Mechanical Turk作为有利可图的副业;数据/模型交换;或针对强大的核心玩家采取集体行动,就像唱片公司与Apple iTunes等一起合作;它需要创造性的商业策略。

集权还是分权?

即使某些组织选择共享数据,他们也可以这样做,而无需区块链技术。例如,他们可以简单地将其存储到S3实例中并提供API。但是在某些情况下,权力下放带来了新的好处。第一个是基础架构的直接共享,因此共享联盟中的任何组织都不会自己控制所有“共享数据”。(几年前唱片公司试图合作建立公共注册系统时,这是一个主要障碍。)另一个好处是,它可以更轻松地将数据和模型转换为资产,然后将其用于外部授权。利润。我将在下面详细说明这一点。

如前所述,数据和模型共享将在三个层次上进行:在公司内部(跨国公司比您想象的要困难得多);在生态系统或财团中;或在这个星球上(相当于成为公用事业)。让我们更深入地探讨这种行星尺度的共享。

机会2A:行星级的新数据→行星级的新见解整个行星级的数据共享可能是最有趣的。让我们深入探讨这个问题。

IPDB是全球范围内的结构化数据,而不是零散的数据。将万维网视为Internet上的文件系统; IPDB是其数据库副本。 (我认为我们之所以没有看到更多相关的工作,是因为语义Web工作试图从升级文件系统的角度来实现它。但是通过“升级”文件系统来构建数据库是非常困难的!如果您从头开始只需说您正在创建数据库并进行设计,这将更加有效。)“全局变量”将按字面解释:)(注意:全局也表示“全局”)然后,当我们有一个像IPDB这样的行星级数据库共享服务,还是什么?我们有几个参考点。

第一个参考点是,在企业环境中进行公共数据管理和重新打包以使其更易于使用方面,从简单的天气或网络时间API到股票和货币等金融数据API,最近有十种十亿美元的市场。想象一下,所有这些数据都可以通过单个数据库以类似的结构方式进行访问(即使只是API传递)。就像有1000名彭博社。不必担心被单个实体控制。

第二个参考点来自区块链,这是通过区块链对外部数据进行“随机化”以使其易于使用的概念。但是,我们可以使所有事情口头禅。去中心化的彭博只是一个开始。总体而言,我们已经获得了新的数据集和数据源多样性规模。从质上讲,我们有新数据。行星级别的结构化数据。从这个定性的角度来说,我们可以建立一个新的模型来制作以前未链接的输入和输出。通过该模型,我们将获得有关自然界的新见解。

我希望它在这里可以更加具体,但是它太新了,我想不出任何例子。但是,它们会出现!还会有Bot角。我们一直假设区块链API的主要消费者将是人类。但是如果是机器呢?现代DNS的创建者戴维·霍尔茨曼(David Holtzman)最近说:“ IPDB是人工智能的产物。”分析一下,这是因为IPDB实现并鼓励了行星级数据共享,而人工智能真的很喜欢吃数据。

机会3:数据和模型中的审核记录使预测更加可信。此应用程序的目的是,如果您使用垃圾数据进行训练,那么您将获得一个垃圾模型。数据测试也是如此:垃圾进,垃圾出。

垃圾邮件可能来自可能篡改数据的恶意行为者/拜占庭式错误。想想大众汽车排放丑闻。垃圾也可能来自无辜的参与者/崩溃故障,例如物联网传感器故障,输入数据不正确或环境辐射引起的少量波动(无良好的纠错行为)。

您如何知道X / y训练数据没有缺陷?现场使用情况如何,在现场输入的数据上运行模型的情况如何?关于模型预测(yhat)呢?简而言之:输入模型和来自模型的数据时经历了什么?数据也需要信誉。

区块链技术可以提供帮助。让我谈谈具体方法。在该过程的每个步骤中,都会建立一个模型并在现场运行该模型,数据创建者可以简单地将时间戳添加到模型的区块链数据库中,包括数字签名以声明``我相信这一点""。这点。数据/模型还可以。”更具体地说是...建模源:传感器数据(包括物联网)。您是否相信IoT传感器对您说的是什么?

训练输入/输出(X / y)数据。例如,可以对自身进行建模,然后使用Trusted执行基础架构或TrueBit风格的市场进行评估计算。至少有建模证据可以建立模型收敛曲线(例如,nmse * * vs。历元)。

模型本身。

字段中的测试过程/源:测试输入(X)数据。

模型仿真。可信执行,TrueBit等

测试输出(yhat)数据。

好处包括:(广义上)捕获所有级别的数据供应链中的漏洞。例如,您可以确定传感器是否在撒谎。

您可以在数据供应链中找到漏洞。这样,如果发生错误,我们可以更好地了解其位置以及如何响应。您可以将其视为银行风格的解决方案,但它针对的是人工智能模型。

数据具有声誉,因为多只眼睛可以检查该数据源,甚至声称自己的数据可以判断数据的有效性。相应地,该模型具有声誉。

机会4:培训数据和模型全局共享注册系统但是,如果我们拥有一个可以轻松管理另一个数据集或数据馈送(免费或其他)的全局数据库,该怎么办?这包括来自各种机器学习竞赛的一系列Kaggle数据集,斯坦福ImageNet数据集和无数其他数据集。

这正是IPDB可以做的。人们可以提交数据集并使用其他人的数据。就像IPFS一样,数据本身将存储在分散的文件系统中。元数据(以及数据指针本身)将位于IPDB中。我们将获得人工智能数据集的全球共享空间。这有助于实现建立开放数据社区的梦想。

我们不需要停留在数据集级别上。我们还可以包括根据这些数据集构建的模型。抓住并运行其他人的模型并提交自己的模型应该很容易。全局数据库可以极大地促进这一过程。我们可以获得行星所具有的模型。

机会5:数据和模型→数据和模型作为IP资产交换让我们使用基于培训数据和模型的“全球共享注册系统”。数据和模型可以成为公共共享内容的一部分。但是它们也可以买卖!数据和人工智能模型可以用作知识产权(IP)资产,因为它们受版权法保护。这意味着:如果创建数据或模型,则可以主张版权。无论您是否要进行任何业务活动。如果您拥有数据或模型的版权,则可以授权他人使用它。例如,您可以将数据授权给其他人以建立自己的模型。或者,您可以将模型授权给其他人,然后在他们的移动应用程序中计算它们。子授权,子授权等也是可能的。当然,您也可以从其他人那里获得数据或模型授权。

我认为能够拥有人工智能模型的版权并对其进行授权非常好。数据已被认为是潜在的巨大市场;模型将密切关注。在使用区块链技术之前,有可能要求获得数据和模型的版权和许可。相关法律已经颁布了一段时间。但是区块链技术使它变得更好,这是因为:版权声明提供了防篡改的全球公共注册表;您的版权声明是数字/加密签名。该注册表还可以包括数据和模型。对于您的授权交易,它还提供了防篡改的全局公共注册表。这次不仅是数字签名,还包括数字签名。相反,除非您拥有私钥,否则您甚至无法转让权利。权利的转让是作为区块链式资产转换进行的。

这样,我们就可以将数据和模型作为IP资产。

例如,当我使用ascribe时,我声明了几年前建立的人工智能模型的版权。人工智能模型是一个CART(决策树),它确定要使用的模拟电路拓扑。这是其密码防伪证书(真实性证书/ COA)。

一旦将数据和模型作为资产,我们就可以开始资产交换。

交换可以集中化,就像DatastreamX处理数据一样。但是到目前为止,它们确实只能使用公共数据源,因为许多公司认为共享的风险大于收益。

分散数据和模型交换又如何呢?分散在“交换”过程中共享的数据具有新的好处。在分散化过程中,没有单个实体来控制数据存储基础架构,也没有拥有任何东西的分类帐。如前所述,组织合作或数据共享比较容易。例如,Deep Nets的OpenBazaar。

通过这种分散的交换,我们将看到真正开放的数据市场的出现。这实现了数据和人工智能界(包括您)之间的长期梦想。

当然,一些基于人工智能算法的交易也会在这些交易所上发生:使用人工智能算法购买人工智能模型。人工智能交易算法甚至会变成这样:购买用于交易人工智能模型的算法,然后自己进行更新!机会5A:控制您的数据上游和模型这是先前应用程序的副本。登录Facebook时,您授予它非常特定的权利,包括处置输入到其系统中的任何数据的权利。它将对您的个人数据施加许可。当音乐家使用标签进行签名时,他们将授予标签非常特定的权利:编辑音乐,分发音乐等。 (通常,标签将尝试获取所有版权。此任务非常繁琐,但这是另一回事!)人工智能数据和人工智能模型也是如此。当创建可用于建模的数据并创建模型本身时,可以预先指定权限以限制上游使用其他权限。

对于所有用例,从个人数据到音乐,从人工智能数据到人工智能模型,区块链技术都使此过程变得更加容易。在区块链数据库中,您将权限用作资产,例如读取权限或查看特定数据/模型的权限。作为权利持有人,您可以将这些权利作为资产转让给系统中的其他人,类似于比特币的转让:创建转让交易并用您的私钥签名。

这样,您可以从上游更好地控制您的人工智能训练数据,人工智能模型等。 “例如,您可以混合使用这些数据,但不能进行深入学习。”这有点类似于DeepMind在其医疗保健区块链项目中采用的策略部分。在数据挖掘中,医疗数据将带来监管和反托拉斯问题的风险(尤其是在欧洲)。但是,如果用户可以真正拥有自己的医疗数据并控制其上游使用,则DeepMind可以告诉消费者和监管者,“嘿,实际上,客户拥有自己的数据,我们只是在使用它。”我的朋友劳伦斯·伦迪(Lawrence Lundy)提供了一个很好的例子,他进一步推断:政府完全可能允许数据私有(人类或AGI)的唯一方法是数据共享基础结构,“网络中立”规则,就像AT&T一样本公司与原种电话线一样。从这个意义上讲,越来越多的自主人工智能将要求政府接受区块链和其他数据共享基础架构,以实现长期可持续性。 -劳伦斯泛滥机会6:人工智能分散式自治组织(DAO)-可以积累财富且无法关闭的人工智能这是个谎言。 AI DAO属于人工智能本身,您无法将其关闭。我将在下面总结“如何做”。有兴趣的读者可以继续深入阅读此主题。

到目前为止,我们已经讨论了区块链作为去中心化数据库的内容。但是我们也可以分散流程:基本上是状态机的存储状态。使用周围的一些基础架构更容易,这就是“智能合约”技术(例如以太坊)的本质。

我们以前以计算机病毒的形式分散了该过程。没有任何一个实体拥有或控制它们,因此您无法关闭它们。但是它们有局限性,它们主要是试图闯入您的计算机,仅此而已。

但是,如果您可以与更丰富的流程进行交互,并且流程本身可以积累财富,该怎么办?当前,通过使用更好的API(例如智能合约语言)和去中心化价值商店(例如公共区块链)的过程可以实现它。

DAO是体现这些特征的过程。该代码可以有自己的东西。

是什么使我们进入了人工智能。最有可能的一个领域是人工智能的子领域,称为“人工通用情报”(AGI)。 AGI与在环境中进行交互的自治代理有关。可以将AGI建模为反馈控制系统。这是个好消息,因为控制系统具有许多优点。首先,它们具有深厚的数学基础,可以追溯到1950年代(Wiener的“网络论”)。他们捕获与世界的交互(驱动和传感)并适应它(根据内部模型和外部传感器更新状态)。控制系统已被广泛使用。它们确定简单的恒温器如何适应目标温度。它们消除了昂贵耳机中的噪音。从烤箱到汽车刹车,它们都是成千上万种设备的核心。

人工智能界最近对控制系统的接受更加热情。例如,它们是AlphaGo的钥匙。而AGI本身就是控制系统。AI DAO是在分散的处理和存储载体上运行的AGI样式的控制系统。反馈循环将自行继续,输入,更新状态,执行输出并循环使用这些资源。

我们可以从人工智能开始,获取AI DAO(AGI代理)并将其去中心化。或者我们可以从DAO开始,赋予它人工智能的决策能力。

人工智能获得了缺失的环节:资源。 DAO迷失了自己的链接:自主决策。因此,AI DAO的使用大于AI或DAO本身。它的潜在影响也增加了一倍。

以下是一些应用程序:ArtDAO,用于创建和销售自己的数字艺术。简而言之,它可以进行3D设计,音乐,视频甚至整个电影。具有自我身份的自动驾驶汽车。简而言之,现在所有以前的人工智能应用都是“自己的”。未来的情况可能是,人类只能从AI DAO租用服务。注入了人工智能的任何DAO应用程序。具有更高自治性的任何分散式SaaS应用程序。

Filecoin活动周第一场AMA:2020年大热点Filecoin分布式储存究竟是什么?

原始标题:Filecoin周的第一个AMA:Filecoin分布式存储到底是什么,这是2020年的热点?

由ZB发起的“ ZB热门脱口秀”实况转播的第十六阶段已于8月3日晚20点成功开幕。本期AMA邀请了新的一线合同交换ZBG,重点是国际市场。 BW,Milin Finance深入研究IPFS领域,Filecoin的头部采矿池时空云采矿池和石榴采矿池与您,流行科学IPFS和Filecoin进行了深入交流。

``中国货币热播节目""是由中国货币推出的在线直播知识共享专栏。每一期都将邀请中国货币天使基金会,包括媒体,机构,项目方,分析师,KOL和其他货币界人士分享,等等。枯燥乏味的内容。在后期,我们将继续与更多国际知名机构和媒体组织AMA,以帮助您了解更多行业趋势并获得更多干货,敬请期待。

共享的主题是:2020年Filecoin分布式存储的热点是什么?

以下是讲座的一部分:考虑到一些用户对IPFS知之甚少,首先,我想请ZBG简要介绍Filecoin的主网IPFS是什么?

ZBG回答:大家好,我是ZBG总经理向翔。

IPFS最近很热,有些朋友可能对此并不熟悉。我将简单介绍。

IPFS的全名是Inter Planetary File System,实际上是翻译为“ Inter Planetary File System”。这是一个开放源代码项目,自2014年以来由Protocol Labs在开放源代码社区的帮助下开发。IPFS网络中的节点将形成分布式文件系统。 [IPFS的目标是HTTP,目标是改善当前Internet集中存储和开放web3.0的弊端。 】众所周知,1990年以后,HTTP成为WWW(万维网)的支持协议。当我们打开网页时,HTTP也是必要的响应协议。可以说HTTP在过去的30年中支持了Internet的快速发展。但是,随着Internet的规模越来越大,现有HTTP协议的弊端逐渐暴露出来。例如,传统的Internet依赖于集中式服务器,这些服务器传输速度慢,不能永久存储数据,带宽有限并且容易出现拥塞。例如,在每年的春节期间,每个人都会发现购票网站很容易出现拥堵。在货币领域,使用DDOS流量攻击的黑客也困扰着许多交易所。许多Internet网站都希望使网络畅通,目前它们只能提高服务器带宽,但这会导致更高的带宽成本。

更重要的是,一旦集中式服务器受到攻击,就会发生诸如数据丢失和数据泄漏之类的问题。每年,主要的集中式服务器运营商都会在安全性上花费大量金钱和精力。

矛盾的是,随着5G,大数据,云计算和人工智能等创新技术的兴起,对数据存储的需求也激增。当前网络仅限于HTTP集中协议的弊端变得越来越突出,必须采用新技术来解决这一矛盾。

IPFS的分布式存储可以有效解决集中协议的许多缺点。例如,数据可以永久存储;它更安全,因为该文件被分为多个文件并从多个服务器下载,因此黑客无法进行攻击;在多点传输的设计中,可以控制网络带宽的成本,并可以增加用户访问和下载的速度。

目前,Opera浏览器和Web浏览器的Android版正式版已成为第一个支持ipfs://前缀的浏览器。我相信随着技术的成熟,IPFS协议将获得更多的浏览器支持。

最后,许多新手用户会将IPFS与当前流行的货币Filecoin混淆。这里也很简单,很受欢迎。 IPFS和Filecoin都来自协议实验室,但是尽管IPFS与区块链相似,但它不是区块链。 Filecoin是一个纯区块链项目。 Filecoin是IPFS上的激励层,也是基于区块链技术发行的令牌。它是IPFS协议的补充,但彼此独立。

Protocol Labs设计了Filecoin,2017年进行的私募创造了当时区块链行业的最高融资记录,筹集了2.57亿美元的资金。

一般来说,IPFS的网络速度取决于多个节点,每个节点代表一台分布式服务器。如果没有奖励机制,没有人会愿意免费提供这么多节点和存储。在经济激励下,Filecoin矿工可以为IPFS网络贡献大量节点,并可以为基于IPFS的应用程序使用巨大的分布式存储空间,这保证了矿工的收入,还可以解决IFPS网络的低成本。 ,高性能存储问题。

我们今天邀请了该技术领域的专家,他们将在以后更详细地分享。

主持人:非常激动人心的答案!我相信我们的用户对IPFS有初步了解。接下来,请BW回答:为什么会有IPFS?这个问题实际上是在询问IPFS诞生的含义。

BW回答:HTTP协议是一个伟大的发明,Internet是基于HTTP协议的。借助HTTP协议,Internet迅速发展。

但是HTTP的集中化将不可避免地导致其低效率,高成本,高依赖性和固有的脆弱性。这是IPFS解决的痛点,也是为什么需要IPFS的原因。

为了防止数据不断被侵蚀,HTTP依靠大型中央服务器通过进行大量的冗余备份来获得可靠性。尽管HTTP降低了发布信息的成本,但它仍然需要大量资金来运行,并且成本越来越高。从数据中心向外部集中分发信息非常昂贵。每次需要从集中式服务器下载完整文件时都使用HTTP协议,速度慢且效率低。 IPFS可以将文件分成小块,并允许用户同时从多个服务器下载文件。这种点对点方法可以节省带宽,提高速度并大大降低成本。

我们估计我们都遇到了404页的情况。通常,此404是HTTP页面已被删除,并且Web文件的存储成本太高而无法永久存储。许多HTTP页面的平均生命周期相对较短。 IPFS提供了文件回溯的历史版本功能,您可以轻松查看文件的历史版本,并且可以将数据永久存储。

HTTP导致对Internet骨干网的过度依赖,从而导致其自身的漏洞,同时,集中化​​限制了Web的增长。最初,人们希望构建一个去中心化的Web,但是现在使用的Web越来越集中在少数服务器上。该中心是高度集中的网络。各种控件都会对Internet的功能造成威胁,例如Internet封锁,控制,监视等。例如,一旦某些组织拦截了这些服务器中心的通信信息,他们就可以获取大多数用户的数据。对于政府而言,只要在边界路由上设置内容检查,就可以阻止与中央服务器的连接。同时,网络通信遭受DDoS攻击的风险也大大增加了。分布式IPFS可以克服这些Web的缺点,并减少某些部门或组织的干扰。骨干网受许多因素的影响。战争,自然灾害,Internet控制,集中式服务器停机等都可能是我们的Internet应用程序中断服务。 IPFS可以是一个Internet应用程序,可以大大减少Internet应用程序对骨干网络的影响。依赖关系还可以降低集中式单点故障的风险。

IPFS的目标可以加快网络速度,提高效率,降低成本,提高可靠性并减少某些团体的攻击和操纵。分散的网络基础架构可促进网络的发展以及网络的自由和公平。

主持人:很详细的解释,好评!接下来,让我们问一问Milin Finance:IPFS中包含什么?

Milin Finance回答:星际文件系统(IPFS)实际上是文件系统的全局点对点分布式版本。它可以将具有相同文件系统的所有计算设备连接在一起。主要目标是为我们提供帮助。支配Internet的超文本传输​​协议(即HTTP)得到补充(甚至“替换”)。它的原理是使用基于内容的地址来替换基于域的地址。简而言之,用户正在寻找存储在特定位置而不是地址的内容,他们只需要确认验证内容的哈希即可通过。获取更快,安全,健壮和持久的网页。

主持人:原则上,IPFS是对当前Internet网络的影响和升级。如果内容不能被篡改,将会给社会带来很多好处,并朝着更加公平,公正的方向促进社会发展。使用IPFS技术还讨论了Filecoin挖掘。今天,我们邀请了时空云采矿池和石榴采矿池为所有人带来好处并了解Filecoin采矿。我可以问一下时空云挖掘池:Filecoin的挖掘过程是什么?普通人可以采矿吗?

时空云挖掘池:Filecoin挖掘实际上非常复杂。简而言之,它是通过复杂的计算获得计算能力(存储能力)以生成复制证明,并通过向链提交时空证明来获得参加区块选举的权利。阻止奖励。由于这不是技术交流,因此我将以一种相对流行的方式进行一般性介绍。

复制证明意味着矿工必须向系统证明他确实已经存储了用户所需的数据。矿工首先通过复杂的计算过程将数据封装并存储在扇区中,然后生成一份复制证明。经过零知识证明后,将扇区数据压缩并提交给链以获得计算能力(存储能力)。

时空证明是,矿工必须向系统证明他们不仅存储了用户数据,而且还存储了一定时间段内的用户数据。时间和空间证明要求矿工不断证明自己仍在存储他们承诺存储的数据。时空证明是向存储矿工发出加密挑战的过程。矿工必须在严格的时限内完成挑战,否则将面临惩罚。

时空证明采用WindowPoSt审核机制。每个存储矿工必须为每个部门提交时空证明。这要求随时访问每个受挑战的扇区,并且导致零知识证明压缩的证据以块的形式作为消息发布到区域。区块链。因此,矿工应至少每24小时检查一次创建承诺产能的部门,并保持永久且可验证的公共记录,以证明每个存储矿工的持续承诺。

如果矿工未能按要求提交WindowPoSt扇区,则将导致故障,矿工的有效计算能力将下降,认捐的代币也将被没收。

最后,Filecoin项目采用了“预期共识”,其中每轮选举一名或多名矿工以创建一个新区块。 The probability of a miner winning the election is proportional to the miner’s current effective storage. The WinningPoSt mechanism is used to obtain rewards based on the size of the miner"s contribution, and each elected miner who successfully creates a block will receive a FIL reward.

以上可能是Filecoin挖掘的一般过程。它看起来仍然很复杂。如果我们使用割麦来比较采矿,可能会更容易理解。所谓的采矿机实际上是一个存储集群,就像我们用来装小麦的袋子一样。没有存储数据的采矿机没有任何价值,装满小麦的袋子也没有任何价值。

部门包装获得计算能力的过程就像割麦。我们使用收割机收割小麦,就像我们建立计算集群来计算和打包数据以获得计算能力一样。

将小麦收获到袋子中就像将数据封装到采矿机的硬盘中,然后以金钱出售所收获的小麦一样。这个过程是参加大包装,以获得大块的奖励,销售的收获的小麦越多,钱就越多;封装的数据越多,计算能力越强,将获得更多的区块奖励。

但是,如果收割的小麦没有妥善保存,则仓库中的老鼠会吃掉小麦,由于雨水和潮湿甚至被盗而变质,收割的小麦也会丢失。而且,如果您无法完成挑战并在封装数据的扇区中提交时空证明,则将扣除计算能力。

从以上过程可以看出,Filecoin的挖掘过程非常复杂,除了硬件要求很高之外,对区块链,存储和互联网的技术要求也很高。网络运营和维护存在非常复杂的算法优化,集群管理以及功能要求。

此外,根据最新的采矿机制要求,有效计算能力低于100TB的矿工无权参与块包装。如果按照最低配置要求完成100TB扇区封装,则将需要近一百万个硬件设备来构建集群,才能有机会参加大数据打包以获取利益,而这一过程将非常漫长。因此,Filecoin挖矿不适合散户投资者参与。

除了上述硬件和软件要求以及资本投资的门槛外,Filecoin独特的质押和惩罚机制对矿工的运营和维护也有非常严格的要求。它们无法在7 * 24小时内断开网络连接,并且它们非常专业。运维团队提供7 * 24小时的运维服务,否则丝毫疏忽将一无所有。

因此,普通投资者参与Filecoin挖矿的最佳方法是选择技术实力雄厚的挖矿机制造商,并通过从挖矿池购买云计算功能产品来参与联合挖矿。由Space Cloud提供技术支持的FILPool采矿池的云计算功能产品最近也已在ZB上推出以进行预售。欢迎大家参加ZB的订阅并分享Filecoin的最高采矿奖金。主持人:似乎应该将专业事务移交给专业人士。普通用户可以购买云计算能力来参与挖掘,这非常方便。同时,抢购中国币将推出的期货FIL6Z也是一种很好的投资方法。接下来让我们问一下石榴开采池:参与开采Filecoin时应注意哪些问题?

石榴开采池的答案:石榴开采池:目前有三种参与Filecoin开采的方式,即云计算能力,托管开采机器和自开采。

根据我们的挖掘软件,它可能足以挖掘其他数字货币,但对于Filecoin而言还远远不够。为什么?由于用户使用Filecoin进行挖掘,因此除了挖掘软件外,还需要解决许多问题,例如联网,例如在存储和计算设备之间建立局域网,它们之间的传输带宽以及如何布置路由器交换机。 。这些都是问题。其次,矿工需要自己构建一套本地分布式存储解决方案,这需要使用一些分布式存储软件来实现,这也有些困难。

因此,在自我挖掘的过程中,如果您在技术上不强壮,则会遇到很多问题。尽管成本最低,并且一切都是可控的,但遇到的问题也最多。

第二个是托管采矿机,也就是说,您无需自己担心,只需购买采矿机并将其放在矿山中进行维护。在这种情况下,不必担心,但是会有一些问题,即初始投资会非常大,因为您必须购买至少10万台采矿机,因此不适合小规模投资者。

第三种类型的云计算能力具有阈值低和最实用的优点。但是它的缺点是您在整个购买过程中看不到真实的东西。因此,在购买云计算能力的过程中,必须注意卖方的素质。总而言之,采矿机和云计算能力都必须筛选制造商的质量,如果您自己开采,技术要求将会更高。另外,Filecoin的一些原理和机制可能已经被理解,包括质押解锁的设计。无论您是进行挖掘还是托管,云计算能力都可以帮助您确定产品的质量。

微信
登录
用户名
密码
注册
用户名
密码
确认密码
昵称
邮箱
QQ
找回密码
用户名
邮箱
※ 重置链接将发送到邮箱