IPFS的优势在于immutable link
IPFS是去中心化存储的协议
但去中心化只是方法,不是目的,也不是优势。
IPFS的优势是immutable link,link标志的是内容本身
相对的,现在的HTTP链接标志的是内容存储的位置
link标志内容本身可以避免现有HTTP链接的一些弊端,比如:
- 如果内容创造者更改链接,原有的链接就会失效,这使得HTTP链接是种不怎么靠谱的链接,这估计也是为什么论文、书籍里面很少放HTTP链接引用网络内容的缘故。创作时间比较久的作品里放的链接很多都是失效的。
- 基于文件存储位置的HTTP链接可以很容易的被监管,只要关掉存储这个文件的机器,就可以导致链接的失效,以及内容的丢失。或者通过防火墙屏蔽来自这个地址的内容的传播,也同样能导致链接的失效。
虽然IPFS的链接是不可更改的,但是内容是有可能丢失的。
IPFS并不适合所有场景,个人数据就不怎么适合使用IPFS协议存储。
IPFS适合大家都需要的数据,比如书籍、论文、照片、音乐、电影、软件安装包、Linux分发版、Linux的软件。
为了缓解现有中心化协议对服务器造成的压力,Linux分发软件的普遍做法是在全世界部署镜像,通过多个中心来分散任务。如果通过IPFS协议分发,不仅效率更高,而且也不用设置镜像了。
有使用Docker经验的人,能感觉到在国内通过官方源获取image速度比较慢,设置阿里云镜像可以提速。这个也是很适合用IPFS协议的。
这两个例子都利用的是IPFS的类CDN属性。
去中心化的网络流量是很难被管控的,对流量管控的一般做法是CDN污染、地址封锁,这两个做法首先得有明确的目标。而使用IPFS协议的流量来自各个分散的节点,根本没法和正常流量区分,也根本不知道该管控那个节点,以前的办法没有了目标。
所以通过IPFS协议分发被管控的内容,将无法被阻挡。sci-hub意图消除论文——人类知识的瑰宝存在的壁垒,如果不是学校、公司订阅了,自己购买的话是很贵的。sci-hub通过IPFS协议存储这些论文,就不用担心被各个国家封了。
常常看到一些百度网盘分享的链接失效,可能是因为发布者自己删除了,也可能是因为违规而被百度删除了。但是使用IPFS协议分享文件,在论坛里告诉别人hash值之后,只要文件保持一定的活跃度,这个地址就永远有效。
但是IPFS目前网络状况并不好,主要还是因为激励问题没有解决,这个可以借鉴迅雷、popcorn的经验,通过用户层面的设计绕过这个问题。
如果做一个中文软件,用的人多了,网络状况也就好了。
一个新的软件要被用户接受,要么满足过去已经被满足的需要,但是体验好得多;要么满足过去没有被满足的需要。
对于我而言,现在没有被满足的需求,就是很多国外的内容没法访问,或者访问很慢。即使使用梯子,大多时候仍然没法流畅的看youtube、medium、twitter、github、reddit、wikipedia,这几个网站都是我最频繁访问的网站,但是除了github、wikipedia之外都被封了,github、wikipedia访问也有点慢,git clone
速度通常只有几十kB/s。这样的网络状况是会影响到我的工作效率的。