最终所产出的补偿系统将会非常复杂,正如前文例子中所提到的树林中的道路网络,这是权衡方案的副产物。矛盾的是,随着时间的推移,补偿系统也会越来越复杂,系统自身也会成为脆弱性的来源——在临界点附近,只要发生一次小小的干扰且位置合适,就能让整个系统崩溃。因此,这类系统的设计不可能达到完美,因为在采取的每一种稳健策略背后,都存在相对应的脆弱性(尽管很少)。可以说,稳健但脆弱的系统中埋藏着“黑天鹅”的隐患——概率很小但危害大的事故。
互联网正是这种稳健但脆弱系统的现实写照。互联网起源于一项20世纪60年代美国军方投资的项目。它的设计初衷是为了确保在发生灾难时,军队仍然能够正常通信。那个时候,军方领导人担忧前苏联会先发制人对美国电信枢纽进行核打击,这就会造成指挥链的中断——这样一来,美军的反击命令可能就无法从指挥部的地堡中成功传送至北达科他州导弹发射井的预定接受人那里。因此,军方领导人要求最初建造互联网的工程师们设计出一种系统,能够探知并自动引导信息流量绕过发生故障的设备。毕竟,在核打击下,这种情况是难以避免的。
互联网通过一个简单但又独创的方法完成了这个不可能完成的任务:它将我们传送的每一封电子邮件、网页和视频都分割成一个个小的数据包,再通过一个迷宫般复杂的路由器网络传送出去:这个网络由一些专用的计算机组成,最大特点是冗余性,因为每一台计算机都会通过多个节点来连接到网络。每个路由器都包含有一个定期更新的路由表,类似于本地火车时刻表。当数据包通过路由器时,就会咨询路由表,然后按照设定的一般路线前往目的地。如果最好的路线受到了阻碍、堵塞或损害,那么路由表就会及时更新,引导数据包流向另一条备用通路;当这个数据包抵达下一个路由器时,又再一次重复这个过程。假设你现在进行了一次网络搜索,看上去结果好像是实时出现的;但实际上,包含着这次搜索信息的数据包可能会穿越几十个路由器和连接点,绕过许多个阻塞节点和离线计算机。
如果一个黑客恶意干扰了互联网上某台计算机,甚至将其炸毁,路由系统这种高度分散特性能够保证整个网络不会受到影响。相邻的路由器只需要更新路由表,引导网络流量绕过受损的计算机即可。由此,在面临预料之内的设备故障时,互联网的设计可以说是稳健的。
然而,现代互联网非常容易受到另一种攻击,在其发明之初还没有人预料到这种攻击的存在,这就是对互联网开放架构的恶意利用——不是绕过故障,而是有额外的垃圾信息充斥其间。这包括垃圾邮件、蠕虫、病毒、僵尸网络和分布式拒绝服务攻击(DDOS):它们在网络中注入海量空白数据包,往往从多个输入源同时攻击。这些像洪水一样的垃圾信息利用互联网原本有益的一个特性阻塞系统,使得某个特定的计算机、中央枢纽,甚至整个网络陷入停滞。