2008 到2018,互联网跌宕起伏的十年变迁之路

SDCSA2018-11-08 21:34:59

十年前,我写了一篇文章,在文章中我总结了 1998 年到 2008 年之间互联网的发展历程(https://www.potaroo.net/ispcol/2008-06/10years.html)。如今,又一个十年过去了,是时候再次做一个小节了,让我们一起来梳理一下这十年间互联网的变迁吧。

任何技术的发展之路总是充满坎坷又令人意想不到。在一些领域,复杂和花俏是我们追求的目标;而又有一些领域,朴实和简单才是核心的极致。

互联网的似乎也不例外,它的发展过程既曲折又惊奇。过去十年间,互联网的故事既跌宕起伏又扣人心弦。

关键点:

  • 从 20 世纪 90 年代到 21 世纪初,技术变革的步伐似乎变得缓慢,过去十年间互联网的主题是整合而不再是持续的技术演进。

  • IPv6 依然前景不明。一些服务提供商无法解决 IPv4 地址稀缺的问题,因此他们将 IPv6 视为进一步扩展其网络的救命稻草;而其他一些提供商却并不这么认为,他们仍在等待更好的解决方案。

  • 苹果公司在 2007 年发布了一款革命性的设备:iPhone。iPhone 的发布是过去十年间科技领域的重大事件,它用移动设备的 App 颠覆了曾经的 PC 互联网。

  • 网络的内容不再只由拥有者提供,用户也可以参与进来,人人都是内容提供者。

今天的互联网在很多方面依然与十年前很像。

互联网的绝大部分基础设施几乎保持原样。十年前就已经开始向 IPv6 过渡了,而如今依然如此;十年前我们努力提高互联网面对各种攻击的抵御能力,如今这项任务依然是头等大事;十年前我们致力于提供更优质的网络服务,如今这依然是我们的宗旨。

从 20 世纪 90 年代到 21 世纪初,技术变革的步伐似乎失去了动力,过去十年间互联网的主题是巩固现有技术而不再是持续发展新技术。

技术变革的阻力或许源于网络规模的增加。我们过去经常引用梅特卡夫定律,把“网络价值以用户数量的平方的速度增长”当做口头禅。仔细观察不难发现,技术变革面临的阻力同样与用户数量呈平方关系。

总的来说,所有大型松耦合的分布式系统都很难抵制协调一致的技术变革。这些系统充其量可以应对某些特定形式的市场压力,但是由于互联网的整体系统非常庞大而且多样化,这些市场压力会在网络的不同部分以不同的方式呈现出来,令人捉摸不透。个体用户大多不依赖集中协调的指示,受到限制的条件也较少。如果发生变化和改革,个体用户往往视其为机会,并且对于他们来说需要承担的风险也不高。互联网的变革之路有时充满挑战,有时又显得水到聚成且无比自然。

另一方面,事情的结果偏离了预期,甚至背道而驰。在过去的十年中,我们看到了互联网上又一场深刻的变革,它以前所未有的速度融合了无线基础设施和丰富的服务。我们看到了内容方面的革命,它不仅改变了互联网,在其影响之下,互联网似乎正在摧毁传统报纸和广播电视行业。

社交媒体几乎取代了电话和书信的通信方式。云计算这个新的概念让旧式中央大型机服务实现了复兴,互联网设备得以重新利用,以支持通用云托管,这些内容在很多方面模仿了过去的终端显示模式。所有这些都是互联网的根本性变化,所有这些都发生在过去的十年!

这个话题涵盖的范围很广,所以我会把内容锁定在更大的主题上,来构造这个故事,而不仅仅列出过去十年中各种变化和发展事件,我将按照协议栈的标准模型来展现本文的内容。我首先从底层传输媒体开始,然后着眼于 IP 层,接着是传输层、应用层和服务层,最后,我会展望一下互联网的下一个十年。


IP 层之下


在这十年间,IP 层之下的网络媒体层有哪些变化呢?

光学系统在过去十年间发生了持续的变化。十多年前,人们使用简单的开关键将信号编码到光通道中,从而构造出光学系统。得益于硅控制系统和激光驱动芯片的快速发展,新生代的光学系统的发展速度极为迅速。

20 世纪 90 年代后期引入的波分复用技术,使运营商能够大幅度提高光缆基础设施的承载能力。近十年来,采用偏振与相位调制的光学系统大大提升了传输能力。

目前,100 Gbps 的光通道已经很常见,我们正在持续研究相关技术,力争把速度提升到 200 Gbps 以上。我们预计 400 Gbps 的系统指日可待,通过将更快的波特率和更高级别的相位幅度调制进行各种组合,我相信 1 Tbps 的光学系统也是有可能实现的。

无线电系统的整体容量在这十年间也有着类似的提升。信号处理的改进,类似于光学系统的变化,允许使用相位调制来提高无线承载的数据速率。MIMO 技术的使用,加上更高的载波频率,使得移动数据服务能够在当今的 4G 网络中支持高达 100 Mbps 的传输服务。随着 5G 技术的部署,在不久的将来,移动系统支持的频率将高达 1 Gbps。

尽管光学系统的速度在提高,但是数据包格式如同光纤电缆一样一成不变,长期以来以太网数据包帧仍然存在于传输系统中!奇怪的是,以太网定义的 64 - 1500 个八位字节的大小限制仍然存在。

虽然数据包大小不变,但是更快的传输速度使得每秒传输的数据总量增加了 100 倍。因此,硅基交换机需要更高的数据包处理速率。

但是在过去的十年中,处理器的时钟速度和内存的循环时间并没有太大的提升。到目前为止,应用程序的响应速度越来越依赖于并行性,而现在多核处理器和高度并行内存系统得到大力使用,这相比于单线程处理模型来说极大地提升了性能。

到 2018 年,我们已经非常接近实现 1 Tbps 光学系统和高达 20 Gbps 的无线电系统。这些传输模式究竟能够支持多快的传输速率和容量,仍然是一个悬而未决的问题。


IP 层


网络顽强地抵御了过去十年间所有形式的压力,包括地址的严重缺乏,这表明我们本质上仍然在使用基于 IPv4 的互联网。

在过去的十年中,我们几乎耗尽了 IPv4 地址,并且在世界上的大部分地区,某种形式 的 IPv4 网络正处于空闲状态。我们从未怀疑互联网最基本的资源会面临枯竭的境地,但意外的是,这种怀疑已是现实。

目前互联网的用户保守估计有 34 亿,此外,接入了互联网的设备有大约 200 亿。我们已经使用了大约 30 亿个独一无二的 IPv4 地址。这样的数据有些令人难以置信,但事实的确如此。

早在 20 世纪 90 年代,我们就认为解决网络地址枯竭的方案将推动互联网 IPv6 的发展。IPv6 协议继 IP 协议之后,其 IP 地址位宽增加了四倍。这样一来,IP 地址池将变得非常大,我们再也不会遇到网络地址耗尽的情况。但从 IPv4 到 IPv6 过渡的过程并不简单。

该协议不具备向后兼容性,因此一切都需要改变。每台设备、每台路由器甚至每个应用都需要更改以支持 IPv6。我们并没有在互联网上大动干戈地全面更改协议,而是选择了改变互联网的基本架构以支持 IPv6。事实证明,这样做的代价的确小得多!

通过在网络边缘几乎无处不在地部署网络地址转换器(NAT),我们将网络从对等网络转变为客户端/服务器网络。在这种通信模式中,客户端可以与服务器通信,服务器可以和已经连接的客户端进行通信。但是,客户端不能直接与其他客户端通信,服务器需要等待客户端发起连接之后才能与之通信。

客户端与服务器通信时暂时“借用”一个端点地址,当其空闲时便释放该地址以供其他客户端使用。毕竟,端点地址只对客户端有用,客户端拥有该地址才能与服务器通信。事实上,互联网提供的总地址数量约为30亿,但它可以供200亿个客户端设备使用。我们采用 IP 地址分时使用的方式来实现这一方案。

目前看来一切都很好,我们还需要 IPv6 吗?需要逐渐实现从 IPv4 到 IPv6 的过渡吗?

十年过去了,这些问题的答案仍不明确。与十年前相比,积极的一面在于,现在IPv6 越来越多。服务提供商现在部署的 IPv6 已经远多于2008年。

当服务提供商在网络中部署 IPv6 时,那些配备了 IPv6 的设备立即可以采用 IPv6。在2018年,五分之一的互联网用户通过 IPv6 访问互联网,这主要发生在过去的10年间。

但是,消极的一面仍然存在,我们不禁会问:其他五分之四的互联网用户是怎么回事,他们对待 IPv6 是什么态度呢?有消息称,相比于 IPv4 到 IPv6 的过渡,互联网服务提供商更愿意将其有限的运营预算用于其他方面,以改善用户体验,比如增加网络容量、消除数据上限、获取更多的网上内容,等等。部署 IPv6 不那么紧迫,完全可以推迟。

如今我们对待 IPv6 的态度任仍然模棱两可。一些服务提供商根本无法解决 IPv4 地址稀缺的特殊困境,他们将 IPv6 视为进一步扩展其网络的救命稻草;而其他一些提供商则并不认同这个问题的紧迫,他们愿意推迟解决。

路由

对比十年之间互联网的相似之处时,路由系统不得不提。尽管 10 年前就曾预测边界网关协议(BGP)即将消亡,但时至今日 BGP 仍然坚挺,继续为整个互联网提供路由服务。的确,BGP 与以往一样缺乏安全性,持续不断的胖手指混淆以及恶意路由劫持继续困扰着我们的路由系统,但 2008 年使用的路由技术与现今互联网所使用的相同。

IPv4 路由表的规模在过去十年中增长了两倍,从2008年的25万条增加到今天的75万多条。IPv6 路由的增长幅度更多,从1100增加到了52000。而 BGP 则依然在背后默默地付出。谁会想到,一个最初设计用于应付几百个网络的几千条路由的协议仍然可以在一百万个路由条目和数十万个网络的路由空间中有效运行!

同样,内部路由协议也没有太大改变。大型网络根据自身情况依然使用 OSPF 或者 ISIS,而小型网络可能会选择一些距离矢量协议,比如 RIPv2 或者 EIGRP。LISP 和 BABEL 路由协议似乎缺乏与互联网的真正联系,尽管它们在路由管理中都具有有趣的属性,但它们都没有足够的感知力度来克服常规网络设计和运营。

这看起来像是惯性质量抵制网络变化的另一个例子。

网络运营

网络运营发生了一些变化,但这个领域似比较保守,采用新的网络管理工具和实践需要时间。

一个世纪前,互联网使用简单网络管理协议(SNMP),尽管安全性较弱,效率低下,得益于 ASN.1以及抵御 DDOS 攻击方面的优点,它仍然使用广泛。但是 SNMP 只是一种网络监控协议,而不是网络配置协议,因为任何试图使用 SNMP 写入操作的人都可以被查明。

最近的 Netconf 和 YANG 正在努力将这个配置管理领域变得比预计在交换机上驱动 CLI接口的脚本更有用。同时,我们看到 Ansible、Chef、NAPALM 和 SALT 等编排工具也参与进来,允许在数千个单独组件上编排管理任务。这些网络操作管理工具是改进自动化网络管理状态的重要途径,但它仍然远远不够理想。

在我们大力推进自动化控制系统以实现无人驾驶汽车的同时,全自动化网络管理似乎远远达不到预期的终点。为网络的基础设施和可用资源提供自适应自主控制系统,允许控制系统监控网络,并修改网络组件的运行参数以不断满足网络的服务水平目标,这些可行吗?无人驾驶的汽车呢?也许未来十年这些都可以变成现实。

移动互联网

在我们谈论网络协议模型以及端到端传输层之前,我们有必要了解一下接入互联网的设备的发展状况。

多年来,PC 占据互联网主流,笔记本电脑主要用于满足那些渴望便携设备的人们。那时的手机还是功能手机,最早的智能手机并没有得到太好的反响。

苹果公司于2007年发布的 iPhone 手机是一款革命性的设备。它拥有鲜艳的彩色触摸屏,仅有四个按键,拥有功能强大的操作系统,具有 WiFi 和蜂窝无线电接口以及强大的处理器和内存,iPhone 的诞生可能是十年来最重大的事件。

iPhone 上市之后,Windows 和诺基亚立即联合起来效仿。谷歌以一个积极破坏者的身份参与进来,它为手机厂商们提供了 Android 平台及其应用生态系统的开放许可框架。Android 被三星、LG、HTC、华为、索尼等多家企业使用。目前,近80%的移动平台使用 Android,苹果 iOS 的使用率约为17%。

在整个互联网的营收方面,移动设备占据大头。目前,有线网络的利润率几乎为零,虽然移动互联网增速减缓,但对于厂家来说它依然拥有一丝模糊的希望。


传输层


现在来谈论协议栈中更高一层,并研究一下过去十年中端到端传输协议的进化历史。

端到端传输是互联网的革命性的重要方面,TCP 协议是这一变化的核心。许多其他传输协议要求网络协议栈的较低级别为传输协议提供可靠的流接口。网络创建这种可靠性,执行数据完整性检查和数据流控制,当网络发生数据丢失时进行修复。TCP 免除了这一切,并简单地假定来自网络的不可靠的数据报传输服务,并推动传输协议承担数据完整性和流量控制的责任。

在 TCP 的世界里,过去十年似乎没有多少变化。我们已经看到了 TCP 控制的速率增加和速度下降的细节方面的一些进一步的细化,但没有太多实质性的改变。TCP 倾向于使用数据包丢失作为拥塞信号,并在较低速率和这种丢失触发速率之间振荡流量。

随着谷歌 BBR 和 QUIC 产品的亮相,这种情况有望得到根本的改变。

带宽瓶颈和往返时间控制算法(BBR)是 TCP 流量控制协议的一种变体,其操作方式与其他 TCP 协议完全不同。BBR 尝试维持位于发送方和接收方之间端到端路径的延迟带宽积的流量。在这种情况下,它试图避免网络中数据缓冲的积累(当发送速率超过路径容量时),并且还试图避免在网络中留下空闲时间(其中发送速率小于路径容量) 。

BBR 在发生拥塞丢失时试图避免网络缓冲崩溃,这是它的副作用。BBR 显著提升了有线和无线网络的传输效率。

谷歌最近提供的 QUIC 也代表了我们使用传输协议方式的重大转变。QUIC 协议看起来像一个 UDP 协议,从网络的角度来看,它只是一个 UDP 数据包流。

这些 UDP 数据包的内部有效载荷包含更传统的 TCP 流量控制结构和 TCP 流有效载荷。但是,QUIC 对 UDP 有效负载进行了加密,因此整个内部 TCP 控制对网络完全隐藏。互联网传输的骨化不仅是因为网络中间件的干扰作用,而且用于丢弃它无法识别的数据包。

像 QUIC 这样的方法允许应用程序摆脱这种制度并将端到端流程管理作为端到端功能进行恢复,而无需任何形式的网络中间件检查或操纵。我认为这一发展可能是过去十年中传输协议中最重要的改进。


应用层


让我们继续研究协议栈的更高一层,并从跨应用程序和服务的角度来看待互联网。

隐私和加密

正如我们在研究端到端传输协议的发展时指出的那样,QUIC 有效载荷的加密不仅仅是为了防止网络中间件干扰 TCP 控制状态。加密适用于整个有效载荷,它是过去十年互联网的另一个重大发展。

对于各种形式的基于网络机制来窃听用户的行为,我们都感到警惕。爱德华·斯诺登在2013年发布的文件描绘了一个非常可怕的美国政府监视计划,该计划使用广泛的流量拦截来源来构建用户行为,并通过推论描述个人用户的概况。在很多方面,这种组合这些配置文件的尝试与谷歌和 Facebook 等广告资助的服务(或多或少)多年来公开做的没有多大区别,但也许根本的区别在于默认。对于普通广告受众来说,此信息旨在提高个人资料的准确性,从而提高潜在广告客户的用户价值。

为了应对这种泄漏材料的情况,在网络的所有部分采用端到端加密能够有效预防。推论是为了让所有人都能使用强大的加密功能,而不仅仅是那些只有付得起高价才能享受的奢侈功能。Let's Encrypt 倡议在发布免费的 X.509 域名证书方面取得了令人难以置信的成功,其结果是,所有网络服务运营商,不管其规模大小,其 Web 服务器都可以使用加密会话,其形式为 TLS。

基于网络的窃听者的用户流量远远超出 QUIC 和 TLS 会话协议。域名系统(DNS)也是关于用户在做什么的信息的丰富来源,以及在许多地方用于强制执行内容限制。最近出现了一些尝试和清理 DNS 过于喋喋不休的性质,使用查询名称最小化来防止不必要的数据泄露,以及通过 HTTPS 开发基于 TLS 的 DNS 以确保存根解析程序与它的递归服务器。这是目前正在进行的一项工作,需要一段时间才能看到这项工作的结果是否会在 DNS 环境中得到广泛采用。

我们现在正在充满高度偏执狂的环境中运营我们的应用程序。应用程序不一定信任它们的运行平台,我们看到应用程序正在努力将其活动隐藏在底层平台上。应用程序不信任网络,并且我们看到越来越多地使用端到端加密来隐藏网络窃听者的活动。在加密会话建立中使用身份凭证还可以限制应用程序客户端被误导为伪装服务器的漏洞。

互联网内容产业兴起

将协议栈进一步扩展到内容和应用环境,我们在过去十年中也看到了一些革命性的变化。

在一段时间内,互联网的内容和运输活动主要存在于独立的业务领域,并且相互依存。运输的任务是将用户带入内容,这意味着运输对内容至关重要。但与此同时,服务器之间的客户端/服务器互联网是无用的,所以内容对于运输是必不可少的。在一个重新出现的企业巨兽世界中,这种相互依赖对于直接参与的行为者和更大的公众利益来说都是令人不安的。

内容产业在很大程度上是这两种产品中最赚钱的产品,受到的监管约束更少。在他们提供的服务中没有任何普遍服务义务的概念,甚至没有任何有效的价格控制形式。许多内容服务提供商使用内部交叉融资,允许他们向公众免费提供服务,如免费电子邮件、免费内容托管、免费存储和类似服务,并通过第二种更闭塞的交易为基本销售用户的消费者个人资料给最高出价的广告客户。所有这些都发生在任何重大的监管约束之外,这给了内容服务行业相当大的财富和相当大的商业自由度。

这个行业现在正在利用其能力和资本来消除以前对运输行业的依赖,这应该不足为奇。我们现在看到内容数据网络(CDN)模型的迅速兴起,其中内容商店不是将用户带到各种内容商店,而是在用户旁边打开本地内容商店。

由于所有形式的数字服务都转移到 CDN,并且随着 CDN 开设直接与具有经济价值的消费者池相邻的分店,那么传统的运输服务在互联网中的作用如何呢?鉴于越来越多的内容经济体的边际化,公共运输提供商的前景并不乐观。

在这些 CDN 中,我们也看到一种新服务模式以云服务的形式进入互联网。我们的计算机不再是具有处理和计算资源的独立系统,而是越来越像一个能够看到存储在公共服务器上的数据的窗口。

云服务非常相似,其中本地设备实际上是大型后备存储的本地缓存。在用户可能拥有多个设备的世界中,这种模式具有说服力,因为无论使用哪种设备访问数据,公共后备存储的视图都是恒定的。这些云服务更方便数据共享和协作。与其创建一组原始文档的副本,然后尝试将所有单独的编辑切换回单个常见整体,该云模型仅通过更改文档的访问权限来共享文档。这个文档只有一个副本,所有文档的所有编辑和评论都可以使用。

网络攻击的演变

在我们看到互联网内网络容量不断增加的同时,我们看到一组并行的通告记录了拒绝服务攻击总容量的新记录。目前的峰值量是一个1.7 Tbps 的恶意流量攻击。

网络攻击再平常不过。他们中的很多人都非常简单,依靠一大堆潜在的僵尸设备,这些设备很容易被颠覆,并被选中协助攻击。这些攻击通常是简单的攻击形式,例如UDP 反射攻击,其中简单的 UDP 查询会产生大量响应。查询的源地址被伪造成目标受害者的地址。小型查询流可能导致大规模攻击。过去使用的诸如 SNMP、NTP、DNS 和 Memcache 等 UDP 协议将再次使用。

我们为什么不能解决这个问题呢?我们为之努力了数十年,而且我们似乎无法在攻击之前采取措施。对于网络运营商来说,防止伪造源地址数据包泄漏的建议 RFC 2827于二十年前发布。然而,基于 UDP 的伪造源地址攻击目前仍然存在。具有已知漏洞的陈旧计算机系统继续与互联网连接,并很容易转化为攻击机器人。

攻击的情况也变得更加不祥。之前归因于“黑客”,但我们很快就意识到这些敌对攻击的重要组成部分具有犯罪动机。从犯罪行为者到基于国家行为者的演变也是完全可预测的,我们看到这个网络战争舞台的升级,投资于各种形式的漏洞利用被视为一系列理想的国家能力的一部分。

看来这里的一个主要问题是,我们集体不愿意对有效的防御或威慑作出任何实质性的投资。我们在互联网上使用的系统过度信任不合理的东西。例如,用于保护基于网络的交易的公钥认证系统反复证明是不可信的,但我们却信任它。个人数据不断遭到破坏和泄漏,但我们似乎只想增加规则的数量和复杂性,而不是实际使用能够有效保护用户的更好工具。

敌对袭击的大局势并没有好转。事实上,情况变得更糟。如果任何企业有业务需要维护始终可用的服务,则任何形式的内部供应都不足以抵御攻击。现在只有少数平台能够提供弹性服务,即使如此,目前还不清楚它们是否能够抵御最极端的攻击。

网络中存在持续的背景级扫描和探测,任何形式的可见漏洞都被无情地利用。人们可以将今天的互联网描述为一个有毒的荒地,偶尔,某些严格防卫的城堡是个意外。那些能够在这些城堡中找到自己的服务的人可以从这种持续不断的敌对攻击中得到某种程度的缓解,而其他所有人都被迫试图从这种有毒环境的最恶劣的环境中隐藏自己,同时意识到他们将会完全被任何大规模袭击所淹没。

这是一个令人清醒的想法,全世界约一半的人口现在成为这个数字环境的一部分。一个更清醒的想法是,今天的许多控制系统,如发电和配电、配水和道路交通控制系统都暴露在互联网上。也许更令人担忧的是互联网在包括各种生命支持功能的自动化系统中的使用日益增加。这些系统在面临持续和破坏性攻击时出现严重故障的后果是不容易想象的。

数十亿互联网设备瘫痪事件

所谓的“物联网”(IoT)让这种情况更糟。

我们经常听到物联网代表着无限未来的声音。几十年前,计算机是由国家主导的深奥工程技术,如今,互联网的高速发展使得台式机、笔记本电脑、手持设备以及智能手环变得为民所用。在物联网的愿景中,我们将把互联网扩展到人以外,达到万物互联。

我们对已经连接到互联网的“设备”认知如何?

其中一些不是很好。事实上,其中一些设备非常愚蠢。而这种愚蠢危害巨大,因为不充分的操作和安全模式会以潜在的恶意方式影响他人。毫无疑问,如果不断检查和管理这些设备,我们可能会看到异常行为的证据并予以纠正。但这些都是非托管设备,比如网络摄像机的控制器、智能电视、智能洗衣机等等,这些设备无人看管。

提到物联网时,我们会想到气象站、网络摄像头、“智能”汽车、个人健身监视器等设备。但我们往往会忽略的是,所有这些设备都是以其他人的软件层构建而成的,这些软件以尽可能低的价格组装成产品。

如果你发现自己安装的网络摄像头“完全没有安全性”,并且它把你家的整个画面传到网上,这可能令你感到非常不安。如果你意识到自己的电子钱包会使用大量来源不明的开源软件时,这种不安可能会加剧。

消除代码中的错误,并且让软件变得完美无缺,这样的想法是美好的。但那完全是理想主义,不是现实,软件不可能做到完美,它将继续存在漏洞。如果认为物联网正在塑造成一个质量重要的市场,消费者将选择更昂贵的产品,即使其功能行为与更廉价的产品相同,而这种产品还没有经过严格的基本安全缺陷测试,也不失为一件好事。但这样的想法有些天真。

物联网将继续成为市场、价格和质量之间的妥协,它将继续推动我们走向廉价而非安全的一面。庞大而多样的程序化非管理设备内置的漏洞很容易被利用,用什么方法可以阻止呢?我们做些什么能够减小这些愚蠢而廉价的设备带来的危害?目前尚未找到针对这个问题的可行性解决方案。


未来十年展望


硅产业不会很快关闭。在未来几年内,它将继续生产更精细和更多堆叠层的芯片。计算机将在它们能够承担的任务范围和复杂性方面变得更加强大。

同时,网络值得期望。容量当然会更高,同时更大程度的定制化网络可以满足我们的个性化需求。

但是,互联网的安全和信任方面依然充满挑战。过去十年来,我们在这方面进展甚微,当然也没有理由认为这一情况会在未来十年大为改观。如果我们无法解决这个问题,那么互联网将充斥着各种危险设备。

除了互联网的这几大之外,其他领域的发展将很难预测。技术往往不会遵循预先确定的路径。它受到充满热情且变幻莫测的消费者市场的驱使,这个市场很容易被炫酷的新事物占领,而我们很容易对平常的事情感到厌倦。

在未来的十年中,用自然语言与人交流的口袋大小的计算机能够变成现实吗?身临其境的 3D 视频效果能够更上一层楼吗?将整个人类的书面作品汇集成一个可搜索的数据库,那么它能够零点几秒的时间内回答我们的任何问题吗?

就我个人而言,我无法预测未来互联网的模样。但无论如何,我都充满期待,我相信未来的互联网会更加炫酷、丰富多彩且出人意料!

原文:https://blog.apnic.net/2018/06/25/looking-back-at-the-internets-past-decade/ 

作者简介:Geoff Huston 是 APNIC 的首席科学家,主要负责互联网基础设施、IP 技术和分销政策的研究。他是卓越的 IPv4 研究员,其文章经常被国际机构和 ICT 媒体引用。 

译者:安翔 ,责编:屠敏

  转发:CSDN      Geoff Huston


Copyright © 丰城计算器学习组@2017