跳转至

17 排队也要讲效率:HTTP的连接管理

第14讲里,我曾经提到过HTTP的性能问题,用了六个字来概括:“不算差,不够好”。同时,我也谈到了“队头阻塞”,但由于时间的限制没有展开来细讲,这次就来好好地看看HTTP在连接这方面的表现。

HTTP的连接管理也算得上是个“老生常谈”的话题了,你一定曾经听说过“短连接”“长连接”之类的名词,今天让我们一起来把它们弄清楚。

短连接

HTTP协议最初(0.9/1.0)是个非常简单的协议,通信过程也采用了简单的“请求-应答”方式。

它底层的数据传输基于TCP/IP,每次发送请求前需要先与服务器建立连接,收到响应报文后会立即关闭连接。

因为客户端与服务器的整个连接过程很短暂,不会与服务器保持长时间的连接状态,所以就被称为“短连接”(short-lived connections)。早期的HTTP协议也被称为是“无连接”的协议。

短连接的缺点相当严重,因为在TCP协议里,建立连接和关闭连接都是非常“昂贵”的操作。TCP建立连接要有“三次握手”,发送3个数据包,需要1个RTT;关闭连接是“四次挥手”,4个数据包需要2个RTT。

而HTTP的一次简单“请求-响应”通常只需要4个包,如果不算服务器内部的处理时间,最多是2个RTT。这么算下来,浪费的时间就是“3÷5=60%”,有三分之二的时间被浪费掉了,传输效率低得惊人。

单纯地从理论上讲,TCP协议你可能还不太好理解,我就拿打卡考勤机来做个形象的比喻吧。

假设你的公司买了一台打卡机,放在前台,因为这台机器比较贵,所以专门做了一个保护罩盖着它,公司要求每次上下班打卡时都要先打开盖子,打卡后再盖上盖子。

可是偏偏这个盖子非常牢固,打开关闭要费很大力气,打卡可能只要1秒钟,而开关盖子却需要四五秒钟,大部分时间都浪费在了毫无意义的开关盖子操作上了。

可想而知,平常还好说,一到上下班的点在打卡机前就会排起长队,每个人都要重复“开盖-打卡-关盖”的三个步骤,你说着急不着急。

在这个比喻里,打卡机就相当于服务器,盖子的开关就是TCP的连接与关闭,而每个打卡的人就是HTTP请求,很显然,短连接的缺点严重制约了服务器的服务能力,导致它无法处理更多的请求。

长连接

针对短连接暴露出的缺点,HTTP协议就提出了“长连接”的通信方式,也叫“持久连接”(persistent connections)、“连接保活”(keep alive)、“连接复用”(connection reuse)。

其实解决办法也很简单,用的就是“成本均摊”的思路,既然TCP的连接和关闭非常耗时间,那么就把这个时间成本由原来的一个“请求-应答”均摊到多个“请求-应答”上。

这样虽然不能改善TCP的连接效率,但基于“分母效应”,每个“请求-应答”的无效时间就会降低不少,整体传输效率也就提高了。

这里我画了一个短连接与长连接的对比示意图。

在短连接里发送了三次HTTP“请求-应答”,每次都会浪费60%的RTT时间。而在长连接的情况下,同样发送三次请求,因为只在第一次时建立连接,在最后一次时关闭连接,所以浪费率就是“3÷9≈33%”,降低了差不多一半的时间损耗。显然,如果在这个长连接上发送的请求越多,分母就越大,利用率也就越高。

继续用刚才的打卡机的比喻,公司也觉得这种反复“开盖-打卡-关盖”的操作太“反人类”了,于是颁布了新规定,早上打开盖子后就不用关上了,可以自由打卡,到下班后再关上盖子。

这样打卡的效率(即服务能力)就大幅度提升了,原来一次打卡需要五六秒钟,现在只要一秒就可以了,上下班时排长队的景象一去不返,大家都开心。

连接相关的头字段

由于长连接对性能的改善效果非常显著,所以在HTTP/1.1中的连接都会默认启用长连接。不需要用什么特殊的头字段指定,只要向服务器发送了第一次请求,后续的请求都会重复利用第一次打开的TCP连接,也就是长连接,在这个连接上收发数据。

当然,我们也可以在请求头里明确地要求使用长连接机制,使用的字段是Connection,值是“keep-alive”。

不过不管客户端是否显式要求长连接,如果服务器支持长连接,它总会在响应报文里放一个“Connection: keep-alive”字段,告诉客户端:“我是支持长连接的,接下来就用这个TCP一直收发数据吧”。

你可以在实验环境里访问URI“/17-1”,用Chrome看一下服务器返回的响应头:

不过长连接也有一些小缺点,问题就出在它的“长”字上。

因为TCP连接长时间不关闭,服务器必须在内存里保存它的状态,这就占用了服务器的资源。如果有大量的空闲长连接只连不发,就会很快耗尽服务器的资源,导致服务器无法为真正有需要的用户提供服务。

所以,长连接也需要在恰当的时间关闭,不能永远保持与服务器的连接,这在客户端或者服务器都可以做到。

在客户端,可以在请求头里加上“Connection: close”字段,告诉服务器:“这次通信后就关闭连接”。服务器看到这个字段,就知道客户端要主动关闭连接,于是在响应报文里也加上这个字段,发送之后就调用Socket API关闭TCP连接。

服务器端通常不会主动关闭连接,但也可以使用一些策略。拿Nginx来举例,它有两种方式:

  1. 使用“keepalive_timeout”指令,设置长连接的超时时间,如果在一段时间内连接上没有任何数据收发就主动断开连接,避免空闲连接占用系统资源。
  2. 使用“keepalive_requests”指令,设置长连接上可发送的最大请求次数。比如设置成1000,那么当Nginx在这个连接上处理了1000个请求后,也会主动断开连接。

另外,客户端和服务器都可以在报文里附加通用头字段“Keep-Alive: timeout=value”,限定长连接的超时时间。但这个字段的约束力并不强,通信的双方可能并不会遵守,所以不太常见。

我们的实验环境配置了“keepalive_timeout 60”和“keepalive_requests 5”,意思是空闲连接最多60秒,最多发送5个请求。所以,如果连续刷新五次页面,就能看到响应头里的“Connection: close”了。

把这个过程用Wireshark抓一下包,就能够更清晰地看到整个长连接中的握手、收发数据与挥手过程,在课后你可以再实际操作看看。

队头阻塞

看完了短连接和长连接,接下来就要说到著名的“队头阻塞”(Head-of-line blocking,也叫“队首阻塞”)了。

“队头阻塞”与短连接和长连接无关,而是由HTTP基本的“请求-应答”模型所导致的。

因为HTTP规定报文必须是“一发一收”,这就形成了一个先进先出的“串行”队列。队列里的请求没有轻重缓急的优先级,只有入队的先后顺序,排在最前面的请求被最优先处理。

如果队首的请求因为处理的太慢耽误了时间,那么队列里后面的所有请求也不得不跟着一起等待,结果就是其他的请求承担了不应有的时间成本。

还是用打卡机做个比喻。

上班的时间点上,大家都在排队打卡,可这个时候偏偏最前面的那个人遇到了打卡机故障,怎么也不能打卡成功,急得满头大汗。等找人把打卡机修好,后面排队的所有人全迟到了。

性能优化

因为“请求-应答”模型不能变,所以“队头阻塞”问题在HTTP/1.1里无法解决,只能缓解,有什么办法呢?

公司里可以再多买几台打卡机放在前台,这样大家可以不用挤在一个队伍里,分散打卡,一个队伍偶尔阻塞也不要紧,可以改换到其他不阻塞的队伍。

这在HTTP里就是“并发连接”(concurrent connections),也就是同时对一个域名发起多个长连接,用数量来解决质量的问题。

但这种方式也存在缺陷。如果每个客户端都想自己快,建立很多个连接,用户数×并发数就会是个天文数字。服务器的资源根本就扛不住,或者被服务器认为是恶意攻击,反而会造成“拒绝服务”。

所以,HTTP协议建议客户端使用并发,但不能“滥用”并发。RFC2616里明确限制每个客户端最多并发2个连接。不过实践证明这个数字实在是太小了,众多浏览器都“无视”标准,把这个上限提高到了6~8。后来修订的RFC7230也就“顺水推舟”,取消了这个“2”的限制。

但“并发连接”所压榨出的性能也跟不上高速发展的互联网无止境的需求,还有什么别的办法吗?

公司发展的太快了,员工越来越多,上下班打卡成了迫在眉睫的大问题。前台空间有限,放不下更多的打卡机了,怎么办?那就多开几个打卡的地方,每个楼层、办公区的入口也放上三四台打卡机,把人进一步分流,不要都往前台挤。

这个就是“域名分片”(domain sharding)技术,还是用数量来解决质量的思路。

HTTP协议和浏览器不是限制并发连接数量吗?好,那我就多开几个域名,比如shard1.chrono.com、shard2.chrono.com,而这些域名都指向同一台服务器www.chrono.com,这样实际长连接的数量就又上去了,真是“美滋滋”。不过实在是有点“上有政策,下有对策”的味道。

小结

这一讲中我们学习了HTTP协议里的短连接和长连接,简单小结一下今天的内容:

  1. 早期的HTTP协议使用短连接,收到响应后就立即关闭连接,效率很低;
  2. HTTP/1.1默认启用长连接,在一个连接上收发多个请求响应,提高了传输效率;
  3. 服务器会发送“Connection: keep-alive”字段表示启用了长连接;
  4. 报文头里如果有“Connection: close”就意味着长连接即将关闭;
  5. 过多的长连接会占用服务器资源,所以服务器会用一些策略有选择地关闭长连接;
  6. “队头阻塞”问题会导致性能下降,可以用“并发连接”和“域名分片”技术缓解。

课下作业

  1. 在开发基于HTTP协议的客户端时应该如何选择使用的连接模式呢?短连接还是长连接?
  2. 应当如何降低长连接对服务器的负面影响呢?

欢迎你把自己的学习体会写在留言区,与我和其他同学一起讨论。如果你觉得有所收获,也欢迎把文章分享给你的朋友。

unpreview

精选留言(15)
  • TerryGoForIt 👍(79) 💬(3)

    老师您好,我想对于 队首阻塞 的问题,应该从 TCP 层面去解释会比较好一点吧。 > 以下引用自《Web 性能权威指南》 每个 TCP 分组都会带着一个唯一的序列号被发出,而所有分组必须按顺序传送到接收端。如果中途有一个分组没能到达接收端,那么后续分组必须保存到接收端的 TCP 缓冲区,等待丢失的分组重发并到达接收端。这一切都发生在 TCP 层,应用程序对 TCP 重发和缓冲区中排队的分组一无所知,必须等待分组全部到达才能访问数据。在此之前,应用程序只能在通过套接字读数据时感觉到延迟交互。这种效应称为 TCP 的队首阻塞。

    2019-07-05

  • qzmone 👍(58) 💬(2)

    "多开几个域名,比如 shard1.chrono.com、shard2.chrono.com,而这些域名都指向同一台服务器 www.chrono.com"老师,多开几个域名,最终都是指向一个服务器,那跟都直接连一个服务器的效果一样吧,我感觉对服务器的性能要求一样呀,没有减少后端的压力

    2019-08-05

  • 信信 👍(57) 💬(1)

    老师能解释下,为什么tcp握手1个rtt,挥手2个rtt吗?

    2019-07-06

  • 👍(38) 💬(1)

    一般使用长连接,除非明确知道只会发送一个请求,比如游戏内连接兑换码服务进行礼包兑换。 1,服务器端设置keepalive_timeout表示多长时间没有数据则关闭连接。 2,服务器端设置keepalive_requests,表示该连接上处理多少个请求后关闭连接。 3,服务器端设置最大连接数,当连接达到上限之后拒绝连接,也可以采用限流措施等。 4,客户端设置keepalive_requests,表示该连接上发送多少个连接后关闭连接。 5,客户端设置keepalive_timeout,表示多长时间没有数据发送则关闭连接。 6,客户端设置响应超时后重试次数,当次数达到上限后关闭连接。

    2019-07-05

  • 披荆斩棘KK 👍(29) 💬(2)

    老师,请问高并发请求和并发连接有什么关系吗? 负载均衡解决高并发问题是并发连接吗?

    2019-07-05

  • 👍(23) 💬(2)

    老师看下我总结的对不对,谢谢! 短连接:每次“请求-响应”都先建立tcp连接,完后关闭连接。这样三次握手1.5个rtt,“请求-响应”2个rtt(里面有两个ack),四次挥手2个rtt,效率极低。适用于少次请求,例如客户端只会对某个服务器发送几次请求后就不再发送。 长连接:建立tcp连接后不立即关闭,后续http请求复用这个tcp连接。http/1.1默认开启。如果有大量的空闲长连接只连不发占用资源,可能导致耗尽资源“拒绝服务”即DDoS。因此服务器常会设置超时时间或最大请求数。 这里的“连接”其实是对某个域名的,而不是某个ip或主机。而浏览器对单个域名的并发连接数量有限制,一般为6~8个,所以为了进一步提高连接数就有了“域名分片”技术,即将原来一个域名分成多个域名,但最后指向的服务器还是原来那一台。 例如把www.chrono.com分成shard1.chrono.com, 和 shard2.chrono.com,但还是指向原来那台服务器。这虽然提高了客户端的并发数,但反而增加了服务器端的压力。 连接相关头字段 Connection: keep-alive 在请求头里表明要求使用长连接,在响应头里表明支持使用长连接。 Connection: close 在请求头里表明告诉服务器这次通信后关闭长连接,在响应头里表明服务器将关闭长连接。 [Connection: Upgrade,配合101状态码表示协议升级,例如从http切换到WebSocket]

    2019-10-13

  • 小M 👍(20) 💬(2)

    个人理解,不能把http的队首阻塞归结于请求-响应机制。 tcp是全双工的,完全可以在一个tcp连接上双端同时进行收发。http只是在tcp连接上流动的一堆数据而已,应用层的数据不存在队首阻塞。问题在于http协议自身:它无法明确的标识出某个rsp是哪个req的。如果服务端不等待上一个req-rsp结束就发出另一个rsp,那么客户端无法区分收到的数据。 单连接上的多路复用也是基于请求-响应机制的,虽然一个连接上同时流动着多个req-rsp的数据,但是应用层协议有序号可以区分出rsp是哪个req的。

    2021-03-07

  •        鸟人 👍(17) 💬(1)

    拒绝服务应该是dos ddos是分布式dos

    2019-07-29

  • 小炭 👍(13) 💬(4)

    浪费的时间就是“3÷5=60%” 这个算法不是很理解,分子/分母是怎么来的

    2019-11-15

  • -W.LI- 👍(12) 💬(1)

    谢谢老师!讲的很形象,有个问题,长链接。课后小贴士写了区分请求和应答。一个长链接,同一时间只能发送一个请求是么?等到收到服务器响应以后才能被别的请求复用?假如有一个视频的请求一直占着。在分段传输的间隙能发送别的请求么? “域名分片”(domain sharding)技术,具体怎么实现啊后面仔细会讲么?那个域名的比喻没看太懂。是一个浏览器持有同一个服务的,多个负载的链接的意思么(一台服务器8个最多)服务器有集群浏览器创建了8*n个链接。每台负载最多只让一个浏览器连了8个。 域名解析不是DNS服务器做的么,不是直接解析成IP的么还能域名指向域名么?完全不懂

    2019-07-05

  • 独钓寒江雪 👍(10) 💬(1)

    其实感觉本节用地铁站做例子更好: 地铁站相当于服务器; 地铁站有多个出入口,对应域名分片; 每个口有多条道,每条道对应一个连接; 每条道有开和关,对应握手和挥手; 人刷卡通过就传递了数据信息。

    2020-02-01

  • 衬衫的价格是19美元 👍(9) 💬(2)

    服务器或者客户端是怎么是判断一个连接的呢?是不是有一个id来对应一个连接?一个连接具体是什么东西呢?是双方在内存中开辟的空间吗?

    2019-07-05

  • MClink 👍(7) 💬(3)

    老师,我们都知道tcp要三次握手来保证连接成功,但是老是有人问为什么是三次,不是四次,不是五次,如果面试官这么问的话,我们应该怎么回答才能是较为准确呢?我也只能说两次无法确认,三次足够确认,四次就多余了,每三次就是一个有效的循环

    2020-04-11

  • Happy-Coming 👍(6) 💬(1)

    打卡机器比喻非常棒

    2019-12-21

  • answer宫 👍(6) 💬(4)

    老师 ,请问为什么此请求是两个RTT啊,我理解一个就够了啊,一次请求,一次响应,一来一回就ok了吧,没有想通为什么是2个RTT

    2019-11-21