【Linux深入浅出】之全连接队列及抓包介绍
【Linux深入浅出】之全连接队列及抓包介绍
- 理解listen系统调用函数的第二个参数
- 简单实验
- 实验目的
- 实验设备
- 实验代码
- 实验现象
- 全连接队列简单理解
- 什么是全连接队列
- 全连接队列的大小
- 从Linux内核的角度理解虚拟文件、sock、网络三方的关系
- 回顾虚拟文件部分的知识
- struct socket结构体介绍
- struct tcp_sock与struct udp_sock介绍
- struct tcp_sock
- struct inet_connection_sock结构体
- struct inet_sock结构体
- 总结
- struct udp_sock
- Tcp接收缓冲区与发送缓冲区
- 分层介绍
- tcp抓包介绍
- Linux中使用tcp dump进行抓包并分析tcp过程
- tcp dump的安装
- tcp dump的简单使用
- 实验
- windows中使用wireshark进行抓包
- wireshark的安装
- 使用telnet作为客户端访问云服务器上的服务器程序
- 设置wireshark过滤规则
- 使用wireshark进行抓包
理解listen系统调用函数的第二个参数
listen
函数是在进行TCP socket
编程时的系统调用函数,它的功能是将普通套接字设置为监听状态,也就是将普通的套接字变成监听套接字,以便它能收到来自客户端的连接请求。
第一个参数是我们之前创建的socket
描述符,那么第二个参数应该如何理解呢?直接输出结论:backlog规定了全连接队列的最大长度,全连接队列是用于维护三次握手成功但是系统来不及接收的连接,backlog+1
是这个队列的长度。
简单实验
实验目的
下面我们将做一个小实验,这个实验主要会验证如下几个点:
- 三次握手成功建立连接,并不需要
accept
的参与,因为它是系统自动完成的,accept
只是负责从全连接队列中取走已经建立好的连接。 - backlog+1 = 全连接队列的长度。
因为accept
函数会取走全连接队列中的连接,而且我们的实验就是模拟系统非常忙的情况,所以 TCP server端是不需要调用accept
函数的。
实验设备
虚拟机一台,云服务器一台。
在同一台设备上会影响实验效果,因为TCP连接是双向的,从服务器->客户端,客户端->服务器都会维护一个连接,所以如果在一台设备上做实验,会有干扰。
实验代码
-
TcpServer.cc
:#include <iostream> #include <string> #include <cerrno> #include <cstring> #include <cstdlib> #include <memory> #include <sys/types.h> #include <sys/socket.h> #include <netinet/in.h> #include <arpa/inet.h> #include <sys/wait.h> #include <unistd.h>const static int default_backlog = 1;enum {Usage_Err = 1,Socket_Err,Bind_Err,Listen_Err };#define CONV(addr_ptr) ((struct sockaddr *)addr_ptr)class TcpServer { public:TcpServer(uint16_t port) : _port(port), _isrunning(false){}// 都是固定套路void Init(){// 1. 创建socket, file fd, 本质是文件_listensock = socket(AF_INET, SOCK_STREAM, 0);if (_listensock < 0){exit(0);}int opt = 1;setsockopt(_listensock, SOL_SOCKET, SO_REUSEADDR | SO_REUSEPORT, &opt, sizeof(opt));// 2. 填充本地网络信息并bindstruct sockaddr_in local;memset(&local, 0, sizeof(local));local.sin_family = AF_INET;local.sin_port = htons(_port);local.sin_addr.s_addr = htonl(INADDR_ANY);// 2.1 bindif (bind(_listensock, CONV(&local), sizeof(local)) != 0){exit(Bind_Err);}// 3. 设置socket为监听状态,tcp特有的if (listen(_listensock, default_backlog) != 0){exit(Listen_Err);}}void ProcessConnection(int sockfd, struct sockaddr_in &peer){uint16_t clientport = ntohs(peer.sin_port);std::string clientip = inet_ntoa(peer.sin_addr);std::string prefix = clientip + ":" + std::to_string(clientport);std::cout << "get a new connection, info is : " << prefix << std::endl;while (true){char inbuffer[1024];ssize_t s = ::read(sockfd, inbuffer, sizeof(inbuffer)-1);if(s > 0){inbuffer[s] = 0;std::cout << prefix << "# " << inbuffer << std::endl;std::string echo = inbuffer;echo += "[tcp server echo message]";write(sockfd, echo.c_str(), echo.size());}else{std::cout << prefix << " client quit" << std::endl;break;}}}void Start(){_isrunning = true;while (_isrunning){sleep(1);}}~TcpServer(){}private:uint16_t _port;int _listensock; // TODObool _isrunning; };using namespace std;void Usage(std::string proc) {std::cout << "Usage : \n\t" << proc << " local_port\n"<< std::endl; } // ./tcp_server 8888 int main(int argc, char *argv[]) {if (argc != 2){Usage(argv[0]);return Usage_Err;}uint16_t port = stoi(argv[1]);std::unique_ptr<TcpServer> tsvr = make_unique<TcpServer>(port);tsvr->Init();tsvr->Start();return 0; }
-
TcpClient.cc
:#include <iostream> #include <string> #include <unistd.h> #include <sys/socket.h> #include <sys/types.h> #include <arpa/inet.h> #include <netinet/in.h>int main(int argc, char **argv) {if (argc != 3){std::cerr << "\nUsage: " << argv[0] << " serverip serverport\n"<< std::endl;return 1;}std::string serverip = argv[1];uint16_t serverport = std::stoi(argv[2]);int clientSocket = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP);if (clientSocket < 0){std::cerr << "socket failed" << std::endl;return 1;}sockaddr_in serverAddr;serverAddr.sin_family = AF_INET;serverAddr.sin_port = htons(serverport); // 替换为服务器端口serverAddr.sin_addr.s_addr = inet_addr(serverip.c_str()); // 替换为服务器IP地址int result = connect(clientSocket, (struct sockaddr *)&serverAddr, sizeof(serverAddr));if (result < 0){std::cerr << "connect failed" << std::endl;::close(clientSocket);return 1;}while (true){std::string message;std::cout << "Please Enter@ ";std::getline(std::cin, message);if (message.empty())continue;send(clientSocket, message.c_str(), message.size(), 0);char buffer[1024] = {0};int bytesReceived = recv(clientSocket, buffer, sizeof(buffer) - 1, 0);if (bytesReceived > 0){buffer[bytesReceived] = '\0'; // 确保字符串以 null 结尾std::cout << "Received from server: " << buffer << std::endl;}else{std::cerr << "recv failed" << std::endl;}}::close(clientSocket);return 0; }
实验现象
-
验证:即使服务器端没有调用
accpet
函数,三次握手也能建立连接成功:- 结论:
accept
系统调用函数并不参与三次握手,它只负责从下层取走连接(socket文件描述符)。
- 结论:
-
验证
Tcp
全连接最多维护backlog+1
个连接:
- 可以看到,我们在虚拟机中同时运行了多个
TcpClient
客户端,但最终只有两个成功建立连接,这是因为全连接的大小不够了所以不会接收来自客户端的连接,只有上层调用accept
拿走在全连接队列中已经建立的连接,全连接的空间才会腾出来。
全连接队列简单理解
什么是全连接队列
全连接队列就是我们内核(传输层)中某个结构体中维护的一个队列,每一个listen
套接字都有一个全连接队列:
在Linux内核中所谓的连接和全连接队列都是struct
结构体,后面我们会结合Linux内核重点介绍。
- 注意:全连接队列的大小并不是代表TcpServer服务器只能同时处理这么多,而是表示它来不及处理(来不及调用
accept
)的连接的最大数量。
全连接队列的大小
全连接队列的本质其实是生产者消费者模型,全连接队列作为生产者一直生产连接,而上层的accept
作为消费者一直从全连接队列中取走连接。
全连接队列的大小不能太大,也不能太小:
- 如果backlog为0:会增加服务器的闲置率,如果有全连接队列,那么可能只需要等待一会,服务器就有空闲可以把连接取走处理了,如果
backlog
为0,直接就是三次握手建立不成功,用户就以为你的服务已经崩溃,短时间内就不会访问了。 - 如果backlog过大:那么处于全连接队列结尾的用户就可能需要等待很久来能享受到服务,这样用户体验不好,还不如直接连接失败,而且维护连接也会占用内存,用多余的内存去给服务器处理数据可能效率更高。
过去,常用的默认值可能是5或者50左右,但是现代Linux系统的默认值通常要高得多。
通常这个值有一个上限,我的Linux系统中为4096:
/proc/sys/net/core/somaxconn
:这个内核参数定义了系统范围内每个端口的最大监听队列长度。它设置了listen()
函数中backlog
参数的上限值。tcp_max_syn_backlog
:这个文件中规定的是未完成连接请求的最大数量(半连接队列)。
从Linux内核的角度理解虚拟文件、sock、网络三方的关系
回顾虚拟文件部分的知识
我们都知道在运行服务器程序后,系统会给这个进程创建一个task_struct
结构体,它是用来描述进程的,这个结构体中又会有一个file_struct*
的指针,它指向了一个file_struct
的对象,这个file_struct
结构体是用来管理打开的文件的,它里面有一个文件描述符表,这个文件描述符表中的每一个下标都指向struct file*
对象。
但是我们的网络socket
是怎么和struct file
这个结构体挂上联系的呢?这是我们今天要解决的问题之一,因为文件描述表中的文件描述符不仅仅有普通文件的还有网络套接字文件。
struct socket结构体介绍
struct socket {socket_state state;unsigned long flags;struct proto_ops *ops;struct fasync_struct *fasync_list;struct file *file;struct sock *sk;wait_queue_head_t wait;short type;unsigned char passcred;
};
struct socket
结构体是我们网络socket的入口,它是一个通用的套接字类型。
-
short type
:表示套接字的类型,是流式套接字还是数据报式的套接字: -
struct proto_ops *ops
:它是一个保存各种函数方法的类型,可以通过type
字段让其指向不同的方法。 -
struct file*
:指向虚拟文件层的struct file
对象,但是我们不是需要通过socket
文件描述符找到struct socket
嘛,怎么顺序反过来,别担心,其实struct file
对象中也有一个开放字段是可以指向struct socket
对象的,它就是void*
类型的private_data
字段。
所以经过对struct socket
结构体的学习,我们上面的图可以继续完善:
并且调用socket
系统调用的同时就创建了struct socket
、struct file
并在文件描述表中申请了空间,然后还让struct socket
与struct file
互相指向。
那Tcp Socket
与Udp Socket
岂不是没有区别了,既然调用socket
都会创建struct socket
的话,别急,我们继续往下学习。
struct tcp_sock与struct udp_sock介绍
struct tcp_sock
tcp_sock
结构体中有很多关于tcp
的字段,譬如:
int tcp_header_len
:即将要发送的TCP报文的头部的长度,以字节为单位。rcv_nxt, snd_nxt
: 分别表示期望接收的下一个序列号和发送方即将发送的下一个序列号。snd_ssthresh, snd_cwnd
: 慢启动阈值和拥塞窗口大小,是拥塞控制的重要参数。
但我们更想知道,它的第一个字段struct inet_connection_sock
是什么:
struct inet_connection_sock inet_conn;
:光看其名称,这个结构体肯定与连接有关。
struct inet_connection_sock结构体
这个结构体是描述的TCP与连接相关的属性,里面包括了全连接队列。全连接队列中不仅维护三次握手已经建立好的连接,也会维护只进行了二次或者一次的半连接,但是半连接的生命周期一般很短。
-
struct request_sock_queue icsk_accept_queue;
:这个字段就是我们之前一直在谈的全连接队列,它由listen
sock维护,用于管理监听套接字上的半连接(SYN_RCVD状态)和全连接(ESTABLISHED状态但未被accept()接受)队列。
但我们最好奇的是它的第一个属性字段:
struct inet_sock inet
:这是一个struct inet_sock
类型的成员,包含了通用的因特网套接字信息。tcp_sock
以此为基础,添加TCP特定的信息。
struct inet_sock结构体
struct inet_sock
结构体中存储的是与网络通信相关的信息,例如:
_u32 daddr
:外部IPv4地址。_u32 rcv_saddr
:本地IPv4地址。_u32 dport
:目的端口号。
我们进行Tcp
网络通信,调用bind
系统调用函数bind
IP地址和端口号,不就是在往这个struct inet_sock
结构体中写数据吗?
我们惊奇的发现这个inet_sock
结构体的第一个字段的类型居然是struct sock
,我们之前不是在struct socket
里面见过这个字段吗,让struct socket
指向它,不就可以通过通用套接字访问到Tcpsock
了吗?
所以我们预测udp_sock
中一定也存在struct sock
字段,而且一定是在最前面。
总结
看了这么多结构体,我们可以画图总结一下它们的关系了:
后续只需要通过socket
中的struct sock*
字段,通过强制类型转化,我们就可以访问到struct sock
、struct inet_sock
、struct inet_connection_sock
、struct tcp_sock
结构体的内容,因为它们的初始地址都是相同的,这样通过结构体嵌套,我们就实现了C风格的多态。
那么当我们客户端和服务器经过三次握手后,建立了一个新的连接,内核会帮助我们做哪些事情呢?
-
最最重要的是创建
struct inet_connection_sock
,这表示一个新的连接,里面的inet_sock
字段存储着这个连接相关的属性字段(IP地址、端口号)。 -
然后就是
struct tcp_sock
对象,三次握手完成,内核实际上已经为这个新建立的连接创建了完整的struct tcp_sock
结构体。它不仅包含了inet_connection_sock
中的所有字段,还添加了许多TCP特有的属性和方法,例如序列号管理、窗口缩放、重传机制等。每当一个新的TCP连接被接受(即完成了三次握手),就会创建一个tcp_sock
实例来管理这个连接的状态和行为。 -
除此之外,内核还会将这个连接(队尾的
next
的struct sock*
指向新连接的struct sock
)加入listen
套接字的全连接队列中(做类似链表的操作),然后需要将队列的元素个数加1。
内核中会有实现上述功能的方法:
如果全连接队列中没有空间了,三次握手根本就不会完成,也就不会创建上述的结构体。
当调用accept
函数时,它会做如下事情:
-
创建
struct socket
对象(三次握手完成时并没有创建这个通用的套接字类型),然后从全连接队列中取出队头连接的struct sock*
,然后赋值给struct socket
的struct sock*
变量,就相当与让struct socket
指向了struct tcp_sock
,因为struct tcp_sock
的最开始的字段是struct sock*
。 -
创建
struct file
,并在文件描述符表中开辟一个新的空间指向这个struct file
对象。 -
最后,让
struct file
与struct socket
互相引用。 -
返回文件描述符给上层。
内核中的方法
sock_map_fd
就是实现类似功能的。
自此之后,我们就可以通过socket fd
找到struct file
,然后通过struct file
中的private_data
字段找到struct socket
对象,而通用套接字的sk
又指向struct tcp_sock
的首地址空间的struct sock
对象。然后通过强制类型转换,可以访问tcp
这个连接相关的任何信息,包括报文、拥塞控制属性、滑动窗口属性、确认应答相关属性(序号、确认序号)。
struct udp_sock
由于udp
协议比tcp
协议要简单,所以udp_sock
结构体的字段也要少一些。
而且由于udp
是无连接的协议,所以它没有连接相关的字段,它的第一个结构体对象就直接是struct inet_sock
结构体。这和tcp
的inet_sock
是一样的,因为网络套接字部分两者有很多相同的部分,所以可以复用。
对于udp_sock
就是这样:
Tcp接收缓冲区与发送缓冲区
我们前面不是一直谈到TCP存在接收缓冲区和发送缓冲区吗?它们在内核中是否有体现呢?
当然有,在struct sock
结构体中,存在着这两个字段:
它们就是接收缓冲区与发送缓冲区,每个连接都有单独的struct sock
,也就意味着有单独的接收缓冲区与发送缓冲区。
sk_buff_head
是这个缓冲区的类型,它是一个类似队列的结构体:
struct sk_buff
是描述报文的,也就是解析出来或者即将发送的应用层的报文:
分层介绍
自此之后,虚拟文件、socket、网络三者的关系我们就清楚了,我们也清楚了如何通过文件描述符找到关于套接字的各种信息。
它们自上而下是有层次的,可以分为虚拟文件层、通用套接字层和网络套接字层。其中通用套接字就像是一个基类,它提供了一种通用的方式来创建各种类型的套接字,但是当网络真的建立起来,又会有其它细微的不同。
tcp抓包介绍
Linux中使用tcp dump进行抓包并分析tcp过程
tcp dump的安装
ubuntu下:
sudo apt update
sudp apt install -y tcpdump
通过检查版本号验证是否安装成功:
tcpdump --version
tcp dump的简单使用
-
捕获所有网络接口中的报文:
sudo tcpdump -i any tcp
-i
:interface是接口的意思,any代表任何,-i any
的意思就是捕获所以网络接口中的报文。tcp
:只捕获tcp
报文。
-
捕获指定网络接口的报文:
sudo tcpdump -i [本机某网络接口名称] tcp
我们可以通过命令
ifconfig
查看本主机的所有网络接口: -
捕获指定源IP的报文:
sudo tcpdump src host 192.168.0.1 and tcp
上述命令的含义是:捕获源IP地址为
192.168.0.1
的到达本主机的tcp
报文:-
现在的一般后端服务器都会使用反向代理来实现负载均衡技术,在大型应用或服务中,通常会部署多个反向代理服务器以提高性能、增加可用性和提供冗余。所以可能就会出现多次
ping qq.com
这个相同的域名,得到来自不同公网IP服务器的回复,这也不用惊讶,所以上面的实验存在一定的运气的成分。- 上面的显示的
公网IP
可能是反向代理服务器的IP地址,而不是后端服务真正的公网IP。
- 上面的显示的
-
-
捕获指定目的IP地址的报文:
sudo tcpdump dst host 192.168.0.1 and tcp
上面命令的含义是捕获目的IP地址为
192.168.0.1
的tcp
报文:-
注意这个目的IP为什么是
iZt8qyfqyfs47mZ
呢?云服务提供商使用类似的随机字符串作为实例ID或设备标识:你也可以去云服务网站的控制台修改这个实例名称。
-
但是如果我们希望它显示
IP
地址,而不是显示云服务器的实例名称该怎么办呢?加上选项-n
即可:
-
-
捕获特定端口号的
TCP
报文:-
使用
port
关键字可以捕获特定端口号的报文,例如捕获80
端口的TCP报文(通常是http请求):sudo tcpdump port 80 and tcp
-
实验
使用tcpdump
工具,一般以捕获特定端口的形式居多,代码和上述的验证listen
系统调用函数的第二个参数的代码一样,简单的tcp echo
服务器:
-
服务器不给客户端发送数据,也不
accept
接受连接:-
将客户端在虚拟机上运行,观察抓包现象:
-
三次握手:
- 因为三次握手是没有发送数据的,所以
length
为0。
- 因为三次握手是没有发送数据的,所以
-
当我们虚拟机客户端给服务器发送数据报文,但是服务器收到该报文,发送的
ack
报文数据为0,没有发送数据报文,我们有理由相信,服务器根本没有将这个连接拿上来给用户,但是三次握手肯定成功了,并且ack
报文是OS自动发送的,不需要用户参与:- 看了一下代码果然没有将连接拿上来。
-
-
-
将
accept
函数注释取消后继续实验:-
三次握手部分(依旧正常):Flags中的
S
代表SYN
标志位,win
是窗口大小(用于滑动窗口中确定窗口大小),可以看到双方还协商了mss
的大小。 -
服务器接收数据,发送数据:
现在收发数据都正常了。
-
四次挥手部分,客户端主动退出:
-
就只有客户端给服务器发送了
FIN
报文,服务器OS自动给它回复了一个ACK
报文,服务器并没有断开连接,我们有理由相信,服务器端忘记close
关闭socket
描述符了。
-
-
-
服务器端在客户端关闭连接后也要正常关闭连接,修改代码后继续测试四次挥手的过程:
-
不是说四次挥手吗,为什么只有三次呢,我们有理由相信,在客户端给服务器发送
FIN
报文后,服务器立马就给客户端发送了FIN
报文,并且这个时间和系统自动发送ACK
报文的时间几乎是同时,所以触发了捎带应答,如果我们让服务器sleep
上1s再关闭socketfd
,就可以看到四次挥手: -
sleep
后的结果:
-
windows中使用wireshark进行抓包
wireshark的安装
wireshark-4.4.3-x64.exe
下载好之后,直接安装即可,没有太多要注意的地方。
使用telnet作为客户端访问云服务器上的服务器程序
默认windows上telnet服务是没有打开的,我们可以手动打开,打开telnet教程
设置wireshark过滤规则
-
首先选择你想捕获哪个网卡的流量(上行和下行):
-
选择好之后,顶部工具栏点捕获,点开始,就可以开始捕获该网卡的流量:
-
默认是捕获经过该网络接口的流量:
-
在顶部可以设置过滤规则,我们设置
ip
为服务器ip
,只关心服务器所在的端口号8888
:ip.addr == 121.40.68.117 && tcp.port == 8888
顶部过滤栏是绿色说明语法没有问题:
使用wireshark进行抓包
-
启动服务器程序:
-
启动windows上的
telnet
服务:telnet [服务器公网ip] [端口号]
- 进入这个界面就代表启动成功了。
-
观察报文:
-
三次握手:
-
telnet
发送1字节的数据:点击某一个包,下面可以看到更详细的信息:
-
-
四次挥手,telnet输入
ctrl ]
进入命令行模式,然后点quit
就可退出:
红色的报文为超时重传。