探索UDP套接字编程
UDP和TCP处于同一层网络模型中,也就是运输层,基于二者之上的应用有很多,常见的基于TCP的有HTTP、Telnet等,基于UDP有DNS、NFS、SNMP等。UDP是无连接,不可靠的数据协议服务,而TCP提供面向流、提供可靠数据服务。注意,UDP和TCP没有好坏之分,只是二者的适用场景不同罢了。
典型的UDP套接字编程模型是客户端不予服务端建立连接,而只是调用sendto函数来向服务端发送数据,其中必须要指定服务端的信息,包括IP和端口等;服务端不接收来自客户端的连接,而只是调用recvfrom函数,来等待某个客户端的数据到达。
UDP编程模型
在UDP套接字中,有2个函数最常用,也就是sendto和recvfrom,二者的声明如下:
#include
ssize_trecvfrom(intsockfd,voidbuff,size_tnbytes,intflags,
structsockaddrfrom,socklen_taddrlen);
ssize_tsendto(intsockfd,voidbuff,size_tnbytes,intflags,
conststructsockaddrto,socklen_taddrlen);
recvfrom和snedto的前3个参数和read/write的前3个参数一样。flags表示设置的标志值,简单的UDP程序可以直接设置为0,最后两个参数表示服务端地址(对于sendto来说)或者是对端地址(对于recvfrom来说)。如果不关心对端的地址,则设置为NULL,此时addrlen也可以设置为NULL了。
注意:recvfrom和sendto也可以应用于TCP编程,不过一般不这样用。
简单的echoUDP服务器和客户端程序
复制代码
/
UDPepollc测试server端
/
#include
#include
#include
#include
#include
#include
#include
usingnamespacestd;
intmain(intargc,charargv)
{
intlistenFd=-1;
intconnFd=-1;
intepollFd=-1;
structsockaddr_inservAddr;
structepoll_eventepollEvent;
structepoll_eventepollEvents[16];
intnEvent=0;
listenFd=socket(AF_INET,SOCK_DGRAM,0);
memset(&servAddr,0,sizeof(servAddr));
servAddr.sin_family=AF_INET;
servAddr.sin_port=htons(6060);
servAddr.sin_addr.s_addr=INADDR_ANY;
bind(listenFd,(structsockaddr)&servAddr,sizeof(servAddr));
listen(listenFd,5);
epollFd=epoll_create(5);
memset(&epollEvent,0,sizeof(epollEvent));
epollEvent.data.fd=listenFd;
epollEvent.events=EPOLLIN;
epoll_ctl(epollFd,EPOLL_CTL_ADD,listenFd,&epollEvent);
for(;;){
nEvent=epoll_wait(epollFd,epollEvents,16,-1);
if(nEvent<=0){
continue;
}
for(inti=0;i intfd=epollEvents[i].data.fd;
intevent=epollEvents[i].events;
if(event&EPOLLIN){
structsockaddr_inclientAddr;
socklen_tclientLen=sizeof(clientAddr);
intrecvLen=0;
charbuff[256];
recvLen=recvfrom(fd,buff,sizeof(buff),0,(structsockaddr)&clientAddr,&clientLen);
buff[recvLen]=''\0'';
cout<<"-------------------------"< cout< cout< cout< cout<<"-------------------------"<
sendto(fd,buff,strlen(buff),0,(structsockaddr)&clientAddr,clientLen);
}
if(event&(EPOLLHUP|EPOLLERR)){
epoll_ctl(epollFd,EPOLL_CTL_DEL,fd,NULL);
close(fd);
cout<<"clientshutdown"< }
}
}
return0;
}
复制代码
复制代码
/
UDP客户端
/
#include
#include
#include
#include
#include
usingnamespacestd;
intmain(intargc,charargv)
{
intconnFd=-1;
structsockaddr_inservAddr;
charbuff[64]="hi,udpserver";
charbuffRecv[64];
connFd=socket(AF_INET,SOCK_DGRAM,0);
memset(&servAddr,0,sizeof(servAddr));
servAddr.sin_family=AF_INET;
servAddr.sin_port=htons(6060);
servAddr.sin_addr.s_addr=inet_addr("192.168.1.100");
for(inti=0;i<2;i++){
sendto(connFd,buff,sizeof(buff),0,(structsockaddr)&servAddr,sizeof(servAddr));
intrecvLen=recvfrom(connFd,buffRecv,sizeof(buffRecv),0,NULL,NULL);
buffRecv[recvLen]=''\0'';
cout< }
close(connFd);
return0;
}
复制代码
注意:代码中为了方便没有处理函数的返回值:(
UDP编程会有数据包的丢失问题,因为UDP是不可靠的,如果一个客户的数据包丢失,客户端将永远阻塞在recvfrom函数调用;类似的,如果客户数据到达了服务端,然后响应数据包丢失了,则客户永远阻塞在recvfrom调用。为了防止这样的问题出现,一般可以给recvfrom设置一个超时时间。
一个有意思的小问题
当UDP服务端未运行时,UDP客户端发送给服务端数据包后就阻塞在了recvfrom调用了,等待一个永远也不可能的服务端应答。但是通过抓包分析,服务器主机响应了一个ICMP端口不可达的消息,但是这个ICMP错误不返回给客户进程。
这里测试用的是SocketTool工具,在192.168.1.100(window主机)上往192.168.1.150(linux主机)上发送UDP包的测试结果。
这个ICMP错误是异步错误,该错误是由sendto引起,但是sendto本身成功返回,从UDP输出操作成功仅仅表示数据包已加入到数据链路层的输出队列了。而该ICMP报文是后来才接收来的。因此,对于一个UDP套接字来说,由它引发的异步错误并不返回给它,除非它已经建立连接。那么,这个问题如何解决呢,请搬个小板凳,拿着鼠标,继续翻滚:)
UDP可以使用connect函数吗
UDP是可以调用connect函数的,但是UDP的connect函数和TCP的connect函数调用确是大相径庭的,这里没有三次握手过程。内核只是检查是否存在立即可知的错误(比如目的地址不可达),记录对端的IP和端口号,然后立即返回调用进程。
使用了connect的UDP编程就可不必使用sendto函数了,直接使用write/read即可。以下代码使用了connect函数,然后往未运行UDP服务的主机发送数据:
复制代码
#include
#include
#include
#include
#include
#include
usingnamespacestd;
intmain(intargc,charargv){
intconnFd=-1;
structsockaddr_inservAddr;
charbuff[64]="hi,udpserver";
charbuffRecv[64];
connFd=socket(AF_INET,SOCK_DGRAM,0);
memset(&servAddr,0,sizeof(servAddr));
servAddr.sin_family=AF_INET;
servAddr.sin_port=htons(60);
servAddr.sin_addr.s_addr=inet_addr("192.168.1.150");
connect(connFd,(structsockaddr)&servAddr,sizeof(servAddr));
write(connFd,buff,sizwww.baiyuewang.neteof(buff));
intrecvLen=read(connFd,buffRecv,sizeof(buffRecv));
if(recvLen<0){
perror("readerror");
}
close(connFd);
return0;
}
复制代码
输出结果为:
这里把测试代码中的read函数替换成以下代码输出结果也是一样的。
intrecvLen=recvfrom(connFd,buffRecv,sizeof(buffRecv),0,NULL,NULL);
UDP缺乏流量控制
每个TCP套接口都有一个发送缓冲区,我们可以用SO_SNDBUF套接口选项来改变这个缓冲区的大小。当应用程序调用write时,内核从应用进程的缓冲区中拷贝所有数据到套接口的发送缓冲区。如果套接口发送缓冲区容不下应用程序所有的程序(或者应用程序的缓冲区大于套接口发送缓冲区,或者是套接口发送缓冲区还有其他数据),应用进程将被挂起,这里假设write是阻塞的。内核将不从write系统调用返回,直到将应用进程缓冲区的所有数据都拷贝到套接口发送缓冲区。因此从写一个TCP套接口的write调用成功返回仅仅代表发送的数据到达应用进程的缓冲区。它并不告诉我们对端TCP或者应用进程已经接收到数据。
UDP套接口有发送缓冲区大小(SO_SNDBUF修改),不过它仅仅是写到套接口的UDP数据报的大小上限,注意,实际上UDP发送缓冲区并不存在。如果一个应用程序写一个大于套接口发送缓冲区大小的数据报,内核将返回EMSGSIZE错误。既然UDP不可靠,它不必保存应用程序的数据拷贝,因此无需真正的发送缓冲区(应用进程的数据在沿协议栈往下传递,以某种形式拷贝到内核缓冲区,然而数据链路层在送出数据之后将丢弃该拷贝)。
从UDP套接口write成功返回仅仅表示用户写入的数据报或者所有片段已经加入到数据链路层的输出队列。如果该队列没有足够的空间存放该数据包或者它的某个片段,内核通常返回给应用进程一个ENOBUFS错误。
TCP和UDP都拥有套接口接收缓冲区。TCP套接口接收缓冲区不可能溢出,因为TCP具有流量控制,然而对于UCP来说,当接收到的数据报装不进套接口接收缓冲区时,该数据报就丢弃。UDP是没有流量控制的:较快的发送端可以很容易淹没较慢的接收端,导致接收端的UDP丢弃数据报。
|
|