网络IO模型

2020-06-06  本文已影响0人  南园故剑00

2. unix网络编程5种IO模型

linux 的内核将所有外部设备都可以看做一个文件来操作,我们对外部设备的操作都可以看做对文件进行操作。
我们对一个文件的读写,都通过调用提供的系统调用。内核给我们返回一个file descriptor(fd 文件描述符)。
对一个socket的读写也会用相应的描述符,称为socketfd。描述符就是一个数字,指向内核中的一个结构体(文件路径、数据区等一些属性)。

2.1 阻塞IO

2.2 非阻塞IO

recvfrom 从应用层到内核的时候,如果该缓冲区没有数据的话,就直接返回一个 EWOULDBLOCK,一般都是对非阻塞IO模型进行轮询检查这个状态,看内核是不是有数据到来。


2.3 IO复用

2.4 信号驱动的IO

2.5 异步IO

3. BIO、NIO、AIO

https://www.bilibili.com/video/BV1JT4y1u71v?p=4
https://www.bilibili.com/video/BV15g4y167Dy?p=3

BIO还是NIO是内核决定的,而不是编程语言的API决定的

通信协议 TCP通信

2.1 1:1 同步阻塞IO通信模型 BIO


为甚不让一个线程处理多个socket连接

当某个Socket链路的读写操作没有完成时,排在后面的Socket连接是无法得到处理的,长时间的等待可能会导致超时,因此,在同步阻塞模型下,一个线程处理多个客户端连接没有意义,反而会导致后面排队的Socket连接处理不及时引起客户端超时,所以通常会采用每个Socket链路独占一个线程的模型。

strace -ff -o out /usr/java/jdk1.8.0_131/bin/java ServerDemo

2.2 M:N 形式的同步阻塞IO模型

Netty实战之核心概念.md

  1. 服务端线程接收到客户端连接之后,不创建独立的线程,而是将socket连接封装成Task,将task放入线程池的任务队列中执行,这样就可以有效控制线程规模,
    防止线程膨胀导致的系统崩溃,利用线程池,可以重用线程,性能相比于传统的一连接一线程有很大的提升。

  2. 伪异步通信框架能够缓解BIO面临的问题,但是无法从根本上解决问题。
    由于IO的读写操作会被阻塞,当并发量增加或者网络IO时延增大了之后,线程的执行时间会被拉长,导致缓存在任务队列中的任务不断堆积,
    最终导致内存溢出或者拒绝新任务的执行。

  3. 由于网络的时延、客户端的执行速度和服务器的处理能力不同,导致网络IO的执行时间不可控,如果IO读写被阻塞,阻塞的时间往往也是不可控的(或者超时)。
    它会导致IO线程的不可预期性额阻塞,降低系统的处理能力和网络吞吐量。
    在大规模高并发、高性能的服务器端,使用JAVA的同步IO来构建服务端是无法满足性能、可拓展性和可靠性要求的。

2.3 非阻塞IO模型 NIO(同步非阻塞)+单线程Reactor模式

image.png

2.4 非阻塞IO模型 NIO+多线程Reactor模式

2.5 NIO+主从多线程Reactor模式

image.png

2.6 AIO


2.7 对比


NIO 服务端

NIO 客户端

netty架构

netty的IO是同步的,处理是异步的

第一层:Reactor通信调度层

第二层:职责链PipeLine

第三层:业务逻辑编排层

上一篇下一篇

猜你喜欢

热点阅读