2021最新版BAT大厂Netty面试题集(有详尽答案)

2021年11月23日 阅读数:1
这篇文章主要向大家介绍2021最新版BAT大厂Netty面试题集(有详尽答案),主要内容包括基础应用、实用技巧、原理机制等方面,希望对大家有所帮助。
辩明 BIO、NIO 和 AIO
  • BIO
    单向流且阻塞。
    一个链接一个线程,客户端有链接请求时服务器端就须要启动一个线程去处理。线程开销大。
  • 伪异步 IO
    将请求链接放入线程池,一对多。
  • NIO
    面向缓冲区。NIO 的 channel 是双向的。
    一个请求一个线程,但客户端发送的链接请求都会注册到多路复用器,多路复用 器轮询到链接有 I/O 请求时才启动一个线程去处理。
    NIO 的特色:事件驱动模型、单线程处理多任务、非阻塞 I/O,I/O 读写再也不阻塞,而是返 回 0、基于 block 的传输比基于流的传输更高效、更高级的 IO 函数 zero-copy、IO 多路复用 大大提升了 Java 网络应用的可伸缩性和实用性。基于 Reactor 线程模型。
    在 Reactor 模式中,事件分发器等待某个事件或者可应用或个操做的状态发生,事件分发 器就把这个事件传给事先注册的事件处理函数或者回调函数,由后者来作实际的读写操 做。如在 Reactor 中实现读:注册读就绪事件和相应的事件处理器、事件分发器等待事 件、事件到来,激活分发器,分发器调用事件对应的处理器、事件处理器完成实际的读操 做,处理读到的数据,注册新的事件,而后返还控制权。
  • AIO
    一个有效请求一个线程,客户端的 I/O 请求都是由 OS 先完成,再通知服务器应用去启动线程去处理。
NIO 的组成
  • Buffer:与 Channel 进行交互,数据是从 Channel 读入缓冲区,从缓冲区写入 Channel 中的
  • flip方法 : 反转此缓冲区,将position给limit,而后将position置为0,其实就是切换读 写模式
  • clear 方法 :清除此缓冲区,将 position 置为 0,把 capacity 的值给 limit。
  • rewind 方法 : 重绕此缓冲区,将 position 置为 0
  • DirectByteBuffer 可减小一次系统空间到用户空间的拷贝。但 Buffer 建立和销毁的成本更 高,不可控,一般会用内存池来提升性能。直接缓冲区主要分配给那些易受基础系统的本 机 I/O 操做影响的大型、持久的缓冲区。若是数据量比较小的中小应用状况下,能够考虑 使用 heapBuffer,由 JVM 进行管理。
  • Channel
    表示 IO 源与目标打开的链接,双向,但不能直接访问数据,只能与Buffer 交互。FileChannel 的 read 方法和 write 方法都会致使数据复制两次。
  • Selector
    可以使一个单独的线程管理多个 Channel,open 方法可建立 Selector,register 方法向多路复用器器注册通道,能够监听的事件类型:读、写、链接、accept。注册事件后会产生一个 SelectionKey:它表示 SelectableChannel 和 Selector 之间的注册关系,wakeup 方 法:使还没有返回的第一个选择操做当即返回,唤醒的缘由是:注册了新的 channel 或者事 件;channel 关闭,取消注册;优先级更高的事件触发(如定时器事件),但愿及时处理。
    Selector 在 Linux 的实现类是 EPollSelectorImpl,委托给 EPollArrayWrapper 实现,其中三个
    native 方法是对 epoll 的封装,而 EPollSelectorImpl. implRegister 方法,经过调用 epoll_ctl 向 epoll 实例中注册事件,还将注册的文件描述符(fd)与 SelectionKey 的对应关系添加到 fdToKey 中,这个 map 维护了文件描述符与 SelectionKey 的映射。
    fdToKey 有时会变得很是大,由于注册到 Selector 上的 Channel 很是多(百万链接);过时 或失效的 Channel 没有及时关闭。fdToKey 老是串行读取的,而读取是在 select 方法中进行 的,该方法是非线程安全的。
    Pipe:两个线程之间的单向数据链接,数据会被写到 sink 通道,从 source 通道读取
    NIO 的服务端创建过程:Selector.open():打开一个 Selector;ServerSocketChannel.open(): 建立服务端的 Channel;bind():绑定到某个端口上。并配置非阻塞模式;register():注册 Channel 和关注的事件到 Selector 上;select()轮询拿到已经就绪的事件
Netty 的特色?

一个高性能、异步事件驱动的 NIO 框架,它提供了对 TCP、UDP 和文件传输的支持 使用更高效的 socket 底层,对 epoll 空轮询引发的 cpu 占用飙升在内部进行了处理,避免 了直接使用 NIO 的陷阱,简化了 NIO 的处理方式。
采用多种 decoder/encoder 支持,对 TCP 粘包/分包进行自动化处理 可以使用接受/处理线程池,提升链接效率,对重连、心跳检测的简单支持 可配置IO线程数、TCP参数, TCP接收和发送缓冲区使用直接内存代替堆内存,经过内存 池的方式循环利用 ByteBuf
经过引用计数器及时申请释放再也不引用的对象,下降了 GC 频率 使用单线程串行化的方式,高效的 Reactor 线程模型
大量使用了 volitale、使用了 CAS 和原子类、线程安全类的使用、读写锁的使用java

Netty 的线程模型?

Netty 经过 Reactor 模型基于多路复用器接收并处理用户请求,内部实现了两个线程池, boss 线程池和 work 线程池,其中 boss 线程池的线程负责处理请求的 accept 事件,当接收 到 accept 事件的请求时,把对应的 socket 封装到一个 NioSocketChannel 中,并交给 work 线程池,其中 work 线程池负责请求的 read 和 write 事件,由对应的 Handler 处理。
单线程模型:全部 I/O 操做都由一个线程完成,即多路复用、事件分发和处理都是在一个 Reactor 线程上完成的。既要接收客户端的链接请求,向服务端发起链接,又要发送/读取请 求或应答/响应消息。一个 NIO 线程同时处理成百上千的链路,性能上没法支撑,速度 慢,若线程进入死循环,整个程序不可用,对于高负载、大并发的应用场景不合适。
多线程模型:有一个NIO 线程(Acceptor) 只负责监听服务端,接收客户端的TCP 链接 请求;NIO 线程池负责网络IO 的操做,即消息的读取、解码、编码和发送;1 个NIO 线 程能够同时处理N 条链路,可是1 个链路只对应1 个NIO 线程,这是为了防止发生并发 操做问题。但在并发百万客户端链接或须要安全认证时,一个Acceptor 线程可能会存在性 能不足问题。
主从多线程模型:Acceptor 线程用于绑定监听端口,接收客户端链接,将 SocketChannel 从主线程池的Reactor 线程的多路复用器上移除,从新注册到Sub 线程池的线程上,用于python

处理 I/O 的读写等操做,从而保证 mainReactor 只负责接入认证、握手等操做;算法

TCP 粘包/拆包的缘由及解决方法?

TCP 是以流的方式来处理数据,一个完整的包可能会被 TCP 拆分红多个包进行发送,也可 能把小的封装成一个大的数据包发送。
TCP 粘包/分包的缘由:
应用程序写入的字节大小大于套接字发送缓冲区的大小,会发生拆包现象,而应用程序写 入数据小于套接字缓冲区大小,网卡将应用屡次写入的数据发送到网络上,这将会发生粘 包现象;
进行 MSS 大小的 TCP 分段,当 TCP 报文长度-TCP 头部长度>MSS 的时候将发生拆包 以太网帧的 payload(净荷)大于 MTU(1500 字节)进行 ip 分片。
解决方法
消息定长:FixedLengthFrameDecoder 类 包尾增长特殊字符分割:行分隔符类:LineBasedFrameDecoder 或自定义分隔符类 : DelimiterBasedFrameDecoder
将消息分为消息头和消息体:LengthFieldBasedFrameDecoder 类。分为有头部的拆包与粘 包、长度字段在前且有头部的拆包与粘包、多扩展头部的拆包与粘包。编程

了解哪几种序列化协议?

序列化(编码)是将对象序列化为二进制形式(字节数组),主要用于网络传输、数据持久 化等;而反序列化(解码)则是将从网络、磁盘等读取的字节数组还原成原始对象,主要 用于网络传输对象的解码,以便完成远程调用。
影响序列化性能的关键因素:序列化后的码流大小(网络带宽的占用)、序列化的性能 (CPU 资源占用);是否支持跨语言(异构系统的对接和开发语言切换)。
Java 默认提供的序列化:没法跨语言、序列化后的码流太大、序列化的性能差
XML,优势:人机可读性好,可指定元素或特性的名称。缺点:序列化数据只包含数据本 身以及类的结构,不包括类型标识和程序集信息;只能序列化公共属性和字段;不能序列 化方法;文件庞大,文件格式复杂,传输占带宽。适用场景:当作配置文件存储数据,实 时数据转换。
JSON,是一种轻量级的数据交换格式,优势:兼容性高、数据格式比较简单,易于读写、 序列化后数据较小,可扩展性好,兼容性好、与 XML 相比,其协议比较简单,解析速度比 较快。缺点:数据的描述性比 XML 差、不适合性能要求为 ms 级别的状况、额外空间开销 比较大。适用场景(可替代XML):跨防火墙访问、可调式性要求高、基于 Web browser 的 Ajax 请求、传输数据量相对小,实时性要求相对低(例如秒级别)的服务。
Fastjson,采用一种“假定有序快速匹配”的算法。优势:接口简单易用、目前 java 语言中 最快的 json 库。缺点:过于注重快,而偏离了“标准”及功能性、代码质量不高,文档不 全。适用场景:协议交互、Web 输出、Android 客户端json

Thrift,不只是序列化协议,仍是一个 RPC 框架。优势:序列化后的体积小, 速度快、支持 多种语言和丰富的数据类型、对于数据字段的增删具备较强的兼容性、支持二进制压缩编 码。缺点:使用者较少、跨防火墙访问时,不安全、不具备可读性,调试代码时相对困 难、不能与其余传输层协议共同使用(例如 HTTP)、没法支持向持久层直接读写数据,即 不适合作数据持久化序列化协议。适用场景:分布式系统的 RPC 解决方案
Avro,Hadoop 的一个子项目,解决了 JSON 的冗长和没有 IDL 的问题。优势:支持丰富的 数据类型、简单的动态语言结合功能、具备自我描述属性、提升了数据解析速度、快速可 压缩的二进制数据形式、能够实现远程过程调用 RPC、支持跨编程语言实现。缺点:对于 习惯于静态类型语言的用户不直观。适用场景:在 Hadoop 中作 Hive、Pig 和 MapReduce 的持久化数据格式。
Protobuf,将数据结构以.proto 文件进行描述,经过代码生成工具能够生成对应数据结构的 POJO 对象和 Protobuf 相关的方法和属性。优势:序列化后码流小,性能高、结构化数据存 储格式(XML JSON 等)、经过标识字段的顺序,能够实现协议的前向兼容、结构化的文档 更容易管理和维护。缺点:须要依赖于工具生成代码、支持的语言相对较少,官方只支持 Java 、C++ 、python。适用场景:对性能要求高的RPC调用、具备良好的跨防火墙的访问 属性、适合应用层对象的持久化
其它
protostuff 基于 protobuf 协议,但不须要配置 proto 文件,直接导包便可 Jboss marshaling 能够直接序列化 java 类, 无须实 java.io.Serializable 接口 Message pack 一个高效的二进制序列化格式
Hessian 采用二进制协议的轻量级 remoting onhttp 工具
kryo 基于 protobuf 协议,只支持 java 语言,须要注册(Registration),而后序列化 (Output),反序列化(Input)后端

如何选择序列化协议?

具体场景
对于公司间的系统调用,若是性能要求在 100ms 以上的服务,基于 XML 的 SOAP 协议是一 个值得考虑的方案。
基于 Web browser 的 Ajax,以及 Mobile app 与服务端之间的通信,JSON 协议是首选。对于 性能要求不过高,或者以动态类型语言为主,或者传输数据载荷很小的的运用场景,JSON 也是很是不错的选择。
对于调试环境比较恶劣的场景,采用 JSON 或 XML 可以极大的提升调试效率,下降系统开 发成本。
当对性能和简洁性有极高要求的场景,Protobuf,Thrift,Avro 之间具备必定的竞争关系。 对于 T 级别的数据的持久化应用场景,Protobuf 和 Avro 是首要选择。若是持久化后的数据 存储在 hadoop 子项目里,Avro 会是更好的选择。
对于持久层非 Hadoop 项目,以静态类型语言为主的应用场景,Protobuf 会更符合静态类 型语言工程师的开发习惯。因为 Avro 的设计理念偏向于动态类型语言,对于动态语言为主 的应用场景,Avro 是更好的选择。数组

若是须要提供一个完整的 RPC 解决方案,Thrift 是一个好的选择。 若是序列化以后须要支持不一样的传输层协议,或者须要跨防火墙访问的高性能场景, Protobuf 能够优先考虑。
protobuf 的数据类型有多种:bool、double、float、int3二、int6四、string、bytes、enum、 message。protobuf的限定符:required: 必须赋值,不能为空、optional:字段能够赋值,也 能够不赋值、repeated: 该字段能够重复任意次数(包括 0 次)、枚举;只能用指定的常量 集中的一个值做为其值;
protobuf 的基本规则:每一个消息中必须至少留有一个 required 类型的字段、包含 0 个或多 个 optional 类型的字段;repeated 表示的字段能够包含 0 个或多个数据;[1,15]以内的标识 号在编码的时候会占用一个字节(经常使用),[16,2047]以内的标识号则占用 2 个字节,标识号 必定不能重复、使用消息类型,也能够将消息嵌套任意多层,可用嵌套消息类型来代替 组。
protobuf 的消息升级原则:不要更改任何已有的字段的数值标识;不能移除已经存在的 required 字段,optional 和 repeated 类型的字段能够被移除,但要保留标号不能被重用。 新添加的字段必须是 optional 或 repeated。由于旧版本程序没法读取或写入新增的 required 限定符的字段。
编译器为每个消息类型生成了一个.java 文件,以及一个特殊的 Builder 类(该类是用来创 建消息类接口的)。如:UserProto.User.Builder builder = UserProto.User.newBuilder();builder.build();
Netty 中的使用:ProtobufVarint32FrameDecoder 是用于处理半包消息的解码类; ProtobufDecoder(UserProto.User.getDefaultInstance())这是建立的 UserProto.java 文件中的解 码类;ProtobufVarint32LengthFieldPrepender 对 protobuf 协议的消息头上加上一个长度为 32 的整形字段,用于标志这个消息的长度的类;ProtobufEncoder 是编码类
将 StringBuilder 转换为 ByteBuf 类型:copiedBuffer()方法安全

Netty 的零拷贝实现?

Netty 的接收和发送 ByteBuffer 采用 DIRECT BUFFERS,使用堆外直接内存进行 Socket 读 写,不须要进行字节缓冲区的二次拷贝。堆内存多了一次内存拷贝,JVM 会将堆内存 Buffer 拷贝一份到直接内存中,而后才写入 Socket 中。ByteBuffer 由 ChannelConfig 分配, 而 ChannelConfig 建立 ByteBufAllocator 默认使用 Direct Buffer
CompositeByteBuf 类能够将多个 ByteBuf 合并为一个逻辑上的 ByteBuf, 避免了传统经过 内存拷贝的方式将几个小 Buffer 合并成一个大的 Buffer。addComponents 方法将 header 与 body 合并为一个逻辑上的 ByteBuf, 这两个 ByteBuf 在 CompositeByteBuf 内部都是单 独存在的, CompositeByteBuf 只是逻辑上是一个总体
经过 FileRegion 包装的 FileChannel.tranferTo 方法 实现文件传输, 能够直接将文件缓冲区 的数据发送到目标 Channel,避免了传统经过循环 write 方式致使的内存拷贝问题。服务器

经过 wrap 方法, 咱们能够将 byte[] 数组、ByteBuf、ByteBuffer 等包装成一个 Netty ByteBuf 对象, 进而避免了拷贝操做。
Selector BUG:若 Selector 的轮询结果为空,也没有 wakeup 或新消息处理,则发生空轮 询,CPU 使用率 100%,
Netty 的解决办法:对 Selector 的 select 操做周期进行统计,每完成一次空的 select 操做进 行一次计数,若在某个周期内连续发生 N 次空轮询,则触发了 epoll 死循环 bug。重建 Selector,判断是不是其余线程发起的重建请求,若不是则将原 SocketChannel 从旧的 Selector 上去除注册,从新注册到新的 Selector 上,并将原来的 Selector 关闭。markdown

Netty 的高性能表如今哪些方面?

心跳,对服务端:会定时清除闲置会话 inactive(netty5),对客户端:用来检测会话是否断 开,是否重来,检测网络延迟,其中 idleStateHandler 类 用来检测会话状态
串行无锁化设计,即消息的处理尽量在同一个线程内完成,期间不进行线程切换,这样 就避免了多线程竞争和同步锁。表面上看,串行化设计彷佛 CPU 利用率不高,并发程度不 够。可是,经过调整 NIO 线程池的线程参数,能够同时启动多个串行化的线程并行运行, 这种局部无锁化的串行线程设计相比一个队列-多个工做线程模型性能更优。
可靠性,链路有效性检测:链路空闲检测机制,读/写空闲超时机制;内存保护机制:经过 内存池重用 ByteBuf;ByteBuf 的解码保护;优雅停机:再也不接收新消息、退出前的预处理操 做、资源的释放操做。
Netty安全性:支持的安全协议:SSL V2和V3,TLS,SSL单向认证、双向认证和第三方CA 认证。
高效并发编程的体现:volatile 的大量、正确使用;CAS 和原子类的普遍使用;线程安全容 器的使用;经过读写锁提高并发性能。IO 通讯性能三原则:传输(AIO)、协议(Http)、线 程(主从多线程)
流量整型的做用(变压器):防止因为上下游网元性能不均衡致使下游网元被压垮,业务 流中断;防止因为通讯模块接受消息过快,后端业务线程处理不及时致使撑死问题。
TCP 参数配置:SO_RCVBUF 和 SO_SNDBUF:一般建议值为 128K 或者 256K; SO_TCPNODELAY:NAGLE 算法经过将缓冲区内的小封包自动相连,组成较大的封包,阻止 大量小封包的发送阻塞网络,从而提升网络应用效率。可是对于时延敏感的应用场景须要 关闭该优化算法;

NIOEventLoopGroup 源码?

NioEventLoopGroup(实际上是 MultithreadEventExecutorGroup) 内部维护一个类型为 EventExecutor children [], 默认大小是处理器核数 * 2, 这样就构成了一个线程池,初始化

EventExecutor 时 NioEventLoopGroup 重载 newChild 方法,因此 children 元素的实际类型为 NioEventLoop。
线程启动时调用 SingleThreadEventExecutor 的构造方法,执行 NioEventLoop 类的 run 方 法,首先会调用 hasTasks()方法判断当前 taskQueue 是否有元素。若是 taskQueue 中有元 素,执行 selectNow() 方法,最终执行 selector.selectNow(),该方法会当即返回。若是 taskQueue 没有元素,执行 select(oldWakenUp) 方法
select ( oldWakenUp) 方法解决了 Nio 中的 bug,selectCnt 用来记录 selector.select 方法的 执行次数和标识是否执行过 selector.selectNow(),若触发了 epoll 的空轮询 bug,则会反复 执行selector.select(timeoutMillis),变量selectCnt 会逐渐变大,当selectCnt 达到阈值(默 认 512),则执行 rebuildSelector 方法,进行 selector 重建,解决 cpu 占用 100%的 bug。
rebuildSelector方法先经过openSelector方法建立一个新的selector。而后将old selector的 selectionKey 执行 cancel。最后将 old selector 的 channel 从新注册到新的 selector 中。 rebuild 后,须要从新执行方法 selectNow,检查是否有已 ready 的 selectionKey。
接下来调用 processSelectedKeys 方法(处理 I/O 任务),当 selectedKeys != null 时,调用 processSelectedKeysOptimized方法,迭代 selectedKeys 获取就绪的 IO 事件的selectkey存 放在数组 selectedKeys 中, 而后为每一个事件都调用 processSelectedKey 来处理它, processSelectedKey 中分别处理 OP_READ;OP_WRITE;OP_CONNECT 事件。
最后调用 runAllTasks 方法(非 IO 任务),该方法首先会调用 fetchFromScheduledTaskQueue 方法,把 scheduledTaskQueue 中已经超过延迟执行时间的任务移到 taskQueue 中等待被执 行,而后依次从 taskQueue 中取任务执行,每执行 64 个任务,进行耗时检查,若是已执行 时间超过预先设定的执行时间,则中止执行非 IO 任务,避免非 IO 任务太多,影响 IO 任务 的执行。
每一个 NioEventLoop 对应一个线程和一个 Selector,NioServerSocketChannel 会主动注册到某 一个 NioEventLoop 的 Selector 上,NioEventLoop 负责事件轮询。
Outbound 事件都是请求事件, 发起者是 Channel,处理者是 unsafe,经过 Outbound 事 件进行通知,传播方向是 tail到head。Inbound 事件发起者是 unsafe,事件的处理者是 Channel, 是通知事件,传播方向是从头至尾。
内存管理机制,首先会预申请一大块内存 Arena,Arena 由许多 Chunk 组成,而每一个 Chunk 默认由 2048 个 page 组成。Chunk 经过 AVL 树的形式组织 Page,每一个叶子节点表示一个 Page,而中间节点表示内存区域,节点本身记录它在整个 Arena 中的偏移地址。当区域被 分配出去后,中间节点上的标记位会被标记,这样就表示这个中间节点如下的全部节点都 已被分配了。大于 8k 的内存分配在 poolChunkList 中,而 PoolSubpage 用于分配小于 8k 的 内存,它会把一个 page 分割成多段,进行内存分配。
ByteBuf 的特色:支持自动扩容(4M),保证 put 方法不会抛出异常、经过内置的复合缓冲 类型,实现零拷贝(zero-copy);不须要调用 flip()来切换读/写模式,读取和写入索引分

开;方法链;引用计数基于 AtomicIntegerFieldUpdater 用于内存回收;PooledByteBuf 采用 二叉树来实现一个内存池,集中管理内存的分配和释放,不用每次使用都新建一个缓冲区 对象。UnpooledHeapByteBuf 每次都会新建一个缓冲区对象。