微信公众号:大黄奔跑
写在之前
之前介绍了 Netty 开胃菜的三道小菜,分别为Nio buffer、Nio Channel、Nio Selector。
前面说了这么多,还在 Netty 门外徘徊,今天会给大家展示一个 Netty 真面目。但是我不打算Netty开篇就扎根于某个菜品中。
本篇会带着大家介绍第一个 Netty demo
,后续文章的分析都是基于这一个 Demo
展开,第一次看这个 demo 的同学可能会很多地方看不懂,本篇文章先按下不表,后续问问会一一介绍,避免刚开始开宴就沉迷于某一道下酒菜中,忽略了整个口味俱佳的美味。
封面来源于李安饮食男女的全家宴,每次看这部电影口水直流。
主要目的
主要利用 Netty 来展示一个客户端与服务器连接的应用程序,程序目的很简单,客户端将消息发送给服务器、服务器再将消息返回给客户端。
虽然目的简单,但是这个demo意义重点,后续我们会沿着这个demo一步步走下去,试图拆解netty的各个细节。
服务器端建立
Netty 巧妙地将数据处理和具体的服务器启动等连接过程分离开来,使用者可以自定义数据处理工具,而每个程序的启动类大同小异,可以做到真正的共用。
所以要实现服务器端配置主要有两部分:
- 服务器的启动代码——主要将服务器绑定到需要监听的连接请求的端口上
- 具体的业务代码——上一步说的数据处理逻辑,在 Netty 中用一系列handler实现
1. 启动代码实现
为了避免代码过长,省略掉了暂时不考虑的代码,尽可能把核心内容展示给大家。
public class NettyServer { public static void main(String[] args) { // 1. 首先创建 两个线程组 BossGroup和WorkerGroup EventLoopGroup bossGroup = new NioEventLoopGroup(); EventLoopGroup workGroup = new NioEventLoopGroup(); // 2. 创建服务端启动类,配置启动参数 ServerBootstrap serverBootstrap = new ServerBootstrap(); // 3. 配置具体的参数,配置具体参数 /** * 3.1 配置group * 3.2 使用 NioServerSocketChannel 作为服务器的通道实现 * 3.3 设置具体的Handler */ serverBootstrap.group(bossGroup, workGroup) .channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer < SocketChannel > () { @Override protected void initChannel(SocketChannel socketChannel) throws Exception { //4. 给 pipeline 添加处理器,每当有连接accept时,就会运行到此处。 socketChannel.pipeline().addLast(new NettyServerHandler()); } }); System.out.println("server is ready……"); // 5. 绑定端口并且同步,生成了一个ChannelFuture 对象 ChannelFuture channelFuture = serverBootstrap.bind(8887).sync(); // 6. 对channel进行关闭,注意这里全部都是异步操作 channelFuture.channel().closeFuture().sync(); } }
注意上面的示例代码中,最后添加了一个 childHandler
,其中加入了一个new NettyServerHandler()
,前面说过,大家姑且可以将其看作是具体业务逻辑代码处理器,该 Handler 需要用户自定义。
2. 业务逻辑——Handler
服务器Handler默认都是处理服务器响应传入的消息,自定义的Handler可以通过继承Netty预置 ChannelInboundHandlerAdapter
,至于为何需要继承该类,此处 按下不表 + 1,后续会写文章详细介绍。
public class NettyServerHandler extends ChannelInboundHandlerAdapter { /** * channelRead()——对于每个传入的消息都需要调用 * * @param ctx * @param msg */ @Override public void channelRead(ChannelHandlerContext ctx, Object msg) { // 压缩 ByteBuf in = (ByteBuf) msg; //将消息记录到控制台 System.out.println("Server received: " + in .toString(CharsetUtil.UTF_8)); //将接收到的消息写给发送者 ctx.write( in ); } /** * 通知ChannelInboundHandler最后一次对channelRead()的调用是当前批量读取中的最后一条消息 * * @param ctx * @throws Exception */ @Override public void channelReadComplete(ChannelHandlerContext ctx) throws Exception { //将未决消息冲刷到远程节点,并且关闭该 Channel ctx.writeAndFlush(Unpooled.EMPTY_BUFFER) .addListener(ChannelFutureListener.CLOSE); } /** * 在读取期间,有异常的时候会调用 * * @param ctx * @param cause */ @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) { //打印异常栈跟踪 cause.printStackTrace(); //关闭该Channel ctx.close(); } }
上来劈头盖脸写了两段代码,并且不加任何介绍,多多少少有一些耍流氓,因此,让我们回顾一下刚才两段代码完成服务器实现的主要步骤,主要可以划分为如下六步,这里的步骤可以好好理解一下,后续所有的文章的分析其实都是来源于此六步,这六步可以说是 Netty的六脉神剑。
(1)NettyServerHandler 实现了业务逻辑
(2)NettyServer 主要是启动类,用于引导服务器,引导过程可以细化为六小步。
- 创建两个用于处理连接和业务的线程组。
EventLoopGroup bossGroup = new NioEventLoopGroup();
- 创建服务端启动类,以引导和绑定服务器。
ServerBootstrap serverBootstrap = new ServerBootstrap();
- 指定所使用的NIO传输Channel。
.channel(NioServerSocketChannel.class)
- 使用Handler实例,处理具体业务逻辑。
.childHandler(new ChannelInitializer < SocketChannel > () { @Override protected void initChannel(SocketChannel socketChannel) throws Exception { //4. 给 pipeline 添加处理器,每当有连接accept时,就会运行到此处。 socketChannel.pipeline().addLast(new NettyServerHandler()); } });
- 异步绑定服务器,阻塞等待直到绑定完成。
ChannelFuture channelFuture = serverBootstrap.bind(8887).sync();
- 关闭Channel。
channelFuture.channel().closeFuture().sync();
至此服务器端代码,已经实现完成。这里忽略了部分异常处理逻辑,主要是避免被太多无关紧要内容打乱,想要实验的同学可以私信我提供完整 demo。
客户端实现
客户端主要处理的逻辑同样划分为两部分,业务逻辑和引导类,整体思路与服务器端类似。
整体步骤大概 分为四步:
- 连接到服务器
- 发送消息给服务器
- 对于每个消息,等待并接收从服务器发回的消息
- 关闭与服务器连接
1. 客户端启动实现
整体处理思路与服务器端类似,不同的是,客户端是使用服务器ip和端口连接到远程地址,而不是绑定到一个一直被监听的端口。
public class NettyClient { public static void main(String[] args) { // 1. 客户端需要一个事件循环组 EventLoopGroup clientGroup = new NioEventLoopGroup(); try { // 2. 创建客户端启动对象 Bootstrap bootstrap = new Bootstrap(); // 3. 设置启动器的相关参数 /** * 3.1 设置线程组 * 3.2 设置客户端通道的实现类(使用反射) * 3.3 设置具体的处理handler */ bootstrap.group(clientGroup) .channel(NioSocketChannel.class) .handler(new ChannelInitializer < SocketChannel > () { @Override protected void initChannel(SocketChannel socketChannel) throws Exception { // 添加客户端处理逻辑Handler socketChannel.pipeline().addLast(new NettyClientHandler()); } }); System.out.println("客户端 OK..."); // 5. 连接服务器,注意这里全部都是异步的 ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 8887).sync(); // 6. 关闭通道连接监听 channelFuture.channel().closeFuture().sync(); } catch (InterruptedException e) { e.printStackTrace(); } finally { clientGroup.shutdownGracefully(); } } }
整体流程可以参见服务器启动流程,说说不同之处。
- 为了初始化客户端启动类,创建一个bootstrap,这是专门用户处理客户端启动的类。
- 服务器端创建了两个
NioEventLoopGroup
线程组,而客户端这里只创建了一个线程组,具体原因此处按下不表(挖坑+1),后续会给大家补上。 - 连接服务器远程连接时,同时使用了 ip + host信息,而服务器只是绑定了端口号。
2. 业务逻辑——Handler
与服务器类似,客户端同样需要继承ChannelInboundHandlerAdapter
用于客户端处理数据逻辑,不过需要实现的方法却大相同。
- 重写channelActive()方法——用于与服务器建立连接之后被调用,一般用于建立之后发送消息。
- 重写channelRead()方法——从服务器接收到一条消息后被调用
- 重写exceptionCaught()方法——用于发生异常时被调用
public class NettyClientHandler extends ChannelInboundHandlerAdapter { /** * 用于与服务器建立连接之后被调用,一般用于建立之后发送消息。 * * @param ctx * @throws Exception */ @Override public void channelActive(ChannelHandlerContext ctx) throws Exception { System.out.println("client: " + ctx); // 给服务器发送消息 ctx.writeAndFlush(Unpooled.copiedBuffer("Hello ,服务器", CharsetUtil.UTF_8)); } /** * 从服务器接收到一条消息后被调用 * * @param ctx * @param msg * @throws Exception */ @Override public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception { ByteBuf byteBuf = (ByteBuf) msg; System.out.println("服务器说: " + byteBuf.toString(CharsetUtil.UTF_8)); System.out.println("服务器地址为: " + ctx.channel().remoteAddress()); } /** * 处理异常信息 * * @param ctx * @param cause * @throws Exception */ @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception { cause.printStackTrace(); ctx.close(); } }
到这里我们已经实现了客户端连接、启动与业务处理逻辑全部过程,虽然很多地方没有介绍,但是不妨碍我们从整体来看Netty
执行过程,这里忽略的很多点,后续会一并分析。
总结
本篇主要想给大家展示Netty全貌是何样,只全貌再究细节是我一直比较推崇的学习思路,这样可以避免一开始局限与某一个细点。
当然本篇埋下了几个坑等待后续的挖掘,比如
(1)为啥服务器端需要需要创建两个NioEventLoopGroup
线程组,而客户端只需要创建一个呢?
(2)为何 handler 都需要继承 Netty 预先设置的 Handler 呢?
后续文章会一并带领大家一起探索Netty的奥妙。
全部评论
(1) 回帖