博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Netty了解与小试
阅读量:5773 次
发布时间:2019-06-18

本文共 4096 字,大约阅读时间需要 13 分钟。

在互联网的应用中有一个特点,高并发,但处理逻辑相对简单。针对这个特别有时间我们可以相对的简化下平时所有的WEB服务器,来满足这一的特点,而且更方便控制。Netty就是一个不错的选择,Netty 提供异步的、事件驱动的网络应用程 另外与Spring一起使用,以快速开发高性能、高可靠性的网络服务器和客户端程序。

最近的一个项目使用了这点,不错的解决了这类的应用。下面是在了解这方面的时间找到的不错的资料。

 

  深入浅出Netty

netty是JBOSS针对网络开发的一套应用框架,它也是在NIO的基础上发展起来的。netty基于异步的事件驱动,具有高性能、高扩展性等特性,它提供了统一的底层协议接口,使得开发者从底层的网络协议(比如 TCP/IP、UDP)中解脱出来。就使用来说,开发者只要参考 Netty提供的若干例子和它的指南文档,就可以放手开发基于Netty的服务端程序了。

   netty有几个比较重要的概念,在此,仅做介绍,详细可以参考netty文档或源码。

   1). channelBuffer:  Netty 的一个基本数据结构,这个数据结构存储了一个字节序列。 类似于 NIO  ByteBuffer,但操作起来比ByteBuffer更为简单方便。

   2). ChannelFactory 是一个创建和管理 Channel 通道及其相关资源的工厂接口,它处理所有的 I/O 请求并产生相应的 I/O ChannelEvent 通道事件。

  3).ChannelHandler是所有I/O ChannelEvent事件的响应类,所有消息,包括netty通信异常事件,均在该响应类内处理。

  4).*** Bootstrap 是一个设置服务的帮助类。你甚至可以在这个服务中直接设置一个 Channel 通道。

  现在以实现一个UDP协议下的服务器应用程序为例,演示netty通过spring注解开发服务器端。(在此以maven工具管理项目开发)

 

 

netty的性能非常高,能达到8000rps以上,见

 

 

 

Netty一般都通过bootStrap来启动, 网络动作过程就是服务器端bind->accept->read->write,客户端 connect->read->write,一般bind或者connect后会有多次read、write。依据这种特性netty将bind,accept与read,write的线程分离,connect与read、write线程分离

 

 

 

一、Netty主要可以分为3部分: buffer, channel, handle。

 

1、      Channelbuffer

 

l  所有的实现类中都提供,readerIndex, writerIndex两个指针,无需nio buffer的flip.

 

l  可以通过ChannelBufferFactory来创建channelbuffer. 分为两类buffer

 

 HeapChannelBufferFactory: 在jvm堆上创建缓冲区,默认是BIG_ENDIAN排序

 

DirectChannelBufferFactory:对应nio ByteBuffer.allocateDirect(),直接缓冲区分配

 

l  WrappedChannelBuffer实现对ChannelBuffer封装,通过其可以自定义channelbuffer.

 

 

 

2、      Channel:

 

通常每种类型的channel一般都有一个对应channelfactory类,以及一个channelconifg类。  通过channelfactory创建channel实例,然后由channelconifg来配置channel属性。

 

l  ChannelGroup:  一组通道的集合,线程安全, 关闭的通道会自动从集合中删除, 可以通过ChannelGroup广播消息。

 

l  Channel的种类:

 

LocalChannel、 LocalServerChannel:本地通道、虚拟一个网络。

 

DatagramChanneel: udp连接通道.

 

ServerSocketChannel、SoketChannel:  处理tcp/ip连接的通道。

 

l  Channelevent:  用于将:channel的相关信息 如channel本身,传递的数据,channel的状态, future等等一起打包,在调用org.jboss.netty.channel.Channels类的各个静态的fire方式中产生,然后在channelpipe中的sendUpsteam或sendDownStream中传递。

 

l  ChannelSink:处理pipeline中downstream结束后的事件。

 

 

 

3、      handler:

 

所有需要调用的handler都被包装成ChannelHandlerContext,注册到channelpipeline的一个map中,  通过两个指针:head和tail保证map中的handle的调用顺序。处理upstream时,通过head指针从前往后依次调用实现ChannelUpstreamHandler接口的handle.   downstream处理通过tail指针,从后往前依次调用实现ChannelDownstreamHandler接口的handle。  在downsream的channelpipeline传送完后,ChannelSink的eventSunk方法完成对系统底层的调用处理。(ChannelSink和channel是通过attach的方式绑定到channelpipeline上)

 

Netty中已经提供的handler的种类如下:

 

l  codec handle。包括  64位机器的编码、解码,   字符集转化,压缩,http请求编码、解码; 序列化对象的编码、解码等等。通过codec handle我们可以直接往channel中写java 对象。

 

l  Timeout handler通过jboss.netty.util.Timer来对读写超时或者闲置链接的通知,在handle中创建一个time对象,这个time对象包含一个定时器线程Work进程,在handle第一次被触发时,启动一个Work线程:监控超时事件。

 

l  Stream handler  用于异步处理大数据传递。通过将java.io.file对象包装成ChunkedFile对象,进行传递,ChunkedFile的底层实现是RandomAccessFile.

 

l  Queue handler: 用户将接受到的数据或需要发送的数据先存储到一个queue队列中,然后一次性的读和写。  包括BlockingReadHandler和BufferedWriteHandler. 注意在BlockingReadHandler将receivemessage存储入queue后,其后的handler将不再处理 messageReceived,exceptionCaught 和channelClosed事件,因此BlockingReadHandler必须放在channelpipeline的最后。  同理BufferedWriteHandler。

 

 

 

4、      其他

 

l  org.jboss.netty.container 各种容器的兼容 Microcontainer OSGi Spring framework 整合接口

 

l  Bootstrap 启动类: BootStrap: TCP服务器端启动; ClientBootStrap:Tcp client端启动和ConnectionlessBootstrap  UDP启动。

 

 

 

二、服务器的启动和客服端connect的过程

 

 

 

1 、服务器启动

 

 bootstrap.bind(…)-> 触发ServerSocketChannel.open()的事件(sendupstream)->捕捉open事件,channel.bind-> Channels.bind(…)  发起bind命令(sendDownstream)-> PipelineSink进行处理-> 使用socket进行bind,启动boss进程。

 

 Boostrap.bind 方法包含两个参数NioServerSocketChannelFactory、ChannelPipelineFactory。NioServerSocketChannelFactory包含连个线程池bossExecutor和workerExecutor,workerExecutor: 包含缺省为处理器个数×2个NioWorker进程。

 

 2、服务器处理连接

 

 Boss启动后,在监听accept事件, 将捕获到的事件作为一个task放到一个niowork进程

 

的registerTaskQueue队列中。

 

3、服务器端接收并处理数据

 

  NioWorker.run()->nioworker. processSelectedKeys()->Nioworker. Read()将从SocketChannel读取的数据封装成ChannelBuffer ->调用fireMessageReceived(channel,buffer)产生upstream事件 –> 由注册到Pipeline中的Hanlder进行处理

 

4、客户端connection

 

同服务器启动一样也需要创建一个NioClientSocketChannelFactory和一个ChannelPipelineFactory。  同服务器端不同的是client端的boss进程不要监听,它将本地发出的建立的链接的请求封装成task放入一个registerTaskQueue,boss负责消费Queue队列中的消息。

本文转自茄子_2008博客园博客,原文链接:http://www.cnblogs.com/xd502djj/archive/2012/06/25/2561318.html,如需转载请自行联系原作者。

你可能感兴趣的文章
Centos7同时运行多个Tomcat
查看>>
使用CocoaPods过程中的几个问题
查看>>
Spring boot 整合CXF webservice 全部被拦截的问题
查看>>
Pinpoint跨节点统计失败
查看>>
机房带宽暴涨问题分析及解决方法
查看>>
XP 安装ORACLE
查看>>
八、 vSphere 6.7 U1(八):分布式交换机配置(vMotion迁移网段)
查看>>
[转载] 中华典故故事(孙刚)——19 万岁
查看>>
php5编译安装常见错误和解决办法集锦
查看>>
Unable to determine local host from URL REPOSITORY_URL=http://
查看>>
ORACLE配置,修改tnsnames.ora文件实例
查看>>
Workstation服务无法启动导致无法访问文件服务器
查看>>
Linux常用命令(一)
查看>>
一个自动布署.net网站的bat批处理实例
查看>>
我的友情链接
查看>>
JS中比较数字大小
查看>>
jQuery插件的开发
查看>>
基础,基础,还是基础之JAVA基础
查看>>
如何成为一个C++高级程序员
查看>>
我的友情链接
查看>>