Netty初见三大组件简单使用

作者: ML李嘉图

Netty系列文章目录

  1. Netty初见-三大组件-简单使用
  2. 文件编程-更新中…………


目录

  • [Netty系列文章目录]
  • [三大组件]
  • [Channel与Buffer]
  • [Selector]
  • [简单使用(ByteBuffer)]
  • [核心属性]
  • [核心方法]
  • [ByteBuffer调试工具类]
  • [ByteBuffer的常见方法]
  • [字符串与ByteBuffer的相互转换]
  • [分散读集中写]
  • [粘包与半包]


导读:

  1. 怎么通俗的理解Netty呢?
  2. Java-NIO 项目地址https://gitee.com/zwtgit/netty-study

三大组件

Channel与Buffer

Java NIO系统的核心 在于:通道(Channel)和缓冲区(Buffer) 。通道表示打开到 IO 设备(例如:文件、套接字)的连接。若需要使用 NIO 系统,需要获取用于连接 IO 设备的通道 以及用于容纳数据的缓冲区。然后操作缓冲区,对数据进行处理

简而言之,通道负责传输,缓冲区负责存储 常见的Channel有以下四种,其中FileChannel主要用于文件传输,其余三种用于网络通信

  • FileChannel
  • DatagramChannel
  • SocketChannel
  • ServerSocketChannel Buffer有以下几种,其中使用较多的是ByteBuffer
  • ByteBuffer
  • MappedByteBuffer
  • DirectByteBuffer
  • HeapByteBuffer
  • ShortBuffer
  • IntBuffer
  • LongBuffer
  • FloatBuffer
  • DoubleBuffer
  • CharBuffer

Selector

使用多线程技术

为每个连接分别开辟一个线程,分别去处理对应的socke连接

这种方法存在以下几个问题

  • 内存占用高
  • 每个线程都需要占用一定的内存,当连接较多时,会开辟大量线程,导致占用大量内存
  • 线程上下文切换成本高
  • 只适合连接数少的场景
  • 连接数过多,会导致创建很多线程,从而出现问题 使用线程池技术

使用线程池,让线程池中的线程去处理连接

这种方法存在以下几个问题

  • 阻塞模式下,线程仅能处理一个连接
  • 线程池中的线程获取任务(task)后,只有当其执行完任务之后(断开连接后),才会去获取并执行下一个任务
  • 若socke连接一直未断开,则其对应的线程无法处理其他socke连接
  • 仅适合 短连接 场景
  • 短连接即建立连接发送请求并响应后就立即断开,使得线程池中的线程可以快速处理其他连接 使用选择器 selector 的作用就是配合一个线程来管理多个 channel(fileChannel因为是阻塞式的,所以无法使用selector) ,获取这些 channel 上发生的事件 ,这些 channel 工作在非阻塞模式 下,当一个channel中没有执行任务时,可以去执行其他channel中的任务。适合连接数多,但流量较少的场景

若事件未就绪,调用 selector 的 select() 方法会阻塞线程,直到 channel 发生了就绪事件。这些事件就绪后,select 方法就会返回这些事件交给 thread 来处理 。

简单使用(ByteBuffer)

使用方式

  • 向 buffer 写入数据,例如调用 channel.read(buffer)
  • 调用 flip() 切换至 读模式
  • flip会使得buffer中的limit变为position,position变为0
  • 从 buffer 读取数据,例如调用 buffer.get()
  • 调用 clear() 或者compact()切换至 写模式
  • 调用clear()方法时position=0,limit变为capacity
  • 调用compact()方法时,会将缓冲区中的未读数据压缩到缓冲区前面
  • 重复以上步骤 导入依赖
    <dependency>
    <groupId>io.netty</groupId>
    <artifactId>netty-all</artifactId>
    <version>4.1.51.Final</version>
    </dependency>
    
    使用ByteBuffer读取文件中的内容
    import java.io.FileInputStream;
    import java.io.IOException;
    import java.nio.ByteBuffer;
    import java.nio.channels.FileChannel;
    public class TestByteBuffer01 {
    public static void main(String[] args) {
        // 获得FileChannel
        try (FileChannel channel = new FileInputStream("data.txt").getChannel()) {
            // 获得缓冲区
            ByteBuffer buffer = ByteBuffer.allocate(10);
            int hasNext = 0;
            StringBuilder builder = new StringBuilder();
            while((hasNext = channel.read(buffer)) > 0) {
                // 切换模式 limit=position, position=0
                buffer.flip();
                // 当buffer中还有数据时,获取其中的数据
                while(buffer.hasRemaining()) {
                    builder.append((char)buffer.get());
                }
                // 切换模式 position=0, limit=capacity
                buffer.clear();
            }
            System.out.println(builder.toString());
        } catch (IOException e) {
        }
    }
    }
    

核心属性

字节缓冲区的父类Buffer中有几个核心属性,如下

// Invariants: mark <= position <= limit <= capacity
private int mark = -1;
private int position = 0;
private int limit;
private int capacity;
capacity:缓冲区的容量。通过构造函数赋予,一旦设置,无法更改
limit:缓冲区的界限。位于limit 后的数据不可读写。缓冲区的限制不能为负,并且不能大于其容量
position:下一个读写位置的索引(类似PC)。缓冲区的位置不能为负,并且不能大于limit
mark:记录当前position的值。position被改变后,可以通过调用reset() 方法恢复到mark的位置。

核心方法

Java-NIO-Buffer-核心方法 put()方法

  • put()方法可以将一个数据放入到缓冲区中。
  • 进行该操作后,postition的值会+1,指向下一个可以放入的位置。capacity = limit ,为缓冲区容量的值。

flip()方法

  • flip()方法会切换对缓冲区的操作模式,由写->读 / 读->写
  • 进行该操作后
  • 如果是写模式->读模式,position = 0 , limit 指向最后一个元素的下一个位置,capacity不变
  • 如果是读模式->写模式,则恢复为put()方法中的值

get()方法

  • get()方法会读取缓冲区中的一个值
  • 进行该操作后,position会+1,如果超过了limit则会抛出异常 rewind()方法
  • 该方法只能在读模式下使用
  • rewind()方法后,会恢复position、limit和capacity的值,变为进行get()前的值 clean()方法
  • clean()方法会将缓冲区中的各个属性恢复为最初的状态,position = 0, capacity = limit
  • 此时缓冲区的数据依然存在,处于"被遗忘"状态,下次进行写操作时会覆盖这些数据

mark()和reset()方法

  • mark()方法会将postion的值保存到mark属性中
  • reset()方法会将position的值改为mark中保存的值 compact()方法 此方法为ByteBuffer的方法,而不是Buffer的方法
  • compact会把未读完的数据向前压缩,然后切换到写模式
  • 数据前移后,原位置的值并未清零,写时会覆盖之前的值

clear() VS compact() clear只是对position、limit、mark进行重置,而compact在对position进行设置,以及limit、mark进行重置的同时,还涉及到数据在内存中拷贝(会调用arraycopy )。所以compact比clear更耗性能。但compact能保存你未读取的数据,将新数据追加到为读取的数据之后;而clear则不行,若你调用了clear,则未读取的数据就无法再读取到了 所以需要根据情况来判断使用哪种方法进行模式切换。

ByteBuffer调试工具类

封装的一个用于调试的工具类

import java.nio.ByteBuffer;
import io.netty.util.internal.MathUtil;
import io.netty.util.internal.StringUtil;
import io.netty.util.internal.MathUtil.*;
public class ByteBufferUtil {
    private static final char[] BYTE2CHAR = new char[256];
    private static final char[] HEXDUMP_TABLE = new char[256 * 4];
    private static final String[] HEXPADDING = new String[16];
    private static final String[] HEXDUMP_ROWPREFIXES = new String[65536 >>> 4];
    private static final String[] BYTE2HEX = new String[256];
    private static final String[] BYTEPADDING = new String[16];
    static {
        final char[] DIGITS = "0123456789abcdef".toCharArray();
        for (int i = 0; i < 256; i++) {
            HEXDUMP_TABLE[i << 1] = DIGITS[i >>> 4 & 0x0F];
            HEXDUMP_TABLE[(i << 1) + 1] = DIGITS[i & 0x0F];
        }
        int i;
        // Generate the lookup table for hex dump paddings
        for (i = 0; i < HEXPADDING.length; i++) {
            int padding = HEXPADDING.length - i;
            StringBuilder buf = new StringBuilder(padding * 3);
            for (int j = 0; j < padding; j++) {
                buf.append("   ");
            }
            HEXPADDING[i] = buf.toString();
        }
        // Generate the lookup table for the start-offset header in each row (up to 64KiB).
        for (i = 0; i < HEXDUMP_ROWPREFIXES.length; i++) {
            StringBuilder buf = new StringBuilder(12);
            buf.append(StringUtil.NEWLINE);
            buf.append(Long.toHexString(i << 4 & 0xFFFFFFFFL | 0x100000000L));
            buf.setCharAt(buf.length() - 9, '|');
            buf.append('|');
            HEXDUMP_ROWPREFIXES[i] = buf.toString();
        }
        // Generate the lookup table for byte-to-hex-dump conversion
        for (i = 0; i < BYTE2HEX.length; i++) {
            BYTE2HEX[i] = ' ' + StringUtil.byteToHexStringPadded(i);
        }
        // Generate the lookup table for byte dump paddings
        for (i = 0; i < BYTEPADDING.length; i++) {
            int padding = BYTEPADDING.length - i;
            StringBuilder buf = new StringBuilder(padding);
            for (int j = 0; j < padding; j++) {
                buf.append(' ');
            }
            BYTEPADDING[i] = buf.toString();
        }
        // Generate the lookup table for byte-to-char conversion
        for (i = 0; i < BYTE2CHAR.length; i++) {
            if (i <= 0x1f || i >= 0x7f) {
                BYTE2CHAR[i] = '.';
                BYTE2CHAR[i] = (char) i;
            }
        }
    }
    /**
     * 打印所有内容
     * @param buffer
     */
    public static void debugAll(ByteBuffer buffer) {
        int oldlimit = buffer.limit();
        buffer.limit(buffer.capacity());
        StringBuilder origin = new StringBuilder(256);

        appendPrettyHexDump(origin, buffer, 0, buffer.capacity());
        System.out.println("+--------+-------------------- all ------------------------+----------------+");
        System.out.printf("position: [%d], limit: [%d]\n", buffer.position(), oldlimit);
        System.out.println(origin);
        buffer.limit(oldlimit);
    }
    /**
     * 打印可读取内容
     * @param buffer
     */
    public static void debugRead(ByteBuffer buffer) {
        StringBuilder builder = new StringBuilder(256);

        appendPrettyHexDump(builder, buffer, buffer.position(), buffer.limit() - buffer.position());
        System.out.println("+--------+-------------------- read -----------------------+----------------+");
        System.out.printf("position: [%d], limit: [%d]\n", buffer.position(), buffer.limit());
        System.out.println(builder);
    }
    private static void appendPrettyHexDump(StringBuilder dump, ByteBuffer buf, int offset, int length) {
        if (MathUtil.isOutOfBounds(offset, length, buf.capacity())) {
            throw new IndexOutOfBoundsException(
                    "expected: " + "0 <= offset(" + offset + ") <= offset + length(" + length
                            + ") <= " + "buf.capacity(" + buf.capacity() + ')');
        }
        if (length == 0) {
            return;
        }

        dump.append(
                "         +-------------------------------------------------+" +

                        StringUtil.NEWLINE + "         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |" +
                        StringUtil.NEWLINE + "+--------+-------------------------------------------------+----------------+");
        final int startIndex = offset;
        final int fullRows = length >>> 4;
        final int remainder = length & 0xF;
        // Dump the rows which have 16 bytes.
        for (int row = 0; row < fullRows; row++) {
            int rowStartIndex = (row << 4) + startIndex;
            // Per-row prefix.
            appendHexDumpRowPrefix(dump, row, rowStartIndex);
            // Hex dump
            int rowEndIndex = rowStartIndex + 16;
            for (int j = rowStartIndex; j < rowEndIndex; j++) {
                dump.append(BYTE2HEX[getUnsignedByte(buf, j)]);
            }
            dump.append(" |");
            // ASCII dump
            for (int j = rowStartIndex; j < rowEndIndex; j++) {
                dump.append(BYTE2CHAR[getUnsignedByte(buf, j)]);
            }
            dump.append('|');
        }
        // Dump the last row which has less than 16 bytes.
        if (remainder != 0) {
            int rowStartIndex = (fullRows << 4) + startIndex;
            appendHexDumpRowPrefix(dump, fullRows, rowStartIndex);
            // Hex dump
            int rowEndIndex = rowStartIndex + remainder;
            for (int j = rowStartIndex; j < rowEndIndex; j++) {
                dump.append(BYTE2HEX[getUnsignedByte(buf, j)]);
            }
            dump.append(HEXPADDING[remainder]);
            dump.append(" |");
            // Ascii dump
            for (int j = rowStartIndex; j < rowEndIndex; j++) {
                dump.append(BYTE2CHAR[getUnsignedByte(buf, j)]);
            }
            dump.append(BYTEPADDING[remainder]);
            dump.append('|');
        }

        dump.append(StringUtil.NEWLINE +
                "+--------+-------------------------------------------------+----------------+");
    }
    private static void appendHexDumpRowPrefix(StringBuilder dump, int row, int rowStartIndex) {
        if (row < HEXDUMP_ROWPREFIXES.length) {
            dump.append(HEXDUMP_ROWPREFIXES[row]);
            dump.append(StringUtil.NEWLINE);
            dump.append(Long.toHexString(rowStartIndex & 0xFFFFFFFFL | 0x100000000L));
            dump.setCharAt(dump.length() - 9, '|');
            dump.append('|');
        }
    }
    public static short getUnsignedByte(ByteBuffer buffer, int index) {
        return (short) (buffer.get(index) & 0xFF);
    }
}

测试

import java.nio.ByteBuffer;
public class TestByteBufferTools {
    public static void main(String[] args) {
        ByteBuffer buffer = ByteBuffer.allocate(10);
        // 向buffer中写入1个字节的数据
        buffer.put((byte) 0x61);
        System.out.println("向buffer中写入1个字节的数据");
        // 使用工具类,查看buffer状态
        ByteBufferUtil.debugAll(buffer);
        System.out.println("使用工具类,查看buffer状态");
        // 向buffer中写入4个字节的数据
        buffer.put(new byte[]);
        ByteBufferUtil.debugAll(buffer);
        System.out.println("向buffer中写入4个字节的数据");
        // 获取数据
        buffer.flip();
        ByteBufferUtil.debugAll(buffer);
        System.out.println(buffer.get());
        System.out.println(buffer.get());
        ByteBufferUtil.debugAll(buffer);
        System.out.println("获取数据");
        // 使用compact切换模式
        buffer.compact();
        ByteBufferUtil.debugAll(buffer);
        System.out.println("使用compact切换模式");
        // 再次写入
        buffer.put((byte) 102);
        buffer.put((byte) 103);
        ByteBufferUtil.debugAll(buffer);
        System.out.println("再次写入");
    }
}

// 向缓冲区写入了一个字节的数据,此时postition为1
+--------+-------------------- all ------------------------+----------------+

position: [1], limit: [10]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 61 00 00 00 00 00 00 00 00 00 |a……… |

+--------+-------------------------------------------------+----------------+

// 向缓冲区写入四个字节的数据,此时position为5
+--------+-------------------- all ------------------------+----------------+

position: [5], limit: [10]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 61 62 63 64 65 00 00 00 00 00 |abcde….. |

+--------+-------------------------------------------------+----------------+

// 调用flip切换模式,此时position为0,表示从第0个数据开始读取
+--------+-------------------- all ------------------------+----------------+

position: [0], limit: [5]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 61 62 63 64 65 00 00 00 00 00 |abcde….. |

+--------+-------------------------------------------------+----------------+
// 读取两个字节的数据             
97
98


// position变为2             
+--------+-------------------- all ------------------------+----------------+

position: [2], limit: [5]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 61 62 63 64 65 00 00 00 00 00 |abcde….. |

+--------+-------------------------------------------------+----------------+

// 调用compact切换模式,此时position及其后面的数据被压缩到ByteBuffer前面去了

// 此时position为3,会覆盖之前的数据             
+--------+-------------------- all ------------------------+----------------+

position: [3], limit: [10]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 63 64 65 64 65 00 00 00 00 00 |cdede….. |

+--------+-------------------------------------------------+----------------+


// 再次写入两个字节的数据,之前的 0x64 0x65 被覆盖         
+--------+-------------------- all ------------------------+----------------+

position: [5], limit: [10]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 63 64 65 66 67 00 00 00 00 00 |cdefg….. |

+--------+-------------------------------------------------+----------------+

ByteBuffer的常见方法

分配空间

Bytebuffer buf = Bytebuffer.allocate(16);

向buffer写入数据

int readBytes = channel.read(buf);
buf.put((Byte) 127);

向buffer读取数据

int writeBytes = channel.write(buf);
byte b = buf.get();

get方法会让position读指针向后走,如果想重复读取数据

  • 可以调用rewind方法将position重新置为0
  • 或者调用get(int i)方法获取索引i的内容,它不会移动读指针

字符串与ByteBuffer的相互转换

因为实际的业务中经常用的是String。 方法一 编码:字符串调用getByte方法获得byte数组,将byte数组放入ByteBuffer中 解码先调用ByteBuffer的flip方法,然后通过StandardCharsets的decoder方法解码

public class Translate {
    public static void main(String[] args) {
        // 准备两个字符串
        String str1 = "hello";
        String str2 = "";
        ByteBuffer buffer1 = ByteBuffer.allocate(16);
        // 通过字符串的getByte方法获得字节数组,放入缓冲区中
        buffer1.put(str1.getBytes());
        ByteBufferUtil.debugAll(buffer1);
        // 将缓冲区中的数据转化为字符串
        // 切换模式
        buffer1.flip();

        // 通过StandardCharsets解码,获得CharBuffer,再通过toString获得字符串
        str2 = StandardCharsets.UTF_8.decode(buffer1).toString();
        System.out.println(str2);
        ByteBufferUtil.debugAll(buffer1);
    }
}

方法二 编码:通过StandardCharsets的encode方法获得ByteBuffer,此时获得的ByteBuffer为读模式,无需通过flip切换模式 解码:通过StandardCharsets的decoder方法解码

public class Translate {
    public static void main(String[] args) {
        // 准备两个字符串
        String str1 = "hello";
        String str2 = "";
        // 通过StandardCharsets的encode方法获得ByteBuffer
        // 此时获得的ByteBuffer为读模式,无需通过flip切换模式
        ByteBuffer buffer1 = StandardCharsets.UTF_8.encode(str1);
        ByteBufferUtil.debugAll(buffer1);
        // 将缓冲区中的数据转化为字符串
        // 通过StandardCharsets解码,获得CharBuffer,再通过toString获得字符串
        str2 = StandardCharsets.UTF_8.decode(buffer1).toString();
        System.out.println(str2);
        ByteBufferUtil.debugAll(buffer1);
    }
}

方法三 编码 :字符串调用getByte()方法获得字节数组,将字节数组传给ByteBuffer的wrap()方法 ,通过该方法获得ByteBuffer。同样无需调用flip方法切换为读模式 解码:通过StandardCharsets的decoder方法解码

public class Translate {
    public static void main(String[] args) {
        // 准备两个字符串
        String str1 = "hello";
        String str2 = "";
        // 通过StandardCharsets的encode方法获得ByteBuffer
        // 此时获得的ByteBuffer为读模式,无需通过flip切换模式
        ByteBuffer buffer1 = ByteBuffer.wrap(str1.getBytes());
        ByteBufferUtil.debugAll(buffer1);
        // 将缓冲区中的数据转化为字符串
        // 通过StandardCharsets解码,获得CharBuffer,再通过toString获得字符串
        str2 = StandardCharsets.UTF_8.decode(buffer1).toString();
        System.out.println(str2);
        ByteBufferUtil.debugAll(buffer1);
    }
}

分散读集中写

分散读取

分散读取(Scattering Reads)是指从Channel 中读取的数据"分散"到多个Buffer 中。 注意 :按照缓冲区的顺序,从Channel 中读取的数据依次将 Buffer 填满。

import java.io.FileNotFoundException;
import java.io.IOException;
import java.io.RandomAccessFile;
import java.nio.ByteBuffer;
import java.nio.channels.FileChannel;
public class TestScatteringReads {
    public static void main(String[] args) throws IOException {
        try {
            FileChannel channel = new RandomAccessFile("data.txt", "r").getChannel();
            ByteBuffer buffer1 = ByteBuffer.allocate(3);
            ByteBuffer buffer2 = ByteBuffer.allocate(3);
            ByteBuffer buffer3 = ByteBuffer.allocate(5);
            channel.read(new ByteBuffer[]);
            buffer1.flip();
            buffer2.flip();
            buffer3.flip();
            ByteBufferUtil.debugAll(buffer1);
            ByteBufferUtil.debugAll(buffer2);
            ByteBufferUtil.debugAll(buffer3);

        } catch (FileNotFoundException e) {
            e.printStackTrace();
        }
    }
}

聚集写入

聚集写入(Gathering Writes)是指将多个Buffer 中的数据"聚集"到Channel。

按照缓冲区的顺序,写入position 和limit 之间的数据到Channel。

import java.io.FileNotFoundException;
import java.io.IOException;
import java.io.RandomAccessFile;
import java.nio.ByteBuffer;
import java.nio.channels.FileChannel;
import java.nio.charset.StandardCharsets;
public class TestScatteringWrites {
    public static void main(String[] args) {
        ByteBuffer buffer1 = StandardCharsets.UTF_8.encode("Hello");
        ByteBuffer buffer2 = StandardCharsets.UTF_8.encode("zwt");
        ByteBuffer buffer3 = StandardCharsets.UTF_8.encode("你好");
        try {
            FileChannel channel = new RandomAccessFile("data.txt", "rw").getChannel();
            channel.write(new ByteBuffer[]);
            ByteBufferUtil.debugAll(buffer1);
            ByteBufferUtil.debugAll(buffer2);
            ByteBufferUtil.debugAll(buffer3);

        } catch (FileNotFoundException e) {
            e.printStackTrace();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

粘包与半包

现象

网络上有多条数据发送给服务端,数据之间使用 \n 进行分隔

但由于某种原因这些数据在接收时,被进行了重新组合,例如原始数据有3条为

  • Hello,world\n
  • I'm Nyima\n
  • How are you?\n

变成了下面的两个 byteBuffer (粘包,半包)

  • Hello,world\nI'm Nyima\nHo
  • w are you?\n 出现原因 粘包

发送方在发送数据时,并不是一条一条地发送数据,而是将数据整合在一起,当数据达到一定的数量后再一起发送。这就会导致多条信息被放在一个缓冲区中被一起发送出去 半包

接收方的缓冲区的大小是有限的,当接收方的缓冲区满了以后,就需要将信息截断,等缓冲区空了以后再继续放入数据。这就会发生一段完整的数据最后被截断的现象 解决办法

  • 通过get(index)方法遍历ByteBuffer,遇到分隔符时进行处理。 注意:
  • get(index)不会改变position的值
    • 记录该段数据长度,以便于申请对应大小的缓冲区
    • 将缓冲区的数据通过get()方法写入到target中
  • 调用compact方法切换模式,因为缓冲区中可能还有未读的数据
    import java.nio.ByteBuffer;
    public class Exam {
    public static void main(String[] args) {
        ByteBuffer source = ByteBuffer.allocate(32);
        source.put("Hello,world\nI`m zwt\nHo".getBytes());
        split(source);
        source.put("w are you?\n.".getBytes());
        split(source);
    }
    private static void split(ByteBuffer source) {
        source.flip();
        for (int i = 0; i < source.limit(); i++) {
            if (source.get(i) == '\n') {
                int length = i + 1 - source.position();
                ByteBuffer buffer = ByteBuffer.allocate(length);
                for (int j = 0; j < length; j++) {
                    byte b = source.get();
                    buffer.put(b);
                }
                ByteBufferUtil.debugAll(buffer);
            }
        }
        source.compact();
    }
    }
    
+--------+-------------------- all ------------------------+----------------+

position: [12], limit: [12]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 48 65 6c 6c 6f 2c 77 6f 72 6c 64 0a |Hello,world. |

+--------+-------------------------------------------------+----------------+
+--------+-------------------- all ------------------------+----------------+

position: [8], limit: [8]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 49 60 6d 20 7a 77 74 0a |I`m zwt. |

+--------+-------------------------------------------------+----------------+
+--------+-------------------- all ------------------------+----------------+

position: [13], limit: [13]
         +-------------------------------------------------+

         |  0  1  2  3  4  5  6  7  8  9  a  b  c  d  e  f |

+——–+————————————————-+—————-+

|00000000| 48 6f 77 20 61 72 65 20 79 6f 75 3f 0a |How are you?. |

+--------+-------------------------------------------------+----------------+
Process finished with exit code 0

原文创作:ML李嘉图

原文链接:https://www.cnblogs.com/zwtblog/p/15388814.html

文章列表

更多推荐

更多
  • Docker高级-十五、使用亚马逊 EC2 创建 Amazon EC2 实例,创建密钥对,启动 Amazon EC2 实例,连接到 Amazon EC2 实例,查找公共 IP 地址,查找公共 DNS,添加默认安全组,停止 Amazon EC2 实例,更改实例类型,摘要, 亚马逊网
    Apache CN

  • Docker高级-十三、使用 Apache Solr 设置环境,启动 Apache Solr 服务器的 Docker 容器,启动交互式 Shell,登录 Solr 管理控制台,创建核心索引,加载样本数据,在 Solr 管理控制台中查询 Apache Solr,使用 REST API 客户端
    Apache CN

  • Docker高级-十四、使用 Apache Spark 设置环境,运行 CDH 的 Docker 容器,以纱线集群模式运行 Apache Spark 作业,在 yarnclient 模式下运行 Apache Spark 作业,运行 Apache Spark Shell,摘要,Apache S
    Apache CN

  • Docker高级-十一、使用 Apache Sqoop 设置环境,启动 Docker 容器,启动交互式终端,创建 MySQL 表,将 MySQL JDBC Jar 添加到 Sqoop 类路径,设置 JAVA_HOME 环境变量,配置 Apache Hadoop,用 Sqoop 将 MySQL
    Apache CN

  • Docker高级-十二、使用 ApacheKafka 设置环境,为 Apache Kafka 启动 Docker 容器,查找 IP 地址,列出 Kafka 的日志,创造一个 Kafka 主题,启动 Kafka 制作人,启动 Kafka 消费者,生产和消费消息,停止和移除 Docker 容器
    Apache CN

  • Docker高级-八、使用 Apache Hadoop 设置环境,启动 Hadoop,启动交互式 Shell,为 MapReduce 字数统计应用创建输入文件,运行 MapReduce 字数统计应用,停止 Hadoop Docker 容器,使用 CDH 坞站映像,摘要,Apache Hado
    Apache CN

  • Docker高级-九、使用 Apache Hive 设置环境,正在启动 Apache Hive,连接到直线 CLI 外壳,连接到 HiveServer2,创建配置单元表,将数据加载到配置单元表中,查询配置单元表,停止 Apache 蜂房,摘要,Apache Hive 是用于存储、管理和查
    Apache CN

  • Docker高级-十、使用 Apache HBase 设置环境,从 CDH 开始,启动交互式外壳,启动 HBase Shell,创建 HBase 表,列出 HBase 表,获取单个表格行,获取单行列,扫描表格,阻止 CDH,摘要,Apache HBase 是 Apache Hadoop 数
    Apache CN

  • Docker高级-六、使用 Apache Cassandra 设置环境,启动 Apache Cassandra,启动 TTY,连接到 CQL Shell,创建密钥空间,更改密钥空间,使用密钥空间,创建表格,添加表格数据,查询表,从表格中删除,截断表格,放下一张桌子,删除一个键空间,退出 CQL 壳
    Apache CN

  • Docker高级-七、使用 Couchbase 服务器 设置环境,启动 Couchbase,访问 Couchbase Web 控制台,配置 Couchbase 服务器群集,添加文档,启动交互式终端,运行 Couchbase CLI 工具,停止 Couchbase 服务器和容器,摘要,Couc
    Apache CN

  • 近期文章

    更多
    文章目录

      推荐作者

      更多