Bootstrap

RocketMQ | 源码分析 | MappedFile核心存储类

概述

RocketMQ的存储都基于MappedFile实现,如CommitLog、Index索引、ConsumeQueue等,本文则主要介绍的实现机制,包括MappedFileQueue类介绍、MappedFile类介绍、预热、MappedFile预分配服务AllocateMappedFileService、MappedFile刷盘等内容。

CommitLog消息存储、ConsumeQueue等通常会记录大量的数据,一个MappedFile具有固定大小(默认1G),所以一个MappedFile不能记录所有的内容,于是CommitLog、ConsumeQueue通常会使用多个MappedFile记录数据,RocketMQ则使用MappedFileQueue组织一系列的MappedFile,处在MappedFileQueue队尾的通常是刚写满的或者还有部分空间或者刚分配的MappedFile,每次写操作时,都会从队尾拿到最后一个MappedFile进行写。
在这里插入图片描述
顾名思义,MappedFile是对文件的mmap映射类,其中封装了对文件的fileChannel和MappedByteBuffer,主要操作文件的写入、刷盘。

写入分同步写和异步写,复制网上的一个图如下。将commitLog文件mmap映射到一个MappedByteBuffer,同步写即接收到生产者消息直接将数据写入MappedByteBuffer,异步写即先将数据写入一个直接内存暂存区,由定时线程将暂存区数据写入fileChannel中。

RocketMq的高性能法宝

  1. 它基于netty实现了高性能的网络通信,利用netty基于事件的io模型,零拷贝的技术,高效的数据序列化方式。
  2. java提供了非常好的多线程编程环境
  3. 直接基于文件的多级存储。且基于pagecache和mmap的高效文件读写。

基本属性&主要变量

//系统缓存大小
public static final int OS_PAGE_SIZE = 1024 * 4;
protected static final InternalLogger log = InternalLoggerFactory.getLogger(LoggerName.STORE_LOGGER_NAME);
//类变量,所有 MappedFile 实例已使用字节总数。
private static final AtomicLong TOTAL_MAPPED_VIRTUAL_MEMORY = new AtomicLong(0);
//MappedFile 个数。
private static final AtomicInteger TOTAL_MAPPED_FILES = new AtomicInteger(0);
//当前MappedFile对象当前写指针。
protected final AtomicInteger wrotePosition = new AtomicInteger(0);
//当前提交的指针。
protected final AtomicInteger committedPosition = new AtomicInteger(0);
//当前刷写到磁盘的指针。
private final AtomicInteger flushedPosition = new AtomicInteger(0);
//文件总大小
protected int fileSize;
//文件通道。
protected FileChannel fileChannel;
//如果开启了transientStorePoolEnable,消息会写入堆外内存,然后提交到 PageCache 并最终刷写到磁盘。
protected ByteBuffer writeBuffer = null;
//ByteBuffer的缓冲池,堆外内存,transientStorePoolEnable 为 true 时生效。
protected TransientStorePool transientStorePool = null;
//文件名字
private String fileName;
//文件序号,代表该文件代表的文件偏移量。
private long fileFromOffset;
//文件对象
private File file;
//对应操作系统的 PageCache。
private MappedByteBuffer mappedByteBuffer;
//最后一次存储时间戳。
private volatile long storeTimestamp = 0;
private boolean firstCreateInQueue = false;

MappedFile的获取

因为每次写数据时,都会从MappedFileQueue中获取最后一个MappedFile,如果MappedFileQueue为空,或者最后一个MappedFile已经写满,则会重新分配一个新的MappedFile,我们以CommitLog对生产者发来的消息进行存储为例,看其是如何获取MappedFile进行写操作的。

public PutMessageResult putMessage(final MessageExtBrokerInner msg) {
    ...
    //首先获取MappedFileQueue中的最后一个MappedFile类实例
    MappedFile mappedFile = this.mappedFileQueue.getLastMappedFile();

    putMessageLock.lock(); //spin or ReentrantLock ,depending on store config
    try {
        ...
        //如果上面返回空,则表示queue为空,还没有新建过MappedFile对象
        //如果上面返回不为空,但是返回的MappedFile已经写满
        //此时,需要新建一个新的MappedFile
        if (null == mappedFile || mappedFile.isFull()) {
            //getLastMappedFile(0)会创建一个新的MappedFile并返回
            mappedFile = this.mappedFileQueue.getLastMappedFile(0); // Mark: NewFile may be cause noise
        }
        if (null == mappedFile) {
            ...
        }

        result = mappedFile.appendMessage(msg, this.appendMessageCallback);
        ...
    }
        ...
}

MappedFileQueue创建过程如下:

//MappedFileQueue
//传入的startOffset默认为0,在具体创建时会进行判断
public MappedFile getLastMappedFile(final long startOffset) {
    return getLastMappedFile(startOffset, true);
}

public MappedFile getLastMappedFile(final long startOffset, boolean needCreate) {
    //需要创建的MappedFile偏移(大小)
    long createOffset = -1;
    //获取该queue中的最后一个MappedFile,用于计算需要新建的MappedFile
    //的其实位置(偏移)
    MappedFile mappedFileLast = getLastMappedFile();
    //如果为空的话,表示目前新建的MappedFile为此queue中的第一个
    //MappedFile,createOffset为startOffset,因为createOffset
    //需要为定义的mappedFileSize(默认1G),所以这里减去
    //多余的部分(startOffset % this.mappedFileSize)
    if (mappedFileLast == null) {
        createOffset = startOffset - (startOffset % this.mappedFileSize);
    }
    //如果queue中在创建MappedFile时已经有存量的MappedFile,则此次
    //创建是由于queue最后一个MappedFile已经写满触发的,所以此次创建
    //的新MappedFile偏移则为最后一个文件偏移+mappedFileSize
    if (mappedFileLast != null && mappedFileLast.isFull()) {
        createOffset = mappedFileLast.getFileFromOffset() + this.mappedFileSize;
    }

    if (createOffset != -1 && needCreate) {
        //MappedFile的创建可以进行预创建,在创建一个MappedFile时,会
        //同时创建下一个MappedFile,这样下次需要新建MappedFile时则
        //可以直接拿到已经预创建好的MappedFile,提高了写的性能。

        //此次新建的MappedFile对应的文件名
        String nextFilePath = this.storePath + File.separator + UtilAll.offset2FileName(createOffset);
        //预分配的下一个MappedFile对应的文件名
        String nextNextFilePath = this.storePath + File.separator
            + UtilAll.offset2FileName(createOffset + this.mappedFileSize);
        MappedFile mappedFile = null;
        //allocateMappedFileService不为null,表示启用了预创建功能
        //此时会同时向allocateMappedFileService提交两个创建任务,
        //一个为此次需要创建的MappedFile,一个为下次获取MappedFile
        //预创建的MappedFile,此次需要创建的MappedFile的创建任务
        //为同步创建,需要等其创建成功返回,而预创建的MappedFile则
        //为异步创建
        if (this.allocateMappedFileService != null) {
            mappedFile = this.allocateMappedFileService.putRequestAndReturnMappedFile(nextFilePath,
                nextNextFilePath, this.mappedFileSize);
        } else {
            //如果没有启用预创建功能,则直接new一个MappedFile对象进行
            //创建,没有启用预创建功能的MappedFile创建都是不会使用
            //TransientStorePool暂存池优化的
            try {
                mappedFile = new MappedFile(nextFilePath, this.mappedFileSize);
            } catch (IOException e) {
                log.error("create mappedFile exception", e);
            }
        }

        if (mappedFile != null) {
            if (this.mappedFiles.isEmpty()) {
                mappedFile.setFirstCreateInQueue(true);
            }
            this.mappedFiles.add(mappedFile);
        }

        return mappedFile;
    }

    return mappedFileLast;
}

上面创建MappedFile有两种形式,一种是通过其构造函数直接创建,一种是提交给allocateMappedFileService创建并异步创建下一个MappedFile待用。
我们首先看第一种形式,即直接new MappedFile,此时不会使用TransientStorePool暂存池优化的,我们首先看MappedFile构造函数:

初始化方法init

//MappedFile
public MappedFile(final String fileName, final int fileSize) throws IOException {
    init(fileName, fileSize);
}

public void init(final String fileName, final int fileSize,
                 final TransientStorePool transientStorePool) throws IOException {
    init(fileName, fileSize);
    this.writeBuffer = transientStorePool.borrowBuffer();
    this.transientStorePool = transientStorePool;
}

private void init(final String fileName, final int fileSize) throws IOException {
    this.fileName = fileName;
    this.fileSize = fileSize;
    this.file = new File(fileName);
    this.fileFromOffset = Long.parseLong(this.file.getName());
    boolean ok = false;
    //确保有这个目录,如果没有的话,就会创建一个目录
    ensureDirOK(this.file.getParent());

    try {
        this.fileChannel = new RandomAccessFile(this.file, "rw").getChannel();
        this.mappedByteBuffer = this.fileChannel.map(MapMode.READ_WRITE, 0, fileSize);
        TOTAL_MAPPED_VIRTUAL_MEMORY.addAndGet(fileSize);
        TOTAL_MAPPED_FILES.incrementAndGet();
        ok = true;
    } catch (FileNotFoundException e) {
        log.error("Failed to create file " + this.fileName, e);
        throw e;
    } catch (IOException e) {
        log.error("Failed to map file " + this.fileName, e);
        throw e;
    } finally {
        if (!ok && this.fileChannel != null) {
            this.fileChannel.close();
        }
    }
}

初始化方法重载了一下,主要是为了区别是否开启堆外内存,但是其实还是调用了上面的init的第二个方法。 init的方法总的来说就是 获取一个目录,然后随机读取一个文件,接着将存储数据的信息增加一下。因为MappedFile预分配allocateMappedFileService涉及到了TransientStorePool暂存池,所以下面一节先简单介绍TransientStorePool暂存池。

TransientStorePool暂存池

TransientStorePool类比较简单,采用双端队列Deque维护了一些列的预分配的ByteBuffer,这些ByteBuffer都是在堆外分配的直接内存,DefaultMessageStore会持有TransientStorePool对象实例,如果启动时配置了启用transientStorePoolEnable,那么在DefaultMessageStore构造函数中会调用TransientStorePool.init方法,预分配ByteBuffer并放入队列中,如果启动时没有启用TransientStorePool功能,则不会调用TransientStorePool.init方法,那么从队列中获取ByteBuffer会返回null。
TransientStorePool主要域如下:

//TransientStorePool
//池中预分配ByteBuffer数量
private final int poolSize;
//每个ByteBuffer大小
private final int fileSize;
//采用双端队列维护预分配的ByteBuffer
private final Deque<ByteBuffer> availableBuffers;

TransientStorePool主要的方法如下:

//TransientStorePool
//如源码注释,因为这里需要申请多个堆外ByteBuffer,所以是个
//十分heavy的初始化方法
/**
* It's a heavy init method.
*/
public void init() {
    //申请poolSize个ByteBuffer
    for (int i = 0; i < poolSize; i++) {
        //申请直接内存空间
        ByteBuffer byteBuffer = ByteBuffer.allocateDirect(fileSize);

        final long address = ((DirectBuffer) byteBuffer).address();
        Pointer pointer = new Pointer(address);
        //锁住内存,避免操作系统虚拟内存的换入换出
        LibC.INSTANCE.mlock(pointer, new NativeLong(fileSize));
        //将预分配的ByteBuffer方法队列中
        availableBuffers.offer(byteBuffer);
    }
}

//销毁内存池
public void destroy() {
    //取消对内存的锁定
    for (ByteBuffer byteBuffer : availableBuffers) {
        final long address = ((DirectBuffer) byteBuffer).address();
        Pointer pointer = new Pointer(address);
        LibC.INSTANCE.munlock(pointer, new NativeLong(fileSize));
    }
}

//使用完毕之后归还ByteBuffer
public void returnBuffer(ByteBuffer byteBuffer) {
    //ByteBuffer各下标复位
    byteBuffer.position(0);
    byteBuffer.limit(fileSize);
    //放入队头,等待下次重新被分配
    this.availableBuffers.offerFirst(byteBuffer);
}

//从池中获取ByteBuffer
public ByteBuffer borrowBuffer() {
    //非阻塞弹出队头元素,如果没有启用暂存池,则
    //不会调用init方法,队列中就没有元素,这里返回null
    //其次,如果队列中所有元素都被借用出去,队列也为空
    //此时也会返回null
    ByteBuffer buffer = availableBuffers.pollFirst();
    //如果队列中剩余元素数量小于配置个数的0.4,则写日志提示
    if (availableBuffers.size() < poolSize * 0.4) {
        log.warn("TransientStorePool only remain {} sheets.", availableBuffers.size());
    }
    return buffer;
}

//剩下可借出的ByteBuffer数量
public int remainBufferNumbs() {
    //如果启用了暂存池,则返回队列中元素个数
    if (storeConfig.isTransientStorePoolEnable()) {
        return availableBuffers.size();
    }
    //否则返会Integer.MAX_VALUE
    return Integer.MAX_VALUE;
}

如果使用的暂存池TransientStorePool,那么创建MappedFile使用的构造函数为:

//MappedFile
public MappedFile(final String fileName, final int fileSize,
    final TransientStorePool transientStorePool) throws IOException {
    init(fileName, fileSize, transientStorePool);
}

public void init(final String fileName, final int fileSize,
    final TransientStorePool transientStorePool) throws IOException {
    //这个重载的init方法上面已经介绍过
    init(fileName, fileSize);
    //不同就是这里的writeBuffer会被赋值,后续写入操作会优先
    //写入writeBuffer中
    this.writeBuffer = transientStorePool.borrowBuffer();
    //记录transientStorePool主要为了释放时归还借用的ByteBuffer
    this.transientStorePool = transientStorePool;
}

这里还要注意一下,在预分配AllocateMappedFileService服务中,会先尝试使用ServiceLoader扩展点加载用户自定义的MappedFile实现,此时构造函数使用的是两个参数的构造函数,但是会显示调用具有TransientStorePool参数的init方法进行初始化。在线面介绍AllocateMappedFileService.mmapOperation方法时会看到ServiceLoader扩展点的使用。

MappedFile预分配

在介绍MappedFile获取时说到,如果启用了MappedFile预分配服务,那么在创建MappedFile时会同时创建两个MappedFile,一个同步创建并返回用于本次实际使用,一个后台异步创建用于下次取用,在MappedFileQueue.getLastMappedFile中预分配的入口为this.allocateMappedFileService.putRequestAndReturnMappedFile(nextFilePath,nextNextFilePath, this.mappedFileSize);
上面参数中nextFilePath为本次请求的MappedFile文件名和大小,而nextNextFilePath则为为下一次提前分配的MappedFile文件名和大小。
这里先说明一下为什么预分配只在本次实际所需创建的MappedFile的基础上提前分配一个MappedFile,个人理解时分配的MappedFile默认大小1G,空间较大,且分配之后一般能够撑一段时间的写入,不用也不能预分配过多的MappedFile。
好了,现在我们看allocateMappedFileService.putRequestAndReturnMappedFile方法实现:

//AllocateMappedFileService
public MappedFile putRequestAndReturnMappedFile(String nextFilePath, String nextNextFilePath, int fileSize) {
    //每次最多只能提交两个分配请求
    int canSubmitRequests = 2;
    if (this.messageStore.getMessageStoreConfig().isTransientStorePoolEnable()) {
        if (this.messageStore.getMessageStoreConfig().isFastFailIfNoBufferInStorePool()
            && BrokerRole.SLAVE != this.messageStore.getMessageStoreConfig().getBrokerRole()) { //if broker is slave, don't fast fail even no buffer in pool
            //因为预分配使用了暂存池,所以这里重新计算可提交请求书为
            //暂存池剩余ByteBuffer数量-已提交的预分配请求个数
            canSubmitRequests = this.messageStore.getTransientStorePool().remainBufferNumbs() - this.requestQueue.size();
        }
    }

    //创建分配任务,这个任务表示的是当前实际需要的且要等待期返回的
    //MappedFile分配请求
    AllocateRequest nextReq = new AllocateRequest(nextFilePath, fileSize);
    //AllocateRequest自定义了equal/hashCode方法,这里不再列出其源码
    //如果该filePath和fileSize已经在requestTable中,则表示
    //此次所需分配的MappedFile已经在上次分配时被预分配了
    //同时要注意的是AllocateRequest也实现了Comparable接口
    //放入优先队列中可自动排序,文件偏移小的会先被分配
    boolean nextPutOK = this.requestTable.putIfAbsent(nextFilePath, nextReq) == null;
    //如果nextPutOK为true,表示该分片请求被成功放入requestTable中,
    //也就表示该请求原先没有预分配过
    if (nextPutOK) {
        //此时检查可提交请求个数,如果小于等于0,则表示不可提交
        //预分配失败,返回null,通过上面介绍过的使用new MappedFile
        //创建MappedFile
        if (canSubmitRequests <= 0) {
            log.warn("[NOTIFYME]TransientStorePool is not enough, so create mapped file error, " +
                "RequestQueueSize : {}, StorePoolSize: {}", this.requestQueue.size(), this.messageStore.getTransientStorePool().remainBufferNumbs());
            //移除刚放入requestTable中的请求
            this.requestTable.remove(nextFilePath);
            return null;
        }
        //如果可提交请求个数符合要求,则将分配请求加入队列中排序
        boolean offerOK = this.requestQueue.offer(nextReq);
        if (!offerOK) {
            log.warn("never expected here, add a request to preallocate queue failed");
        }
        //已经提交了一个请求,所以可提交请求数减一
        canSubmitRequests--;
    }

    //预分配此次所需的下一个MappedFile
    //过程和上面类似,不再介绍
    AllocateRequest nextNextReq = new AllocateRequest(nextNextFilePath, fileSize);
    boolean nextNextPutOK = this.requestTable.putIfAbsent(nextNextFilePath, nextNextReq) == null;
    if (nextNextPutOK) {
        if (canSubmitRequests <= 0) {
            log.warn("[NOTIFYME]TransientStorePool is not enough, so skip preallocate mapped file, " +
                "RequestQueueSize : {}, StorePoolSize: {}", this.requestQueue.size(), this.messageStore.getTransientStorePool().remainBufferNumbs());
            this.requestTable.remove(nextNextFilePath);
        } else {
            boolean offerOK = this.requestQueue.offer(nextNextReq);
            if (!offerOK) {
                log.warn("never expected here, add a request to preallocate queue failed");
            }
        }
    }

    if (hasException) {
        log.warn(this.getServiceName() + " service has exception. so return null");
        return null;
    }
    //获取刚提交的或者以前预分配的此次实际需要创建的MappedFile的创建
    //请求对象
    AllocateRequest result = this.requestTable.get(nextFilePath);
    try {
        if (result != null) {
            //AllocateRequest使用CountDownLatch进行阻塞
            boolean waitOK = result.getCountDownLatch().await(waitTimeOut, TimeUnit.MILLISECONDS);
            if (!waitOK) {
                log.warn("create mmap timeout " + result.getFilePath() + " " + result.getFileSize());
                return null;
            } else {
                //如果没有超时,MappedFile创建完成,则返回创建的
                //MappedFile
                this.requestTable.remove(nextFilePath);
                return result.getMappedFile();
            }
        } else {
            log.error("find preallocate mmap failed, this never happen");
        }
    } catch (InterruptedException e) {
        log.warn(this.getServiceName() + " service has exception. ", e);
    }

    return null;
}

预分配请求提交的方法已经介绍完毕,此时提交预分配请求的方法被阻塞等待获取当前所需创建MappedFile任务,那么提交的分配任务时如何处理的呢?其实AllocateMappedFileService类扩展自ServiceThread,是一个线程,其run方法定义如下:

//AllocateMappedFileService
public void run() {
    log.info(this.getServiceName() + " service started");
    //调用mmapOperation进行任务处理
    while (!this.isStopped() && this.mmapOperation()) {

    }
    log.info(this.getServiceName() + " service end");
}

//方法注释说明,只有被其他线程中断会返回false,其他情况都会返回true
/**
* Only interrupted by the external thread, will return false
*/
private boolean mmapOperation() {
    boolean isSuccess = false;
    AllocateRequest req = null;
    try {
        //从队列获取创建请求,这里的队列为优先队列,里面的
        //AllocateRequest分配请求已经根据文件偏移进行过排序
        req = this.requestQueue.take();
        //同时从requestTable获取创建请求,如果获取失败,表示已经超时
        //被移除,此时记录日志,此任务已经不需要处理
        AllocateRequest expectedRequest = this.requestTable.get(req.getFilePath());
        if (null == expectedRequest) {
            log.warn("this mmap request expired, maybe cause timeout " + req.getFilePath() + " "
                + req.getFileSize());
            return true;
        }
        if (expectedRequest != req) {
            log.warn("never expected here,  maybe cause timeout " + req.getFilePath() + " "
                + req.getFileSize() + ", req:" + req + ", expectedRequest:" + expectedRequest);
            return true;
        }
        //如果取得的分配任务尚没有持有MappedFile对象,则进行分配
        if (req.getMappedFile() == null) {
            long beginTime = System.currentTimeMillis();
            //如果启用了暂存池TransientStorePool,则进行存储池分配
            MappedFile mappedFile;
            if (messageStore.getMessageStoreConfig().isTransientStorePoolEnable()) {
                try {
                    //这里有个ServiceLoader扩展,用户可通过
                    //ServiceLoader使用自定义的MappedFile实现
                    mappedFile = ServiceLoader.load(MappedFile.class).iterator().next();
                    mappedFile.init(req.getFilePath(), req.getFileSize(), messageStore.getTransientStorePool());
                } catch (RuntimeException e) {
                    //如果用户没有通过ServiceLoader使用
                    //自定义的MappedFile,则使用RocketMQ
                    //默认的MappedFile实现
                    log.warn("Use default implementation.");
                    mappedFile = new MappedFile(req.getFilePath(), req.getFileSize(), messageStore.getTransientStorePool());
                }
            } else {
                //如果没有启用暂存池,则直接使用new MappedFile创建
                //没有暂存池的初始化
                mappedFile = new MappedFile(req.getFilePath(), req.getFileSize());
            }

            long eclipseTime = UtilAll.computeEclipseTimeMilliseconds(beginTime);
            if (eclipseTime > 10) {
                int queueSize = this.requestQueue.size();
                log.warn("create mappedFile spent time(ms) " + eclipseTime + " queue size " + queueSize
                    + " " + req.getFilePath() + " " + req.getFileSize());
            }

            //如果配置了MappedFile预热,则进行MappedFile预热
            // pre write mappedFile
            if (mappedFile.getFileSize() >= this.messageStore.getMessageStoreConfig()
                .getMapedFileSizeCommitLog()
                &&
                this.messageStore.getMessageStoreConfig().isWarmMapedFileEnable()) {
                //具体的预热方法不具体介绍,简单的说就是通过加载分配
                //空间的每个内存页进行写入,使分配的ByteBuffer
                //加载到内存中,并和暂存池一样,避免其被操作系统
                //换出
                mappedFile.warmMappedFile(this.messageStore.getMessageStoreConfig().getFlushDiskType(),
                    this.messageStore.getMessageStoreConfig().getFlushLeastPagesWhenWarmMapedFile());
            }
            //分配完成的MappedFile放入请求中
            req.setMappedFile(mappedFile);
            this.hasException = false;
            isSuccess = true;
        }
    } catch (InterruptedException e) {
        log.warn(this.getServiceName() + " interrupted, possibly by shutdown.");
        this.hasException = true;
        return false;
    } catch (IOException e) {
        log.warn(this.getServiceName() + " service has exception. ", e);
        this.hasException = true;
        //发生异常则将请求重新放回队列,下次重新尝试分配
        if (null != req) {
            requestQueue.offer(req);
            try {
                Thread.sleep(1);
            } catch (InterruptedException ignored) {
            }
        }
    } finally {
        if (req != null && isSuccess)
        //创建完毕,则让阻塞的获取方法返回
        req.getCountDownLatch().countDown();
    }
    return true;
}

MappedFile写入

如何分配得到MappedFile已经介绍完毕,下面我们以BrokerController存储消息为例介绍MappedFile的写入操作,BrokerController的消息存储最终调用MappedFile.appendMessage完成写入:

//MappedFile
public AppendMessageResult appendMessage(final MessageExtBrokerInner msg, final AppendMessageCallback cb) {
    return appendMessagesInner(msg, cb);
}


public AppendMessageResult appendMessagesInner(final MessageExt messageExt, final AppendMessageCallback cb) {
    assert messageExt != null;
    assert cb != null;

    int currentPos = this.wrotePosition.get();

    if (currentPos < this.fileSize) {
        //我们重点看这里,如果writeBuffer不为空,则优先
        //写入writeBuffer,否则写入mappedByteBuffer,
        //通过前面的介绍可以知道,如果启用了暂存池
        //TransientStorePool则writeBuffer会被初始化
        //否则writeBuffer为空
        //slice方法返回一个新的byteBuffer,但是这里新的
        //byteBuffer和原先的ByteBuffer共用一个存储空间
        //只是自己维护的相关下标
        ByteBuffer byteBuffer = writeBuffer != null ? writeBuffer.slice() : this.mappedByteBuffer.slice();
        //下面的写入我们不展开介绍,无非对消息进行编码
        //然后将编码后的数据写入这里得到的byteBuffer等待刷盘
        byteBuffer.position(currentPos);
        AppendMessageResult result = null;
        if (messageExt instanceof MessageExtBrokerInner) {
            result = cb.doAppend(this.getFileFromOffset(), byteBuffer, this.fileSize - currentPos, (MessageExtBrokerInner) messageExt);
        } else if (messageExt instanceof MessageExtBatch) {
            result = cb.doAppend(this.getFileFromOffset(), byteBuffer, this.fileSize - currentPos, (MessageExtBatch) messageExt);
        } else {
            return new AppendMessageResult(AppendMessageStatus.UNKNOWN_ERROR);
        }
        this.wrotePosition.addAndGet(result.getWroteBytes());
        this.storeTimestamp = result.getStoreTimestamp();
        return result;
    }
    log.error("MappedFile.appendMessage return null, wrotePosition: {} fileSize: {}", currentPos, this.fileSize);
    return new AppendMessageResult(AppendMessageStatus.UNKNOWN_ERROR);
}

doAppend

写入mappedByteBuffer或者暂存区writeBuffer

//fileFromOffset 该文件在整个文件序列中的偏移量。
//ByteBuffer byteBuffer byteBuffer,NIO 字节容器。
//int maxBlank 最大可写字节数。
//MessageExtBrokerInner msgInner 消息内部封装实体。
public AppendMessageResult doAppend(final long fileFromOffset, final ByteBuffer byteBuffer, final int maxBlank,
                                    final MessageExtBrokerInner msgInner) {
    // STORETIMESTAMP + STOREHOSTADDRESS + OFFSET <br>

    // PHY OFFSET
    long wroteOffset = fileFromOffset + byteBuffer.position();

    int sysflag = msgInner.getSysFlag();

    int bornHostLength = (sysflag & MessageSysFlag.BORNHOST_V6_FLAG) == 0 ? 4 + 4 : 16 + 4;
    int storeHostLength = (sysflag & MessageSysFlag.STOREHOSTADDRESS_V6_FLAG) == 0 ? 4 + 4 : 16 + 4;
    ByteBuffer bornHostHolder = ByteBuffer.allocate(bornHostLength);
    ByteBuffer storeHostHolder = ByteBuffer.allocate(storeHostLength);

    this.resetByteBuffer(storeHostHolder, storeHostLength);
    String msgId;
    if ((sysflag & MessageSysFlag.STOREHOSTADDRESS_V6_FLAG) == 0) {
        msgId = MessageDecoder.createMessageId(this.msgIdMemory, msgInner.getStoreHostBytes(storeHostHolder), wroteOffset);
    } else {
        msgId = MessageDecoder.createMessageId(this.msgIdV6Memory, msgInner.getStoreHostBytes(storeHostHolder), wroteOffset);
    }

    // Record ConsumeQueue information
    keyBuilder.setLength(0);
    keyBuilder.append(msgInner.getTopic());
    keyBuilder.append('-');
    keyBuilder.append(msgInner.getQueueId());
    String key = keyBuilder.toString();
    Long queueOffset = CommitLog.this.topicQueueTable.get(key);
    if (null == queueOffset) {
        queueOffset = 0L;
        CommitLog.this.topicQueueTable.put(key, queueOffset);
    }

    //对事务消息需要单独特殊的处理(PREPARE,ROLLBACK类型的消息,不进入Consume队列)。
    // Transaction messages that require special handling
    final int tranType = MessageSysFlag.getTransactionValue(msgInner.getSysFlag());
    switch (tranType) {
            // Prepared and Rollback message is not consumed, will not enter the
            // consumer queuec
        case MessageSysFlag.TRANSACTION_PREPARED_TYPE:
        case MessageSysFlag.TRANSACTION_ROLLBACK_TYPE:
            queueOffset = 0L;
            break;
        case MessageSysFlag.TRANSACTION_NOT_TYPE:
        case MessageSysFlag.TRANSACTION_COMMIT_TYPE:
        default:
            break;
    }

    /**
             * Serialize message
             */
    final byte[] propertiesData =
    msgInner.getPropertiesString() == null ? null : msgInner.getPropertiesString().getBytes(MessageDecoder.CHARSET_UTF8);

    final int propertiesLength = propertiesData == null ? 0 : propertiesData.length;
    //消息的附加属性长度不能超过65536个字节。
    if (propertiesLength > Short.MAX_VALUE) {
        log.warn("putMessage message properties length too long. length={}", propertiesData.length);
                return new AppendMessageResult(AppendMessageStatus.PROPERTIES_SIZE_EXCEEDED);
    }

    final byte[] topicData = msgInner.getTopic().getBytes(MessageDecoder.CHARSET_UTF8);
    final int topicLength = topicData.length;

    final int bodyLength = msgInner.getBody() == null ? 0 : msgInner.getBody().length;

    final int msgLen = calMsgLength(msgInner.getSysFlag(), bodyLength, topicLength, propertiesLength);

    // Exceeds the maximum message
    //如果消息长度超过配置的消息总长度,则返回 MESSAGE_SIZE_EXCEEDED。
    if (msgLen > this.maxMessageSize) {
        CommitLog.log.warn("message size exceeded, msg total size: " + msgLen + ", msg body size: " + bodyLength
            + ", maxMessageSize: " + this.maxMessageSize);
        return new AppendMessageResult(AppendMessageStatus.MESSAGE_SIZE_EXCEEDED);
    }

    // Determines whether there is sufficient free space
    //如果该 MapperFile 中可剩余空间小于当前消息存储空间,返回END_OF_FILE。
    if ((msgLen + END_FILE_MIN_BLANK_LENGTH) > maxBlank) {
        this.resetByteBuffer(this.msgStoreItemMemory, maxBlank);
        // 1 TOTALSIZE
        this.msgStoreItemMemory.putInt(maxBlank);
        // 2 MAGICCODE
        this.msgStoreItemMemory.putInt(CommitLog.BLANK_MAGIC_CODE);
        // 3 The remaining space may be any value
        // Here the length of the specially set maxBlank
        final long beginTimeMills = CommitLog.this.defaultMessageStore.now();
        byteBuffer.put(this.msgStoreItemMemory.array(), 0, maxBlank);
        return new AppendMessageResult(AppendMessageStatus.END_OF_FILE, wroteOffset, maxBlank, msgId, msgInner.getStoreTimestamp(),
            queueOffset, CommitLog.this.defaultMessageStore.now() - beginTimeMills);
    }

    // Initialization of storage space
    this.resetByteBuffer(msgStoreItemMemory, msgLen);
    // 1 TOTALSIZE
    this.msgStoreItemMemory.putInt(msgLen);
    // 2 MAGICCODE
    this.msgStoreItemMemory.putInt(CommitLog.MESSAGE_MAGIC_CODE);
    // 3 BODYCRC
    this.msgStoreItemMemory.putInt(msgInner.getBodyCRC());
    // 4 QUEUEID
    this.msgStoreItemMemory.putInt(msgInner.getQueueId());
    // 5 FLAG
    this.msgStoreItemMemory.putInt(msgInner.getFlag());
    // 6 QUEUEOFFSET
    this.msgStoreItemMemory.putLong(queueOffset);
    // 7 PHYSICALOFFSET
    this.msgStoreItemMemory.putLong(fileFromOffset + byteBuffer.position());
    // 8 SYSFLAG
    this.msgStoreItemMemory.putInt(msgInner.getSysFlag());
    // 9 BORNTIMESTAMP
    this.msgStoreItemMemory.putLong(msgInner.getBornTimestamp());
    // 10 BORNHOST
    this.resetByteBuffer(bornHostHolder, bornHostLength);
    this.msgStoreItemMemory.put(msgInner.getBornHostBytes(bornHostHolder));
    // 11 STORETIMESTAMP
    this.msgStoreItemMemory.putLong(msgInner.getStoreTimestamp());
    // 12 STOREHOSTADDRESS
    this.resetByteBuffer(storeHostHolder, storeHostLength);
    this.msgStoreItemMemory.put(msgInner.getStoreHostBytes(storeHostHolder));
    // 13 RECONSUMETIMES
    this.msgStoreItemMemory.putInt(msgInner.getReconsumeTimes());
    // 14 Prepared Transaction Offset
    this.msgStoreItemMemory.putLong(msgInner.getPreparedTransactionOffset());
    // 15 BODY
    this.msgStoreItemMemory.putInt(bodyLength);
    if (bodyLength > 0)
        this.msgStoreItemMemory.put(msgInner.getBody());
    // 16 TOPIC
    this.msgStoreItemMemory.put((byte) topicLength);
    this.msgStoreItemMemory.put(topicData);
    // 17 PROPERTIES
    this.msgStoreItemMemory.putShort((short) propertiesLength);
    if (propertiesLength > 0)
        this.msgStoreItemMemory.put(propertiesData);

    final long beginTimeMills = CommitLog.this.defaultMessageStore.now();
    // Write messages to the queue buffer
    byteBuffer.put(this.msgStoreItemMemory.array(), 0, msgLen);

    AppendMessageResult result = new AppendMessageResult(AppendMessageStatus.PUT_OK, wroteOffset, msgLen, msgId,
        msgInner.getStoreTimestamp(), queueOffset, CommitLog.this.defaultMessageStore.now() - beginTimeMills);

    switch (tranType) {
        case MessageSysFlag.TRANSACTION_PREPARED_TYPE:
        case MessageSysFlag.TRANSACTION_ROLLBACK_TYPE:
            break;
        case MessageSysFlag.TRANSACTION_NOT_TYPE:
        case MessageSysFlag.TRANSACTION_COMMIT_TYPE:
            // The next update ConsumeQueue information
            CommitLog.this.topicQueueTable.put(key, ++queueOffset);
            break;
        default:
            break;
    }
    return result;
}

AppendMessageResult

public AppendMessageResult(AppendMessageStatus status, long wroteOffset, int wroteBytes, String msgId,
                           long storeTimestamp, long logicsOffset, long pagecacheRT) {
    //追加结果(成功,到达文件尾(文件剩余空间不足)、消息长度超过、消息属性长度超出、未知错误)。
    this.status = status;
    //消息的偏移量(相对于整个commitlog)。
    this.wroteOffset = wroteOffset;
    //消息待写入字节。
    this.wroteBytes = wroteBytes;
    //消息ID。
    this.msgId = msgId;
    //消息写入时间戳。
    this.storeTimestamp = storeTimestamp;
    //消息队列偏移量。
    this.logicsOffset = logicsOffset;
    //消息写入时机戳(消息存储时间戳--- 消息存储开始时间戳)。
    this.pagecacheRT = pagecacheRT;
}

这个方法走完,就到了要putMessages中消息刷盘的时候了,这个下篇再看吧

注意

是否启用暂存池TransientStorePool并不是单独配置transientStorePoolEnable为true就可以了,我们可以看下MessageStoreConfig.isTransientStorePoolEnable方法的实现:

//Enable transient commitLog store pool only if transientStorePoolEnable 
//is true and the FlushDiskType is ASYNC_FLUSH
public boolean isTransientStorePoolEnable() {
 return transientStorePoolEnable && FlushDiskType.ASYNC_FLUSH == getFlushDiskType()
 && BrokerRole.SLAVE != getBrokerRole();
}

只有主Broker、刷盘方式为异步刷盘且transientStorePoolEnable为true才会启用暂存池TransientStorePool

;