天天看点

索引优化-世人皆知Mysql,谁人懂我MongoDB

索引优化是一个永远都绕不过的话题,作为NoSQL的MongoDB也不例外。Mysql中通过explain命令来查看对应的索引信息,MongoDB亦如此。

如果你是在mongoshell 中第一种和第二种没什么区别,如果你是在robot 3T这样的客户端工具中使用你必须在后面显示调用finish()或者next()

explain有三种模式,分别是:

queryPlanner(默认) :queryPlanner模式下并不会去真正进行query语句查询,而是针对query语句进行执行计划分析并选出winning plan

executionStats :MongoDB运行查询优化器以选择获胜计划(winning plan),执行获胜计划直至完成,并返回描述获胜计划执行情况的统计信息。

allPlansExecution: queryPlanner和executionStats都返回。相当于 <code>explain("allPlansExecution") = explain({})</code>

日志表中存储了用户的操作日志,我们经常查询某一篇文章的操作日志,数据如下:

集合中大概有700万数据,对于这样的查询语句

首先看下queryPlanner返回的内容:

一些重要字段的含义

queryPlanner.namespace

查询的哪个表

queryPlanner.winningPlan

查询优化器针对该query所返回的最优执行计划的详细内容。

queryPlanner.winningPlan.stage

最优计划执行的阶段,每个阶段都包含特定于该阶段的信息。例如,IXSCAN阶段将包括索引范围以及特定于索引扫描的其他数据。如果一个阶段具有一个子阶段或多个子阶段,那么该阶段将具有inputStage或inputStages。

queryPlanner.winningPlan.inputStage

描述子阶段的文档,该子阶段向其父级提供文档或索引键。如果父阶段只有一个孩子,则该字段存在。

queryPlanner.winningPlan.inputStage.indexName

winning plan所选用的index,这里是根据_id来进行排序的,所以使用了_id的索引

queryPlanner.winningPlan.inputStage.isMultiKey

是否是Multikey,此处返回是false,如果索引建立在array上,此处将是true

queryPlanner.winningPlan.inputStage.isUnique

使用的索引是否是唯一索引,这里的_id是唯一索引

queryPlanner.winningPlan.inputStage.isSparse

是否是稀疏索引

queryPlanner.winningPlan.inputStage.isPartial

是否是部分索引

queryPlanner.winningPlan.inputStage.direction

此query的查询顺序,默认是forward,由于使用了sort({_id:-1})显示backward

queryPlanner.winningPlan.inputStage.indexBounds

winningplan所扫描的索引范围,由于这里使用的是sort({_id:-1}),对_id倒序排序,所以范围是[MaxKey,MinKey]。如果是正序,则是[MinKey,MaxKey]

queryPlanner.rejectedPlans

拒绝的计划详细内容,各字段含义同winningPlan

再来看下executionStats的返回结果

executionStats.executionSuccess

是否执行成功

executionStats.nReturned

查询的返回条数

executionStats.executionTimeMillis

选择查询计划和执行查询所需的总时间(以毫秒为单位)

executionStats.totalKeysExamined

索引扫描次数

executionStats.totalDocsExamined

document扫描次数

executionStats.executionStages

以阶段树的形式详细说明获胜计划的完成执行情况;即一个阶段可以具有一个inputStage或多个inputStages。如上说明。

executionStats.executionStages.inputStage.keysExamined

扫描了多少次索引

executionStats.executionStages.inputStage.docsExamined

扫描了多少次文档,一般当stage是 COLLSCAN的时候会有这个值。

exlexecutionStats.allPlansExecution

这里展示了所有查询计划的详细。(winningPlan + rejectPlans),字段含义和winningPlan中一致,不做赘述

从上面可以看出stage是很重要的,一个查询到底走的是索引还是全表扫描主要看的就是stage的值, 而stage有如下值

COLLSCAN : 扫描整个集合

IXSCAN : 索引扫描(index scan)

FETCH : 根据索引返回的结果去检索文档(如上我们的例子)

SHARD_MERGE : 将各个分片返回数据进行merge

SORT : 调用了sort方法,当出现这个阶段的时候你可以看到memUsage以及memLimit这两个字段

SORT_KEY_GENERATOR : 在内存中进行了排序

LIMIT :使用limit限制返回数

SKIP :使用skip进行跳过

IDHACK :针对_id进行查询

SHARDING_FILTER :通过mongos对分片数据进行查询

COUNT: 利用db.coll.explain().count()之类进行count运算, 只要调用了count方法,那么 executionStats.executionStages.stage = COUNT

COUNT_SCAN : count使用Index进行count时的stage返回

我们对country字段建立了索引,同时执行下面的语句

那么查看执行结果可以看到 executionStats.executionStages.inputStage.stage = COUNT_SCAN, COUNT_SCAN是COUNT的一个子阶段。

COUNTSCAN : count不使用Index进行count时的stage返回。

此时 executionStats.executionStages.inputStage.stage = COUNTSCAN , COUNTSCAN是COUNT的一个子阶段

SUBPLAN : 未使用到索引的$or查询的stage返回

此时 executionStats.executionStages.stage = SUBPLAN

TEXT : 使用全文索引进行查询时候的stage返回

PROJECTION : 限定返回字段时候stage的返回

查看executionStats.executionStages.stage以及其下各个inputStage(子阶段)的值是什么,可以判定存在哪些优化点。

一个查询它扫描的文档数要尽可能的少,才能更快,明显我们我们不希望看到COLLSCAN, SORT_KEY_GENERATOR, COUNTSCAN, SUBPLAN 以及不合理的 SKIP 这些stage,当你看到这些stage的时候就要注意了。

当你看winningPlan或者rejectPlan的时候,你就可以知道执行顺序是怎样的,比如我们rejectPlan中,先是通过 "module_1_opType_1"检索 "module = ARTICLE"的数据,然后FETCH阶段再通过 "recordData.articleId=6153324"进行过滤,最后在内存中排序后返回数据。明显这样的计划被拒绝了,至少二手手游买卖地图没有winningPlan执行快。

再来看看executionStats返回的数据

nReturned 为 1,即符合条件的只有1条 

executionTimeMillis 值为24387,执行时间为24秒

totalKeysExamined 值为 6998084,虽然用到了索引,但是几乎是扫描了所有的key 

totalDocsExamined的值为6998084,也是扫描了所有文档

从上面的输出结果可以看出来,虽然我们使用了索引,但是速度依然很慢。很明显现在的索引,并不适合我们,为了排除干扰,我们先将module_1_opType_1这个索引删除。由于我们这里使用了两个字段进行查询,而 recordData.articleId这个字段并不是每个document(集合中还存储了其他类型的数据)都存在,所以建立索引的时候recordData.articleId需要建立部分索引

我先吃个苹果,等它把索引建立好,大家有啥吃啥。在索引建立完成之后,我们来看看 executionStats 的结果

我忽略了一些不重要的字段,可以看到,现在执行时间是3毫秒(executionTimeMillis=3),扫描了1个index(totalKeysExamined=1),扫描了1个document(totalDocsExamined=1)。相比于之前的24387毫秒,我可以说我的执行速度提升了8000倍,我就问还有谁。如果此事让UC 震惊部小编知道了,肯定又可以起一个震惊的标题了

但是这个执行计划仍然有问题,有问题,有问题,重要的事情说三遍。executionStages.stage = sort,证明它在内存中排序了,在数据量大的时候,是很消耗性能的,所以千万不能忽视它,我们要改进这个点。

我们要在 nReturned = totalDocsExamined的基础上,让排序也走索引。所以我们先将之前的索引删除,然后重新创建索引,这里我们将_id字段也加入到索引中,三个字段形成组合索引

同样的再来看看我们的执行结果:

可以看到我们这次的stage是FETCH+IXSCAN,同时 nReturned = totalKeysExamined = totalDocsExamined = 1,并且利用了index排序,而非在内存中排序。从executionTimeMillis=0也可以看出来,性能相比于之前的3毫秒也有所提升,至此这个索引就是我们需要的了。

最开头的结果和优化的过程告诉我们,使用了索引你的查询仍然可能很慢,我们要将更多的目光集中到扫描的文档或者行数中。

根据ESR原则创建索引

精确(Equal)匹配的字段放最前面,排序(Sort)条件放中间,范围(Range)匹配的字段放最后面,同样适用于ES,ER。

每一个查询都必须要有对应的索引

尽量使用覆盖索引 Covered Indexes(可以避免读数据文件)

需要查询的条件以及返回值均在索引中

使用 projection 来减少返回到客户端的的文档的内容

尽可能不要计算总数,特别是数据量大和查询不能命中索引的时候

避免使用skip/limit形式的分页,特别是数据量大的时候

替代方案:使用查询条件+唯一排序条件

第一页:<code>db.posts.find({}).sort({_id: 1}).limit(20)</code>

第二页:<code>db.posts.find({_id: {$gt: &lt;第一页最后一个_id&gt;}}).sort({_id: 1}).limit(20)</code>

第三页:<code>db.posts.find({_id: {$gt: &lt;第二页最后一个_id&gt;}}).sort({_id: 1}).limit(20)</code>

继续阅读