EXPLAIN
#
PostgreSQL为每个收到查询产生一个查询计划。 选择正确的计划来匹配查询结构和数据的属性对于好的性能来说绝对是最关键的,因此系统包含了一个复杂的规划器来尝试选择好的计划。 你可以使用EXPLAIN
命令察看规划器为任何查询生成的查询计划。 阅读查询计划是一门艺术,它要求一些经验来掌握,但是本节只试图覆盖一些基础。
本节中的示例取自执行了 VACUUM ANALYZE
之后的回归测试数据库,
使用的是 v17 开发版本的源码。如果你自己尝试这些示例,应该也能得到类似的结果,
但你的估计成本和行数可能会略有不同,因为 ANALYZE
的统计数据是
随机抽样的,而非精确数据,并且成本本质上也会因平台不同而有所差异。
这些例子使用EXPLAIN
的默认“text”输出格式,这种格式紧凑并且便于人类阅读。如果你想把EXPLAIN
的输出交给一个程序做进一步分析,你应该使用它的某种机器可读的输出格式(XML、JSON 或 YAML)。
EXPLAIN
基础 #
查询计划的结构是一个计划结点的树。最底层的结点是扫描结点:它们从表中返回未经处理的行。 不同的表访问模式有不同的扫描结点类型:顺序扫描、索引扫描、位图索引扫描。 也还有不是表的行来源,例如VALUES
子句和FROM
中返回集合的函数,它们有自己的结点类型。如果查询需要连接、聚集、排序、或者在未经处理的行上的其它操作,那么就会在扫描结点之上有其它额外的结点来执行这些操作。 并且,做这些操作通常都有多种方法,因此在这些位置也有可能出现不同的结点类型。 EXPLAIN
给计划树中每个结点都输出一行,显示基本的结点类型和计划器为该计划结点的执行所做的开销估计。 第一行(最上层的结点)是对该计划的总执行开销的估计;计划器试图最小化的就是这个数字。
这里是一个简单的示例,仅用于展示输出的样子:
EXPLAIN SELECT * FROM tenk1; QUERY PLAN ------------------------------------------------------------- Seq Scan on tenk1 (cost=0.00..445.00 rows=10000 width=244)
由于这个查询没有WHERE
子句,它必须扫描表中的所有行,因此计划器只能选择使用一个简单的顺序扫描计划。被包含在圆括号中的数字是(从左至右):
估计的启动开销。在输出阶段可以开始之前消耗的时间,例如在一个排序结点里执行排序的时间。
估计的总开销。这个估计值基于的假设是计划结点会被运行到完成,即所有可用的行都被检索。不过实际上一个结点的父结点可能很快停止读所有可用的行(见下面的LIMIT
例子)。
这个计划结点输出行数的估计值。同样,也假定该结点能运行到完成。
预计这个计划结点输出的行平均宽度(以字节计算)。
开销是用规划器的开销参数(参见Section 19.7.2)所决定的捏造单位来衡量的。传统上以取磁盘页面为单位来度量开销; 也就是seq_page_cost将被按照习惯设为1.0
,其它开销参数将相对于它来设置。 本节的例子都假定这些参数使用默认值。
理解一个上层节点的代价包含其所有子节点的代价是很重要的。 同时也要明白, 代价仅反映规划器关心的内容。特别是,代价不考虑将输出值转换为文本形式 或传输给客户端所花费的时间,这些可能是实际耗时中的重要因素;但规划器 忽略这些代价,因为它无法通过改变计划来影响它们。(我们相信每个正确的 计划都会输出相同的行集。)
行数
值有一些小技巧,因为它不是计划结点处理或扫描过的行数,而是该结点发出的行数。这通常比被扫描的行数少一些, 因为有些被扫描的行会被应用于此结点上的任意WHERE
子句条件过滤掉。 理想中顶层的行估计会接近于查询实际返回、更新、删除的行数。
返回到我们的示例:
EXPLAIN SELECT * FROM tenk1; QUERY PLAN ------------------------------------------------------------- Seq Scan on tenk1 (cost=0.00..445.00 rows=10000 width=244)
这些数字的推导非常直接。如果你执行:
SELECT relpages, reltuples FROM pg_class WHERE relname = 'tenk1';
你会发现tenk1
有345个磁盘页和10000行。估算的成本计算公式为(磁盘页读取数 *
seq_page_cost) + (扫描行数 *
cpu_tuple_cost)。默认情况下,
seq_page_cost
为1.0,cpu_tuple_cost
为0.01,
因此估算成本为(345 * 1.0) + (10000 * 0.01) = 445。
现在让我们修改查询,添加一个WHERE
条件:
EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 7000; QUERY PLAN ------------------------------------------------------------ Seq Scan on tenk1 (cost=0.00..470.00 rows=7000 width=244) Filter: (unique1 < 7000)
注意,EXPLAIN
输出显示WHERE
子句作为附加到Seq Scan计划节点的“过滤器”条件。
这意味着计划节点会对它扫描的每一行检查该条件,并且只输出
通过条件的行。
输出行数的估计因为WHERE
子句而减少了。
然而,扫描仍然需要访问所有10000行,所以成本并没有降低;
实际上它略有上升(确切地说是增加了10000 * cpu_operator_cost),以反映检查WHERE
条件所花费的额外CPU时间。
该查询实际选择的行数是7000,但rows
估计值只是近似的。
如果你尝试重复这个实验,估计值可能会略有不同;此外,每次执行
ANALYZE
命令后,估计值可能会变化,因为
ANALYZE
产生的统计信息是从表的随机样本中获取的。
现在,让我们使条件更加严格:
EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100; QUERY PLAN ------------------------------------------------------------------------------ Bitmap Heap Scan on tenk1 (cost=5.06..224.98 rows=100 width=244) Recheck Cond: (unique1 < 100) -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) Index Cond: (unique1 < 100)
这里规划器决定使用一个两步计划:子计划节点访问索引以查找符合索引条件的行的位置, 然后上层计划节点实际从表中获取这些行。单独获取行比顺序读取要昂贵得多, 但因为不必访问表的所有页面,这仍然比顺序扫描便宜。 (使用两级计划的原因是上层计划节点在读取之前将索引识别的行位置排序为物理顺序, 以最小化单独获取的成本。节点名称中提到的“bitmap”就是执行排序的机制。)
现在让我们在WHERE
子句中添加另一个条件:
EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100 AND stringu1 = 'xxx'; QUERY PLAN ------------------------------------------------------------------------------ Bitmap Heap Scan on tenk1 (cost=5.04..225.20 rows=1 width=244) Recheck Cond: (unique1 < 100) Filter: (stringu1 = 'xxx'::name) -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) Index Cond: (unique1 < 100)
添加的条件stringu1 = 'xxx'
减少了输出行数的估计,但成本没有降低,
因为我们仍然必须访问相同的一组行。这是因为stringu1
子句不能作为索引条件
应用,因为该索引仅针对unique1
列。相反,它作为对使用索引检索的行的过滤器
应用。因此,成本实际上略有上升,以反映这额外的检查。
在某些情况下规划器将更倾向于一个“simple”索引扫描计划:
EXPLAIN SELECT * FROM tenk1 WHERE unique1 = 42; QUERY PLAN ------------------------------------------------------------------------------ Index Scan using tenk1_unique1 on tenk1 (cost=0.29..8.30 rows=1 width=244) Index Cond: (unique1 = 42)
在这类计划中,表行被按照索引顺序取得,这使得读取它们开销更高,但是其中有一些是对行位置排序的额外开销。
你很多时候将在只取得一个单一行的查询中看到这种计划类型。
它也经常被用于拥有匹配索引顺序的ORDER BY
子句的查询中,
因为那样就不需要额外的排序步骤来满足ORDER BY
。在此示例中,添加
ORDER BY unique1
将使用相同的计划,因为索引已经隐式提供了请求的排序。
规划器可能通过多种方式实现一个ORDER BY
子句。上述示例表明,
这样的排序子句可以隐式实现。规划器也可以添加一个显式的
Sort
步骤:
EXPLAIN SELECT * FROM tenk1 ORDER BY unique1; QUERY PLAN ------------------------------------------------------------------- Sort (cost=1109.39..1134.39 rows=10000 width=244) Sort Key: unique1 -> Seq Scan on tenk1 (cost=0.00..445.00 rows=10000 width=244)
如果计划的一部分保证了所需排序键前缀的顺序,那么规划器可能会改为使用
一个Incremental Sort
步骤:
EXPLAIN SELECT * FROM tenk1 ORDER BY hundred, ten LIMIT 100; QUERY PLAN ------------------------------------------------------------------------------------------------ Limit (cost=19.35..39.49 rows=100 width=244) -> Incremental Sort (cost=19.35..2033.39 rows=10000 width=244) Sort Key: hundred, ten Presorted Key: hundred -> Index Scan using tenk1_hundred on tenk1 (cost=0.29..1574.20 rows=10000 width=244)
与常规排序相比,增量排序允许在整个结果集排序完成之前返回元组,这特别
使得带有LIMIT
查询的优化成为可能。它还可能减少内存使用
以及排序溢写到磁盘的可能性,但代价是将结果集拆分成多个排序批次所带来的
额外开销。
如果在WHERE
中引用的多个列上有单独的索引,规划器可能会选择使用这些索引的AND或OR组合:
EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100 AND unique2 > 9000; QUERY PLAN ------------------------------------------------------------------------------------- Bitmap Heap Scan on tenk1 (cost=25.07..60.11 rows=10 width=244) Recheck Cond: ((unique1 < 100) AND (unique2 > 9000)) -> BitmapAnd (cost=25.07..25.07 rows=10 width=0) -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) Index Cond: (unique1 < 100) -> Bitmap Index Scan on tenk1_unique2 (cost=0.00..19.78 rows=999 width=0) Index Cond: (unique2 > 9000)
但这需要访问两个索引,因此与仅使用一个索引并将另一个条件视为过滤条件相比,不一定是优势。 如果你改变涉及的范围,你会看到计划相应地发生变化。
下面是一个展示 LIMIT
效果的示例:
EXPLAIN SELECT * FROM tenk1 WHERE unique1 < 100 AND unique2 > 9000 LIMIT 2; QUERY PLAN ------------------------------------------------------------------------------------- Limit (cost=0.29..14.28 rows=2 width=244) -> Index Scan using tenk1_unique2 on tenk1 (cost=0.29..70.27 rows=10 width=244) Index Cond: (unique2 > 9000) Filter: (unique1 < 100)
这是和上面相同的查询,但是我们增加了一个LIMIT
这样不是所有的行都需要被检索,并且规划器改变了它的决定。注意索引扫描结点的总开销和行计数显示出好像它会被运行到完成。但是,限制结点在检索到这些行的五分之一后就会停止,因此它的总开销只是索引扫描结点的五分之一,并且这是查询的实际估计开销。之所以用这个计划而不是在之前的计划上增加一个限制结点是因为限制无法避免在位图扫描上花费启动开销,因此总开销会是超过那种方法(25个单位)的某个值。
让我们尝试连接两个表,使用我们一直在讨论的列:
EXPLAIN SELECT * FROM tenk1 t1, tenk2 t2 WHERE t1.unique1 < 10 AND t1.unique2 = t2.unique2; QUERY PLAN -------------------------------------------------------------------------------------- Nested Loop (cost=4.65..118.50 rows=10 width=488) -> Bitmap Heap Scan on tenk1 t1 (cost=4.36..39.38 rows=10 width=244) Recheck Cond: (unique1 < 10) -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..4.36 rows=10 width=0) Index Cond: (unique1 < 10) -> Index Scan using tenk2_unique2 on tenk2 t2 (cost=0.29..7.90 rows=1 width=244) Index Cond: (unique2 = t1.unique2)
在此计划中,我们有一个嵌套循环连接节点,其输入或子节点是两个表扫描。节点摘要行的缩进
反映了计划树的结构。连接的第一个,或“外部”子节点是一个类似于之前看到的位图扫描。
它的成本和行数与我们从SELECT ... WHERE unique1 < 10
中得到的相同,
因为我们在该节点应用了WHERE
子句unique1 < 10
。
t1.unique2 = t2.unique2
子句尚不相关,因此不会影响外部扫描的行数。
嵌套循环连接节点将针对从外部子节点获得的每一行运行其第二个,或“内部”子节点一次。
当前外部行的列值可以插入到内部扫描中;这里,外部行的t1.unique2
值是可用的,
因此我们得到的计划和成本类似于上面看到的简单SELECT ... WHERE t2.unique2 =
情况。
(估计成本实际上比上面看到的略低,这是由于在对constant
t2
进行重复索引扫描时预期发生的缓存。)
循环节点的成本随后基于外部扫描的成本,加上每个外部行一次的内部扫描(这里是10 * 7.90),
以及一些用于连接处理的CPU时间来设定。
在这个例子中,连接的输出行数与两个扫描的行数乘积相同,但这并非在所有情况下都成立,
因为可能存在额外的WHERE
子句同时涉及两个表,因此只能在连接点应用,
不能应用于任一输入扫描。下面是一个例子:
EXPLAIN SELECT * FROM tenk1 t1, tenk2 t2 WHERE t1.unique1 < 10 AND t2.unique2 < 10 AND t1.hundred < t2.hundred; QUERY PLAN --------------------------------------------------------------------------------------------- Nested Loop (cost=4.65..49.36 rows=33 width=488) Join Filter: (t1.hundred < t2.hundred) -> Bitmap Heap Scan on tenk1 t1 (cost=4.36..39.38 rows=10 width=244) Recheck Cond: (unique1 < 10) -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..4.36 rows=10 width=0) Index Cond: (unique1 < 10) -> Materialize (cost=0.29..8.51 rows=10 width=244) -> Index Scan using tenk2_unique2 on tenk2 t2 (cost=0.29..8.46 rows=10 width=244) Index Cond: (unique2 < 10)
条件t1.hundred < t2.hundred
无法在tenk2_unique2
索引中
测试,因此它在连接节点处应用。这减少了连接节点的估计输出行数,但不改变任一输入扫描。
注意这里规划器选择了“物化”连接的 inner 关系,方法是在它的上方放了一个物化计划结点。这意味着t2
索引扫描将只被做一次,即使嵌套循环连接结点需要读取其数据十次(每个来自 outer 关系的行都要读一次)。物化结点在读取数据时将它保存在内存中,然后在每一次后续执行时从内存返回数据。
在处理外连接时,你可能会看到连接计划结点同时附加有“连接过滤器”和普通“过滤器”条件。连接过滤器条件来自于外连接的ON
子句,因此一个无法通过连接过滤器条件的行也能够作为一个空值扩展的行被发出。但是一个普通过滤器条件被应用在外连接条件之后并且因此无条件移除行。在一个内连接中这两种过滤器类型没有语义区别。
如果我们稍微改变查询的选择性,可能会得到一个非常不同的连接计划:
EXPLAIN SELECT * FROM tenk1 t1, tenk2 t2 WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2; QUERY PLAN ------------------------------------------------------------------------------------------ Hash Join (cost=226.23..709.73 rows=100 width=488) Hash Cond: (t2.unique2 = t1.unique2) -> Seq Scan on tenk2 t2 (cost=0.00..445.00 rows=10000 width=244) -> Hash (cost=224.98..224.98 rows=100 width=244) -> Bitmap Heap Scan on tenk1 t1 (cost=5.06..224.98 rows=100 width=244) Recheck Cond: (unique1 < 100) -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) Index Cond: (unique1 < 100)
这里规划器选择了使用一个哈希连接,在其中一个表的行被放入一个内存哈希表,在这之后其他表被扫描并且为每一行查找哈希表来寻找匹配。同样要注意缩进是如何反映计划结构的:tenk1
上的位图扫描是哈希结点的输入,哈希结点会构造哈希表。然后哈希表会返回给哈希连接结点,哈希连接结点将从它的 outer 子计划读取行,并为每一个行搜索哈希表。
另一种可能的连接类型是合并连接,示例如下:
EXPLAIN SELECT * FROM tenk1 t1, onek t2 WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2; QUERY PLAN ------------------------------------------------------------------------------------------ Merge Join (cost=0.56..233.49 rows=10 width=488) Merge Cond: (t1.unique2 = t2.unique2) -> Index Scan using tenk1_unique2 on tenk1 t1 (cost=0.29..643.28 rows=100 width=244) Filter: (unique1 < 100) -> Index Scan using onek_unique2 on onek t2 (cost=0.28..166.28 rows=1000 width=244)
合并连接要求其输入数据在连接键上已排序。在此示例中,每个输入都通过使用索引扫描 按正确顺序访问行来排序;但也可以使用顺序扫描和排序。(顺序扫描和排序通常在排序 大量行时优于索引扫描,因为索引扫描需要非顺序的磁盘访问。)
一种看待变体计划的方法是强制规划器忽略它认为最便宜的任何策略,使用 Section 19.7.1中描述的启用/禁用标志。 (这是一个粗糙的工具,但很有用。另见Section 14.3。) 例如,如果我们不确定合并连接是否是前面示例中最好的连接类型,我们可以尝试
SET enable_mergejoin = off; EXPLAIN SELECT * FROM tenk1 t1, onek t2 WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2; QUERY PLAN ------------------------------------------------------------------------------------------ Hash Join (cost=226.23..344.08 rows=10 width=488) Hash Cond: (t2.unique2 = t1.unique2) -> Seq Scan on onek t2 (cost=0.00..114.00 rows=1000 width=244) -> Hash (cost=224.98..224.98 rows=100 width=244) -> Bitmap Heap Scan on tenk1 t1 (cost=5.06..224.98 rows=100 width=244) Recheck Cond: (unique1 < 100) -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) Index Cond: (unique1 < 100)
这表明规划器认为哈希连接在这种情况下的成本比合并连接高出近50%。
当然,下一个问题是它是否正确。
我们可以使用EXPLAIN ANALYZE
来调查,如
下面所述。
一些查询计划涉及子计划,它们源自原始查询中的子
SELECT
。这类查询有时可以转换为普通的连接计划,但当无法
转换时,我们会得到如下计划:
EXPLAIN VERBOSE SELECT unique1 FROM tenk1 t WHERE t.ten < ALL (SELECT o.ten FROM onek o WHERE o.four = t.four); QUERY PLAN ------------------------------------------------------------------------- Seq Scan on public.tenk1 t (cost=0.00..586095.00 rows=5000 width=4) Output: t.unique1 Filter: (ALL (t.ten < (SubPlan 1).col1)) SubPlan 1 -> Seq Scan on public.onek o (cost=0.00..116.50 rows=250 width=4) Output: o.ten Filter: (o.four = t.four)
这个相当人为的例子用来说明几点:外层计划级别的值可以传递到子计划
(这里,t.four
被传递下去),且子查询的结果可供外层
计划使用。那些结果值由EXPLAIN
以类似
(
的标记显示,指的是子subplan_name
).colN
SELECT
的第N
个输出列。
在上面的示例中,ALL
操作符会对外部查询的每一行重新运行
子计划(这也是估算成本较高的原因)。有些查询可以使用哈希子计划
来避免这种情况:
EXPLAIN SELECT * FROM tenk1 t WHERE t.unique1 NOT IN (SELECT o.unique1 FROM onek o); QUERY PLAN -------------------------------------------------------------------------------------------- Seq Scan on tenk1 t (cost=61.77..531.77 rows=5000 width=244) Filter: (NOT (ANY (unique1 = (hashed SubPlan 1).col1))) SubPlan 1 -> Index Only Scan using onek_unique1 on onek o (cost=0.28..59.27 rows=1000 width=4) (4 rows)
这里,子计划只运行一次,其输出被加载到内存中的哈希表中,随后由外部的
ANY
操作符进行探测。这要求子SELECT
不能引用
外部查询的任何变量,并且ANY
的比较操作符必须适合哈希处理。
如果除了不引用外层查询的任何变量之外,子-SELECT
不能返回多于一行,
它也可以被实现为一个initplan:
EXPLAIN VERBOSE SELECT unique1 FROM tenk1 t1 WHERE t1.ten = (SELECT (random() * 10)::integer); QUERY PLAN -------------------------------------------------------------------- Seq Scan on public.tenk1 t1 (cost=0.02..470.02 rows=1000 width=4) Output: t1.unique1 Filter: (t1.ten = (InitPlan 1).col1) InitPlan 1 -> Result (cost=0.00..0.02 rows=1 width=4) Output: ((random() * '10'::double precision))::integer
一个initplan在外层计划的每次执行中只运行一次,其结果会被保存以便在外层计划的后续行中重用。
因此在这个例子中,random()
只被计算一次,所有的t1.ten
的值都
与同一个随机选择的整数进行比较。这与没有子-SELECT
结构时的情况大不相同。
EXPLAIN ANALYZE
#
可以通过使用EXPLAIN
的ANALYZE
选项来检查规划器估计的准确性。
使用此选项时,EXPLAIN
实际上会执行查询,然后显示每个计划节点中累积的真实行数和真实运行时间,
以及普通EXPLAIN
显示的相同估计值。例如,我们可能会得到如下结果:
EXPLAIN ANALYZE SELECT * FROM tenk1 t1, tenk2 t2 WHERE t1.unique1 < 10 AND t1.unique2 = t2.unique2; QUERY PLAN --------------------------------------------------------------------------------------------------------------------------------- Nested Loop (cost=4.65..118.50 rows=10 width=488) (actual time=0.017..0.051 rows=10 loops=1) -> Bitmap Heap Scan on tenk1 t1 (cost=4.36..39.38 rows=10 width=244) (actual time=0.009..0.017 rows=10 loops=1) Recheck Cond: (unique1 < 10) Heap Blocks: exact=10 -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..4.36 rows=10 width=0) (actual time=0.004..0.004 rows=10 loops=1) Index Cond: (unique1 < 10) -> Index Scan using tenk2_unique2 on tenk2 t2 (cost=0.29..7.90 rows=1 width=244) (actual time=0.003..0.003 rows=1 loops=10) Index Cond: (unique2 = t1.unique2) Planning Time: 0.485 ms Execution Time: 0.073 ms
注意,“actual time”的值是以毫秒为单位的真实时间,而cost
估计值是以任意单位表示的;
因此它们不太可能匹配。通常最重要的是查看估计的行数是否与实际情况相当接近。
在此示例中,估计值完全准确,但这在实际中相当罕见。
在某些查询计划中,子计划节点可能会被执行多次。例如,上述嵌套循环计划中,
内部索引扫描将针对外部的每一行执行一次。在这种情况下,loops
值
报告节点的总执行次数,显示的实际时间和行数值是每次执行的平均值。这样做是为了
使数字与成本估算的显示方式相匹配。将该值乘以loops
即可获得
节点实际花费的总时间。在上述示例中,我们总共花费了0.030毫秒执行tenk2
上的索引扫描。
在某些情况下,EXPLAIN ANALYZE
显示了除计划节点执行时间和行数之外的额外执行统计信息。
例如,Sort和Hash节点提供了额外的信息:
EXPLAIN ANALYZE SELECT * FROM tenk1 t1, tenk2 t2 WHERE t1.unique1 < 100 AND t1.unique2 = t2.unique2 ORDER BY t1.fivethous; QUERY PLAN -------------------------------------------------------------------------------------------------------------------------------------------- Sort (cost=713.05..713.30 rows=100 width=488) (actual time=2.995..3.002 rows=100 loops=1) Sort Key: t1.fivethous Sort Method: quicksort Memory: 74kB -> Hash Join (cost=226.23..709.73 rows=100 width=488) (actual time=0.515..2.920 rows=100 loops=1) Hash Cond: (t2.unique2 = t1.unique2) -> Seq Scan on tenk2 t2 (cost=0.00..445.00 rows=10000 width=244) (actual time=0.026..1.790 rows=10000 loops=1) -> Hash (cost=224.98..224.98 rows=100 width=244) (actual time=0.476..0.477 rows=100 loops=1) Buckets: 1024 Batches: 1 Memory Usage: 35kB -> Bitmap Heap Scan on tenk1 t1 (cost=5.06..224.98 rows=100 width=244) (actual time=0.030..0.450 rows=100 loops=1) Recheck Cond: (unique1 < 100) Heap Blocks: exact=90 -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) (actual time=0.013..0.013 rows=100 loops=1) Index Cond: (unique1 < 100) Planning Time: 0.187 ms Execution Time: 3.036 ms
Sort节点显示了所使用的排序方法(特别是排序是在内存中还是在磁盘上进行)以及所需的内存或磁盘空间量。 Hash节点显示了哈希桶和批次的数量,以及哈希表使用的峰值内存量。(如果批次数超过一个,也会涉及磁盘空间使用,但这未显示。)
另一种额外信息是由过滤条件移除的行数:
EXPLAIN ANALYZE SELECT * FROM tenk1 WHERE ten < 7; QUERY PLAN --------------------------------------------------------------------------------------------------------- Seq Scan on tenk1 (cost=0.00..470.00 rows=7000 width=244) (actual time=0.030..1.995 rows=7000 loops=1) Filter: (ten < 7) Rows Removed by Filter: 3000 Planning Time: 0.102 ms Execution Time: 2.145 ms
这些计数对于在连接节点上应用的过滤条件尤其有价值。“Rows Removed”行 仅在至少有一行被扫描,或者在连接节点的情况下有潜在连接对被过滤条件拒绝时出现。
一个类似于过滤条件的情况发生在“有损”索引扫描中。例如,考虑这个搜索包含特定点的多边形的查询:
EXPLAIN ANALYZE SELECT * FROM polygon_tbl WHERE f1 @> polygon '(0.5,2.0)'; QUERY PLAN ------------------------------------------------------------------------------------------------------ Seq Scan on polygon_tbl (cost=0.00..1.09 rows=1 width=85) (actual time=0.023..0.023 rows=0 loops=1) Filter: (f1 @> '((0.5,2))'::polygon) Rows Removed by Filter: 7 Planning Time: 0.039 ms Execution Time: 0.033 ms
规划器(相当正确地)认为这个示例表太小,不值得使用索引扫描,所以我们得到一个普通的顺序扫描, 其中所有行都被过滤条件拒绝了。但如果我们强制使用索引扫描,就会看到:
SET enable_seqscan TO off; EXPLAIN ANALYZE SELECT * FROM polygon_tbl WHERE f1 @> polygon '(0.5,2.0)'; QUERY PLAN -------------------------------------------------------------------------------------------------------------------------- Index Scan using gpolygonind on polygon_tbl (cost=0.13..8.15 rows=1 width=85) (actual time=0.074..0.074 rows=0 loops=1) Index Cond: (f1 @> '((0.5,2))'::polygon) Rows Removed by Index Recheck: 1 Planning Time: 0.039 ms Execution Time: 0.098 ms
这里我们可以看到索引返回了一个候选行,随后该行被索引条件的复查拒绝了。这是因为GiST索引对于 多边形包含测试是“有损”的:它实际上返回的是与目标重叠的多边形的行,然后我们必须对这些行 进行精确的包含测试。
EXPLAIN
有一个 BUFFERS
选项,可以与
ANALYZE
一起使用,以获取更多的运行时统计信息:
EXPLAIN (ANALYZE, BUFFERS) SELECT * FROM tenk1 WHERE unique1 < 100 AND unique2 > 9000; 查询计划 --------------------------------------------------------------------------------------------------------------------------------- Bitmap Heap Scan on tenk1 (cost=25.07..60.11 rows=10 width=244) (actual time=0.105..0.114 rows=10 loops=1) 重新检查条件: ((unique1 < 100) AND (unique2 > 9000)) 堆块: 精确=10 缓冲区: 共享命中=14 读取=3 -> BitmapAnd (cost=25.07..25.07 rows=10 width=0) (actual time=0.100..0.101 rows=0 loops=1) 缓冲区: 共享命中=4 读取=3 -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) (actual time=0.027..0.027 rows=100 loops=1) 索引条件: (unique1 < 100) 缓冲区: 共享命中=2 -> Bitmap Index Scan on tenk1_unique2 (cost=0.00..19.78 rows=999 width=0) (actual time=0.070..0.070 rows=999 loops=1) 索引条件: (unique2 > 9000) 缓冲区: 共享命中=2 读取=3 规划: 缓冲区: 共享命中=3 规划时间: 0.162 毫秒 执行时间: 0.143 毫秒
BUFFERS
提供的数字有助于识别查询中哪些部分是最耗 I/O 的。
请记住,因为EXPLAIN ANALYZE
实际上会执行查询,任何副作用都会照常发生,
即使查询可能输出的结果会被丢弃,而改为打印EXPLAIN
数据。如果您想分析一个
修改数据的查询而不更改表,可以在之后回滚该命令,例如:
BEGIN; EXPLAIN ANALYZE UPDATE tenk1 SET hundred = hundred + 1 WHERE unique1 < 100; QUERY PLAN -------------------------------------------------------------------------------------------------------------------------------- Update on tenk1 (cost=5.06..225.23 rows=0 width=0) (actual time=1.634..1.635 rows=0 loops=1) -> Bitmap Heap Scan on tenk1 (cost=5.06..225.23 rows=100 width=10) (actual time=0.065..0.141 rows=100 loops=1) Recheck Cond: (unique1 < 100) Heap Blocks: exact=90 -> Bitmap Index Scan on tenk1_unique1 (cost=0.00..5.04 rows=100 width=0) (actual time=0.031..0.031 rows=100 loops=1) Index Cond: (unique1 < 100) Planning Time: 0.151 ms Execution Time: 1.856 ms ROLLBACK;
如本例所示,当查询是INSERT
、UPDATE
、
DELETE
或MERGE
命令时,应用表更改的实际工作
是由顶层的Insert、Update、Delete或Merge计划节点完成的。在这个节点下面的计划节点
执行定位旧行和/或计算新数据的工作。因此,在上面,我们看到了已经看过的相同类型的
位图表扫描,其输出被传递给一个存储更新行的Update节点。值得注意的是,虽然修改数据
的节点可能需要相当长的运行时间(这里,它占用了大部分时间),但规划器目前不会为此
工作添加任何成本估算。这是因为要执行的工作对于每个正确的查询计划都是相同的,
因此它不会影响规划决策。
当一个 UPDATE
、DELETE
或
MERGE
命令影响一个分区表或继承层次结构时,
输出可能如下所示:
EXPLAIN UPDATE gtest_parent SET f1 = CURRENT_DATE WHERE f2 = 101; QUERY PLAN ---------------------------------------------------------------------------------------- Update on gtest_parent (cost=0.00..3.06 rows=0 width=0) Update on gtest_child gtest_parent_1 Update on gtest_child2 gtest_parent_2 Update on gtest_child3 gtest_parent_3 -> Append (cost=0.00..3.06 rows=3 width=14) -> Seq Scan on gtest_child gtest_parent_1 (cost=0.00..1.01 rows=1 width=14) Filter: (f2 = 101) -> Seq Scan on gtest_child2 gtest_parent_2 (cost=0.00..1.01 rows=1 width=14) Filter: (f2 = 101) -> Seq Scan on gtest_child3 gtest_parent_3 (cost=0.00..1.01 rows=1 width=14) Filter: (f2 = 101)
在此示例中,Update 节点需要考虑三个子表,但不包括最初提到的分区表 (因为它从不存储任何数据)。因此,有三个输入扫描子计划,每个表一个。 为了清晰起见,Update 节点被注释以显示将被更新的具体目标表,顺序与相应的 子计划相同。
EXPLAIN ANALYZE
显示的
Planning time
是从一个已解析的查询生成查询计划并进行优化
所花费的时间,其中不包括解析和重写。
EXPLAIN ANALYZE
显示的Execution time
包括执行器的启动和关闭时间,以及运行被触发的任何触发器的时间,但是它不包括解析、重写或规划的时间。如果有花在执行BEFORE
执行器的时间,它将被包括在相关的插入、更新或删除结点的时间内;但是用来执行AFTER
触发器的时间没有被计算,因为AFTER
触发器是在整个计划完成后被触发的。在每个触发器(BEFORE
或AFTER
)也被独立地显示。注意延迟约束触发器将不会被执行,直到事务结束,并且因此根本不会被EXPLAIN ANALYZE
考虑。
顶层节点显示的时间不包括将查询的输出数据转换为可显示形式或发送给客户端所需的任何时间。
虽然EXPLAIN ANALYZE
永远不会将数据发送给客户端,但可以通过指定SERIALIZE
选项,
告诉它将查询的输出数据转换为可显示形式并测量所需时间。该时间将单独显示,
并且也包含在总的Execution time
中。
由EXPLAIN ANALYZE
测量的运行时间与同一查询的正常执行时间存在两种显著的偏差。
首先,由于没有输出行传送给客户端,网络传输成本未被计入。除非指定了SERIALIZE
,否则
也不包括I/O转换成本。其次,EXPLAIN ANALYZE
增加的测量开销可能很大,尤其是在
具有较慢gettimeofday()
操作系统调用的机器上。您可以使用pg_test_timing
工具来测量系统上的计时开销。
EXPLAIN
结果不应该被外推到与你实际测试的非常不同的情况。例如,一个很小的表上的结果不能被假定成适合大型表。规划器的开销估计不是线性的,并且因此它可能为一个更大或更小的表选择一个不同的计划。一个极端例子是,在一个只占据一个磁盘页面的表上,你将几乎总是得到一个顺序扫描计划,而不管索引是否可用。规划器认识到它在任何情况下都将采用一次磁盘页面读取来处理该表,因此用额外的页面读取去查看一个索引是没有价值的(我们已经在前面的polygon_tbl
例子中见过)。
有些情况下,实际值和估计值不会很好地匹配,但实际上并没有什么问题。
其中一种情况是当计划节点执行被 LIMIT
或类似效果提前终止时。
例如,在我们之前使用的 LIMIT
查询中,
EXPLAIN ANALYZE SELECT * FROM tenk1 WHERE unique1 < 100 AND unique2 > 9000 LIMIT 2; QUERY PLAN ------------------------------------------------------------------------------------------------------------------------------- Limit (cost=0.29..14.33 rows=2 width=244) (actual time=0.051..0.071 rows=2 loops=1) -> Index Scan using tenk1_unique2 on tenk1 (cost=0.29..70.50 rows=10 width=244) (actual time=0.051..0.070 rows=2 loops=1) Index Cond: (unique2 > 9000) Filter: (unique1 < 100) Rows Removed by Filter: 287 Planning Time: 0.077 ms Execution Time: 0.086 ms
Index Scan 节点的估计成本和行数显示为好像它已经执行完成。 但实际上 Limit 节点在获取两行后就停止请求,因此实际行数只有 2, 运行时间也比成本估计所示的要短。这不是估计错误,只是估计值和真实值 显示方式上的差异。
归并连接也有类似的现象。如果一个归并连接用尽了一个输入并且其中的最后一个键值小于另一个输入中的下一个键值,它将停止读取另一个输入。在这种情况下,不会有更多的匹配并且因此不需要扫描第二个输入的剩余部分。这会导致不读取一个子结点的所有内容,其结果就像在LIMIT
中所提到的。另外,如果 outer (第一个)子结点包含带有重复键值的行,inner(第二个)子结点会被倒退并且被重新扫描来找能匹配那个键值的行。EXPLAIN ANALYZE
会统计相同 inner 行的重复发出,就好像它们是真实的额外行。当有很多 outer 重复时,对 inner 子计划结点所报告的实际行计数会显著地大于实际在 inner 关系中的行数。
由于实现的限制,BitmapAnd 和 BitmapOr 结点总是报告它们的实际行计数为零。
通常,EXPLAIN
将显示规划器生成的每个计划节点。
但是,在某些情况下,执行器可以不执行某些节点,因为根据规划时不可用的参数值能确定这些节点无法产生任何行。
(当前,这仅会在扫描分区表的Append或MergeAppend节点的子节点中发生。)
发生这种情况时,将从EXPLAIN
输出中省略这些计划节点,并显示Subplans Removed:
的标识。
N