天天看点

《循序渐进Oracle:数据库管理、优化与备份恢复》一一1.5 案例与实践分析 

本节书摘来自异步社区出版社《循序渐进oracle:数据库管理、优化与备份恢复》一书中的第1章,第1.5节,作者:盖国强,更多章节内容可以访问云栖社区“异步社区”公众号查看。

在本节中,我将与本章有关的一些案例诊断、故障分析收录于此,供读者参考。

在数据库创建中所提到的“预防性指导报告”就包括空间指导报告,这一定时任务在很多客户系统中带来了极大的麻烦。

在以下客户的sap系统中,某个高负载的时段,数据库就遇到了dbms_scheduler任务的一个bug,其数据库版本为10.2.0.2。

在sql ordered by elapsed time的采样中,top 6都是dbms_scheduler调度的任务,而且耗时显著,如图1-28所示。

《循序渐进Oracle:数据库管理、优化与备份恢复》一一1.5 案例与实践分析 

处在第一位的,是auto_space_advisor_job_proc过程调用,cpu time消耗高达4226秒:

执行花费了大量的时间,3000多秒,进而执行的sql:

也花费了2514秒的时间,这显然是不正常的。在正常情况下,单独跟踪一下sql*plus中手工执行这个过程,可以获得这个sql的执行统计信息,跟踪过程可能如下:

格式化跟踪文件,获得以下输出,如图1-29所图片 1

图1-29 输出信息

示。

《循序渐进Oracle:数据库管理、优化与备份恢复》一一1.5 案例与实践分析 

注意到,这个insert仍然消耗了389秒的时间,逻辑读429 297,性能是存在问题的。在metalink上存在如下一个bug:

**

bug 5376783: dbms_space.object_growth_trend call takes a lot of disk reads**

这个bug在dbms_space.object_growth_trend进行空间分析时被触发,根本原因在于内部算法在执行空间检查时,耗费了大量的评估io成本,导致了大量的io资源使用。

临时的处理办法是,暂时关闭这个自动任务:

execute dbms_scheduler.disable('auto_space_advisor_job');

这个bug在10.2.0.2之后的版本中被修正。

既然oracle的缺省定时任务可能会带来如此多的问题,我们就很有必要去关注一下系统有哪些缺省的任务,执行情况如何。以下是一个10.2.0.5版本的数据库中一些自动任务的调度设置情况:

在以上的调度任务中,gather_stats_job是oracle database 10g开始引入的自动统计信息收集的任务,该任务缺省的调度是,工作日每晚22:00至凌晨6:00进行分析,周末全天进行分析。在以下输出中,我们可以看到任务无法完成,stop的情况:

在一些大型数据库中,这个任务不一定能够有效执行,以下是某用户的数据库环境,输出显示,多日数据库都因为ora-04031错误未能完成统计信息收集采样:

在gather_stats_job任务不能够有效地执行时,我们必须及时地介入去手工处理,不及时地统计信息可能使数据库产生错误的执行计划。

正常的auto_space_advisor_job调度可能应该有着类似以下输出的执行结果:

在oracle数据库的运行过程中,可能会因为一些异常遇到数据库挂起失去响应的状况,在这种状况下,我们可以通过对系统状态进行转储,获得跟踪文件进行数据库问题分析;很多时候数据库也会自动转储出现问题的进程或系统信息;这些转储信息成为我们分析故障、排查问题的重要依据。

在一次客户现场培训中,客户提出一个系统正遇到问题,请求我协助诊断解决,理论联系实践,这是我在培训中极力主张的,我们的案例式培训业正好遇到了实践现场。

问题是这样的:此前一个job任务可以在秒级完成,而现在运行了数小时也无法结束,一直挂起在数据库中,杀掉进程重新手工执行,尝试多次,同样无法完成。

客户的数据库环境为:

介入问题诊断首先需要收集数据,我最关注两方面的信息:

boll 告警日志文件,检查是否出现过异常;

boll 生成awr报告,检查数据库内部的运行状况。

通常有了这两部分信息,我们就可以做出初步判断了。

检查数据库的告警日志文件,我们发现其中出现过一个如下错误:

这个错误提示出现在7点左右,正是job的调度时间附近,显然这是一个高度相关的可能原因。这个异常生成了转储的dump文件,获得该文件进行进一步的详细分析。该文件的头部信息如下:

row cache队列锁无法获得,表明数据库在sql解析时,遇到问题,dc层面出现竞争,导致超时。row cache位于shared pool中的data dictionary cache,是用于存储表列定义、权限等相关信息的。

注意以上信息中的重要内容如下。

boll 超时告警的时间是06:54: 2010-03-27 06:54:00.106。

boll 出现等待超时的数据库进程号是29:oracle process number: 29。

boll 等待超时的29号进程的os进程号为8317:unix process pid: 8371。

boll 进程时通过sqlplus调度执行的:module name:(sqlplus)。

boll 会话的id、serial#信息为120.46138:session id:(120.46138)。

boll 进程的state object为6c10508e8:row cache enqueue: session: 6c10508e8。

boll 队列锁的请求模式为共享(s):mode: n, request: s。

有了这些重要的信息,我们就可以开始一些基本的分析。

首先可以在跟踪文件中找到29号进程,查看其中的相关信息。经过检查可以发现这些内容与跟踪文件完全相符合:

进一步向下检查可以找到so对象6c10508e8,这里显示该进程确实由客户端的sql*plus发起,并且客户端的主机名称及进程的ospid都记录在案:

接下来的信息显示,进程一直在等待,等待事件为'ksdxexeotherwait':

在这个进程跟踪信息的最后部分,有如下一个so对象继承关系列表,注意这里的owner具有级联关系,下一层隶属于上一层的owner,第一个so对象的owner 6c1006740就是process 29的so号。

到了最后一个级别的so 4e86f03e8上,请求出现阻塞。

row cache enqueue有一个(count=1)共享模式(request=s)的请求被阻塞:

回过头去对比一下跟踪文件最初的信息,注意这里的session信息正是跟踪文件头上列出的session信息:

至此我们找到了出现问题的根源,这里也显示请求的对象是object=4f4e57138。

跟踪文件向下显示了更进一步的信息,地址为4f4e57138的row cache parent object紧跟着之前的信息显示出来,跟踪信息同时显示是在dc_objects层面出现的问题。

跟踪信息显示对象的锁定模式为排他锁定(mode=x)。图1-30是跟踪文件的截取,我们可以看到oracle的记录方式:

《循序渐进Oracle:数据库管理、优化与备份恢复》一一1.5 案例与实践分析 

进一步的,跟踪文件里也显示了29号进程执行的sql为insert操作:

好了,那么现在我们来看看是哪一个进程排他的锁定了之前的4f4e57138对象。在跟踪文件中搜索4f4e57138就可以很容易地找到这个持有排他锁定的so对象。

以下显示了相关信息,row cache对象的信息在此同样有所显示:

 <code>`</code>javascript

so: 4e86f0508, type: 50, owner: 8c183c258, flag: init/-/-/0x00

    row cache enqueue: count=1 session=8c005d7c8 object=4f4e57138, mode=x

    savepoint=0x2716

    row cache parent object: address=4f4e57138 cid=8(dc_objects)

    hash=b363a728 typ=11 transaction=8c183c258 flags=00000002

    own=4f4e57208[4e86f0538,4e86f0538] wat=4f4e57218[4e86f0418,4e86f0418] mode=x

    status=valid/-/-/-/-/-/-/-/-

    set=0, complete=false

    data=

    00000038 00134944 585f4341 43495f49 4e565f42 4c425f44 43000000 00000000 

    00000000 04000009 505f3230 31305f51 31000000 00000000 00000000 00000000 

    00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 

    00000000 00000000 00000000 000209ca ffff0000 000209ca 14786e01 020e3239 

    786e0102 0e323978 6e01020e 32390100 00000000 00000000 00000000 00000000 

    00000000 00000006

process 16:

 ----------------------------------------

 so: 8c00037d0, type: 2, owner: 0, flag: init/-/-/0x00

 (process) oracle pid=16, calls cur/top: 8c0095028/8c0094aa8, flag: (0) -

     int error: 0, call error: 0, sess error: 0, txn error 0

 (post info) last post received: 115 0 4

      last post received-location: kslpsr

      last process to post me: 6c1002800 1 6

      last post sent: 0 0 24

      last post sent-location: ksasnd

      last process posted by me: 6c1002800 1 6

  (latch info) wait_event=0 bits=0

  process group: default, pseudo proc: 4f818c298

  o/s info: user: oracle, term: unknown, ospid: 8200

  osd pid info: unix process pid: 8200, image: oracle@sf2900 (j000)

在这里可以看到16号进程是一个job进程,其进程为j000,那么这个job进程在执行什么操作呢?下面的信息可以看出一些端倪,job由dbms_scheduler调度,执行auto_space_advisor_job任务,处于wait for shrink lock等待:

job slave state object

slave id: 0, job id: 8913

  ----------------------------------------

  so: 8c005d7c8, type: 4, owner: 8c00037d0, flag: init/-/-/0x00

  (session) sid: 45 trans: 8c183c258, creator: 8c00037d0, flag: (48100041) usr/- bsy/-/-/-/-/-

      did: 0001-0010-0007bfa6, short-term did: 0000-0000-00000000

      txn branch: 0

      oct: 0, prv: 0, sql: 0, psql: 0, user: 0/sys

  o/s info: user: oracle, term: unknown, ospid: 8200, machine: sf2900

      program: oracle@sf2900 (j000)

  application name: dbms_scheduler, hash value=2478762354

  action name: auto_space_advisor_job, hash value=348111556

  waiting for 'wait for shrink lock' blocking sess=0x0 seq=5909 wait_time=0 seconds since wait started=3101

       object_id=0, lock_mode=0, =0

  dumping session wait history

   for 'wait for shrink lock' count=1 wait_time=380596

   for 'wait for shrink lock' count=1 wait_time=107262

   for 'wait for shrink lock' count=1 wait_time=107263

   for 'wait for shrink lock' count=1 wait_time=107246

   for 'wait for shrink lock' count=1 wait_time=107139

   for 'wait for shrink lock' count=1 wait_time=107248

   for 'wait for shrink lock' count=1 wait_time=107003

   for 'wait for shrink lock' count=1 wait_time=107169

   for 'wait for shrink lock' count=1 wait_time=107233

   for 'wait for shrink lock' count=1 wait_time=107069

  temporary object counter: 3

so: 4e8a2c6c0, type: 53, owner: 8c005d7c8, flag: init/-/-/0x00

library object lock: lock=4e8a2c6c0 handle=4c3c1ce60 mode=n

call pin=0 session pin=0 hpc=0000 hlc=0000

htl=4e8a2c740[4e81436e0,4e8c80c98] htb=4e8937910 ssga=4e8936e48

user=8c005d7c8 session=8c005d7c8 count=1 flags=[0000] savepoint=0x4bad2eec

library object handle: handle=4c3c1ce60 mtx=4c3c1cf90(1) cdp=1

name=alter index "caci"."idx_caci_inv_blb_dc" modify partition "p_2010_q1" shrink space check 

hash=0ed1a6f7b2cf775661d314b8d1b7659b timestamp=03-25-2010 22:05:09

namespace=crsr flags=ron/kghp/tim/pn0/med/kst/dbn/mtx/[500100d0]

kkkk-dddd-llll=0000-0001-0001 lock=n pin=0 latch#=15 hpc=0002 hlc=0002

lwt=4c3c1cf08[4c3c1cf08,4c3c1cf08] ltm=4c3c1cf18[4c3c1cf18,4c3c1cf18]

pwt=4c3c1ced0[4c3c1ced0,4c3c1ced0] ptm=4c3c1cee0[4c3c1cee0,4c3c1cee0]

ref=4c3c1cf38[4c3c1cf38,4c3c1cf38] lnd=4c3c1cf50[4c3c1cf50,4c3c1cf50]

 library object: object=4aa2bf668

 type=crsr flags=exs[0001] pflags=[0000] status=vald load=0

 children: size=16

 child#  table reference  handle

 ------ -------- --------- --------

    0 49efa3fe8 49efa3c58 4c3ad91a8

    1 49efa3fe8 49efa3ed8 4c3941608

 data blocks:

 data#   heap pointer  status pins change whr

 ----- -------- -------- --------- ---- ------ ---

   0 4c3589b38 4aa2bf780 i/p/a/-/-  0 none  00