在线精品99_中国九九盗摄偷拍偷看_91免费版在线观看_91.app_91高清视频在线_99热最新网站

Oracle 12c集群启动故障该怎么办

111次阅读
没有评论

共计 7012 个字符,预计需要花费 18 分钟才能阅读完成。

Oracle 12c 集群启动故障该怎么办,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面丸趣 TV 小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。

由于维护人员修改  OracleLinux 7 中的 /dev/shm 大小造成其大小小于 Oracle 实例的 MEMORY_TARGET 或者 SGA_TARGET 而导致集群不能启动 (CRS-4535,CRS-4000) 
[grid@jtp1 ~]$ crsctl stat res -t
CRS-4535: Cannot communicate with Cluster Ready Services
CRS-4000: Command Status failed, or completed with errors.

检查 asm 磁盘的权限是否有问题
[root@jtp3 ~]# ls -lrt /dev/asm*

重启 crs 
[root@jtp1 bin]# ./crsctl stop crs -f

[root@jtp1 bin]# ./crsctl start crs
CRS-4123: Oracle High Availability Services has been started.

查看 crs 的 alert.log 发现磁盘组不能加载  
[root@jtp1 ~]# tail -f /u01/app/grid/diag/crs/jtp1/crs/trace/alert.log
locations are on ASM disk groups [CRS], and none of these disk groups are mounted
继续查看  ohasd_orarootagent_root.trc

[root@jtp1 ~]# more /u01/app/grid/diag/crs/jtp1/crs/trace/ohasd_orarootagent_root.trc
Trace file /u01/app/grid/diag/crs/jtp1/crs/trace/ohasd_orarootagent_root.trc
Oracle Database 12c Clusterware Release 12.2.0.1.0 – Production Copyright 1996, 2016 Oracle. All rights reserved.

*** TRACE CONTINUED FROM FILE /u01/app/grid/diag/crs/jtp1/crs/trace/ohasd_orarootagent_root_93.trc ***

2018-04-02 18:42:09.165 : CSSCLNT:3554666240: clsssterm: terminating context (0x7f03c0229390)
2018-04-02 18:42:09.165 : default:3554666240: clsCredDomClose: Credctx deleted 0x7f03c0459470
2018-04-02 18:42:09.166 :    GPNP:3554666240: clsgpnp_dbmsGetItem_profile: [at clsgpnp_dbms.c:399] Result: (0) CLSGPNP_OK. (:GPNP00401:)got ASM-Profile.Mode= remote
2018-04-02 18:42:09.253 : CSSCLNT:3554666240: clsssinit: initialized context: (0x7f03c045c2c0) flags 0x115
2018-04-02 18:42:09.253 : CSSCLNT:3554666240: clsssterm: terminating context (0x7f03c045c2c0)
2018-04-02 18:42:09.254 :  CLSNS:3554666240: clsns_SetTraceLevel:trace level set to 1.
2018-04-02 18:42:09.254 :    GPNP:3554666240: clsgpnp_dbmsGetItem_profile: [at clsgpnp_dbms.c:399] Result: (0) CLSGPNP_OK. (:GPNP00401:)got ASM-Profile.Mode= remote
2018-04-02 18:42:09.257 : default:3554666240: Inited LSF context: 0x7f03c04f0420
2018-04-02 18:42:09.260 : CLSCRED:3554666240: clsCredCommonInit: Inited singleton credctx.
2018-04-02 18:42:09.260 : CLSCRED:3554666240: (:CLSCRED0101:)clsCredDomInitRootDom: Using user given storage context for repository access.
2018-04-02 18:42:09.294 : USRTHRD:3554666240: {0:9:3} 8033 Error 4 querying length of attr ASM_DISCOVERY_ADDRESS

2018-04-02 18:42:09.300 : USRTHRD:3554666240: {0:9:3} 8033 Error 4 querying length of attr ASM_DISCOVERY_ADDRESS

2018-04-02 18:42:09.356 : CLSCRED:3554666240: (:CLSCRED1079:)clsCredOcrKeyExists: Obj dom : SYSTEM.credentials.domains.root.ASM.Self.5c82286a084bcf37ffa014144074e5dd.root not found
2018-04-02 18:42:09.356 : USRTHRD:3554666240: {0:9:3} 7755 Error 4 opening dom root in 0x7f03c064c980

检查 ASM 的 alert.log 发现 /dev/shm 大小小于 MEMORY_TARGET 大小,并且给出了 /dev/shm 应该被设置的最小值  
[root@jtp1 ~]# tail -f /u01/app/grid/diag/asm/+asm/+ASM1/trace/alert_+ASM1.log
WARNING: ASM does not support ipclw. Switching to skgxp
WARNING: ASM does not support ipclw. Switching to skgxp
WARNING: ASM does not support ipclw. Switching to skgxp
* instance_number obtained from CSS = 1, checking for the existence of node 0…
* node 0 does not exist. instance_number = 1
Starting ORACLE instance (normal) (OS id: 9343)
2018-04-02T18:31:00.187055+08:00
CLI notifier numLatches:7 maxDescs:2301
2018-04-02T18:31:00.193961+08:00
WARNING: You are trying to use the MEMORY_TARGET feature. This feature requires the /dev/shm file system to be mounted for at least 1140850688 bytes. /dev/shm is either not mounted or is mounted with available space less than this size. Please fix this so that MEMORY_TARGET can work as expected. Current available is 1073573888 and used is 167936 bytes. Ensure that the mount point is /dev/shm for this directory.

修改 /dev/shm 的大小可以通过修改 /etc/fstab 来实现,将 /dev/shm 的大小修改为 12G 
[root@jtp1 bin]# df -h
Filesystem          Size  Used Avail Use% Mounted on
/dev/mapper/ol-root  49G  42G  7.9G  85% /
devtmpfs              12G  28K  12G  1% /dev
tmpfs                1.0G  164K  1.0G  1% /dev/shm
tmpfs                1.0G  9.3M 1015M  1% /run
tmpfs                1.0G    0  1.0G  0% /sys/fs/cgroup
/dev/sda1          1014M  141M  874M  14% /boot
[root@jtp1 bin]# vi /etc/fstab

#
# /etc/fstab
# Created by anaconda on Sat Mar 18 15:27:13 2017
#
# Accessible filesystems, by reference, are maintained under /dev/disk
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/ol-root    /                      xfs    defaults        0 0
UUID=ca5854cd-0125-4954-a5c4-1ac42c9a0f70 /boot                  xfs    defaults        0 0
/dev/mapper/ol-swap    swap                    swap    defaults        0 0

tmpfs                  /dev/shm                tmpfs  defaults,size=12G        0 0
tmpfs                  /run                    tmpfs  defaults,size=12G        0 0
tmpfs                  /sys/fs/cgroup          tmpfs  defaults,size=12G        0 0

重启集群后,再次检查集群资源状态恢复正常  
——————————————————————————–
[grid@jtp1 ~]$ crsctl stat res -t
——————————————————————————–
Name          Target  State        Server                  State details
——————————————————————————–
Local Resources
——————————————————————————–
ora.ASMNET1LSNR_ASM.lsnr
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.CRS.dg
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.DATA.dg
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.FRA.dg
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.LISTENER.lsnr
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.TEST.dg
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.chad
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.net1.network
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.ons
              ONLINE  ONLINE      jtp1                  STABLE
              ONLINE  ONLINE      jtp2                  STABLE
ora.proxy_advm
              OFFLINE OFFLINE      jtp1                  STABLE
              OFFLINE OFFLINE      jtp2                  STABLE
——————————————————————————–
Cluster Resources
——————————————————————————–
ora.LISTENER_SCAN1.lsnr
      1        ONLINE  ONLINE      jtp1                  STABLE
ora.LISTENER_SCAN2.lsnr
      1        ONLINE  ONLINE      jtp2                  STABLE
ora.LISTENER_SCAN3.lsnr
      1        ONLINE  ONLINE      jtp2                  STABLE
ora.MGMTLSNR
      1        ONLINE  ONLINE      jtp2                  169.254.237.250 88.8
                                                            8.88.2,STABLE
ora.asm
      1        ONLINE  ONLINE      jtp1                  Started,STABLE
      2        ONLINE  ONLINE      jtp2                  Started,STABLE
      3        OFFLINE OFFLINE                              STABLE
ora.cvu
      1        ONLINE  ONLINE      jtp2                  STABLE
ora.jy.db
      1        ONLINE  OFFLINE                              STABLE
      2        ONLINE  OFFLINE                              STABLE
ora.jtp1.vip
      1        ONLINE  ONLINE      jtp1                  STABLE
ora.jtp2.vip
      1        ONLINE  ONLINE      jtp2                  STABLE
ora.mgmtdb
      1        ONLINE  ONLINE      jtp2                  Open,STABLE
ora.qosmserver
      1        ONLINE  ONLINE      jtp2                  STABLE
ora.scan1.vip
      1        ONLINE  ONLINE      jtp1                  STABLE
ora.scan2.vip
      1        ONLINE  ONLINE      jtp2                  STABLE
ora.scan3.vip
      1        ONLINE  ONLINE      jtp2                  STABLE
——————————————————————————–

到此集群恢复正常

看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注丸趣 TV 行业资讯频道,感谢您对丸趣 TV 的支持。

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-07-17发表,共计7012字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)
主站蜘蛛池模板: 性一交一乱一透一a级 | 国产精品国产三级国产无毒 | 99久久免费只有精品国产 | 日本亲近相奷中文字幕 | 亚洲巨乳自拍在线视频 | 天天爱综合网 | 一级毛片在线 | 亚洲无av码一区二区三区 | 欧美在线国产 | 天天草天天草 | 日韩欧美一二区 | 天天射天天操天天干 | 亚洲综合一区国产精品 | 国产九九热视频 | 国产三级精品三级男人的天堂 | 一级毛片看一个 | 国产激情з∠视频一区二区 | 中文字幕成人免费视频 | 77yyzz男人的天堂 | 韩国18福利视频免费观看 | 狠狠操狠狠 | 一级黄色片aaa | 五月桃花网婷婷亚洲综合 | 在线观看成人免费 | 久久精品aⅴ无码中文字字幕 | 国产成人香蕉在线视频fuz | 亚欧毛片| 国产70老熟女重口小伙子 | 日韩欧美国产亚洲 | 亚洲欧美日韩中文字幕在线一区 | 亚洲真人无码永久在线 | 国产在线拍偷自揄拍无码 | 亚洲国产精品一区二区首页 | 精品啪啪| 日不卡在线 | 日韩欧美国内 | 亚洲欧美日韩成人高清在线一区 | 日韩精品久久无码中文字幕 | 精品国产一区二区 | 老司机精品视频个人在观看 | 韩国主播vip福利视频在线播放 |