« 上野毛デザイン展「多次元 -MULTIPLE DIMENSIONS- 」 | トップページ | Mac De Oracle - 10万円 de RAC #30 »

2007年2月 8日 (木)

Mac De Oracle - 10万円 de RAC #29

10万円 de RACのつづき。Oracle10g Clusterwareのインストール。

  1. ハードウェアの価格構成
  2. Linux (CentOS 4.4)のインストール
  3. ネットワークの構成
  4. Openfilerのインストール
  5. OpenfilerによるiSCSIボリュームの構成
  6. Oracle RACノードでのiSCSIボリュームの構成 その1。 その2
  7. Oracle所有者と関連ディレクトリの作成及び環境変数の設定
  8. Oracle向けLinuxサーバーの構成(カーネルパラメータの設定)
  9. hangcheck-timerカーネル・モジュールの構成
  10. Oracle RACノード間リモートアクセスの構成
  11. Oracle RACノード構成ファイルの確認
  12. Oracle Cluster File System (OCFS2)のインストール及び構成 その1/その2/その3
  13. Oracle Automatic Storage Management(ASMLib 2.0)のインストール及び構成
  14. Oracle 10gソフトウェアのダウンロード
  15. Oracle10g R2インストール事前作業 その1/その2/その3/その4
  16. Oracle10g Clusterwareのインストール
  17. Oracle10g R2 Database softwareのインストール
  18. Oracle10g R2 Companion CD softwareのインストール
  19. TNS Listenerの構成
  20. Oracle Cluster databaseの作成
  21. Oracle Net Serviceの確認
  22. 表領域の作成と変更
  23. Oralce RAC ClusterとDatabase構成の確認
  24. Clusterの開始と停止の確認
  25. 簡単なTransparent Application Failover (TAF)の確認
  26. PowerBook G4のJDeveloper10g/SQL Developer/SQL*Plusなどからの接続確認(Mac De Oracleではお約束!なので)
注)
MacOSX 10.4.8(PowerPC)へのOracle10g clientインストールは特に新しいネタでもないので記事として書く予定はないが、MacOSX 10.4.8(PowerPC)のJDeveloper10g、SQL DeveloperやSQL*Plusからの接続確認等の記録は載せる予定である。



今回は、Oracle10g Clusterwareのインストール

尚、手順などは、OTN USの元ネタ「20. Install Oracle 10g Clusterware Software」と同じなので、そちらも参照のこと。

OUIは、Oracle RACを構成する1ノードで起動すればよい。下記例は、discus1で実行したもの。

前のステップで作成したOracle Cluster File Systemに Oracle Clusterwareが利用する2つの共有ファイル(ファイルグループ)を作成する。

1つは、Oracle Cluster Registry (OCR)というCRS及び、Oracle Databaseが利用するレジストリファイル、
もう一つは、CRS Voting Diskというスプリット・ブレイン発生時に生き残るサブクラスタを決めるために利用されるファイルである。

Oracle Clusterwareなどの詳細は、マニュアル「Oracle Database Oracle ClusterwareおよびOracle Real Application Clusters管理およびデプロイメント・ガイド 10g リリース2(10.2)」を参照されたい。


OUIを起動してOracle Clusterwareのインストール。
画面数がそれなりに多いので画面のスナップショットではなく、QucikTimeムービーで!。

(再生にはQuickTimeが必要です。)

rac_de_oracle


orainstRoot.shとroot.shをOracle RACを構成する全ノードで実施しろというダイアログが表示されるので、それに従い各ノードで実行する。

[root@discus1 ˜]# /u01/app/oracle/oraInventory/orainstRoot.sh
Changing permissions of /u01/app/oracle/oraInventory to 770.
Changing groupname of /u01/app/oracle/oraInventory to dba.
The execution of the script is complete
[root@discus1 ˜]# ssh discus2
root@discus2's password:
Last login: Mon Jan 8 14:33:54 2007 from discus1.macdeoracle.jp
[root@discus2 ˜]# /u01/app/oracle/oraInventory/orainstRoot.sh
Changing permissions of /u01/app/oracle/oraInventory to 770.
Changing groupname of /u01/app/oracle/oraInventory to dba.
The execution of the script is complete
[root@discus2 ˜]# exit
logout

Connection to discus2 closed.
[root@discus1 ˜]#
[root@discus1 ˜]# /u01/app/oracle/product/crs/root.sh
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
Checking to see if Oracle CRS stack is already configured
/etc/oracle does not exist. Creating it now.

Setting the permissions on OCR backup directory
Setting up NS directories
Oracle Cluster Registry configuration upgraded successfully
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
assigning default hostname discus1 for node 1.
assigning default hostname discus2 for node 2.
Successfully accumulated necessary OCR keys.
Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.
node <nodenumber>: <nodename> <private interconnect name> <hostname>
node 1: discus1 discus1-priv discus1
node 2: discus2 discus2-priv discus2
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
Now formatting voting device: /u02/oradata/orcl/CSSFile
Now formatting voting device: /u02/oradata/orcl/CSSFile_mirror1
Now formatting voting device: /u02/oradata/orcl/CSSFile_mirror2
Format of 3 voting devices complete.
Startup will be queued to init within 90 seconds.
Adding daemons to inittab
Expecting the CRS daemons to be up within 600 seconds.
CSS is active on these nodes.
discus1
CSS is inactive on these nodes.
discus2
Local node checking complete.
Run root.sh on remaining nodes to start CRS daemons.
[root@discus1 ˜]#
[root@discus1 ˜]# ssh discus2
root@discus2's password:
Last login: Mon Jan 8 14:33:54 2007 from discus1.macdeoracle.jp
[root@discus2 ˜]# /u01/app/oracle/product/crs/root.sh
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
Checking to see if Oracle CRS stack is already configured
/etc/oracle does not exist. Creating it now.

Setting the permissions on OCR backup directory
Setting up NS directories
Oracle Cluster Registry configuration upgraded successfully
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
clscfg: EXISTING configuration version 3 detected.
clscfg: version 3 is 10G Release 2.
assigning default hostname discus1 for node 1.
assigning default hostname discus2 for node 2.
Successfully accumulated necessary OCR keys.
Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.
node <nodenumber>: <nodename> <private interconnect name> <hostname>
node 1: discus1 discus1-priv discus1
node 2: discus2 discus2-priv discus2
clscfg: Arguments check out successfully.

NO KEYS WERE WRITTEN. Supply -force parameter to override.
-force is destructive and will destroy any previous cluster
configuration.
Oracle Cluster Registry for cluster has already been initialized
Startup will be queued to init within 90 seconds.
Adding daemons to inittab
Expecting the CRS daemons to be up within 600 seconds.
CSS is active on these nodes.
discus1
discus2
CSS is active on all nodes.
Waiting for the Oracle CRSD and EVMD to start
Oracle CRS stack installed and running under init(1M)
Running vipca(silent) for configuring nodeapps
指定のインタフェース"eth0"はパブリックではありません。パブリック・インタフェース
を使用して仮想IPを構成する必要があります。

[root@discus2 ˜]#

以下のエラーメッセージが表示されるが、最後のノード(この例では discus2)でVIP Configuration Assistant を起動し手動で構成すれば解決できる。

指定のインタフェース"eth0"はパブリックではありません。パブリック・インタフェース
を使用して仮想IPを構成する必要があります。

とういうことで、vipcaをdiscus2で実行したQuickTimeムービーをどうぞ。
尚、vipcaの実行は、rootユーザで実行すること。

rac_de_oracle_vipca

vipca終了後、Oracle Clusterwareインストールの確認!
Oracle RACを構成する全ノードで確認する。下記例はdiscus1で実施したもの

[oracle@discus1 ˜]$ $ORA_CRS_HOME/bin/olsnodes -n
discus1 1
discus2 2
[oracle@discus1 ˜]$ ls -l /etc/init.d/init.*
-r-xr-xr-x 1 root root 1951 Jan 8 17:44 /etc/init.d/init.crs
-r-xr-xr-x 1 root root 4714 Jan 8 17:44 /etc/init.d/init.crsd
-r-xr-xr-x 1 root root 35394 Jan 8 17:44 /etc/init.d/init.cssd
-r-xr-xr-x 1 root root 3190 Jan 8 17:44 /etc/init.d/init.evmd
[oracle@discus1 ˜]$ ps ax | grep [c]rs
5135 ? Ss 0:00 /bin/su -l oracle -c sh -c 'ulimit -c unlimited; cd /u01/app/oracle/product/crs/log/discus1/evmd; exec /u01/app/oracle/product/crs/bin/evmd '
5144 ? Ssl 0:00 /u01/app/oracle/product/crs/bin/crsd.bin reboot
5845 ? Ssl 0:00 /u01/app/oracle/product/crs/bin/evmd.bin
5961 ? S 0:00 /bin/su -l oracle -c /bin/sh -c 'ulimit -c unlimited; cd /u01/app/oracle/product/crs/log/discus1/cssd; /u01/app/oracle/product/crs/bin/ocssd || exit $?'
5962 ? S 0:00 /bin/sh -c ulimit -c unlimited; cd /u01/app/oracle/product/crs/log/discus1/cssd; /u01/app/oracle/product/crs/bin/ocssd || exit $?
5988 ? Ssl 0:00 /u01/app/oracle/product/crs/bin/ocssd.bin
6255 ? S 0:00 /u01/app/oracle/product/crs/bin/evmlogger.bin -o /u01/app/oracle/product/crs/evm/log/evmlogger.info -l /u01/app/oracle/product/crs/evm/log/evmlogger.log
6585 ? Ss 0:00 /u01/app/oracle/product/crs/opmn/bin/ons -d
6586 ? Sl 0:00 /u01/app/oracle/product/crs/opmn/bin/ons -d
[oracle@discus1 ˜]$


● 最後に、discus1のOUIを終了させれば、Oracle Clusterwareのインストールは完了!


039 040

次回へつづく。

|

トラックバック


この記事へのトラックバック一覧です: Mac De Oracle - 10万円 de RAC #29:

コメント

コメントを書く