medamaの日記

技術的な事をメインにしてみる。

GFSフォーマットする前に。 (3) RedHat Clusterにまず参加

名前解決も終わったのでGFSフォーマットする前にRedHat Clusterの構成を完了しましょう。

管理サーバ、Cluster Memberそれぞれ名前解決が完了しPrivateNICで確実に通信が出来るようになりました。
それでは管理サーバにアクセスしてClusterの構成を行いましょう。

https://(管理サーバIP):8084/

 

f:id:eyes919:20120801140544j:plain

 

ログインに利用するIDはadmin、パスワードはluci_admin initを実行した際に設定したパスワードを入力します。
もろもろのテンプレート変数化けが気になる方はブラウザの設定言語を英語にしましょう。
え?まともに動かない?
そういう方は

GFSフォーマットする前に。 (1) Cluster管理サーバを構築

を再度読み直してください。
それでもだめだ、という方は、

管理サーバで

rpm -e luci
rm -rf /var/lib/luci
yum -y luci
luci_admin init
chkconfig luci on
/etc/init.d/luci restart

以上です。
ここでせっかくなのでluciのバックアップ方法を書いておきます。

/etc/init.d/luci stop

を実行した後、

luci_admin backup

を実行します。

# luci_admin backup
Backing up the luci server...
The luci backup was successful.

The backup data is contained in the file "/var/lib/luci/var/luci_backup.xml"

実行後に生成される/var/lib/luci/var/luci_backup.xmlをバックアップ、その後、/etc/init.d/luci startするだけです。
冗長化するのが馬鹿らしいほど簡単です。

それでは実際にClusterを構成してみましょう。
ただし、Clusterに参加させるだけで実際には何のサービスも動かしません。
それではくどいですが、管理サーバを除くCluster Meberにて以下のコマンドをこの段階に到達する前実行した事を確認します。

mv /etc/cluster/cluster.conf /tmp/
rm -rf /etc/cluster/cluster.conf
yum -y groupremove "Cluster Storage" "Clustering"
yum -y install ricci
chkconfig ricci on
/etc/init.d/ricci start

うっかり忘れたうっかりさんは全Cluster Memberで上記コマンドを流しておいてください。
この段階では何のCluster設定もされていないはずなので再度実行しても問題は無いはずです。
再度構築しなおす場合は、luciを再インストール、上記コマンドを流せばきれいな環境で再セットアップできるはずです。
(ただし、ここまでであれば、のお話)

ログイン後、clusterタブにあるCreate a New Clusterをクリック、以下のようにCluster MemberをFQDNで登録、パスワードはrootのパスワードを入力します。
Cluster Nameは同一ネットワーク上で他のClusterと衝突しないようにユニークな名称をつけます。
(確か16文字以内)

Check if system passwords are identical.

に追加チェックを入れてSubmitをクリックします。

くどいですが。/etc/hostsに記述した

FQDNでSystem HostnameにCluster Memberを登録します。

つまらないトラブルに後々遭遇しないためにも重要な手間です。
なお、ここでエラーが発生する人は管理サーバからFQDNで設定しようとしているCluster Memberにping等で疎通チェックしてみてください。
hostsが間違えている、IPを振り違えているという単純なミスだと思います。
Cluster Memberにrucciを導入し忘れた、もしくはricciが起動していない可能性もあります。
その場合は慌てずそのCluster Memberにて

yum -y install ricci
chkconfig ricci on
/etc/init.d/ricchi start

すればOKです。
くれぐれも暴走して余計なパッケージは導入しないでください。

 

f:id:eyes919:20120801140637j:plain

 

画面の関係上、一部切れていますが、以下のようにCluster Memberへ必要なパッケージの取得命令、デフォルトCluster設定の配布が行われます。

 

f:id:eyes919:20120801140659j:plain

 

最新パッケージを取得してしまう事が気に入らない人は手動(rpmコマンドなどを利用)でパッケージを各Cluster Memberに導入後、Local Packageを使うように設定してください。

さて、基本的なCluster設定はここまで完了です。

おつかれさまでした。
思った以上に簡単なはずです。
(簡単になりました。)

初期導入チェックとして各Cluster Memberでcman_tool statusを実行してみましょう。
以下のような結果が返ってくればOKです。

cman_tool status
Version: 6.1.0
Config Version: 1
Cluster Name: hogehoge
Cluster Id: 26911
Cluster Member: Yes
Cluster Generation: 612
Membership state: Cluster-Member
Nodes: 4
Expected votes: 4
Total votes: 4
Quorum: 3
Active subsystems: 9
Flags: Dirty
Ports Bound: 0 11 177
Node name: cluster1-vip.hogehoge.jp
Node ID: 3
Multicast addresses: 239.192.105.136
Node addresses: 192.168.0.10

気になるポイントとして

Flags: Dirty

だと思いますが、現時点では問題ありません。
Dirtyであれば逆に問題ありません。
Dirtyという結果も含め詳細はまた別途。
現時点では、4台構成であれば、

Nodes: 4
Expected votes: 4
Total votes: 4
Quorum: 3
Active subsystems: 9

となっていれば問題ありません。

今日はここまで。
(単に眠いだけ)