日本語読めない人?
こういうときにレアケース持ち出すヤツって頭悪いよな。
HeartBeat+DRBDでクラスタを構築する予定ですが
各Versionは最新のもので動く(sync)のでしょうか?
とにもかくにも、CentOS5でyumによるインストールするとどうなるか確認してみました
heartbeat-2.1.3-3.el5.centos
drbd82.i386 0:8.2.6-1.el5.centos
HeartBeatのVer2系と、DRBDのVer0.8系です
Webの記事サイトではHeartBeatのVer2系は、DRBDのVer0.7系ではないと書いてありました
しかし、DRBDの本家サイトでは
-----
heartbeat V2を使うための前提条件は、heartbeat V1と同じです。
実際、V1の設定を使ってもV2を利用できます。しかし、V2に追加
されたクラスタリソースマネージャ(CRM)を使うには、次の行を
/etc/ha.d/ha.cfに追加しなければなりません。
crm yes
-----
上記言葉通りであれば、 問題なさそうですが
御経験者の方がいらっしゃれば、経験談を教えていただけないでしょうか?
>>246 まず動くの厳密な定義を言えよw
つか自分でやれ
>>246 俺もそう思って、検証してみました
結論は動いたなんですが、Active-Stanbyですので
週末にでもHeartBeatV2のクローンモードを使って
Active-Active
をしてみます〜
heartbeatで監視中のサービスが落ちた場合
同時にkeepalivedも落とすようにCRMを記述したいのですが
どこかにサンプルなんてないでしょうか?
251 :
login:Penguin:2009/02/06(金) 12:01:29 ID:3i0MqBLR
drbdとheartbeatでクラスタ環境構築中です。
まずは双方にCentOS4.5をいれ、同じパーティションサイズで区切って、同じdrbdのバージョンをyumにてインストールしました。
次に、drbd.confもまったく同じものを用意し両方のノードに入れたのですが
片方のノードではdrbdが起動し片方のノードではdrbdが起動しないといった問題が発生し、下記のようなエラーが出てしまいます。
Restarting all DRBD resourcesioctl(,SET_DISK_CONFIG,) failed: Invalid argument
Low.dev. smaller than requested DRBD-dev. size.
Command '/sbin/drbdsetup /dev/drbd0 disk /dev/sda5 internal -1 --on-io-error=panic' terminated with exit code 20
なぜまったく同じ環境において片方のノードは稼動し、片方のノードはエラーとなる現象が出てしまうのでしょうか
Heartbeat+apache(Active/Active)+DRBD+NFS(Active/Standby)
という構成で、共有ディスクをhttpドキュメントルートにしようと思ってたのですが、
apacheのディスクアクセスは片方のサーバーに集中するということで
冗長化にはなっても、負荷分散にはならない?と思えてきてしまいました。
コレについてのツッコミ、またはなにかいい構成案あったらご意見いただけませんでしょうか?
>>223 さんの、DRBD8 + GFS2 で active/active という手はなんか不安定っぽいですね、、、
253 :
login:Penguin:2009/08/03(月) 10:34:19 ID:QNM9yNVf
3日くらい手こずってわかったんだけどcmanてNIC選ぶんだね
Via(玄人のPCI,PCIe)のNIC全般で双方向のノードの確認がとれないみたい。
ccsdで相手のノードを確認しようとするときコネクションエラーが出る。
VIAのUDPの対応がおかしいのかccsdのUDP接続のレシーブらへんがおかしいのか
ソース全部見てないしからわからない
ちなみにCentOS5.3
cmanは最新版だと思う(yumインストール)
・動く
Reaktek Realtek RTL8111B
Intel 82572EI
Broadcom BCM5721
・動かない
VIA VT6130
VIA VT6122
255 :
login:Penguin:2009/10/03(土) 22:55:04 ID:juzmR3Ux
>>254 どう足掻いてもできなくて、
仕方ないから自作物を稼動させる事で解決
確認なんだけど
そもそもこれって稼動中にノードの新規追加とかってできないよね?
2x台サーバがあって随時ノード追加で停止せずにクラスタリングしたいっていうのがやりたかったんだけど
>>255 VIAチプの場合はメモリ多いとWindowsですらちゃんと動かないですよ。
cmanはちとわからん
>>253 それはcman以前の問題では?
VIAだけでなく、蟹のRTL8111B/CもMarvellも挙動不審だよ
旧型PS3が手に入ったので手持ちのPCにlinux体験も兼ねてクラスタ構築に挑戦してみようとしたのですが、PS3同士以外の情報が全くといって良い程見つからない
物の試しにx86-64bitでのクラスタで検索してみても「x86-64のハイブリっとな構築はサポートしてない」て説明ばかり
Cellとx86じゃ構築は絶望的という認識でいいでしょうか?
SSH辺り使って全部自分でやれば何とでもなるだろ?
“クラスタ構築”の意味にもよるが
260 :
login:Penguin:2010/08/07(土) 11:35:26 ID:rHQUwHMy
現行Mosixを使っている方いらっしゃいませんか?
現在複数のマシンでクラスタを組もうとしています。
http://www.mosix.org/txt_distributions.html 上記URLから2.6.34.1用のMosixをダウンロードしまして、パッチ済みのカーネルの機動と
mosixdの機動までは確認できましたが各マシンをつなげる所までには至っていません。
多分mosix.mapの設定が悪いのでしょうか。
もしヒントになるページやコミュニティをご存知の方教えていただけないでしょうか。
CPUの空いてるマシンでプロセス単位で仕事を分けていくというのが私の中の理想でして
なんとか動かしたいと思っています。
お願いします。
あれ?MOSIXって数年前にプロジェクト廃止されなかったっけ?
「MOSIXがターゲットとする8-16CPUのクラスタは将来マルチコア/SMPでカバーされる」
とかオワタ宣言してたような。復活した?
Mosixはもうずいぶん昔に終わってるよ。
システムコールを1台のホストだけで実行する(だからアプリケーションの
大きな書き換えなしでクラスタ化できる)というデザインだからスケールしない、
カーネルに複雑さを追加するに見合う効果は無かった実験的なプロジェクト
だったと思う。
そうするとプロセスマイグレーションとかしちゃうよ、
ホントに物理的な複数台のマシンを単一システムとして動かしちゃうよ、
みたいな奴だとOpenSSI位が残ってるだけ?
これも更新は2010にあるけど、カーネルとか滅茶苦茶古いんで大丈夫かな。
DBクラスタとか、分散KVSとか、用途特化型クラスタが結局道具として
使いやすいということかね。システムの底から全部とやろうとすると
そこまでの機能を必要としない用途のスケーラビリティのネックに逆に
なってしまうと。
northwood前の頃、安いパソコンを 30台くらい並べて Mosix したなぁ。
数値計算用途だったから、十分スケールしてた。
けど、一台でも調子が悪いのがあると全部おかしくなるので、安定するまで大変だった。
>>265 へぇ、OpenMosixは途絶えたかと思っていたら、部分的には続いてたんだ。
こんなスレあったんだ。えらい息の長いスレだな。
ところで今、armelのNASにdrbd+clvm+gfs2+sambaしようとしてるんだが、
なぜかclvmdが起動してくれん。
drbd上に直接gfs2すると、mkfs.gfs2はできるがmountすると帰ってこない。
primary/secondary構成のdrbdデバイスも持たせて、
そっちはpacemakerでフェールオーバさせたいと思ってるんで、
clvmは動いてほしいんだが。
勢いでcorosyncまで突っ込んだまま、そっちはまだ全然設定してないのがいけないのかな。
それともsqeezeのパッケージはまだどっかおかしいのかな。
よくわからん。
VMware上にlennyの仮想マシンを作って似たようなことを試してみたら、
clvmがあっさり動いた。
どうやらsqueezeのclvmがダメダメっぽい。
corosyncに対応してないらしい。
ccsdに繋ごうとしてしくじってるわけだな。
deb系でクラスタしたいひとは、現時点ではまだlennyかLucid Lynxだな。
270 :
login:Penguin:2011/01/31(月) 21:22:17 ID:f9RJoshb
tesw
Cent5.5のRHCSが思った以上に不安定だな
動かすのはそんなに難しくないがクラスタが一旦崩れると復旧が難しい
ログも少なすぎて原因の追究難しいし
heartbeatでHAを構築しています。
リソースグループが起動し終わってから、別のマシンの電源を入れるためにマジックパケットを投げたいのですが、何か良い方法はありませんか。
リソースグループの最後の監視対象にマジックパケットを投げるコマンドを追加するのも良いかもしれませんが、リソースグループの起動完了のタイミングで何かを行うような仕組みがあればスマートかなって思いまして。
環境はDebian squeezeで、heartbeatは3.0.3です。
te
tes
お?
ちがうわー
痛痛しいなw
279 :
login:Penguin:2012/07/22(日) 22:25:40.11 ID:cLPKJVWd
HPCクラスタってすれば作れますか?
もちろん
281 :
279:2012/07/23(月) 03:54:41.07 ID:VQAEsVT9
どの程度の知識が必要でしょうか?
www
どの程度を想定してるのかわからないけど30台並列ぐらいになると付け焼き刃じゃ厳しくなるかと
結構広範囲な計算機科学の知識が必要だし、この分野ってあんまりノウハウが教科書的にまとまってないしね
どんな事がしたいの?
284 :
login:Penguin:2012/08/31(金) 17:46:14.77 ID:3lrC90Dw
pxeでUbuntu12.04のディスクレスクラスタを構築してるんだけど
disklessノードにSATA disk 挿しても/devにでてこないからマウントできない
ソフトウェアクラスタでなくてスマソ
286 :
login:Penguin:2013/11/25(月) 12:44:54.13 ID:dpf8MxjS
今のおすすめはなに?
やっぱりHeartBeat?
個人で使ってる範囲では今のところトラブルないなあDRBDは。
heartbeatとか組み合わせて自動でどうにかしようとすると
確かにはまりそうな気はする。
ぬるぽ
ガッ
あ
やってもいないことをやったと言う、カコワルイ。。。
ぬるぽ
あ