1 :
1:
2 :
login:Penguin:01/09/09 18:09 ID:xey6.zKE
メーカー製の製品じゃないし,詳しく見てないんで,よくわからないけど
LINUXを商用向けにするプロジェクトみたいだよ.
High-Availability Linux Project
http://linux-ha.org/ サーバのクラスタリングもやってるみたい.
3 :
1:01/09/10 12:03 ID:QzhZnDAo
なかなかレスがつきませんね。。。
やっぱり情報が少ないんでしょうか...
4 :
login:Penguin:01/09/11 13:53 ID:SkB7ACjE
age
5 :
login:Penguin:01/09/12 13:33 ID:sy0TtGWo
age
>>1 色々研究してるならリンクだけでなく
自分から情報出せばいいんじゃない?
クレクレだけじゃ盛り上がらないよ。
まあここはクリティカルな運用してる人
あんまりいないかもね。
7 :
1:01/09/12 18:38 ID:eGmaFEGg
>>6 ごもっとも。
そうは言っても、実際のところあまり情報がなくて、まだ自分のところで
試しているlinuxvirtualserverもちゃんと動いてないんですよ。。。
OPSのように、DBでロードバランス&フォールトトレランスな構成が
作れたらベストだなぁと思っているんですが、これってDB側で対応
してくれないとダメなもんなんですかね。。
素人でスマソ
mosixは?
10 :
login:Penguin:01/09/14 10:04 ID:un555zKs
age
11 :
名無しさん@お腹空いた:01/09/14 18:09 ID:LSwWHjpw
12 :
1:01/09/15 03:52 ID:UMyuCPXs
>>8 mosixって初耳。スマソ
よければ情報キボンヌ
>>9 usogresはレプリケーションの作成だけでしょ?
フェールオーバーまではやってくれないんじゃなかったっけ?
漏れ的には、OPS(Oracle Parallel Server)みたいに、ノードを増やせば
フォールトトレランス&ロードバランスによる性能向上!みたいになれ
ば最高なんだけど、これってPostgreSQL側が対応してくれなくちゃ
実現は難しいわな...
13 :
login:Penguin:01/09/15 04:05 ID:UMyuCPXs
14 :
linux初心者。:01/09/15 07:30 ID:rSPGYXPU
LINUXからfat32の領域に日本語名で保存している
ファイルが激しく文字化けしていますが、
文字化けしたまま制作したCD−Rは、WINで
開くと、正常にファイル名は表示されるのでしょうか?
それともlinuxで表示されたみたいに文字化けしたまま
でしょうか?
>>13 そう、fail over はない... がんばれば実装できそうな気はするんだが。
あと売り物でもなんか PostgreSQL がらみはあった気がする。
Mosix は
http://www.mosix.org/ にある。複数マシンを一つのマシンに
みたてられるらしい、が詳細はよくシラソ。
17 :
login:Penguin:01/09/15 23:36 ID:UMyuCPXs
>>16 売り物はこれでショ?
ttp://www.fastconnector.com/price/product_price.html FC Rep for PostgreSQL
PostgreSQLで離れた(ネットを経由した)2点間でDB同期が
できるというのは、クラスタではないにせよ「障害対策が弱い」
といわれているPostgreSQLにとってはいいよね。通信内容も
暗号化してくれるようだし。
ただ、やっぱりこれじゃないんだよなァ〜
Turbo(というかNEC)のソフトウェアクラスタが一番近いような気がする
んだが、高いYO...
2ノード+1コントローラで110万...
18 :
login:Penguin:01/09/17 15:36 ID:.dN6Ze0I
age
19 :
login:Penguin:01/09/17 17:08 ID:RmKUoUYw
20 :
login:Penguin:01/09/17 17:55 ID:C26q441g
遠隔のやり方教えてほし〜な〜。
そんなスキルいないか〜。
21 :
login:Penguin:01/09/18 01:03 ID:23UZGcyw
22 :
login:Penguin:01/09/18 01:08 ID:23UZGcyw
続き
LANミラーリング技術: LAN Mirroring技術は、今重要なHA技術であり、そして、
多くの安いHAシステムにキー成分のままであるであろう。それらは、わずか2 NIC、
及び、クロスオーバケーブルによって自らの間で鏡への2台の機械にファイルシステムを許す。
DRBD : LANを横断するミラーリングファイルシステムのための Philipp Reisnerのもののシステム。
それは、迅速に鏡を最新のものにするための迅速な同期化オプションによって知識があるレイド、
及び、LANである。これは、現在最も密接にLinux‐HA人々を従えていることである技術である。
Linuxジャーナルアーティクル、によって、P.T .Breuer The Network Block Device Aネットワーク
ブロックデバイスNBDドライバ上のA. Marin Lopez、及び、Artuo Garcia Aresは、遠隔資源にLinuxにおいて
ローカルなデバイスのようであらせる。安く、安全なリアルタイム鏡が組み立てられることを可能にして。
ODR : Jerome Etienneは、オンラインディスクReplicator提案である。 ODRは、類似している、に、
DRBDまで、しかし、2を超えるノードをサポートする、そして、journallingすることへのサポートを持つ。
Marceloによれば、それは、本当にクールである。当分は、ここにそれに リンクがJeromeの最後のノートにある。
私が更に多くを持っているとき、更に多くの情報は、ここに現れるであろう。
ネットワークブロック方策を拡張した、プロジェクト、によって、P.T .Breuer。
ENBDは、NBDワークを正しくするプロジェクトである。 DRBDが行うように、
それは、NBD、及び、レイドを共に結合しない。
GNBD :GFSネットワークブロックデバイス
レイドをネットワーク化しなさい、ミニ‐ミニ、手引きののもの:
Marcelo Tosati、持つ、実証される、いかにRAID1 +を使うか、
Network Block Device +、Linux‐HAのためにネットワークレイドを実行するための
彼のレイド書込み‐オンリーなパッチ。 このリンクは、もはや正当ではない。
23 :
login:Penguin:01/09/18 01:11 ID:23UZGcyw
つづき
ボリュームマネージャ:
ハインツMauelshagen LVM :Linuxボリュームマネージャ。人が予測するであろうので、
LVMは、パーティションの成長、及び、収縮を可能にする。しかし、同じくスナップ写真
パーティションの創造を可能にする ( ファイルシステム、及び、データベースシステムにおいて
一貫したオンラインバックアップ、または、回復を可能にして ) 。
IBMの EVMS企業ボリューム管理システム。 EVMS Projectは、ストレージを管理する際
無比の柔軟性、及び、extensibilityを提供することのゴールを持っている。そのアーキテクチャが
プラグインモデル ( 様々なレベルのボリューム管理の容易な拡張、または、カスタマイゼーションを
認める ) を導入するので、それは、新しいアプローチを論理的ボリューム経営者側に示す。
24 :
login:Penguin:01/09/18 01:14 ID:23UZGcyw
つづき
ファイルシステム技術: 2タイプのファイルシステム技術技術は、Linux‐HAにとって重要である:journallingしている
ファイルシステム、及び、クラスタファイルシステム。 Journallingファイルシステムによって分担する/映された
ファイルシステムのテイクオーバーはfailoverの場合に急速に発生することが可能となる。
クラスタファイルシステムは、クラスタの全てのメンバーの間で分配されるためのディスクが読取り‐書く、と認める。
GFS : Global Filesystem -障害の寛大な分散されたちょうどその涼しさ等。
GFSは、クラスタファイルシステム及びjournall‐されたファイルシステムである。
Reiserfs : 木‐構造化されたファイルシステム、ジャーナル最新情報。
Reiserfsは、生産品質であると考えられている。
Ext3 : ext2ファイルシステムのステファンTweedieのjournallingしているバージョン。
JFS : IBMのものは、ファイルシステム技術をjournalledした。
XFS : SGIのものは、ファイルシステム技術をjournalledした。
Timpanogas研究の FENRISのNetWare‐互換性があるファイルシステム。利用可能な今。
〜ではなく、〜、journallingすることがサポートするかどうかを確信した。
Timpanogas研究の M2CSクラスタファイルシステム。 Q3 2000における利用可能な
それらのファイルシステムの早期のリリースコピー。
間奏曲: システムにディレクトリ・ツリーを複製させる分散ファイルシステム。
LinLogFS Aログは、Linuxのためにファイルシステムを構造化した
25 :
login:Penguin:01/09/18 01:19 ID:23UZGcyw
最後.頭の中で置換して呼んでね
他のLinux‐HA管理ソフトウェア
VA Linuxの ウルトラモンキー: LVS、及び、HEARTBEAT、及び、GUI
ミッション・クリティカルLinuxの キンバーライトオープンソース高い‐可用性のシステム。
REDHATの ピラニア、及び、HAサーバ製品:LVS、及び、GUIを含む。
ピラニア討論メーリングリスト。申し込むために、電子メールを以下に送りなさい。
メッセージ主題としての「subscribe」を持つピラニア‐
[email protected]。
Jerome Etienneの VRRPインプリメント。 Jeromeは、 rfc2338によってspecfiedされるVRRPv2を実行した。
FAIKE:冗長なサーバスイッチソフトウェアホームページ
Failoverd : Failoverデーモンホームページ
ハート ウェブサイト ( トムVogtのワーク-- Softwareは、連結するのを見る )
26 :
login:Penguin:01/09/18 01:39 ID:2HT/y1oc
最小構成2台からできる、クラスタリングシステムを作ろうとしてますが何か?
27 :
1:01/09/20 22:17 ID:MWaJlL1A
>>17-25
ありがとう。でもよくわかんないね(藁)
様はホストマシンレベルのクラスタリングをLinuxで実現しようと
しているという解釈でよろしいか?
>>26 それはどこかのソフトを入れて、ってこと?
それとも、そういうアプリケーションを作っちまうということ?
28 :
26:01/09/20 22:42 ID:dxsMm6M2
>>27 DNSラウンドロビンでやってたような役目は
ほぼ設定変更不要で実現、
データベースのようなものは、ユーザランド側の
対応が必要、ってな感じで考えてる。
カーネルに手を加える方向で考えてる。
ちょっとだけ期待して待て。
DNS roundrobin だけでも、業務で事足りることは結構多いですね。
mail server の多重化とかなら、spool を NFS で共有して、
MX の preference を利用するとかいうのでも、なんとかなるし。
#NFS server が落っこちたら? とかいう質問は却下:-)
問題は DB のフォールトトレラントとかに踏み込んだとき。
Solaris とかでは VCS + Oracle で、storage は2本足の外付け
RAID というのが普通ですが、この辺を安価に構築出来ると
ものすごく嬉しい。
#OPS は使った人が周りにいない…。
30 :
26:01/09/21 01:35 ID:zjrMk02E
>>29 DNSラウンドロビンの欠点をあげておくと…
「高可用性が失われやすい」
というところかな。漏れがこれでちょっと困ったのだ。
4台くらい束ねてて、1台氏んだとき、
人間が手動で
* ほかの稼働ホストにIP aliasをつくる
* DNSを書き換える
* DNSレコードの伝播を待つ
* マズー
が起きるので、夜も(昼も)おちおち寝てられんのです。
それをまず、解決したいなーと思っタワケ。
PostgreSQLの可用性のなさにはほとほと参ってるので、
これをどーにかしてみたいという漏れ的な欲求もある。
GreatBridge亡き今となって、RedHatを待ってられねー。
たーぼ犬くすは、漏れ的には大っ嫌いだ。
31 :
26:01/09/21 01:36 ID:zjrMk02E
>>30 ついでに、単なる多重化じゃなく、
分散化によるパフォーマンスアップにも
朝鮮してみたいのだ。
>>29 > mail server の多重化とかなら、spool を NFS で共有して、
mailbox は怖いよね。
Maildir なら安心?
>>30 ですな。L4 switch を使うと web server の負荷分散& HA はなんとか
なりますが、普通 SMTP の多重化はダメだし。
>>32 Maildir なら大丈夫。mbox 形式でも、Sun 曰く NFSv4 なら大丈夫とのこと。
でも、NFSv4 は Solaris にすらまだ実装されていませんけど…。
34 :
26:01/10/01 04:19 ID:W64.YRzI
35 :
:01/10/01 19:00 ID:4uF2biUo
HPCクラスタの話題は無いの?
36 :
:01/10/02 09:37 ID:9Csi/PZg
MPIとかPVMのクラスタシステムの話題はないの?
37 :
クレクレ君:01/10/05 16:13 ID:dqGkKP5A
>26 への期待age。
いやマジに。
39 :
どきゅそ:01/10/16 02:03 ID:kLwJ4UVO
>>38 日本語な説明とかありませんか?
DQNですみません....。
>>32 Linux ではそうでもないって話がちょっち前の LWN か KT
に出てたような...。
>>38 ありがとう。
全く同じ物を作るところでした。
42 :
38:01/10/16 23:30 ID:z9LT7pWs
43 :
login:Penguin:01/11/06 13:12 ID:cs4ZOvva
44 :
login:Penguin:01/11/06 14:21 ID:zel37UcI
数値計算に使えるやつはない?
45 :
login:Penguin:01/11/06 14:36 ID:WJAO9ivf
46 :
login:Penguin:01/11/06 16:37 ID:pUllxZqx
47 :
login:Penguin:02/02/12 23:02 ID:t1yD/4Eg
あの、素朴な疑問なんですけど、一般的に
クラスタリングサーバ側ではなく、
アプリケーションが稼動するhost群に何らかのソフトを
インストールする必要はあるんでしょうか。
>>30 4台のサーバが172.25.1.1〜172.25.1.4のIPアドレスをもっているとする
サービスで参照されるアドレスを172.25.2.1〜172.25.2.4で各サーバがaliasしているとする
A死亡→Bが代理、B死亡→Cが代理、...、D死亡→Aが代理というようなペアを作る
例:A上で動かすスクリプト(cron等で定期的に起動)
----
#!/bin/sh
if wget -O /dev/null
http://172.25.1.4/ > /dev/null ; then
ifconfig eth0:2 172.25.2.4 netmask 255.255.0.0 down
else
ifconfig eth0:2 172.25.2.4 netmask 255.255.0.0 up
fi
----
#正常な場合いつでもifconfig eth0:2 downするのがマズー
#連続する二台以上死んだら激マズー(Dが死んでAが死んだ場合)
こんなんでなんとか夜だけでも寝られませんか?
LinuxVirtualServerはデータの
レプリケーションはできてるんでしょうか
Codaとかいうソフトをリアルサーバに入れないとだめなんでしょうか。
>>30 こそまさにheartbeatを使うべきじゃない?
ちなみにうちは前出のdrbd+heartbeatでmysqlとかnfsの
フェイル オーバーやってるYO
51 :
login:Penguin:02/05/18 17:09 ID:LJKz3NKy
52 :
login:Penguin:02/05/20 08:47 ID:HYzyB2TJ
53 :
login:Penguin:02/05/21 05:55 ID:3SweRnyq
drbdとLVSは同居できます??
55 :
login:Penguin:02/05/25 14:47 ID:Vqmj78QB
56 :
login:Penguin:02/05/25 19:03 ID:Kd5U5ZBZ
お馬鹿な厨房です。
クラスタリングってなに?
詳しいページ教えて下さい。
こんな基本的な用語知識聞かないと解らないなんて、鬱だ・・・
>>56 複数のコンピュータに仕事を分担させ、性能や信頼性の向上を図る仕組み。
厨房ならこの程度の事を知ってれば充分。あとは google で検索しろ。
58 :
名無しさん@お腹いっぱい。:02/07/01 13:40 ID:VSgAHGfz
OPEN.・DESIGN誌 2002/7の特集は
クラスタリング入門でしたね
だれか買った?
厨だ。
お前ら良く聞いて下さい。
今巷で地味に流行っているトリップ検索。
8文字完全一致で30年位(Windowsの場合)かかるんだと。
LinuxでUtripper使っても10年位かかる(どこかのスレの受け売り)
そこでだクラスタの出番だ。
ここ見てる奴なら自由になるPCがいっぱいあると思うから
誰かチャレンジして結果報告しる。
お前がやれ!ってのはなしだ。
それ言われると手も足も出なくなる。
よろしくお願いします。
60 :
login:Penguin:02/07/01 14:50 ID:FbNcW8iw
61 :
産まれたて 消防:02/07/01 20:35 ID:2CX+M4Qk
すいません どうしても わからなくて書くことにしました。
WINDOWSにむかついて 本屋でRED HAT7.2のCDを買った
のですが、CDブートしろと書いてあって 俺のパソコン古くてCDブート
ができません。
起動ディスクでCDが使えるようにしてDOSでなんとかSETUPまで
たどり着きたいのですが どうしたらいいのでしょうか。
気になって寝れないです。
62 :
login:Penguin:02/07/01 20:41 ID:bafm0j0d
>>59 (゚∀゚)クラスタリングするまでも無いと思う。
検索開始位置をずらして個々で起動すればよいかと。
>>61 禿げしくスレ違いなんだが
CDの中を、Windowsから、*.exe で検索してみ?
rawrite.exe とか見つかるかも
あるいは、CDの中を *.bat とか探してみ?
loadlin.bat とか見つかるかも
とかrhのCD見ずにカキコ。漏れはDebian厨だから知らん
何も分からない初心者に対して、みんなどうしてそんな
嘘つくんだよ。
クラスタリングが足りないのが、明らかじゃないか!
65 :
login:Penguin:02/07/02 12:13 ID:WqJTd5Xr
>>61 SAN使ってるなら、まず基本的なFCケーブルやコネクタを確認してみな。
FCハブのランプはちゃんと点灯しているか?
66 :
login:Penguin:02/07/10 13:17 ID:QJtA17rM
あれ?RedHatのPiranhaってなくなっちゃったの?
67 :
login:Penguin:02/07/10 14:22 ID:QJtA17rM
Piranhaあった。Advanced Serverに入ってるのね。
でも「要PHP」って、なんか美しくない。
68 :
login:Penguin:02/08/13 15:44 ID:9XQRx0DG
score
69 :
login:Penguin:02/08/14 01:10 ID:7ro7zOT6
研究結果の発表はイツ? > 1
71 :
TETSU:02/08/16 22:13 ID:nhg8Fd17
>>68 PHPはPiranhaのWeb設定ツールで使うらしいよ。
コマンドラインで全て設定する場合は必要ないんじゃないかな?
lame とか ogg vorbis とか、そーゆー数値計算なヤツも
Linux で作ったクラスタで動かすことは可能ですか?
73 :
login:Penguin:02/10/24 22:42 ID:tXlX0xwS
74 :
login:Penguin:02/10/24 22:49 ID:SQrYZqhS
75 :
login:Penguin:02/10/29 20:36 ID:2oW0mOr9
drbdがちゃんと動いているか良く判らん・・・
cat /proc/drbd で
version: 0.6.1-pre13 (api:58/proto:61)
0: cs:WFConnection st:Primary/Unknown ns:0 nr:0 dw:12 dr:49 pe:0 ua:0
1: cs:Unconfigured st:Secondary/Unknown ns:0 nr:0 dw:0 dr:0 pe:0 ua:0
って出たまんま反応ねぇし・・・
http://www.wbc.co.jp/~drbd/drbd-w/install-2.html これの通りやってるんだけどなぁ・・・
念入りにRHL7.2+Pre13の同環境、同手順でやってるのになぁ
#もちろんHDDのパーティションの切り方から同じだし
>>75 Secondary繋がってる?うちの環境だとSecondaryを落すと
"WFConnection"って表示されるけど?
(kernel 2.4.18+drbd 0.6.1-pre18+heartbeat-0.4.9.2)
祈念かきーこ
>>ヒロユキタン
いつまでやるですか?
237 名前:ニュー速から来ました 投稿日:03/01/08 17:51 ID:AX1ZY0DD
IPとは何でしょうか
↑素人は誰だ!!!!!!!
ID:ZBsKvw39さんへ
どこに行ってたの?
トイレですか?
80 :
山崎渉:03/01/15 11:44 ID:vFMPlObn
(^^)
81 :
login:Penguin:03/01/23 18:30 ID:UDUMVzL+
>>60 Red Hat Cluster ManagerはどんなときにFailoverするんでしょうか。
見た感じ、LANをきってもしないような気がするんですが。
あと、Serviceでエラーのときは勝手に切り替わるのでしょうか。
82 :
login:Penguin:03/02/03 18:01 ID:gCeVY7Rk
83 :
:03/02/10 19:37 ID:C6ohDM1k
DRBDのmake時に
drbd_syncer.c:396: structure has no member named `nice'
とでてmakeできん。
C読めないヘタレな漏れはインストールを断念 (´・ω・`)ショボーン
86 :
山崎渉:03/04/17 12:25 ID:PWISM87M
(^^)
87 :
山崎渉:03/04/20 06:00 ID:X64WTq1+
∧_∧
( ^^ )< ぬるぽ(^^)
88 :
login:Penguin:03/04/23 15:19 ID:bxN8ACSb
heartbeatをTurboLinuxで使っている方おられます?
TurboLinux6.1でインストールしてみたのですがmakeエラーで駄目でした。
Vine2.6ではなんとかインストールできて動作もしているのですが。
現状の構成をそのままにしておきたいんで、なんとかTurboで動かせないかな...
詳しい方アドバイスお願いします。
89 :
山崎渉:03/05/22 02:06 ID:VfjbtMwi
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―
90 :
山崎 渉:03/07/15 11:34 ID:doz396Fq
__∧_∧_
|( ^^ )| <寝るぽ(^^)
|\⌒⌒⌒\
\ |⌒⌒⌒~| 山崎渉
~ ̄ ̄ ̄ ̄
∧_∧ ∧_∧
ピュ.ー ( ・3・) ( ^^ ) <これからも僕たちを応援して下さいね(^^)。
=〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
= ◎――――――◎ 山崎渉&ぼるじょあ
92 :
山崎 渉:03/08/15 23:25 ID:dil3w4kp
(⌒V⌒)
│ ^ ^ │<これからも僕を応援して下さいね(^^)。
⊂| |つ
(_)(_) 山崎パン
93 :
login:Penguin:03/09/21 22:35 ID:w6QJgY+P
rsync でお互いに内容を同期しあっているサ-バ-群は,はたしてクラスタ-と言えるか?
rsync で双方向に同期するとファイルが消えなくなるじゃん。
なんかいい方法無いの?
unison はインスコ面倒。
96 :
login:Penguin:03/09/24 22:28 ID:MrkTry74
97 :
login:Penguin:03/09/25 01:09 ID:lCmvteZI
リナックスで暮らすたあ,こいつあ春から縁起がいいわいわい.
98 :
login:Penguin:03/10/04 23:42 ID:kpZzpAfH
(・∀・)renice!
99 :
login:Penguin:03/10/27 23:35 ID:ERg+VwNs
100 :
北の町から南の島まで素敵な夢を届けます♪:03/10/30 05:20 ID:YEh/YU0Q
/ ̄ ̄'' -、
( / ) ヽ ジャーパネットー ジャパネットー 夢のジャパネットたかたー♪
i r-,,,, /,,,, )
( >| ● ●//
`‐| U /ノ やった!!高田社長様が
>>100get だ!!
\ ━ /
((Οっ V> オラてめえら!!ウチの商品を買えウンコども!
\ 'oヽ
|,,,,,,∧|
/ ∧ \
>>101 今さらCPUが1GHz以下の低速パソコンなんか使ってんじゃねーよ(プ
/ / ヽ ヽ
>>102 15インチのCRTなんか使ってると目を悪くするぜ(プ
ト-< |_/'.'.┐
>>103 親戚の前で恥をかく前に電子辞書を使って日本語覚えろよ(プ
.
>>104 今やMP3の時代なのに、カセットテープなんて使うなよ(プ
.
>>105 30万画素のカメラでプロ気取りか、おめでてーな(プ
.
>>106 お前のポンコツPCじゃTV見れないの?(プ
.
>>107 VHSより時代はDVD・HDDレコーダーだよ、3倍ヲタク君(プ
.
>>108 超低画質プリンタで年賀状作成か。おめでてーな(プ
.
>>109以降は金利手数料は自分で負担しとけ(プ
101 :
login:Penguin:03/11/21 16:22 ID:n4iWjz8j
メインマシンでCel700です。
ごめんなさい。
14インチだよ。
103 :
login:Penguin:03/12/17 15:14 ID:jszsTTTz
日本語分からなくてごめんなさい
ハァ?
今は可逆圧縮の時代だよ
105 :
login:Penguin:03/12/28 01:00 ID:hy1qmaHG
ライフキーパーってどうなの?
106 :
login:Penguin:03/12/28 02:13 ID:XgFpwm3s
うちの会社、クラスターやってるけどあんまし市場でかくないんだよね〜。
せいぜい大学の研究室ぐらい。。。
107 :
login:Penguin:03/12/28 12:39 ID:P4/l8U0d
106はv-tの予感。。
108 :
login:Penguin:04/01/30 13:54 ID:XcTtVtTM
年賀状はプリントごっこで。
&congr;
⇔
<
&
˜~ [ [ ] ]
hello
113 :
login:Penguin:04/04/11 00:49 ID:dRqMUdLq
>>106 なかなかよかったよ。
使いやすいし、ただカーネル置き換えるからカーネルいじってるとダメだった。
高いけど・・・
114 :
login:Penguin:04/04/11 00:49 ID:dRqMUdLq
ごめん>105だった。
115 :
login:Penguin:04/11/02 00:48:06 ID:956NvkuA
age
Webサーバ2台+DBサーバ1台の構成で負荷分散したいのですが、
LVSのマシンを追加したり、市販のロードバランサのなどを
追加する予算はないような場合。
その場合、
DNSラウンドロビンにして、
Webサーバ2台をHeartBeat、Keepalive等を使って1台故障しても
サービス継続できる様にするって構成は現実的でしょうか?
HeartBeat,Keepalive自体それほど詳しくないのですが
このようなことは可能ですよね?
それとも、もっと良い方法などあるんでしょうか?
普通クラスタソフトウェア使えば、DNSラウンドロビンなんぞする必要ないぞ。
408 名前:login:Penguin 投稿日:05/02/21 18:21:37 ID:jyG3ZTYO
おい、SLES8の箱には「clustering」って書いてあるのに、入れてみてもどうしたらクラスタ組めるかちっとものわからねーぞ!!
大体マニュアルの何処にも「clustering」の「cluster」の字もないじゃないか!
いや、Installationガイド72ページの「option domain-name "cluster.suse.de";」ってこれ全然クラスタと関係ないじゃん!!ふざけんな糞のベル金返せ‐‐‐!!
409 名前:login:Penguin 投稿日:05/02/21 19:00:34 ID:A0XgvguO
つI
120 :
login:Penguin:05/02/24 15:44:12 ID:O3InWtLB
リナックスのクラスタって、ウエブサーバーを高速化する
のにつかわれたりしないのだろうか?
パフォーマンスをあげるのにつかわれないでしょうか?
負荷分散型を高速化というのなら、あるよ。
その前にクラスタの種類や目的を勉強してきた方がいいな。
122 :
sage:05/03/08 02:55:04 ID:VAV7zo0E
耐障害性能がどんなもんかな。。。
たくさんマシンを稼働させるとそれだけハードウェアエラーもおきやすい訳で。
ほかのノードから返されたデータの完全性はどうやって保証しているのか。
CPUで生成されたデータはそれが仕様通りのデータであるかを
スマートに保証する仕組みってあるんですか。
ほかのCPUがクラスタから突如消えるとかならまだ何とかなりそうだけど
例えば熱暴走などで正規ではないデータが返されて、
それを検出できないとなると正直不安。。
Fedora Core 1のSCoreを5.8.2にアップデートし、
3台のマシンでHPCクラスタリングをしようと思ってます。
3台をNISでつなぎ、
gfsv.cl.org(NISサーバ、クラスタリングサーバ)
gfcl1.cl.org
gfcl2.cl.org
という構成にしております。
設定をして
$msgb -group pcc &
で、無事にgfcl1.cl.orgとgfcl2.cl.orgが表示されましたが、
その後、
$scout -g pcc
を実行すると、msgbの画面が青→赤→青と変化し、
SCOUT(gfsv): [gfcl1.cl.org] accept() timed out
と表示され、scoutが起動できません。
いろいろとネットを調べたのですが、載っておらず、困っております。
解決策をご存知の方、教えていただけると幸いです。
126 :
mariko:2005/03/25(金) 15:00:59 ID:C7Cohu8t
bourne shellを使用しているユーザがターミナルからシェルスクリプト
を実行し、あるジョブプロセスを起動します。シェルスクリプトを起動
したターミナルを閉じると、実行中のジョブプロセスは終了してしまい
ました。
C shellに変えて、同様のジョブを実行するシェルスクリプトを起動し
その後、スクリプトを起動したターミナルを閉じましたが、ジョブスクリプト
は実行を続けます。
この違いはなぜ起こるのでしょうか。
ご存知の方、おられましたら教えてください。
127 :
mariko:2005/03/25(金) 15:06:31 ID:C7Cohu8t
126を削除してください。
「くらだない質問」に書き込むつもりで間違えました。
128 :
login:Penguin:2005/04/30(土) 13:09:55 ID:s+NsBMoO
うまく成功してる人いる?
OpenMosixってどうよ?
プログラム側の修正は無くてもいけそうだけどどうなの?
Redhat GFSって分かりやすく言うと『互いのノードからSAN環境?の
ストレージのディスクを(2重に)マウントして、それぞれが書き込み可能な
状態にありながら互いのノードから書き込んだ内容は即座に反映されて
なおかつ整合性が保たれているファイルシステム(ext3の拡張??)』という事で
いいんですよね?
でも共有ストレージやSAN環境を使うことが前提になると個人での
導入は価格的に不可能っぽい・・・
http://www.jp.redhat.com/software/rha/gfs/ ※ちなみにVMWareでFedoraを2ノード起動して物理ディスクを2ノード
からマウントさせて書き込みテストなんかをしてみましたが、マウントを
し直さない限り互いの書き込み内容は反映されてませんでした。。
>ストレージのディスクを(2重に)マウントして
何処にそんなことが書いてある?
あくまで、クラスタ環境での話だろ。
132 :
130:2005/06/04(土) 21:53:01 ID:wJF5rZXP
>>131 ごめんなさい。表現がわかりずらかったですよね。
複数のクラスタノードからの共有ディスクの(仮想的な)多重マウントを実現していると
考えたのは以下のページの情報からです。
http://www.newtech.co.jp/products/san_pack/GFS/ NFSやSAMBAなんかだと、複数ノードからのアクセスはTCP/IPのレベルで
排他制御をしている形になると思います。でもFCSのチェックや再送制御
なんかで多少のオーバーヘッドが発生してレイテンシが高くなる。
Redhat GFSの場合はTCP/IPでカプセル化するのではなくSCSIプロトコル
を使用してアプリケーション層に近い場所で排他制御しているため、レイテンシ
が低くできることが利点?と考えたのですが・・・
>>130,132
言いたいことは分かる.
どの程度の価格から辛いのかよくわかんないけど,
1) PCの箱空けて内蔵用SCSIディスクを共有
あるいは
2) iSCSI(あるいは nbd) を利用
とかだと安くGFSで遊べる.
1) は昔実際やったことあるけど, 電気的に大丈夫なのか不安に
なったので2週間くらいでやめた.
ふむ
135 :
login:Penguin:2005/07/26(火) 02:31:45 ID:ERF7wapp
クラスター環境構築する時って何台も同じ環境のOSを用意するわけじゃないですか。
皆さん、マシンにOSをインストールする時って、1台1台Linux'をインストールしていくんですか。
それともなにかOSのイメージをHDDに書き込んで後は諸設定(IPとか)するだけでノードに参加できる!みたいな仕組みでもあるんでしょうか。
あ、それか、サイレントインストールみたいな仕組みをつくっちゃうとか?
その辺の実態がまったく分かってないのですが、どうなんでしょうか。
| |
| |∧_∧
|_|´・ω・`)
|梅| o終了o
| ̄|―u'
""""""""""
| |
| |∧_∧
|_|´・ω・`)
|桜| o ヽコト
| ̄|―u' 終了
""""""""""
| |
| |
|_|
|松|ミサッ
| ̄| 終了
""""""""""
>>135 もう1ヶ月以上前の書き込みか・・・
Aoyama Plus では FDブートしてたっけ。
俺は昔、LANカードにブートプログラムを焼いたROM載せて、サーバからカーネル読んで
ブートさせてたことがある。完全ディスクレス。
138 :
初心者:2005/09/15(木) 01:58:54 ID:MAqHCqn7
__ __ __ __ ____
|ACTIVE1 | |ACTIVE2 | |STANBY | ←サーバ3台
 ̄ ̄  ̄ ̄  ̄ ̄ ̄ ̄  ̄ ̄ ̄ ̄
|___3ノードクラスタ___|
3ノードクラスタを組んでACTIVE1が死んだときの動きは?
設定依存だヴァカ
(^Д^)9pプギャー
141 :
login:Penguin:2005/09/29(木) 17:26:06 ID:0gCiPw4w
複数サーバー間でディスクの内容を同期したいと思っている。
詳細は以下のとおり。
__ __ __ __
|ACTIVE | STANDBY | ←サーバ2台
 ̄ ̄  ̄ ̄  ̄ ̄ ̄ ̄
|___2ノード __|
ACTIVEがこけたら、STANDBYがディスク内容を引き継ぎ
継続運用する。共有ディスク型ではなく、あくまで各サー
バーのローカルディスクを使用するディスクミラー型を考えている。
ありきたりな構造だとおもうが、最適なソリューションはないか?
やっぱり、rsyncが手っ取り早いか?
こことかが有用かと参考にしてるんだが、いまいちわからん。
http://sources.redhat.com/cluster/ CLVMでミラーリングができる云々と聞いたことがあるんだが・・・・
なにかいい案あるなら教えてくれ。
144 :
login:Penguin:2005/10/01(土) 11:16:30 ID:EgT6Wx2j
前段にUltra Monkey置く手もある。サービスにもよるが。
>>135 なんか学生時代を思い出した。
普通に一晩で16台とかいんすとーるして、MPIのせっていとかしてた。
簡単にできるものだったのかよくわからないが、
それに比べるとScoreはFD入れるだけでノードのインストールが簡単にできた覚えがある。
というか、経験的にはクラスタを作ることよりクラスタで動くプログラムを作るのが難しいんじゃないかと思うのだが・・・。
しかし、卒業して今はPCはインターネットぐらいになってしまった。
しかも結構winで十分なことしかしてない自分に鬱だったり・・・。
146 :
login:Penguin:2005/10/03(月) 11:57:10 ID:MuRNGphP
>>144 レスサンクス。Ultra Monkeyはロードバランス型のHAソフトウェアがあったか。これを
使うと、シングルマスタ(Active|Standby)ではなく、マルチマスタ(Active|Active)
での運用が可能かと思うのだが、この場合やはりディスクの同期はどうしたらいいのだろう?
必然的に共有ディスク型になるのだろうか?できれば、ディスクは各サーバー内に配置したまま
のミラーディスク型でいきたいのだが・・・
147 :
login:Penguin:2005/10/05(水) 23:13:19 ID:qDNRq113
>>146 まず何のサービスを動かすかだ。
同時に更新かけるとややこしいので、片方参照のみだったらUltraMonkey&rsyncでいいんじゃね。
バランサ(Active|Standby) UltraMonkey
ファイルサーバ(Active|Active←参照のみ) rsync
まずければlinux-haかなんかで(Active|Standby)とするのがよかろう。
先に復旧手段考えておくのとテストしておくほうが良い。
変わったところでは並列ファイルシステムのPVFS2というのもある。HAになるかは知らん。
149 :
login:Penguin:2005/10/14(金) 14:14:09 ID:k2lzvwax
>>148 csync2よさげだね
誰かこのツール使用経験あるなら、インプレ頼む。
150 :
login:Penguin:2005/10/20(木) 20:49:13 ID:RvvlWw9J
>>150 これHPが昔からやっていてタンデムやディジタルのクラスター技術をLinuxに移植したって
やつだよね。 どうなんだろう。 かなりこれカーネルをいじりまくってるみたいだが
これを本家のカーネルに採用してもらおうという動きはあるのだろうか?
3年前にRHの技術者とクラスター技術のことを話しててSSIの事を聞いたら「あれは醜い」
と一言で却下された。
152 :
login:Penguin:2005/10/24(月) 00:12:42 ID:lv1/5OYB
>>151 SSIのことを知っているやつは若干だがいるようだな。
しかし、openMosixに比べると弱いな。なぜ? やっぱ(入門用)雑誌に書かれないとダメか。
ところで、RHってアキバのあの人達のこと? その発言が技術とか有用性とかとなんか関係あんの?
153 :
151:2005/10/24(月) 21:20:11 ID:XaG6Biyi
154 :
login:Penguin:2005/10/24(月) 22:49:16 ID:lv1/5OYB
>>153 アキバのあの人達==アキバのHFビルの赤帽
155 :
151:2005/10/25(火) 01:21:58 ID:0Wt45N8p
>>154 ボストンにあるエンジニア部門。 Enterprise Serverの部署だといってたけど、
本社からは離れてるからどれだけ中核に近い部門なのかは分かりませんね。
156 :
login:Penguin:2005/11/03(木) 01:38:38 ID:kvg4YbTL
OK、redhat。
(´∀`* ) 流石だな兄者
( *´∀`) / ⌒i
/ \ | |
/ / ̄ ̄ ̄ ̄/ |
__(__ニつ/ redhat!! / .| .|____
\/____/ (u ⊃
mencoderを複数マシンで分散エンコできるようになると
うれしいねぇ。
158 :
login:Penguin:2006/01/16(月) 13:40:38 ID:XAJH1lPk
Cluster Suite 大まか、こんな面子です。↓
* ccs-1.0.2-0.i686.rpm
* ccs-devel-1.0.2-0.i686.rpm
* cman-1.0.2-0.i686.rpm
* cman-devel-1.0.2-0.i686.rpm
* cman-kernel-2.6.9-39.8.i686.rpm
* cman-kernel-hugemem-2.6.9-39.8.i686.rpm
* cman-kernel-smp-2.6.9-39.8.i686.rpm
* cman-kernheaders-2.6.9-39.8.i686.rpm
* dlm-1.0.0-5.i686.rpm
* dlm-devel-1.0.0-5.i686.rpm
* dlm-kernel-2.6.9-37.9.i686.rpm
* dlm-kernel-hugemem-2.6.9-37.9.i686.rpm
* dlm-kernel-smp-2.6.9-37.9.i686.rpm
* dlm-kernheaders-2.6.9-37.9.i686.rpm
* fence-1.32.6-0.i686.rpm
* gulm-1.0.4-0.i686.rpm
* gulm-devel-1.0.4-0.i686.rpm
* iddev-2.0.0-3.i686.rpm
* iddev-devel-2.0.0-3.i686.rpm
* magma-1.0.1-4.i686.rpm
* magma-devel-1.0.1-4.i686.rpm
* magma-plugins-1.0.2-0.i386.rpm
perl-Net-Telnet-3.03-3.noarch.rpm
* piranha-0.8.1-1.i386.rpm
* rgmanager-1.9.38-0.i386.rpm
* system-config-cluster-1.0.16-1.0.noarch.rpm
* lvm2-cluster-2.01.14-1.0.RHEL4.i386.rpm
160 :
login:Penguin:2006/01/30(月) 23:05:46 ID:nSafdTe/
LifeKeeperてどうなの?
162 :
login:Penguin:2006/08/08(火) 16:50:37 ID:daGQirag
OpenSSI 1.9.2 だれか言わんのか
>>105 二年越しのレスですまんが、ライフキーパーを使った案件に参加したことがある。
客は、日本最大携帯電話会社。
使い勝手と機能は申し分なかった。
165 :
login:Penguin:2007/02/16(金) 01:17:54 ID:YaUL/yD+
\ U /
/ ̄ ̄ ヽ,
/ ', / _/\/\/\/|_
\ ノ//, {0} /¨`ヽ {0} ,ミヽ / \ /
\ / く l ヽ._.ノ ', ゝ \ < バーカ! >
/ /⌒ リ `ー'′ ' ⌒\ \ / \
(  ̄ ̄⌒ ⌒ ̄ _)  ̄|/\/\/\/ ̄
` ̄ ̄`ヽ /´ ̄
| |
−−− ‐ ノ |
/ ノ −−−−
/ ∠_
−− | f\ ノ  ̄`丶.
test
巫女 GNYO/Linuxで簡単にできるということを昨日知った。
ただし、PCクラスタができあがったところで、
それの上で何のプログラムを動かしたら良いのかが分からない。
Fording@homeなら自分のところにPenIIIがたくさんあるので、それを全部集めれば
そこそこの計算能力になるとは思うのだが、肝腎のやり方が使いかたが分からない。
168 :
スチャラカ法学生:2007/04/19(木) 22:51:52 ID:X1EkHbzE
PCクラスタリングのキーワードになるSCoreというのももちろん知ったのは昨日である。
あげときますね、age
ベリタスクラスタサーバは?
170 :
login:Penguin:2007/05/19(土) 17:37:24 ID:CKwuk/2W
CentOSの最新版で標準装備されているってのは本当ですか?
171 :
login:Penguin:2007/06/28(木) 13:19:32 ID:vDx4auzO
172 :
login:Penguin:2007/10/02(火) 16:13:32 ID:TsvvWJ1+
OpenSSI 1.9.1のインストールにチャレンジしたけど挫折
173 :
login:Penguin:2007/10/13(土) 18:05:00 ID:oP8L0RXM
まるで盛り上がってないな。。。
やっぱ領域が特殊過ぎるのか?
>>174 でも,ちゃんと更新チェックしてる俺ガイル
>>1 の意図するところがわからんというか・・・
ソフトウェアクラスタってそもそも何なのさ。
別に何も分からなくないと思うけど?
「ソフトウェアクラスタ」って用語に違和感を覚えるなら、
ググってみるといいよ。
共有ディスク作れないかな?
dlmで作れるんだと思う。
やっぱそれか。
centosのクラスターなんちゃらってパッケージ使うと
研究室に余ってる古いPCつかってCPUサーバーできたりするのかな
CentOSのはRHCSでしょ。
CPUサーバってのがグリッドのことなら、クラスタ違いだな。
それって2台で出来る?
>>184 上の記事では2台でできるみないなことが書いてあったのですが。でも実際に手を動かしてるわけではないので,何ともいえません。。。
NICを複数枚つけて一台でiSCSIターゲットとロードバランサを兼ねればできるような気がします。
時間がありましたら実際にやってみます。
ん?
最後の“ocfs2(gfs2)”って、そのページに載ってる?
DRBDでprimary/primary構成にするにはocfsかgfsが必要になるような気がしたので。
上のページと完全に同じことをするわけではありません。そのページでは,片方のiSCSIターゲットをスタンバイとして,フェイルオーバーするところまでしか実験していないと思います。
一歩進めて,ロードバランシングまでしたいんです。LVSかなにかのロードバランサでiSCSIを使えたら冗長化だけでなく負荷分散もできるのかな,と思いまして。
でもLVSでiSCSIのロードバランシングができるかわからないんですよね。やってみないと。ググって調べてはみましたが,実例がみつりませんでした。
それにiSCSIのターゲット名が重複していいのかもわかりません。
などなど頭の中で考えてるところです。
仮想マシン使って実験してみました。ごめんなさいこの仕組そのものが無理でした。
とんちんかんなこと書いてしまってお恥ずかしいです。
問われてたことの意味が分かったのかな?
わかったと思います。
iSCSIのターゲットはファイルシステムを通さずにディスク(またはブロックデバイス?)にアクセスするんですよね?
iSCSIを利用してDRBDをprimary/primary構成にできなかったのはこのためだと思います。
iSCSIの代わりにNFSを使ってみたところ,設計どおりに動きました。
基本的なところがわかっておりませんでした。
スレ汚しして申し訳ありません。
Active|Activeの構成で
Aの鯖にIMAPとApache
Bの鯖にMySQLとJBossという構成にしておいて
もしAがフェイルした場合、Bの鯖に一時的に
IMAP、Apache、MySQL、JBossの全サービスを
稼働させるような設定ってできますよね?
いまどきのクラスタウェアで相互スタンバイができないものはないやろ。
>>193 何が言いたいのか分からん。
>>191が聞いてんのは、Active/Stanby構成ではなく、Active/Active構成な。
さらにその答は
>>192が書いた通り、普通出来るだろ?ってことで終わってる。
>>194 知識不足ですみません。
Active/Active構成と相互スタンバイって矛盾しないですか?
>>195 そのとおり。
>>194も間違っている。
Active/Active構成と相互スタンバイは意味が違う。
相互スタンバイはまさに
>>193のとおりで、
Active|Stanbyの変化バージョンに過ぎない。
そもそも、
>>191の訊き方が間違っているわけだが。
>>196 ノードがActive/Activeなのと、リソースがActive/Activeなのは別次元の話。
さらに、両アクティブの相互スタンバイ構成ってのは、特段珍しい話じゃない。
>>197 またまた知識不足ですみません。
「リソース」という言葉はどういう意味で使ってるんですか?
「ホットスタンバイ」と「コールドスタンバイ」の話ですか?
>ノードがActive/Active
文脈よめよw
そうでないものは、ここで言うHAクラスタには含まれていないことは明らかだろ。
なんかバリバリ初心者ですみません。
ここでのノードとかリソースの用法がよくわからないんですけど,
ノード⇒マシン
リソース⇒ソフトウェアってことでOK?
負荷分散型(RAC)クラスタなら全てのマシンが稼動しているのが前提だし,
高可用型(HA)クラスタでもホットスタンバイがほとんどだと思ってました。
いわゆる相互スタンバイもホットスタンバイじゃなきゃ無理ですよね?
リソースといったら、アプリケーションとかファイルシステムとかサービス提供用のIPアドレス
なんかのことだろうな。まあ197は混乱させるのが目的としか思えないし、ほっとけばいいでしょ。
解説thx
N+1型なんかだとコールドスタンバイのものもあるけど、
普通、HA型クラスタという場合には、コールドスタンバイのものは含めない。
>>199 > >ノードがActive/Active
> 文脈よめよw
> そうでないものは、ここで言うHAクラスタには含まれていないことは明らかだろ。
文脈関係ねーな。
単にお前が無知なだけだろ。
片系スタンバイのHAクラスタは「ここで言うHAクラスタ」に含まれていないとでも?
>>200 「ノード」はネットワークに接続するモノで、ここではサーバを指す。
「リソース」は資源のことで、一般的なHAクラスタの場合は、
サービスを提供するプロセス、サービス用IPアドレス、共有ディスク等。
それから一般にRACってのはOracleのReal Application Clusterのことで、
負荷分散クラスタはLB(Load Balancing)クラスタと呼ぶ。
ついでに書いとくと、何らかのリソースがホットスタンバイかコールドスタンバイかと、
クラスタのノードやリソースがアクティブかスタンバイかってのは別次元の話。
gfs2用のcluster.conf書いてるのだが
Node Sts Inc Joined Name
1 x 0 fs0
2 M 32 xxxxx fs1
となってしまう何がいけないんだ?
下のconfがイケてないのかな?
<?xml version="1.0"?>
<cluster name="cluster1" config_version="3">
<cman two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="fs0" votes="1" nodeid="1">
<fence>
<method name="single">
<device name="devfs0" ipaddr="192.168.1.13"/>
</method>
</fence>
</clusternode>
<clusternode name="fs1" votes="1" nodeid="2">
<fence>
<method name="single">
<device name="devfs1" ipaddr="192.168.1.12"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice name="manual" agent="fence_manual"/>
</fencedevices>
</cluster>
207 :
login:Penguin:2008/01/07(月) 00:31:14 ID:WQVsiCBf
openMosixでクラスタ入門しようと思うんですけど
いくつか疑問があって、
まず、CPUの扱いなのですが
マルチプロセッサと言う形になるのでしょうか?
ということは、マルチスレッドのプログラムであれば高速化が見込めるのでしょうか?
それとも、複数のプロセスで動かす事を念頭に置かなければ、無意味なのでしょうか?
もうひとつは、メモリの扱いなのですが
例えば、ホストAに2G、ホストBに4Gと詰まれてた場合
システムからは6Gのメモリとして見れるのでしょうか?
その場合、32bitのシステムでは上限に問題が出る気がするのですが・・・。
>>207 マルチプロセッサと言う形だけど、
どちらかと言うと、プロセス単位での並列実行だね。
CPUの空いてるマシンでプロセスを実行する感じ。(マイグレードって言うんだけど)
で、マルチスレッドを使ってたりIOへのアクセスがあるプロセスだと、マイグレードが行えない。
メモリの扱いだけど、上のとおりなので、マイグレード先のメモリの量になる。
やっぱ、openMosixを使ってる人ってまだまだ少ないのかな。
便利なんだけどなぁ。
>>208 openMosixって,開発終了したんですよね?
もちろん古いバージョンのカーネルで十分安定してると
は思うんですけど,
え?開発終了ってマジ?
おもっくそ、研究用途で、そのシステム組もうと検討してたんだが…
#まぁ、資料が少なすぎて困ってたわけだが。
やっぱ、既存のプログラムを修正しなくて良いってのが魅力的だったけど
ちゃんとMPIで組みなおすべきなのかな。パフォーマンスをあげるなら・・・。
マイグレード
migrate じゃない?
>>210 MPIでやるなら、色々他に検証すべき事があって面倒だぞ。
マルチスレッドじゃなくて、マルチプロセスで出来るなら、そっちでやった方が楽。
下手な実装だと、MPIは遅いぞ。
>>213 終了理由がはっきりしないんだけど、
・OpenMosixが対象とするクラスタ規模は~8台程度
・マルチコアプロセッサが登場し、普及しつつある
ということでOpenMosixはもうなくてもいいやってこと?
あ、8てのは「マルチコアがでてきたからもういいやー」という文面から
そのあたりを適用範囲として考えていたのね、という想像です。
8以上になると、なんかあんの?
ネットワークのオーバーヘッドの方が大きくなって、性能が伸びなくなるって話?
いや、
マルチコア時代になったから役割終わったしプロジェクトエンドねー
て言うという事は、逆に言えばMosixの適用範囲はマルチコアの有効範囲と
同等という想定があるということで、つまり8コアあたりまでが想定だったのかな、と。
んで、そのあたり詳しい人いない?と振ってみた。
まあ仮想SMPマシンを作るものだから通信遅延の問題だろうなぁとは思うけど。
Heartbeat2.x用の
OCFってどうやって書くんだ
なんか参考資料ないですかね?
slpadとpop3を独自のルールで追加
したいのですが
>>217 ほかに、MosixのLinuxカーネルとタイトに融合した設計に
限界があるとか(最新カーネルおっかけるの大変だろーし)
でもそれが最大の利点でもあるしなあ
openMosixが有効に動くパターンがイマイチわからない。
p-threadを使った場合は、migrateしないんだよね?
forkでも、IOの操作があるプロセスの場合だと、使えない?
う〜む、結局プログラム組みなおしなのかぁ。。。
SCoreとopenMosixの同居って可能?
どっちもカーネルパッチを当てないといけないので
普通に当てたらダメだよね。
223 :
anonymous coward:2008/05/11(日) 01:16:34 ID:mZdzF94T
DRBD8 + GFS2 で active/active な構成のディスク領域を作っておき,
そのディスク領域を NFS で export する,という構成を実現されている人
いらっしゃいますか? いたら,方法をご教授願えないでしょうか.
手元で試しているのですが,nfsd が CPU を占有して load average が
上昇しつづけ,システム全体がまったく応答しなくなる,という症状に悩ま
されています.
えー,先に断っておきますが,DRBD8 で作ったデバイスそのものを GNBD で
export して NFS を使わないという解法は「なし」でお願いします.
Debian Etch と Debian Lenny の混在環境で古い環境を捨てられない事情
があります.で,Debian Etch だと RHCS ver1 系列のパッケージしかまだ
入っていなくて,Lenny に入っている RHCS ver2 系列とは同居できないよう
なんですね.いや,そんなことはない,同居できるはずだ,ということでしたら
ご指南お願いします.
225 :
login:Penguin:2008/05/28(水) 11:00:55 ID:Zw3nFKut
巫女ぐにょの起動がまだできない。
おまけに英語キーボード配列だし・・・・。
PCクラスタを組みたい。
228 :
login:Penguin:2008/05/31(土) 16:24:51 ID:djlvkGmR
【鍵】東京6局再送信中 KeyHoleTV Part.7【穴】
1:sage 05/13(火) 17:18
前スレ
【鍵】東京6局再送信中 KeyHoleTV Part.6【穴】
2chスレ
【KeyHoleTV公式サイト】
http://www.v2p.jp/video/ Q&Aは読みましょう
age推奨、ロケフリ業者お断り、PeerCastとSopCastはスレ違いではない?
Linux版のKeyHoleTVがまもなくリリースされます。α版の実験に協力していただける方を募集しております。
現在の動作環境は、SuSE10.0 GDK GTK2.0 Pango です。他のLinux 例えば Redhat 系のもの、TurboLinux系の
もので動作確認ができませんので、御協力をお願いします。
229 :
227:2008/06/05(木) 02:59:11 ID:RTa9LNrZ
自分が組みたいのはクラスタというよりもグリッドという気がしてきた。
SCoreだのMPIの勉強だのするよりも、とっととX端末、シンクライエントの作り方を勉強したほうが
自分の生活に合ってるような…。
グリッドってのはHPCクラスタなんだが。
グリッドコンピューティングなら Folding@home が一番有名だと思うが
232 :
login:Penguin:2008/06/25(水) 17:06:03 ID:b979D5F+
>223
backportsで同居できるんじゃない?
>>230 HPCクラスタ = グリッドってのはちょっと違うと思うよ。
HPCクラスタってのがEthernet, Myrinet, InfiniBandとかで相互接続された
数〜数千ノードの1システムを指してるのが前提だけど。
そういう類のHPCクラスタに関連させてグリッドって言葉を使う時は、
複数のHPCクラスタを更にクラスタリング(要はクラスタのクラスタ)していて、
且つ個々のクラスタが広域のネットワーク(インターネットとか)を
介して繋がってるような形態を指してる場合が多いかと。
つまりハマチとブリみたいな関係ですね。
クラスタ=ハマチ、グリッド=ブリ。成長するとブリになる。
>>235 世の中一般の"定義"として書いたわけじゃないよ。良く読んで。
仕事である程度の規模のHPCクラスタと関わりがあって、
国内外の大規模HPCクラスタの構築事例とかに割りと目は通してる。
その上でHPCクラスタ = グリッド"という定義はまず見ないから、
230に対する意見を書いただけ。
>>236 文章分かりにくくてすまん。
でも、簡潔に書けるならそれを書いて欲しい。
>>237 そもそもどこにも“=”とは書いてないと思うが。
>>230の書いた
> グリッドってのはHPCクラスタなんだが。
を否定するなら、HPCクラスタ使ってないグリッドの事例出さないとな。
OGF/OGSA的定義もたまには思い出してあげてください
HPC君には触るなってば
>>241 お前の頭の中ではSETIが標準なのか?
だとしたら今後一切何も語るな。
恥かくだけだから。
日本語読めない人?
こういうときにレアケース持ち出すヤツって頭悪いよな。
HeartBeat+DRBDでクラスタを構築する予定ですが
各Versionは最新のもので動く(sync)のでしょうか?
とにもかくにも、CentOS5でyumによるインストールするとどうなるか確認してみました
heartbeat-2.1.3-3.el5.centos
drbd82.i386 0:8.2.6-1.el5.centos
HeartBeatのVer2系と、DRBDのVer0.8系です
Webの記事サイトではHeartBeatのVer2系は、DRBDのVer0.7系ではないと書いてありました
しかし、DRBDの本家サイトでは
-----
heartbeat V2を使うための前提条件は、heartbeat V1と同じです。
実際、V1の設定を使ってもV2を利用できます。しかし、V2に追加
されたクラスタリソースマネージャ(CRM)を使うには、次の行を
/etc/ha.d/ha.cfに追加しなければなりません。
crm yes
-----
上記言葉通りであれば、 問題なさそうですが
御経験者の方がいらっしゃれば、経験談を教えていただけないでしょうか?
>>246 まず動くの厳密な定義を言えよw
つか自分でやれ
>>246 俺もそう思って、検証してみました
結論は動いたなんですが、Active-Stanbyですので
週末にでもHeartBeatV2のクローンモードを使って
Active-Active
をしてみます〜
heartbeatで監視中のサービスが落ちた場合
同時にkeepalivedも落とすようにCRMを記述したいのですが
どこかにサンプルなんてないでしょうか?
251 :
login:Penguin:2009/02/06(金) 12:01:29 ID:3i0MqBLR
drbdとheartbeatでクラスタ環境構築中です。
まずは双方にCentOS4.5をいれ、同じパーティションサイズで区切って、同じdrbdのバージョンをyumにてインストールしました。
次に、drbd.confもまったく同じものを用意し両方のノードに入れたのですが
片方のノードではdrbdが起動し片方のノードではdrbdが起動しないといった問題が発生し、下記のようなエラーが出てしまいます。
Restarting all DRBD resourcesioctl(,SET_DISK_CONFIG,) failed: Invalid argument
Low.dev. smaller than requested DRBD-dev. size.
Command '/sbin/drbdsetup /dev/drbd0 disk /dev/sda5 internal -1 --on-io-error=panic' terminated with exit code 20
なぜまったく同じ環境において片方のノードは稼動し、片方のノードはエラーとなる現象が出てしまうのでしょうか
Heartbeat+apache(Active/Active)+DRBD+NFS(Active/Standby)
という構成で、共有ディスクをhttpドキュメントルートにしようと思ってたのですが、
apacheのディスクアクセスは片方のサーバーに集中するということで
冗長化にはなっても、負荷分散にはならない?と思えてきてしまいました。
コレについてのツッコミ、またはなにかいい構成案あったらご意見いただけませんでしょうか?
>>223 さんの、DRBD8 + GFS2 で active/active という手はなんか不安定っぽいですね、、、
253 :
login:Penguin:2009/08/03(月) 10:34:19 ID:QNM9yNVf
3日くらい手こずってわかったんだけどcmanてNIC選ぶんだね
Via(玄人のPCI,PCIe)のNIC全般で双方向のノードの確認がとれないみたい。
ccsdで相手のノードを確認しようとするときコネクションエラーが出る。
VIAのUDPの対応がおかしいのかccsdのUDP接続のレシーブらへんがおかしいのか
ソース全部見てないしからわからない
ちなみにCentOS5.3
cmanは最新版だと思う(yumインストール)
・動く
Reaktek Realtek RTL8111B
Intel 82572EI
Broadcom BCM5721
・動かない
VIA VT6130
VIA VT6122
255 :
login:Penguin:2009/10/03(土) 22:55:04 ID:juzmR3Ux
>>254 どう足掻いてもできなくて、
仕方ないから自作物を稼動させる事で解決
確認なんだけど
そもそもこれって稼動中にノードの新規追加とかってできないよね?
2x台サーバがあって随時ノード追加で停止せずにクラスタリングしたいっていうのがやりたかったんだけど
>>255 VIAチプの場合はメモリ多いとWindowsですらちゃんと動かないですよ。
cmanはちとわからん
>>253 それはcman以前の問題では?
VIAだけでなく、蟹のRTL8111B/CもMarvellも挙動不審だよ
旧型PS3が手に入ったので手持ちのPCにlinux体験も兼ねてクラスタ構築に挑戦してみようとしたのですが、PS3同士以外の情報が全くといって良い程見つからない
物の試しにx86-64bitでのクラスタで検索してみても「x86-64のハイブリっとな構築はサポートしてない」て説明ばかり
Cellとx86じゃ構築は絶望的という認識でいいでしょうか?
SSH辺り使って全部自分でやれば何とでもなるだろ?
“クラスタ構築”の意味にもよるが
260 :
login:Penguin:2010/08/07(土) 11:35:26 ID:rHQUwHMy
現行Mosixを使っている方いらっしゃいませんか?
現在複数のマシンでクラスタを組もうとしています。
http://www.mosix.org/txt_distributions.html 上記URLから2.6.34.1用のMosixをダウンロードしまして、パッチ済みのカーネルの機動と
mosixdの機動までは確認できましたが各マシンをつなげる所までには至っていません。
多分mosix.mapの設定が悪いのでしょうか。
もしヒントになるページやコミュニティをご存知の方教えていただけないでしょうか。
CPUの空いてるマシンでプロセス単位で仕事を分けていくというのが私の中の理想でして
なんとか動かしたいと思っています。
お願いします。
あれ?MOSIXって数年前にプロジェクト廃止されなかったっけ?
「MOSIXがターゲットとする8-16CPUのクラスタは将来マルチコア/SMPでカバーされる」
とかオワタ宣言してたような。復活した?
Mosixはもうずいぶん昔に終わってるよ。
システムコールを1台のホストだけで実行する(だからアプリケーションの
大きな書き換えなしでクラスタ化できる)というデザインだからスケールしない、
カーネルに複雑さを追加するに見合う効果は無かった実験的なプロジェクト
だったと思う。
そうするとプロセスマイグレーションとかしちゃうよ、
ホントに物理的な複数台のマシンを単一システムとして動かしちゃうよ、
みたいな奴だとOpenSSI位が残ってるだけ?
これも更新は2010にあるけど、カーネルとか滅茶苦茶古いんで大丈夫かな。
DBクラスタとか、分散KVSとか、用途特化型クラスタが結局道具として
使いやすいということかね。システムの底から全部とやろうとすると
そこまでの機能を必要としない用途のスケーラビリティのネックに逆に
なってしまうと。
northwood前の頃、安いパソコンを 30台くらい並べて Mosix したなぁ。
数値計算用途だったから、十分スケールしてた。
けど、一台でも調子が悪いのがあると全部おかしくなるので、安定するまで大変だった。
>>265 へぇ、OpenMosixは途絶えたかと思っていたら、部分的には続いてたんだ。
こんなスレあったんだ。えらい息の長いスレだな。
ところで今、armelのNASにdrbd+clvm+gfs2+sambaしようとしてるんだが、
なぜかclvmdが起動してくれん。
drbd上に直接gfs2すると、mkfs.gfs2はできるがmountすると帰ってこない。
primary/secondary構成のdrbdデバイスも持たせて、
そっちはpacemakerでフェールオーバさせたいと思ってるんで、
clvmは動いてほしいんだが。
勢いでcorosyncまで突っ込んだまま、そっちはまだ全然設定してないのがいけないのかな。
それともsqeezeのパッケージはまだどっかおかしいのかな。
よくわからん。
VMware上にlennyの仮想マシンを作って似たようなことを試してみたら、
clvmがあっさり動いた。
どうやらsqueezeのclvmがダメダメっぽい。
corosyncに対応してないらしい。
ccsdに繋ごうとしてしくじってるわけだな。
deb系でクラスタしたいひとは、現時点ではまだlennyかLucid Lynxだな。
270 :
login:Penguin:2011/01/31(月) 21:22:17 ID:f9RJoshb
tesw
Cent5.5のRHCSが思った以上に不安定だな
動かすのはそんなに難しくないがクラスタが一旦崩れると復旧が難しい
ログも少なすぎて原因の追究難しいし
heartbeatでHAを構築しています。
リソースグループが起動し終わってから、別のマシンの電源を入れるためにマジックパケットを投げたいのですが、何か良い方法はありませんか。
リソースグループの最後の監視対象にマジックパケットを投げるコマンドを追加するのも良いかもしれませんが、リソースグループの起動完了のタイミングで何かを行うような仕組みがあればスマートかなって思いまして。
環境はDebian squeezeで、heartbeatは3.0.3です。
te
tes
お?
ちがうわー
痛痛しいなw
279 :
login:Penguin:2012/07/22(日) 22:25:40.11 ID:cLPKJVWd
HPCクラスタってすれば作れますか?
もちろん
281 :
279:2012/07/23(月) 03:54:41.07 ID:VQAEsVT9
どの程度の知識が必要でしょうか?
www
どの程度を想定してるのかわからないけど30台並列ぐらいになると付け焼き刃じゃ厳しくなるかと
結構広範囲な計算機科学の知識が必要だし、この分野ってあんまりノウハウが教科書的にまとまってないしね
どんな事がしたいの?
284 :
login:Penguin:2012/08/31(金) 17:46:14.77 ID:3lrC90Dw
pxeでUbuntu12.04のディスクレスクラスタを構築してるんだけど
disklessノードにSATA disk 挿しても/devにでてこないからマウントできない
ソフトウェアクラスタでなくてスマソ
286 :
login:Penguin:2013/11/25(月) 12:44:54.13 ID:dpf8MxjS
今のおすすめはなに?
やっぱりHeartBeat?
個人で使ってる範囲では今のところトラブルないなあDRBDは。
heartbeatとか組み合わせて自動でどうにかしようとすると
確かにはまりそうな気はする。
ぬるぽ
ガッ
あ
やってもいないことをやったと言う、カコワルイ。。。
ぬるぽ
あ