Linuxでソフトウェアクラスタ〜

このエントリーをはてなブックマークに追加
11
Linuxを使ってWebサーバ、Mailサーバ、DBサーバのソフトウェア
クラスタ(ロードバランスね)を実現する手段をいろいろと研究してます。

ttp://www.linuxvirtualserver.org/
ttp://www.linux.nttcom.ne.jp/solution/product/progartlce/
ttp://www.ace.comp.nec.co.jp/CLUSTERPRO/
ttp://www3.toshiba.co.jp/cn3/cluster/index_j.htm
ttp://www.turbolinux.co.jp/products/cluster/tlcs6/

これ以外にも何かあったらカキコお願いします
稼動実績やハードウェアクラスタと比較した場合の費用対効果など、
何でもどーぞ
2login:Penguin:01/09/09 18:09 ID:xey6.zKE
メーカー製の製品じゃないし,詳しく見てないんで,よくわからないけど
LINUXを商用向けにするプロジェクトみたいだよ.

High-Availability Linux Project
http://linux-ha.org/

サーバのクラスタリングもやってるみたい.
31:01/09/10 12:03 ID:QzhZnDAo
なかなかレスがつきませんね。。。
やっぱり情報が少ないんでしょうか...
4login:Penguin:01/09/11 13:53 ID:SkB7ACjE
age
5login:Penguin:01/09/12 13:33 ID:sy0TtGWo
age
6login:Penguin:01/09/12 16:28 ID:oEFiUDxQ
>>1
色々研究してるならリンクだけでなく
自分から情報出せばいいんじゃない?
クレクレだけじゃ盛り上がらないよ。
まあここはクリティカルな運用してる人
あんまりいないかもね。
71:01/09/12 18:38 ID:eGmaFEGg
>>6
ごもっとも。
そうは言っても、実際のところあまり情報がなくて、まだ自分のところで
試しているlinuxvirtualserverもちゃんと動いてないんですよ。。。
OPSのように、DBでロードバランス&フォールトトレランスな構成が
作れたらベストだなぁと思っているんですが、これってDB側で対応
してくれないとダメなもんなんですかね。。
素人でスマソ
8名無しさん@お腹いっぱい。:01/09/13 02:05 ID:7GofVNQo
mosixは?
9login:Penguin:01/09/13 19:18 ID:E8eQYm3Y
DB なら usogres は?
http://usogres.good-day.net/
PostgreSQL 限定だけど。

ってこれはフォールトトレラントだけっぽいか。
10login:Penguin:01/09/14 10:04 ID:un555zKs
age
11名無しさん@お腹空いた:01/09/14 18:09 ID:LSwWHjpw
http://ultramonkey.sourceforge.net/

>>1のリンク先の成果物をまとめただけだと思うけど、どうよ。

VA-Enhanced (FTPで入手可)用のパッケージになっていて
今HAクラスタ(単純なfail overな構成)で走らせてますがなかなかいいよ。
121:01/09/15 03:52 ID:UMyuCPXs
>>8
mosixって初耳。スマソ
よければ情報キボンヌ

>>9
usogresはレプリケーションの作成だけでしょ?
フェールオーバーまではやってくれないんじゃなかったっけ?

漏れ的には、OPS(Oracle Parallel Server)みたいに、ノードを増やせば
フォールトトレランス&ロードバランスによる性能向上!みたいになれ
ば最高なんだけど、これってPostgreSQL側が対応してくれなくちゃ
実現は難しいわな...
13login:Penguin:01/09/15 04:05 ID:UMyuCPXs
>>9
今調べてきた。「レプリケーションではない」って最初のページに
思いっきり書いてあった。打つ出し脳...
やっぱり「データをできる限り保全する」のがメインで、フェールオーバ
はやってくれないみたいだね。

あと、Turboが2ノード専用の(自称)低価格ソフトウェアクラスタを出したね
ttp://www.turbolinux.co.jp/news/2001/sep/tl0912.html
「低価格」って言ってるけど、2ノードで60万カァ
10万以下で出せやゴルァって感じだな
14linux初心者。:01/09/15 07:30 ID:rSPGYXPU
LINUXからfat32の領域に日本語名で保存している
ファイルが激しく文字化けしていますが、
文字化けしたまま制作したCD−Rは、WINで
開くと、正常にファイル名は表示されるのでしょうか?
それともlinuxで表示されたみたいに文字化けしたまま
でしょうか?
15login:Penguin:01/09/15 10:43 ID:xLTyPTZs
>>14
スレ違いsage
いや、厨房のネタか?
16login:Penguin:01/09/15 16:32 ID:2K431eF.
>>13
そう、fail over はない... がんばれば実装できそうな気はするんだが。
あと売り物でもなんか PostgreSQL がらみはあった気がする。

Mosix は http://www.mosix.org/ にある。複数マシンを一つのマシンに
みたてられるらしい、が詳細はよくシラソ。
17login:Penguin:01/09/15 23:36 ID:UMyuCPXs
>>16
売り物はこれでショ?
ttp://www.fastconnector.com/price/product_price.html
FC Rep for PostgreSQL
PostgreSQLで離れた(ネットを経由した)2点間でDB同期が
できるというのは、クラスタではないにせよ「障害対策が弱い」
といわれているPostgreSQLにとってはいいよね。通信内容も
暗号化してくれるようだし。

ただ、やっぱりこれじゃないんだよなァ〜
Turbo(というかNEC)のソフトウェアクラスタが一番近いような気がする
んだが、高いYO...
2ノード+1コントローラで110万...
18login:Penguin:01/09/17 15:36 ID:.dN6Ze0I
age
19login:Penguin:01/09/17 17:08 ID:RmKUoUYw
>>17
そうそう、それ。個人的にはできるだけフリーソフトウェアでやりたいので
(費用もそうだけど、やっぱりソースが欲しい)個人的にはイマイチ。

そういえば HA でこんなのがあったのを思いだした。
http://oss.missioncriticallinux.com/projects/kimberlite/
これは storage だけかな。
20login:Penguin:01/09/17 17:55 ID:C26q441g
遠隔のやり方教えてほし〜な〜。
そんなスキルいないか〜。
21login:Penguin:01/09/18 01:03 ID:23UZGcyw
HEATBEAT(http://www.linux-ha.org/index.html)のホームページのLINKをシャープの翻訳ソフトで訳したよ.
原文はLINK先を見れ.
まずは,HEARTBEAT関連のリンク.あまり情報はない.

Linux-HA-specific連結する
一般的なプロジェクトリンク
 HEARTBEAT ホームページ。
  Linux‐HA、手引きの。 これは、Linux‐HAプロジェクトを始めたドキュメントである。
  それは、High-Availabilityシステムについての良い考えでいっぱいである。それは、 Harald Milzによって書かれた。
  Linux‐HA メーリングリストアーカイブ
   リストを申し込むために、メッセージを [email protected]に送る。
   申し込まないために、メッセージを [email protected]に送る
   このリストは、Linux‐HAプロジェクトの心臓、及び、血液である。

 Linux‐HA 開発メーリングリスト
 Linux‐HA Development メーリングリストアーカイブ
 Linux‐HAのために同じくCVSリポジトリがある。あなたは、cvs.linux-ha.orgでそれを
  発見し得る。アクセスのみがログイン客、パスワード客、モジュール名前linux‐おや経由でことを読みなさい。
  更に多くの詳細は、 発表電子メールにおいて発見されるべきである。
  それは、 http://cvs.linux-ha.org/viewcvs/viewcvs.cgi/linux-ha/にviewcvsを使うウェブを経て同じく利用可能である
22login:Penguin:01/09/18 01:08 ID:23UZGcyw
続き
LANミラーリング技術: LAN Mirroring技術は、今重要なHA技術であり、そして、
多くの安いHAシステムにキー成分のままであるであろう。それらは、わずか2 NIC、
及び、クロスオーバケーブルによって自らの間で鏡への2台の機械にファイルシステムを許す。

 DRBD : LANを横断するミラーリングファイルシステムのための Philipp Reisnerのもののシステム。
 それは、迅速に鏡を最新のものにするための迅速な同期化オプションによって知識があるレイド、
 及び、LANである。これは、現在最も密接にLinux‐HA人々を従えていることである技術である。

 Linuxジャーナルアーティクル、によって、P.T .Breuer The Network Block Device Aネットワーク
 ブロックデバイスNBDドライバ上のA. Marin Lopez、及び、Artuo Garcia Aresは、遠隔資源にLinuxにおいて
 ローカルなデバイスのようであらせる。安く、安全なリアルタイム鏡が組み立てられることを可能にして。

 ODR : Jerome Etienneは、オンラインディスクReplicator提案である。 ODRは、類似している、に、
 DRBDまで、しかし、2を超えるノードをサポートする、そして、journallingすることへのサポートを持つ。
 Marceloによれば、それは、本当にクールである。当分は、ここにそれに リンクがJeromeの最後のノートにある。
 私が更に多くを持っているとき、更に多くの情報は、ここに現れるであろう。

 ネットワークブロック方策を拡張した、プロジェクト、によって、P.T .Breuer。
 ENBDは、NBDワークを正しくするプロジェクトである。 DRBDが行うように、
 それは、NBD、及び、レイドを共に結合しない。

 GNBD :GFSネットワークブロックデバイス

 レイドをネットワーク化しなさい、ミニ‐ミニ、手引きののもの:
  Marcelo Tosati、持つ、実証される、いかにRAID1 +を使うか、
 Network Block Device +、Linux‐HAのためにネットワークレイドを実行するための
 彼のレイド書込み‐オンリーなパッチ。 このリンクは、もはや正当ではない。
23login:Penguin:01/09/18 01:11 ID:23UZGcyw
つづき

ボリュームマネージャ:

ハインツMauelshagen LVM :Linuxボリュームマネージャ。人が予測するであろうので、
LVMは、パーティションの成長、及び、収縮を可能にする。しかし、同じくスナップ写真
パーティションの創造を可能にする ( ファイルシステム、及び、データベースシステムにおいて
一貫したオンラインバックアップ、または、回復を可能にして ) 。

IBMの EVMS企業ボリューム管理システム。 EVMS Projectは、ストレージを管理する際
無比の柔軟性、及び、extensibilityを提供することのゴールを持っている。そのアーキテクチャが
プラグインモデル ( 様々なレベルのボリューム管理の容易な拡張、または、カスタマイゼーションを
認める ) を導入するので、それは、新しいアプローチを論理的ボリューム経営者側に示す。
24login:Penguin:01/09/18 01:14 ID:23UZGcyw
つづき

ファイルシステム技術: 2タイプのファイルシステム技術技術は、Linux‐HAにとって重要である:journallingしている
ファイルシステム、及び、クラスタファイルシステム。 Journallingファイルシステムによって分担する/映された
ファイルシステムのテイクオーバーはfailoverの場合に急速に発生することが可能となる。
クラスタファイルシステムは、クラスタの全てのメンバーの間で分配されるためのディスクが読取り‐書く、と認める。

GFS : Global Filesystem -障害の寛大な分散されたちょうどその涼しさ等。
GFSは、クラスタファイルシステム及びjournall‐されたファイルシステムである。

Reiserfs : 木‐構造化されたファイルシステム、ジャーナル最新情報。
Reiserfsは、生産品質であると考えられている。

Ext3 : ext2ファイルシステムのステファンTweedieのjournallingしているバージョン。

JFS : IBMのものは、ファイルシステム技術をjournalledした。

XFS : SGIのものは、ファイルシステム技術をjournalledした。

Timpanogas研究の FENRISのNetWare‐互換性があるファイルシステム。利用可能な今。
〜ではなく、〜、journallingすることがサポートするかどうかを確信した。

Timpanogas研究の M2CSクラスタファイルシステム。 Q3 2000における利用可能な
それらのファイルシステムの早期のリリースコピー。

間奏曲: システムにディレクトリ・ツリーを複製させる分散ファイルシステム。

LinLogFS Aログは、Linuxのためにファイルシステムを構造化した
25login:Penguin:01/09/18 01:19 ID:23UZGcyw
最後.頭の中で置換して呼んでね

他のLinux‐HA管理ソフトウェア

 VA Linuxの ウルトラモンキー: LVS、及び、HEARTBEAT、及び、GUI

 ミッション・クリティカルLinuxの キンバーライトオープンソース高い‐可用性のシステム。

 REDHATの ピラニア、及び、HAサーバ製品:LVS、及び、GUIを含む。
  ピラニア討論メーリングリスト。申し込むために、電子メールを以下に送りなさい。
  メッセージ主題としての「subscribe」を持つピラニア‐[email protected]

 Jerome Etienneの VRRPインプリメント。 Jeromeは、 rfc2338によってspecfiedされるVRRPv2を実行した。

 FAIKE:冗長なサーバスイッチソフトウェアホームページ

 Failoverd : Failoverデーモンホームページ

 ハート ウェブサイト ( トムVogtのワーク-- Softwareは、連結するのを見る )
26login:Penguin:01/09/18 01:39 ID:2HT/y1oc
最小構成2台からできる、クラスタリングシステムを作ろうとしてますが何か?
271:01/09/20 22:17 ID:MWaJlL1A
>>17-25
ありがとう。でもよくわかんないね(藁)
様はホストマシンレベルのクラスタリングをLinuxで実現しようと
しているという解釈でよろしいか?

>>26
それはどこかのソフトを入れて、ってこと?
それとも、そういうアプリケーションを作っちまうということ?
2826:01/09/20 22:42 ID:dxsMm6M2
>>27
DNSラウンドロビンでやってたような役目は
ほぼ設定変更不要で実現、
データベースのようなものは、ユーザランド側の
対応が必要、ってな感じで考えてる。

カーネルに手を加える方向で考えてる。

ちょっとだけ期待して待て。
29login:Penguin:01/09/21 00:01 ID:wx28LBY6
DNS roundrobin だけでも、業務で事足りることは結構多いですね。

mail server の多重化とかなら、spool を NFS で共有して、
MX の preference を利用するとかいうのでも、なんとかなるし。

#NFS server が落っこちたら? とかいう質問は却下:-)

問題は DB のフォールトトレラントとかに踏み込んだとき。
Solaris とかでは VCS + Oracle で、storage は2本足の外付け
RAID というのが普通ですが、この辺を安価に構築出来ると
ものすごく嬉しい。

#OPS は使った人が周りにいない…。
3026:01/09/21 01:35 ID:zjrMk02E
>>29
DNSラウンドロビンの欠点をあげておくと…
「高可用性が失われやすい」
というところかな。漏れがこれでちょっと困ったのだ。

4台くらい束ねてて、1台氏んだとき、
人間が手動で
* ほかの稼働ホストにIP aliasをつくる
* DNSを書き換える
* DNSレコードの伝播を待つ
* マズー
が起きるので、夜も(昼も)おちおち寝てられんのです。
それをまず、解決したいなーと思っタワケ。

PostgreSQLの可用性のなさにはほとほと参ってるので、
これをどーにかしてみたいという漏れ的な欲求もある。
GreatBridge亡き今となって、RedHatを待ってられねー。

たーぼ犬くすは、漏れ的には大っ嫌いだ。
3126:01/09/21 01:36 ID:zjrMk02E
>>30
ついでに、単なる多重化じゃなく、
分散化によるパフォーマンスアップにも
朝鮮してみたいのだ。
32login:Penguin:01/09/21 13:53 ID:cVBd.Eyw
>>29
> mail server の多重化とかなら、spool を NFS で共有して、
mailbox は怖いよね。
Maildir なら安心?
33login:Penguin:01/09/21 15:30 ID:wx28LBY6
>>30
ですな。L4 switch を使うと web server の負荷分散& HA はなんとか
なりますが、普通 SMTP の多重化はダメだし。

>>32
Maildir なら大丈夫。mbox 形式でも、Sun 曰く NFSv4 なら大丈夫とのこと。
でも、NFSv4 は Solaris にすらまだ実装されていませんけど…。
3426:01/10/01 04:19 ID:W64.YRzI
なんとなくみつけたクラスタリングだゴルァ!の入門ドキュ。

http://www.atmarkit.co.jp/flinux/index/indexfiles/index-linux.html#cluster
35 :01/10/01 19:00 ID:4uF2biUo
HPCクラスタの話題は無いの?
36  :01/10/02 09:37 ID:9Csi/PZg
MPIとかPVMのクラスタシステムの話題はないの?
37クレクレ君:01/10/05 16:13 ID:dqGkKP5A
>26 への期待age。
いやマジに。
38login:Penguin:01/10/11 22:11 ID:NnKZE0J2
>>37
heartbeatとdrbdでデータミラーをする,HAクラスタならこないだ構築しました.
全部フリーです.
http://www.linux-ha.org/
http://www.complang.tuwien.ac.at/reisner/drbd/
最初はlvsを考えてましたが,データの同期をとりたかったので.
39どきゅそ:01/10/16 02:03 ID:kLwJ4UVO
>>38
日本語な説明とかありませんか?
DQNですみません....。
40login:Penguin:01/10/16 03:22 ID:NZ0m+3Nq
>>32 Linux ではそうでもないって話がちょっち前の LWN か KT
に出てたような...。
41login:Penguin:01/10/16 17:03 ID:C/L4P0ew
>>38
ありがとう。
全く同じ物を作るところでした。
4238:01/10/16 23:30 ID:z9LT7pWs
>>39
たぶんありません.でも全部読む必要はないですよ.
動かしたいだけならまず,
http://www.linux-ha.org/download/GettingStarted.html
http://www.complang.tuwien.ac.at/reisner/drbd/documentation/uman.html
を読むと良いと思います.

drbdはheartbeat配下のリソースの1つとして動かす感じなので
heartbeatをまずインストール設定して,それからのほうが良いです.

私の場合は最終的にapache,tomcat,drbdをheartbeartでフェイル
オーバするようにしました.

>>41
turboclusterやlocalclusterと比べて機能的に遜色ないですが,
実運用のシステムに使うには度胸が必要かも.開発者のMLが
あるので英語バリバリならサポートが得られそうです.
43login:Penguin:01/11/06 13:12 ID:cs4ZOvva
44login:Penguin:01/11/06 14:21 ID:zel37UcI
数値計算に使えるやつはない?
45login:Penguin:01/11/06 14:36 ID:WJAO9ivf
>>44
RWCのSCoreなんでどでしょう。
オープンソースで国産です。
http://pdswww.rwcp.or.jp/home-j.html
46login:Penguin:01/11/06 16:37 ID:pUllxZqx
http://dbbalancer.sourceforge.net/
こんなのあったよ。PostgreSQL で replication/load balance
usogres と競合するな。
47login:Penguin:02/02/12 23:02 ID:t1yD/4Eg
あの、素朴な疑問なんですけど、一般的に
クラスタリングサーバ側ではなく、
アプリケーションが稼動するhost群に何らかのソフトを
インストールする必要はあるんでしょうか。
48login:Penguin:02/02/13 13:35 ID:Sr2dmZ9x
>>30
4台のサーバが172.25.1.1〜172.25.1.4のIPアドレスをもっているとする
サービスで参照されるアドレスを172.25.2.1〜172.25.2.4で各サーバがaliasしているとする
A死亡→Bが代理、B死亡→Cが代理、...、D死亡→Aが代理というようなペアを作る
例:A上で動かすスクリプト(cron等で定期的に起動)
----
#!/bin/sh
if wget -O /dev/null http://172.25.1.4/ > /dev/null ; then
ifconfig eth0:2 172.25.2.4 netmask 255.255.0.0 down
else
ifconfig eth0:2 172.25.2.4 netmask 255.255.0.0 up
fi
----
#正常な場合いつでもifconfig eth0:2 downするのがマズー
#連続する二台以上死んだら激マズー(Dが死んでAが死んだ場合)

こんなんでなんとか夜だけでも寝られませんか?
49login:Penguin:02/02/20 09:08 ID:U/v/VJ64

LinuxVirtualServerはデータの
レプリケーションはできてるんでしょうか
Codaとかいうソフトをリアルサーバに入れないとだめなんでしょうか。
50login:Penguin:02/02/20 17:33 ID:6+be+gY9
>>30 こそまさにheartbeatを使うべきじゃない?
ちなみにうちは前出のdrbd+heartbeatでmysqlとかnfsの
フェイル オーバーやってるYO
51login:Penguin:02/05/18 17:09 ID:LJKz3NKy
古いスレ上げて申し訳ないんだけど、オープンソースのクラスタソフトに
ついて興味を持ったもので。

http://ssic-linux.sourceforge.net/
52login:Penguin:02/05/20 08:47 ID:HYzyB2TJ
drbdの日本語訳サイト
http://www.wbc.co.jp/~drbd/
53login:Penguin:02/05/21 05:55 ID:3SweRnyq
drbdとLVSは同居できます??
54login:Penguin:02/05/23 06:42 ID:yB+Dqxff
Linuxか分からないんですが
この本はどうでしょうね?買おうか迷っている。
http://www.pearsoned.co.jp/washo/network/wa_net39-j.html
55login:Penguin:02/05/25 14:47 ID:Vqmj78QB
56login:Penguin:02/05/25 19:03 ID:Kd5U5ZBZ
お馬鹿な厨房です。
クラスタリングってなに?
詳しいページ教えて下さい。

こんな基本的な用語知識聞かないと解らないなんて、鬱だ・・・
57login:Penguin:02/05/25 19:11 ID:g7hh9btS
>>56
複数のコンピュータに仕事を分担させ、性能や信頼性の向上を図る仕組み。
厨房ならこの程度の事を知ってれば充分。あとは google で検索しろ。
58名無しさん@お腹いっぱい。:02/07/01 13:40 ID:VSgAHGfz
OPEN.・DESIGN誌 2002/7の特集は
クラスタリング入門でしたね
だれか買った?
59login:Penguin:02/07/01 14:14 ID:zIVCmRON
厨だ。
お前ら良く聞いて下さい。

今巷で地味に流行っているトリップ検索。
8文字完全一致で30年位(Windowsの場合)かかるんだと。
LinuxでUtripper使っても10年位かかる(どこかのスレの受け売り)

そこでだクラスタの出番だ。
ここ見てる奴なら自由になるPCがいっぱいあると思うから
誰かチャレンジして結果報告しる。

お前がやれ!ってのはなしだ。
それ言われると手も足も出なくなる。

よろしくお願いします。
60login:Penguin:02/07/01 14:50 ID:FbNcW8iw
Red Hat Cluster Manager(Kimberlite改)
http://people.redhat.com/jrfuller/cms/
61産まれたて 消防:02/07/01 20:35 ID:2CX+M4Qk
すいません どうしても わからなくて書くことにしました。
WINDOWSにむかついて 本屋でRED HAT7.2のCDを買った
のですが、CDブートしろと書いてあって 俺のパソコン古くてCDブート
ができません。
起動ディスクでCDが使えるようにしてDOSでなんとかSETUPまで
たどり着きたいのですが どうしたらいいのでしょうか。
気になって寝れないです。
62login:Penguin:02/07/01 20:41 ID:bafm0j0d
>>59
(゚∀゚)クラスタリングするまでも無いと思う。
検索開始位置をずらして個々で起動すればよいかと。
63名無資産@ヘタレ部:02/07/01 21:58 ID:THVpn2HG
>>61
禿げしくスレ違いなんだが

CDの中を、Windowsから、*.exe で検索してみ?
rawrite.exe とか見つかるかも

あるいは、CDの中を *.bat とか探してみ?
loadlin.bat とか見つかるかも

とかrhのCD見ずにカキコ。漏れはDebian厨だから知らん
64login:Penguin:02/07/01 22:42 ID:Cl6Ah2YD
何も分からない初心者に対して、みんなどうしてそんな
嘘つくんだよ。
クラスタリングが足りないのが、明らかじゃないか!
65login:Penguin:02/07/02 12:13 ID:WqJTd5Xr
>>61
SAN使ってるなら、まず基本的なFCケーブルやコネクタを確認してみな。
FCハブのランプはちゃんと点灯しているか?
66login:Penguin:02/07/10 13:17 ID:QJtA17rM
あれ?RedHatのPiranhaってなくなっちゃったの?
67login:Penguin:02/07/10 14:22 ID:QJtA17rM
Piranhaあった。Advanced Serverに入ってるのね。
でも「要PHP」って、なんか美しくない。
68login:Penguin:02/08/13 15:44 ID:9XQRx0DG
score
69login:Penguin:02/08/14 01:10 ID:7ro7zOT6
研究結果の発表はイツ? > 1
70 ◆AdmGVg7c :02/08/14 02:13 ID:D/edwXti
71TETSU:02/08/16 22:13 ID:nhg8Fd17
>>68
PHPはPiranhaのWeb設定ツールで使うらしいよ。
コマンドラインで全て設定する場合は必要ないんじゃないかな?
72login:Penguin:02/09/29 04:39 ID:mjS6RwYS
lame とか ogg vorbis とか、そーゆー数値計算なヤツも
Linux で作ったクラスタで動かすことは可能ですか?
73login:Penguin:02/10/24 22:42 ID:tXlX0xwS
 
74login:Penguin:02/10/24 22:49 ID:SQrYZqhS
>>72
プログラムを書き換えれば可能。
75login:Penguin:02/10/29 20:36 ID:2oW0mOr9
drbdがちゃんと動いているか良く判らん・・・

cat /proc/drbd で
version: 0.6.1-pre13 (api:58/proto:61)

0: cs:WFConnection st:Primary/Unknown ns:0 nr:0 dw:12 dr:49 pe:0 ua:0
1: cs:Unconfigured st:Secondary/Unknown ns:0 nr:0 dw:0 dr:0 pe:0 ua:0

って出たまんま反応ねぇし・・・
http://www.wbc.co.jp/~drbd/drbd-w/install-2.html
これの通りやってるんだけどなぁ・・・
念入りにRHL7.2+Pre13の同環境、同手順でやってるのになぁ
#もちろんHDDのパーティションの切り方から同じだし
76login:Penguin:02/11/16 20:08 ID:YpxB5HMu
>>75
Secondary繋がってる?うちの環境だとSecondaryを落すと
"WFConnection"って表示されるけど?
(kernel 2.4.18+drbd 0.6.1-pre18+heartbeat-0.4.9.2)
77login:Penguin:03/01/09 02:45 ID:X6ogbEfM
祈念かきーこ

>>ヒロユキタン

いつまでやるですか?
78login:Penguin:03/01/09 03:28 ID:L6xgACMi
237 名前:ニュー速から来ました 投稿日:03/01/08 17:51 ID:AX1ZY0DD
IPとは何でしょうか



↑素人は誰だ!!!!!!!
79login:Penguin:03/01/09 04:17 ID:z58+fY32
ID:ZBsKvw39さんへ

どこに行ってたの?
トイレですか?
80山崎渉:03/01/15 11:44 ID:vFMPlObn
(^^)
81login:Penguin:03/01/23 18:30 ID:UDUMVzL+
>>60
Red Hat Cluster ManagerはどんなときにFailoverするんでしょうか。
見た感じ、LANをきってもしないような気がするんですが。
あと、Serviceでエラーのときは勝手に切り替わるのでしょうか。
82login:Penguin:03/02/03 18:01 ID:gCeVY7Rk
【2ちゃん】俺たちの出番な訳だが【閉鎖】
http://pc.2ch.net/test/read.cgi/unix/1044204340/

83 :03/02/10 19:37 ID:C6ohDM1k
分散FSとか使ってる人いる?
こんなのとか

http://parlweb.parl.clemson.edu/pvfs/index.html
84login:Penguin:03/02/26 03:06 ID:8VvKoI3E
>>83
使用を計画中ですが、実績がないのでUML環境でテストに入るところです。

http://opengfs.sourceforge.net/
http://oceanstore.sourceforge.net/

なんてのもあります。

 [GFS cluster: server #1, #2, ... #N]
        ↑
   Intermezzo, CODA, ...
        ↓
 [clients]

のようにサーバクラスタ作って、クライアントに対してはdisconnected
operationサポートのファイルサービスを出して遊んでみる予定。

85login:Penguin:03/03/06 18:27 ID:isDZjryu
DRBDのmake時に
drbd_syncer.c:396: structure has no member named `nice'
とでてmakeできん。
C読めないヘタレな漏れはインストールを断念 (´・ω・`)ショボーン
86山崎渉:03/04/17 12:25 ID:PWISM87M
(^^)
87山崎渉:03/04/20 06:00 ID:X64WTq1+
   ∧_∧
  (  ^^ )< ぬるぽ(^^)
88login:Penguin:03/04/23 15:19 ID:bxN8ACSb
heartbeatをTurboLinuxで使っている方おられます?
TurboLinux6.1でインストールしてみたのですがmakeエラーで駄目でした。
Vine2.6ではなんとかインストールできて動作もしているのですが。
現状の構成をそのままにしておきたいんで、なんとかTurboで動かせないかな...
詳しい方アドバイスお願いします。
89山崎渉:03/05/22 02:06 ID:VfjbtMwi
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―
90山崎 渉:03/07/15 11:34 ID:doz396Fq

 __∧_∧_
 |(  ^^ )| <寝るぽ(^^)
 |\⌒⌒⌒\
 \ |⌒⌒⌒~|         山崎渉
   ~ ̄ ̄ ̄ ̄
91ぼるじょあ ◆yBEncckFOU :03/08/02 05:27 ID:+QUfMouI
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ
92山崎 渉:03/08/15 23:25 ID:dil3w4kp
    (⌒V⌒)
   │ ^ ^ │<これからも僕を応援して下さいね(^^)。
  ⊂|    |つ
   (_)(_)                      山崎パン
93login:Penguin:03/09/21 22:35 ID:w6QJgY+P
rsync でお互いに内容を同期しあっているサ-バ-群は,はたしてクラスタ-と言えるか?
94login:Penguin:03/09/21 23:25 ID:vsl+dwux
rsync で双方向に同期するとファイルが消えなくなるじゃん。
なんかいい方法無いの?
unison はインスコ面倒。
95login:Penguin:03/09/24 22:25 ID:MrkTry74
PostgreSQL
高可用性データーベースシステム実現の為のクラスタリングシステムの導入

http://www.10art-ni.co.jp/case/10art-ni_plus/2003special/HP_SRA.pdf

96login:Penguin:03/09/24 22:28 ID:MrkTry74
「PGReplicate」は負荷分散を目的としたPostgreSQL用の双方向レプリケーション・システムです.

http://www.csra.co.jp/~mitani/jpug/pgreplicate/
97login:Penguin:03/09/25 01:09 ID:lCmvteZI
リナックスで暮らすたあ,こいつあ春から縁起がいいわいわい.
98login:Penguin:03/10/04 23:42 ID:kpZzpAfH
(・∀・)renice!
99login:Penguin:03/10/27 23:35 ID:ERg+VwNs
100北の町から南の島まで素敵な夢を届けます♪:03/10/30 05:20 ID:YEh/YU0Q
   / ̄ ̄'' -、
  (    / ) ヽ  ジャーパネットー ジャパネットー 夢のジャパネットたかたー♪
  i r-,,,, /,,,, )
 ( >| ●  ●//
  `‐|   U  /ノ   やった!!高田社長様が >>100get だ!!
   \ ━ /
   ((Οっ V>       オラてめえら!!ウチの商品を買えウンコども!
    \  'oヽ
     |,,,,,,∧|
     /  ∧ \     >>101  今さらCPUが1GHz以下の低速パソコンなんか使ってんじゃねーよ(プ
   / / ヽ ヽ    >>102  15インチのCRTなんか使ってると目を悪くするぜ(プ
   ト-<    |_/'.'.┐  >>103  親戚の前で恥をかく前に電子辞書を使って日本語覚えろよ(プ
.               >>104  今やMP3の時代なのに、カセットテープなんて使うなよ(プ
.               >>105  30万画素のカメラでプロ気取りか、おめでてーな(プ
.               >>106  お前のポンコツPCじゃTV見れないの?(プ
.               >>107  VHSより時代はDVD・HDDレコーダーだよ、3倍ヲタク君(プ
.               >>108  超低画質プリンタで年賀状作成か。おめでてーな(プ
.               >>109以降は金利手数料は自分で負担しとけ(プ
101login:Penguin:03/11/21 16:22 ID:n4iWjz8j
メインマシンでCel700です。
ごめんなさい。
102login:Penguin:03/11/21 16:43 ID:1MgRcGXh
14インチだよ。
103login:Penguin:03/12/17 15:14 ID:jszsTTTz
日本語分からなくてごめんなさい
104login:Penguin:03/12/17 16:00 ID:CRuuBc1x
ハァ?
今は可逆圧縮の時代だよ
105login:Penguin:03/12/28 01:00 ID:hy1qmaHG
ライフキーパーってどうなの?
106login:Penguin:03/12/28 02:13 ID:XgFpwm3s
うちの会社、クラスターやってるけどあんまし市場でかくないんだよね〜。
せいぜい大学の研究室ぐらい。。。

107login:Penguin:03/12/28 12:39 ID:P4/l8U0d
106はv-tの予感。。
108login:Penguin:04/01/30 13:54 ID:XcTtVtTM
年賀状はプリントごっこで。
109login:Penguin:04/03/23 13:58 ID:70Yx5uda
&congr;

110login:Penguin:04/03/23 13:59 ID:70Yx5uda
<
&
111login:Penguin:04/03/23 14:00 ID:70Yx5uda
˜~ [ [ ] ]
112login:Penguin:04/03/31 22:09 ID:avnTdQEP
hello
113login:Penguin:04/04/11 00:49 ID:dRqMUdLq
>>106

なかなかよかったよ。
使いやすいし、ただカーネル置き換えるからカーネルいじってるとダメだった。
高いけど・・・
114login:Penguin:04/04/11 00:49 ID:dRqMUdLq
ごめん>105だった。
115login:Penguin:04/11/02 00:48:06 ID:956NvkuA
age
116login:Penguin:04/11/05 13:20:33 ID:Cx6NA8ud
Webサーバ2台+DBサーバ1台の構成で負荷分散したいのですが、
LVSのマシンを追加したり、市販のロードバランサのなどを
追加する予算はないような場合。
その場合、
DNSラウンドロビンにして、
Webサーバ2台をHeartBeat、Keepalive等を使って1台故障しても
サービス継続できる様にするって構成は現実的でしょうか?
HeartBeat,Keepalive自体それほど詳しくないのですが
このようなことは可能ですよね?
それとも、もっと良い方法などあるんでしょうか?
117login:Penguin:04/11/05 18:56:30 ID:g5maNyci
普通クラスタソフトウェア使えば、DNSラウンドロビンなんぞする必要ないぞ。
118login:Penguin:04/11/05 21:04:52 ID:Hbx8yg6d
119login:Penguin:05/02/22 22:17:12 ID:wiT/Yf1R
408 名前:login:Penguin 投稿日:05/02/21 18:21:37 ID:jyG3ZTYO
おい、SLES8の箱には「clustering」って書いてあるのに、入れてみてもどうしたらクラスタ組めるかちっとものわからねーぞ!!
大体マニュアルの何処にも「clustering」の「cluster」の字もないじゃないか!

いや、Installationガイド72ページの「option domain-name "cluster.suse.de";」ってこれ全然クラスタと関係ないじゃん!!ふざけんな糞のベル金返せ‐‐‐!!




409 名前:login:Penguin 投稿日:05/02/21 19:00:34 ID:A0XgvguO
つI
120login:Penguin:05/02/24 15:44:12 ID:O3InWtLB
リナックスのクラスタって、ウエブサーバーを高速化する
のにつかわれたりしないのだろうか?

パフォーマンスをあげるのにつかわれないでしょうか?
121login:Penguin:05/02/24 23:04:28 ID:uj7PcG5v
負荷分散型を高速化というのなら、あるよ。
その前にクラスタの種類や目的を勉強してきた方がいいな。
122sage:05/03/08 02:55:04 ID:VAV7zo0E
123login:Penguin:05/03/08 02:57:49 ID:VAV7zo0E
耐障害性能がどんなもんかな。。。
たくさんマシンを稼働させるとそれだけハードウェアエラーもおきやすい訳で。
ほかのノードから返されたデータの完全性はどうやって保証しているのか。
124login:Penguin:05/03/08 03:06:23 ID:VAV7zo0E
CPUで生成されたデータはそれが仕様通りのデータであるかを
スマートに保証する仕組みってあるんですか。
ほかのCPUがクラスタから突如消えるとかならまだ何とかなりそうだけど
例えば熱暴走などで正規ではないデータが返されて、
それを検出できないとなると正直不安。。
125login:Fedora:2005/03/25(金) 09:58:31 ID:5XL0QW5b
Fedora Core 1のSCoreを5.8.2にアップデートし、
3台のマシンでHPCクラスタリングをしようと思ってます。

3台をNISでつなぎ、
gfsv.cl.org(NISサーバ、クラスタリングサーバ)
gfcl1.cl.org
gfcl2.cl.org
という構成にしております。

設定をして
$msgb -group pcc &
で、無事にgfcl1.cl.orgとgfcl2.cl.orgが表示されましたが、
その後、
$scout -g pcc
を実行すると、msgbの画面が青→赤→青と変化し、
SCOUT(gfsv): [gfcl1.cl.org] accept() timed out
と表示され、scoutが起動できません。

いろいろとネットを調べたのですが、載っておらず、困っております。
解決策をご存知の方、教えていただけると幸いです。
126mariko:2005/03/25(金) 15:00:59 ID:C7Cohu8t

bourne shellを使用しているユーザがターミナルからシェルスクリプト
を実行し、あるジョブプロセスを起動します。シェルスクリプトを起動
したターミナルを閉じると、実行中のジョブプロセスは終了してしまい
ました。
C shellに変えて、同様のジョブを実行するシェルスクリプトを起動し
その後、スクリプトを起動したターミナルを閉じましたが、ジョブスクリプト
は実行を続けます。
この違いはなぜ起こるのでしょうか。
ご存知の方、おられましたら教えてください。
127mariko:2005/03/25(金) 15:06:31 ID:C7Cohu8t
126を削除してください。
「くらだない質問」に書き込むつもりで間違えました。
128login:Penguin:2005/04/30(土) 13:09:55 ID:s+NsBMoO
うまく成功してる人いる?
129login:Penguin:2005/05/08(日) 03:01:33 ID:TMmF5YOk
OpenMosixってどうよ?
プログラム側の修正は無くてもいけそうだけどどうなの?
130login:Penguin:2005/06/04(土) 02:06:55 ID:wJF5rZXP
Redhat GFSって分かりやすく言うと『互いのノードからSAN環境?の
ストレージのディスクを(2重に)マウントして、それぞれが書き込み可能な
状態にありながら互いのノードから書き込んだ内容は即座に反映されて
なおかつ整合性が保たれているファイルシステム(ext3の拡張??)』という事で
いいんですよね?

でも共有ストレージやSAN環境を使うことが前提になると個人での
導入は価格的に不可能っぽい・・・

http://www.jp.redhat.com/software/rha/gfs/

※ちなみにVMWareでFedoraを2ノード起動して物理ディスクを2ノード
からマウントさせて書き込みテストなんかをしてみましたが、マウントを
し直さない限り互いの書き込み内容は反映されてませんでした。。
131login:Penguin:2005/06/04(土) 10:58:16 ID:xNir4/mU
>ストレージのディスクを(2重に)マウントして
何処にそんなことが書いてある?
あくまで、クラスタ環境での話だろ。
132130:2005/06/04(土) 21:53:01 ID:wJF5rZXP
>>131
ごめんなさい。表現がわかりずらかったですよね。
複数のクラスタノードからの共有ディスクの(仮想的な)多重マウントを実現していると
考えたのは以下のページの情報からです。

http://www.newtech.co.jp/products/san_pack/GFS/

NFSやSAMBAなんかだと、複数ノードからのアクセスはTCP/IPのレベルで
排他制御をしている形になると思います。でもFCSのチェックや再送制御
なんかで多少のオーバーヘッドが発生してレイテンシが高くなる。

Redhat GFSの場合はTCP/IPでカプセル化するのではなくSCSIプロトコル
を使用してアプリケーション層に近い場所で排他制御しているため、レイテンシ
が低くできることが利点?と考えたのですが・・・


133login:Penguin:2005/06/28(火) 14:02:49 ID:LCTfCsRV
>>130,132
言いたいことは分かる.
どの程度の価格から辛いのかよくわかんないけど,
1) PCの箱空けて内蔵用SCSIディスクを共有
あるいは
2) iSCSI(あるいは nbd) を利用
とかだと安くGFSで遊べる.
1) は昔実際やったことあるけど, 電気的に大丈夫なのか不安に
なったので2週間くらいでやめた.
134login:Penguin:2005/07/19(火) 22:17:13 ID:pYhvHlhP
ふむ
135login:Penguin:2005/07/26(火) 02:31:45 ID:ERF7wapp
クラスター環境構築する時って何台も同じ環境のOSを用意するわけじゃないですか。
皆さん、マシンにOSをインストールする時って、1台1台Linux'をインストールしていくんですか。
それともなにかOSのイメージをHDDに書き込んで後は諸設定(IPとか)するだけでノードに参加できる!みたいな仕組みでもあるんでしょうか。
あ、それか、サイレントインストールみたいな仕組みをつくっちゃうとか?

その辺の実態がまったく分かってないのですが、どうなんでしょうか。
136login:Penguin:2005/07/26(火) 19:46:46 ID:2GA61JcO
|  |
|  |∧_∧
|_|´・ω・`)
|梅| o終了o
| ̄|―u'
""""""""""

|  |
|  |∧_∧
|_|´・ω・`)
|桜| o ヽコト
| ̄|―u'  終了
""""""""""

|  |
|  |
|_|
|松|ミサッ
| ̄|   終了
""""""""""
137login:Penguin:2005/09/09(金) 15:49:48 ID:0TnVMNTo
>>135 もう1ヶ月以上前の書き込みか・・・
Aoyama Plus では FDブートしてたっけ。

俺は昔、LANカードにブートプログラムを焼いたROM載せて、サーバからカーネル読んで
ブートさせてたことがある。完全ディスクレス。
138初心者:2005/09/15(木) 01:58:54 ID:MAqHCqn7
__ __ __ __ ____
|ACTIVE1 | |ACTIVE2 | |STANBY | ←サーバ3台
 ̄ ̄  ̄ ̄  ̄ ̄ ̄ ̄  ̄ ̄ ̄ ̄
|___3ノードクラスタ___|

3ノードクラスタを組んでACTIVE1が死んだときの動きは?
139login:Penguin:2005/09/15(木) 21:30:43 ID:keiNIEwh
設定依存だヴァカ
140login:Penguin:2005/09/17(土) 14:32:34 ID:iMPirKtP
(^Д^)9pプギャー
141login:Penguin:2005/09/29(木) 17:26:06 ID:0gCiPw4w
複数サーバー間でディスクの内容を同期したいと思っている。
詳細は以下のとおり。
__ __ __ __
|ACTIVE | STANDBY | ←サーバ2台
 ̄ ̄  ̄ ̄  ̄ ̄ ̄ ̄
|___2ノード __|

ACTIVEがこけたら、STANDBYがディスク内容を引き継ぎ
継続運用する。共有ディスク型ではなく、あくまで各サー
バーのローカルディスクを使用するディスクミラー型を考えている。
ありきたりな構造だとおもうが、最適なソリューションはないか?
やっぱり、rsyncが手っ取り早いか?
こことかが有用かと参考にしてるんだが、いまいちわからん。

http://sources.redhat.com/cluster/

CLVMでミラーリングができる云々と聞いたことがあるんだが・・・・
なにかいい案あるなら教えてくれ。
142login:Penguin:2005/09/29(木) 17:41:48 ID:tWcgXCKk
143login:Penguin:2005/09/29(木) 21:01:28 ID:dP1QjXMF
>>141
CLUSTERPRO LE
144login:Penguin:2005/10/01(土) 11:16:30 ID:EgT6Wx2j
前段にUltra Monkey置く手もある。サービスにもよるが。
145login:Penguin:2005/10/02(日) 21:27:57 ID:KvTfYNKY
>>135

なんか学生時代を思い出した。
普通に一晩で16台とかいんすとーるして、MPIのせっていとかしてた。
簡単にできるものだったのかよくわからないが、
それに比べるとScoreはFD入れるだけでノードのインストールが簡単にできた覚えがある。

というか、経験的にはクラスタを作ることよりクラスタで動くプログラムを作るのが難しいんじゃないかと思うのだが・・・。

しかし、卒業して今はPCはインターネットぐらいになってしまった。
しかも結構winで十分なことしかしてない自分に鬱だったり・・・。
146login:Penguin:2005/10/03(月) 11:57:10 ID:MuRNGphP
>>144
レスサンクス。Ultra Monkeyはロードバランス型のHAソフトウェアがあったか。これを
使うと、シングルマスタ(Active|Standby)ではなく、マルチマスタ(Active|Active)
での運用が可能かと思うのだが、この場合やはりディスクの同期はどうしたらいいのだろう?
必然的に共有ディスク型になるのだろうか?できれば、ディスクは各サーバー内に配置したまま
のミラーディスク型でいきたいのだが・・・

147login:Penguin:2005/10/05(水) 23:13:19 ID:qDNRq113
>>146

まず何のサービスを動かすかだ。
同時に更新かけるとややこしいので、片方参照のみだったらUltraMonkey&rsyncでいいんじゃね。

バランサ(Active|Standby) UltraMonkey
ファイルサーバ(Active|Active←参照のみ) rsync

まずければlinux-haかなんかで(Active|Standby)とするのがよかろう。
先に復旧手段考えておくのとテストしておくほうが良い。

変わったところでは並列ファイルシステムのPVFS2というのもある。HAになるかは知らん。
148login:Penguin:2005/10/11(火) 10:27:03 ID:0JYiyvzv
>>146
http://oss.linbit.com/csync2/

drbd 〜0.7は、2マシンの(Active|Standby)しかできん。
drbd 0.8から3マシンに対応のロードマップがあるが....。
149login:Penguin:2005/10/14(金) 14:14:09 ID:k2lzvwax
>>148
csync2よさげだね
誰かこのツール使用経験あるなら、インプレ頼む。
150login:Penguin:2005/10/20(木) 20:49:13 ID:RvvlWw9J
昔は、LVS, OpenAFS, MySQLレプリケーション, Msessionといろいろと苦労したが、
これからは、OpenSSIで決まりだな.
http://openssi.org/cgi-bin/view?page=openssi.html
SQLiteをDB構築すると何も考えんでレプリケーションできてる. 検証汁
FC2 + OpenSSI 1.2.2が一番簡単
151login:Penguin:2005/10/20(木) 21:38:44 ID:5v1ocW5m
>>150
これHPが昔からやっていてタンデムやディジタルのクラスター技術をLinuxに移植したって
やつだよね。 どうなんだろう。 かなりこれカーネルをいじりまくってるみたいだが
これを本家のカーネルに採用してもらおうという動きはあるのだろうか? 

3年前にRHの技術者とクラスター技術のことを話しててSSIの事を聞いたら「あれは醜い」
と一言で却下された。 
152login:Penguin:2005/10/24(月) 00:12:42 ID:lv1/5OYB
>>151
SSIのことを知っているやつは若干だがいるようだな。
しかし、openMosixに比べると弱いな。なぜ? やっぱ(入門用)雑誌に書かれないとダメか。
ところで、RHってアキバのあの人達のこと? その発言が技術とか有用性とかとなんか関係あんの?
153151:2005/10/24(月) 21:20:11 ID:XaG6Biyi
>>152
RH==赤帽
154login:Penguin:2005/10/24(月) 22:49:16 ID:lv1/5OYB
>>153
アキバのあの人達==アキバのHFビルの赤帽
155151:2005/10/25(火) 01:21:58 ID:0Wt45N8p
>>154
ボストンにあるエンジニア部門。 Enterprise Serverの部署だといってたけど、
本社からは離れてるからどれだけ中核に近い部門なのかは分かりませんね。
156login:Penguin:2005/11/03(木) 01:38:38 ID:kvg4YbTL

  OK、redhat。
         (´∀`* ) 流石だな兄者
   ( *´∀`) /   ⌒i   
   /   \     | |
  /    / ̄ ̄ ̄ ̄/ |
__(__ニつ/ redhat!! / .| .|____
    \/____/ (u ⊃

157login:Penguin:2005/11/03(木) 02:06:01 ID:eMVAmt92
mencoderを複数マシンで分散エンコできるようになると
うれしいねぇ。

158login:Penguin:2006/01/16(月) 13:40:38 ID:XAJH1lPk
REHLクローンのCentOS、白箱、SLなどにはGNU Free Documentation Licenseの元に
yumのグループインストールでRed Hat Cluster Suiteがインストールできます。
アクティブ&アクティブのHAクラスタやpiranhaで簡単設定のロードバランシングも手軽で素敵(ハート
最新のRHEL4のマニュアルは、英語ですがここに置いときますね。
http://mirror.centos.org/centos/4/docs/html/rh-cs-en-4/index.html
旧RHEL3日本語版はREDHATのドキュメントから落とせます。
http://www.jp.redhat.com/support/doc/rh-cs-ja-3-1.tar.gz
159login:Penguin:2006/01/16(月) 13:42:32 ID:XAJH1lPk
Cluster Suite 大まか、こんな面子です。↓
* ccs-1.0.2-0.i686.rpm
* ccs-devel-1.0.2-0.i686.rpm
* cman-1.0.2-0.i686.rpm
* cman-devel-1.0.2-0.i686.rpm
* cman-kernel-2.6.9-39.8.i686.rpm
* cman-kernel-hugemem-2.6.9-39.8.i686.rpm
* cman-kernel-smp-2.6.9-39.8.i686.rpm
* cman-kernheaders-2.6.9-39.8.i686.rpm
* dlm-1.0.0-5.i686.rpm
* dlm-devel-1.0.0-5.i686.rpm
* dlm-kernel-2.6.9-37.9.i686.rpm
* dlm-kernel-hugemem-2.6.9-37.9.i686.rpm
* dlm-kernel-smp-2.6.9-37.9.i686.rpm
* dlm-kernheaders-2.6.9-37.9.i686.rpm
* fence-1.32.6-0.i686.rpm
* gulm-1.0.4-0.i686.rpm
* gulm-devel-1.0.4-0.i686.rpm
* iddev-2.0.0-3.i686.rpm
* iddev-devel-2.0.0-3.i686.rpm
* magma-1.0.1-4.i686.rpm
* magma-devel-1.0.1-4.i686.rpm
* magma-plugins-1.0.2-0.i386.rpm
perl-Net-Telnet-3.03-3.noarch.rpm
* piranha-0.8.1-1.i386.rpm
* rgmanager-1.9.38-0.i386.rpm
* system-config-cluster-1.0.16-1.0.noarch.rpm
* lvm2-cluster-2.01.14-1.0.RHEL4.i386.rpm
160login:Penguin:2006/01/30(月) 23:05:46 ID:nSafdTe/
LifeKeeperてどうなの?
161login:Penguin:2006/05/06(土) 06:12:56 ID:i0wL+UYw
>>158
http://www.centos.org/modules/news/article.php?storyid=108
CentOS-csgfs.repo を配置してあとはyum
162login:Penguin:2006/08/08(火) 16:50:37 ID:daGQirag
OpenSSI 1.9.2 だれか言わんのか
163login:Penguin:2006/08/10(木) 22:56:55 ID:Bln7Zx8W
>>105
二年越しのレスですまんが、ライフキーパーを使った案件に参加したことがある。
客は、日本最大携帯電話会社。
使い勝手と機能は申し分なかった。
164login:Penguin:2006/08/11(金) 13:46:32 ID:fEnmzKoS
>>163
NにもKにもいっぱい売ってます。
165login:Penguin:2007/02/16(金) 01:17:54 ID:YaUL/yD+
  \             U        /
             / ̄ ̄ ヽ,
            /        ',      /     _/\/\/\/|_
    \    ノ//, {0}  /¨`ヽ {0} ,ミヽ    /     \          /
     \ / く l   ヽ._.ノ   ', ゝ \       <   バーカ!  >
     / /⌒ リ   `ー'′   ' ⌒\ \    /          \
     (   ̄ ̄⌒          ⌒ ̄ _)    ̄|/\/\/\/ ̄
      ` ̄ ̄`ヽ           /´ ̄
           |            |
  −−− ‐   ノ           |
          /            ノ        −−−−
         /           ∠_
  −−   |    f\      ノ     ̄`丶.
166login:Penguin:2007/02/21(水) 21:43:35 ID:sqteC/ix
test
167スチャラカ法学生:2007/04/19(木) 22:49:11 ID:X1EkHbzE
巫女 GNYO/Linuxで簡単にできるということを昨日知った。


ただし、PCクラスタができあがったところで、
それの上で何のプログラムを動かしたら良いのかが分からない。

Fording@homeなら自分のところにPenIIIがたくさんあるので、それを全部集めれば
そこそこの計算能力になるとは思うのだが、肝腎のやり方が使いかたが分からない。
168スチャラカ法学生:2007/04/19(木) 22:51:52 ID:X1EkHbzE
PCクラスタリングのキーワードになるSCoreというのももちろん知ったのは昨日である。

あげときますね、age
169login:Penguin:2007/04/27(金) 08:59:15 ID:NXUojOwi
ベリタスクラスタサーバは?
170login:Penguin:2007/05/19(土) 17:37:24 ID:CKwuk/2W
CentOSの最新版で標準装備されているってのは本当ですか?
171login:Penguin:2007/06/28(木) 13:19:32 ID:vDx4auzO
米Sun、クラスタソフト「Solaris Cluster」をオープンソース化

http://enterprise.watch.impress.co.jp/cda/foreign/2007/06/28/10615.html?ref=rss
172login:Penguin:2007/10/02(火) 16:13:32 ID:TsvvWJ1+
OpenSSI 1.9.1のインストールにチャレンジしたけど挫折
173login:Penguin:2007/10/13(土) 18:05:00 ID:oP8L0RXM
高可用性(冗長化)のロードバランサというべきか、
負荷分散型クラスタというべきか、近年そういうことをLinux上の
ソフトウェアで実現するためのプロジェクト(UltraMonkey)があるよ。

(Layer4版)
http://ultramonkey.jp/
http://www.ultramonkey.org/

(Layer7版)
http://sourceforge.jp/projects/ultramonkey-l7/

174login:Penguin:2007/11/05(月) 21:41:21 ID:V3uFgejZ
まるで盛り上がってないな。。。
やっぱ領域が特殊過ぎるのか?
175login:Penguin:2007/11/06(火) 00:01:11 ID:4nDI2QAP
>>174

でも,ちゃんと更新チェックしてる俺ガイル
176login:Penguin:2007/11/09(金) 23:59:09 ID:ORAV0+EF
>>1 の意図するところがわからんというか・・・
ソフトウェアクラスタってそもそも何なのさ。
177login:Penguin:2007/11/11(日) 09:48:55 ID:qloBt/dG
別に何も分からなくないと思うけど?
「ソフトウェアクラスタ」って用語に違和感を覚えるなら、
ググってみるといいよ。
178login:Penguin:2007/11/13(火) 13:39:37 ID:PB6KLq+f
共有ディスク作れないかな?
179login:Penguin:2007/11/18(日) 03:08:05 ID:yhMwoeHA
dlmで作れるんだと思う。
180login:Penguin:2007/11/19(月) 15:26:44 ID:mRRJm1DJ
やっぱそれか。
181login:Penguin:2007/11/26(月) 19:57:10 ID:HfNDWvFd
centosのクラスターなんちゃらってパッケージ使うと
研究室に余ってる古いPCつかってCPUサーバーできたりするのかな
182login:Penguin:2007/11/26(月) 21:57:21 ID:wsulpwPu
CentOSのはRHCSでしょ。
CPUサーバってのがグリッドのことなら、クラスタ違いだな。
183login:Penguin:2007/11/28(水) 17:14:58 ID:D2odrtC8
2台のLinuxで共有IP-SANの構築を考えてるんですけど,どうでしょ?
こんな感じの構成で。
RAID+iSCSI+Heartbeat+DRBD+ocfs2(gfs2)
クラスタリングもロードバランシングも冗長化もできるのかなと。

参考
ttp://www.pcpro.co.uk/realworld/82284/san-on-the-cheap.html

既出だったらスマソ
184login:Penguin:2007/12/01(土) 14:48:22 ID:fCxadEhy
それって2台で出来る?
185login:Penguin:2007/12/01(土) 21:18:32 ID://PyZDnk
>>184
上の記事では2台でできるみないなことが書いてあったのですが。でも実際に手を動かしてるわけではないので,何ともいえません。。。
NICを複数枚つけて一台でiSCSIターゲットとロードバランサを兼ねればできるような気がします。
時間がありましたら実際にやってみます。
186login:Penguin:2007/12/01(土) 22:33:49 ID:4qQGVU/G
ん?
最後の“ocfs2(gfs2)”って、そのページに載ってる?
187login:Penguin:2007/12/02(日) 00:23:36 ID:eTc1G+IX
DRBDでprimary/primary構成にするにはocfsかgfsが必要になるような気がしたので。
上のページと完全に同じことをするわけではありません。そのページでは,片方のiSCSIターゲットをスタンバイとして,フェイルオーバーするところまでしか実験していないと思います。
一歩進めて,ロードバランシングまでしたいんです。LVSかなにかのロードバランサでiSCSIを使えたら冗長化だけでなく負荷分散もできるのかな,と思いまして。
でもLVSでiSCSIのロードバランシングができるかわからないんですよね。やってみないと。ググって調べてはみましたが,実例がみつりませんでした。
それにiSCSIのターゲット名が重複していいのかもわかりません。
などなど頭の中で考えてるところです。
188login:Penguin:2007/12/06(木) 18:32:42 ID:4O0dbiIb
仮想マシン使って実験してみました。ごめんなさいこの仕組そのものが無理でした。
とんちんかんなこと書いてしまってお恥ずかしいです。
189login:Penguin:2007/12/06(木) 20:10:39 ID:OT011a00
問われてたことの意味が分かったのかな?
190login:Penguin:2007/12/07(金) 08:14:19 ID:2tq5RpSB
わかったと思います。
iSCSIのターゲットはファイルシステムを通さずにディスク(またはブロックデバイス?)にアクセスするんですよね?
iSCSIを利用してDRBDをprimary/primary構成にできなかったのはこのためだと思います。
iSCSIの代わりにNFSを使ってみたところ,設計どおりに動きました。
基本的なところがわかっておりませんでした。
スレ汚しして申し訳ありません。
191login:Penguin:2007/12/18(火) 23:58:44 ID:E/zgaCho
Active|Activeの構成で

Aの鯖にIMAPとApache
Bの鯖にMySQLとJBossという構成にしておいて

もしAがフェイルした場合、Bの鯖に一時的に
IMAP、Apache、MySQL、JBossの全サービスを
稼働させるような設定ってできますよね?

192login:Penguin:2007/12/19(水) 09:50:33 ID:ORq8HQk/
いまどきのクラスタウェアで相互スタンバイができないものはないやろ。
193login:Penguin:2007/12/20(木) 20:21:36 ID:W9W06TsY
>>191
Active|Active構成?
Active|Stanby構成ならHeartBeatか何かでできるんじゃないですか?
A
 IMAPとApacheの稼動
 MySQLとJBossの待機
B
 IMAPとApacheの待機
 MySQLとJBossの稼動
という感じにして。
参考:ttp://www.thinkit.co.jp/free/compare/17/9/1.html
194login:Penguin:2007/12/20(木) 22:58:56 ID:FiT6vHgQ
>>193
何が言いたいのか分からん。

>>191が聞いてんのは、Active/Stanby構成ではなく、Active/Active構成な。

さらにその答は>>192が書いた通り、普通出来るだろ?ってことで終わってる。
195login:Penguin:2007/12/22(土) 17:21:14 ID:ux8MmOmh
>>194
知識不足ですみません。
Active/Active構成と相互スタンバイって矛盾しないですか?
196login:Penguin:2007/12/22(土) 19:26:36 ID:DLMVmbCB
>>195
そのとおり。>>194も間違っている。
Active/Active構成と相互スタンバイは意味が違う。

相互スタンバイはまさに>>193のとおりで、
Active|Stanbyの変化バージョンに過ぎない。

そもそも、>>191の訊き方が間違っているわけだが。
197login:Penguin:2007/12/22(土) 21:22:11 ID:w9zyNYpZ
>>196
ノードがActive/Activeなのと、リソースがActive/Activeなのは別次元の話。
さらに、両アクティブの相互スタンバイ構成ってのは、特段珍しい話じゃない。
198login:Penguin:2007/12/22(土) 21:42:18 ID:ux8MmOmh
>>197
またまた知識不足ですみません。
「リソース」という言葉はどういう意味で使ってるんですか?
「ホットスタンバイ」と「コールドスタンバイ」の話ですか?
199login:Penguin:2007/12/22(土) 23:34:40 ID:DLMVmbCB
>ノードがActive/Active
文脈よめよw
そうでないものは、ここで言うHAクラスタには含まれていないことは明らかだろ。
200login:Penguin:2007/12/23(日) 00:23:56 ID:4p2DvuoJ
なんかバリバリ初心者ですみません。
ここでのノードとかリソースの用法がよくわからないんですけど,
ノード⇒マシン
リソース⇒ソフトウェアってことでOK?

負荷分散型(RAC)クラスタなら全てのマシンが稼動しているのが前提だし,
高可用型(HA)クラスタでもホットスタンバイがほとんどだと思ってました。
いわゆる相互スタンバイもホットスタンバイじゃなきゃ無理ですよね?
201login:Penguin:2007/12/23(日) 01:43:43 ID:V56WOVVS
リソースといったら、アプリケーションとかファイルシステムとかサービス提供用のIPアドレス
なんかのことだろうな。まあ197は混乱させるのが目的としか思えないし、ほっとけばいいでしょ。
202login:Penguin:2007/12/23(日) 10:09:00 ID:4p2DvuoJ
解説thx
203login:Penguin:2007/12/23(日) 20:55:15 ID:z/PVp5YH
>>199>>201
とち狂って混乱してるのはお前らだけだろ。
204login:Penguin:2007/12/23(日) 21:30:35 ID:NUvkrnuU
N+1型なんかだとコールドスタンバイのものもあるけど、
普通、HA型クラスタという場合には、コールドスタンバイのものは含めない。
205login:Penguin:2007/12/24(月) 22:02:33 ID:iXx2E2GT
>>199
> >ノードがActive/Active
> 文脈よめよw
> そうでないものは、ここで言うHAクラスタには含まれていないことは明らかだろ。
文脈関係ねーな。
単にお前が無知なだけだろ。
片系スタンバイのHAクラスタは「ここで言うHAクラスタ」に含まれていないとでも?

>>200
「ノード」はネットワークに接続するモノで、ここではサーバを指す。
「リソース」は資源のことで、一般的なHAクラスタの場合は、
サービスを提供するプロセス、サービス用IPアドレス、共有ディスク等。

それから一般にRACってのはOracleのReal Application Clusterのことで、
負荷分散クラスタはLB(Load Balancing)クラスタと呼ぶ。

ついでに書いとくと、何らかのリソースがホットスタンバイかコールドスタンバイかと、
クラスタのノードやリソースがアクティブかスタンバイかってのは別次元の話。
206login:Penguin:2007/12/27(木) 01:49:00 ID:9/YPbotX
gfs2用のcluster.conf書いてるのだが

Node Sts Inc Joined Name
1 x 0 fs0
2 M 32 xxxxx fs1

となってしまう何がいけないんだ?
下のconfがイケてないのかな?

<?xml version="1.0"?>
<cluster name="cluster1" config_version="3">
<cman two_node="1" expected_votes="1"/>
<clusternodes>
<clusternode name="fs0" votes="1" nodeid="1">
<fence>
<method name="single">
<device name="devfs0" ipaddr="192.168.1.13"/>
</method>
</fence>
</clusternode>
<clusternode name="fs1" votes="1" nodeid="2">
<fence>
<method name="single">
<device name="devfs1" ipaddr="192.168.1.12"/>
</method>
</fence>
</clusternode>
</clusternodes>
<fencedevices>
<fencedevice name="manual" agent="fence_manual"/>
</fencedevices>
</cluster>
207login:Penguin:2008/01/07(月) 00:31:14 ID:WQVsiCBf
openMosixでクラスタ入門しようと思うんですけど
いくつか疑問があって、
まず、CPUの扱いなのですが
マルチプロセッサと言う形になるのでしょうか?
ということは、マルチスレッドのプログラムであれば高速化が見込めるのでしょうか?
それとも、複数のプロセスで動かす事を念頭に置かなければ、無意味なのでしょうか?

もうひとつは、メモリの扱いなのですが
例えば、ホストAに2G、ホストBに4Gと詰まれてた場合
システムからは6Gのメモリとして見れるのでしょうか?
その場合、32bitのシステムでは上限に問題が出る気がするのですが・・・。
208login:Penguin:2008/01/11(金) 07:18:15 ID:P2KBbgjN
>>207
マルチプロセッサと言う形だけど、
どちらかと言うと、プロセス単位での並列実行だね。
CPUの空いてるマシンでプロセスを実行する感じ。(マイグレードって言うんだけど)

で、マルチスレッドを使ってたりIOへのアクセスがあるプロセスだと、マイグレードが行えない。

メモリの扱いだけど、上のとおりなので、マイグレード先のメモリの量になる。

やっぱ、openMosixを使ってる人ってまだまだ少ないのかな。
便利なんだけどなぁ。
209login:Penguin:2008/01/11(金) 08:43:01 ID:Cn33Jkcc
>>208
openMosixって,開発終了したんですよね?
もちろん古いバージョンのカーネルで十分安定してると
は思うんですけど,
210login:Penguin:2008/01/13(日) 13:11:21 ID:AWOvDWhj
え?開発終了ってマジ?
おもっくそ、研究用途で、そのシステム組もうと検討してたんだが…
#まぁ、資料が少なすぎて困ってたわけだが。

やっぱ、既存のプログラムを修正しなくて良いってのが魅力的だったけど
ちゃんとMPIで組みなおすべきなのかな。パフォーマンスをあげるなら・・・。
211login:Penguin:2008/01/13(日) 19:55:42 ID:eAAYuMPu
マイグレード
migrate じゃない?
212login:Penguin:2008/01/14(月) 05:41:55 ID:VkTPVUv8
>>210
MPIでやるなら、色々他に検証すべき事があって面倒だぞ。
マルチスレッドじゃなくて、マルチプロセスで出来るなら、そっちでやった方が楽。
下手な実装だと、MPIは遅いぞ。
213login:Penguin:2008/01/14(月) 07:24:47 ID:S5aP0zcQ
>>210

正確には2008年3月1日をもって終了。
ttp://openmosix.sourceforge.net/
ttp://sourceforge.net/forum/forum.php?forum_id=715406

商用版はまだ生きてると思う
ttp://www.mosix.com/

個人的にはSCoreとかRocks cludtersでクラスター組んで,
Grid Endgine等々のスケジューラーで,非MPIジョブを
キューに投入するのがいいんでないかと。
214login:Penguin:2008/01/14(月) 15:42:54 ID:6n5zEajJ
>>213
終了理由がはっきりしないんだけど、

・OpenMosixが対象とするクラスタ規模は~8台程度
・マルチコアプロセッサが登場し、普及しつつある

ということでOpenMosixはもうなくてもいいやってこと?

215login:Penguin:2008/01/14(月) 15:50:47 ID:6n5zEajJ
あ、8てのは「マルチコアがでてきたからもういいやー」という文面から
そのあたりを適用範囲として考えていたのね、という想像です。
216login:Penguin:2008/01/14(月) 15:52:43 ID:VkTPVUv8
8以上になると、なんかあんの?
ネットワークのオーバーヘッドの方が大きくなって、性能が伸びなくなるって話?
217login:Penguin:2008/01/14(月) 21:39:30 ID:6n5zEajJ
いや、

 マルチコア時代になったから役割終わったしプロジェクトエンドねー

て言うという事は、逆に言えばMosixの適用範囲はマルチコアの有効範囲と
同等という想定があるということで、つまり8コアあたりまでが想定だったのかな、と。
んで、そのあたり詳しい人いない?と振ってみた。

まあ仮想SMPマシンを作るものだから通信遅延の問題だろうなぁとは思うけど。
218login:Penguin:2008/01/14(月) 21:42:12 ID:Mw0sO6Th
Heartbeat2.x用の
OCFってどうやって書くんだ
なんか参考資料ないですかね?

slpadとpop3を独自のルールで追加
したいのですが
219login:Penguin:2008/01/15(火) 01:53:47 ID:1O2dqe/z
>>217
ほかに、MosixのLinuxカーネルとタイトに融合した設計に
限界があるとか(最新カーネルおっかけるの大変だろーし)

でもそれが最大の利点でもあるしなあ
220login:Penguin:2008/01/17(木) 00:14:02 ID:Cc8kTuZQ
>>218
OCFってシェルスクリプト?
公式サイトのこれ↓くらいしか資料ないよねえ。
ttp://www.linux-ha.org/ja/OCFResourceAgent_ja

あとは標準添付のスクリプトを真似して作るしかないんじゃ。
221login:Penguin:2008/01/17(木) 18:41:44 ID:numxmeYf
openMosixが有効に動くパターンがイマイチわからない。
p-threadを使った場合は、migrateしないんだよね?
forkでも、IOの操作があるプロセスの場合だと、使えない?
う〜む、結局プログラム組みなおしなのかぁ。。。

222login:Penguin:2008/02/22(金) 12:09:21 ID:ph6D5Taz
SCoreとopenMosixの同居って可能?
どっちもカーネルパッチを当てないといけないので
普通に当てたらダメだよね。
223anonymous coward:2008/05/11(日) 01:16:34 ID:mZdzF94T
DRBD8 + GFS2 で active/active な構成のディスク領域を作っておき,
そのディスク領域を NFS で export する,という構成を実現されている人
いらっしゃいますか? いたら,方法をご教授願えないでしょうか.
手元で試しているのですが,nfsd が CPU を占有して load average が
上昇しつづけ,システム全体がまったく応答しなくなる,という症状に悩ま
されています.

えー,先に断っておきますが,DRBD8 で作ったデバイスそのものを GNBD で
export して NFS を使わないという解法は「なし」でお願いします.
Debian Etch と Debian Lenny の混在環境で古い環境を捨てられない事情
があります.で,Debian Etch だと RHCS ver1 系列のパッケージしかまだ
入っていなくて,Lenny に入っている RHCS ver2 系列とは同居できないよう
なんですね.いや,そんなことはない,同居できるはずだ,ということでしたら
ご指南お願いします.
224login:Penguin:2008/05/17(土) 13:52:02 ID:Bkkl00cr
>>223
百萬円
225login:Penguin:2008/05/28(水) 11:00:55 ID:Zw3nFKut
>>222
巫女GNYO/Linuxがあるやん。
226login:Penguin:2008/05/28(水) 11:01:44 ID:Zw3nFKut
>>223
はらたいらに5000点
227スチャラカ法学生:2008/05/30(金) 07:37:41 ID:mz2CNK0k
巫女ぐにょの起動がまだできない。
おまけに英語キーボード配列だし・・・・。
PCクラスタを組みたい。
228login:Penguin:2008/05/31(土) 16:24:51 ID:djlvkGmR
【鍵】東京6局再送信中 KeyHoleTV Part.7【穴】

1:sage 05/13(火) 17:18
前スレ
【鍵】東京6局再送信中 KeyHoleTV Part.6【穴】
2chスレ

【KeyHoleTV公式サイト】
http://www.v2p.jp/video/
Q&Aは読みましょう

age推奨、ロケフリ業者お断り、PeerCastとSopCastはスレ違いではない?
Linux版のKeyHoleTVがまもなくリリースされます。α版の実験に協力していただける方を募集しております。
現在の動作環境は、SuSE10.0 GDK GTK2.0 Pango です。他のLinux 例えば Redhat 系のもの、TurboLinux系の
もので動作確認ができませんので、御協力をお願いします。
229227:2008/06/05(木) 02:59:11 ID:RTa9LNrZ
自分が組みたいのはクラスタというよりもグリッドという気がしてきた。

SCoreだのMPIの勉強だのするよりも、とっととX端末、シンクライエントの作り方を勉強したほうが
自分の生活に合ってるような…。
230login:Penguin:2008/06/05(木) 11:29:48 ID:Bg8g5+c+
グリッドってのはHPCクラスタなんだが。
231login:Penguin:2008/06/11(水) 20:29:19 ID:FeENHWch
グリッドコンピューティングなら Folding@home が一番有名だと思うが
232login:Penguin:2008/06/25(水) 17:06:03 ID:b979D5F+
>223
backportsで同居できるんじゃない?
233login:Penguin:2008/06/28(土) 06:36:38 ID:i23girnC
>>230
HPCクラスタ = グリッドってのはちょっと違うと思うよ。

HPCクラスタってのがEthernet, Myrinet, InfiniBandとかで相互接続された
数〜数千ノードの1システムを指してるのが前提だけど。

そういう類のHPCクラスタに関連させてグリッドって言葉を使う時は、
複数のHPCクラスタを更にクラスタリング(要はクラスタのクラスタ)していて、
且つ個々のクラスタが広域のネットワーク(インターネットとか)を
介して繋がってるような形態を指してる場合が多いかと。

234login:Penguin:2008/07/05(土) 10:57:35 ID:MeeUCArm
つまりハマチとブリみたいな関係ですね。
クラスタ=ハマチ、グリッド=ブリ。成長するとブリになる。
235login:Penguin:2008/07/25(金) 15:07:29 ID:VVE5p3uJ
>>233
どこの俺様定義ですか?
236login:Penguin:2008/07/27(日) 03:13:29 ID:yhARV6iq
>>233
何を訳の分からないこと書いてんだか。
237login:Penguin:2008/08/13(水) 01:46:43 ID:RIVV9Vn0
>>235
世の中一般の"定義"として書いたわけじゃないよ。良く読んで。
仕事である程度の規模のHPCクラスタと関わりがあって、
国内外の大規模HPCクラスタの構築事例とかに割りと目は通してる。
その上でHPCクラスタ = グリッド"という定義はまず見ないから、
230に対する意見を書いただけ。

>>236
文章分かりにくくてすまん。
でも、簡潔に書けるならそれを書いて欲しい。
238login:Penguin:2008/08/14(木) 17:18:39 ID:RNz/kJaM
>>237
間違ってる。
239login:Penguin:2008/08/17(日) 00:07:53 ID:aJrxLD8R
>>237
そもそもどこにも“=”とは書いてないと思うが。

>>230の書いた

> グリッドってのはHPCクラスタなんだが。

を否定するなら、HPCクラスタ使ってないグリッドの事例出さないとな。
240login:Penguin:2008/08/17(日) 11:34:51 ID:Lu5sIm1/
OGF/OGSA的定義もたまには思い出してあげてください
241login:Penguin:2008/08/21(木) 00:53:06 ID:w0Tj7O1O
>>238
例えば
ttp://e-words.jp/w/E382B0E383AAE38383E38389E382B3E383B3E38394E383A5E383BCE38386E382A3E383B3E382B0.html
では grid computing の例として SETI@home が挙げられてるのだが?
242login:Penguin:2008/08/21(木) 21:06:04 ID:2KK3WTX4
HPC君には触るなってば
243login:Penguin:2008/08/25(月) 20:27:49 ID:8Sgh92QG
>>241
お前の頭の中ではSETIが標準なのか?
だとしたら今後一切何も語るな。
恥かくだけだから。
244login:Penguin:2008/08/27(水) 23:16:05 ID:P22Mti52
日本語読めない人?
245login:Penguin:2008/09/15(月) 02:29:27 ID:vI7Hnsf/
こういうときにレアケース持ち出すヤツって頭悪いよな。
246login:Penguin:2008/10/01(水) 15:28:53 ID:XiADteLr
HeartBeat+DRBDでクラスタを構築する予定ですが
各Versionは最新のもので動く(sync)のでしょうか?

とにもかくにも、CentOS5でyumによるインストールするとどうなるか確認してみました

heartbeat-2.1.3-3.el5.centos
drbd82.i386 0:8.2.6-1.el5.centos

HeartBeatのVer2系と、DRBDのVer0.8系です

Webの記事サイトではHeartBeatのVer2系は、DRBDのVer0.7系ではないと書いてありました
しかし、DRBDの本家サイトでは

-----
heartbeat V2を使うための前提条件は、heartbeat V1と同じです。
実際、V1の設定を使ってもV2を利用できます。しかし、V2に追加
されたクラスタリソースマネージャ(CRM)を使うには、次の行を
/etc/ha.d/ha.cfに追加しなければなりません。

crm yes
-----

上記言葉通りであれば、 問題なさそうですが
御経験者の方がいらっしゃれば、経験談を教えていただけないでしょうか?
247login:Penguin:2008/10/02(木) 00:04:53 ID:p6UHPaTd
>>246
まず動くの厳密な定義を言えよw
つか自分でやれ
248login:Penguin:2008/10/02(木) 09:01:04 ID:4Vtaf8Xa
>>246
俺もそう思って、検証してみました

結論は動いたなんですが、Active-Stanbyですので
週末にでもHeartBeatV2のクローンモードを使って

Active-Active

をしてみます〜
249login:Penguin:2008/10/08(水) 21:06:43 ID:Iw4TUEal
>>247の存在意義って。。。
250login:Penguin:2008/11/06(木) 00:43:32 ID:icPCIawf
heartbeatで監視中のサービスが落ちた場合
同時にkeepalivedも落とすようにCRMを記述したいのですが
どこかにサンプルなんてないでしょうか?
251login:Penguin:2009/02/06(金) 12:01:29 ID:3i0MqBLR
drbdとheartbeatでクラスタ環境構築中です。
まずは双方にCentOS4.5をいれ、同じパーティションサイズで区切って、同じdrbdのバージョンをyumにてインストールしました。
次に、drbd.confもまったく同じものを用意し両方のノードに入れたのですが
片方のノードではdrbdが起動し片方のノードではdrbdが起動しないといった問題が発生し、下記のようなエラーが出てしまいます。

Restarting all DRBD resourcesioctl(,SET_DISK_CONFIG,) failed: Invalid argument
Low.dev. smaller than requested DRBD-dev. size.
Command '/sbin/drbdsetup /dev/drbd0 disk /dev/sda5 internal -1 --on-io-error=panic' terminated with exit code 20

なぜまったく同じ環境において片方のノードは稼動し、片方のノードはエラーとなる現象が出てしまうのでしょうか
252login:Penguin:2009/02/12(木) 00:07:22 ID:/mER43Rc
Heartbeat+apache(Active/Active)+DRBD+NFS(Active/Standby)
という構成で、共有ディスクをhttpドキュメントルートにしようと思ってたのですが、
apacheのディスクアクセスは片方のサーバーに集中するということで
冗長化にはなっても、負荷分散にはならない?と思えてきてしまいました。

コレについてのツッコミ、またはなにかいい構成案あったらご意見いただけませんでしょうか?

>>223 さんの、DRBD8 + GFS2 で active/active という手はなんか不安定っぽいですね、、、

253login:Penguin:2009/08/03(月) 10:34:19 ID:QNM9yNVf
3日くらい手こずってわかったんだけどcmanてNIC選ぶんだね
Via(玄人のPCI,PCIe)のNIC全般で双方向のノードの確認がとれないみたい。
ccsdで相手のノードを確認しようとするときコネクションエラーが出る。
VIAのUDPの対応がおかしいのかccsdのUDP接続のレシーブらへんがおかしいのか
ソース全部見てないしからわからない

ちなみにCentOS5.3
cmanは最新版だと思う(yumインストール)

・動く
Reaktek Realtek RTL8111B
Intel 82572EI
Broadcom BCM5721

・動かない
VIA VT6130
VIA VT6122
254login:Penguin:2009/09/23(水) 14:15:27 ID:0l7wiQTr
>>253
メモリ減らして試してみ。
255login:Penguin:2009/10/03(土) 22:55:04 ID:juzmR3Ux
>>254
どう足掻いてもできなくて、
仕方ないから自作物を稼動させる事で解決


確認なんだけど
そもそもこれって稼動中にノードの新規追加とかってできないよね?
2x台サーバがあって随時ノード追加で停止せずにクラスタリングしたいっていうのがやりたかったんだけど
256login:Penguin:2009/10/04(日) 02:54:06 ID:GNPGMqGl
>>255
VIAチプの場合はメモリ多いとWindowsですらちゃんと動かないですよ。
cmanはちとわからん
257login:Penguin:2009/11/06(金) 18:58:33 ID:xbeOQXg2
>>253
それはcman以前の問題では?
VIAだけでなく、蟹のRTL8111B/CもMarvellも挙動不審だよ
258login:Penguin:2010/03/08(月) 14:47:52 ID:xkRpz3Pb
旧型PS3が手に入ったので手持ちのPCにlinux体験も兼ねてクラスタ構築に挑戦してみようとしたのですが、PS3同士以外の情報が全くといって良い程見つからない
物の試しにx86-64bitでのクラスタで検索してみても「x86-64のハイブリっとな構築はサポートしてない」て説明ばかり
Cellとx86じゃ構築は絶望的という認識でいいでしょうか?
259login:Penguin:2010/04/17(土) 10:57:09 ID:gmYqY5n1
SSH辺り使って全部自分でやれば何とでもなるだろ?
“クラスタ構築”の意味にもよるが
260login:Penguin:2010/08/07(土) 11:35:26 ID:rHQUwHMy

261login:Penguin:2010/09/06(月) 22:19:15 ID:aPEqHbsk
現行Mosixを使っている方いらっしゃいませんか?
現在複数のマシンでクラスタを組もうとしています。

http://www.mosix.org/txt_distributions.html 
上記URLから2.6.34.1用のMosixをダウンロードしまして、パッチ済みのカーネルの機動と
mosixdの機動までは確認できましたが各マシンをつなげる所までには至っていません。
多分mosix.mapの設定が悪いのでしょうか。
もしヒントになるページやコミュニティをご存知の方教えていただけないでしょうか。

CPUの空いてるマシンでプロセス単位で仕事を分けていくというのが私の中の理想でして
なんとか動かしたいと思っています。

お願いします。
262login:Penguin:2010/10/05(火) 16:48:15 ID:2lugcO0H
あれ?MOSIXって数年前にプロジェクト廃止されなかったっけ?

「MOSIXがターゲットとする8-16CPUのクラスタは将来マルチコア/SMPでカバーされる」

とかオワタ宣言してたような。復活した?
263login:Penguin:2010/10/12(火) 20:07:18 ID:MWLujXlZ
Mosixはもうずいぶん昔に終わってるよ。
システムコールを1台のホストだけで実行する(だからアプリケーションの
大きな書き換えなしでクラスタ化できる)というデザインだからスケールしない、
カーネルに複雑さを追加するに見合う効果は無かった実験的なプロジェクト
だったと思う。
264login:Penguin:2010/10/22(金) 01:27:29 ID:oSsPg4Nj
そうするとプロセスマイグレーションとかしちゃうよ、
ホントに物理的な複数台のマシンを単一システムとして動かしちゃうよ、
みたいな奴だとOpenSSI位が残ってるだけ?

これも更新は2010にあるけど、カーネルとか滅茶苦茶古いんで大丈夫かな。

DBクラスタとか、分散KVSとか、用途特化型クラスタが結局道具として
使いやすいということかね。システムの底から全部とやろうとすると
そこまでの機能を必要としない用途のスケーラビリティのネックに逆に
なってしまうと。
265login:Penguin:2010/10/23(土) 14:53:45 ID:1N5s23dx
LinuxPMIってのがあるようだ

http://linuxpmi.org/trac/
266login:Penguin:2010/10/23(土) 14:55:51 ID:Kezj1IcQ
northwood前の頃、安いパソコンを 30台くらい並べて Mosix したなぁ。
数値計算用途だったから、十分スケールしてた。
けど、一台でも調子が悪いのがあると全部おかしくなるので、安定するまで大変だった。
267login:Penguin:2010/10/24(日) 16:01:25 ID:9ZUYkKkm
>>265
へぇ、OpenMosixは途絶えたかと思っていたら、部分的には続いてたんだ。
268login:Penguin:2010/11/02(火) 23:56:35 ID:Wc3/atyz
こんなスレあったんだ。えらい息の長いスレだな。

ところで今、armelのNASにdrbd+clvm+gfs2+sambaしようとしてるんだが、
なぜかclvmdが起動してくれん。
drbd上に直接gfs2すると、mkfs.gfs2はできるがmountすると帰ってこない。

primary/secondary構成のdrbdデバイスも持たせて、
そっちはpacemakerでフェールオーバさせたいと思ってるんで、
clvmは動いてほしいんだが。

勢いでcorosyncまで突っ込んだまま、そっちはまだ全然設定してないのがいけないのかな。
それともsqeezeのパッケージはまだどっかおかしいのかな。

よくわからん。
269login:Penguin:2010/11/03(水) 14:47:16 ID:S2SNCWyL
VMware上にlennyの仮想マシンを作って似たようなことを試してみたら、
clvmがあっさり動いた。
どうやらsqueezeのclvmがダメダメっぽい。
corosyncに対応してないらしい。
ccsdに繋ごうとしてしくじってるわけだな。

deb系でクラスタしたいひとは、現時点ではまだlennyかLucid Lynxだな。
270login:Penguin:2011/01/31(月) 21:22:17 ID:f9RJoshb
tesw
271login:Penguin:2011/02/11(金) 02:57:50 ID:/fJP+6Wa
Cent5.5のRHCSが思った以上に不安定だな
動かすのはそんなに難しくないがクラスタが一旦崩れると復旧が難しい
ログも少なすぎて原因の追究難しいし
272login:Penguin:2011/11/06(日) 16:20:30.88 ID:F7JKmb6N
273login:Penguin:2011/11/12(土) 13:11:18.82 ID:ldJv5qGH
heartbeatでHAを構築しています。
リソースグループが起動し終わってから、別のマシンの電源を入れるためにマジックパケットを投げたいのですが、何か良い方法はありませんか。
リソースグループの最後の監視対象にマジックパケットを投げるコマンドを追加するのも良いかもしれませんが、リソースグループの起動完了のタイミングで何かを行うような仕組みがあればスマートかなって思いまして。
環境はDebian squeezeで、heartbeatは3.0.3です。
274login:Penguin:2012/01/20(金) 00:31:13.38 ID:IkG8mPeT
te
275login:Penguin:2012/03/07(水) 02:29:30.42 ID:iW8iYA1S
tes
276login:Penguin:2012/04/29(日) 11:04:57.55 ID:n2NRgzkT
お?
277login:Penguin:2012/04/29(日) 16:27:18.36 ID:9Rvr1niK
ちがうわー
278login:Penguin:2012/05/02(水) 23:48:40.00 ID:j+2bS5wr
痛痛しいなw
279login:Penguin:2012/07/22(日) 22:25:40.11 ID:cLPKJVWd
HPCクラスタってすれば作れますか?
280login:Penguin:2012/07/22(日) 23:27:43.39 ID:E7eOqcwV
もちろん
281279:2012/07/23(月) 03:54:41.07 ID:VQAEsVT9
どの程度の知識が必要でしょうか?
282login:Penguin:2012/07/23(月) 07:09:09.11 ID:KOZ5p0im
www
283login:Penguin:2012/07/24(火) 06:13:33.23 ID:8SSwFc9R
どの程度を想定してるのかわからないけど30台並列ぐらいになると付け焼き刃じゃ厳しくなるかと
結構広範囲な計算機科学の知識が必要だし、この分野ってあんまりノウハウが教科書的にまとまってないしね

どんな事がしたいの?
284login:Penguin:2012/08/31(金) 17:46:14.77 ID:3lrC90Dw
pxeでUbuntu12.04のディスクレスクラスタを構築してるんだけど
disklessノードにSATA disk 挿しても/devにでてこないからマウントできない
ソフトウェアクラスタでなくてスマソ
285login:Penguin:2012/11/05(月) 09:31:11.72 ID:5KJvkjMe
DRBDってまだ実用段階じゃないの?

https://twitter.com/netmarkjp/status/264375135677599744
286login:Penguin:2013/11/25(月) 12:44:54.13 ID:dpf8MxjS
今のおすすめはなに?
やっぱりHeartBeat?
287login:Penguin:2013/11/26(火) 08:36:19.52 ID:h/Hj1ry4
個人で使ってる範囲では今のところトラブルないなあDRBDは。
heartbeatとか組み合わせて自動でどうにかしようとすると
確かにはまりそうな気はする。
288login:Penguin:2014/01/20(月) 00:25:08.68 ID:Ixr6FzN6
ぬるぽ
289login:Penguin:2014/01/20(月) 08:18:39.00 ID:o4HjC44Z
ガッ
290login:Penguin:2014/01/28(火) 13:19:57.24 ID:lb52NaNP
291login:Penguin:2014/01/28(火) 20:05:26.23 ID:sIy8rVyS
やってもいないことをやったと言う、カコワルイ。。。
292login:Penguin:2014/04/30(水) 19:42:23.44 ID:cEjNgXdE
ぬるぽ
293login:Penguin