1 :
login:Penguin :
2005/03/21(月) 04:55:12 ID:wCSUL2jt
2 :
login:Penguin :2005/03/21(月) 07:31:36 ID:JumYaF5l
2
Promiseはびみょー。 個人で遊ぶにはいいけど、仕事には使いたくない。
4 :
login:Penguin :2005/03/22(火) 23:07:37 ID:N+p/TGkM
よんさま
ゴニョ、ゴニョ
ムギュ
RAIDー5
Promiseはびみょー。 仕事で使ってるけど四苦八苦。 え〜っと SX6000なんだけど ディスクアレイの状態(degraded とか rebuilding とか)を Linux側から確認する方法ってないのかな? /var/logとか/procとか見て回っても それらしきものが見当たらず。
9 :
login:Penguin :2005/03/24(木) 18:12:16 ID:WJ1KS2zb
promiseは微妙。 外してソフトRAIDにしてます。
エスカまんせー
ARAIDみたいなOSに依存しないRAIDを内臓してる1U鯖ない?
>>11 ミラーで良ければ,RAK-104IDE使ってるやつとか.
会社で何台も使ってるけど,至極安定している.
>>12 サンスコ
でも、筐体だけで10万ちかくするね。マザーやCPU、メモリ、HDDで20マソですね。
うーん、迷うなぁ・・・
>>8 FastTrak100TX2 Turbo8についてた標準のドライバでは状態確認ができんかった
前スレを参考にしてpromiseのソースで新しくドライバを作り直した
ttp://www.promise.com/support/download/download_eng.asp そしたら、/proc/scsi/FastTrak/0 で状態を確認できるようになった
> 766 名前:731[sage] 投稿日:04/10/05 18:15:52 ID:415UOANW
> 少し間が空きました。
> 10月から触れるようになったので結果報告します。
>
> kernelあげるついでにソースからドライバ作成ができました。
> RAIDコントローラとディスクの状態も見えます。
> 正常時はこんな感じで見えます。
>
> [root@localhost]# cat /proc/scsi/FastTrak/0
> PROMISE FastTrak Series Linux Driver Version 1.03.0.2
> Adapter1 - FastTrak LP/TX2/TX4, IRQ(11)
> Array - Array[1] : 1X2 Mirror (OK-Gigabyte Boundary)
> Drive -
> 1: Maxtor ******* IDE1/Master Array[1] *****MB UDMA5
> 3: Maxtor ******* IDE3/Master Array[1] *****MB UDMA5
>
> 異常時はArrayの行とDrive以下が変化
> ・一個のHDDで動作時
> Array(Critical)
> Drive片方のHDDが非表示
> ・リビルド中
> Array(Rebuilding)
> Driveリビルド中のディスクの頭に*がつく
>
> リビルド中は頻繁にパーセンテージが変化していたので、
> ほぼリアルタイムで監視しているようです。
>>14 いやぁ
当方はVineなんでハナっからソースからmakeしたんですが。
/proc/scsi/pti_st/0 は
> ***** SuperTrak SX6000 Driver Version 1.34 *****
> ***** Copyright 1999-2001 by Promise Technology, Inc. *****
>
>
> IOP Number: 0
> Capabilities: 52 State: 8
> I2OVersion: 1 MessengerType: 0x0
> MaxMessageFrameSize: 0x80 ExpectedLCTSize: 0x198
> MaxInboundMFrames: 0x1000 InitialInboundMFrames: 0x800
>
> LCT Entry:
>
> Class: 0x0 Version: 1
> OrganizationID: 0x1 LocalTID: 0x0
> ChangeIndicator: 0x1 DeviceFlags: 0x0
> SubClassInfo: 0x1 UserTID: 0xfff
> ParentTID: 0x0 BiosInfo: 0x0
> EventCapabilities: 0x23000750
(以下略)
てな感じで、正直意味がサッパリ分からんです。
少なくとも rebuild中も表示は変わらなかった。
>>15 ソースと一緒についてきたドキュメントにはなにも書いてない?
>>16 ソース添付ドキュメントはreadme.txtひとつだけで
中身はインストール手順のみです。
Linux(2.4、2.6どちらでも)で3wareの9500シリーズ使われている方いますか? smartctl --device=3ware,x -a /dev/tway, where x is the port number and y is the controller number (e.g. smartctl --device=3ware,5 -a /dev/twa0 for port 5 on controller 0) みたいな感じでエスカについてるHDDの温度をSMARTで取れるみたいなんですが、 実際に取れるか実際に試してみてくれるネ申はいらっしゃいませんでしょうか。 HDDの温度をMRTGあたりで監視させようかと思ってます。 Escalade 9500S-12 輸入版で \86,770 国内版で \110,000 どちらにすべきなんだ・・・ あと、オンライン容量拡張対応のファーム出ましたけど試した人いればレポキボン
19 :
login:Penguin :2005/04/10(日) 13:36:03 ID:tjR71Rwv
ACS-7500A ファーム Ver. 1.4 HITACHI Deskstar HDS728080PLAT20 を認識せず(´・ω・`) Feature ToolでUDMAモードを133から100に変えるも変化なし。 結局、別のハードディスクをつかった。 その後、ACSのファーム Ver. 1.5が出ているのに気づいたが これだとどうだっただろうか(´・ェ・`)
サイズが違う2つのHDでRAID0設定してmkraidしたらどういう動きをしますか?
サイズが違いすぎるんじゃぼけ、って文句吐く
LinuxJFのドキュメント読んだらほぼ同じって書いてあったので どの程度まで許容されるのかなと思って。 大きい方にあわせて/dev/hda1(100GB)と/dev/hdb1(100GB)でRAIDしたりできますか?
小さい方でした
調べたらできるようでした。 探さずに質問してスレ汚し、すいませんでした。
SoftWareRAID5ってCPUパワー必要なんですね............orz
26 :
login:Penguin :2005/04/17(日) 02:33:53 ID:GZRY+VMf
基本的なこと教えてください。 PCI接続のITE8212Fと言うIDEのRAIDコントローラ配下にRAID1array を構築しようとしてるのですが、このarrayからbootすることは可能 でしょうか? linuxのローダーにLILOを使用するつもりなんですが、LILOが はRAIDコントローラ配下のDISKを認識してくれるのかが心配です。 ひょっとしてRAIDとは別にLILOが認識できるDISKを用意しておかなきゃ いけないような気がするんですが、如何なもんでしょうか?
>>26 そのコントローラーに単発で繋いだディスクからブートできるなら可能だよ
ラックマウントで、Linuxで、Raidしたい。信頼性がおけて、安価な方法教えてください
コンサルt(ry
JCS のハードウエアレイドコントローラーって何をつかっているのだろうか?
ってかよっぽど優秀なHW RAIDじゃ無い限り、SoftRAIDで十分。
君にとってはそうだろうな
ぷらっとホームの RAID SATA-SCSIデスクトップモデル 誰か使ってる椰子居たら、感想、情報きぼんぬ。
アダプテックだから駄目
すくなくとも Promiseあたりよりはマシでは?
>>36 アダプやpromiseなんて地雷をわざわざ選ぶこともないじゃん
Promiseに関しては、漏れ自身冷や汗を3gくらい流させられた経験があるんで弁護する気にならんが、
Adaptecってそんなにダメか?
実際にトラブったという話を聞いたことがないんだが。
>>35 や
>>37 は、どんなトラブルに遭遇したのか、その実体験を是非聞かせてくれ。
頭に「ア」が付くメーカーは評判悪いとこ多いね
40 :
login:Penguin :2005/04/22(金) 15:13:47 ID:lMhhIHuc
3wareがよさげだが・・・。結構高い。 adaptecの安いSATAのRAIDはIBMの7K250シリーズで相性問題で動かないらしい。 たまたま今回知らずにそんなディスクを購入してしまって大後悔。
ソフトウェアRAIDではなくなんかしらのRAID板使ってLinux運用なさってる皆様 ディストリ 使ってるRAID板 つながってるHDD数+アレイ構成 使用してるママン を教えてほしいです。 漏れは SuSE Linux 9.2 3ware 9500S-12 とりあえず8台でRAID5を構築して足りなくなったらOCE ママンは検討中 で組もうと思案してたら SuSE Linux 9.3がリリースされちゃってどうしようか考え中なり。
11マソj超えるカードでつか…… スゴイデス
最近ドラゴン直/間なる 低価格のCF-IDE変換アダプターがあります。 これとたたき売りの512MBのCFを二組で およそ15000円程度で1GBの CF-IDE RAID0のブートドライブが作れると思います。 私は512MB一基だけで起動ドライブにしますが おそらくRAID0化で、画期的な起動時間短縮が見込まれます。 どなたか挑戦されたかたは? というか、むしろ、裕福な人試してくたさい。
うちでは、自宅ファイル鯖として活用して、遅くってもいいんで、 software RAIDでミラーです。 で、software RAIDのミラーって、HDD容量を増やすために、HDD換装するとき、 特別に既存データを逃がす領域を用意しないで、換装する2本のHDDだけで 換装できるのが、ステキ。
47 :
login:Penguin :2005/05/08(日) 08:37:40 ID:2VClIEK7
SoftwareRAID1を構築した環境から RAIDを構成するHDD(パーティション)を二つとも除去すると ブート途中で止まりますよね。 fstabとraidtabからコメントアウトしておけば 大丈夫かと思っていたのですが、だめでした。 大元からRAIDを止める時は どうすればいいんでしょうか? というか、RAID関連コマンドすべてを網羅して 説明した文書は無いかなぁ…できれば日本語で。
>ブート途中で止まりますよね。 なんでやん。 /と/bootかいな。
>>47 mdadm /dev/mdほげ -S
Red Hat系の場合、上で止めた後mkinitrdでinitrdを作りなおす。
モジュールにされてるんだよな 少しくらい大きくなったってカーネルに組み込んだっていいじゃないか
51 :
47 :2005/05/08(日) 13:39:20 ID:2VClIEK7
ごめんなさい。 ブートシーケンスが止まるのは別問題でした。 md0の一部だったパーティションとかを削除して 新規に83のパーティションを作っていたんだけど これをmkfsする前にfstabに書いていたので そこで止まっていただけでした。 あと、mdadamの無いVineだったんですが mdadamとraidtoolsの比較情報が無いかとググっていたら TL8でraidtabがあると自動起動されるという情報を見付け 全行コメントアウトしておいたraidtabをmvしたら 起動時にmd関連の処理は行なわれなくなったようです。 その後で、別問題だってことに気づいた次第で面目ない。
nForce4のRAIDは、nvidiaのドライバ待ち?
>>52 言ってしまうとmdドライバのほうが速いし安定していると思う。
54 :
login:Penguin :2005/05/11(水) 12:14:20 ID:Nh9tsYRs
自宅鯖にRAID1を導入するにあたってアドバイスください。 今1台のHDDで動いているDNS/Mail/Webサーバがあるのですが、HDDに Badblockが検出されたため、HDDの換装を計画しています。 ついでに、このようなトラブル回避をしたく、RAID1の導入を検討してます。 そこで質問なのですが、 ・安価なRAIDカードを購入してでもハードウェアRAIDにすべき ・ソフトRAIDで十分 についてアドバイスください。 RAID1を組むHDDは2台までで、/や/bootパーティション含めてミラーリング 出来ることが条件になります・・・ HDDトラブル時の手間を最小限にしたいのが導入目的です。 パフォーマンスは上記用途なので大して必要ありません。 宜しくお願いします。
安価なRAIDカードは絶対に買ってはいけない。 ソフトウェアRAIDのほうがずっといい。ただし故障時に手間がかかる。構築も面倒。 それが嫌なら多少の出費は我慢してドライバが要らないタイプのハードウェアRAIDにしろ。 5"ベイ2スロットに入るタイプの数万円のミラーリング専用のやつでいいだろう。
56 :
54 :2005/05/11(水) 12:50:00 ID:Nh9tsYRs
>>55 レスありがとうございます。
ソフトウェアRAIDの故障時の手間とはどの程度かかるんでしょう。
調べてみますね。
数万円のミラーリング専用までいってしまうと、費用対効果でNGになってしまいます。
また、ドライバが要らないタイプのハードウェアRAIDとなると、badblock等の検出時に
どちらのHDDに障害があるのか等のモニタリングはどのように行うのでしょうか。
質問ばかりですみません。
RAIDは組んだことが無いものでして・・・。
絶対に止められない環境とかなら別だけど、 普通はKNOPPIXで復活できる>ソフトRAID
59 :
54 :2005/05/11(水) 18:03:29 ID:Nh9tsYRs
>>57 JFへのリンクありがとうございます。
FastTrack100なんてのが友人宅に転がっているみたいなので
もらって付けてみようかと思っています。
ドライバについているreadmeを読むと2.4以降のkernelではデフォルトで
認識できるようですね。
raidの動作状況は/proc/scsi/FastTrak/以下に書き込まれるんでしょうか。
人の忠告をまるっきり無視する奴の事は俺も無視する事にした
くすくす
一度覚えてしまえばSOFTWARE RAIDでのディスク交換なんて、楽チン。 それに、ミラーの場合、ディスク容量拡張のためのディスク交換が、現行データを 他に退避することなくできて便利。 あと、バッドセクタで逝かれちゃったディスクは、物理フォーマットかけて綺麗にすれば パンパンまで使わなければ、またそれなりに使えるよ。
>>62 バッドセクタはbadblocks -wで直る。1度でダメなら何回かやってみる。
書き込み時に代替セクタに切り替わるようだ。
容量は減らない。
俺いっつもローレベフォーマットした後、 badblocks -o /tmp/bad.list -w /dev/hda ってしてるんだけど、/tmp/bad.listはいつも0byte これは置き換えられていたのか。
SCSIの場合、bad sectorになっても、ディフェクトリストに追加していくだけなんで、 極端な話、ディスク全部がディフェクトになるまで、(当然容量は減っていくが)使えちゃう。 IDEは、予め代替セクターが準備されていて、bad blockが発生すると、そこと交換しちゃう。 だから、代替セクターを使い果たしちゃうと、ホンとはまだまだ使える部分がいっぱいあるのに 使えなくなっちゃう。 物理フォーマットかけると、代替セクターも含めて初期化しちゃうから(もちろん、その時点で どうしても読み書きできない部分は交換されてしまうが)、また新たなディスク人生をスタート できるって言うことだ。 ただ、逝っちゃってるディスクの場合、読み書きしにくセクターが、代替セクター分、存在することは 確かなので、パンパンまで使っちゃうと、そこの出会う確率が高まっちゃうという話だ。
66 :
54 :2005/05/12(木) 10:03:39 ID:cMRE3opD
>>60 FastTrakでは問題があるということですね。
>>62 ディスク容量拡張がソフトウェアのミラーリングだけで出来てしまうということですか。
これは確かにハードウェアRAIDでは出来ないかもしれませんね。
badblocks、試してみます・・・。
でもログを見ていると、徐々に被害が拡大しているような・・。
>>67 >「ただのHDD増設用カード」として使用し、
>RAIDはソフトウェア(md)で構築
漏れもこれがいいと思う。
その上のサイトでは8portのカードにhighpointのが挙げてあったけど
Promise のSATAII150-SX8もあるね。
PCI-Xの133MHzのlinux-Ready(sx8.ko)だし。
これにWD740GDを8台繋いでmd作ってみたい。
…なんてね(w カードと合
わせて20マソコース。
あなたがシカトする様をしかと見届ける事にします
Promiseの問題はカーネルを変えられないといることだな
73 :
65 :2005/05/14(土) 13:45:55 ID:BSYW66Mx
おれも、PromiseはただのIDE増設用カードとして使ってる。 Linuxマシーンは、安定重視の自宅ファイル鯖なので、SOFT RAIDだ。 RAID6+HOT SWAP+簡単増量サポートの安いRAIDカードが出てきたらHARD RAIDにしてもいいかなと思う。
74 :
65 :2005/05/14(土) 14:13:10 ID:BSYW66Mx
連投すまん。 意外とSOFT MIRORでのHDD増量換装の方法を知らない人が多いみたいなので、チラシの裏書を… RH9の様な/etc/raidtabでの話だが。但しown your riskで! 例えば 換装前 /dev/md0 : /dev/hde1(80G) + /dev/hdg1(80G)のRAID1 換装後 /dev/md0 : /dev/hde1(200G) + /dev/hgf1(200G)のRAID1 [01] /proc/mdstatでsyncが取れていることを確認 [02] raidsetfaulty /dev/md0 /dev/hde1実行 [03] /dev/hdeをはずして80Gから160Gに換装 [04] /dev/hdeを単なるIDEとしてマウント、マウントポイントを/mnt/dummyとする fdiskではtype83でpartition作成、mke2fs -j /dev/hde1 [05] /dev/md0から/mnt/dummyへtar等でコピー [06] /etc/fstabから/dev/md0をコメントアウト [07] raidstop /dev/md0 [08] /dev/hdgの換装 [09] fdiskでtype fdで/dev/hdgにpartition作成 [10] /etc/raidtabで/dev/hde1をraid-diskからfailed-diskに変更 [11] mkraid /dev/md0、/dev/md0のマウント [12] /mnt/dummyにtar等で/dev/md0へコピー [13] /dev/hdeをumountして、type fdでpartitionして、正式に/dev/md0の仲間にしてやる まぁ、ざーっと、手抜きだがこんなもんだ
そんな今や保守されてない古いツール使ったやりかた紹介されてもなぁ。 とりあえず最近はmdadm使うので勉強してもう一度書いてくれや。
鯖としてRH9とかを使ってる奴もそれなりにいるだろうと思って書いた。
mdadmで実際にやったことはないが、
>>74 のやり方のミソが判れば、同様にできるだろ。
所詮理解できない奴は、危ないから、やるなと。
>>72 ドライバソースがあれば代えられるぞなもし
また連投だがすまん。ミソは 最初にミラーの片割れを死んだことにする。 この段階で冗長性はないが、それでも/dev/md0としてアクセスできる。 /dev/md0 -+- /dev/hde1 80G <- fault diskに指定 +- /dev/hdg1 80G 次に、死んだことにしたディスクを換装。 換装したディスクは、RAIDに属して入るが、死んだことになっているので、勝手に書き込まれたりはしない。 更に暫定的に、換装したディスクを素の(非RAIDの)ディスクとしてマウント /dev/md0 -+- /dev/hde1 160G <- 普通のディスクとして暫定的にマウント +- /dev/hdg1 80G そして、RAIDのデータを、暫定的にマウントしたディスクにコピー /dev/md0 -+- /dev/hde1 160G <- /dev/md0からデータをコピー +- /dev/hdg1 80G
RAIDを作成しなおすためにRAIDを停止。 次回の起動のときに/dev/md0がマウントされないように、fstabのコメントアウト。 /dev/md0に属する/dev/hde1は、死んだ設定を行う。これで次回の再構築の際、これは書き込まれない。 残りのディスクを換装。 (/dev/md0:停止中) -+- /dev/hde1 160G <- 死んだことになってる。昔のRAIDのデータを保持 +- /dev/hdg1 160G RAID再構築 /dev/md0 -+- /dev/hde1 160G <- 死んだことになってる。昔のRAIDのデータを保持 +- /dev/hdg1 160G <- RAIDに参加。でも、空 昔のRAIDのデータを、再構築したRAIDにコピー /dev/md0 -+- /dev/hde1 160G <- 死んだことになってる。昔のRAIDのデータを保持。勝手に書き込まれない +- /dev/hdg1 160G <- /dev/hde1からコピー 最後に/dev/hde1の暫定的マウントはずし、これをRAIDに参加させる /dev/md0 -+- /dev/hde1 160G <- RAIDの機能で勝手に同期 +- /dev/hdg1 160G <- 昔のRAIDデータを保持 以上だ
でそういうややこしい手順をいざとなったときにやると大体間違えるものだと相場が決まっている それがソフトRAIDの欠点
>>76 Red Hat 8から既にmdadmはある。
>>81 そうか、そんなに詳しいなら、上の説明で換装方法理解できただろ。
mdadmでのオペレーション、おまいが説明してやれ
>>80 だよな。ただ増量換装できるハードRAIDカードが見当たんなくって…
mdadmなんてどうでもいいからもっとCrazyなのをキボン
換装前 /dev/md0 : /dev/hde1(80G) + /dev/hdg1(80G)のRAID1 換装後 /dev/md0 : /dev/hde1(200G) + /dev/hdg1(200G)のRAID1 [01] /proc/mdstatでsyncが取れていることを確認 [02] mdadm /dev/md0 -f /dev/hde1 [03] mdadm /dev/md0 -r /dev/hde1 [04] /dev/hdeをはずして80Gから200Gに換装 [05] fdiskでtype fdで/dev/hde1作成 [06] mdadm /dev/md0 -a /dev/hde1 [07] 同期がとれるまで待つ [08] mdadm /dev/md0 -f /dev/hdg1 [09] mdadm /dev/md0 -r /dev/hdg1 [10] hdg換装 [11] fdiskでtype fdで/dev/hdg1作成 [12] mdadm /dev/md0 -a /dev/hdg1 [13] 同期がとれるまで待つ [14] fdisk -lで/dev/hde1と/dev/hdg1のサイズ(KByte)を確認 [15] echo $[ ( 確認したサイズ / チャンクサイズ - 1 ) * チャンクサイズ ] で新しいarrayのサイズを計算 [16] mdadm -G /dev/md0 -z 新しいサイズ [17] ext2onlineなりresize2fsなりでファイルシステムサイズを拡げる。
>>82 おれは換装した後バックアップからリストアしてる
87 :
67 :2005/05/14(土) 22:32:10 ID:UxyBkV8n
mdでRAID5を作っているけど、(ディスク 6台)、フェイルしたときの交換は、 1). OSとめる→ディスクを交換する→OS起動する 2). fdiskで IDを変更→raidhotadd これで終わったよ。全然手間じゃない。 ちなみに、リムーバブルケースとかでディスクを引っこ抜けるように しておけば、OSのOFF/ONの必要も無くいけると思う。 (どのみち、HDDは一つが死んでるだけなので、作業中、通常通りRAIDは動く) mdadm を使おうかともおもったけど、/etc/mdadm.conf をつかってなかったから。 特に必要とも思わないし……(モニタリングならSyslogでも可能なんじゃないかと)
>>87 ホットスワップできるようになったの?いつから?
新しいマシンでRAID組んだ後安定して動くかどうかが不安になったりするんだけど ファイルシステムを隅から隅までとことん使い倒してチェックしてくれるようなツールって どこかに落ちてないでしょうかねえ
90 :
87 :2005/05/14(土) 23:48:18 ID:UxyBkV8n
リムーバブルディスクはつかってないので。 ただ、mdの実装のされ方からして普通に実行できるのではと思っただけです。 (md自体は対応しているけど、安全にディスクを取り外せるかどうかの方が問題?)
91 :
login:Penguin :2005/05/14(土) 23:48:45 ID:GfveuXn8
>>72 詳しく。
カーネルを変えないと何がいるの?
>>90 てゆーか、普通何の仕掛けもなしに、ハードディスク、はずせないでしょ
SATA2でHOT SWAP対応されれば可能か?
しかし、どうせ換装しちゃうんだから、いいか!次のが正常に接続できれば
>>92 千円で売ってるIDEリムーバブルケースはhotswapコマンドで外せる。
ハードウェアの健康まで考えてるか分からんけど、ソフト的な対応は
2.4の時代からある。ただしRAIDは使ってない。
つなぐ方は、昔2.4で試した時は固まったな。
LinuxのSoftwareRAID5でOCEできますか?
raidreconf
なんだかんだ言っても、手間の最もかからないのはIDEの箱物なんだよな。 ソフトウェアRAIDとかSCSIの外付けとかは、なんか少しだけ本末転倒のような気がする。
前者はともかく 後者は意味不明
箱物ってぶっ壊れたときにOS側から異常が見えないんじゃなかったっけ?
>>99 OSから見えるようなドライバ付属のものもあるよ。
>>100 とりあえずそれ教えてちょうだいませませ
----広告の裏----- ともに30MB/sのHDをプライマリとセカンダリのマスターにそれぞれ繋いで SoftRAID0したけど43MB/sにしかならなかった・・
/dev/ram[0-15] でRAID組んでみた 存外につまらんかった
お試しで作成した/dev/md0を削除したいときは mdadm -A /dev/md0 でいいのでしょうか・・・?
意味不明なことを書いてしまいました、スマンコ
S-ATAのHDD3台でSoftwareRAID5を組んでみたのですが 書き込みが発生するとsyslogに以下のメッセージが大量に書き込まれます。 May 29 03:54:26 hoge kernel: raid5: switching cache buffer size, 4096 --> 512 May 29 03:54:26 hoge kernel: raid5: switching cache buffer size, 0 --> 4096 May 29 03:54:26 hoge kernel: raid5: switching cache buffer size, 4096 --> 512 May 29 03:54:26 hoge kernel: raid5: switching cache buffer size, 512 --> 4096 May 29 03:54:31 hoge kernel: raid5: switching cache buffer size, 4096 --> 512 May 29 03:54:31 hoge kernel: raid5: switching cache buffer size, 512 --> 4096 May 29 03:54:31 hoge kernel: raid5: switching cache buffer size, 4096 --> 512 May 29 03:54:35 hoge kernel: raid5: switching cache buffer size, 512 --> 4096 May 29 03:54:36 hoge kernel: raid5: switching cache buffer size, 0 --> 4096 May 29 03:54:48 hoge last message repeated 202 times こういう仕様なんでしょうか・・・? md2 : active raid5 sdh1[2] sdg1[1] sda1[0] 488359680 blocks level 5, 128k chunk, algorithm 2 [3/3] [UUU]
>109 同様の現象を経験しました。 2chで質問したのですが、特に解答も無かったので あくまで私の経験からになりますが・・・・ 自分は、カーネルが2.4系、RAID(RAID5)をXFSでフォーマットした場合に 同様の現象が発生しました。結果から言えば、特に問題はありませんでした。 その後、カーネルを2.6系にあげたところ、このログは一切 発生しなくなりました。
111 :
Anonymous :2005/06/01(水) 16:59:50 ID:yMOlvTcQ
数日前にくだ質にかいたけど、このスレの方が後日談としてもよさげなので、こちらに書きますね kernel のパラメータと raidtool のソースをいじった結果 raidアレイのアクセスが少し早くなりました だけど resync が止まらないんですよ、ext3 のソースも読んだりして、もう疲れました orz resync を早くとめる方法ってありませんかね? アドバイスお願いします パラメータは、下に書いておきます
112 :
Anonymous :2005/06/01(水) 17:00:35 ID:yMOlvTcQ
■最初 # hdparm -tT /dev/md0 /dev/md0: Timing cached reads: 724 MB in 2.01 seconds = 360.43 MB/sec Timing buffered disk reads: 162 MB in 4.09 seconds = 39.62 MB/sec # cat /proc/mdstat Personalities : [raid5] md0 : active raid5 sdp[15] sdo[14] sdn[13] sdm[12] sdl[11] sdk[10] sdj[9] sdi[8] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0] 3662976000 blocks level 5, 128k chunk, algorithm 2 [16/16] [UUUUUUUUUUUUUU UU] [========>............] resync = 42.0% (102636836/244198400) finish=3271. 3min speed=718K/sec unused devices: <none> ■hack後 # hdparm -tT /dev/md0 /dev/md0: Timing cached reads: 1648 MB in 2.00 seconds = 823.30 MB/sec Timing buffered disk reads: 282 MB in 3.04 seconds = 92.84 MB/sec # cat /proc/mdstat Personalities : [raid5] md0 : active raid5 sdp[15] sdo[14] sdn[13] sdm[12] sdl[11] sdk[10] sdj[9] sdi[8] sdh[7] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] sda[0] 3662976000 blocks level 5, 128k chunk, algorithm 2 [16/16] [UUUUUUUUUUUUUU UU] [=>...................] resync = 6.2% (15145992/244198400) finish=552.4m in speed=6908K/sec unused devices: <none>
113 :
Anonymous :2005/06/01(水) 17:01:56 ID:yMOlvTcQ
■ディスク # df -hT Filesystem Type サイズ 使用 残り 使用% マウント位置 /dev/hda2 ext3 37G 2.2G 33G 7% / tmpfs tmpfs 506M 8.0K 506M 1% /dev/shm /dev/hda1 ext3 89M 12M 72M 15% /boot /dev/hda3 ext3 38G 33M 36G 1% /home /dev/md0 ext3 3.4T 1.3T 2.2T 37% /home/ftp オマエモナ:/home/ftp nfs 1.6T 959G 565G 63% /home/オマエモナ # 「改行が多すぎ」って2chサーバに怒られた orz
mdではなく。lvm+rsyncにする。
rsync付加重杉
Winも同居しているし、HDDがWDだし・・・ ARAID99-1000L買ったべ。
大体、
>>114 は、なぜSOFT RAIDがカーネル空間で動作してるのか、理解すべきだという意見に、一票
>>117 わかんね〜からおしえてくださいましお代官様
119 :
109 :2005/06/04(土) 00:32:33 ID:sWnZZyP7
>>110 情報THNX
確かにKernel2.4環境でのRAID5でXFS環境です。
ためしにRAID5@ReiserFSで作り直して
アレイに書き込みしてみましたがXFSの時のような
ログはsyslogに出力されませんでした。
できればXFSでいきたいのでKernel2.6に乗り換えることにしますか・・・
Linux上で作成したSoftwareRAIDのアレイを OSを乗せ変えた後に移植したことある方いますか? /etc/raidtabの 移植&HDDのパス修正だけでいけるんでそか?
>>120 ディストリやカーネルのコンフィギュレーションによる。
Red Hat系の場合echo raidautostart /dev/md0|/sbin/nashとかやってRAIDを手動で起動した後、
mkinitrdでinitrdを作りなおせ。Red Hat固有のツールが嫌ならmdadmの--assembleモードを使えばいい。
カーネルにRAIDのドライバが組みこみになっている場合は何もしなくても認識するはず。
type=0xfdのパーティションをカーネルが探して自動的に起動する。
/etc/raidtabは今では使われなくなった古いツールraidtoolsの設定ファイル。
最近はmdadmを使うべきで、カーネルもmdadmも/etc/raidtabを必要としない。
んなことしてたらダウンタイムが強烈に多くなりそう
123 :
120 :2005/06/08(水) 00:24:20 ID:YsIxbuVJ
mdadmであれば/etc/raidtabいらないんすか、なるほど。 でもRAID5でディスク増設(OCE)しようとするとraidreconfを使うことになると思うんですが そのときにだけは/etc/raidtab必要になるんですよね。 その点はまだ一元管理できてないってことなのか、うむむ。
んなこたーない。 全部mdadmで閉じてる(はず)。
mdadmにraidreconfに相当する機能は無い。 mdadm-2.0betaにも書きかけのコードがあるだけだ。
md(RAID1)上にXFSを作ろうと思った(Kernel 2.6.11) んだけど、 raidsetfaultyで片肺状態にしているとmkfs.xfsできないんだね・・・
以前からそういうの在ったよ
むしろwindowsよりも簡単でわかりやすい
それはいくらなんでも同意できんな。
メーカーからソースが提供されないと
kernelがver upするだけで手も足も出なくなるし。
>>128 今単独の IDEドライブに見えるようなタイプで
RAID lv.5 対応のを探してるんだが、
Areca ARC-5010 くらいしか見つからなくて。
他のを知ってたら是非教えてくれ。
>メーカーからソースが提供されないと >kernelがver upするだけで手も足も出なくなる 胴衣。
>>127 それ、安いね。
OS 非依存のカードは 20k 超しか漏れは知らなかったよ。
Software RAID (md) を使っています。ディスクの異常 (RAID5なので、うち1台が fail した場合など)発生時に 自動的にメールを飛ばそうと思っています。 現在のところ、定期的に /proc/mdstat を見て、文字列が通常時と違う場合に メールを送信しようと思っているのですが、皆さんはどんな方法を使っていますでしょうか。 もっと的確な方法はありますでしょうか。 (SNMPで確認できたら最高なのですが・・・)
mdadm --monitor
136 :
134 :2005/07/02(土) 09:02:07 ID:Sl52kHxL
>135 ありがとうございます。 テスト (--test) でのメール送信にも成功しました。
>>125 ここら辺の事を御存じの方に質問&確認です。
mdadmの--<モード名> --helpは読みました。
・確認
現状、RAID5で使用台数増やす目的のraidreconfは
旧raidtoolsでしか使えないんですよね?
kernel2.6に組み込まれているRAIDはmdadmから
操作できるがそれはraidreconfが使えないと。
・質問
ではkernel2.6上で旧raidtoolsはどうでしょうか?
raidtoolsをインストールすれば簡単にドライバとして
使えるようになるのでしょうか?
そういう実装はされてない?
ACARD AEC-6280MからIDE1,IDE2のマスター接続でRAIDを組んで 片側(IDE1)にスレーブHDを追加してシステム起動用に使って 計3つのHDで構成してもRAID的に無問題ですか? 当方RAID初心者です。
>137 とりあえず、質問については、可です。 先日まで、Kernel 2.6.10 で raidtools 使ってましたから。 で、そもそもなんですが、 > 現状、RAID5で使用台数増やす目的のraidreconfは > 旧raidtoolsでしか使えないんですよね? > kernel2.6に組み込まれているRAIDはmdadmから > 操作できるがそれはraidreconfが使えないと。 これって確定ですか?
140 :
137 :2005/07/05(火) 00:26:57 ID:mDJh5/ga
>>139 お返事どうもです。
raidtools には raidtools2 という互換性維持のダミーツールも
あるみたいなんですがそれとは違うんでしょうか?
> 確定ですか?
すみません、わたしも上記やりとり(
>>123-125 )読んでの事なので
わかりません。
141 :
137 :2005/07/05(火) 00:27:44 ID:mDJh5/ga
142 :
139 :2005/07/05(火) 07:55:09 ID:u+v9T9+r
Gentoo 上で md を使っているのですが、インストールされている raidtools の バージョンが raidtools-1.00.3-r4 (r4 は、恐らくGentooの独自リビジョン) とのことです。なので、 > raidtools には raidtools2 という互換性維持のダミーツールも > あるみたいなんですがそれとは違うんでしょうか? これとは違うと思います。
143 :
137 :2005/07/05(火) 17:38:46 ID:Mi2U1tsn
わかりました。ありがとうございます。
144 :
$$ :2005/07/09(土) 00:52:38 ID:N9hP/xc7
>>144 Fedora Core3 を使っている。
kernel-smp-2.6.11-1.35_FC3
には3wareの7000,8000シリーズ用の3w-xxxx.koが用意されている。
146 :
$$ :2005/07/09(土) 15:01:40 ID:gKdgvkbW
>>145 どうもサンクスです
3D Manager(モニタリングツール)はどうなのでしょうか?
カーネルバージョンには関係なく動作するのかなぁ?
/dev/hda /dev/hdb /dev/hdc のデバイスでRAID5の/dev/md0 を作成して正常に動作しているとします。 ここにATAカードを増設して、それぞれを /dev/hde /dev/hdf /dev/hdg に差し替えた場合、普通に/dev/md0は動き続けるのでしょうか? 内部に自分自身のデバイスのパス覚えているとすると 物理的なHDDの位置を変えた時点で認識できなくなるんでしょうか・・・
内部的にはどこのデバイスファイルか記憶していない 自動検出はsuperblockのUUID等で判断してる persistent-superblockを無効にして作ったArrayだとraidtoolsは/etc/raidtab内のデバイス指定に頼ることになる mdadmで作ったArrayはpersistent-superblockは常に有効で作られる
Debian Unstable Kernel 2.6.11 mdadm - v1.9.0 - 04 February 2005 そして、/proc/mdstat md3 : active raid1 sdb1[1] sda1[0] 34178176 blocks [2/2] [UU] md1 : active raid1 sdb4[1] sda4[0] 71288320 blocks [1/1] [U] # mdadm -r /dev/md1 /dev/sdb4 # mdadm -a /dev/md1 /dev/sdb4 をやっても、/dev/sdb4がactiveではなくてspareになってしまいます。 両/dev/sda4,sdb4ドライブともに72999.36GB FS type はLinux RAID autodetect です(cfdiskでチェック) # mdadm --monitor /dev/md1 SparesMissing on /dev/md1 unknown device これがなにか悪さをしていそうな気がしますが、お分かりになる方いらっしゃいますか。
151 :
150 :2005/07/12(火) 11:41:50 ID:ZZwccO2K
/dev/md1: Version : 00.90.01 Creation Time : Tue May 3 03:17:38 2005 Raid Level : raid1 Array Size : 71288320 (67.99 GiB 73.00 GB) Device Size : 71288320 (67.99 GiB 73.00 GB) Raid Devices : 1 Total Devices : 2 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Tue Jul 12 11:38:58 2005 State : clean Active Devices : 1 Working Devices : 2 Failed Devices : 0 Spare Devices : 1 UUID : fa5033e7:58045d5e:5c408147:77141615 Events : 0.40080 Number Major Minor RaidDevice State 0 8 4 0 active sync /dev/sda4 1 8 20 - spare /dev/sdb4 # mdadm --detail /dev/md1 の結果です。spareをactiveにしたいのですが。
152 :
147 :2005/07/14(木) 10:57:02 ID:QPXPqf5y
>>152 LinuxでもBSDでも動くから鉄板ではあるけど、いかんせん高いな。
あと3ware DiskSwitchと6200はRAID0,1,0+1。
154 :
login:Penguin :2005/07/14(木) 23:11:44 ID:U86diRm5
DELL PowerEdge2550に積まれているDELL Raid Controller 3/Di (中身はAMI MegaRAIDらしい)でRAID1を組んでRedHat7.2を 運用していたのだが、RAIDコントローラそのものが吹っ飛んで 起動しなくなった。諸兄らにアドバイスを請いたい。 具体的には、BIOS起動時に Fatal Error: Controller kernel self test failed と出て、RAID1が組んである起動ドライブを一式認識しなくなった。 途方にくれて分解し、PCI-XバスのUltra160カードへ、HDDユニット から直接ケーブルを引き回した。RAID1なんだから外付けHDDとして 読み出せる可能性があるはず、というねらい。 んが、無情にも起動に使ったKnoppix3.7のdmesgは以下の通り。 SCSI device sda: 71132959 512-byte hdwr sectors (36420 MB) Partition check: sda: unknown partition table だれかこのRAIDカードのデータを読み出す方法を 教えてくれぇぇぇ。ext2でマウントすりゃ読めると思っていた 俺様の考えが激甘だったのはわかるが、このままでは死ねぬ。
>>154 ハードウエアRAIDコントローラの場合、構成情報をディスク側に記憶させるために
ハードディスクの冒頭1Kバイトとか2Kバイトとかを占有したりするものが多い。
なので、その分だけずらして読めば読めるはず。
DELLのCEを呼びつけてRAIDカード交換。 下手な小細工は無用
>>155 ありがとう心の友よ。
でも情けないがその情報を実践できるスキルがない。
情報源へのポインタでもいいのでやり方を教えてくれないだろうか。
マウントオプションでそんなの指定できそうにないし……
>>156 保守切れてて15万とか言われマシタ。
10万以上だと確保に半年はかかるので泣く泣くNG。
同じマシンがもう1台あるので、そちらにHDDを差し替えて
みたものの、まともに認識しませんでした(汗)。
構成情報がぶつかってるんだろうなぁ、きっと。
できない人のために有償サポートがある データを壊したくなければ金を出せばよい
オンボードpromiseチップ + windows で raid1 で使用中のディスク(VFAT)があります。 このマシンでlinux(knoppixとか)を立ち上げ、raidtoolsでraid1を構成して データを失わずに読み書きできますか? mdadm --build で構成すればok? さらにwindowsを立ち上げればまた読み書きできますか?
160 :
pen :2005/07/17(日) 13:48:07 ID:zfwbLJTO
安いIO-DATAのカード(UIDE-133R2とか)は、既にあるOS環境からのRAID 1の移行は出来るが 高い3wareって新規でOSインストしないとダメなの? 誰か方法知りませんか?
>>159 その「オンボードpromiseチップ」がなんなのか解らんが、
ソフトウエアRAIDだとしたらそのままで移行できる。
ハードウエアRAIDだとしたらその仕様次第。YESかもしれないしNOかもしれない。
ただしいずれの場合も、「できる」ことを前提に行動してはいけない。
データが消えてもいいようにきちんとバックアップは用意しておいて、
運が良ければデータを書き戻さずに運用できたらいいなぁ、
程度にとどめておくべき。あと安全のためにfsckも。
>>160 基本的にハードウエアRAIDはディスクの冒頭部分にRAIDの構成情報を書き込むので、
RAIDレベルが何であろうと現行のディスクを移行させることは出来ない。
もちろんカードの仕様次第だけどな。ちなみに3wareは「できない」ほうだ。
162 :
login:Penguin :2005/07/17(日) 14:38:55 ID:HNp2HyHA
DTP・印刷板を観ろ!DTP・印刷板を観ろ!DTP・印刷板を観ろ! DTP・印刷板を観ろ!DTP・印刷板を観ろ!DTP・印刷板を観ろ! DTP・印刷板を観ろ!DTP・印刷板を観ろ!DTP・印刷板を観ろ! DTP・印刷板を観ろ!
163 :
pen :2005/07/17(日) 15:15:50 ID:zfwbLJTO
>>161 そうですか...あきらめ
OSインストからシコシコ環境作り直すか...
サンクス
164 :
pen :2005/07/17(日) 15:24:59 ID:zfwbLJTO
あー、Drive Image 2002でバックアップとって
RAID構築後のHDDへリストアーすれば可能ですが...
Drive Image2002 はEXT3,RraiserFS対応していないので
>>160 で質問しました。
EXT3対応している、良いバックアップツールがあればね〜
165 :
login:Penguin :2005/07/17(日) 15:34:53 ID:1trm9+UY
>>164 Drive Imageなんて使わなくてもddでコピーすればいいじゃないか。
つ partimage つ true image
167 :
pen :2005/07/17(日) 16:36:14 ID:zfwbLJTO
Drive Image見たいに、スマート圧縮したい true imageって、 MS製品無くてもFDD かCDブートでバックアップ&リストアできるのかなあ?
168 :
pen :2005/07/17(日) 16:37:23 ID:zfwbLJTO
おっ、体験版あるやん 試してみるか winyしたほうが早いかな。
>>167 んじゃddとbzip2をパイプで繋げばいいじゃないか。
むしろソフトウエアに激しく依存しまくる独自フォーマットじゃリスクが高く
危険極まりないと思うのだが。
独自フォーマットがリスク高いだなんてあほくさい
171 :
pen :2005/07/17(日) 17:25:10 ID:zfwbLJTO
みなさんどうもありがとうございました。 結局、EXT3は、まんどくさいけどSymantec LiveState Recoveryか partimageでRAID環境へ戻します。 雰囲気が2chになってきたので、さようなら
172 :
名無し :2005/07/17(日) 20:45:58 ID:722hAL2I
173 :
@@ :2005/07/17(日) 23:06:23 ID:1Iiu6x5R
>>146 http://www.kmwebnet.com/archives/2005/05/3ware_3dm.html 自宅サーバーには3ware Escalade という高価なハードウェアRAIDカードを搭載しているわけだが、その価値を位置づけているのが、優秀な遠隔管理ソフトによる、管理のやりやすさであろう。
従来までは、Fedora Core1などの2.4系カーネルで構成していたので、そのセットアップも容易だった。
ところが、Fedora Core 3の2.6系カーネルになってから、遠隔管理ソフトである3dmがセットアップできず、困っていた。
まとまった時間が取れたので、3wareのWEBページのTECHページを読み漁る。すると、2.6系カーネルではサービス内でのアレイ情報の取り扱い方が変わったらしく、3dm2を使えと書いてある。最新シリアルATAの9500シリーズなどで標準となっているバージョンである。
恐る恐る最新バージョンの3dm2をダウンロードし、スクリプトを走らせる。…うまくいった!
174 :
@@ :2005/07/17(日) 23:07:34 ID:1Iiu6x5R
>>161 PromiseのPDC20265です。ソフトウェアRAIDであると理解しています。
データは残ると思われるけれどもリスクがあるということですね。お答ありがとうございます。
>>127 それRAID1で使って松。OSはTLW7。
結局、MBRのコピーが上手くいかなかったのかわからんけど、ブート時LIL・・・
ぐらいで止まる事があった(正常起動する場合もあった)。
HDDメーカーからDLして作ったフロッピーでローレベルフォーマット(クイック)して
2台のHDD繋いでインストしたら大丈夫になりますた。
とりあえず片方のHDD電源ケーブル抜いてみたけど正常に起動できました。(当然)
Kernel2.6系でのRaid-1の構築方法が詳しく書いてあるドキュメントないですか・・
>>178 エスパーにはエスパーで。
俺のところだとLinux側で設定しなくてもRaid-1を構築出来たよ。
>>179 エスパーって何ですか?
/bootまで含めて完全Raid-1にしたいのですがどうしていいのやら。
これからセットアップするので、後からRaidにする方法でもOSインスコ時に
Raidにする方法でもどちらでもいいのですが・・。
anaconda
RAIDといってもいろんなのがあるが、
>>178 の場合には
単独のドライブに見えるような
ハードウェアRAID買ってくるのが一番だろう。
SCSI H/Aのドライバとかだけ入れられれば
特別な設定は一切不要だ。
183 :
179 :2005/07/22(金) 18:58:30 ID:FPBZ+bzv
あんたはどうやってRAIDを組みたいのか書いていない。 だから答える方はあんたの計算機のハードウェア構成やら、 どこをディレクトリツリーのどこをRAIDにするのかを、超能力で 察知しないといけない。 俺は3wareの9500SというハードウェアRAIDカードを使っている から、BIOSでRAIDの設定した後はLinuxからSCSI ディスクと して認識されて、Linux上で設定することはなかった。
こんな感じ。CentOS4使え Filesystem 1K-ブロック 使用 使用可 使用% マウント位置 /dev/md1 256586 103298 140040 43% / /dev/md0 101018 11183 84619 12% /boot none 1033304 0 1033304 0% /dev/shm /dev/md5 6048260 3377148 2363876 59% /home /dev/md7 136298336 98451492 30923240 77% /opt /dev/md2 3020048 1219640 1646996 43% /usr /dev/md3 4032000 623288 3203892 17% /usr/local /dev/md4 2015952 597356 1316188 32% /var
>>184 ためしに
/dev/md0 /
/dev/md1 swap
でやってみたけどブートしない・・・。
環境はCeleron800MHzにi815マザー。
メモリ512MB、VGAはMatroxG200という数年前組み立てたPCです。
Raid構築用にAdaptecの1200Aを用意してHDD(200G)を2本つなげてます。
このスレ読んでたらハードRaidよりもソフトRaidの方がLinuxから管理する上では
便利そうと思ったのでやってみようと思ったのです。
ブート用にもう1本HDD追加すべきか・・・・・。
CentOS4.1でFastTrakTX2000系(100TX2とか含む)使っている人居ない?? kernel2.6でのFastTrakTX2000系のドライバがコンパイルできないんだけど。 (ftsrcをCentOS4.1でmakeすると大量にエラーが出る) やっぱ今更FastTrakなんて使うなって意見になっちゃう?? ソフトウェアRAIDは無しで。ホットスワップできないんじゃ使えないよ。 SuperSwap(Promise純正HDDケース)も大量に余ってるからなんとか再利用したいんだよねぇ。
>>185 > このスレ読んでたらハードRaidよりもソフトRaidの方がLinuxから管理する上では
> 便利そうと思ったのでやってみようと思ったのです。
このスレの一体どこを読んだら
そーゆー結論が?
擬似ハードウェアRAIDならSoftware-Raidのほうがいいわな
>>188 結論ではないけど
> このスレ読んでたらハードRaidよりもソフトRaidの方がLinuxから管理する上では
> 便利そうと思ったのでやってみようと思ったのです
こういう意見を押す人がこのスレにいるのも事実。このスレ初カキコの俺も同意見
3ware製品なら3dm使えて楽だよ。 多分ソフトウェアRAIDよりずっと楽。
最近3wareの9500Sシリーズ購入しましたが 3dm2はすごく使いやすいです。 管理はかなり楽になりましたよ、参考までに。 高い金出した甲斐はあった。
保守
>>185 自宅用途なら管理しないのが一番。
こんな感じにさ。
IDEの120GBをミラーしてるだけ。(過去の習慣で/bootだけは単独にしたが)
/dev/md2 114903880 82662732 26404336 76% /
/dev/md1 101018 8441 87361 9% /boot
none 128028 0 128028 0% /dev/shm
消費の殆どはWindows環境のバックアップ。
でもWindowsはハードウェアRAID5だったりするんだが。。
evms いいっすよ
196 :
195 :2005/08/14(日) 15:33:30 ID:CWXJBmcW
ややこしいマルチディスク概念を、全部放りこんでおけって事で。 /dev/evms/hd?1 とか /dev/evms/md0 とか。 evmsgui 必要最低限のGUIなんで見た目は貧弱だけど ともかく使えるし。
mdadmでは未だにOCEはできないんでしたっけ? あと ディストリ固有でもかまわないので mdadmをGUIから管理できるもので お勧めがあれば紹介してほしいです・・・
198 :
login:Penguin :2005/08/24(水) 21:07:27 ID:bzIesZqZ
ノートPCの外付けUSB2.0HD×2台でミラーのRAIDを構築する事は可能ですか? WimXP proです。 ちょっと調べてみたけど、ぜんぜんわかりません。 できるのであれば、安価でできる方法教えてほしいです。
帰れ
>>197 > mdadmでは未だにOCEはできないんでしたっけ?
OCEはできません。
> ディストリ固有でもかまわないので
> mdadmをGUIから管理できるもので
> お勧めがあれば紹介してほしいです・・・
ディストリ非依存で、上記のevms導入がお薦め。
X上guiのevmsguiがコマンドラインから起動できます。
ただしこれも既存のmd上に構築されるため、
(デバイスマッパーにパッチ、/dev/evms/md/md0とかになる)
やっぱりOCEはできません。
201 :
200 :2005/08/25(木) 10:28:51 ID:hItM8IhZ
ついでにメモ代りに、はまった事例をひとつ。 症状 ・アプリケーション大量起動でウィンドウが固まったため リセットスイッチで再起動。 ・ファイル転送中だったmdが認識されず。 evmsguiで確認したところファイルシステムも消えている。 ・PC起動中のメッセージにはmdを構成するHDD中、 4台しか認識されずと出る。 環境 ・自分のmdはATA100x4/SATAx2の計6台によるraid5。 ・raidは手動でマウントしている。 ・ファイルシステムはreiserfs。 対処1 ・evmsguiを起動するとファイルシステムが無くなっている。 ・しかし6台ともevmsguiからは見える。 ・evms管理のセーブデータを読み込んでみる。 (evms_metadata_backup/evms_metadata_restore) ・しかしエラーコードで終了。(8か13だったか) エラーコード探しにソース読む気はねーよ orz 観測 ・evmsより下の階層での不具合か。 ・mdadmの--monitorだとATAのみが動いている。
202 :
200 :2005/08/25(木) 10:30:05 ID:hItM8IhZ
保守
204 :
200 :2005/09/12(月) 18:40:02 ID:rN2FMV1Y
追記: evms/raid5での台数増のexpandは既存のハードディスクに対し 「読み込み/書き込み」で激しくアクセスする。 特に、古めのディスクでraid構築してるような人は ディスクに止めをさすだけになるかもしれない。 なので、可能ならばそれはやらずに 「raid新規作成、既存データをそちらへコピー」で 済ませた方がいい。
SATAでRAID0設定したら XPで体感的にかなり早さ変わりますか? 興味があります
>>205 Testing と Continuous Integration には多少影響するでしょうが、
基本的に開発が早くなるとは思いません。
ホシュage mdadm をこれからインストールして運用するんですけど 参考になる WenPage とか、ドキュメントとかあったら紹介してもらえませんか
壊れかけたHDD(データが読めたり読めなかったり、 でもWindowsはインストールできるし起動も出来る。)が あるんだけど、RAID使ってパリティとかデータを 二重にもたせて信頼性を上げること出来ない? そんなの捨てろとかいわないでね。 面白そうじゃん?
210 :
sage :2005/09/26(月) 18:41:33 ID:NBMG2YH+
linuxのソフトウェアraid5のリカバリ中って、 そのボリュームをマウントしたらまずいかな? 経験的には深刻なダメージは出たこと無いんだけど、 なぜか、リカバリ後にU_UUみたいに1個だけhddの 認識に失敗したことがある。
sage間違えた。ついでにもう一つ、raid5のリカバリ時間に影響が 大きいのはCPUだろうか?HDDアクセス速度だろうか? 個人的な経験ではHDDのアクセス速度なんだけど・・・
FC4でmdadmでRaid5構築しているんですが 別のツールなどを使ってOCEする方法はないでしょうか? オンラインでできなくても問題はないのですが何か抜け道はないのでしょうか? mdadmの変わりにraidtool入れ直してraid5構築しなおすしかないんでしょうか?
213 :
login:Penguin :2005/10/05(水) 21:42:15 ID:RXnNyR5n
私もFedora で RAID1 を構築しようとしています。 初心者なので、初歩的な質問をさせてください。 マザーボードで RAID の機能がある場合、BIOS でRAIDの設定をするかと 思うのですが、その設定が行われていたら、Fedora から認識するはずなのでしょうか? それとも、更に madam などのツールで設定をしないといけないのでしょうか?
ataraid
dmraidってどうなの?使ったら死ぬ?
mdadm などを用いたソフトウェアRAID と Linux LVM との相性はどうなのでしょうか? Linux LVM とは組み合わせるべきではないのでしょうか?
たいていの人が組で使っとるがな。
218 :
login:Penguin :2005/10/07(金) 12:10:40 ID:mXO4pqU/
3ware 新製品(PCI-X)出たらしいっすね。 来週買いに行きます。 誰か使ってますか? ドライバーとかが不安・・・
どうして? 不安になるようなメーカーではないだろう
またえらく前のネタだな。 データ化けまくりでも余裕で放置のPromiseのほうがおきにいりか?
だな。 逆にそこまで溯らないと悪い評判が出てこないという方が重要に見える。 そのトラブルだってちゃんと対応したからこそ、その後の評判を落とさずに済んだ訳だし。 新製品だってドライバは既存の機種と共通なんじゃないの? ドライバに不安を覚える必要はあまりないように思えるが。
> データ化けまくりでも余裕で放置のPromise と > そのトラブルだってちゃんと対応した3ware の差だな。
対応してないの?まじっすか
なんか痛い連中が揃ってるな。 一度でも不良品出したメーカーの新製品は評判聞かないと買えないって 言いたいだけだよ。
あっそ
>>226 トヨタや日産も、リコール対象になった不良品を出したことがあるわけだが、
それに関してはどうお考えですかね。ブランドイメージが先行している
業界で評判なんかあてにならんよね。
でさ、評判聞いた所で、不良ロットに当たればデータはあぼーんでつよ。
>>228 >でさ、評判聞いた所で、不良ロットに当たればデータはあぼーんでつよ。
だから?
「不良ロットに当たればデータはあぼーん」はどんな製品でも条件は一緒。
>230 あーあ、あんなレスで噛み付かれたなんて思ってるよコイツ。
Promiseの不良在庫を抱えたショップ店員かよw
PromiseはUltra100で懲りた。 あれマザーのオンボードに積んだの多かったから 回収はホントにシラ切りやがったな。
Promiseっつーとさ、SX6000使ってるんだが サーバを再起動したら突然アレイが認識不能になっちゃって 各ドライブは低レベルチェックやっても問題ないし、 どーしても必要なデータが入ってたんで もう一枚SX6000買ってきて差し替えてもやっぱりダメで、 途方にくれて日商のサポートに電話したら一生懸命調べてくれて、 台湾のサイトに非常時用のマニュアルPDFがあるからそれ見てくれって話。 で、それの中に「原因不明だがアレイが認識不能になった場合」って項目があって、 それやってみたら無事復旧したんだが。 日商の人に「マニュアルの中に『原因不明だが…』なんて項目が わざわざ用意してあるってことは、結構発生するんですか?」と 聞いてみたら、そんな項目あることすら知らなかった、とサポートさんも苦笑してたよ。 いや〜〜Promiseは 二 度 と 買 わ な い ね。
ICH5で /dev/hda /dev/hdb でRAID1をやろうとしています IDE RAID1 同じケーブルのマスターとスレーブに繋いでると 片方のハードディスクが死んだらどちらもダメになるって本当ですか?
そういう事もある。バスを掴んだまま死んでしまうとダメ。 昔はマスターが死ぬとスレーブにはアクセスできなかったが、 今はそんな事ないので共倒れの頻度は減った。 俺なら両方ともマスターに繋いでおくけどな。
質問させてください。 OSで制御するSoftwareRAIDというのは、HDDの電源管理はどうなるのでしょうか? 常時通電ならば問題ないということは判るのですが、例えばサスペンドなどは サポートされるのでしょうか。複数のHDDを利用するので消費電力が気になります。 また、停止や再駆動に特別な処理(システムとしてではなくユーザとして)が必要 だったりしますか?
RAIDが管理する所じゃないし
質問の仕方に問題がありましたね。 みなさんはシステム起動中にRAIDアレイを停止させたりしていますか? 停止させているとしたら、それはおもむろにHDD電源断で行いますか?
停止させることはない
>>213 ドライバをOSに入れるときに、raidtab かどこかに
適切な設定を追加してくれるはずだよ。
>>210 無問題。マウントして書き込んでも無問題。
ただしエラー時のリスクはほんの少しあがるわけだが。
Silicon Imageの疑似RAIDチップSiI 3112搭載のカードがLinux2.6.13上でハングする件について 誰かこれを動かしている奴いるか?
Vine linux 3.2 DELL poweredge800 raid1: CERC SATA 1.5/2S の構成です。 さて、smartmontools をインストールしたはよいのですが、 smartctl を行うと、対応してないよとメッセージがでてきます。 HDDの監視を行うにはどうしたらよいか、どなたか助言ください? 最悪、ばらしてソフトウエアRAIDにするしかないのかなと思っています。
LinuxでSATAをアクセスする時に使用されているドライバ (libATA) では SMARTを利用する事は出来ません。
なるほど了解です。 対応したドライバがでるといいのですが。 どうもありがとうございました。
もうすぐ出そうだって書かれてからもう半年たったけどな。
mdadmでOCEできる日はいつ来るのかなぁ
249 :
login:Penguin :2005/11/05(土) 13:37:12 ID:+UFilqwx
はっきりいって普通とは違うデバイスドライバーを組み込まないと 使えないようなRAIDボードでRAIDを組むと、それでブートパティション も作ると、実際に何年もたってから故障が生じた時に非常に不都合な ことが起きがち。 OSからみて、論理的に通常のHDDドライブに見えるようなRAIDデバイス そういうものだけを使ってシステムを組むことを奨めます。さもないと 実験や故障時の対応などを考えると時間ばっかりかかるし、本当に未来の 数年後にその手順を憶えているかどうか、必要なソフトが手元にあるかは 怪しい。またOSのリビジョンをアップデートしたり、パッチを充てたとたんに システムが動作不能になる可能性もあるので、恐ろしくてアップデートが 出来ないなどのことになりかねません。 また、RAIDの故障時に、RAID1の場合にはRAIDを構成するドライブを 取り外してIDE,SCSI、SATAなどのインターフェースに直結して読み出せる のが理想です。
一方で RAID カード側は自分の知らないうち(shutdown中とか)に mirror の片方が別のデバイスで弄られて整合性が 失われているかどうかを知るすべがないので 無闇に外して使えるという状況はそれはそれで危険でもある。 (boot 時にその辺のチェックを一々やるわけにもいかんし)
>>249 「普通とは違うデバイスドライバ」って何?
異常なドライバです
3ware 9500SでRAID5のファイルサーバを構築している。Linuxからは SCSIディスク(sda)として認識されている。 一方、前にPromise FastTrak TX2000でRAID-1を組んだ時はカーネルに ataraidを組み込んで/dev/ataraid/d0として認識されていた。 RAIDの為に特殊なドライバを必要としない前者が「普通のデバイスドライバ」 で後者が「普通と違う・・・」だろう。
>>253 要するに、RAIDのパリティ計算なりミラー処理なりをコントローラの内側で
やってくれる狭義の「ハードウエアRAID」が「普通のデバイスドライバ」で、
それらをソフトウエア処理する「似非ハードウエアRAID」が「普通と違う〜」
ってこと?
そいつぁ 斬新すぎるぜッ クマ
3wareは普通でそれ以外は異常なRAIDカードだと言いたいのだろう 同意したくなるから困る。
3ware以外で「狭義のハードウェアRAID」かつ、ドライバが カーネルに含まれてるものってある?
>>257 カーネルリコンパイルのメニューに出てくるやつ
Mylexも仲間に入れてやってください(><)
Adaptec の 2410SA とか HP の 6i とか 最近なら Areca。 (個別具体的すぎ)(Areca は使ったことない)
MylexはSCSIに見えないから。/dev/rd/c0d0p1とか。
>>257 それだ。
カーネルに含まれてるのが普通のドライバ、
含まれてないのが普通とは違うドライバ
気持ちは2割くらいは分かるが、それは 「普通」という言葉で表現すべきもんではないのでは?
LSI Logicヽ(´ー`)ノマンセー
266 :
login:Penguin :2005/11/08(火) 09:48:49 ID:uPgiULai
ソフトウエアRAIDを使ってみようと思ってます。 普通に ATA100 インターフェイス2つに それぞれ100MB程度のディスクがつながっている環境で。 今まで SCSI デバイスとして見えるいわゆるハードウェア RAIDしか使ったことなかったんですが、Linux での ソフトウェアRAIDの実現方法にはいわゆる md0 などの デバイスを作る方法と、LVM による方法があるようです。 この両者は全く関係ない、独立したものという認識でいいんでしょうか? またいずれの方法がおすすめでしょうか? 使用しようとしているカーネルは 2.6.13以降、 Linux の LVMについては以前 Fedora Core 4 をインストール したときに自動的に LVM を使ったパーティショニングに なっていて、「お〜Fedoraってそうなんだ・・・」と 感動した経験がある程度。 LVM 自体については AIX で 普段から使ってます。 半ソフトウェア半ハードウェアRAIDともいうべき ATA RAID はまたさらに別の話なんですよね? うちのマザーボードにはついてないから関係ないけど。
267 :
266 :2005/11/08(火) 09:49:25 ID:uPgiULai
すんません、100MB程度のディスクって書いたのは、 100GB程度のディスクの誤りでした。
>>266 ソフトウェアRAIDとLVMはどちらもdevice mapperの上で動いているが両者は独立したもの。
LVMで可能なのはストライピングだけ。
RAID1やRAID5はソフトウェアRAIDでしか出来ない。
LVMのストライピングも実績が無いので、ソフトウェアRAIDのRAID0を使うべし。
LVMはLVMで便利なものだからちっこい/dev/md?をたくさん作るより、
/boot以外まるっと/dev/md0にしてその上でLVMを使うのが好き。
ATA RAIDは絶望への招待状なので忘れるべし。
269 :
266 :2005/11/08(火) 11:59:41 ID:uPgiULai
レスありがとうございます。 ATA RAID は絶望への招待状ですか。 最初にレス書いた後、パーツ箱がさごそ物色してたら 基盤面にHPTなチップがのっかってるPCIカードを発見して、 かなり心惹かれてにらめっこしてました。忘れよう。 必要なのは RAID1 なので、必然的にソフトウェアRAID って事になりますね、ありがとうございました。 RAID1 だったら、なんかトリック使えば、ソフトウェアRAID でも /boot 含めて RAID1 にできそうな気もしますが、 トリッキーな事してアレイが死んだらやだからやめとこう。
>>269 そだね/bootもraid1にするのが普通だから/bootが/dev/md0で残りが/dev/md1だな。
インスコ終わったらgrubで
root (hd0,0)
setup (hd0)
root (hd1,0)
setup (hd1)
やっとけ。
(ハード板の方に間違えて投稿してしまったのですが、こちらの方に再投稿) IDE HDD 3台でソフトウェアRAID Level 5を利用しています。 昨夜突然マシンの電源が落ちてしまい(どうも電源回りのトラブルのようでした)、 ハードウェア回復後再起動をかけたところ、 Starting up RAID devices: Invalid argument /dev/md0 is not a RAID0 or LINEAR array! と途中で止ってしまいます。 考えられるトラブル原因と対処法はどんなことがありますでしょうか? googleで「linux ソフトウェアraid 修復」あるいは、上記エラーメッセージなど 検索してみたのですが、有効なヒントは見つけられませんでした。 丁度バックアップ用のマシン(通常は2台で同期して使ってる)が故障中のときに 限ってトラブルは重なるもので、困りきっております。
dangerous-no-resyncで殺っちゃえ
>268 なんかごっちゃになってないか? mdはdmがなくても動くし、dmの上で動かすこともできる。
>>269 HPTが368ならそれは核地雷だ。それが原因で祭られた代理店まであるから注意しろよ。
276 :
275 :2005/11/09(水) 21:04:47 ID:naXTaqcz
あ、書き忘れましたが
>>275 =271です。
>>275 の参照先に
> まぁ、最近のディストリじゃこんな事しなくでもいけるのかもしれませんし、
> 結構危険な手段なので、上記の手順はどうしても困ったときにのみお試しください( ̄▽ ̄)ノ
とありますが、もっと簡単な方法ってのはあるんでしょうか?
277 :
login:Penguin :2005/11/11(金) 11:13:20 ID:ESgquNkS
RAIDユニットの話もここでいいでしょうか? ACCUSYSのACS-7500Aなんですけども。
>>277 ソフトウエアRAID、ハードウエアRAID、RAIDユニットのどれでもOK...たぶん。
279 :
login:Penguin :2005/11/12(土) 11:18:20 ID:dD4E2+aJ
それでは。 ACCUSYSのACS-7500Aなんですが、 865チップセットのマザーと相性悪いというような情報が 865の出始めの'03前半にあったかもしれない気がするのですが、 詳しい情報はありませんでしょうか? その頃、845GEのマザー(ASUS P4GE-VM)を買ってACS-7500Aと使っていたのですが、 そのマザーにただ1個使われてしまっていたGSCのコンデンサが膨れてしまい、 865Gのマザー(ASUS P4P800-VM)に換えようかと考えています。 (P4GE-VMのコンデンサはとりあえず修理はするつもりですが) もし組み合わせに問題があるようだと他の選択肢を考えないといけなくて。
865自体がダメなんじゃねーの?俺はそう結論づけてるけど。
m/bのideとpciに増設したideカードを使って 6台のraid5をソフトraidしようと思うのですが これって問題でます? freebsd+vinumで構築します os違いですがお願いします
282 :
login:Penguin :2005/11/17(木) 04:18:22 ID:XS7aSdTN
smartctrl -a /dev/hda smartctrl -t long /dev/hda
>281 板違い。うに板に来い。 ちなみに FreeBSD 4系は vinum でいいけど 5,6系は gvinum になる (けどちょっと問題ありそうかもしれないという話)。 GEOM レイヤで RAID3 の方が無難っぽいが 6台はダメっぽい(3,5,9,..台) 続きは FreeBSD 質問スレ辺りで。
284 :
281 :2005/11/18(金) 03:40:19 ID:/rLiGD1z
>>283 誘導とレス、ありがとうございますm(__)m
HDDを外出しして、外付けのエンクロージャに ソフトウェアRAID5で組んでいる人がいます? ファイルサーバ+αぐらいの機能しか必要ないので、 できれば、本体を小さいcubeくらいのもので組んでみたいので、 構成を参考にしたいのですが。。。
286 :
285 :2005/11/23(水) 15:09:59 ID:Rve/5A2O
自己レスですが、 いわゆるCube型でも、やや大きめのもだと、 5インチ*2、3.5インチ*2とかもあるんですね。 排熱とか電源とかパーツ同士の干渉とかの問題がクリアできれば、 5インチ2段にマウンタでHDD3台を載せる方が理想的かも。
基本的な質問で申し訳ないが、OS標準のSW-RAID(mdドライバ)って アレイの整合性チェック機能とかアレイ監視/コンフィグレーション用の GUIユーティリティは存在しないって認識であってるよね? そう言うことしたければAdaptec HostRAIDとかLL MegaRAID使わざるを 使いなさいって事なのかな?
いや 普通は3wareの
290 :
ega :2005/12/04(日) 13:46:18 ID:OIejvgOD
研究室のバックアップサーバを構築することになり、 ハードウエアRAIDの付属のドライバをインストールするところでつまづいてます。 デイストリビューションはfedora 3なのですが、 付属のドライバはwindows用のものしかありません。 詳しいことは下記の通りです。 使用しているRAID---HighPoint Rocket RAID 454 HDD---5台(250G*4+80G*1) 構築しようとしているもの---RAID5 ドライバをインストールする方法を教えて下さい。 初心者ですいません。
次に 5台で RAID5 が組めません なんてことを言い出すんじゃないかと心配。
>>290 そのカードのドライバが*.oであるなら,それを読み込めばいいのでは?
インストール時にRAIDドライブが/dev/sdaとかって認識されない場合は
最新のカーネルをソースからインストールすればドライバが付いてくる
ことがある.
PATAか、ならオンボードの プライマリマスタ、プライマリスレーブ、 セカンダリマスタ、セカンダリスレーブ、 の4台でmd使ってRAID組んだ方が早い希ガス。 システム用の(だと思われる)80GBのHDD はPCIに適当なATAカード繋いで (Promise Ultra100 TX2とか)さ。
>>293 ドライバはカーネルのバージョン依存だろうから
*.oがそのものズバリのバージョンのものでない限り
ソースを入手してコンパイルするしかないと思うが。
(もちろんデフォルトでカーネル組み込み済みの場合もあるだろうが、
その場合はインストール時に自動認識されてるだろう)
つかソースが入手できないと、
カーネルのバージョンアップすらできなくなるから
実質的に「使えない」と思う。
>>290 のドライバのソースが公開されてるか知らんけど。
LinuxでハードウェアRAID使うときには
ドライバのソースが公開されてるか
買う前に確認しておかないと泣くことになる。(経験者)
High Point=負け確定
>>295 っていうかHighPointのRAIDカードは2320を除いて全てソフトウエアRAIDだったと思われ。
>>297 ソフトウェアRAIDでも
専用のドライバ使うなら
結局は同じことだろうな
一つ質問させてください。 persistent-superblockを使用して作成したraid1のmdデバイス md0, md1,md2 があります。 それぞれ hda1+hdc1, hda2+hdc2, hda3+hdc3 となっているのですが、昨夜hdaが故障したため 故障ディスクを正常品と取替え、パーテーショニングを済ませてraidhotaddしました。 そこで手順を誤ってしまいました... orz # raidhotadd /dev/md0 /dev/hda1 # raidhotadd /dev/md2 /dev/hda2 ← 本当は/dev/hda3を追加すべきだった その後、md2 を raidstop で停止し、 # raidhotadd /dev/md1 /dev/hda2 で、md1の再構築は完了したのですが、md2を再構築しようとすると # raidhotadd /dev/md2 /dev/hda3 Illegal superblock〜 と表示されてしまい、再構築できなくなってしまいました。 これを修正するためにはどのように行えば良いか、アドバイスをお願いします。 予想では、/etc/raidtab のhda3をfailed-diskに変更し、mkraid /dev/md3 ではないかと 思うのですが・・・。
普通はmdadmだと思うのですが...
3ware Escalade まんせー
とりあえず m9(^Д^)プギャー
mdを構成しているDiskに付いたfailステータスをactiveにする方法ってありますか? Diskが壊れてないのに、別要因で複数本のDiskがfailになった場合の処置について 調べてるのですが、情報が見つからないもんでして・・・。 なお、fc3使ってまス。
>>303 failになっちゃったものはいったんremoveしてaddしなきゃ駄目だと思う。
>>303 /var/log/messagesで"kicking non-fresh hdk8 from array!"に対処した際の
俺が試した方法です(fc3上のsoftRAID)。
下記で何をしているのか分からない場合は、まだ手を付けない方がよいかも。
【1】--examineでLayout, Chunk size, HDD numberとデバイスの対応を確認
/sbin/mdadm --examine <HDD device>
【2】RAIDシステムの再構成
/sbin/mdadm -C /dev/md? -l5 -c <Chunk> -p <Layout> -n ?? <disk0> <disk1>..<diskn>
【3】再構成結果の確認
cat /proc/mdstat
【4】Read onlyでマウント→ファイルシステム復旧の確認
mount -o ro <device> <mount point>
参考:
307 :
303 :2005/12/06(火) 22:24:46 ID:+CmeReqi
>>304 >>305 レスありがとう。
俺dionなんですが、dion丸ごとアク禁中でPCから書き込みできず。
まだ聞きたい事がありまして、アク禁解けるまで見捨てないでください。
PromiseのSX8000でBIOSをバージョンアップ成功した方っていらっしゃいますか? ULTRA..EXEを起動中にどのタイミングでSX8000を立ち上げてもコネクションに 失敗してしまいますヽ(´Д`;)ノ
309 :
303 :2005/12/07(水) 22:52:54 ID:FKvJJ/iM
dionのアク禁解けたかな・・・?
>>304 >>305 現在SATA-Cを2枚実装していて、それに計4台のDiskを接続してのRAID5です。
不幸にも1枚のSATA-Cが壊れる、もしくは2本以上のSATAケーブルが抜けるなどして
Diskにfailステータスが付いた場合のことを考えていました。
1の手順ですが、これは復旧対象mdの構成情報確認ですね。
2の手順ですが、新規作成とオペレーションが同じように見えます。
md内のデータを維持したまま、mdの再生成ができるのですか?
管理エリアだけを書き直すとか・・・?
mdadmにステータスを変化させるオプションが欲しいですね。
こんな感じで。
# mdadm --manage /dev/md0 --optimal /dev/sda1 --optimal /dev/sdb1・・・
310 :
305 :2005/12/21(水) 18:27:09 ID:z1R3YhTt
>>309 >
>>305 >1の手順ですが、これは復旧対象mdの構成情報確認ですね。
>2の手順ですが、新規作成とオペレーションが同じように見えます。
はい、新規作成です。新規作成ですが、どうやらデータ部分をゼロで
埋める訳ではなさそうなので、実質復旧できると、、
>mdadmにステータスを変化させるオプションが欲しいですね。
私の場合は、event counterをリセットできればそれで良かったのですが、
そんなの機能は無かったので、過去の事例を参考に上書きしました。
hoshu
mdadmでOCEできる日はまだかっ
<チラシの裏> 3wareのRAIDカード (3w-9xxx) でしょうもない原因で悩んでしまった。 tw_cliが動かないのでドライバの設定を変えたりしていろいろいじってたのだが、 どうやっても "Specified controller does not exist" と出てしまって動かなかった。 2.6.x カーネルでは sysfs (/sys) をマウントしなきゃいけなかったとは 気づかなかった・・ </チラシの裏>
佐川の野郎、今頃ブツを持って来やがった。 ハードディスクとフレーム買ってなかったので来週末までおあづけ・・・・
ソフトウェアRAID5時のベンチマーク結果って、どこかに乗ってないのかな? SiI3124カードでRAID5してみようと思ってるんだけど、比較対象が一応欲しいと思ったんだけども。
3wareいいな 管理ツールのインストーラがCUIベース 管理ツールで通報メールのfromも指定できる 一方のadaptec、 管理ツールのインストーラがGUIベース、Xwindow無しではインストールができない。 正式対応ディストリ以外は管理ツールの動作が怪しいどころか、 windowsで動かしても、通報メールのfrom指定不可 通報メール送ってもプロパイダでREJECT 確かにadaptecダメぽ
インストーラがCUIだろうとGUIだろうと どっちでも構わんが、 管理ツールがCUIで扱えるのは大変便利だ。 リモートでなんでも出来る。 CLIマンセー
質問なんだが、IDEのソフトウェアRAIDを組んだ場合、HDDって回りっぱなし? それとも物理的にRAID化するHDDを分けておけば、スピンダウンできるもの?
<チラシの裏> 玄人志向 SATA2RAID-PCIX(SiI3124 PCI-X)+FedoraCore3でRAID5ようやくできるようになった libATAで3124は使えたらしいが、自分はメーカー公認ドライバをぐちゃぐちゃやって入れたらなんか動いた。 mdadmコマンドでRAID0指定の時は静かだったのに、RAID5で組み直したら一斉にガガーと動き出して 一瞬焦った。とりあえずmd0として作れるようになったけど、sambaとかmdデバイスのマウントとか ファイルシステムの初期化とか何も知らない素人なのでこっからが大変そうだ </チラシの裏>
320 :
319 :2006/02/13(月) 00:32:42 ID:dBad7Wny
321 :
login:Penguin :2006/02/13(月) 21:47:02 ID:D7PXEfD7
linuxでSATAなHDD使ってソフトウェアRAID1組む予定なんだが、 sdaとsdbの組み合わせより、sdaとsdcのほうがいい、 見たいな事あるのかな? パラレルと違ってSATAだとそういう事は無いと思っていいんだよね?
IDEはMaster/Slaveにそれぞれ2つずつHDDをつけるからa,b,c,dあるけど SATAは2つだからa,bだけじゃないの? 増設してるなら別だけど。
そっか、知らなかった。 DellのPowerEdgeの安いサーバーとかには2つだったから、ずっとそうだと思ってたよ。
325 :
login:Penguin :2006/02/13(月) 22:01:35 ID:MvbocTHe
素人がRAID5に手を出すのは、時間の無駄。 仮に動いていたとしても、数年後に故障が起きたとき 果たしてちゃんと保全され復旧されうるのか、それを 検証し、障害発生時の手順とそのとき必要なソフトや スペア部品などのきちんとした用意と管理がともなわ なければ、無意味。 業務用のプロのシステムでもない限りは、 RAID1(ミラーリング)で、こまめに(LAN経由 でもよいから)定期バックアップを取ることが、 事故に備えるのには最も有効。 一瞬タリとも止められない、そういった業務を やっているのではなければ、RAID5に手を出しても 報われない。 RAIDを過信して、バックアップを怠ること、あるいは バックアップをとっているつもりでも取れていなかった ことが後で分かること、これが一番良くない。 安全装置に頼って、事故への対策を怠ることが、RAID の最大の問題点である。 ハード部品の障害やOSの故障等、ユーザーのミス操作、 悪意のある破壊工作、天災人災等で、 いかにRAID5だRAID1だといっても、大事なファイルが消える のは一瞬にして可能なのだ。
HDDのメディアが壊れてる場合って壊れたところにアクセスするまで発覚しないから RAIDで一個故障が発覚して再構築中にもうひとつの故障が発覚するっていうことがあったりする 時々HDDの全領域をなめて検査するようなツールを走らせておかないと痛い目を見ます きっと誰か作ってますよねこんなツール、どっかに落ちてませんか? ふり〜で(汗
つ dd if=/dev/hdd of=/dev/zero
>>326 まともなRAIDカードなら機能として実装されている。
>>328 どのカードに装備されてるかぜひおせ〜てくださいまし
>>327 おおっ!!なるほどと思ってやってみました
いきなりDDがエラーだしやがりました
こんな感じ
dd: reading `/dev/sda3': Input/output error
がしかし、RAIDステータスに変化なし・・・う〜む
エラー出ないパーテーションもあるし、なんか怪しいんだけど
こわれてんのか壊れてないんだか、どっちなにょぉ?
壊れてるかもしれないなら、逆にこうするしかないな。 dd if=/dev/zero of=/dev/hdd
badblocks -n /dev/hdd
>>332 え〜、いきなりアンマウントしてからやれと怒られました(そりゃそうだ)
とりあえず読み取りのみで実行、結果バッドブロックを3個ほど検出
しかーし、RAIDステータスはしらんぷり
それではと、アンマウントして書き込み検査もいっちゃいました
しかーし結果は同じ
どうもこの手のツールはRAIDドライバーが不良を検出するポイントより
ローベルなところで動いてるということなんでしょうねえ、こまったです
>>325 やぁ、同僚のネタ箱で、寮ごと
データもインストールメディアも焼失し
今日、メーカーにそんな昔のソフトの在庫なんかねぇヨ
と挫折した私が来ましたよ。
バックアップは、貸倉庫とかに退避しておくのが理想。
RAID5技術の応用でCD-R三枚に分散保存できれば
実家と友人とかに分散預けも可能かな…
物によってはnyに放流って結構現実的なんだよなあ 遠隔地にフルバックアップ取っとけばいいだけなんだけど案外うまくいかないもんだし
ゴミ捨て場って /dev/null であって /dev/zero は 本来 zero を読み出すためじゃないの?
339 :
266 :2006/02/14(火) 11:08:15 ID:1nO8v8C7
>>338 本来ってことはないんじゃないかな
読み込んだときの挙動が違うだけで書き込み時はどっちも同じだし
>>329 3wareのなら普通についてる
rebuild/ファイルのverify/ドライブの検査を
定期的に行うように設定可能
>341 9500 からは定期スキャンがついてるけど 8000 以前世代にあった? いやあったはずだと思うんだけど… ついでに online で RAID 1 verify 指令を CLI ツールで 出しても動いてくんないんだけど俺のとこだけ? (再構成みたいな指令はできるのに)
343 :
login:Penguin :2006/02/14(火) 19:36:29 ID:WtZ3FKrg
>>326 おおむねHDDメーカーが提供しているものさ。。
>>342 少なくとも7850には付いてるよ
管理ツール(3dm/3dm2)は全機種共通だよね?
だとしたらどれも付いてるんでね?
>>326 megaraidもOSからチェックするツールある
aacraidもあったな
もしかしてついてないのを聞いたほうが早かったりする?
>>343 linux上でうごくツールを提供してくれてるHDDメーカーはどこですか?
>>348 別にDRDOS同梱のCDROMBOOTIMAGEでもいいじゃない。
玄人志向は全滅だろうな
>>349 システムを止めないためのRAIDなので停止させないとチェックできないというのはだめだめっす
いやだから 「まともな」RAIDカード使えばそーゆー機能は普通に付いてるんだからまともなカード買えよ。 そーゆー付いてて当たり前の機能が付いてるからこそ「まともな」製品と呼ばれてる。 安心したいからRAID使うんだろ? 安心できる製品選べばOKだ。
費用対効果ってのが結構重要だったりするわけで なんでも高い金だせばいいってもんでもまた無いわけでして いろいろ事情があるんですわぁ、(泣 いじめんといてやぁ
354 :
305 :2006/02/15(水) 08:14:43 ID:zL+z2A8x
>>353 そうそう。金が出せないから、安いHDD何台も組み合わせるわけで、、
自分も普通のsataカードでソフトウェアRAID6の4台目を組む予定。
9500S-12 一台で10万円なんて欲しいが買えない、、orz
いや本当に欲しいんだが、、、
ソフトウェアRAID がいけないとは全然思わないけど 定期verify ってすごーく重要なのに実装してないのが多い。 Linux の software RAID では実装されてるんですか?
>>353 なんか変じゃない?
まさに「費用対効果」だろ。
高い製品にはそれに見合った効果があるんだから。
ベリファイやディスクの定期検査機能による信頼性向上には
金を払う価値がないとでも?
>>357 極端に言うと100万の利益が目標のところに1億円かけるわけにはいかないですわなあ
薄利多売もいいけど薄利過ぎるとなにやってんだおま〜ってことに
額が極端すぎるというつっこみはなしね
>>354 うんうん、実際のところほしいよなW
金が湯水のごとく使える環境に居たら、ごちゃごちゃ言うまえに使ってる
ええ、使ってますともW
>>358 ぶっちゃけていうと、予算ちゅうもんがありまして天井が決まってるので身動き取れないってのがホンネ
あるあるw
以外と何もやらない方がましってこともよくある
363 :
login:Penguin :2006/02/15(水) 17:42:53 ID:eiIt8wMn
やっぱLinuxでソフトウェアRAID組むならインストール時が楽っぽいね。 LVMとmdadmでパニくってきたよ。
金がないならあきらめろ ってことだな。
まあ金がないないら
>>327 みたいなddでいいじゃない。
366 :
354 :2006/02/16(木) 09:35:55 ID:onllslRY
>>359 おぉ、分かってくれる人がここに。。(涙)
>>360 と同じく、決まった予算内で
できるだけの背伸びをすると、SoftwareRAIDになってしまう訳で。。
HDD40万、本体10万までは何とかなっても、カード代10万が搾り出せない、、
>>355 大半は衛星画像です。
HDD40万って、何TBなのよ?
それぞれの目的に応じて決まる話に一般解はない
369 :
login:Penguin :2006/02/16(木) 16:37:27 ID:ayIK8+Cq
衛星画像は大きいからねぇ。 でもHDD30万にして、カード10万じゃだめなのだろうか
今 MaxLine3の300GBが一台15000円以下だよな。 40万円だと26台は楽勝で買える計算になる。 必要なのは7.5TBくらい? つかその台数でRAID組むとなると、RAIDカードが何枚必要になるんだよww あ、SCSIだと今でも300GBで10万円くらいするのか。 しかし、この規模のRAID考えてるのにたった10万の「金がない」ってのは……??? なんかズレてる気がするな〜 SCSI HDDだとすると、わざわざ高いドライブ使ってソフトウェアRAIDどってのもバランス的にも… 自作なんか考えないで、信頼できる市販品のSCSI外付けBOX買った方がいいと思うが。
gmailに垢取って置くとか
私は衛星画像ではなく普通のサバなんですが 1万円のカードを10枚買うことはなんとかできますが 10万円のカードを10枚買うのはなかなか大変です
某レンタルブログがHDD障害で復旧中なわけだが バックアップしてからHDDを交換しRAID再構築後にリストアするんだそうな はげしくorz
なるほど
377 :
366 :2006/02/16(木) 22:59:01 ID:onllslRY
>>370 もう何年か前なので、はっきりと覚えてませんが、
MaxLineII 300G 2.8万×12=34万+その他もろもろ13万
合計で47万位だったようです。
3wareの12ポート11万円を買って、HDD代金を34万→23万に変更するだけの
経験は当時の私にはありませんでした。いまなら、、やっぱ迷うな。
378 :
login:Penguin :2006/02/16(木) 23:16:20 ID:ayIK8+Cq
今度ソフトウェアRAID組もうと思うんだけども、 パーティションで悩んでる。 調べてみたところ sda0, sda1とsdb0, sdb1をSoftware RAIDで作ったあと、 sda0とsdb0でex3な/bootつくって、 sda1とsdb1でLVMを作ってその上に/swapと/を乗っければ いいっぽいんだが、なんか問題あるかな?
379 :
login:Penguin :2006/02/16(木) 23:22:55 ID:ayIK8+Cq
この場合、 sda0とsdb0がmd0 sda1とsdb1がmd1になるって事で良いのかな。
他人に理解できるように情報整理しろよ
今どき/boot分けなくてもいいだろ。1パーティションが楽だよ。
>>381 最近のブートローダはmdでミラーした上に乗った
LVMのLVからでも簡単にブートできるですか?
383 :
login:Penguin :2006/02/17(金) 22:27:38 ID:l1Pm+0es
俺もRHEL4でsoftware RAID組もうかと思ってるんだけど RAID構築できるソフトってLVMしか無いのか?RAID5組みたいんだけど。。。 コマンドでmkraidとかdmraidとか見るけど、どっち使えば良いのか わからんし。。。
mdadm使うのが正解とおもふ。mkraidはobsolete。 mdadmかdmraidかはMDとDMのどちら使いたいかで選択。 Linuxだけで使うならMD、他OSとも共存するならDM?
エスカ 7850で RAID 5を構成している5台のドライブのうちの一台がエラーを吐き始めたので、 交換用に MaxLine3を買ってきた。 入れ替えてrebuildさせようとしたら、ドライブのサイズが小さいと言ってますよ? 表示を見ると型番は同じ7L250R0なのだけど、 従来ドライブ 233.76GB 490234752 blocks 新ドライブ 232.88GB 488397168 blocks 困る。 つか困った。 新たに300GB買うしかないのか? 予備含めて2台買ってきたんだが無駄になったぞ。 勘弁してくださいよ > Maxtor
おまけに 取り敢えず degraded 状態で 再起動しようとしたら途中で止まっちまいますよ。 fsck掛けろっていうから掛けたら、やっぱり途中で止りますよ。 Group descriptors look bad... trying backup blocks... fsck.ext3: Illegal block number while checking ext3 journal for /dev/sda1 え〜〜っと どーすりゃいいんだ?(軽くパニック)
>>385 300GB を買って現行の250GBはさっさと売却するのが吉。
中古売却だと面倒だから理由を説明して友人なり親族なりに譲るとか。
>>386 そこからは何も触れずまずは300GBを買ってアレイを回復させれ。
手遅れになりかねんぞ。
>>387 予備として二基買っちゃったんだったら
手持ちのPCIのRAIDカードとか余っていたら
それとセットで知人に売り込むって手もあるかも。
ソフトウェアRAIDでRAID5を組む予定なのですが、 Windowsの場合ディスクの管理から変更すれば良いのでしょうか? それとも他にもっと良いやり方があるのでしょうか?
ディスクの管理から一旦全部の領域を削除して、LinuxのインストールCDでブート。
mdで、4台をlinear構成していたのですが、3台目が壊れたみたいです。 マウントできなくなっています。 残ったHD上のデータを拾う方法はないでしょうか(;_;)。
復旧できない奴が使うな
いや、復旧させるものじゃないから
別にとっておいたバックアップから復旧すれ。
395 :
385 :2006/02/28(火) 19:01:02 ID:KMbbgj3q
結局一旦 RAID array消して、再構築しました。 で、中身はバックアップから書き戻し。 (作業一日分消えちゃったけど) 新規にRAID再構築すれば、新タイプの「微妙に小さい」容量に揃えてくれるんで、 今後旧タイプが入手できないこと考えると、 できるかどうか分からん修復作業を頑張るより、こっちの方が正解かな、と。 しかし、一体何が起こったのだろう??? エラー吐いてたドライブの不調と関係あるのだろうか。
396 :
385 :2006/03/01(水) 16:12:54 ID:TSdDiRAv
問題の Escalade 7850 ですが、今日あらためて/var/log/3w-aenlog.txtを眺めてみたら不思議なことが。 去年の暮れの段階では 6台のHDD が接続され、そのうち 1台が HotSpareに設定されていた。 > 18:58:05 Mon 26-Dec-2005 Controller 0 > Unit 0 Striped with Parity 64K (RAID 5) > Unit 4 Hot Spare Disk で、先月20日 port 3のドライブがエラーを吐き始めたのだが、その直前、どーした訳か表示はこうなってる > 19:46:28 Mon 20-Feb-2006 Controller 0 > Unit 0 Striped with Parity 64K (RAID 5) > Unit 5 Independent Disk CLIで見ると Unit 5 は JBOD となってた。(設定し直したら、何のエラーも出ずに HotSpareに戻った) この状態だったんで、port 3に切り替わる Spareが存在せず被害が拡大したのか? いや、HotSpare がなくても RAIDの冗長性があるんだから、ヤバい port 3 を切り離して degraded になるだけで済むはずなんだが。 > 19:58:25 Mon 20-Feb-2006 ERROR: Drive error encountered on port 3 on controller ID:0. Check cables and drives for media errors. (0xa) > 19:58:34 Mon 20-Feb-2006 WARNING: A bad sector has been reallocated during rebuild on port 3 on controller ID:0. (0x2c) の reallocate がうまく機能しなかったということなのだろうか????? どなたか「何が起こったのか」(特に Spareが消えた件)が分かる方いらっしゃいませんでしょうか。 RAIDカードが勝手に設定を変えてしまうのでは安心して使えませんw ちなみに 7850は例のリコール対策済み品です。
>>396 壊れ方によっては切離せずに固まってしまうという場合も有る
>>396 本当に電源は大丈夫なのか?
そこまで動作が変だと、電源か、ボード不良(ファーム含む)のどちらかの気がする。
ボード交換して試すのは結構な金額になるので、まず電源を替えてみるとか。
あと、バグ付や不具合報告の多いサウスブリッジ使ってるとかでもないんだよな?
>>397 まぁそうなんでしょうね。
切り離さずに済むなら、できるだけその範囲で対処して、対処しきれなくなったところで
分離……という手順なんでしょうけど、その「対処」が失敗する場合も、まぁありえますから。
>>398 「本当に」というか特に電源は疑ってませんでした。
電源まわりが不安定になったとしても、「ハードウェアRAIDの設定が勝手に書き変わる」などという
極めてソフトウェア的な動作不良が起こるとはなかなか考え難いものがありますので。
読めなくなった、認識されなくなった的なものならばともかく。
> あと、バグ付や不具合報告の多いサウスブリッジ使ってるとかでもないんだよな?
M/BはSuperMicro製の(型番忘れた)、連続稼働もうすぐ3年って感じで、
このような異常は今回初めて発生しましたから、その手の話ではないかと。
(そも、サウスブリッジの異常でハードウェアRAIDの設定がspare→JBODに書き変わる、
などということが起き得るのでしょうか?)
>>399 そういう状況がおきるかどうかは別にして
電源事情が悪いとHDDが良く壊れるのは確かだよ
停電とかじゃなくて電圧変動が頻繁にあるとダメっぽい
なんか微妙なエラー出して切り離されてまた認識したりってときは 電源は有力候補だよな >連続稼働もうすぐ3年って感じで、 これも電源に来ている可能性あるし
・・・電源買い換えようかな。 このスレ見てたら不安になった。
誤解しないで欲しいのだけど、電源が問題と断定している訳じゃない。 でも電源周りのチェック用に交換電源を調達するのはありと思います。 あと痛みかけ(?)の電源でも UPS で AC100V を綺麗にしてやると 頑張れるようになるなんてことも。
404 :
login:Penguin :2006/03/04(土) 09:10:54 ID:NAfnAFUY
RAID5でファイルシステム組んでいて、ある日ドライブに故障が生じたという メッセージが出たので、ドライブを買ってきて取り替えた。ところが 交換すべきドライブを間違えてしまったために1TBのファイルシステムが 全滅したということがあったよ。先にバックアップをとればよかったかも しれないけども、なかなかそういった大容量のバックアップって難しい んだよね。時間も掛かるしさ。
サーバ系だと、トラブル発生を伝える為だけのLEDがあって、 具体的に該当するHDDのユニットのLEDが光ってたりするんだが、 家庭用PCだとそうもいかんよな・・・・・・ RAIDカードに、「LEDを光らせる」だけの機能がついていて、何の為に使うのかと思ってたけど、 ついていることで救われるケースがあることを初めて知った。 保守手順書に書き込んでおくことにしよう
先に謝っとく、すまん。 とても厨房的な考えなんだが、 HDDでATA(SATA含)規格の実効転送速度の最上限まで逝くために 4つのHDDをハードでまとめて一つのATAとして出力、 ……なんて素敵板どっか作ってね―かななんて考えてた俺がアホでした。 やっぱ出直してきます。 支離滅裂な文章で迷惑かけました<(___)>
Port Multiplier
3wareの管理ソフト 3dm2 をローカルのテキストブラウザからうまく使えなくて困ってます。
w3m
https://localhost:9999/ (ポート番号はウソ)などとやってみると、一応 3dm2への接続は出来るようで、
SSL関係の確認ダイアログが最下行に表示されますが、その後は何も表示されなくなってしまいます。
(最下行に Viewing[SSL] <> No Line と表示)
サポートに電話して尋ねてみましたが、「JAVA等も使ってないし、使えるはずなんですが…」といった返答で、
対処法は分かりませんでした。
その後Lynxを試してみたところ
(0x0C:0x0013): You must enable Javascript on your browser for 3DM 2 to run properly
てな表示が出てきたのですが、Javascriptが必須なんでしょうか。
LynxでFrameのリンク先(menuとcontent)に飛ぶと、やはり何も表示されません。
他の Windows機からの接続では問題なく表示/操作できますので、3dm2のインストール自体は正常に行われていると思われますが、
できたらローカルの側でテキストブラウザで操作できるようにしたいのです。(X 入れてないんで)
うまく使えている方がいましたら何卒ご教示ください。
Vine 3.2
w3m 0.5.1
3dm2 2.03.00.028
410 :
408 :2006/03/15(水) 01:11:17 ID:t8T1v4nm
>>409 この文面では、最後に properly とあるから
訳としては「ちゃんと動かすには javascriptが必要ですよ」なんで、
「ちゃんと」でなければ動く可能性もあるわけで。
サポートで「動くはず」と言ってたので質問したのですが。
本当に Javascript 必須なんでしょうか?
411 :
408 :2006/03/15(水) 03:06:04 ID:t8T1v4nm
質問の趣旨としては、表示されたメッセージの解釈云々ではなく、 誰かテキストブラウザでの利用を成功している人はいないのか、 いた場合、何をどんな設定で使っているのか、 といったものです。 もちろん、 いろいろ試したけど、やはりダメだった といった情報でも結構ですが。 よろしくお願いいたします。
> 「ちゃんと動かすには javascriptが必要ですよ」なんで、 > 「ちゃんと」でなければ動く可能性もあるわけで。 ・・・・・ポカーン 不思議な読解力をお持ちですね
その、「You must enable Javascript on your browser for 3DM 2 to run properly」ってのは、 どこのどいつが吐いてるんだろうな・・・・・・
RAID5でデータ保持したままHDD増設して容量うpするにはどうすれば?
>>412 いや読解はあってるだろ。
Javascript未対応の w3m や LynxでもSSLに対応してれば一応接続はできてる。
ただし白画面になってしまい、「ちゃんと」表示されない。
そこから先を「ちゃんと」表示するには Javascript が必要、ということだろうな。
417 :
408 :2006/03/17(金) 01:39:19 ID:59SE7XGl
>>416 なるほど
となると、次の質問としては「Javascriptに対応したテキストブラウザはありませんか」
となる訳ですが、スレ違いなんで他をあたります。
どうもでした。
>>415 できない。
もしLVMを使ってるのなら、HDDを3台以上追加して、
別にRAID5を組んで、LVMの機能で容量追加できるけど。
ぷぷ
421 :
login:Penguin :2006/03/18(土) 19:28:23 ID:PpS0E+mj
現在SUSE Linux10でRAID-1を構成しました。 いずれはサーバーを構築して使うつもりなのですが、 現在はクライアントとしてネットワークに繋げている 状態です。 確実にミラーになってるかどうか/etc/mdadm.confに MAILADDRでまた別のクライアントPCのメールアドレス を指定してあげて、RAIDの片側のHDの故障を エミュレーションし、テストしましたが、故障通知の メールがこない状態です。 メールがこないのは、どのような原因なのか探れない 状態なので、ご教授のほどよろしくお願いします。
/etc/mdadm.confも晒さずに質問されてもねぇ。 mdadmは--monitorモードで常駐してる? degraded modeになるのはどうやって確認したの? メールサーバのログは見た?
423 :
login:Penguin :2006/03/18(土) 21:13:01 ID:PpS0E+mj
>>422 実はRAID構成するのも初めてで、Linux事態もはじめて日が浅いもので・・
今会社ではないもので、確認できないのですが、monitorモードにも
デグレードモードの確認もしていません。
今日いろいろと調べて、明日会社に行きやってみます。
よきアドバイスありがとうございます。
(´-`).。oO(その鯖を弄れるときに質問しろよ…てか可能ならsshで家から入れるようにしてもらえ…)
ttp://forums.gentoo.org/viewtopic-t-298683-highlight-3ware+9500s.html?sid=db152d843fbd02747aa8d9cee4a7bc4c こんな情報を見つけたのでやってみた。
RAIDカードは9500S-4LPでHDDはHGSTの250GBが4台のRAID5。
使用前
# hdparm -tT /dev/sdb
/dev/sdb:
Timing cached reads: 3168 MB in 2.00 seconds = 1583.45 MB/sec
Timing buffered disk reads: 286 MB in 3.01 seconds = 95.00 MB/sec
使用後
# hdparm -tT /dev/sdb
/dev/sdb:
Timing cached reads: 3188 MB in 2.00 seconds = 1594.24 MB/sec
Timing buffered disk reads: 572 MB in 3.00 seconds = 190.51 MB/sec
Sugeeeeeeeeeee!!!
巨大ファイルや大量ファイルのコピーを繰り返してみたが、
エラーやデータ化けは一切なし。激しくウマー。
>418 >420 ありがたう。 グラタンでLinux入門したばかりで、 RAID5でファイルサーバー作りたかったんだよね まだインスコも出来てないのですぐは出来ないけど、 障害復旧の練習も兼ねて柱ってみようかと
ちょいしつもん ブートドライブをソフトウェアRAIDする場合って、どうやってる? vmlinuzとinitrdが読めれば起動できる筈なんだが、解決法あるなら知りたいなぁと。
今のところRAID1でしか出来ない。と言えばわかるだろ?
>>427 そこまでわかってるならあとはman嫁ば桶
いろいろ調べたけど、 ソフトウェアRAID と ハードウェアRAID、 どっちがいいのかわからない。 パーテーション3つに区切ってあるハードディスク1個全部ミラーリングするならどっちがいい?
高いハードウェアRAIDがいい。
>>431 やっぱりそうなのか。
よかったらIDE-RAIDでおすすめのボード教えてもらえないだろうか
ポピュラーな製品だとARAID99-1000かな?
434 :
login:Penguin :2006/03/19(日) 17:55:55 ID:EOU5210J
>>412 実はsendmaildが立ち上がってないとか。
>>433 高けぇ・・・・orz
さすがに手が出ませぬ・・・
14,000円付近でおすすめのないでしょか
>>438 それって、カーネル2.2.15以降なら特にドライバを追加しなくても使える
って解釈であってる?
>>439 3wareのカードはドライバのソースがカーネルに含まれてるから、
3w-xxxx がカーネル組み込みかモジュールで存在すれば使える。
>>440 とりあえず大間違いではなかったのか。
ありがとう。
とりあえずこのボードで試してみます。
エスカ9550SX8 7200rpmのSATA8機積めばRAID0 DIRECTライトかリードだけなら400MB/sec出る。 でも同じカード内でリードとライト 同時にリード・ライト行うとパフォーマンス極端に落ちる このへんどこで設定つめればいいのでしょうか。 リード・ライト 200Mb/sec出るような設定とかあるのでしょうか
>>440 2.6系ならな。
2.4系なら別途ドライバ要インスコ。
>>443 Vine3.2 つかってるんだけども、
カーネルソースみたら3w-xxxx.c もコンパイルしてあるんだけど、
これでもドライバ別途必要?
>>445 現物が手元にないのよ。
2,3日先に購入予定
>>444 以前は2.4系でデフォルト対応は8000シリーズまでだったけど、
最近のバージョンでは9000シリーズも入ったのかな。
まぁやってみて動かなかったら、改めてドライバインストールすればいいんでね?
確かVine3.0の頃はダメで、ソースからコンパイルした記憶が。
>>447 それなら7000シリーズだから大丈夫かな。
だめだったらドライバいれるし、
それも分からんかったらWindowsで転用することにするよ。
いろいろ答えてくれてありがとう。
あぁ、
>>438 は7006か。
何故か9000シリーズとかんちがいしてた。
画面内の
>>442 が目に入ったせいかw
Vine3.2使ってるので見てみた。 3w-xxxx.c 1.02.00.037 copyrightが2003止まりになってるけど、最近でもほとんどバージョン変わってなかったんじゃないかな まぁ、動かんかったら入れ替えてrebuildすりゃいいだろ
>>450 わざわざチェック、ありがとう。
安心してこのボード買えるよ。
#こういう製品ってほとんど店頭にないんだねorz
452 :
442 :2006/03/21(火) 01:33:18 ID:wxAXo3DG
3w-9xxx買うなら、本家いってドライバ落としてコンパイルしてあるなら 問題ないと思うよ 無理に古いの使ったり型番違うの使うと性能70%ぐらいになるけどね
mdadm -C でraid1を構築するとき、アンマウントせずに --run オプション付けて、 構築しても大丈夫なのかなー? できる限りプロセスを殺して、ディスクアクセスはしないようにしての話しだけど。
>>453 駄目に決まってるだろ。アンマウントしてからやれ。
>>454 でも / とかはシングルユーザモードで立ち上げても、
mdadm が/sbin/mdadm にあるから、アンマウントできないよねー。
インストールCDのレスキューモードを使えってことかな?
2.6.17でとうとうSoftware RAID 5がリサイズ出来るようになるそうな。
458 :
319 :2006/03/30(木) 19:40:24 ID:yEJks82c
>>456 kwsk
時間空いちゃったけど、sambaの設定終わった・・・・。
>>431 実績と速度とユーザでEscalade。今なら9500Sの中古とかアキバで買いたたくのも悪くないよ。
新品なら9550SXなのかな・・・4port版かってポートマルチプライヤとか試して欲しい気もするけど。
459 :
login:Penguin :2006/03/30(木) 19:41:23 ID:PLh1ODXc
信頼性のための部品を中古で買いたたくのもなんか本末転倒な気もするが。
>>457 ソースは有料のニュースサイトから。
でも2.6.16-git18のChangelog見ればそこかしこに raid5 reshape の文字が。
>>459 信頼性の点で言えば故障するハードウェアが存在しないソフトウェアRAIDが一番だ。
ハードウェアRAIDは性能や保守性を買うもの。
>>465 lkmlをreshapeで検索したら出てた。
タイムリーな情報だけど、近いうちraidのHDDを全部
揃えてしまおうとしている漏れガイル…
mdだけど、3台でraid5組んだらhdparm -tで125MB/sくらい出てた
からそんなに遅くないと予想している。
462 :
login:Penguin :2006/03/30(木) 23:57:30 ID:PLh1ODXc
プログラマだが75Hzだ。
463 :
login:Penguin :2006/03/30(木) 23:58:17 ID:PLh1ODXc
誤爆orz
464 :
login:Penguin :2006/03/31(金) 18:28:27 ID:ZiY2zY3a
RAIDのリサイズができても,ファイルシステムもリサイズできないと 駄目だよね。ReiserFSはできるようだけど,いちど,アンマウントし ないとできないよね? マウントしながら,拡張可能なファイルシステムってあるのでしょうか?
またコールドスリープから目覚めた人がいらっしゃったようですw
時代の変化に付いていけないB厨のにほい
467 :
login:Penguin :2006/04/03(月) 14:43:11 ID:MUWuZKdt
resize_reiserfsのmanを読むと resize_reiserfsはアンマウントされているreiserfsファイルシステムのサイズを変更する。 と書いてあったので,てっきりできないものとばかり思っていました。 ググってみると,できると書いてあるページが見つかりました。
468 :
319 :2006/04/03(月) 19:20:40 ID:o74ZWkY4
超初心者向けRAID情報 クロシコSATA2-RAID-PCIX On FedoraCore3でHotSwapでリカバリ可能なのを確認しますた。 mdadmでのビルドを組むとこは割愛。 今回実験した内容と、確認した項目は以下の通り。 1.SATA2-RAID-PCIX上に接続した2500JS@RAID5のS-ATAケーブルを唐突に引っこ抜く。 2.mdadm -D /dev/md0でアレイの状態を確認、/devのsd*の表示を確認、sdaが消えていた。 3.sambaで共有しているファイルをWinからアクセス、何も問題発生しない。 4.引っこ抜いたS-ATAケーブルを再度接続。/devのsd*を確認するとsdeとして認識されていた。 5.mdadm -a /dev/md0 /dev/sdeでデバイスをaddすると猛烈な速度でHDDが一斉に動作しだした。 6.mdadm -D /dev/md0で再度アレイの状態を確認、Recovery状態と進行状況が表示されている。 7.Recovery中のディスクにsambaを通してアクセス。なにも問題発生せず。 8.リビルド確認の後にmdadm -r /dev/md0 /dev/sdaで不良ディスクを削除。 以上ですた。詳しい注意点や木になる事はまた書きます。
469 :
login:Penguin :2006/04/05(水) 18:34:51 ID:mvjtsz/a
>>468 sdaと認識されていたデバイスがケーブル再接続後,sdeと認識されるのが
興味があります。リブートしても,sdeと認識されるのでしょうか。
470 :
319 :2006/04/05(水) 23:17:08 ID:XYjoSLUi
>>469 されないみたいです。今確認してみたらsda-sddとなってました。
471 :
469 :2006/04/06(木) 10:38:18 ID:FzWwE+gW
469です。
>>469 情報サンクス。ということは,まとめると
1.最初はsdaと認識されている。
2.ケーブルを取り外し,再接続後,sdeと認識される。
3.リブート後,sdaと認識される(それともsddか?)
こんな感じになるのでしょうか? SATAをLinuxで使うと,デバイス名の割り当てが
いまいちなのがきになります。PATA場合,マザーボードのIDEコネクタに接続する
限り,プライマリマスターに接続されたHDDは必らず,hdaと認識されるのに対して,
SATAの場合,SATA0端子に接続されたHDDが必らず,sdaと認識されれとは限らない
というのが,いまいち使いにくいです。SATAでは,PATAと異なり,必ず,一対一
で接続されるのだから,できそうなきがするんだけどね〜。
472 :
319 :2006/04/06(木) 21:29:43 ID:OeEl4fZi
>>471 んー、確かにそう言われりゃそうですね。
自分の場合はsiIの公式ドライバを四苦八苦して入れたんだけど、
libATAの汎用ドライバだとまた挙動が違うかもしらんです。
詳しい方お願いしたい。
って、さっき気づいたんだけどこれって実際にHDDが壊れた場合ってどうやって壊れたHDDを特定するんだろう?
ポート番号と/devに見えてるHDDの認識は必ずしも同一でもないし、連続稼働だったらBIOS画面で壊れてるって
出して貰うわけにもいかないし・・・・。カード上のLEDランプとSATAポート番号をめもっておいてランプのつかない
奴を引っこ抜けばいいのか・・・?ソフトRAIDでやってる方どうしてます?
sysfsでポート番号わかるよ /sys/bus/scsi 以下だっけかな? 0:0:0:0 みたいに見えるはずです。 libataではまだ公式にhotplugサポートはありません。
474 :
319 :2006/04/07(金) 00:33:47 ID:RGZXu7zO
>>473 お、そういうものなんですか。thxです。
今度もっかい試してみることにします。
475 :
366 :2006/04/11(火) 18:57:31 ID:J3ZI/l0q
476 :
319 :2006/04/13(木) 21:59:42 ID:Xeu/q5XH
477 :
login:Penguin :2006/04/14(金) 12:58:16 ID:FcbrZEYy
>>476 mdadmのGROW MODEとOCEは異なるものなのでしょうか? RAIDは
詳しくないので,まとはずれな質問かもしれませんが。
それとも,mdadmのGROW MODEはマウントした状態では使えない
のでしょうか。
Currently the only support available is to change the "size" attribute for arrays with redundancy, and the raid-disks attribute of RAID1 arrays. まだまだ、だな
479 :
477 :2006/04/14(金) 14:26:15 ID:FcbrZEYy
>>478 おそらくmanの記述だと思うのですが,冗長性のあるアレイに対してサイズの
変更とRAID1の場合RAID DISKの数の変更のみサポートしているということ
ですから,少なくともオンラインでのサイズの拡張はサポートしている
と言っていいのではないでしょうか。
OCEが何を意味しているのかよく理解していないのですが,これでは駄目なの
でしょうか。
英語苦手なので,ちゃんと読めてない可能性もあります。
480 :
319 :2006/04/16(日) 13:57:26 ID:eP3rclCw
>>479 そうなんだよね、俺も本家の英語見てるとOCE出来そうな気がしてるんだけど・・・・。
今度の給料日で2500JS買ってきて試してみるつもり。
481 :
login:Penguin :2006/04/17(月) 00:24:14 ID:4+637n9G
お初です。プロの皆さんしかすがらせてください。もう、頭われそう。 Highpoint 2220 というRAIDカードを OS:Winxp x64、Mem:8GB, MB:Supermicro、CPU:Xeon Irwindale3.6*2、電源 CoolerMasterの600Wにいれてたわけです。DiskはMaxtorの200G(6B200かな?) を三つをRAID0で構成しました。起動ドライブはMaxtor7L300。ドライバはもちろん 64対応のやつ。 電源いれてマシンが起動し、ディスクもちゃんと認識されて、うまくいってるなぁ と思いきや、起動後10分くらいでHighpointのカードから警告音が大音量で 流れます。警告は警告でもなんの警告か知りたくて、HPを訪問して探したけど、 なし。 PromiseのFastTrek4300ではなんの問題もなかったのに。 先生方、まじでご指導を。土下座してます。
掛ける気にはならないけど仕事でhighpoint使ってるプロは一人も居ないと思う。
484 :
login:Penguin :2006/04/19(水) 20:00:59 ID:OrmczZyV
>>483 どうもありがとうです。どんな言葉でも感謝です。
路頭に迷うところでした。今日、高○電脳に行ってとりあえず電源とケースを
購入し、電源2つでやってみることしました。HDDが6個〜8個でXeonのIrwindale
の3.6が2つの構成では550Wはきついと判断しました。これでだめなら、また考えます。
どうもありがとうです。
RAID5今日作ったみたよ 早いな
いまごろ? ちっとも早くないと思うが。
GWに最新のmdadmでRAID5のreshape(OCEのように見える)試してみます。環境は
>>468
>>486 最近のマシンはbuildが早いなーっつぅ、じじぃの感想
そうは言うがな大佐 SATAportsを持て余す
reshape試した人いないの?
493 :
login:Penguin :2006/05/29(月) 03:08:48 ID:nvLKO0cC
ICH7R で RAID を構成しようと思ってるのですが、壊れたときの再構築は Linux上からできるのですか?
インテルの説明では
http://www.intel.co.jp/jp/support/chipsets/imsm/sb/cs-021014.htm のように、Windows上からツールを利用して再構築する手順のみが書かれています。
自分は普段は主に Windows を使っているわけですが、それでも RAID の再構築に Windows が必須であるというのには
抵抗があるわけで、他の手段があるのかどうか探しています。
できればRAIDメンテナンスツールが 1FD Linux などになってればいいな、などと他力本願ながら思ってる次第です。
KNOPPIX でも構いませんが、そのような目的を達成できる何かはあるでしょうか?
2.6だとdmraidだっけ
>>492 やるつもりで機材もあるし、バックアップもあったんだけど腰痛めた・・・・。もうちょいまってくれよ。
あと、すまんがreiserfsでフォーマットするときのやり方教えてくれんか。
mkfsに何かつけりゃいいのかとおもってるんだけど。
最新のmanとかフォーラムを見ると、
拡張されても大丈夫なファイルシステムじゃないと有効に機能しないんで、気を付けてね。
みたいな事が書いてあるようだ、んで調べたらext2や3だと駄目そうで、reiserfsならOKっぽくみえた。
明日腰痛くなかったら実験します。
っ mkreiserfs
498 :
ぱぱんだ135kg :2006/06/08(木) 15:50:42 ID:eRKR/8Us
はじめまして、redhat9 で ソフトウェアRAID1 の構築を行っています。 現在、再構築の試験をしているのですが、どなたかお知恵を拝借できれば、 と思っております。 md0 に2台のIDEハードディスクをぶら下げて、 RAID1 として認識させて おります。 raiddev /dev/md0 raid-level 1 nr-raid-disks 2 chunk-size 64k persistent-superblock 1 nr-spare-disks 0 device /dev/hda1 raid-disk 0 device /dev/hdb1 raid-disk 1 この時、RAID ステータスが [UU] として完全にミラー状態だったとします。 ここで、一度電源を落とし、 hdb1 の電源を抜いて、起動します。 すると、hda1 だけで起動します。 hdb1 は壊れては居ないので、単体でも起動可能です。 仮に1ヶ月ほど別のマシンでサーバとして仕事をさせていたとします。 次に、hdb1の電源を再び差し込んで、起動。 すると、hda1 だけがアクティブな状態で起動します。hdb1 をmd0に参加させる ことは可能なのですが、それだと、hda1 のデータは復旧されますが、 hdb1 のデータは消えてしまいます。もし仮に、hdb1 のデータのほうが優先順位 が高かったとしたら、この hda1 擁護の状態を逆転させて、 hdb1 をアクティブに するには、何か方法はあるのでしょうか。 hdb1 は単体でも起動可能なので、最終的にはデータの吸出しは可能ですが、 hda1 との関係で、優先順位を奪還する方法が知りたいです。
何を言いたいのか意味不明です。 お茶でも飲んで落ち着いてください。 そしてmdadmのmanくらい読んでください。 他にもいろいろ言いたいことがありますがキレられると嫌なので今日はやめときます。
↑役に立たないノイズ
ddの使い方がわからないので、RAIDをバックアップ代わりに使って、データを元に戻したいらしい あ、1行になった
阿呆?
なんだかよく分からなかったけど仮定だらけの話だってことは分かった。
つまりエスパーに何か質問してたってことだな。 パンピーはスルースルー。
>>498 hdaを接続していたコネクタにhdbを接続する。
508 :
ぱぱんだ136kg :2006/06/09(金) 11:13:04 ID:R5BDbahx
稼動中HDD→真っ白なHDD これが普通の復旧だと思うんですが、 稼動中HDD1号 ⇔ 稼動中HDD2号 自由にどちらも原本にできる状態には なんとかできないものでしょうか? 一方通行しかできないようでした。 何とか3行にしてみました。
バーカ
510 :
ぱぱんだ136kg :2006/06/09(金) 11:26:28 ID:R5BDbahx
hda と hdb の接続を逆にするというのはやってみました。 それでも、優先順位は記憶されてるみたいで、結局逆転はされなかったです。 タイムスタンプのようなものが記録されてるのでしょうか。
>>500 みたいなレスしといて、よく平気な顔して来れるな?
↑ノイズ
513 :
ぱぱんだ136kg :2006/06/09(金) 11:45:56 ID:R5BDbahx
それ僕じゃあないんです。まじです。
515 :
ぱぱんだ136kg :2006/06/09(金) 11:56:41 ID:R5BDbahx
ここって、そういうスレッドなのか? 僕は昨日偶然来ただけの訪問者で、 もともとある争いも知らないし、ノイズなんていう表現も使わないんですよ。
516 :
ぱぱんだ136kg :2006/06/09(金) 12:04:14 ID:R5BDbahx
バーカって言うのであれば、ぜひとも問題を解いて欲しいのですが・・ わからないのにバーカって言ってるなら、それもどうかと思う。
そんな危なっかしいことするくらいなら 漏れならもう一個新しいドライブを用意するな。
単にhdbをスナップショットとして使って、hdbを外した時点まで戻してミラーリングしたいんだろ? FDかCD起動のレスキューで立ち上げてdd if=/dev/hdb of=/dev/hda として RAID1の再構築すりゃいいんじゃねぇのか。 hdaのRAIDシグネチャが新しいから優先されるだから書きつぶして内容をhdb相当にすりゃいいだけ。
519 :
ぱぱんだ136kg :2006/06/09(金) 17:38:09 ID:R5BDbahx
そうです! スナップショットとして、一時保管。もしものときは 元に戻せるようにしておきたいという意味です。ありがとうございます。 dd 学習します。
そんならわざわざミラーにしなくてもいいじゃね? スナップショット取る時だけhdbにhdaの内容をコピーすれば。 戻したくなったらhdbをマスタにして元のhdaと交換するだけだしな。¬( ´〜`)
目的と手段がかみ合ってないな
522 :
パパンダ135kg :2006/06/10(土) 15:03:38 ID:NKr+L/d9
データセンターに、もしもの時のディスクとして保管しておきたかったんです。 フォーマットもできてて、起動も可能で、あとはミラー化するだけ、 みたいなやつです。その保存してるディスクが、万が一の時に 自分の優先順位が上だ!と主張したら、どうやってこれを上書きモードに 説得するか悩んでたんですよー。がんばります!
ただのバックアップ&リストアじゃん スレ違い
どうしてもRAIDに拘るというなら、サクっとRAID BOXでも使っとけ。
上書きされてほしいほうをHDDメーカー提供のフォーマッタで初期化してやりゃいいんでねえの?
いい加減相手すんなや
mdadmでOCEできるかなーと思って試してたものです。
結論から言うと駄目でした。
Currently the only support available is to change the "size" attribute for arrays with redundancy, and the raid-disks attribute of RAID1 arrays.
の通りということで。
なお、同時に行った格安リムーバブルフレームによるhotswap実験に関しては以下に簡易レポートを書きますので、
参考にしてください。
http://pc8.2ch.net/test/read.cgi/hard/1144985988/
528 :
login:Penguin :2006/06/16(金) 23:22:03 ID:QHLbYVPk
FreeBSD 6.1RでSII3112/4もしくはVT6421でSATA RAID構築できている人いたら、 報告下さい。 使用ボード(メーカ、型番)、使用ディスク(メーカ、型番)、構築方法(GEOM, atacontrol,...)知りたいです。
>>528 > FreeBSD 6.1Rで
板違い。
>>522 普通に両ディスク認識できる状態の時に、
消したい方のディスクに mdadm -f で
「こっちはエラー起こしたディスクだよ」って
印を付けとけば?
あと、復旧時の話なら。
新品で領域確保しただけのディスクは
「自分の優先順位が上だ」とは主張しない。
なぜって何も書かれていないから。
531 :
530 :2006/06/20(火) 05:36:16 ID:MiZJiA5p
言葉抜けたし、後段をちょっと修正。 あと、復旧時の話なら。 新品で領域確保しただけのディスクは 「自分の優先順位が上だ」とは主張しない。 なぜってそのディスクには過去RAIDで 運用されていたという、いかなる情報も 書かれていないから。
532 :
login:Penguin :2006/06/24(土) 16:43:22 ID:5iugBQSC
>>532 > Sil3114を使ってハードウェアRAID
残念ながらそれは本当の意味でのハードウエアRAIDではないが・・
> どのタイミングでドライバを読み込ませる
CD-ROMまたはDVD-ROMから起動し、ブートローダのところ(「ようこそ」の直後の
選択)でF3 (Other Options)を押して拡張メニューを表示させる。そこから
F5 (Driver)を押してYesを選択するとインストーラの起動途中にドライバを読み込む
ためのメニューが出てくる。
あとはドライバディスクを入れてそのデバイスを選択すればいい。
ドライバディスクはメーカーから提供されるか、
http://download.qlogic.com/drivers/26229/HOW-TO-BUILD-dd-kit-for-SuSE.txt に従って作る。
ただ
> 右も左もよくわからない状態なんですが
かなり壁の高い作業になるな。全裸+手ぶらでエベレストに登頂しようとするのと
同じくらいの難易度のような気がしないでもない。
>>532 ちなみに、初心者ならSUSEの提供するソフトウエアRAIDを使ったほうがいいと思う。
手間がかからんし、sil3114用のRAIDドライバを使ってもCPU側がパリティ計算をする
ことには変わりないのでパフォーマンス/負荷のいずれを考えてもほぼ似たり寄ったり
の結果になる気がする。
全裸+手ぶら ここだけ見るとエロい
536 :
login:Penguin :2006/06/24(土) 19:09:03 ID:5iugBQSC
>>533-534 レスありがとうございます!
だいたいのイメージはつかめましたが…似たり寄ったりですか、ちょっと悲しい。
とりあえず、やってみるだけやってみます。
だめなら
>>534 の方法で。
一応このスレ全部よんでたんですが、
3wareの9500Sっていうのはよさそうですね。ちょっと高いけど。
OS側で何もしなくていいRaid5対応のもので安いのあったら
教えてください。といっても数万はすると思いますけど。
>>536 厳密な意味でのハードウエアRAID (SATA)に該当するものなら、
3ware, adaptec, ARECA, Broadcom, Intel (チップセット内蔵のものは除く),
LSI Logic, NetCell, Tekram
くらいかな。それ以外のメーカーのものはOEM品を除いてソフトウエアRAID。
> OS側で何もしなくていいRaid5対応
一般的なLinuxカーネルにドライバが搭載されているものという意味では3ware
かAdaptec。Arecaも-mmカーネルで対応しだしたが、まだSUSEでは自力コンパイルが
必要。その他は自分で調べれ。
>>536 補足。買うときはUser's SIDE以外の店で買えよ。理由は自作PC板を参照。
539 :
532 :2006/06/24(土) 20:17:05 ID:5iugBQSC
540 :
532 :2006/06/24(土) 20:36:35 ID:5iugBQSC
セットアップ画面の「インストールの概要」のステップで「システム」で確認すると ドライバはどうやらデフォルトで認識されてるんですね…。 この後、どこでRAID5を組んだらいいかヒントください<m(_)m>
ID:5iugBQSCよ、SUSEスレとこっちのスレとどっちで進めるのかはっきりせよ。
>>537 > > OS側で何もしなくていいRaid5対応
っつーことで勧めるなら、外付けのRAID Boxの方がいいんでは。
544 :
532 :2006/06/24(土) 20:55:44 ID:5iugBQSC
>>541 何度も申し訳ないです。
LinuxにもとからあるソフトウェアRAIDとsil3114などを使ったハードウェアRAIDって
パーティション設定時に区別つくもんですか?
545 :
532 :2006/06/24(土) 21:01:25 ID:5iugBQSC
>>542 ディストリによって違う部分とRAID自体の部分で質問内容をわけてるつもりなんですが
これでもマルチ?
546 :
login:Penguin :2006/06/24(土) 21:06:40 ID:W+SPWbdS
>>544 ハードウエアであるかどうかに関係なくRAIDシステムの場合、各ハードディスク
ドライブの先頭領域(100KB〜2MBくらい)に各RAIDシステム固有の構成情報を
書き込む仕組みになっている。これによりそれぞれのディスクがアレイの中のどこ
に属しているのかを記憶する仕組みになっている。
この構成情報には特に定まった標準仕様があるというわけでもない(あっても
ほとんど意味を為さない)ので、LinuxカーネルのソフトウエアRAIDとsil3114ドライバ
のRAIDはそれぞれ区別できる(=一方を他方に突っ込もうとすればエラーになる)はず、
という結論になる。
>>545 SUSEをインストールするという時点でSUSE固有の話を含めなければ混乱するだけ
だろうから、SUSEスレに移動したほうがいいだろう。
548 :
532 :2006/06/24(土) 21:21:19 ID:5iugBQSC
>>547 どもです。
SUSEスレに移動します。お世話になりますた<m(_)m>
549 :
532 :2006/06/25(日) 11:57:29 ID:Ha2oJeqF
…戻ってきました。 RAID5を3台のHDDで組もうとしてるんですが、その場合のパーティションの分け方は /boot / swap の領域をそれぞれのHDDにLinuxRAID領域として作ってRAID作成時に それぞれをRAID5として設定するのは間違ってるんでしょうか? やってみたらフォーマットができないとかでとまってしまったので…。
>>549 /bootはRAID5はやめた方がいいと思うよw
あとswapをRAID5する意味は無いぉ
disk毎にswap領域確保してfstabに書けばstripingされるぉ
昔 /etc を別パーティションにしようとした奴がいたな
鶏が先かササミが先か
>>552 俺なんか1回
/devを別パーティションにしたぞw
/etcを別パーティションにしておけば、クラスタリング構築する時とかに便利じゃん
/etcをnfsでマウントしているツワモノもいた
nsf起動するのどうやるの?
558 :
532 :2006/06/25(日) 21:50:00 ID:Ha2oJeqF
>>550 メモってなかったもんで…
>>551 swap了解す。
/bootは 一個目のHDDにだけ書いとけばいいんですか?
それだと、1個目のディスクが壊れたときに起動しなくならないすか?
>>552-556 面白さが全然わからんのはレベルがたらんのでしょうね…精進します…。
てか、RAID5をLinuxで組む方法ってほとんど文献ないすね…
Windowsのほうはそこそこありますが・・・。
推奨パーティションの切り方みたいなのがあればいいんですけど('A`)
> てか、RAID5をLinuxで組む方法ってほとんど文献ないすね… ネット上にいくらでもある。 見つからないのだとしたら探し方が悪い。
>>558 >それだと、1個目のディスクが壊れたときに起動しなくならないすか?
というかね、RAID1じゃないとGrubとかからカーネルが読めないわけ。
カーネルが動いてやっとmdに見えるわけだからRAID5を/bootには使えないわけ。
本当の耐故障性が欲しかったらAreca辺りのPCIEx8なHW RAIDを使うことをお勧めする。
561 :
532 :2006/06/26(月) 10:44:27 ID:2f0GHD4l
>>559 本当にあります?
結構まわりましたが、Windows用と、理論的な説明ぐらいのが
ほとんどで、具体的な方法みたいなのはありませんでしたが
562 :
532 :2006/06/26(月) 10:52:37 ID:2f0GHD4l
>>560 なるほど。そういうことですか。
じゃ、ソフトウェアRAIDを組む場合は1台目が壊れた場合は
他のところにつなぐかknopixでもつないでデータだけ
サルベージして復活って感じでしょうか?
2台目、3台目のドライブが壊れた場合は新しいのつないで
再構築すればOKってことかな?
2台目、3台目に/bootと同じサイズの空き領域が出来る訳だが 2台目の空き場所は適当なマウントして/bootの中身を 起動後のOSから定期的にコピーしている 3台目の空き場所はswap用にしている こういう使い方は無駄?
>>561 いくらでもあるよ。
漏れ自身ネット上の情報だけで使えるようになったし。
書いてないけど、使いたいRAIDはハードウェア/ソフトウェアどっち? ソフトウェアだとしたら、当然 JF の Howto は読んだんよね?
ああゴメン。勘違い。 ハードウェアでしたね。 「RAID5についての情報」って「Sil3114でのRAID5についての情報」っ意味? 別に特別なことは何もないと思うんだけど……? 「Sil3114でのRAID」の情報と「RAID5のしくみ」が分かってりゃ。
567 :
532 :2006/06/26(月) 13:26:11 ID:KUY0setR
>>564 んーいくらでも言いすぎじゃないかと思うけど。
あるなら一個教えてください。一個もみつからん。
569 :
532 :2006/06/26(月) 13:29:33 ID:KUY0setR
>>567 ×いくらでも言いすぎじゃないかと
○いくらでもは言いすぎじゃないかと
RAID5用のパーティションの切り方が書いてるところはなかったと思う
570 :
532 :2006/06/26(月) 13:30:21 ID:KUY0setR
「RAID5用のパーティションの切り方」って意味が分からない。 特にRAIDだから特別な切り方ってのはないでしょ。 RAIDを起動ドライブにするかどうかくらいが分岐点では。 漏れは起動ドライブは物理的に単独のドライブにして RAIDはデータ領域専用にした方がなにかと楽だと思うし、そうしてるけど。 個人的には、初心者は特にそうすることを勧める。
572 :
532 :2006/06/26(月) 13:50:14 ID:KUY0setR
>>571 >>549 みたいなぶさいくな切り方したりしてたもんで…
やっぱ初めてだと、何か例としてあがってないとわからんところが多いです。
このスレでかなり教えてもらったのでだいぶマシになりましたが。
ちゃんとできるようになったらまとめてhtmlにしてみます。
>>571 の切り方はいい感じですね。
データ用とシステム用を分けるのはいいとして、起動ドライブは RAID1の方が楽だと思うけどなぁ。設定さえしてしまえば、だけど。 それと、同じく設定さえ出来てしまえば似非でもハードウェアRAIDは 交換とか楽ですな。sil311xあたりでそういう設定のページがないかと ググってみたけど案外とないね。
>>573 起動ドライブにRAID1、それとは別にデータ用にRAID5
とすると、最低でも物理ドライブが 5台か…
Linuxだと、設定ファイルはサイズの小さいテキストだし、
それさえバックアップが取ってあれば、
再インストールは大して手間かからんと思う。
(ので、個人的にはシステムをRAIDにする必要はあまり感じない)
ハードウェアRAIDの方が、トラブル時の対処が楽というのはハゲしく同意。
金があるなら、そっちの方が断然おすすめ。
うちの客の話だが、オンサイト時にこういうことを言われたことがある。 「RAID5ってのは理解できるんだ。RAID0ってのが理解できない。 Diskが無いのにRAIDってどういうことだ?」
10枚で素敵な賞品と交換?
まぁ RAID0は事実RAIDではないしな
>575 ワロタ ナイス ヴォケ だな
>>575 「RAID10って10台もあったら故障ばっかするじゃん。わけわかんねー」とか言う
RAIDタイプをディスクの数と思ってるうちの上司と同一人物かもなw
RAID50… ガクブル
582 :
575 :2006/06/27(火) 10:44:02 ID:W3Uzb/qG
割とまともなスレなのに、しょうもない話にレスつけてくれてサンクス。
結構こういう勘違いをしている客は居るんよね。
「あなた理解できてませんから〜〜〜」と言いたいところですが、きちんと説明してあげました。
RAID5のRebuild中で暇だったし。
>>581 この客の理論で考えると・・・ガクガクブルブル
「Diskが72GBだとして50本ってことは〜3600GBかぁ。うちじゃそんなに要らねぇよ」
とか言われそう。
ずいぶんと古い画像を持ち出すまぬけ
>>583 RAID22までは数えられたけど、おいちゃんじゃあ
それ以上はわかんねーなあ
なんかmdadmだと2TB超のドライブをRAID1できない RAID0だといけるんだけど、あるいはGPTだからかなぁ
588 :
532 :2006/07/09(日) 20:15:58 ID:pcLE8HFo
いまだにRAIDに成功できてないんですが…('A`) SUSE10.1のセットアップ画面で、ハードウェアの検出をしたら RAIDバスコントローラとして >Silocon ImageSil3114 [SATALink/SATARaid] Serial ATA Contoroller っていうのが検出されてるんですが、これがでてればRAIDドライバーは 読み込めてるって認識でいいんでしょうか? ただHDDはBIOSでRAID5にしたにもかかわらず、あいかわらず3つ検出されて るんですが。sda,sdb,sdcとなってるので、scsi認識にはなってる・・のかな?
M/Bおまけの偽RAIDのことなんか忘れて mdでソフトウェアRAIDした方がいいよ、と言ってみる。
591 :
532 :2006/07/09(日) 20:59:41 ID:pcLE8HFo
クロシコのSATARAID5-LPPCI(Sil3114)らしいです。M/Bじゃなくて。 実はソフトウェアRAIDも何度かやってみたんですが、初期起動時にいきなり固まって しまってそこも行き詰ってるんですよね・・・('A`)
一旦全部捨てて PC新たに作り直しだ!
593 :
587 :2006/07/10(月) 22:57:48 ID:hb+T7WZK
>>532 それはlibATAっていうフリーのドライバが持ってるドライバなだけなのよ。
で、君がRAIDだと思ってるそのBIOSでのRAID5ってのはWindowsを騙す為に事前にHDDの先頭に独自のパラメータ
ふるだけなの。
Linuxではそれは全部ターミナル上から手動でやるのよ。カード搭載のBIOSで何を変更しても意味ないよ。
むしろBIOSでアレイをくんではいけない。(3wareやAreca等の「本当の」ハードRAIDカードを除く)
sda,sdb,sdcって見えてるんなら、それが正しい認識。後はそこからmdadmでアレイ組めばいいだけだよ。
で、何度も言うけど
「man mdadm って打て」
それとWinの常識に捕らわれないでね。
RedHat系なら、インストール時のパーティション設定画面で にRAIDの設定も出来るんだけど(面倒くさいし設定の自由度も低いっぽいけど) SUSEは駄目なのかな?
>>591 /etc/raidtab と作業手順晒してみれば〜
>>595 いまどき/etc/raidtabだってよプギャーwww
597 :
login:Penguin :2006/07/12(水) 23:28:00 ID:JBcjG/Ty
AccordanceのM100使ってる人いますか?熱関係とかどうでしょうか? もっと安ければなぁ。
598 :
login:Penguin :2006/07/13(木) 06:01:43 ID:31Njm7W5
>>593 Si3114@LinuxってLinux上から全部そのまま個別の物理ドライブが見えるのですか?
多分
>>588 はSiI3114の設定でRAID-5にした後RAIDArrayを組んでないだけに思えるのですが・・・
# アレイ組まないとBase扱いになって通常のATAカードと同じ挙動をする。
mdadmってWindowsのソフトウェアRAIDと同等の機能で全然別物のような・・・
それとも、SiI3114ドライバとかも含めた汎用RAID管理ツールに進化したんでしょうか?
と、かなり遅レス
599 :
532 :2006/07/13(木) 07:17:17 ID:2LRyBAGP
>>598 >>532 ttp://linuxmafia.com/faq/Hardware/sata.html#sil FAKERAID・・・
ってことで、BIOSで組んでも結局意味無い模様。
そういうことで、
>>593 で書かれている事を良く理解してみましょう。
あと
>>532 がやりたいことって、
/boot
/
swap
それぞれをRAID5の領域で作成したいということ?
それはつまり、こういうこと?
sdaを三つ、sda1,sda2,sda3として、sda1に/boot、sda2に/、sda3にswapとして使おうとしたが、障害が発生した場合を考えて、冗長性を持たせたいので、sdb,sdcも使ってRAID5にしたい。
sdb,sdcも同じように三つに分けて、
sda1,sdb1,sdc1で/boot用RAID5、
sda2,sdb2,sdc2で/用RAID5、
sda3,sdb3,sdc3でswap用RAID5
ということか?
個人的にはswapをRAID5にする意味が無いような気がするが。
>>600 >個人的にはswapをRAID5にする意味が無いような気がするが
それはプギャーと笑う所ですか?
>>601 >>個人的にはswapをRAID5にする意味が無いような気がするが
>それはプギャーと笑う所ですか?
自分も詳しいわけじゃないから、なんともいえないけど。
笑う気も無いし、やりたいならやれば、でも、swapを耐障害性持たせても意味無いんじゃないかなと。
RAID0にして速度早くしたいのなら納得できるのですが。
ぷぎゃー
>>532 http://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO-4.html#ss4.11 の内容「4.11 RAID でブート」以降も理解してみましょう。
面倒かもしれないけど、
1.sdc1,sdc2,sdc3をそれぞれ/boot,/,swapとしてインストール
2.sda1,sdb1を縮退モードRAID5として作成
3.mke2fs -j /dev/md0でmd0をフォーマット、sdc1の内容を作成したRAID5(おそらく/dev/md0?)にコピー
4.LiloやGrub、fstabの修正等をして、再起動
5.起動できたのであれば、sdc1を削除し、/dev/md0にsdc1を追加する
以下、/,swapで同じ事をする、で出来るかも?
sda1,sdb1だけで縮退モードRAID5を作るなら以下のコマンド。
mdadm --create /dev/md0 --level=raid5 --raid-devices=3 missing /dev/sda1 /dev/sdb1
これで、一つ足りない状態でRAID5が作れるわけで。
あとでsdc1を追加するなら、
mdadm /dev/md0 -a /dev/sdc1
とする。
SUSEじゃなくDebianだが、参考までに以下のアドレスを。
これの「ソフトウェアRAID」って所からみてみー。
http://www.h7.dion.ne.jp/~maruyosi/pasocom/debian_trial_8.html 一応、これでうちもRAID5で出来た。ICH7Rだったが。
>601 って何が面白いわけ?
606 :
598 :2006/07/13(木) 17:34:32 ID:31Njm7W5
>>600 FAKERAIDなのは知ってます。
手持ちで同じFAKEと言われるPromise FastTrak SATA150 TX4とかSX4が動いてるLinuxマシンが有るからドライバの挙動が違うのかな?と思っただけ。
S150シリーズの場合はRAID Arrayしか見えなくて、物理的な接続は/dev以下では見れないのですよ。
だから、RAID BIOSでアレイを組むのはかなり意味があるし、組まなきゃ何も見れない。
で、私にはmdadmが出る理由が解らない。
>>593 で言いたいことってつまりSiI3114はBASEモード・・・単なるATAカードとして使って、
RAID機能自体はLinuxのmdによるソフトウェアRAIDで実現しろって事?
それならそれでそういう注意を一言含めなきゃ私のようなハンパな素人には混乱を招くだけだと思うのだけど・・・
607 :
598 :2006/07/13(木) 17:42:58 ID:31Njm7W5
と、ageてしまった、すまん。 SiI3114積んだマシンは手元にあるけど、RAID組めるような空きとHDDが無いのよね。
598さんへ
>>532 で、書いてあるの見た?
>・BIOSレベルでのRAID5は設定済み
となってるのに、ARRAY組んでないということは無いかと。
それと、
>>588 で、
>ただHDDはBIOSでRAID5にしたにもかかわらず、あいかわらず3つ検出されて
>るんですが。
とも書かれてるんですよね。
だから、このチップは、(s150と違い)別々で認識されてしまうパターンなのかと思って、「BIOS云々は諦めてmdadmでやるしか」という意味をこめて書いたのですが。
私も素人で、余計なこと書いて混乱させてしまい申し訳ありませんでした。
609 :
598 :2006/07/13(木) 19:52:19 ID:31Njm7W5
>>608 実は手持ちのオンボSiI3114なんですがBASE/RAID-5に設定するのとArray設定は別項目なのです。
なんで、カードのモードとしてRAID-5にした、だがCreate Arrayをしてないのかな・・・と。
該当カードを持っていないのでそのカードのRAID BIOSがどのような形のUIをしているのか不明ですが、
当方ではSiI3114の設定に入ると左側に物理ドライブが、右側にアレイ(Logical〜)がリストされるようになってます。
ただ、
>>599 の発言によれば設定されてるとの事なのでかなり謎な状況では有るのですよね。
動作保障のあるWindows上で本当にアレイが機能してるのか確認するというのもありじゃないかな・・・と思いますが。
> RAID機能自体はLinuxのmdによるソフトウェアRAIDで実現しろって事?
> それならそれでそういう注意を一言含めなきゃ私のようなハンパな素人には混乱を招くだけだと思うのだけど・・・
つか、前回
>>532 からの流れでは
BIOSでのインチキRAIDはやめて LinuxのソフトウェアRAIDでいく
って話で終わってたように理解してたんだが。
なんで元に戻っちゃったの?
その辺一言含めないと相手してる方にはサッパリ分からんよ
右も左もわからん奴は諭吉数枚出してArecaのRAIDカード買ってりゃいいだろ。
532と598は別人でしょ。
Linuxで使う場合、3wareとArecaはどちらがつおいですか?
>>613 >Linuxで使う場合、3wareとArecaはどちらがつおいですか?
とりあえず、片方を固定してもう片方で固定したほうを思いっきりたたいてみれ。
壊れなかった方がつおい。
615 :
587 :2006/07/13(木) 23:46:20 ID:/KSnhTAk
>>598 手前で何度も言うようだけど、君の言う「RAID5のアレイを組む」というのは以下の手順なのよ。多分。
1.BIOSでHDDの先頭ヘッダにsii3114固有(実際はsii系なら大体共通だったりする)部を書き込む
2.再起動
3.カードBIOSは接続されているHDDの先頭ヘッダを読んで、Windows側に自分は1台だよ。とウソの報告。
4.Windows上のsiiドライバがWindowsを騙してRAID5になる。
で、Promise FastTrak SATA150 TX4とかSX4はメーカ提供の専用ドライバがたまたまマージされてただけじゃない?
がるじあっくたんの説明ではSx4辺りはハードウェアオフロードの機能が微妙にあるようだから、メーカ謹製のドライバ
だったんでしょ。この場合はBIOSでちゃんとアレイ組まないといけないかもしれないね。
>>mdadmってWindowsのソフトウェアRAIDと同等の機能で全然別物のような・・・
カード上のBIOSで組む事とWindowsのソフトRAID機能を利用する事と、mdデバイスとして管理する事は
最終的には概念としては似たようなものでしょ?BIOSでメーカごとの専用の構造を用意するかどうかでしか
無いと思う。専用ドライバがあるものは独自のヘッダを必要としたりするから、BIOSでヘッダを切るんだろう。
>>mdadmが出る理由が解らない。
結論は
>>600 だけど、敢えて言うなら「sii自身がLinuxではmdアレイでRAID組んでねって言ってるから」です。
参考までに知ってる範囲でのリスト載せます
sii3112,3114,3124,3132
カード上のBIOSでの設定は全部無視。メーカ提供の専用ドライバもあるがlibATAでの汎用ドライバもある。
メーカ提供ドライバは"完全な"ホットスワップやポートマルチプライヤサポートがあるが、非オープンソース&
カーネルVer指定なので、微妙に困る。libATAにいつかは超えられる運命だとは思う。
3ware系
9500S系くらいまでなら最近のディストリなら殆どメーカ提供ドライバがマージ済み。
専用ドライバでしか動かないし、BIOSでアレイ組まなきゃ駄目に決まっている(本物のハードRAIDだし)
フルホットスワップとポートマルチプライヤサポートがあったりなかったり。
>>605 おれも
>>601 に賛同。
システムの安定性を求めてRAID5にするんなら、当然SWAPもRAID5にしなきゃ。
SWAPをRAID5ではなくRAID0にしたとして「スピード速い。うれしい」なんてしてて
Diskが1玉コケたらpanic発生するよ。
いきなりSWAPにアクセスできなくなるんだからね。
Diskが1玉コケてpanic発生したとしても、データエリアがfsckで整合性が
取れれOK程度の大事さならば、別にSWAPをRAID5にしなくてもいいだろうけど。
つまり
>>601 が笑ったのは、何のためにRAID5にすんのさ?
って所ではなかろーか。
617 :
598 :2006/07/14(金) 06:51:59 ID:tNAgWRW8
>>615 やっと理解できました。
結局libATAでは独自ドライバとの互換性を無視してるのですね。
だとしたら、BIOS上でのRAID-5の設定とアレイを削除してmdadmで作った方が良さそうですね。
3ware Escalade の7002-2使ってるんですが、バックアップ用にもう一枚さがしても 情報出てくるのは7006-2 ばかり。 7002-2で作成したarray は7006-2 に移してもそのまま認識できるか気になっています。 経験者の方います? その逆(7006-2で作成したArrayを7002-2に移す)もできれば良いのですが。
619 :
login:Penguin :2006/07/15(土) 04:43:38 ID:lxORPPDA
ミラーリングに用いるHDDは2台とも同容量・同形式のものを、 というのは半ば常識ではありますが、 同容量・バッファ容量も同じ、異なるHDD(例えばメーカー違い)を使うのは邪道でしょうか? もちろん、容量は厳密にバイトレベルで同じであるとします(実際あるかは未調査)。 意図はもちろん同時期にアボンしないように、ということですなんですが。
同一品名のディスクだから同時期に壊れる(壊れやすい) ということはない。せいぜい言い得るのは、MTBFが(ほぼ) 共通ということだけ。んで、MTBFが共通と、一緒に壊れる、 とは全く別の問題。それ以上ちゃんとしたこと理解したければ 信頼性工学の教科書でも嫁。
621 :
587 :2006/07/15(土) 10:13:25 ID:Gsv0emHR
>>617 こっちもなんとなくで言ってるんであんまり本気にせんようにね。
もうちょっと細かく言うと、
>結局libATAでは独自ドライバとの互換性を無視してるのですね。
これはちょっと違くてさ、libATAはがるじあっくたんがメーカに問い合わせたり訪ねたりして仕様を教えて貰って
書いたお手製のドライバなのよ。なので無視してるんでなくて、完全に別物のドライバなの。
メーカ側がオープンに仕様を公開してくれない奴とか技術的に困難な機能に関してはlibATAでは
全く利用できないのよ。がるじあっくたんがわかんないからね。PromiseのSX系オフロードエンジンとかもそうじゃないかな?
(実際はオフロードエンジン叩くよりCPUで計算した方が早いからとも聞いた)
>>618 うる覚えだけどアレイの互換は保ててる奴と保てないのがあったはず。
7000系、8000系、9000系の頭1桁が同じなら共通じゃなかったっけな?
8000系から9000系はそのまま差しても読めないし、7000系から8000系も駄目だったと思う。
なので、多分だけど7000系から7000系ならOKだと思うよ。
差した時に利用されるドライバが同じなら、まず間違いなく大丈夫な気はする。(lsmodとかしてみればいいかな)
職場に3wareユーザの先輩いるから今度聞いとくよ。
>>619 気持ちはわかるけど、やめた方が無難。
バスタブ曲線を恐れるのはよくわかるけど。
このスレのレベルの低さにはいつも呆れる
7000 と 8000 は変換器を通しただけの同じものだったはずだが?
>>620 同一品名というだけでなくて、同一ロットだと同時期に壊れることがよくありませんか?
現実にそういう書き込み、よく見掛けるんですが。
壊れ方の種類にもよるでしょうが、一部の原因に関してはそういう傾向はありますよね?
例えば温度や電気の特性とか同じでしょうし、特定部品の異常も同一ロットなら同時期に発現するかと。
同じモデルでも時期を離して購入できればまだいいんですが、なかなか難しい。
SunFireのHDD2個入り買うとFujitsuとSeagateの 同一容量HDDが入ってくる。
某メーカーの鯖は、HDDの使用状況から故障率を予測し、 故障が近いと思われる結果が出た場合は、実際に故障していなくても修理交換対象になる。 実際にはメカのヘタり具合とかも数値として計算式に入ってくるので全くの同時にはならないが、 同時期に購入した同一ロット品は、同じように使っていると比較的近い時期に交換対象になる。 某メーカーの鯖は、故障予測など行わず、実際に壊れた場合に修理交換対象になる。 保磁力低下によるセクタエラーを検出する為に、週一回のペースで全セクタスキャンしているが、 実際にRAIDがdegradeになる時期はマチマチで、数回交換している鯖もあれば無交換で動き続けている鯖もある。 結局、何を信じるかはその人次第
信じるかどーかって問題ではなく そのための hot spare だと思うが。 なんで degraded になるんだ? 本気でデータを失いたくなければ array と同数のhot spare用意しとけ
・そもそも鯖にドライブベイが二つしかない。1Uやブレードではよくある話 ・そもそも予算が下りない hotspareでも、動作としてはdegradeを認識してからrebuildが開始されるので degradeの時間が数時間か数日かの違いになり、 その差を許容するかどうかもその人次第 SPFを追求しだすとRAIDカードの二重化も必要になるしな。
mdadmのreshapeについて教えてください。 手元のPCでRAID5の構築を企てています。 RAID5では、HDDの容量を増やすことは出来ても、 HDDの数を増やすことは出来ない、という 認識で正しいでしょうか? mdadmのgrowコマンドのヘルプでは、容量を 増やす方法はあっても、台数を増やす方法が 載っていませんでした。 もし台数を増やす方法があれば、キーワード だけでも教えてください。 >debian ~> /sbin/mdadm --grow --help >Usage: mdadm --grow device options > >This usage causes mdadm to attempt to reconfigure a running array. >This is only possibly if the kernel being used supports a particular >reconfiguration. This version only supports changing the number of >devices in a RAID1, and changing the active size of all devices in >a RAID1/4/5/6. (以下略)
630 :
587 :2006/07/16(日) 10:56:19 ID:1/+BFXxE
>>629 --growは現在RAID1でのみ利用可能な機能で、しかもあなたが予想しているその記述はまだ未実装です。
実際に自分で確認したので間違いないかと。
上の方でgrowに関して試した記述があるので、探してみてください。
で、RAID5でデグレード回復中にディスクが故障した・・・・。当然全部ぱあ。
ローカルに7割近いデータがあったから助かったけど、こういうことって本当にあるんだなあ。
rebuild走ると他の玉に負担掛かるんで弱ってると飛ぶ なので定期的な全周パトロールはすべき
>>628 「degradedと認識されれば」即座にhot spareに切り替わるだろ。
認識されるまでは該当ドライブが調子悪いなりに冗長性は維持されてるはず。
この時点では degraded ではない。(もちろんあまり当てにならない冗長性ではあるが)
冗長性が維持できなくなったところでそのドライブがarrayから外される訳で
hot spareが用意されてりゃ、その時点で即座に切り替わるんだから
「degraded が数時間」なんてことにはならんはずだが。
どの程度「当てにならない冗長性」の状態で粘るかは実装次第だろうけど。
あと、hot spareの用意できない RAIDなんて 気休め程度にしかならん運用方法なら 使わん方がいいと思う。 コスト的に見合わないだろ。 本当にそんなのが「よくある」のか? 少なくとも業務用途ではありえん話だと思うが。
よくある。あってはいけない話だとは思うが。 そういう所ではろくにバックアップも取ってない。
>632 >hot spareが用意されてりゃ、その時点で即座に切り替わるんだから >「degraded が数時間」なんてことにはならんはずだが。 hot spare にコピーし終わるのにどれくらいかかるとお思いで?
>>633 実際、よくあるよ。
要件出してる最中も、金の話ばっかりで
実働すればバックアップすら取ってくれないし。
保守まで値切って、バックアップがないのまで
ベンダーのせい。
すご〜〜く、よくある。
つーか、RAID5なんてのは ホットスペアを持っていてもrebuild中の脆弱さは避けられないんだから。 少なくとも、ホットスペア用意するくらいなら 素直にRAID6にしとけ。
金があるなら、RAID1を複数とかなんだろうなぁ・・・
>>639 RAID1を複数作るくらいなら、RAID0+1の方が素敵んぐ
>>638 既にRAID5で構築済みなんです。
RAID6への移行って、同容量のHDDをもう1セット購入して
コピーする以外に、可能なんでしょうか?
ホットスペアを用意するというのは、経費的に
そう悪い考えではないと信じてます
>>RAID5でデグレード回復中にディスクが故障した・・・・。当然全部ぱあ。 あるあるw
>642 それは >632 に言ってくれ
保守料ハードだけのくせして故障したらなにもかもベンダーのせいにする そんな糞ユーザなんて法律で罰せたらいいのに 訴えられても勝つぞ、道義的にやらんだけで^^
>>633 スペア?:ない。
バックアップ?:テープで毎日。
イベントログくらい見て鯖の健康管理:誰もしてない。
ある日あぼーん。
呼ばれて行くと、イベントログに数ヶ月前からRAIDの不調が。
定期保守契約は?:してない。
本当に業務鯖か?
しらんがな
バックアップしてるだけいい方じゃん
バックアップ用のテープは1セットをずっと使いまわしてるってオチだろうなw
649 :
login:Penguin :2006/07/18(火) 18:02:53 ID:WdVmUFYP
>>631 >定期的な全周パトロールはすべき
すみません、うちの自宅鯖が心配になったので具体的な方法やツールを教えて下さい。
badblocks -n /dev/md0
>>650 それやってる最中に逝くってことは、、、ないとは言えないよねぇ…。
mdadmでアレイのverifyはできますか?
653 :
login:Penguin :2006/07/18(火) 23:53:27 ID:ZSChQxOG
ちゃんとsmartのデータを見ておけよ
>>651 余計にHDに負荷を掛けてるから早く逝く。
意外と何もしてないほうが負荷が少ないから長持ちする。
長持ちはしても気づいたときには手遅れな罠
>>655 がいいこと言った
RAID組んでおいてDiskコスト気にしちゃダメダメ。
データのためには、怪しいDiskは即交換。
データが大事なのか、コストが大事なのか秤にかけなきゃ
RAIDの玉は普段からシバいとけ
卑猥だ えっちだ
いや、ただのゲイのサドだ。 うほ!
個人で使えるやっすーいテープライブラリあるといいんだけどなぁ
sonyのペタサイト買えよ。
md2 : active raid5 sda1[4](F) sdd1[3] sdc1[2] sdb1[1] 937705728 blocks level 5, 128k chunk, algorithm 2 [4/3] [_UUU] orz
664 :
login:Penguin :2006/07/21(金) 22:21:39 ID:J3mZUkw8
>>660 SunのC2/C4はいかがでしょうか。
比較的安価ですよ。
>>661 Sony ペタは高額。
SGI DMFも高額。
ここはSun SAM-FS/QFSにて安価に構築されるのはいかがだろうか。
sunの営業発見
SUNも最近売れてないらしいから必死なんだなぁ。
mke2fsで 「-R stride=32」 をつけてファイルシステムを 作りました。このことを、後から確認するにはどうしたら いいんでしょうか? ブロックサイズなどは、「tune2fs -l」で表示がありましたが RAID用のオプションを確認する項目はありませんでした。
FedoraCoreのスレがキチガイに荒らされてて使い物にならないので こちらで質問させて下さい。 ちょびっとだけRAIDとも関係あるということで許してください。 SATA HDD x6本でmdのRAID5を作りました。 もしHDD障害が発生したとき、sd?名から物理HDDを特定しないといけませんが 全部同じ型番のHDDですので、特定が困難です。 (HDD自体にACCESS LEDが無いので、LED点灯させての判別ができない) そこでOS上からHDDの製造番号を知るためのコマンドは無いでしょうか? ・・・って質問書きつつman hdparmしていたら-iだけじゃなくて-Iってのも あるんですね。 このオプションで製造番号が表示できました。 キャッホー! どうもスレ汚しすいません。
>>668 sysfsでささってるポート特定できるよ
>>669 sysfsコマンドを検索してみたのですが、FC5には存在しませんでした。
# man sysfs
すると、Cの関数ヘルプとなっていました。
man内に/proc/filesystemsでsysfsの参照ができるような記述があったので
# cat /proc/filesystems
してみたのですが、あまりいい出力結果ではありませんでした。
# yum install sysfs
してみましたが、コンテンツとして見つけることができませんでした。
うーん、残念です。
/sysのした
/sysなんてのがあったんですね。知りませんでした。 # find /sys -name sysfs してみたんですけど、ひっかかりませんでした。 とりあえず目的は製造番号をOS上から知ることだったので 製造番号を知るだけならばhdparmで十分そうです。 でもsysfsを参照したとき、どういう出力結果が得られるのか興味はあります。 /sysには面白そうなディレクトリがたくさんありました。 ちょっとずつ見てみます。
_, ,_ パーン ( ‘д‘) ⊂彡☆))Д´) /sys が sysfs だっての
>>673 な、なんと。
そうでありましたか。
こいつは盲点でした。ウヒヒ
だめだこれは( ´Д`)
676 :
login:Penguin :2006/07/26(水) 09:53:03 ID:Pkk1OMfG
Windowsで使用していたPCをサーバ化しようと思っているんですが、HDDが違うメーカー同士でも問題なくRAIDできるでしょうか? ちなみに現在はWD800BBを使用しています。
こういうヒトって、「自分で調べる」という気は全く無いんだろうな
678 :
login:Penguin :2006/07/26(水) 19:36:15 ID:FYjWNH0Q
>>676 その程度の知識ならRAIDなど行うべきではないだろう。
しかし、調べるということすら出来ないとは・・・・
680 :
login:Penguin :2006/07/27(木) 09:11:30 ID:GOKJojlP
だりか3ware社の安いSATA-RAIDカード使ってる人いる?
ノシ 8006−2LPだっけ?
682 :
415 :2006/07/28(金) 00:03:41 ID:wprzq+pU
準備整いました。 これからやってみます
∧_∧ + (0゚・∀・) ツヤツヤ テカテカ (0゚∪ ∪ + と__)__) +
>>676 何を「問題なく」って思ってるかどうか知らないけど・・・
RAIDできるよ。
それどころか、容量が違ってもできる上に、壊れたHDDでもできる!
(ヨウリョウガスクナクナッタリ、RAIDノタイショウガイセイトイウテンデイミノナイモノガデキルガ)
メーカーも型も違えば、細かな容量の差が出るし、性能差もあるが、RAID構築はできる。
もっとも、私はこういうのを「問題ない」とは思ってないけど。
何のために>676はRAID構築するの?
作ったそばからアボーンしたいならともかく、そうじゃないのなら、新たにHDD用意するとか、同じHDD用意するとかしたほうがいいの邪魔烏賊
まずオマイに言う事は、「よく理解してからやるべき」だね。
デモ、RAIDッテイウノヲヤッテミタイトイウキョウミダケナラ、ベツニイイノカ、オナジノヲヨウイシナクテモイイノカ
>>677 調べないから質問してるのかもしれないし、
調べたが理解できないからあんな質問になったのかもしれない。
前者ならやることに対する手順がおかしい人かもしれないので、RAIDしようとして失敗すると思う。
後者なら、理解できてないので、RAIDしようとして失敗すると思う。
どっちにしても失敗するだろう。
>>678 いいじゃないか、何も「やるべきではない」なんて言わずに勝手にやって勝手に自滅させれば。
685 :
login:Penguin :2006/07/28(金) 16:39:42 ID:pnVfv9P+
通りがかりですが便乗質問!
>>681 あーそれそれ それ欲しかったんすけど
どーっすか?SCSIとしての認識でブートからリビルドまで
なにも考えなくてOKですか??
>>685 考えなくても大丈夫!
何も考えないでやると、Entetr押すだけで、勝手に構築してくれるよ!
こっちがRAID5にしたいと思ってるのに、RAID10にしたりとか、
再構築しようとしてるのに勝手に新規構築してくれたりとか!
でも、きちんと考えてやると、綺麗に意図どおりに構築してくれるし、再構築もしてくれるよ!
要するに、指示したとおりに構築してくれるわけで、意図をしたとおりとは限らない、と。
687 :
login:Penguin :2006/08/03(木) 13:55:37 ID:jxmQBF7j
>>686 ネ申..._〆(゚▽゚*)キター
ありがと、買って来る!
って
>こっちがRAID5にしたいと思ってるのに、RAID10にしたりとか、
>再構築しようとしてるのに勝手に新規構築してくれたりとか!
ナニコレ((;゚Д゚)ガクガクブルブル
688 :
login:Penguin :2006/08/04(金) 00:33:51 ID:ofv6GeVX
>>686 横からすみません、便乗の便乗らしいですけどおせーてつかーさい。
OSインストール用のHDは別なのでしょうか?
最初っからHD2枚で /dev/sdaとして Linuxを入れたいのですが
大丈夫なのでしょうか?
>>687 に見習いわかり次第、入手に逝きたいと思います。
raid 0 やってるひとすくない
690 :
681 :2006/08/04(金) 09:24:45 ID:RG3YzrS+
>>686 2ポートだからRAID10は無理なんだけどな。
RAID5も無理だし・・・。
>>685 3wareのドライバは勝手に入るから、大丈夫だよ。
RAID0はやった事ないけど、RAID1ではBIOS上でアレイ作ったら
インストーラ上からHDD1本のsdxに見える。
691 :
login:Penguin :2006/08/04(金) 11:25:59 ID:ofv6GeVX
>>690 おkおk!逝ってきます、クリッコしてきます!
次回は4,8ポートも購入検討します
はぁやっぱ人柱のネ申は頼りになります szo ヘヘー
>>690 横槍質問宜しいでしょうか?
8006-2LPでホットスワップでハードディスク交換後のリビルドは、
管理ツールを入れないとダメと店頭で以前聞いたことがありますが、
ホットスワップでディスク交換後に自動リビルドってできます?
P-ATA版の7506-8や7006-2LPとかも手元にあるので、そっちも分かるようでしたらお願いします。
>>691 人柱も何も、Linux+SATAでまともに動く環境は3wareしかないよ。
あとはTurbo使ってAdaptecのHOST RAID(ICH-XR系)ぐらいかな?
>>692 なんちゃらアドミンってのを入れないと駄目なのは本当。
でも、ホットスワップはアテにしない方が吉。
HPのラックマウントで使ってるんだけど、一回アレイが全滅した事がある。
まぁ、一回だけだけど。
うちではSATAはテスト環境だから、電源落としてから、リビルドしてる。
クリティカルな環境だったらオススメしないし、参考にしない方が吉。
>>693 レスありがとうございます。やっぱりソフトウェアの導入は必要なんですね。
ドライバ組み込みだけでも、3w-xxxx: scsi0: AEN: INFO: Rebuild complete: Unit #1.
上記のようにBIOSでリビルド開始後にOSを起動させてリビルド完了を知らせてくれるので、
管理ソフト無しでも行けるのかなーと思ってました。
うちのところは6台のHAクラスタ構成なウェブ鯖で使っているのですが、
タワー型なのでHDDへのアクセスが悪く、設置スペースがあまり広く無いので、
ホットスワップだと楽できるかなーと思った次第ですです。
ところで3wareのRAIDカードってディスクへの書き込み方が特殊みたいですよね。
RAID1構成で使用していたHDDを別のマシンに接続して
システムのクローンを作ろうと思ったら中身が不明なパーティションのみに。
やっぱりRAIDカードが故障したらRAID1構成でも中身が消えそう・・・。
>>694 > 3wareのRAIDカードってディスクへの書き込み方が特殊
いや、ふつうのハードウエアRAIDカードならそうだろう。
構成情報などをディスクの特定の部分(先頭など)に書き込むわけだし。
>>695 レスありがとうございます。
3wareのやつではないですが、
以前RAIDカード故障時に保守の人がスペアのRAIDカードと交換して復旧させていたのですが、
リビルドせずにどうやってRAID構成を戻してるんかなと不思議に思ってました。納得です。
ま〜先頭の何セクタか読み飛ばせばいいだけなんだが。 RAID1専用のやつとかだとそのまま読めることもある。 ARECA の 12ポート以上のやつは、カードにイーサの口が付いていて、 web でいろいろできるぞ。snmp も使えるし snmp trap も出せるぞ。 余計なソフトを入れなくていいので楽だぞ。 ドライバは入れなきゃだめ。本家にマージされるという話はどうなったんだろう。
Arecaは素敵変態過ぎ
ARECA、面白そうだよね。 試してみたい所だけど、自分の中では新しいメーカーなので いくらテスト環境でも手が出しづらい・・・。
700 :
686 :2006/08/04(金) 23:55:18 ID:RfLeTqjC
大丈夫だよな。
686での俺の発言、釣りだとわかってるんだよな。
>>681 マジレスありがd
キミはこのスレの良識だ!
>>699 ボード作り出したのは最近だけど中の人の実績は10年以上だよ
>>697 まともなRAIDカードで12ポートなんて10万超えるよな・・・・・
鯖だと管理用コントローラ載せて管理専用LANポートあるのを良く見かけるけど
RAIDカードレベルで管理専用LANポートあるなんて話初めて聞いた
使ってみたいけど遊びで使うには高すぎる
>>703 遊びだから10万超えても買うんじゃない?
安いの買って対費用効果とかコストパフォーマンスとか、そんなの遊びで考えるの?
むしろ遊びだからこそ値段なんか考えない!
素朴な疑問なんが、12ポートRAIDに 12台ディスク繋げるとして、 どういうケースに入れるの?
普通にシャドウベイに詰めて、 足りない分は3ベイに5-6個入るエンクロージャー買って来れば良かろう。 スタッカーとか使えば全部リムーバブルに納まる。
709 :
705 :2006/08/06(日) 20:42:50 ID:lx5eBV92
Arecaが5portのSATA PCIex8なRAIDカード出してくれたらすぐ買うのにぃ
712 :
login:Penguin :2006/08/07(月) 13:09:28 ID:a6JULwe4
PromiseのFast Trek100が余ってたので、デスクトップマシンでストライピングをしようと考えてます。 /bootも含めて、すべてのファイルシステムをストライピングしたRAIDドライブ下に置きたいのですが、これって可能でしょうか? WEBで調べるとソフトウェアRAIDの話が多くて、なかなかいい資料を見つけられませんでした。 上記のような構成(構造?)を解説してるサイトとかないものでしょうか。
>>712 ディストリなににするの?
俺はむかーし、RedHat7.2+FastTrakでRAID1を使おうとして偉い目にあった。
というか結果的に使えなかった。
>>712 FastTrak100はソフトウエアRAIDなので、Linuxカーネル付属のRAID1と
パフォーマンス面は変わらん。あとLinux用ドライバはメーカーのサイトにあるぞ。
Promiseって未だにLinux用のドライバーはソースなし?
>>715 未だに、つか
機種によってあるものとないものがある
>>715 相変わらずソースは無いな。まぁATA部分だけを使うドライバは
メインラインカーネルに入ってるから、それを使ってLinuxカーネルのRAIDを
使ったほうがいいと思う。
rootパーテーションがraid0下に入ってる場合、grubにはどういう風に設定すればいいのでしょうか。 ソフトウェアraid使用で、/bootはraidではありません。 riad0の情報ってあんまりないですね;;
ちゅーかさ、/bootまでraid 0にして何か意味あるの?
grubで出来ることなんてkernelとinitrdとブートパラメータだけ
722 :
719 :2006/08/09(水) 15:32:26 ID:KxhUVuQ4
>719 だから、カーネルだけ指定しても他の情報はどうなってるって。 /bootだけ認識している状態からRAIDボリュームにアクセスするためには なにが必要? そこまで考えたら、mkinitrdかけてgrubに追加すりゃいいじゃん。 にしても、/ をraid 0にして何がしたいの? raid 1ならわかるけどさ。 デメリットばかりでメリットなんて殆どないし。
パフォーマンスが狙いだとしたら、どんな構成がいいんだろ?
>>724 階層構造を持つストレージシステムだろうね
一番上はシリコンディスク
一番下はニアライン用のストレージ
中間とそれぞれの階層の容量は適用業務しだいという事で
RamSanで
速度狙いならRAID0なんてチンケなものよりRAMだな
>>727 アホみたいにメモリ積んでbuffered/cacahedパンパンがいいよな。
Arecaいいなぁ。 5HDDsエンクロージャ用にPCIex4な5Portsカード出してくれないかなぁ。
Arecaや3wareなどのハードウェアSATA-RAIDカードって スロットに装着してBIOSでRAIDを設定すると OSからは1台のSCSI-HDDとして認識されるのでしょうか?
>>730 そうだけど、kernelが動き出したらkernelがカード叩くから、
kernelにそのカード用のコードいれとかないと駄目だよ。
732 :
login:Penguin :2006/08/13(日) 15:07:50 ID:SduKra7R
素人質問ですみません。2つのHDDを同じ様にパーティションを切って、 /dev/sda1, /dev/sda2, /dev/sdb1, /dev/sdb2 を作って、 sda1 + sdb1 で RAID1 // 大切なファイル用 sda2 + sdb2 で RAID0 // 大容量データ用 という構成を作ろうかと思っているのですが、異なる構成を組み合わ せて、HDDを使うというのは、特に問題ないものなのでしょうか? こんな感じを想定しています mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[ab]1 mdadm --create /dev/md1 --level=0 --raid-devices=2 /dev/sd[ab]2
はやく3wareもPCI-E x8のカード出さんかな
さすがにA社やH社やP社とは違うな
質問です。raid初心者ですがお願いします。 80GのIDEのHDDが2台あまっていたのでraid組もうと思って、USBの箱に入れて、USBでPCに接続しました。 /dev/sdb /dev/sdcで認識されて、mdadmでraid1を組んで、/dev/md1にしたのですが、 これって、USB引っこ抜いて、他のPCにつないで、raidデバイスとして認識させることができるのでしょうか? 他のPCでも同様に 接続した後、 mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1 とすればresyncが始まって、md0として認識されますか? 内容消えてしまいませんか?
737 :
login:Penguin :2006/08/15(火) 18:47:47 ID:dxvqpFgi
createでは消えてしまうので mdadm --assemble /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1 でいけるのでしょうか?
>>737 手元に資料が無いのでうろ覚えで
キーワードを書いておく
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
vi /etc/mdadm/mdadm.conf
mdadm --assemble --scan
mdadmはpersistent-superblock強制On
>>738 ありがとうございます。
ネットで検索しても、再認識は、
mdadm --assemble --scan
あたりで行けてそうな感じでした
勉強してみます
741 :
login:Penguin :2006/08/20(日) 17:56:33 ID:K4SFziuk
>>629-630 上位にEVMSがあればEVMS上の仮想ディスクとして増設できるよー
/dev/evms/mdほにゃらら となっていればおk。
mdadmにOCE実装されるまでネタないのか・・・・。
ヤバイ( ゜Д゜) なんか鯖からメール来たなと思ったら # cat /proc/mdstat Personalities : [raid5] read_ahead 1024 sectors md1 : active raid5 ide/host0/bus0/target0/lun0/part1[0] ide/host0/bus0/target1/l un0/part1[2] ide/host1/bus0/target0/lun0/part1[1] 361871808 blocks level 5, 8k chunk, algorithm 2 [4/3] [UUU_] unused devices: <none> 来週末までスペアHDD買いにいけんぞ(((((((;:;゜Д゜)))))
最近のHDDは一気に全体がおっ死んだりする事よりも 一部にエラーが生じるだけの事がはるかに多いよな。 そしてゼロクリアしてやれば何事も無かったかのように復活する。 だからHDD全体をひとつのRAIDにするんじゃなくて、 数個〜十数個のパーティションに区切ってからそれぞれをRAIDにして、 LVMでそれをまとめるほうがいいんじゃなかろうか?
(管理ユーティリティ?の)実装よろぴく
EVMS
>>743 キタね。リビルドかける時は扇風機当てながらを強くすすめるよ。あとできれば大事なデータは事前にPCに待避。
あとは祈る気持ちでadd /dev/sd?だ
>>744 Linuxって、mdをPVとしてLVM組めるんでしたっけ?
調べてないから分からないけど、mdとLVMは排他利用かと思い込んでた。
>>748 md->LVM->iSCSI->LVM って試したことあるから大丈夫
LinuxのiSCSIのtargetって実用に耐える?
>>750 MicrosoftのInitiatorから使った範囲では大丈夫だったよ。
でも、タイムアウトとか転送エラーが起きたときの回復がだめっぽい。
>>748 普通にできるよん。mdとLVMは層が違うと思う。
753 :
748 :2006/08/31(木) 20:59:30 ID:LhE+7E2I
なるほど。
mdとLVMって排他じゃなかったんですね。
なんで理由は分からないけど、排他利用だと思い込んでました。
そうなると
>>744 の案はいいなぁと思ったり。
ただ私のファイルサーバのCPUはP3-500なので・・・。
Disk*6を複数のRAID5 mdに分割して、それを更にLVMすると
重そう。。。
10で
250GBx6でRAID5を組んでる、お客様の所へいった 250x3がRAID5で、残り3がホットスワップだった・・・ これ構築したSWの顔が見てみたい・・・
SWって何の略?
きっとソフトウェアエンジニアの略だとエスパーレス。
もしかするとSIerのことを言いたかったのかと。 それと、意味不明なホットスワップは、ホットスペアの ことを言いたかったのかと。
>>756 ホットスワップ?
ホットスタンバイでは?
間違ってたらゴメン。
おまえらの所に言語障害のある営業が来たらどうする?
鉄拳で追い返します っていうか「追い返したい」です… なんとかしてくれよ…
>>756 用語を間違えて書き込みをする、君の顔が見てみたい・・・
アッー!
ほんで「SW」って何?
Single Word
Store Word
ShortWave
Samui Womaera
Sorya Warukatta
>756はちゃんと間違いを認めてるからいいとして、 その後に続いて粘着しているバカどもはなんとか ならんものかな。
とっくに終息した話題をむしかえす貴方も(ry
携帯でスミマセン md6とmd7で2組のRAID5を動かしてますが、 誤ってmd6をinactiveにしたままmdadm.confを書き換えてしまいました。 uuidは残ってたので、それをアテにしてactive化しようとしたけど、 見つからないと言われます。 (mdadm -A /dev/md6 -uuid=略 --run) confファイル作り直して mdadm -As も×。 >737-738は後ほどやってみるつもりですが、 こういうケースって、md6は復元不可でアボーンですかね…
777 :
766 :2006/09/06(水) 15:46:42 ID:CGhg13A8
どうやらデータ失ったようです。 >738の通りやってみたら、、 アレイの構成がめちゃめちゃに… md7が2人いて、それぞれ別のuuidが。 さらにmd6のうち2台が見たことないuuidに。 mdadm.confを手動で修正したのがまずかったか。 550GBがパァ(゚∀゚ )
mdadm.confを晒してみ。 あと、最新のmdadm --examine --scanの結果も。 誰かアドバイスくれるかも。
779 :
776 :2006/09/06(水) 22:22:36 ID:KHRUbsTj
実はもう現状維持してないんです。。orz やったことをまとめると、、 1.md6はすでに構築済みでデータ満載、ここに新たにmd7を構築 2.md6をアクティブにしないままmdadm.confへ構成をリダイレクトしてしまった 3.mdadm.confには当然md7の情報だけ 4.コンソールのバッファにmd6のuuidが残ってたので、それを使って 手動でmdadm.confを作ってから# mdadm -As。するとドライブ1つしか生きてない警告。 activeにできず。mdstatで見えはしたが、ステータスは「0」 5.そこからいろいろやってしまった! 手動でmdadm.conf編集したのが間違い。 もうアフォそのものだ。1からやり直します。 とりあえず、いじりまくった後の--examine --scanです 意味ないと思うけど。 # mdadm --examine --scan ARRAY /dev/md6 level=raid5 num-devices=3 UUID=99247a81:略 devices=/dev/sdd5 ARRAY /dev/md7 level=raid5 num-devices=3 UUID=19f65117:略 devices=/dev/sdf5,/dev/sde5 最初、上記のmd7のdevicesに、/dev/sdh5もいました。 さらにこの下にmd7がもう1つあって、devices=/dev/sdg5でした。 元々のmd6は/dev/sdd5, /dev/sde5, /dev/sdf5、 今回構築したmd7は/dev/sdb5, /dev/sdg5, /dev/sdh5 としてました。 まぁ、mdadm.confのバックアップもまともに取ってなかった。 いい勉強だorz
780 :
776 :2006/09/08(金) 00:39:16 ID:23MG2IUo
何度も申し訳ないが、最後のあがきとして、、 「既に設定されているuuidを(強制的にでも)書き換える」 ってことはできるんでしょうか。 元々稼働していたmd6をもう一度(強制的に)稼働させてみたいなぁと思ってます。 どんな動きをするんだろうかという実験も込めて。 “--zero-superblock”というスイッチでallゼロに出来るのは見たんだけど。。 >779の通り /dev/sdd5, /dev/sde5, /dev/sdf5 の3基を無理矢理にでも稼働させたい。 sdd5は無傷(uuidが変わってない)なので、 (uuidが変わってしまった)sde5かsdf5の中身が破壊されていなければ、 リビルド可能なのではないかと。 現状だと、uuidが異なるので--runオプション付けて activeにしようとしても、「1ドライブじゃ動けないよ」と怒られるのです。 uuidではなく直接3台のデバイスを指定して # mdadm --assemble /dev/md6 --run /dev/sdd5 /dev/sde5 /dev/sdf5 とやっても、ちゃんとuuidを見ているのか、丁寧に同じエラー吐かれます。。 最後の悪あがきなので、ageさせてw 復活できなければ、なんかの実験台にするのでリクエストよろw
ここは--force --zero-superblockで
manは絶対に読みたくないわけね
>782 英語わからねorz なのでmdadmをググって最初に出てきたページで和訳を。。
785 :
783 :2006/09/09(土) 13:37:23 ID:9GzHpXwj
>784 そこの最初のページで和訳を読んだんです。 で、uuidを更新するとかクリアするオプションとか試してるけど、 いずれも。。 結局、uuidを任意に変更とか、意識しないでRAID再編成するとかは 無理っぽいです。BUILDモードとかCREATEモードだと、初期化しますよね。 まだ残ってるかもしれないデータを、superblockのせいで犠牲にするのは なんかくやしい。。
mdadmって--really-force --dangerous-no-resyncみたいのねえの?
本当に無理矢理変えたきゃバイナリエディタで操作すればいい。 uuidは64Kバウンダリの最後のブロックにあるpersistent superblockに書かれている。
最新のカーネルってソフトウェアでRAID6まで対応してますか? ずっとソフトウェアRAID5で安定して動いてましたが 実用レベルに達してるのであれば6を試してみようかと…
2.6以降で使える
即レストンクス 検証してみます
>>790 mdadm使うんなら、RAID5時との速度差、CPU負荷なんかもレポしてくれると嬉しい。
>>792 3ware
最高だよな値段以外は...
しばらくぶりに3wareサイトのぞいたら
キャッシュバック対象だった...
ありがとう
>>786 自分もmdadm使い出したばかりなんだけど --really-force --dangerous-no-resync
みたいな最後の手段が提供されてなさそうなのが気になっている
raidtoolsも入れといたほうがいいのかなぁ
>>794 --dangerous-no-resync のように、とにかくRAIDとして結合する
機能はforceには無さそうですが
そうですか。assembleをforceしたから上手くいったのかと思っていたが、 その前にがちゃがちゃやってたのが効いたのかな
>>792 DOSパラで扱ってたのか・・・・・印象的に意外すぎて驚き。
1ポート1万のRAIDカードなんて、うざーずと一部の通販位しか扱わないと思ってた。
Adaptecの同価格帯製品でさえ、最近は店頭に置かれてないし
>>798 >DOSパラで扱ってたのか・・・・・印象的に意外すぎて驚き。
昔はそうでもなかったけどね。
どこにも置いてなかった(ぷらっとぐらいにはあっただろうけど)
Hayes ESP買ったのがDOSパラだったな。
800 :
login:Penguin :2006/09/21(木) 10:05:57 ID:+ASx4z1g
ズサ━━━━⊂(゚Д゚⊂⌒`つ≡≡≡━━━━!!800げと
>795 --forceも--runも無理です。 mdadmは必ずsuperblock見に行くようです
--zero-superblockするとか。
それはそれで怖いな
Writeキャッシュってオフっといたほうがいいんですか? ずっとautoにしてたけど…
まともなドライブなら心配ない。 まともじゃないドライブだとどっちみちデータは失われる。
806 :
804 :2006/09/24(日) 15:52:49 ID:SJCcYYIe
thx まぁそうっすよね。大人しくautoのままにします
>805 おまいさん悟りを開きすぎ。 現実世界のデータに興味ないだろ。
>>807 根拠の無い不安に囚われて効果があるかも必要かどうかも怪しい事をやるより、
他に為すべき事があるのを知ってるだけ。
格言集とか作れそうな人キタw
為すべき事=盛り塩
mdadmで作ったraidもraidtoolsからいじれるんだよね? 一応、--dangerous-no-resync用に raidtoolsも入れといたらOKじゃないかな
>802 superblockがないと言われるだけです >811 どうなんでしょ、もう諦めてcreateしちゃいました。 まだ空きHDDあるので試してみますか
>>812 ぜひmdadmで作ったraidにraidtoolsが使えるか試してほしいです
特に 、--dangerous-no-resync と raidreconf はmdadmに
実装されてないみたいなので・・・
使えるよ RAID5/6でのパリティ配置アルゴリズムのデフォルトが違う点に気を付ければ
>RAID5/6でのパリティ配置アルゴリズムのデフォルト あ、違うんですか。あぶね・・ raidtoolsは現在稼動中のmd0とかから raidtabを生成する コマンドとかないのかな? mdadmにはあるみたいだけど、こっちはパリティ配置をmdadm.confに書き出しましたっけ?
>>815 lsraid -R -p
ただし、パリティ配置アルゴリズムだけは手動で書き込む必要がある。
書式はman raidtabを参考に。
>>816 lsraid -R -p でやると全部デバイスがFailedDevice になって /dev/null
になるみたい・・・
これがmdadmで作成したせいかどうかは不明
環境はFedoracore5でカーネル2.6.15
>>816 >lsraid -R -p でやると全部デバイスがFailedDevice になって /dev/null
と表示されます。
Fedoracore5でほかの人はいかがですか?
>>814 試してみました
結論としては残念ながら動きませんでした
raidreconfは fedoracore5ではあらゆる場合でもFailedしてツールが動きませんでした
これはraidをmkraidで作成した場合でもmdadmで作成した場合でも同様です
>RAID5/6でのパリティ配置アルゴリズムのデフォルトが違う点に気を付ければ
raidtoolsがraid6に対応してないので、まずraid5が前提となるようですね
>>801 遅レスだけど、mkraidの--dangerous-no-resync の代わりに
mdadmの--assume-clean が使えるんじゃないかと思うんだけど、どうだろう?
うお、そんなオプションもあるのか どうもmdadmは体系立てて勉強しないと駄目だな
823 :
821 :2006/10/03(火) 06:10:21 ID:a/KDMfi2
一応いろいろ試したので報告 mdadm -C /dev/md5 -l 6 -n /dev/sdc4 /dev/sdd4 /dev/sde4 /dev/sdf4 として、raid6の領域を作り >mdadm --manage /dev/md5 --fail /dev/sde4 >mdadm --manage /dev/md5 --fail /dev/sdf4 と崖っぷちの状態までもっていきます (検証なのでraidの冗長性でデータを保持できなくしておく) んでここで一度 mdadm --detail --scan>>/etc/mdadm とやって、raidの状態とuuidを記録 >mdadm --stop /dev/md5 してraidを停止 >mdadm --zero-superblock /dev/sdd4 してスーパーブロックを壊します んで、 >mdadm -A /dev/md5 -s mdadm: /dev/md5 assembled from 1 drive - not enough to start the array. でraidにできないのを確認したあとで >mdadm --stop /dev/md5 一応停止
824 :
821 :2006/10/03(火) 06:12:02 ID:a/KDMfi2
mdadm --create /dev/md5 -R -l 6 -n 4 /dev/sdc4 /dev/sdd4 missing missing とやってRAIDを強制認識させますと、 mdadm: /dev/sdc4 appears to be part of a raid array: level=raid6 devices=4 ctime=Tue Oct 3 05:49:11 2006 mdadm: array /dev/md5 started. となり、 /proc/mdstatをみると md5 : active raid6 sdd4[1] sdc4[0] 4032128 blocks level 6, 64k chunk, algorithm 2 [4/2] [UU__] というように復帰しております もちろんmountしてデータが存在するのは確認しました というわけで、uuidが壊れたディスクは一度 --zero-superblock でスーパーブロックを削除すればいいみたいですね 残念ながら任意のuuidをディスクに書き込んで、違うuuidの ディスクを --zero-superblockなしで結合する検証は できませんでしたので --assume-clean はその効果を試せ ませんでした 要するにディスク再構築時に必要なのはuuidじゃなくてデバイスの構成なので mdadm.confに DEVICE /dev/hdc4 /dev/hdd4 /dev/hde4 /dev/hdf4 ARRAY /dev/md5 level=raid6 num-devices=4 UUID=7931d1cc:176efc45:a024285b:4953a2af のようにDEVICE名を書いておくほうがいいかな?(崖っぷちに立った自分用) と思います
ものすごく乙。 じゃぁ、自分の環境でも回復できたかもしれないなー >mdadm --create /dev/md5 -R -l 6 -n 4 /dev/sdc4 /dev/sdd4 missing missing っていうやり方を知らなかった
>>649-
>>650 これってパリティー保護されたmdに対してやったとして
badblockがエラーなんか出すのかな?
md0の要素になっているHDDに対してやったほうがいいのかなと
思ったんですが、どうでしょうか?
# badblocks /dev/sda1
とかみたいに。
intent bitmaps WRITE-BEHIND /proc/sys/dev/raid/speed_limit_min /proc/sys/dev/raid/speed_limit_max とか増えてんなぁ
次期KernelではArecaのドライバが標準で付属するらしいな (・∀・)ワクワク
ASUSのM2N32(6PortSATA)にクロシコの SATA2I2-PCIeを3つつけて合計12個のSataを取り付けてみた 全部ソフトウェアRAID6で繋いで、RAID構築したら・・・・・ むちゃくちゃ重いぞっ! resyncに時間かかってもかまわんから、もーすこし手加減してresyncして くれないもんだろうかw resyncのプロセスの優先度を下げるとかそういう設定ってないかなぁ・・・
>>829 RAID6ってやっぱり重いですか。
確かにパリティーを2つも生成するから重いだろうとは思ってたけど。
俺はHDD*6でRAID5。
最初はRAID6もいいなと思ったけど、P3-500MHzだから諦めた。
んで、そちらはCPUは何使ってます?
Athlon64x2?
多分Raid6だから重いんじゃなくて、SATA2I2-PCIe3つに乗ってる6個の HDDへのデータ送信でPCIバスが埋まるから重いんじゃないかと思う この重さの特徴はCPUはさほど食ってない(20〜30%)のに重いこと 多分割り込みがかかりまくってるんじゃないかと推測するんだけど… CPUは Athron64 1500+ この構成でresync速度は10Mbpsくらい。3Tの領域のresyncに8h〜10h程度 正直、JCSとかのハードウェアRAIDの製品もRAID構築すると resync に8時間はみっちりかかるので、速度そのものには不満は ないんだけどね
なるほど。 割り込み多発ってのは言えますね。 PCI-exって、スロットとチップセットがP2Pで接続されているんじゃ なかったでしたっけ? PCIみたいに共有していなかったような気が。 もっともチップセット内が忙しいかもしれないですが。 そのあたりよく知らない&面白そうだから調べてみようっと。
>>829 そこれおこ dev.raid.speed_limit_max ではないか
>833 確かに! /proc/sys/dev/raid/speed_limit_max を変えればいいのだろうか? デフォでは200000 200Mbps(?) 8Mbps程度に落とせばシステム負荷が減るかも echo 8000 > /proc/sys/dev/raid/speed_limit_max でいいのかな
×そこれおこ ○それこそ どう打ち間違えたんだろ俺
836 :
login:Penguin :2006/10/11(水) 14:01:35 ID:djUOmg5I
俺の予想だと
>>837 はポートマルチプライヤとマルチレーンの区別がついてない
へー 知らなかった。9550SX Port Multiplier 使えるんすか。 買ってみようかなあ。
すみません、質問があります。 目視でHDDランプ確認が出来ない状況で、 ハードウェアRAIDでのRAID1で構成された2つのHDDのうち片方が破損した場合に、 破損したことを知る方法はあるのでしょうか。 ご存知の方がいましたら、教えていただけないでしょうか。 よろしくお願いします。
842 :
login:Penguin :2006/10/12(木) 18:22:49 ID:yN9X3Hl+
ハードウェアRAIDって何使ってんの? 3wareなら3dm2だな。
>>841 ドライバーによっては /proc 内にに情報吐き出してるのでそちらを参照する
RAIDって、組んで完了じゃなくて、運用までして完了だろ 破損ドライブの認識・通報・交換等の準備完了してないRAIDなんて意味が無い・・・・・
だからなに
そんなリキまなくても。
847 :
841 :2006/10/13(金) 13:56:26 ID:VBEjihVQ
>>842 >>843 ご回答ありがとうございます。
>>842 主に3wareを使っていますので、
3dm2でなんとかなりそうです。ありがとうございます。
>>843 ちょっと調べてみましたが、/proc以下にどのようにして吐き出されているか
わかりませんでした。
よろしければ、例えば、どういったファイルにどのようにしてログが
記載されるか、教えていただけないでしょうか。
>>847 それはハードウエアとそのデバイスドライバ次第。
Linuxにそういう規格標準があるわけではないので、
「どのハードウエアでもこうやれば確実にわかる」というものはないよ。
3wareなら/procにはなくてtw_cli経由でわかる。
ただし常に全セクタを見てくれてるわけではないので、数ヶ月に一回程度
アレイのベリファイとS.M.A.R.T.自己テストを行なって検査をする必要がある。
いずれもオンライン状態のまま実行できるので安心すれ。
SATA2I2-PCIe(クロシコ、sil3132)を3つ使って、 WD3200JSを3台(本番は6台)で、 mdadmでRAID5作って、 ●のCSE-M35T-1でHotSwapできた。 OSはFedoraCore5(x86_64、2.6.17-1.2187_FC5) mdadmは2.5.3-1 やったこと ・稼働中(cpとかアクセスあってもおk)にディスクを引っこ抜く ・/var/log/messagesに Oct 15 15:53:23 saba kernel: ata1: command timeout Oct 15 15:53:23 saba kernel: ata1: status=0x50 { DriveReady SeekComplete } Oct 15 15:53:23 saba kernel: sata_sil24 ata1: resetting controller... Oct 15 15:53:23 saba kernel: sda: Current: sense key: No Sense Oct 15 15:53:23 saba kernel: Additional sense: No additional sense information みたいなのが間欠的に出る。 (続く)
ここで # mdadm /dev/md0 --fail /dev/sda1 とする。 ・# cat /proc/mdstat Personalities : [raid5] [raid4] md0 : active raid5 sda1[3](F) sdc1[2] sdb1[1] 625137152 blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU] unused devices: <none> となるので、ここでHDDの交換(電源入れ、スピンアップ)。 (続く)
・# mdadm /dev/md0 --remove /dev/sda1 として一旦メンバの削除。 ・# mdadm /dev/md0 --add /dev/sda1 とする。 すぐにリビルドが始まる。 リビルド時間はメンバHDDの容量依存で、 メンバの数では無いっぽい。 WD3200JSだと(320GB)/(60MB/s)の計算でだいたい1.5Hかかる
# fdisk /dev/sda は? やらずにイケた?
ああ、やったわ。 タイミングは # mdadm /dev/md0 --remove /dev/sda1 の後。 fdiskのpコマンドで Device Boot Start End Blocks Id System /dev/sda1 1 38913 312568641 fd Linux raid autodetect であれば良いと思う。
ほっほー じゃぁおれもやってみ…カーネルが2.4だorz
上でHDDに障害が起きたら、ということで書いたけど、
特に起きてなくても以下の手順でHotSwapできた。
SwapしたいHDDをsdbとして、
# mdadm /dev/md0 --fail /dev/sdb1
# mdadm /dev/md0 --remove /dev/sdb1
ここで交換。
# fdisk /dev/sdb
# mdadm /dev/md0 --add /dev/sdb1
リビルドで終り。
>>854 2.6にしなよ…
>>849 libATAか、sii純正ドライバ入れたか教えてくれないかな。
sii3124でhotswapしてるんだけど、FC5標準でいけるかどうか知りたい。
>>856 FC5純正のsata_sil24だよ。
sil3124も↑でおkだと思う。
858 :
841 :2006/10/16(月) 12:58:33 ID:xmdtLzgM
>>857 thx、うちFC3なんだけどその時はlibATA対応してなかったんだよなー・・・・。
今は標準でhotplugもokとは羨ましい限りだ・・・。
>>859 mdadmとカーネルの2つを新しくすれば
ディストリには依存しない気がするね…
変なパッチが当たってなければな
kernel 2.6.18だと、Software RAID(RAID5)の構築時間が2倍以上かかるんだけど、なぜ?
864 :
login:Penguin :2006/10/21(土) 03:56:55 ID:3MdlDsR1
MegaRAIDのハードウェアRAIDを使用しています。 ホットスペアを設定しているのですが、自動リビルドがかからないようです。 Media Error Count=2, Other Error Count=6 となっているのですが、これはどういう状態でしょうか?
>>864 AdapterメニューのRebuildがONになっていますか?
>Media Error Count=2, Other Error Count=6
それはONLINEステータスのHDDのことですか?
それともFAILステータスのHDDのことですか?
もしONLINEのHDDでそのカウントであれば、リビルドを行わずに
最初にデータをバックアップした方がいいです。
たいていリビルドに失敗して、データを失います。
どうしてもリビルドしたいならば、FAIL HDDのところでEnterを押して
出てくるメニューからリビルドを選択すればいいです。
なおこの場合は、BIOSからリビルドしたほうがいいです。
もしエラーが上がっているHDDがFAILになってリビルド失敗したとしても
そのHDDをMAKE ONLINEしてあげればデータが読めることが多いからです。
恐らくSCSIのmegaraidを使ってるんだと思うが、 SCSIのmegaraidの場合、scsiのエラー情報をそのまま吐き出してくれる。 (もちろん、モニタリングできる状態になっていればの場合だが) エラーカウントはmegaraidが独自にカウントしているもので、 エラーの発生状況によりカウントされ、メディアが交換されるまで蓄積される。 エラーの判断・詳細についてはSCSIの規格を熟読すべし。 あと、HDDはエラーが発生するもの だということもお忘れなく。 「データ書き込みのリトライを行う事で回避」できるような軽度のものから、 「ヘッドが動かねぇぞゴルァ!」といった重度のものまで、様々な種類がある。 それらが全てSCSIの基準で出てくるので、・・・・・・以下略。 SCSIのメッセージが読めれば、勝手な解釈で何がおきているかわからないシステムより扱いやすいよ。
867 :
864 :2006/10/21(土) 13:21:17 ID:3MdlDsR1
>>865 エラーが出てるんですが、FAILステータスにならない状態です。
FAILにならないので、ホットスペアもリビルドしてくれない、という感じです。
>>866 SCSI関連の勉強してみます。
ありがとうございます
>>867 エラーが上がっているドライブは1台だけで、他はエラーが無くて
言いたいことは、エラーが上がっているドライブの保全交換をしたいということでOKですか?
それなら、そのドライブでEnterを押して、FAIL DRIVEを選択すれば強制的に
FAILにできますよ。
FAIL DRIVEを自分でやった場合、ホットスペアへのリビルドは実行されないハズなので
HDDを素直に交換してください。
そうすればしばらくした後でリビルドが自動的に実行されます。
869 :
864 :2006/10/21(土) 22:27:24 ID:3MdlDsR1
>>868 ありがとうございます。
教えて頂いた手順でOKでした。
870 :
863 :2006/10/22(日) 03:38:47 ID:D64bGTal
>>869 無事にHDD交換が完了したようで、よかったですね。
ところでどなたか
>>863 の情報をお持ちじゃないですか?
まだ先の話なんで急いではないんですけど、こういう作業を経験した方が
いたら、Help me!!!!!!!!
mdadm version 2.5.5 テスト中。 4時間ほどだが、モーレツな負荷をかけてもいまだコケない。 2.5.4までは かなりの確立でコケテたんだが・・・・ 朝までいけるか・・・・
872 :
login:Penguin :2006/10/25(水) 19:36:10 ID:Mrmqi6fW
/dev/md作った時の最初のしばきテストってどんな感じでやればいい?
873 :
login:Penguin :2006/10/25(水) 19:37:38 ID:Mrmqi6fW
>>844 RAIDやばすって時の通報ってどうしてる?
携帯とかに飛ばしてみたいけど
smartdも使った方が良いんだろうけど
>>873 smart あてになんないでしょ
警告はきながら何年も動いてたりするし、警告なしにいきなりこわれたりするし
mdadm --monitor
/ も /boot もソフトウェア RAID (RAID1) で構成して 導入できるディストリビューションってありませんか? そもそもブートシーケンスで必要となるようなファイル群を ソフトウェアRAIDに置こうとすること自体が大きな誤りなのでしょうか?
>>877 Red Hat系はどれでも出来ますよ。
Fedora Coreはバージョンによってはインストーラにバグがあるけど、
Fedora Core 5 や 6はGRUBを適切にインストールしてくれる。
実機だと怖いのとまだ LVM や RAID の扱いに慣れていないので、 VMware (Player) でやってみました。とりあえずネットワーク インストールのイメージが手元にあった Debian Etch では GRUB も自動で設定してくれました。実際にはもう少ししてから Fedora Core 6 でファイルサーバをたてようとしています。 GRUB では (hd0,0) からカーネルイメージを引っ張ってくるように なっているんですが、実際にはこのパーティションは RAID1 の 構成要素なので、GRUB が Linux RAID の中身を認識できるってことなんですね。 というか RAID1 だからこういう芸当ができるのかな? RAID5 でもやってみようっと、VMware って実験が楽だなぁ。 カーネルオプションでは /dev/md0 がルートデバイスとしてマウント されるようになっていました。最初から md が有効になるのか。 ブート時には degraded な片肺飛行で、完全にブートしてから強制的に 同期を掛ける必要があるのかもとか危惧していました。
>GRUB が Linux RAID の中身を認識できる してない RAID1だから出来る芸当(カーネルを置いてる/bootに関してだけ言えば)
>>880 GRUB は RAID1 の一部だってことを知らずに
今まで通りのパーティションだと思って見てただけなんですね。
ところで、Debian GNU/Linux Etch を RAID1 にインストール 下のですが、/etc/raidtab がありません。かわりに /etc/mdadm/mdadm.conf があるようです。 raidtab というのは廃止されたのでしょうか? もしかして私の Linux Software RAID に関する認識が浦島太郎状態ですか?
>>882 廃止されました。
ていうかもともとカーネルのmdデバイスはraidtabを必要としません。
raidtoolが使われなくなるとともに、その設定ファイルraidtabは姿を消しました。
しかしmdadmはraidtoolの機能の全てを提供しているわけではないので
raidtoolには今でも根強いファンが居て時々コンサートが開催されています。
Linux 2.6.18.1 10/28/06 avg-cpu: %user %nice %system %iowait %idle 2.48 0.00 23.54 41.41 32.56 Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util sdb 326.55 1306.19 21.77 87.08 2786.55 11146.20 1393.28 5573.10 127.99 0.34 3.11 3.11 33.84 sdc 326.55 1306.19 21.77 87.08 2786.54 11146.20 1393.27 5573.10 127.99 0.34 3.15 3.15 34.28 sdd 326.55 1306.19 21.77 87.08 2786.54 11146.20 1393.27 5573.10 127.99 0.35 3.24 3.23 35.21 md0 0.00 0.00 0.00 130.62 0.00 16719.25 0.00 8359.62 128.00 0.00 0.00 0.00 0.00 badblocks -w でしばき中だが、SATAチャネル使い切ってねぇぇぇぇぇ。
Linux Software RAID で RAID1 にしてます。 /dev/hda1 と /dev/hdb1 で RAID1 にしていたのですが、 /dev/hda1 と /dev/hdc1 のほうが別チャネルで具合よかろうと思って つなぎ変えたら、その後毎回ブート後に mdadm --build -n 2 -l 1 /dev/md0 /dev/hda1 /dev/hdc1 としなくてはアレイになってくれなくなりました。 autodetect ってなんかシグネチャみたいなのを見て カーネルがよきに計らってくれるんだよね?なんて 甘く見ていたのですが、甘かったようです。 一度 degrate してから add すべきでしょうか?
>>885 は Debian GNU/Linux での話です。
ブートシーケンス中に initramfs 内の busybox でとまるので、
そこで mdadm でいろいろといじってます。どうやらうまく
動かない原因は initramfs 内の /etc/mdadm/mdadm.conf の
せいらしいので、これを書き換えたいんですが、
そもそもシステムが立ち上がらん・・・mkinitrd できん。
Debian スレに行きます。
ディスク全体をmdやdmの要素とすると、パーティションのチェックのときに カーネルが落ちることがあるみたいやね。パッチが流れてる。
>>887 安全面からはとりあえずディスク丸ごとの
パーティションを確保して、それをアレイに加えたほうがいいのか。
ところで、昔どこかのメーリングリストで、Linux Software RAID と
ext3 のジャーナルの相性が悪いとかなんか注意点を見た気がするんだが、
今でも何か注意すべきことある?
>>885-886 > ブートシーケンス中に initramfs 内の busybox でとまるので、
似たトラブルに遭遇した
これから対処するけど、多分
>>885-886 の参考にはならないと思う
以上、debianスレとマルチ
890 :
885 :2006/11/10(金) 09:58:36 ID:4JBe11uN
参考にならないのかよ!!Σ( ̄口 ̄;
>>888 普通に使えてる。
そもそもバグがあれば治すだろ。
ファイルシステムに根拠の無いいちゃもん付けてる奴はたいていキチガイだから気にするな。
OS: Centos4.4 x86_64
RAID板: Adaptec 1420SA (SATA II)
で、RAID1を構築して/homeに割り当てようと思い、
1. RAID板をPCに装着、HDDを2発搭載し、板のBIOS上のツールでRAID1を構築する
2. M/Bに別のSATA 0portに別のHDDを搭載
3. [1]のRAID板は無視してCentOSインストール(M/B上のHDDに全部インストール)
4.
ttp://www.adaptec.com/en-US/speed/raid/aar/linux/aar81xx-rhel4-b11949_tar_gz.htm で配布してるドライバのRHEL4 x86_64のqu4用のrpmをインストール(何の問題もなくfinish)
5. この時点で、RAID板上のHDD達は/dev/sab /dev/sdc として見えている(on 論理ボリュームマネージャ)
6./etc/hostsを設定し127.0.0.1から自ホストを消し、自ホスト用の適切なエントリの行を追加
7. GUIでのアレイ管理ツールStorMan(4.00)をインストール
(Readmeに書かれている、必要なパッケージはすべてインストール済み)
8.StorMan起動、自ホストに接続、rootパスワード入力、認証完了
9.しかし、画面下部のNo controller found といわれる、もちろんStorAgentは起動している
10.仕方なしに、[1]で構築したはずのアレイのソースドライブ /dev/sdc にfdiskで
パーティション作成、/dev/sdc1にext3でファイルシステム構築
11./homeから/dev/sdc1にデータ移行
12.fstabを書き換えて/dev/sdc1を/homeにマウントするように設定
という状況です。実際には1〜11にいたるまで、かなり試行錯誤していまが
つまり、RAIDとして機能していないっぽい状態なのです。
どなたか、同じような状況に遭遇したり、また回避方法をご存知の方はいらっしゃらないでしょうか?
まずエスパーを探してください
アダ( ´,_ゝ`)プッ に期待しないでください
debian-sargeの2.6.8-3-386を使用しています。 久々に電源を入れなおしたところ、 再同期が始まってしまいました。 4つのディスクのどれかが脱落したようにも見えないのですが、 同期外れもなしに再同期が始まるときって どういう場合なんでしょうか? >cat /proc/mdstat Personalities : [raid5] md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1] 732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU] [>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec unused devices: <none>
>>892 adapのSATAカード買ったのが間違いだ、諦めなさい
897 :
889 :2006/11/10(金) 23:46:09 ID:+NIOVjLE
>これから対処するけど、 全然対処できてない。敗北寸前 raid でない普通のパーティションからブートして、md2、md3、md4 というデバイスを作ったつもりなんだが、 md2にコピーしたシステムを立ち上げると、それぞれ md0、md1、md2 と名前が変わってしまう md2 の中の /etc/raidtab やら /etc/mdadm/mdadm.conf とかはちゃんと設定されてるんだけどね ブート時のことだから、/boot/initrd.img-2.6.19 が原因な気するが、どうなんだろう sysfs, proc, udev を一度止めてから /dev/md2 をマウントした場所に chroot して、sysfs やらを再起動して、initrd.img 作って lilo すればいいんだろうか? 直接 initrd.img の中身を弄った方が早いんだろうか? md0、md1、md2 に合わせれば動くかも知れないけど、それぞれ止めたり、消したりする可能性があるから、どうしもて自分で決めた名前固定で起動させたい もうちっと調べてみるか
898 :
892 :2006/11/11(土) 00:18:04 ID:8las3d+V
>>893 >>894 >>896 やっぱりそうなるわねぇ。。。
カーネルがサポートしてくれるまで、現状で行くことにします。。
しかし、俺は、ここにエスパーが居るのだと、ここにエスパーが居るのだと、
俺は信じていた!
>>898 とりあえず initrd.img のなかみを見てみようとはおもわないのか?
900 :
892 :2006/11/11(土) 02:11:48 ID:8las3d+V
>>898 initrd.imgというものの存在を、今はじめて知った。
現在ではシステム起動時に読み込むべきデバイスドライバのリスト
という認識です。もうちょっと、勉強して出直します。
ありがとうございました
>>900 圧縮解いてループバックでマウントすれば簡単にみられるよ
CentOSはcpio+gzipじゃないかな
>>895 確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。
mdadm --detail で RAID5 のアレイを見てみる。 普通は State : clean 。一つアレイを failed としてマークすると State : clean, degraded 。これはまぁわかる。 もう一つアレイを failed としてマークすると アレイとしては機能しなくなるよね? でも相変わらず State: clean, degraded 。 アレイとして機能できなくなったらその旨分かる方がいいと思うんだけどな。 Debian GNU/Linux 4.0 (Etch) です。
RAID6 は Reed-Solomon ?
>>906 いやそれはわかってるんだけど、
Linux の Software RAID は
どういう方式なのかなぁと思って。
Debian GNU/Linux 3.1 でRAID5使ってますが整合性のチェックってどうすればいいんでしょうか? 各ドライブごとにbadblocksを実行したとしても、エラーが出たとき修復してくれるものでしょうか?
mdadmでSoftware RAID(SATA5台ホットスワップなし)を構築してたんですが、
うち1台のHDDが勝手にremoveされ、
しばらくして、その状態でSATAカードの(removeされたヤツと別のHDDの)ポートが1つ死んでしまいました。
カードに生きてるポートがあったので、ポートが死んだほうのHDD差し直したのですがダメ。
assenbleオプションをたたいてみましたが、 該当ドライブのSuperBlockが無いといわれます。
そこで、
>>824 のようにやってみようと思うのですが、--createは怖くて躊躇してます。
--assume-cleanなんかで出来ないでしょうか?
一応、4台同じドライブを用意して、「これdo台」でHDDをコピーしてやろうと思ってますが・・・
LinuxのソフトウェアRAIDって、ステータスを強引に書き換えることが
できないってのが問題よね。
>>909 の問題だって、ポート不良でステータスがFAILになったHDDを
なんとかして正常にできれば、それだけで問題が解決するもんね。
mdadmでステータスをOptimalか何かに書き換えるオプションが
新設されればいいんだけどなぁ。
>>908 2.6.16カーネル以降なら
echo check > /sys/block/mdX/md/sync_action
でチェックしてくれるそうだ
自分でカーネルをコンパイルするか、backports.orgのカーネルを入れるか
etchに上げればいい。
etchのmdadmなら毎月第1日曜の朝に自動でやってくれるみたい。
>>909 ポートを変えるとデバイス名(sd*)がもとのと変わると思うけど、それは、問題ないのかなぁ?
あと、mdadmで今度はデバイス名が同じでアダプタが変わる(たとえばsil3124→ICH7)
とかは問題ないのかなぁ?
ちょっと、横レスですいません・・・
>>911 貴重な情報ありがとうございます。
どうも2.6.14くらいからサポートされているみたいですね。
sata_sil24ってドライバを使うために2.6.15-1にしたのですが
md1 : active raid5 hda5[0] hdg5[3] hde5[2] hdc5[1]
476648064 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.1% (6519296/158882688) finish=121.5min speed=20893K/sec
こんな感じで2時間くらいかかりそうです
>>909 assemble + force でなんとかなった気がするんだが。
917 :
login:Penguin :2006/12/03(日) 01:27:07 ID:18r037ES
LinuxではソフトウェアRAIDの品質が悪いので、エンタープライズ用途では 必ずハードウェアRAIDを使えといわれました。本当?
>>917 何がどう悪いのか指摘できなければそれはただのFUD。
エンタープライズ用途って言われるとなぁ。 そのクラスになると、FC接続のH/W RAIDが普通だからねえ・・・ LinuxのS/W RAIDの質が悪いからH/W RAIDにしろっていう 話じゃないと思うよ。
Unixだと、OS領域がS/W RAID(DiskSuite、MirrorDisk、VxVMなど)って言うのはごく普通。 Linux(x86)の場合は、ハードウェアが安いんだから、H/W RAIDぐらい積んでおくのが普通。 LinuxでOS領域をS/W RAID(md:不安定かつ扱いが面倒)にするのは愚の骨頂。
『普通』の範囲が広杉。
ハードRAIDマンセーなのが結構いるけど、頭悪いなあとは思う。 ソフトRAIDにはホストカードを選ばないから構成が柔軟とか、機能拡張がぼんぼん後付出来るとかメリットはあるよね。 ハードRAIDは面倒が無くて(語弊ありそうだけど)定期チェックも勝手にやってくれるし、何より速いわけで。 個人ならとりあえずmdadm程度で充分だよほんと。 うちは再来年のシステム更新ではAreca買うだろうけど。今は3124*2にmdadmで十二分に役割果たしてる。
PCIのカードという意味でのハードウェアRAIDなら、 オレはソフトウェアRAIDを使うなぁ。 そのカードが壊れたときのことを考えるとガクブル。 同じメーカーの上位製品だからと言って差し替え可能とは限らんし。 タマが生きてるのにデータは全部パーなんて目も当てられん。 エンタープライズ用途というならファイバチャネルで つながってるストレージ製品で、それは確かに 「ハードウェアRAID」だけど、それはもう単体製品で、 中身がどうなってるかなんて把握する必要ないからな。 SAN ストレージ製品 > Software RAID > RAID カード
単体製品になってたらコントローラが死んだ時の考慮はしないのか? まともな製品・メーカーなら、RAIDカードでも修理・交換効くと思うけどなー SW-RAIDの場合、速度的な物と、ユーザ操作によるRAID処理層とデバイス処理層の混在・手違いが怖いかな HW-RAIDの場合は、FS→デバイスドライバ→RAID処理になるけど、SW-RAIDの場合は、FS→RAID処理→デバイスドライバになるし。
OS領域とデータ領域では求められる要件が違うし。 OS領域なら、速度はそれほど重要ではないし、記録されているデータもOSだから、 最悪全部パーでもなんとかなるだろ?システムリカバリテープから戻すか、それでもだめなら再構築が効くんだから。 保守性・可用性を考えたら、LinuxのおこちゃまランチレベルのS/W RAIDつかうくらいなら、H/W RAIDの方がいいじゃん。
はいはい どこが不安定だかぐらい説明しな頑固頭
自宅のファイルサーバでmd使ってる。 稼動状況から不安定だとは思わないけど、管理面が弱いよね。 HDDを不良にするのに # mdadm --manage /dev/md0 --fail /dev/sda1 ができるくせに 不良のステータスが付いたHDDをONLINEにするための # mdadm --manage /dev/md0 --online /dev/sda1 みたいなオプションが存在しないのがキライ。 SATAケーブルが抜けたりとか、コントローラ不良でHDD見えなくなること だってあるじゃんかよ〜って思う。
>>928 その用途なら、--removeして--addし直せば足りるんじゃないの?
ストレージが持っているようなスプリット/ミラーのことを言っているのなら、Linuxのmdでは出来ないね。
Linuxで/ をミラー化した場合、
コマンドレベルでは、オンラインでディスクの入れ換えはできるけど、
ブートローダの設定が必要だったり、ブートフラグを立てたり、場合によってはinitrdの再作成など、
落とし穴がてんこ盛りなんで、次に起動したときにきちんとミラーができているかの確認のために
結局再起動が必要になる。
ボクの股間が再起動しません
>>929 1台のHDDが認識不良になったならば、それでもいいんですけど。
複数本のSATAケーブルが抜けたりとか、Sil3114に接続したHDDで
Sil3114が壊れたときとかが心配。
要するに、不良原因がHDDではないのにHDDのステータスが
Failになったときに、ステータスをOnlineに戻せないのが困る。
>>929 initrd を作り直すのがうまくいってなくて、
ブートできなくなったことがあるな。
原因が分かっているから何とかなったけど、
ブートシーケンスを余り理解していない管理者なら
パニックになっていたかも知れん。
935 :
909 :2006/12/03(日) 23:42:09 ID:SpyI8KUR
>>931 --assume-cleanに--force付けると、ダメだったHDDも作成日時が表示されて、
リビルド無しに、md0がclearステータスに。でも、マウント出来ません・・・
ちなみに、別の検証環境で
>>824 をやってみましたが、
同じように、マウントが出来ない・・・何か、間違ってるんでしょうか?
>>935 --assume-cleanなんてオプションがあるんですね。
ググっても出てこないし・・・。
....マニュアルよめよ。
マウントはfsckが済んでからダロ、こういう場合‥‥
mount中のfsにfsckかけたら、fsが持ってるバッファ・キャッシュと整合性が取れなくなってfs吹っ飛ぶだろ
リードオンリーでかけるんだ!
mountがデキナイって話をしてるンダヨ、キミタチ。 吹っ飛んダラ、ソレはソレでイイ勉強。
うち、間違えてRAID5で抜き差しするのまちがえてfaulty2台にしちゃって、
あちゃーってなったんだけど、
>>310 の試してみたらあっさり再mountで読めるようになった・・・。
writeは怖いからしないで、とりあえずreadだけしてみるつもりだけど、これ上手く行く原理がわからんなあ。
ファイルシステムとパリティの部分ってのは完全に分離してる証拠ってことなのかなー。
詳しい人解説お願いしたい。
>>942 オレなら mdadm で --assemble -force かなぁ。
944 :
login:Penguin :2006/12/18(月) 16:55:13 ID:8Zzhs9Ig
945 :
944 :2006/12/18(月) 16:57:11 ID:8Zzhs9Ig
上記のカードでRAID1を作り、CentOS4.4のbootドライブとして使用します。 ドライバー付属のマニュアルの通りに作業を行っても、インストール画面で 2つに別れたドライブのままになります。 ドライバのインストールは、インストーラーで「linux dd」から始める方法ではなく、 「linux noprobe」で始め、[Ctrl]-[Alt]-[F2]でコマンドラインからスクリプトを実行 します。しかしドライバはRHEL用で、中でカーネルのバージョンをチェックしており、 そのためにうまく動作していないようなのですが・・・。 また他に、CentOS4.4で「linux dd」のような簡易な方法でドライバ組み込みが可能な安価な ソフトウェアraidカードがあったらご教示願えますでしょうか。
947 :
944 :2006/12/18(月) 17:54:00 ID:8Zzhs9Ig
>>946 その動作報告、SATA HDD 1台で使えたという記載しかなくないですか。
2台をRAID0なりRAID1なりで構成し、そこにOSをインストール出来たとは読めないように思うのですが。。
>そのコントローラならsata_silで動作するはず。
すいません。これはインストール時に何か特別な指定が必要ですか?
無知なのでポインタ頂けると助かります。
>>944 そのボードなら、946氏の言われるようにsata_silを使って
Debianのsarge、etchでRAID1の/bootにインストールした実績があります。
それぞれのカーネルは2.6.8、2.6.17でした。
CentOS独自の「インストール時の特別な指定」については、ここよりも
CentOSスレで聞いた方がよいのでは?
949 :
944 :2006/12/18(月) 22:29:08 ID:8Zzhs9Ig
>>948 ありがとうございます!
CentOSスレ行ってきます(その前に少し勉強します)。
安ボードのRAID1機能使うくらいだったらmd使ったほうが・・・というのは もう過去の話なの? 性能悪いわ、ボード変えたら互換性が、とか考えるとどうかと思うんだけど。
>>950 今でも真だと思う。
でもRAID1するならHWにしたいな。
仕事先→M/B上のIDEに普通に接続 自宅→ノート以外全台H/W-RAID1 体感速度でH/W-RAIDの方がかなり速い気がする。
953 :
944 :2006/12/19(火) 00:05:11 ID:8Zzhs9Ig
>>950 そのような気がします。が、面倒くさがりなもので。
RAID1でも互換性に問題がある場合があるとは聞いたことはありますが、そのようなボードに出会った事はないっす。
RAID1で運用していたHDDを外して直付けしても動作するものじゃないと、使いたくないですね。
>>952 それと大抵の安ボードは、CPUを使用するので似非H/W RAIDだと聞きます。
安いHW-RAID1というと、megaraidあたりが最低ライン?
RAID Unit買った方が 良いような気がするんですが。 ARAID99とか。。 ダメっすか?
956 :
952 :2006/12/19(火) 00:43:51 ID:8rGBHCUG
megaraid高くないか? 安いという理由で3ware使ってる。 それ以上安くなると似非H/W-RAIDっぽいし あと、arecaも使用中 個人的にはmegaraid好きだけどな。 慣れてないと扱いが難しいけど、慣れると安定性で敵無しな感じ
kernel 2.6.19でArecaのドライバがマージされたけど使ってる人いますか? Web用管理ツールの使い勝手等聞かせてください。
>>950 俺もmd派だなぁ。
ただの貧乏性なだけかも知れんが。
959 :
944 :2006/12/19(火) 17:51:47 ID:eqdaJ2qS
漏れは/だけH/WRAID IBMのserveRAID3Lに4.3GBのSCSIを使ってRAID1+0にスペア2にしてる 全部で\1500ほどだったw データは250GBのIDEx4のRAID5
961 :
944 :2006/12/19(火) 21:06:43 ID:eqdaJ2qS
>>961 そうSCSI6のIDE4で10スピンドル
ちなみに\1500はSCSI分のみだよ
serveRAIDが\300,DCAS43300だっけかが@\200
963 :
961 :2006/12/20(水) 02:43:54 ID:6Bh5T7wE
2.6系でも Software RAID って10ないのかな 10がリストに出ない(Fedoraのインスコ画面) 5,6あって10ないとか考えにくいんだが・・・
>>964 make menuconfigするとでてくるよ RAID10
2.6.19の時点でもEXPERIMENTALだからFedoraはサポートしてないってことでは
10自体は2.6.9で入ってる
>>965 なるほど、EXPERIMENTALだったんですか
動けばらっき、でやってみるです
激しく感謝m(_ _)m
RAID5,6の完成度も高くないからRAID10と大差ない。
Linux ソフトウェア RAID 6 って安心? RAID 5 には随分お世話になってて何度も救われているけど、 RAID 6 は初めてで RAID 5 に比べて何か特に 気を付けるところがあるか先輩諸氏に聞きたくて。
LinuxのソフトウェアRAID6ではP+Qはリカバリコードが実装されていません というのが1年前
971 :
952 :2006/12/22(金) 21:49:55 ID:cgEFLPxA
それって、 A+B+P+Q で、AとBの両方が死んでP+Qが残ったらアウトってか?
同じ6ならRAID5+1のほうがいいのか?
>972 なにが同じ6なんだよw 意味わかんね
LinuxのソフトウェアRAID6って、 Reed-Solomon?対角パリティ?
P がXORでQがリードソロモンか。
raidのメタデータバージョン 1.0 以降をつかっている人います? どんな感じでしょうか?
/dev/sda と /dev/sdb と2つ認識される謎はようやくこのスレを読んで分かりました。 ところで、BIOSから作成したRAID0をLinuxでmdadmを使って認識することは可能なのでしょうか? WindowsのシステムディスクをLinuxでddでイメージ化したいのです。 ちなみに、Sil3124を使っています。
このスレに出てくるdmraidを使う。
>>892 今日まったく同じ環境でインストールしたけど、すんなり動いたけどな
ちなみにインストール時にデバイスドライバをFDDで入れる方法
安い割に、速いので今後も使っていこうかな
新年早々やっちまいました。 raidtoolのraidreconfでスペアのHDDを追加しようと思ったんですが、 (この時点でraidreconfする必要があったのかも不明) 下のように記述ミスで実行しちまいました。 raiddev /dev/md0 raid-level 5 nr-raid-disks 4 nr-spare-disks 1 persistent-superblock 1 parity-algorithm left-symmetric chunk-size 4 device /dev/hde1 raid-disk 0 device /dev/hdf1 raid-disk 1 device /dev/hdg1 raid-disk 2 device /dev/hdh1 raid-disk 3 device /dev/hdb1 raid-disk 0 ←本当はspare-disk これってもう復旧不可なんでしょうか?
まず/proc/mdstat見(せ)ろ 話はそれからだ
うぉ〜早レスありがとうございます。 raidreconf終わって、raidstartすると Personalities : [raid5] read_ahead 1024 sectors md0 : active raid5 hdh1[3] hdg1[2] hdf1[1] hde1[0] 468744192 blocks level 5, 4k chunk, algorithm 2 [4/4] [UUUU] と一応正常っぽいんですが、mountしようとすると mount: 間違ったファイルシステムタイプ、不正なオプション、 /dev/md0 のスーパーブロックが不正、或いはファイルシステムのマウント が多すぎます って感じで、お決まりの文句が出てきます。