あ、あと1本抜いたまま電源入れたりしても駄目だから注意ね。
つか、そのレベルの知識しか持ってないヤツが
「ケースの取り替え」とか一体何考えてるんだ?
おとなしくメーカー製のPC使ってた方がいいと思うぞ。
自作したいなら、自力でモノを調べる技術をもちっと身につけんと。
ちょっと知識を覚え始めた奴に限って偉そうに言う法則
mdadm の RAID 5 の grow(アレイの拡張)機能なんだけど、
TBクラスのドライブを使った場合どれくらい時間が掛かるものでしょう?
ぐぐってみても二桁GBクラスのものの例しか見つからなくて。
例えば 70GB×3個→4個 の拡張で 3時間とか。
容量に比例して時間が掛かると思っていいのかな。
1TBドライブとすると70GBの約14倍として 3×14=42時間?
誰かTBクラスのHDDでgrowやった経験のある方いませんか?
あ、
>>628 に一例出てましたね。
CPU速度とかメモリの量にも依存するかな。
>921
なにより、使用状態に依存するだろう。
動いてるサーバとかだと極端に遅くなる。
>>938 小さいサイズでやってみりゃいいのに。
原理から考えてボリュームサイズに比例、後は他タスクの負荷しかないから予測できる。
>>942 ・小さいサイズの事例はネット上に沢山ある
・大容量のときは違いがあるのか(容量に比例なのか?)が知りたい
というのが質問の主旨なのですが?
・基本的にサイズに比例
・使用中だと非常に遅くなる
ということで理解しました。
ありがとうございます。
>>943 ちゃうちゃう。回答の1行目は
比例するかどうか小さいサイズでやってみて傾向をつかむ
って話。言葉不足は謝る。
てっきり、重要なのは事例よりオーダーってあたりをきちんと
理解していると思っていた。
しかしテストに使える
小さいサイズのHDDを3つも4つも
常に持ってる人がどれだけいるのかと
18GのSCSIならドミノ倒し出来るぐらい転がってるが
>>946 いいなぁ、うちには9GBと4GBしかない。
その後財布がヘタれて以来ATAですわ。
そういえば、サーバに入れてるSCSI16Gのハードディスク、ぼちぼち稼動10年だが結構もつもんだな。
ちなみに、RAID1とスタンバイ1つ。
>>948 実際に使ってる環境でどの程度時間が掛かるのかは
小さいサイズで試せば分かる、という話をしているときに
仮想環境でどうしろとw
debian raid6が起動できなくなりました。どなたか教えて下さい。
sudo mdadm -A /dev/md0 /dev/hdb1 /dev/sd[abcdef]1 --force --runを実行すると。
mdadm: /dev/sdd1 overrides previces devices due to good homehost
mdadm: /dev/sde1 overrides previces devices due to good homehost
mdadm: /dev/sdf1 overrides previces devices due to good homehost
mdadm: failed to RUN_ARRAY /dev/md0: Input/output error
mdadm: Not enough devices to start the array
どうしたらいいんでしょうか?
_,l;;;;;;;;;;;;;l,,_
,.r'´;: 八 '::..゙ヽ
,.'___ _立_ __;;ミ゙;、 フT
l厄巳厄 i王i ,.巳厄巳l 夕 ヒ
,.-'l i,.:' ヽ:.、 ;.:' ' ヽ |,.、
/{´iY´ヾーtッ-ヽ'' kーtr-,'´lri _l_
{_i,入::.. ` ̄ ̄,'i!ヽ;` ̄´ ゙::.}rリ i,_
ヽ_ノiヾ ;:. _ i': ll!:,ィ ._ .: j,ノ
ッジ::;;| ,r'´;;:> ̄弋´;;::ヽ;r1:゙'イィ ┬‐宀
弍::::::::l i':;r'´ ,.-ーー-、.ヾ;:;i. |:::::::ス ノ□隹
彡;:::l l::l ' ---;:, ゙ l::l |::;;ャ` 、
,r',广ヽl::l ::. .: ゙:. l:lノ^i`、 三刃
,イ(:::j i::iヽ :. .: /l:l'" l:ヽヽ 口心
|;:;.\\ l::l ', :;:::..::. / l:l,r''/;::;;|
CentOS5でmdのraid1を組んでます。
>sdd: Current [descriptor]: sense key: Medium Error
> Add. Sense: Unrecovered read error - auto reallocate failed
とディスクの片割れが死にかけなのですが、
>raid1:md0: read error corrected (8 sectors at 1139297800 on sdd)
>raid1: sdc: redirecting sector 1139297752 to another mirror
とsdcに読みにいって何も無かったかのように動いてます。
>Personalities : [raid1]
>md0 : active raid1 sdd[0] sdc[1]
> 976762496 blocks [2/2] [UU]
sddは切り離されると思ったのに、そうでもないようです。
sddのどこか別のセクタを(ドライブがではなく)mdが代替して使っている
ということなのでしょうか?
単に健康 - 死亡の境界ギリギリのところにあるってだけなんじゃねーの?
ある瞬間アクセス不能だったところが、もう一度アセスしてみたら読めた
てなことは死にかけの時にはよくあると思うが。
俺ならさっさと交換するけどね。
>>954 そういうものなんですね。
エラーが上がりはじめたんでバックアップ取ってたら、mirrorから読んだよ
ってメッセージが来てたんで、てっきり切り離されたものだと。
$ cat /sys/block/md0/md/rd0/errors
16
といってるけど、週末買ってくるまで持つかな・・・
smart見てみたら?
957 :
915:2009/09/04(金) 04:28:14 ID:0fr+u1C9
なんか規制くらいまくりで日が開いちゃいましたけど…
100MB/s程度の速度はソフトウェアRAIDで出るんですよね?
912での「現実世界に帰ってこい」は、何を指した話だったんでしょうか…
実際やってみたら、RAID10で100MB/s程度はなんか余裕みたいで出るみたいですし。
958 :
504:2009/09/11(金) 15:28:27 ID:Mg2qS551
ぎゃ〜、utorrentでDLしたファイルをウィルスチェックし忘れて実行してしまいました、泣。
OS復旧は諦めてソフトRAID0で組んだCドライブのデスクトップにあるデータを救出したいがknoppixもwindowsPEではRAIDドライバーうまく組み込めずドライブが認識しまません。
神様がたはこんな時どうやって救出してますか?
水でも飲んで
落ち着いて
組み込めないのは一体「何」のドライバーなのか
くらい書いた方がいいのではないだろうか
RAIDカード何つかってるかくらい書いたら?
あと、飛んだOSが何なのかとか
どういうHW/SW構成なのかとか
その辺も
RAID0を実運用する奴は間違いなく知障
964 :
504:2009/09/11(金) 22:27:32 ID:Mg2qS551
水を飲んで落ち着いたところで、汗。
使っているRAIDドライバーはIntel 82801 GR/GH SATA RAID Control Desktop ICH7Rです。
HDはSATA HDはx2でソフトウエアRAIDで構成してます。HDは壊れていないです。よろしくお願い致しますm(_ _)m
>>964 Win7RCにたしかICH*Rのドライバが入ってるはずだから
あとはわかるよね。
966 :
504:2009/09/11(金) 22:51:35 ID:Mg2qS551
修復インストールですか?
>>966 "ich7r bartpe"でググるとそれっぽいの出てくるけど?
968 :
login:Penguin:2009/09/12(土) 02:29:34 ID:YHlxwivB
某が、RAID5にすれば冗長性があって、HDDが一台壊れてもデータは
失われないといって、重要なデータをみなデータ用にRAID5を組んだマシンに
入れていた。ある日、マシンが落ちていた。OSは立ち上がったが、
RAID5の領域はアクセスできなくなっていた。RAID用のインタフェース
カードが死んでいた。しかし、その古いカードの予備は持っていなかった。
RAIDは可用性を高めるものであって
信頼性を高めるものではないと何度言われれば
>>968 だからRAIDカードのスペアが用意できないときはソフトRAIDにしろと。
972 :
504:2009/09/12(土) 16:16:31 ID:VjJQAsUX
ubcd4winの立ち上げ中にRAIDソフト入れて無事CドライブのデータをDドライブに引越し完了!その後CドライブにOSを再インストールして無事終了。
ありがとうございました。
RAID5の場合リスクって台数が多いほど高い?
いまだそこが良くわからないんだけど
RAID0だと1台壊れたらXなので台数が多いとリスクが高くなるのはわかるんだが
RAID5は2台壊れたらアウト
>>974 それはわかってるんだが
結局RAID0の1台とRAID5の2台のといった風にだめになるだいすうがちがうだけだから
RAID5もRAID0みたいに台数が増えればリスクは一緒なのかな
実際1台壊れて入れ替えたときのRebuild作業は当然容量が小さい方が速い訳だから
台数減らして電力消費減らすか台数増やしてRebuild速度上げるかなのかな(純粋なアクセス速度も含めて)
??
一台こわれるのはセーフ、二台こわれるのはアウト系だと、RAID1が一番強いぞ。
そういうの気にするなら、
二台こわれるのはセーフ、三台こわれたらアウトのRAID6にするか、
RAID5xRAID1とかで、RAIDアレイそのものを多重化するか、
もうちょっとがんばってDUALマシン構成にしてシステムレベルで多重化しろ。
>>975 それであってる。RAID0は論外というだけで、台数が多い場合はRAID5でも
RAID6でも信頼できなくなる。なので、全部まとめて1つにするのではなく、
多段RAIDにしたり、ある程度の規模に収まるようなRAIDセットを複数作る、
みたいにする。
>>977 サンクス
絶対壊れてはってわけではないので
とりあえずドライブの値段とか総合的に考えて1TB4台か1.5TB3台か検討してみます
RAID2段じゃない場合の耐障害性なら
RAID1+LVM最強
LVMと耐障害性の関係が意味不明
別にRAID1ったって2重化と決まってるわけじゃないだろ。(たしか)
4重ミラーとかにすれば、多段にしなくても、耐障害性はもっと向上できるでしょ。
もちろん、容量効率は大幅に悪化するけどね。
その耐障害性と容量のバランスをとった落としどころがRAID6とかなわけで。
RAID6はRAID5を改善しただけで、RAIDとしてのバランスをとったわけではないと思うけどね。
そういった意味では、やはり大容量・高速化への答えとしてはRAIDx0系統がバランスをとったと言えるかもね。
RAIDに高速性を求める奴は知障