1 :
login:Penguin :
2007/01/11(木) 12:55:58 ID:rL+q6m/Y
(゚听)イヤダ
ソフトウェアRAID5で構成したアレイにもう一台ディスク追加して RAID6にできればいいのになぁ。
>>1 乙、今年はmdadmを懸命に応援する年になりそうだぜ。
同じHDDが4台あるとして、 4台でSoftware RAID5 4台でSoftware RAID10 Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?) では、信頼性、保守性でどれがいいでしょうか? 用途はデータ置き場です。バックアップはUSB HDDにとるつもりです。
お勧め2番、やるなら3番
md と lvm とを併用かぁ。 俺は今のところ 320GB * 4台 で RAID5 運用してる。 でもブート領域のためとかで RAID1 が欲しいから、 4台(hda,hdb,hdc,hdd) ともに 20GB + 300GB にして、 hda1+hdb1 = RAID1 20GB ブート・システム領域 hdc1+hdd1 = RAID1 20GB 未使用 hda2+hdb2+hdc2+hdd2 = RAID5 900GB
ICH8DHのahci + リムバ + mdadmのRAID1でホットスワップリカバリできました。
ちょっと古めのマシン AOpen AX3S Pro + Pentium III Coppermine FC-PGA 600EB + IDE HDD 4台 でファイルサーバを構築しているのですが、 ディスクが足りなくなったので増設しようとしています。 マザーボード上には HighPoint の HPT368 があるので、 これを単純に IDE インターフェースカードとして使って /dev/hd{e|f|g|h} をつなごうと思っているのですが、 HPT368 を Linux で使う上での注意点としてはどんなものがありますか? (つづく)
Windows 2000 で使っていたときには HPT368 のドライバのせいか 時々ブルースクリーンに落ちてしまったので、BIOS で disable していたのですが、Debian GNU/Linux etch の dmesg によると HPT368: IDE controller at PCI slot 0000:01:05.0 ACPI: PCI Interrupt Link [LNKD] enabled at IRQ 12 PCI: setting IRQ 12 as level-triggered ACPI: PCI Interrupt 0000:01:05.0[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ 12 HPT368: chipset revision 2 HPT368: 100% native mode on irq 12 ide2: BM-DMA at 0xb000-0xb007, BIOS settings: hde:pio, hdf:pio ACPI: PCI Interrupt 0000:01:05.1[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ 12 ide3: BM-DMA at 0xbc00-0xbc07, BIOS settings: hdg:pio, hdh:pio とあっさり認識してくれて、リムーバブル箱つかえば活線挿抜も 可能なのか?と期待させてくれます。 PATA の HDD が20台ほどあり、できればそれらを活線挿抜しつつ 使いたいのですが、このまま HPT368 につないでいいものか PATA->SATA 変換ボックスと SATA カードを買ってくるべきか、 都会のショップに出かける前に思案しております。
ちなみに電源ユニットは新しいものなので SATA 用の電源も供給可能です。
12 :
18歳♀ :2007/01/15(月) 22:40:41 ID:mKLR9U0k
>>8 そういう情報うれしい。
手順も書いてくれると、さらにうれしいかも。
RAID5でオンラインでキャパ変更できますか? また、RAID5のままLVMでロジカルボリューム変更できますか?
md と lvm2 って直交?というか独立? アレイを物理ボリュームとして論理ボリューム作り出したり、 その逆に複数の論理ボリュームからアレイを作り出したり。 漏れ md しかつかってないんだけど、そういえば lvm の 機能として RAID 0 が実装されていたなんてことは過去無かった? ちょっと混乱気味。なので md しか使ってない。
おちついて考えてみたら、チキンな俺は ext2 から使い慣れてる ext3 を使っているので、ファイルシステムのリサイズができないから 意味ねぇ・・いや、なんかツール使えばリサイズくらいできるん だろうけど、チキンな俺はそれでファイルシステム全体が 吹っ飛んでしまうんじゃないかと思って怖い。
MD の LINEAR アレイが提供する機能と、 LVM の提供する機能はかぶるんじゃないだろうか・・・ と思ったんだが、いま mdadm の manpage 読んでみると mdadm の grow で --raid-devices が変更できるのは RAID1 に対してのみに限られるんだね。 LINEAR アレイですら grow できないのか・・・ それはやはり LVM でやれということか。 眠い。
17 :
13 :2007/01/17(水) 08:12:16 ID:jQRUuA4a
ネットワーク上のストレージに地上デジタル の画像を直接録画できるテレビがあるんですけど、 ものすごい容量食うんですよね。 で、lvm2で後からHDDを足しながら容量増せるような システム作りたいのですが、lvm2だと1台のHDD死んで しまうと全滅してしまうので、その基盤のボリューム をRaid5にできないもんかと....。
>>17 ファイルシステム自体は何を使う予定ですか?
20 :
13 :2007/01/17(水) 12:28:44 ID:jQRUuA4a
ほぼ、単機能のファイルサーバーなんでFSはなんでもいいのですが Reiserで使ってます。 現状でもHDD6台バラバラに共有してるので隙間が目立つんですよね。 lvm2でボリュームを一つにまとめようかと思うのですが、やっぱ 怖いんですよね。 しかも用途が用途なのでRAID1にするほどでもない、、、でlvm2とRAID5 組み合わせられないものかと。 まあ、RAID5も気休め程度にはしかならない事は承知してますが 精神安定剤みたいなものですね。
RAID5が気休めって、そんなこと言わないでくれよー やっぱり家庭用でもRAID6必要かな。 すでにRAID5で構築してしまった…
>>21 RAID5は一発でも落ちると綱渡りだからねぇ。
>>22 そうなんだよね。
すでにRAID5でデータ詰め込んでしまったからもうどうしようもない。
ところでRAID5はかなり長い間使っていて信頼してるんだけど、
RAID6のコードって枯れてる?RAID5のコードと一部統合なんて話もあるみたいだから
まだまだ紆余曲折ありそうで仕事に使うのは危険?
どうしても1アレイで大容量が必要という状況でない限り、 RAID1が信頼性、運用コストの面でベストではないかと 思い始めている今日この頃
4台ハードディスクがあるとして、RAID1とRAID6のどっちがいいだろうか? 有効容量はどちらもハードディスク2台分だから同じ。 2台が壊れたときRAID6なら助かるがRAID1なら 壊れ方によっては助からない。
1台壊れた時のリビルド中の不良セクタ遭遇も考えると6
やっぱりRAID5からRAID6へのreshapeと growはできると嬉しいな。 でも作業中に障害が発生して全部吹っ飛ぶなんてのはごめんだけど。
データを守ろうとすればカネがかかるわけで、 どのくらいカネかけれるかにもよるな。 まともに運用できるならRAID6は武器になるが、 運用失敗した後のリカバリではRAID1が圧倒的に強い。 セクタエラー程度ならそのままほとんどのファイルを救出できるからな。
RAID6の箱を買えばいいんじゃないか?
>>29 個人で買ってもよさげな価格帯の物ってある?
>>23 ソフトウェアRAIDの話?
RAID6(HDD11発と4発)を1年ほど使ったけど、RAID6側の問題は特に感じてないよ。
むしろ、同時アクセスによる割り込み処理の問題か何かが効いているような。
CPU/MBをAMD系からIntel系に変えてディスクアクセス関係のエラーが激減した。
>26 どれくらいまでの遅さなら耐えられる?
ネットワークでつながっている別のマシンの パーティションを使ってRAID・・・って無理かww
>>34 ふ〜む、そういうものがあるのか。
古いノートパソコンをもらったんで
自宅鯖にしてみようと思ったんだけど、
ディスクは一台しかついてないから
RAID1にできないなぁ、でも横のファイルサーバの
余っているディスク領域をネットワーク越しに
ブロックデバイスとして見せかけられれば
それ使って md の設定できないかなぁ、なんて思った。
ATA over Ethernet なんてものもあるのか。 それなりに Linux ずっと使ってきたのに、 まだまだ知らないものがあるんだなぁ・・・ 単に俺が勉強不足なだけかも知れんが。
ATA over Ethernet 〜そしてiSCSI〜
秋葉まで見に行こうかと思ってるんですがRAID製品が 豊富な店とかってあります? 横浜のヨドバシにいったら、「RAID」が何かすらわからない 店員の上に、しょぼいカードが一つあるだけだったので…
USER'sSIDE 高いが品揃えは多い DOSパラ(一部店舗?) 最近は3wareとか置いてるらしい PCSERVER1 otto系列のサーバ屋、ARAIDとか扱ってる まぁ、メジャーな店だと何も無いわな
41 :
39 :2007/01/20(土) 08:43:18 ID:eR+5JFV/
外出だったらスマンが、mdadmでRAID5のreshape(OCEのようなもの?) ができたので報告。 環境:fedora core 6、kernel2.6.18-1.2869.fc6、mdadm v2.6(ソースからコンパイル) RAID:/dev/md0、RAID5、HDDx3、ext3 1. 既存のRAID5にmdadmでオンラインのスペアディスクを追加 2. mdadm --grow /dev/md0 --raid-disks=4 (ここで念のためRebuildが完了するまで放置) 3. resize2fs /dev/md0 3の部分がちと怖いのでバックアップは忘れずに。 それとテスト環境でやっただけなので、まだ何か落とし穴があるかもしれん。 ご利用は自己責任で。 このあとfc4の本番環境でもやる予定だす。
>>44 報告乙。もともとディスク数3だったのを4にしたんだね?
いままで RAID1 でしかディスク数の grow はできなかったんだよね。
resize2fs って怖かったのか、どんなファイルシステムでもリサイズは
全てを失うことがありそうで怖くてまだやったことない。
>>45 どもデス。乙と言ってもらえるとうれしいもんですなw
そうです、ディスク数を3本から4本、それと同時に容量もアップしました。
ちょっとわかり辛かったですね、スマソ。
>全てを失うことがありそうで怖くてまだやったことない。
激しく尿意w
なもんでテスト環境でしかまだやってまへんです。
>>44 報告thx!
1イベントとはいえ、こういう生の情報が、2chってかんじで好き。
カーネル入れ替えたときとか、もしバグでアレイが全部 吹っ飛んだらどうしようってすげぇビクビクする。 せめてデバイス丸ごとリードオンリーにして アレイが問題なく構成できてファイルシステムにも 問題がないことをチェックしてから書き込みを許可できればなぁ。 数テラバイトが吹っ飛ぶなんて悪夢だ。
なんつーか、ファイルシステムとかRAID関連のバクはあまりにも 致命的すぐる。 それ以外のパッケージはunstableでも物ともせず使ってるが、 こればっかりはなぁ。
>>48 新聞だってテレビのニュースだって、ほとんど匿名記事じゃないか。
アメリカに行って、テレビや新聞の記事が、記者の署名付きなのに感心した。
>>50 すげーちっさいテスト環境でテストしてから、メイン環境に使えば良いんだけど、
ちいさい環境だと問題が出てこないバグもあるからなぁ。
RedHat様やSuSE様やらを信じるしかありませんな・・・。
>>51 うん、特にオーバーフロー系のバグがそうだよな。
昔ループバックデバイスで開始位置にオフセットが
設定できるようになったとき、先頭10KB飛ばして
マウントならうまくいったのに、ハードディスクの
イメージファイルの先頭10GBくらい飛ばして
途中のパーティションの中のファイルシステムを
マウントしようとしたら吹っ飛んだことがあった。
ソースコード見たらオーバーフローだった。
unsigned long で保持していなきゃならないデータを
途中 unsigned で保持している関数があった。
mdで構築したraid5があります。 一台のHDDでエラーが発生したのですが、アドバイスをお願いします。 ○構成 sda1 + sdb1 + sdc1 + sdd1 + sde1 + sdf1 ○不良HDD sdb1 sdb1が壊れただけなのにCentOS4.4自体の動作が非常に遅くなり キー入力もおぼつかないので電源を落としました。 次回の起動時に自動的にsdb1への「background reconstruction」というのが 実行されました。 しかしやはりsdb1が悪いみたいで途中で失敗していました。 代わりのHDDがなかったので、hdaに空きエリアがあったのでhda4としてタイプfdを 作ったところ、fdiskが再起動しないとパーティションが有効にならないと言ってきたので 再起動したところ・・・md0がアクティブにならなくなりました。 手作業で以下のコマンドを実行してみました。 # mdadm -A /dev/md0 mdadm: only specify super-minor once, super-minor=0 ignored. mdadm: /dev/hda has no superblock - assembly aborted 見に行かなくてもいいhdaを見に行っているので、fdiskでhda4を消して再起動しました。 それでもやはりmd0がアクティブになりません。 再度mdadm -A /dev/md0を行うと、同一のメッセージが表示されます。 以下続く
54 :
53 :2007/01/24(水) 16:01:42 ID:Z+Ac2IS8
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 すると mdadm: only specify super-minor once, super-minor=0 ignored. mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument となります。 # mdadm -D /dev/md0 すると State : dirty, degraded になっており、アクティブになりません。 どなたかアドバイスをいただけないでしょうか?
--run --force
56 :
53 :2007/01/24(水) 18:45:52 ID:Z+Ac2IS8
>>55 的確なレスありがとうございます。
以下のコマンドで復活できました。
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 --run --force
fsckも通りマウントが正常にできました。
生半可な知識でRebuildせずに、まずはバックアップを取ってからアクションを取りたいと
思います。
57 :
sage :2007/01/30(火) 00:14:05 ID:FqKDfkvN
Raidのリカバリで使うcpuパワーを上げ下げするコマンドを忘れてしまいました。 たしか、 echo ・・・・・>/proc/mdstat とかそんな感じで設定するのだったと思うけど・・ どなたかご存知ありませんか?
エラー無く動いているmdにスペアディスクを設定したいと思います。 以下のコマンドラインで大丈夫でしょうか? # mdadm --manage /dev/md0 -a /dev/sda1
59 :
login:Penguin :2007/01/30(火) 02:20:02 ID:R4Zg6UYv
だれか AMCCの 3ware 9650SE SATA II ハードウェア RAID コントローラ そのまま動いている人いる? CentOSインスコ中にエラーで止まる orz (パーティーションきるところで)
61 :
58 :2007/01/30(火) 07:45:15 ID:z0mWjF4o
自己解決しました。 その手順でOKでした。
nForce430とか61PとかでSATAでFake RAID 使っている人いませんかね? 人気ないのかな?
63 :
62 :2007/02/03(土) 21:35:50 ID:BVcNdfG1
過疎ってますので自作板に移動します。
ソフトウェアRAID1でランダムリード性能は向上するものでしょうか? わかるかたいましたらおしえてください
実装によるし、アクセスパターンやタイミングにもよるようだ。 LinuxのソフトウェアRAIDではやや向上する事もあるが、全く効果がないときもある。 実際に動かして測定してみれ。
RAID5のアレイにもう一つディスクを足してRAID6に出来ないものですかね。
>>59 Debian etch(kernel:2.6.18-3-amd64) で使ってる。
自分の場合は / で使うつもりはなかったから、OS インスコ してから
ドライバコンパイルして元々の 3w-9xxx.ko と入れ換え、
マウントしていまんとこ普通に使えてる。
そのままだとたしかに認識してくれなかったなぁ。
対応鳥じゃないとインスコ時の正常動作は無理かも
最近 Linux 使いはじめた人間なんで、詳しい対応策書けなくてゴメンヨ
とりあえず報告だけ
リムバ+Software RAIDでホットスワップするときって、hdparmでHDDを スピンダウンさせてからリムバの電源を切る方が安全だよね?
RAID5からRAID6へのアップグレード(?)ができればいいのになぁ。
70 :
login:Penguin :2007/02/23(金) 20:26:40 ID:ArHTYZC9
RAIDって速度の違うドライブを使えば、速度の遅い方に足引っ張られるという認識で正しいですか?
71 :
login:Penguin :2007/02/23(金) 22:09:23 ID:obdKOU01
73 :
login:Penguin :2007/02/24(土) 15:09:12 ID:MbL5jte/
RAID6ならRAID5+スペアディスクのほうが良いだろ。
二重障害に対応できない。
75 :
login:Penguin :2007/02/24(土) 18:22:06 ID:MbL5jte/
RAID6のひとって、スペアディスクつけてるの?
付けないなら4-Way RAID1やるよ
>RAID6のひとって、スペアディスクつけてるの? 遠隔地サーバーならともかく、自宅鯖の場合壊れたら 即交換できるからRaid6はいるけどスペアはいらない と思っている、12WaySoftRaid6の俺
RAID5 と RAID1 を比べて、スループットと
シンプルさ、何かへんなことが起きたときの
サルベージの可能性という点から考えての
「RAID1のほうが優れている」という主張には
同意できるんだけど、「RAID6よりRAID1の方が
優れているという主張っておかしくない?
たとえば
http://www.13hz.jp/2006/09/raid6_695e.html とか
RAID1だとスペアに切り替わるときにはエラー無く
当該ディスク(の片割れ)からすべてのデータが
読み出せるということが前提となっているわけで、
二重障害ということを考えていないんじゃないだろうか。
ディスクが二台壊れるという場合を考えると、
その壊れ方によってはRAID1では復旧できない。
>「RAID X のほうが優れている」 そもそも単一の基準で全てをカバーできるなら こんなにいろいろな種類は存在してないよ だからそういう主張自体無意味だし反論も無駄
> ディスクが二台壊れるという場合を考えると、 > その壊れ方によってはRAID1では復旧できない。 二台とも完全に逝った場合はどうしようもないが、 セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。 アレイの台数が増えれば、どれかが壊れる確率もそれだけ上がるし、 最小構成の2台でデータの保持ができ、 定期的なエラーセクタスキャンでほとんど回避できるとすれば わざわざRAID6に突貫して自滅する必要も無いだろう。 RAID6で処理が複雑になる分、バグ等の問題が無いのかと考えると現時点では微妙な気もするし。
だよな。 俺たちのレベルだと、raid1+定期バックアップってのがいちばんよさそうだな。 読み書きの速度も落ちないしな。 RAIDコントローラの故障も考えると、ソフトウエアRAIDのほうがいいかもしれん。 最近のBIOSのRAID+dmraidでも、チップセット変わったら読み込めないよな?
うむ、多少遅くても md が一番安心。 同じ(もしくは互換性のある)コントローラ積んだ RAIDカードがいつでも入手可能であるとは限らないし。
自分はRAID6(スペアなし) + 定期Backupですね ネット越しにしか使用しないので読み書き速度は遅くても全然平気 むしろ、データの保全性のほうが重要なんで、ハードRAIDは 今までの経験で壊れる頃には同じ仕様のハードを手に入れるのが 困難になっているので、使わない >二台とも完全に逝った場合はどうしようもないが、 >セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。 疑問なんですが、二台のデータのうちどっちの保持してるデータが正しいってどうやって分かるんでしょう? Raid5,6ならパリティで分かるけど・・
84 :
login:Penguin :2007/02/27(火) 09:44:41 ID:3idNzfzC
>>83 読み出せたら正しい、正しくないものは読み出せない、
ということでそれ以上はあきらめるしかないだろうなぁ。
ハードディスクのセクタを記録するときにつけられている
であろう Error Detection Code (CRCとか?) を
すりぬけて正しくないものがたまたま読み出せてしまう
ということも実際にはあるだろうと思うので、それはあきらめる。
ファイルごとに Tripwire みたくハッシュを取って置いて、
つじつまが合うように正しいと思われるほうを選択する
という手もあるだろうけど、現実的じゃない気がする。
>80 理屈はその通りだし、高級機ではそうしてくれるのかもしれない。 が... 現実はこういうヌケ作実装の多いこと: 一カ所セクタエラーが見つかると "障害あり" status に移って もう片方から全コピーをしようとする。 このときコピー元側の別の部分にエラーがあると... お亡くなり...
>>85 そうなんだよな・・・
再び先ほどはエラーがあったディスクのほうからの
読み出しを試みて・・・って言う具合にはしてくれない
実装も多いんだよね。
まぁ dd で交互に手動でがんばる、ということも
原理的には可能なんだろうけどね。って、
そういうツールを書けという話もあるが。
だからパーティション分割して細かいmdをいくつか作り、LVMで束ねる
mdの上にLVM・・ストレージのコントロール層を増やすごとにバグとかで ボリューム結合できなくなる可能性が増えるきがする・・・・ 昔LVM構成してたpvのヘッダが壊れて全体が読み出せなくなった悪夢が・・ (手動でヘッダを偽造してむりやり結合したけど)
89 :
login:Penguin :2007/02/27(火) 19:52:19 ID:c7Z/JEvk
3w 9650のpci-exp版動かしてる人柱なネ申はいらっさいますか?
うーん、250GB*8のRAID5でext2で1パーティション切ったのは大失敗だなあ。 UPS保護してない時に電子レンジ+ドライヤー+炊飯器攻撃でぷつん。fsckでごりごりやり始めて早、2日間・・・。 1.6TB総なめするのにどんだけかかるんだか見当もつかん。俺アホだorz 無事回復してくれたら、一回データ総待避してext3にするなりLVMで管理するなりしよう・・・。 初心者でTB級のアレイ組む人、マジ気を付けろよー
>>90 tune2fs -j じゃだめなん?
ext2→ext3なら特に退避せずに安全に移行できると思うんだが。
俺なんか間違ってる?
92 :
login:Penguin :2007/02/27(火) 23:38:23 ID:vJg7XKnj
>>90 人柱乙! すげー参考になりました。いやまじで。
ほかのファイルシステムにしたらどーなんのかやってみたいw
93 :
login:Penguin :2007/02/28(水) 01:06:12 ID:OKX6DIDl
おれは ext3 で、RAID5(7+スペア)で、 3.5TB以上だけど、 マウント回数と前回のfsckからの時間をみて、 たまに boot 時に fsck でディスク総なめのチェックがかかるよね。 まぁ、しかたねーべ。タイミングはパラメータいじって調整はできるが、とくにしてない。 でも、おれは数時間で終わるけど? ハードウェアRAIDは読み出しは速いってことか。
ext2でfsckが二日以上かかるなんて話初めて聞いた。
最近はext2自体使わなくなったからなぁ
>>90 ext2→ext3にする場合でも、fsckが必要な状態ではfsckが先だろう。
うちのは250GB*6のRAID5。 ひとつのmd0として作成していて、そのうえにext3を作ってます。 メインメモリが448MBなんですが、たまにboot時に実行されるfsckで メモリ不足と表示されて途中でmd0へのfsckしくじります。 fstabからmd0外して再起動させて、きちんとCentOSが起動完了して からでないとfsckが完了しません。 多分、swap有効にする前にfsckが実行されているからかな〜と推測 していますが、あまり気にしていません。 今はmd0にLVM作ってlvol分ければよかったと後悔しています。
tune2fs -c0 -i0
たしかに起動時のfsckチェックをなくしてやるってのも手ですけど ちょっとそれも少し怖いような気が。 fsckがswap有効後に実行されれば別に問題ないと思うんですが。 とりあえず仕様ってことであきらめてます。 でもレスさんくす。
まだおわんないなー、グラフ表示のオプション付けた時のグラフ表示、何故か100%になった後また0%になってたし、
もしかして何かバグにぶちあたってるのかなあ・・・・。いくらなんでも3日間近くかかるのは変だよね?
>>91 fsck終わったら試してみるです。thx。
>>93 H/Wだと確かドライバとコントローラ側で上手く騙して素通りさせるんじゃありませんでしたっけ?
fsckの層の更に奥で本当のチェックを走らせてるようなイメージで・・・・。
>>95 参考までにお聞きしたいんですが、fsck完了までどれぐらいかかりましたか?
OS起動時のfsckだと、4時間後ぐらいに50%ほど終わってから 「メモリのアロケートができねーよ」 っていう英文吹いてメンテナンスモードになってしまいました。 X上でfsck手動でやった場合は1時間ほどで終わりましたよ。 私のスペックさらしておきます。 P3-500MHz 448MB P2B-F Sil3112&Sil3114に250GB*6でmd0(RAID5)作って直接ext3。
100 :
login:Penguin :2007/03/01(木) 18:46:38 ID:08JSMW9W
100もらた
101 :
login:Penguin :2007/03/01(木) 19:42:30 ID:mUhR0CCU
フリーズしたから再起動してみたら RAIDボリュームはパリティを初期化しています・・・って出たけど何だこれ? 処理すっげえ遅くなるし・・・ なんとかなんない?
どんな表示か分からないけど そういう時はじっとおとなしく処理が終わるまで待つが吉
103 :
login:Penguin :2007/03/01(木) 20:07:48 ID:mUhR0CCU
>>102 サンクス
何か右下にHDみたいなアイコンが出てきて青く点滅してる感じなのよ
しかし、おとなしく処理待ちか・・・
下手すりゃ4時間くらい待たなきゃならんのかorz
正常にシャットダウンせんかったら整合性保障できないもんな
fsckがメモリリークとかしてると痛いかも。 fsckって途中で止めてしまっても、 残り=開始前の状態-止めるまでに直した部分 ってなってくれるのかな?それとも 残り=開始前の状態より酷い状態 になってしまうのだろうか? 前者なら思い切ってリセットボタンという手も・・・
106 :
sage :2007/03/02(金) 20:06:18 ID:cqGe228H
どなたかファイバーチャネルでデイジーチェーンした方はいませんか?
一度使ってみたいんだけどなぁ まともに買うとボード1枚15万とかするので手が出せない。 メリットもわかりにくいしなぁ
>>82 デュアルコアになって、CPU(ソフトウエア)でRAIDしたほうが、
じつはパフォーマンス良いんじゃないのか?
とか思う。エロい人教えて。
>>108 デュアルコアでもデュアルプロセッサだろうとメモリとのやりとりをするバスは
RAIDシステムとそれ以外(その他のOSサービス)で共有することになるわけで、
その点でのデメリットは大きいと思う。
>>109 だよな。
「やっぱハードウエアRAIDでしょ」と思っていた自分が子供でしたよ。
今はどう考えてもソフトウエアRAIDがいいな。
もちろん、大規模になるとべつだけどね。
>>59 centosでインストールできたぞ
対応するドライバを使っていないからHDDを認識できていないと思われる
返信くれれば作業の詳細を書く
俺の場合はCentOS4.4になるが、他も多分大して変わらんだろう
中華、思い切り、かみ合って無い、に千俵。
ソフトウェアRAID1作ってみた。 ハードウェアRAIDに慣れすぎていると遅くて重い感じがした。 RAIDからブートしようとするとめんどくさかった。メリットは安いだけかも・・・・ で、調べてわからなかったのでちょっと聞きたいんだが、 ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装? fsでmount中のパーティションをddで読み出してverifyするわけにはいかんよな・・・・
>>114 > ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装?
お前が作った RAID のことはお前にしかわからないと思うぞ。
そういう意味ではないと思われ
117 :
login:Penguin :2007/03/29(木) 19:17:50 ID:2wW+hfh/
>>114 HDD1とHDD2でRAID1ミラーリングしてたとして、
HDD1とHDD2から同じブロックのデータを読み込んだときに、
読み込んだ値が同じかどうかのチェックをしてるかどうかってこと?
してるとは思うけど、もし違った場合どうするんだろうね?
同じ値が得られるまで何回も読み込んでみて、
同じ値が得られないままタイムアウトエラーになったら、
そのままIOエラーとして返すとかかな?
その場合、HDD1とHDD2のどっちの値が正しいのかどうやって知るんだろうね?
HDDからエラーが返ってくれば分かるけど、
必ずしもエラーが返ってくるとは限らなさそう。
誰か詳しい人教えて〜。
しかし、ZFSはFSでチェックサム持ってるから強いね。
>>116 じゃあどういう意味が説明してくれ。
>>117 HDD は、セクタ単位でデータが正しいかチェックする仕組みを持ってるから
どっちのデータが正しいかはわかる。
(何らかの不具合で) 両方の HDD から正常に読み出せたデータが不一致だっ
た時の処理は作った人に聞くしかない。
ソフトウエアRAIDのraid1で、3台のミラーってできますか?
ソフト次第です。
はやくダブルパリティ版RAID-Zをつかいたいー ところで玄蔵x4とかのeSATAを分岐させる箱はLinuxで使えてるの?
123 :
login:Penguin :2007/04/16(月) 20:46:11 ID:/KluuheB
HDD4台でSoftware RAID10 Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?) ってCentOSのインストールでやろうとしてもできないよね? mdadm使わないとできないよね?
どうしてハードウェアRAIDにしないの? 宗教的な理由?
125 :
login:Penguin :2007/04/16(月) 21:05:40 ID:/KluuheB
カード買う金ねーもん。。
ハードウェアRAID買って、カードが壊れたらどーすんのよ。 予備でもう一枚買っとく?
二重化する。
ソフトが壊れる可能性を考えないのが不思議。
カードが壊れる可能性と、ソフトが壊れるwwww可能性ってどっちが高いよ? 釣られた?俺?
>>129 ソフト的(論理的)に壊れることも結構ある。
RAIDカードのドライバが案外いい加減なんだよね。
ホントの高級機はさわったこと無いので分からないけど。
メモリ逝かれてるんちゃう(藁)
ソフト的に壊れないものだと思っているの? 結局はちゃんとした試験をしたものの信頼性が高いが、 LinuxのソフトRAIDがどれほどの試験を受けているんだ? ちゃんと試験をパスしたハードウェアRAIDの方がまし。 ドライバがタコだと意味ないが、大抵クリティカルな用途では ハードウェアRAIDが使われているからそういう用途のRAIDカードは ドライバもよくできてる。
それは壊れるんじゃなくて、はじめからバグがあるってことだろ。 意味が全然違うじゃん。
>>132 うん十万もする RAID カードのファーム不良でデータ飛ばした奴もいるけどな。(w
品質はハード/ソフトの違いよりかけられる金に比例するよ。
コネクタ・ケーブルの接触不良の類 > デバイスコントローラーの安定性 > ハード・ソフトの違い ハードRAIDの心配する奴に限って、電源容量不足だったり、拡張スロット全部埋まってたり、 トラブルの原因になるような物を抱えてたりするからな。 「RAIDなんて危なくて仕方ないじゃないですか」は名言
> 2.6.16.40(2月10日) > ・md/raid1:raid1でrepairが動いていなかったのを動くようにする どこでエンバグしたのか、そもそも入っていなかったのか・・・・
137 :
login:Penguin :2007/04/21(土) 23:05:20 ID:tkUNTSZw
皆様質問です! Linux でハードウェア RAID1 は何年も管理してるんだけど、 このたび初めて mdadm で RAID1 を構築しようと思ってます。 で、同じハードディスクを 2 台用意してミラーリング、 パーティションは、例えば / と /home に分けるとしたら、 あらかじめパーティションを切っておいて、 /dev/sda1 + /dev/sdb1 = /dev/md0 /dev/sda2 + /dev/sdb2 = /dev/md1 とするのが一般的? それとも、ドライブ丸ごとミラーリングの設定にして、 その上でパーティションを切って、 /dev/md/d0p1 /dev/md/d0p2 とするのが一般的? 一般的というか、「普通はこうだな」とか、 「こっちはこうだけど、こっちはこうだぜ」みたいな意見があったら、 ぜひ教えてください!
へ〜Linuxのmdって /dev/md/d0p1 /dev/md/d0p2 こんなんができるんだな。 俺的には、LVMを併用するのがお勧めだけど、 LVMを使わない、かつ最初からディスクを全部使わないのであれば、 /dev/sda1 + /dev/sdb1 = /dev/md0 /dev/sda2 + /dev/sdb2 = /dev/md1 とする方がいいんでない?
139 :
137 :2007/04/22(日) 22:40:29 ID:+3FVnusb
>>138 thanks!
まだまだいろいろ試してます。
柔軟すぎて困りますねw
mdadm使ってSATA2.5のハードディスクでソフトウェアraid1したんでうすが、hdparamで測定すると 単体でもraid1でも読み込み速度が59MB/secくらいです。 こんなもんでしょうか? raid1って書き込み速度が単体と同じで読み込みが倍速近いと思ってたんですが…
単体とRAID1とでは読み込み/書き込みともに差がない。 ただ、ソフトウェアRAID1だと、若干書き込みが遅くなる傾向にはある(sync書き込みの場合)。
初のソフトウェアRAID完了しました。 既存システムをRAID1で組んだのだけど想像以上に面倒だった。 ところで、swap領域って同期させたほうがいいの? swap まで Linux raid autodetect にしてしまったけど、 そのままでよかったのかな・・・。
私のはファイル保管用の所だけraidにしてるけど、システム自体はraidにしてない。 吹き飛んだら再インストールすればいいやって。 システム部をraid化したんなら、swapもraidにするべきだす。
ソフトウェアRAID1では無理かも知れんけど、
ハードウェアRAID1では読み込み高速化されるものがあるよ
>>140 のケースだと、ソフトウェアRAIDだってことと、2.5インチだってことが足を引っ張ってる気がするな。
HDDが大きくなれば速くなるってわけではないけど、回転数による影響とか意外と大きい
ソフトウェアの RAID0 だとそれなりにちゃんと速くなるんだから、RAID1 でも読み込みくらいは速くなってほしいよなぁ。
raid10?
>145 性能に気をつけている実装なら当然速くなるよ
>>147 md サブシステムは・・・ってことか・・・
md(4)のRAID1の項に The driver attempts to distribute read requests across all devices to maximise performance. ってちゃんと書いてあるけどな
書いてあるけど、そのとおりになってない。 設定項目とかも見当たらないしなぁ。
>設定項目 おまえあほだな
>>151 何かあるかなー、と思って md と mdadm の manpage、/proc 以下なんかを探してみたけど、
特に設定できるようなものは見つけることができなかったから、そう書いただけ。
あほで結構。
153 :
login:Penguin :2007/05/22(火) 12:29:38 ID:RMtpi8D3
コマンドラインからraidのドライバを調べることってできませんか centosなんですが
154 :
login:Penguin :2007/05/22(火) 14:47:53 ID:ULbOvhBc
ソフトウェアraidなら mdadm --version か mdadm -v でできない?
>>153 /sbin/modinfo raid0
/sbin/modinfo raid1
/sbin/modinfo raid10
/sbin/modinfo raid456
とか
新しいディスクをmdadmでRAID1に追加してsyncさせようとしたら、 途中で不良セクタが検出されてfailedされてしまった。 不良セクタが1つでも存在すると構成ディスクとしては使用不能なん? 故障箇所だけ避けたりできるとちょっと嬉しいんだが。
おまいはいったいなんのためにRAID1をつかっているのだ?
>>157 Googleの発表した統計によると
不良箇所が一箇所でもあるとHDDの残り寿命はあとわずか
161 :
157 :2007/05/28(月) 20:18:58 ID:JVkG/VZ5
>>158-160 特定の箇所だけでなく、ディスク全体がもうすぐだめぽなのね。了解。
新しいの買って来るか。
そんなことない もう一度物理フォーマットをしてだな
e2fsck -c ってどうなんだろう。 少しは延命になるのかな? ま、焼け石に水ってところだろうけど・・・
>>162 IDEのディスクならOSにエラーがあがってくる時点で
代替セクタ使いきってるよ。
だから もう一度物理フォーマットをしてだな
>>164 自動交代処理は必ずうまくいくわけではない。
読み出し時の交代処理は、
何度かリトライして読めたら予防的に交代処理を行う、
というものだが、即死している場合はエラーを上げるほかない。
>>165 最近のATAのHDDは物理フォーマットは出来ない。
メーカーのフォーマットツールもゼロクリアしてるだけだ。
ゼロクリアすると不良セクターが交代処理されて見えなくなる。
ゼロクリアした後、またすぐにエラーが出たらもうダメ。
何度ゼロクリアしてもまたエラーが増殖し、いずれHDD全体が死ぬ。
もしゼロクリアする事で幸運にもエラーが出なくなったら、
それは単発的なエラーで、そのまま使っても大丈夫って事。
脳も物理フォーマット出来たらいいのに
>>166 > 最近のATAのHDDは物理フォーマットは出来ない。
> メーカーのフォーマットツールもゼロクリアしてるだけだ。
> 脳も物理フォーマット出来たらいいのに
自分の脳みそゼロクリア頑張れ
今6台でRAID5組んでるんですが Version : 00.90.03 Creation Time : Mon May 21 01:17:19 2007 Raid Level : raid5 Array Size : 1562842880 (1490.44 GiB 1600.35 GB) Device Size : 312568576 (298.09 GiB 320.07 GB) Raid Devices : 6 Total Devices : 6 Preferred Minor : 3 Persistence : Superblock is persistent Update Time : Mon Jun 4 07:40:31 2007 State : clean Active Devices : 6 Working Devices : 6 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K UUID : 1894a7af:0fa76ca5:a7012d86:b60e930f (local to host parple) Events : 0.207858 Number Major Minor RaidDevice State 0 56 1 0 active sync /dev/hdi1 1 57 1 1 active sync /dev/hdk1 2 8 4 2 active sync /dev/sda4 3 8 20 3 active sync /dev/sdb4 4 34 1 4 active sync /dev/hdg1 5 33 1 5 active sync /dev/hde1 >Preferred Minor : 3 これはどういう意味なんでしょうか?3という数字に思いあたりが無い。
>>170 当たりです。Mmd2は2、md3は3になってました。
どうもありがと〜
# なんか書き込みミスったのでもう一回 いまさらかもしれんけど、RAID5のディスク追加reshape成功したので報告 ディスク5台+スペア1台 → ディスク6台 debian etch カーネルは linux-image-2.6.18-4-i686.deb そのまま mdadmを2.5.9→2.6.2に入替
mdadmでRAID5を構築していたPCが故障した場合、別なPC新たに買って Linux入れて故障PCからHDD持ってきて復旧させることは出来ますか? man見た感じだと特にコンフィグファイルに設定保存していないようなので-Aオプションで 復活出来そうな気がするんですが。
>>173 できる。というかこの前やったよ。
Persistent Superblockがあれば、構成ディスクの一つから
# mdadm --examine --brief /dev/sda1
とかやってUUIDを取り出して、mdadm.confに
ARRAY /dev/md0 level=raid5 num-devices=7 UUID=3f760edf:(以下略
というエントリを作り、
# mdadm -A /dev/md0 -s
で再編成できるはず。(-sは必要だったかどうか忘れた)
なお、Persistent Superblockはcreateモードでアレイを作ったら自動でできてるので問題ない
あ、levelとかnum-devicesとかUUIDは環境依存なんで適当に読み替えて
>>174 ありがとうございます。
NAS箱買おうと思ったらけっこう値段が高くてしかも安いやつは組み込みLINUX
で動いているようなので、それならDELLの激安サーバにRAID組もうかと思っているところでした
激安サーバは品質も激安だから気をつけれ。用途とか稼働状況によるけど。
すみません、ちょっと確認させて下さい。 現在以下の構成でRAID試行中です。 sda -> システム領域(/boot,/var,...) sdb,sdc -> データ領域(softwareRAID1,/dev/md0) 仮にsdaが故障しHDDを交換後にOSを再インストールした場合 再インストール後に /dev/md0 をマウントしてやれば復旧可能との認識でOKでしょうか。
OKです。 実際に現状のままインストーラーを起動してみたら分かるけど DiskDruid(だっけか?)で、md0を自動認識してどこにマウントするんよ?って 聞いてくるよ。 試してみ。
ディストリが不明だが、たぶん可能 セットアップで表示されなければ、raidtoolsとかmdadmあたりのパッケージを使うとできる
181 :
178 :2007/07/29(日) 09:21:50 ID:gZaay99H
>>179 >>180 有り難うございます。先ほど試してOKでした。
(ちなみにCentOS5 x86_64です)
インストール時にsdaのみパーティション編集し、sowtwareRAID領域はそのままに。
完了後に自動マウントされていませんでしたが、適当にマウントしたらデータが表示されました。
softwareRAIDってOS消したら一緒に・・・っていうイメージが強かったのですが、
そんな事はなく結構融通が利く利用方法なんですね。
スマン、教えてくれ。 遠隔地で動作してるマシンなんだが、ディスクを予防的に交換したい。 だが、ハードウェアの仕様がどうなってるのかわからず、PATAなのか SCSIなのかすらわからん(SCSIにもいろいろあるだろうし)。時期的に SATAはないだろう、ということがわかるぐらい。 また、おいそれとrebootできず(いやま最後の手段でとなればやりますがね) boot時のログもrotationの彼方に消えさってる。 Debian sargeで動作してて、lspciの出力は以下の通り、という状況で、 このディスク交換に何を持っていけばいいか(つまりこのドライバで 動作しているカードに剌さるHDDの規格は何か)判るエスパーはおらんかいの? 0000:02:01.0 RAID bus controller: Adaptec AAC-RAID (rev 01)
183 :
182 :2007/07/29(日) 22:42:11 ID:R/Kcw7Zr
大事なコト書きわすれてた。kernelは↓です。 2.4.25-1-386 #2 Wed Apr 14 19:38:08 EST 2004 i686 GNU/Linux
hdparmで情報とれるかも
185 :
182 :2007/07/30(月) 08:03:42 ID:vntdpIjG
# hdparm -I /dev/sda /dev/sda: HDIO_DRIVE_CMD(identify) failed: Inappropriate ioctl for device 手元のSATAノートだと取れたんだけどね... ありがと。
>>182 RAIDのコマンドラインユーティリティ経由で取れるのでは。
/dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには
専用のユーティリティを使うしかない。
3ware系だとsmartctlが使えるんだけどね。
187 :
182 :2007/07/30(月) 11:40:32 ID:vntdpIjG
> /dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには > 専用のユーティリティを使うしかない。 だよねー。野良installしてあるので、そういう気の利いたツールがないなぁ。 しょうがないので、二度手間になるのを覚悟の上で現物見てからHDD買いに行きますわ。 しかしまた、ひどい雨だなぁ。
>>187 野良インストールでも使える専用のコマンドラインユーティリティがあったはずだが。
諸先輩方ご指導下さい。Linux初Raidです・・・。 GigabyteのマザーボードGA-G33-DS3Rというのを購入して日立のSATAのHDD500Gを4台購入しました。 Windowsと同じようにBiosでRaidの設定をして4台でRaid10のアレイを作成しました。 ここでCentOS5のインストールを開始するとドライブが見つけられません。 ドライバを入れろと出ますがICH9R用のドライバというのがintelにもgigabyteにもありません。 dmraidというのを使えば良いというのもFAQで見たのですがインストールの最中にdraidを インストールする方法もわからず・・・。 どうすればRaid10で初期インストール出来るかアドバイス頂戴できないでしょうか。 それともBios raid利用するのは無理なのでしょうか?
苦労の割に全くあわないので素直に「本物の」RAIDカード買え。
191 :
189 :2007/07/31(火) 16:46:22 ID:X79rWaJz
>>190 回答ありがとうございます。まったくおっしゃるとおりなのですが
このためにわざわざICH9Rのマザー購入したのでなんとか使いたいのです・・・。
Q. M/BチップセットのRAID機能を使用したいのですが。 A. あなたがRAIDと呼んでいる物は複数のHDDを一つに見せかけているだけです。 実際のRAIDの処理はOS依存のドライバが行っています。 Linuxでこれらを使用するメリットは全くありません。素直に「本物の」RAIDカードを 購入するか、mdadmを使ってソフトウェアRAIDを構築しましょう。 これテンプレにいれようぜ
ほんと、マザーの RAID はさっさと諦めて、カード買うのが嫌なら mdadm 使ったほうが よっぽど賢いと思うな。
流れのついでに失敗談を一つ。
PMPで400Gx5を外部筐体に入れてSoftware RAIDにしてたんだが、
ドライバのPMPがtjで、Kernelバージョンはほぼ固定だわSATAポートの
エラーは出るわでいろいろ苦労。結局普通のM/Bに移設して安定。
Linuxだと「ハードウェアのためのドライバ」じゃなくて
「ドライバーのためのハードウェア」ってことを思い知った。
ということで、
>>193 には全面的に賛成だ
195 :
189 :2007/08/01(水) 00:08:31 ID:M97nTf9V
M/BとRaidカード注文しました・・・。 無駄な買い物しちまった・・・。 AdapteckのPCIExpressの4xのSATA RAIDカード。 同対応のM/B・・・。どっちも初物。わくわくです。 アドバイスサンクス。
アダプ… まぁがんばれ…
え、アダプテックだめですか・・・。 安くて対応しているって書いてあるんだけど・・・。 え? してない!?
漏れならGA-G33-DS3Rのサウスに ・SATAのHDD500Gを4台 ・システム用Raptor1台 って感じで組むね。 RaptorにOS入れた後で 500GBのディスクmdadmを使ってRAID構築。
なんだかんだでSoftwareRAIDは運用が柔軟にできるから好きだなー 専業ファイルサーバにすればパフォーマンスで問題が出ることはあまりないし と思ったが、どのくらいが標準なのか分からん……6+1台のRAID5で120MB/sって良い?悪い? TZONEのデモが22+2台で480くらいだったような気がするから、まぁまぁなのか……
>>199 raptor10発で400MB/s overだから、いろいろチューンする
ポイントはあるね。
どもです。 「raidが吹っ飛んだ」としか情報のないHDDx4台を知人から預かりデータを取り出したいんですが以前の情報が全然ない上にLINUX初めてなので困り果てています。 DDで代替ディスクに貼り付けUbuntu7入れてGpartedで見ると、 パーティション1 ext2の200MB パーティション2 スワップ パーティション3 ext3の80GB(raid) ただしGparted上でHDD1台目〜3台目までのパーティション3はパーティション形式が不明になっていてraidフラグだけが立っている。4台目はext3で認識している。 またパーティション1内にraidtab等のファイルがあったこととその記述から raidtoolsで組まれたRaid5 md0として作られたこと 4台のディスク順番 チャンクサイズ 4KB ではないかな〜というところまでわかりました。 次にRaid5を構成しようとUbuntuのGUIのアプリ追加メニューで検索。mdadmというソフトウェアraidを発見。しかしraidtoolsは見つかりませんでした。 自分にはコンソールからのアプリ追加がわからず、またUbuntuで使えるraidtoolsというアプリがあるのかもわからなかったのでとりあえずmdadmを使うことに。 manを見てmdadm -Aで以前のRaid情報から組めるかも?と思い、ディスクの順番・チャンクサイズ等を合わせてやってみました。 しかしmd0は作成できたものの、フォーマットしなければマウントできない状態です。 マウント時にext3を指定しても蹴られてしまいます。また、構成時にディスク4が自動でリビルドされます。 ここはOS入れ直してでもraidtoolsを使ったほうがよい(少なくともmdadmでは無理)でしょうか? 我ながらアホなハマりかたしてると思いますし、そもそも不良クラスタがあるんでそれ以前の問題かもしれませんが、大事な後輩なのでなんとかしてあげたく。 とりあえずここまでやってみてお手上げで途方にくれています。 どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします
202 :
login:Penguin :2007/08/01(水) 12:36:42 ID:L/GD3i2t
>>201 >「raidが吹っ飛んだ」としか情報のない
なぜ使用者である後輩がRAID構成を聞かない?聞けばわかるだろうに
犯罪者乙
>>202 中途半端な説明ですみません。
正確には"後輩の会社の物ではあるが構築したのは既に退社して連絡の取れない元社員"とのことでした。
その構築した元社員が退社した後も、そのまま仕組みも判らずストレージとして使い続けていたそうです。
> どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします 会社のデータなら「俺には無理だ、しかるべき業者に頼んでくれ。」と言うべき。
>>200 情報THX。ちなみにその400MB/sってベンチマークソフトは何?
RAID5はパリティつきRAID0だから、簡単のために台数に比例して
性能が上がると仮定するとディスク1台あたり40MB/s。対してうちのは20MB/s。
ディスク単体性能だと50-60MB/sは出てるので、ボトルネックがどこかにあるってことか。
うちはメーカーバラバラの7200rpmドライブだし、アクセスタイムが影響してそうな感じだなぁ……。
# 以上すべてhdparm -tの値
>>204 後で不利な立場にならないように、データ飛んでも責任を問わない旨の
確約を(できれば書面で)得てからやったほうがいいと思う。
208 :
login:Penguin :2007/08/02(木) 00:14:43 ID:yPG9OgcV
>>204 業者に頼め。ちなみにへたにいぢると復旧不可能になるからな(って遅いか)
ddで4台そっくり別HDDに移植してから遊ぶけどね それでも元HDDを触るのは嫌すぎる
>>207 thx.
chunk size以外は設定してみた。
稼働中にやってみたがドキドキしたw
211 :
199 :2007/08/02(木) 01:11:37 ID:hhKbt5z2
>>207 ありがとう。試してみるよ。
readahead(hdparm -a)の設定は既にやってあって、
個々のディスクが2048、md0を12288にしたときが一番パフォーマンス出た
Adaptec AIC-7902でRAID5で使い、CentOS5で運用しようと思っています。 RAIDのHDDにエラー等が出た場合、エラーはどのように通知される物でしょうか? インストールしたのですが、RAIDに関わるような物が全く見つからず困っています。 ほっとスワップに対応しているらしいのですが エラー通知がどのようにどこにでるのか? 抜く前になにかコマンドが必要じゃないのか? 差し替えた後なにをすべきなのか? さっぱりです…。本屋に行ってもソフトウェアRAIDの本ばかりで。 これよめ!!的なアドバイスでいいので御願いします。
213 :
199 :2007/08/02(木) 03:45:41 ID:hhKbt5z2
ddで測り直したら最初から read 191MB/s write 170MB/sだったよ。
で、stripe_cache_size = 32768 で write 240MB/s に改善
何はともあれ、情報ありがとう>諸氏
>>212 www.redhat.comでAIC-7902で検索したらいくつか出てきた
読む時間なかったので有用かの判断はできてないです
216 :
201 :2007/08/03(金) 23:04:28 ID:6EBr4PTX
皆さんレスthxです。 OSをWBEL3に変更しraidtabの設定コピってraidtoolsで組んでみたらイケました。 残っていたconfにはext3の記述だったんですがmd0がマウント出来ず、何故か-t ext2でマウント出来ました。 以上、全データ抽出出来ました。お騒がせしました。
>何故か-t ext2でマウント出来ました。 ログデータ無効で不整合とか
218 :
201 :2007/08/04(土) 00:24:17 ID:S6GeDrRU
>>217 LINUX初めてだったもんでいろいろわからないことだらけでして、、、ext2で見れた!!とりあえず全コピー!!って感じです。
それで必要なものは抽出出来ましたんで、また時間が取れ次第ext3でマウントを試して、今回のデータと比較してみようと思います。
しかし今回いろいろやってみて思ったんですがLINUX面白いですね。余ってる自作機をNAS化したくなりました。
ありがとうございました。おやすみなさい。
1430sa linuxでつかえねー(泣 これ、bios raidと一緒じゃねーかよ・・・。 しかもRHEL4までしかドライバでてないよ・・・。 ごみだ、これ・・・。SCSI時代から信奉してたのにぃ
AdaptecのRAIDの1xxx系はソフトウェアRAIDだと思って良い 2xxx系になるとaacraidが使えるようになって多少マシになる。 3xxx系、4xxx系とグレードが上がっていくが、 そこまでカネ出すなら他メーカーの方がコストパフォーマンスで優れる Adaptecの良いところは、大手PC/鯖メーカーのサポートが受けやすいくらい
rocketraid買った。 正直昔adaptecのscsiカードのバルク買って 使えなくて泣きそうになったの思い出した。 もうadaptecは買わん。 サポートにあのいい加減な箱の表示なんとかしろとメールしたら 返品規定は以下の通りです、とまったく関係ないページを紹介された。 もう日本からは撤退らしいぞ。
バルク買っといてメーカに文句言うって... 馬鹿ですか?
超人バルクと呼称します。
>>222 あなたもadaptecのサポート並の日本語理解力ですね・・・。
頭悪いんだから、金使えよ。 頭悪くて貧乏なら、何もしないでじっとしてろ。
自分の頭が悪いからって逆ギレかっこ悪い
まぁ脳みそにHotSpareはないですからね 熱かもしれんから一晩放置推奨
>>226 バルクの Adaptec 買って使えなかったから相当悔しかったんだろうけど、
もう見苦しいからやめたら?
バルク買ったのは昔で、今は正規品、ということなんだろうけど、 わかりやすい文じゃないわな。 とは言え、そんなことでくどくど言ってる奴もカッコワルイ。 我慢できずにしゃしゃり出てくる俺が一番ダメ orz
RAIDセットのパフォーマンスを煮詰めたりしたいのですが Vista(64bit版)に対応していて容易に入手可能な このスレ的なお勧めのベンチマークってありますか? やっぱりCrystalあたりですか?
500GBx5でRAID5してたんだけど、足りなくなったから同じ型番のやつを もう一本買ってきた。 mdadmで追加しようとしたらエラーでできない。 よく見たら、新しいディスクだけ容量がキロバイト単位で微妙に少ない。 いやそりゃ確かにロットは違うけど ふざけんな死ねマジ本気マジで死ねシーゲート死ね。
そんで仕方ないから全部どかしてRAIDを組み直すんだけど、どかす場所がないから ・買ってきたディスク ・既存RAID5を縮退モードにして捻出したディスク にもデータを退避した。 全部どかし終わったところでRAIDを分解、 各ディスクのパーティションサイズを誤差吸収のため多少小さくして 4本でRAID5を再構築。そこにデータを書き戻し中。 つまり何が言いたいかと言うと、これから500GBx2をOCEってかreshapeで追加するよと。 すげー時間かかりそう。 その後にpvresizeやxfs_growfsもしないといけない。 全部やったことない。うまくいくか謎。
>>231 いや、そこは750GBのを買ってくるのが正解だろう、常考。
最後尾数十MBは使わない、でFA
500GB買いなおすかな、俺考。
>>233 250GBムダになるじゃん
>>234 それしかないね
>>235 同じの買ってきても容量違うんだもん
というわけで全部無事オワタ
500x4本のRAID5に2本追加、mdadmでgrowしたら20時間ぐらいかかったよ。
その後のpvresize,lvresize,xfs_growfsは全部一瞬。超簡単だった。
pvresizeはついこないだまでなかったらしいね。
>>236 232の作業内容を考えると、容量が無駄になっても
大きいディスクを買うのが安全。
新しく500GBを買ってきても、必要セクタあるかどうかの保証がない。
末尾を使わないのは、最初にRAIDを構築する時の話ならよいが
232の状態でのベストの解ではない。
まぁ好きにしろってことで。
>>237 250GBをムダにしてでもっていうのはつまり安全を金で買うわけだ。
しかし、金があったらそもそもmdadmでSW-RAIDなんかしないとも言える。
つまり安全とコストのバランスは人それぞれ。わかってるようだけど。
HDDとか電源とか、部分入替不可のデバイスは買い直しのコストが 馬鹿にならないから若干無駄でも大きめのを買ってるなー。 うちは一度に大きな投資ができないんで、最初400GBで構築して、壊れたHDDから 500GB(そのときのバイト単価最安の容量のHDD)に入れ替える運用をしてる。 400GBが全部入替になるか、全体が容量不足になったら残りを500に入れ替えてgrow。
同じ容量で入替する前提なら、500GBなら少なくとも500,000,000,000バイトは あることが保証されてる(なかったら詐欺) それを超えないように領域を作れば大丈夫ですな。 ちなみに昔うちで400x5で組んでたときは、↑の方法を使った場合と使わなかった場合の 容量差が60MBくらいだった。
>>231 御愁傷様でした。
マジ海門死ねだねぇ┐(゚〜゚)┌
>>241 べつに海門が悪いわけじゃないだろ。
ただのおまけでしかない容量をいっぱいまで使っていた
>>231 が悪い
十分悪いだろ。
244 :
231 :2007/08/24(金) 13:30:51 ID:Gfnf/lpT
せめて/dev/sdaを使わず/dev/sda1とかにしとけばよかったんだけどね。 パーティションを切ってれば同じ容量になったはずなのに、 RAIDデバイスだからパーティションなんかいらねえだろと デバイスを直でRAIDに組み込んでたからな。ほんとギリギリ一杯まで使ってた。 シーゲート死ねは半分冗談として、いい勉強になったわ。 新しいの Disk /dev/sdb: 500.1 GB, 500106780160 bytes 255 heads, 63 sectors/track, 60801 cylinders Units = シリンダ数 of 16065 * 512 = 8225280 bytes 古いの Disk /dev/sde: 500.1 GB, 500107862016 bytes 255 heads, 63 sectors/track, 60801 cylinders Units = シリンダ数 of 16065 * 512 = 8225280 bytes
>>244 パーティションなしでも可能だけど、非推奨になってたはずだよ
要するにブートセクタとかパーティションテーブルの位置にも
情報が書き込まれるわけで、操作ツールとかOSが誤認識する可能性がある
ちょっとした疑問 今日日RAID5やらRAID1やらRAID10から構成するディスクを減らす、 Shrinkをサポートしてるものってあります?
>>246 RAID1は3台から2台に減らすってこと?
2台から1台なら要するに縮退ってことだろうけど……。
RAID5でディスク減らすのは少なくともmdadmだとできないぽい
>>247 そそ。
大きめのアレイを組んでやろうかと考えてるんだけど、
のちのちRAID5からRAID10、またはその逆みたいに組み替えとかを考えた場合新しいHDDを用意してアレイを組み直すしかないのかなーと
ディスクの追加はできたりするようなので古いアレイからディスクを削除しつつ新しいアレイにHDD追加していくような使い方ができないもんかと思った次第
改めて自分で調べてみてもそんなものは無さそうですし大人しく組み替えなんぞ考えないで済むような使い方を考えることにしまっす
ARECA 1130 で昔調べたことがある。 - firmware V1.38 2005-10-4 + disk 4台で確認。 - 3台以上での 1 は作れない。 - 1+0 を作れるチャンスは少ない。 - 6 を作れるチャンスはもっと少ない。modify では作れない。create するか expand するかで作るしかない。 - 0 は袋小路。 既存 set に disk を追加するのは可能 (expand で) 既存 set から disk を抜くのは不可能 容量を増やすのは可能 (直後に連続した空き領域が必要なだけあるときのみ) 容量を減らすのは不可能 From : To 0 1 1+0 3 5 6 0 Y e e e e e 1 Y M e e e e 1+0 Y n Y Y Y e 3 Y n e Y Y e 5 Y n e Y Y e 6 Y n Y Y Y Y legends: Y = possible, e = possible only when expanding raid set, M = possible only when modifying volume set, n = impossible
データ用に買ってきた二つのディスクをmdadmでミラーリングした上で、 将来的に拡張できるようにLVMでボリュームを作ったのですが、 このディスクを別のマシンに移植したところ、 fstabに書いても自動でマウントしてくれなくなっていましました。 ただし、手動で mount /dev/vg0/lv0 /hoge とやると、普通にマウントできるのです。 同じようなことをやったことある方、いませんか?
252 :
250 :2007/08/27(月) 13:38:40 ID:0NURgyjF
>251 ちょっと長い&ずれていて見にくいですが・・・ # /etc/fstab: static file system information. # # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc defaults 0 0 # /dev/sda1 UUID=883530e2-97cd-4fbf-9cd3-8c26a3cc0b1b / ext3 defaults,errors=remount-ro 0 1 # /dev/sda5 UUID=1aad7882-719b-45a1-9771-7083ff8a9e1d none swap sw 0 0 /dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0 # for samba server /dev/vg0/lv0 /samba ext3 defaults 0 0 一番最後の行がそれです。移植する前はコレでマウント出来ていました。 もしかすると、起動時のマウントが始まるよりも前にmdadmとlvmが起動しないとダメなのかな。
>>250 initrdで自動的にmd/dmを構成するようになってないから
254 :
250 :2007/08/27(月) 23:29:55 ID:0NURgyjF
>253 正しいのかどうなのか分かりませんが、 mkinitramfs -o /boot/initrd.img-2.6.20-15-generic 2.6.20-15-generic とやってみたところ、 W: mdadm: unchecked configuration file: /etc/mdadm/mdadm.conf W: mdadm: please read /usr/share/doc/mdadm/README.upgrading-2.5.3.gz . というエラーが出てきてしまいました。 ググってみたところ、似たような状況があるようで、 ubuntuのバグか何かかもしれません。 (書いていませんでしたが、ubuntu 7.04を使っています) 結構大変かもしれませんね、これは。
255 :
250 :2007/08/28(火) 14:41:02 ID:gj3euneM
とりあえず、ubuntuのフォーラムで聞いてみることにしました。 解決したときは、報告しますm(__)m
>>254 その警告は、mdadmを2.5以上にうpグレードしたときに必ずでる。
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
に書いてある通りにすればよい。
ただ、漏れは2.5にうpグレードすると不具合が出て、システムが立ち上がらなくなった。
で、2.4にpinして使ってる。
debianのunstableから2.6借りてきて使うと、不安定だけどなんとか使える。
でも、こわいので2.4使っている。
2.4だとなんの問題もでない。
腐ってやがるぜ
>>256 うちは作者のサイトから直接2.6.2落としてコンパイルしたけど
特に問題なかったなぁ・・・debian etch r0
259 :
250 :2007/09/10(月) 00:17:52 ID:cnO9RpIQ
結局解決しませんでした・・・
250は最初から他人の話は聞く気が無いのだろ? そりゃ解決は難しかろうて。
261 :
nnn :2007/09/10(月) 10:23:06 ID:bcnjR5k4
お知恵を拝借したく。 ▼環境 CPU: C2Duo 2GHz HDD: SATA*2 をマザーのエミュレーションでhda,hdcと認識 ディストリ: Scientific Linux 44 kernel: 2.6.9-42.0.3.ELsmp mdadm: v1.6.0 - 4 June 2004 ▼問題点 /=md0(hda2,hdc2) /var=md1(hda5,hdc5) というソフトウェアRAID1 を組んでいるのですが、HDDの入出力が8MB/sしかなく(実質 書き込み速度で4MB/s、resync時の速度同じ)、大量の書き込み時に プロセスキラーが働き、ひどい時にはOSごと固まります。 HDD ioに関係のないVC切替(Alt+Fx)も重くなります。 固まる例: dd if=/dev/zero of=/tmp/tmp.dat bs=256k count=4096 SATAをネイティブで使えないチップセットとディストリの相性が 根本原因ではありますが、このハードを使う事情があり、 なんとかしたいのです。 (続く)
262 :
nnn :2007/09/10(月) 10:23:41 ID:bcnjR5k4
>>261 続き
▼打開方針?
RAID層の書き込み速度を制限し、書き込み要求をするプロセスに対し
適切なio待ちを発生させる。
resync時の速度制限は
>>60 の方法で解決しました。
60氏にはこの場で感謝の意を表します。
それで、通常運用時の書き込みでも speed_limit_max の要領で
速度制限できれば解決すると思うのですが・・・
>>262 IOを発生させないようにする。
SATAカードを挿す。
ところで、おまいはそのマシンのユーザなのか、
業者で設定だけすればよいのか?
264 :
261 :2007/09/10(月) 12:18:57 ID:bcnjR5k4
>>263 自家用鯖です。
7台買っちゃった・・・ のはいいとしても、うち4台投入済みで、
どうしたものかと。
> IOを発生させないようにする。
それはそうなのですが、鯖なので「IOは客次第」というのも事実です。
で、リミッタを掛けられないものかと。
> SATAカードを挿す。
検討はしますが、どれが使えるやら・・・
ICH8上でSATAを使える鳥を探したほうが速いのかしら?
>>262 >書き込み要求をするプロセスに対し適切なio待ちを発生させる。
IOスケジューラが悪さしてるとか。
# cat /sys/block/hda/queue/scheduler
で確認。deadlineとかになってると、大量IOプロセスがIOキューを占有する可能性がある
IDE互換モードでもDMAに出来ないの?
>ICH8上でSATAを使える鳥を探したほうが速いのかしら? カーネルの問題でしょ? ディストリ関係ないじゃん?
>>268 ディストロに含まれているカーネル(ドライバ)の問題。
>>269 同じ意味じゃないのか?
カーネルに組み込むかカーネルモジュールとしてビルドするかの違いじゃないの?
>>269 No
ディストロがいつのカーネルを収録しているか、
どれくらいバックポートしているか、という意味。
そんなにリコンパイルがイヤなのか・・・
>>272 なんでディストリ利用するかってえとアップデートをオートマティックにやりたいからなので
カーネルがアップデートするたびにリコンパイルするのは確かに嫌だわな
商用だとサポートの対象外になったりするんじゃないのかな?
>ディストリ: Scientific Linux 44 なんでこのディストリを選んだのか分からんけど カーネルひとつリビルドするのが面倒でディストリを 乗り換えるほうを選択するって事は元々このディスト リに拘ってた訳では無いって事か……。 それにカーネルなんて脆弱性が無ければ別にバージョン アップしても毎回アップデートする必要もないと思うん だけどねぇ。 リビルドするほうが面倒か、標準のカーネルで使えそうな ディストリを探すほうが面倒かは本人の自由だぁーっ! って事でガンガッテくらしあ。 漏れにはICH8が何なのか調べても詳しいことが理解できな(ry
RAIDスレとしては適切な答えではないかもしれないが マザボでエミュレーションとかしないで 普通に新しいディストロをインストールして その上でVMware Serverなどを使って Scientific Linux 44を動かすこともできるんではないかと。
何の為だかもわからんな
ソフトウェアRAIDを組み合わせてRAID50を構築することってできますか?
余裕で
できるけど、おススメはしない
>>260 かなり遅レス(アク禁でして)ですが・・・
話を聞く気がないのなら、最初っからききませんって。
いろいろいただいたアドバイスを試して、それでもだめだったんです。
いちおう無理矢理な解決策は見つけましたけど・・・。
そんなことおっしゃらずに、
何か思い当たる方法があるのなら教えていただきたいです。
>>281 何を試したのか分からないけど、
/etc/mdadm/mdadm.confを設定してwarningを無くしてみたかい?
ルートファイルシステムじゃないから、絶対にinitrdで構成しないと
いけない事はないと思うけど。
Avidemuxのreindex系処理でmdadmだけのRAID0でもあてになることに感銘した。 気をよくして、既に遅さにがっかりしきったIO-DATA HDL4-Gに代わって PCでソフトウェアRAIDでRAID5ファイルサーバーを作る気になっています。アホだから。 PentiumIII-m/1.2GHzのノートPCを使い RAID5を10GBのパーティションx4(実HDDは2.5インチの二基)で試し この程度のCPUがあれば、HDL4-Gよりはましな気がしています。 多少はウェブを調べてみましたが、いろいろ調べきれなかったことがあります。 1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか? 2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか? 3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか? (HDL4-GはGbEを採用しジャンボフレームにも対応しますが…トホホ) EPIAのC3/1GHz付M/BのPCIx1に4ポートSATAカードを挿すと オンボードの100BASE-Tで行くしかないんだよなぁ…で踏み止まりました。先日 ただ、一昨日パチンコに少し勝ったので、今日は踏み止まらない気がします(笑) これは無謀無計画に終わりそうなんでしょうか… あと、HDL4-GのHDDをそのままPC上に移すことは、理論上不可能か… HDL4-GのRAID関係仕様を調べてみる価値はあるのか…も気になっています。 5MB/sで700GBを移し替える日が来るわけですし…
>>283 > 1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
ディスクが多い程アクセス分散でが大きい→高速化
ディスクが大きいほど外周にある領域の容量が増える(割合は増えない)→高速化???
> 2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
個人的にはファイル鯖はキャッシュ命だと思っているので4Gとか積んでます。
ディレクトリエントリが結構メモリに載るので少なくともその分のシークは減らせるはず。
> 3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
2〜3年前に250x4/RAID5で組んでたときには、100BASEで巨大1ファイル転送で10MB/sくらいは出てました。
スイマセン、質問です。 CentOSでMegaRAID 428を使おうとすると、インストーラが パーティションを設定するところで、論理ドライブは1つ(RAID1) しかないのにsda、sdb、sdc……と複数台表示されてしまいます。 インストール開始時にドライバが必要なのでしょうか? もしそうでしたら、ドライバの入手先等をお教えいただけ ませんでしょうか?
>>285 つ[MegaRAID 428マニュアル]
/proc/mdstatで[UU]ってなってるのにresyncしてる。 なんだこり?
>>287 前スレの895の事例は?
895 名前:login:Penguin[sage] 投稿日:2006/11/10(金) 21:39:27 ID:bNIZOw4y
debian-sargeの2.6.8-3-386を使用しています。
久々に電源を入れなおしたところ、
再同期が始まってしまいました。
4つのディスクのどれかが脱落したようにも見えないのですが、
同期外れもなしに再同期が始まるときって
どういう場合なんでしょうか?
>cat /proc/mdstat
Personalities : [raid5]
md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1]
732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec
unused devices: <none>
903 名前:login:Penguin[sage] 投稿日:2006/11/11(土) 20:51:30 ID:e3BClQL/
>>895 確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。
289 :
281 :2007/09/26(水) 16:54:47 ID:R04+ijwq
>>282 mdadm.confをデフォルトからいじってみたのですが、
エラーはなくならず、mdadmのバージョンを下げてみたり、
元にもどしたりしたところ、warningは出なくなり、
initrdもできるようになりましたが、
やはり起動時に自動的にマウントすることはできませんでした。
結局/etc/rc.localに"mount /dev/vg0/lv0 /samba"と書いて、
マウントするようにしている状態です。
ちなみにmdadm.confは、こんなかんじです。
----
DEVICE /dev/sdb1 /dev/sdc1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=cf98cc9f:54e7b704:3cf3c1ab:04141d7c
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
----
>281 キミはそもそもマシンの話を聞けてないんだよ :-D /usr/share/doc/mdadm/README.upgrading-2.5.3.gz は読んだのか?
291 :
283 :2007/09/28(金) 01:47:43 ID:zIk+oOYu
>>284 ありがと、参考になります。
ちなみに、いろいろあって衝動買いはまだしていません。
そうこうしているうちにEdenのSATAx4付ITX M/Bの登場を知り
無理すれば買えそうな懐具合で悩んでいるところ…
#半年分、水道代未納の同居人の代わりに全額払ったら
#ちょびっと頼りない懐具合、本来ヲレは電気代全額係なのによぉ
>>281 起動時のコンソールログを調べてみたら?
LVの認識とマウントのどっちが先に行われているか。
ってUbuntuのデフォルトは/boot/grub/menu.lstでsilentになってるから
出てこないんだっけか
基本的な事で質問して申し訳ないんですが、 RAIDカードを差し替えた場合って、既存のRAID0の構成でまんま使えるんでしょうか。 オンボードの物からRAIDカードに変えたんですが、正常に認識しなくて困ってます…
そらそーだ ディスクに書くRAIDメタデータなんて各メーカー独自だ
>>294 それはくまった…
結局めんどくさい手段を取らないといけないということですね。
ありがとうございました。
データを抜いて戻して はい おっぱいぴー! ですね。
>296 誤:おっぱいぴー 正:おっぱっぴー(オーシャンパシフィックピース) >297 メディアのMDだったりしてw
Debian に sil3124 で ハードウェアRAID5 を組もうと思ってるんだが 情報が少なくて困ってる。(俺のググり方が下手なだけかな) Debian、sil3124、ハードウェアRAID5 の条件で ドライバや手順に関する情報あったら教えてくれないか?
301 :
login:Penguin :2007/10/07(日) 11:05:14 ID:mpYD9xP7
>>300 すまん。説明が悪かった。
sata_sil24 があるのは知っていた(一応、このサイトも事前に眺めている)し、入れてみたんだが
これ入れただけだと複数のドライブとして認識してしまうよね
BIOS側のRAID設定を解釈させた上で、1つのドライブとして認識させたかったんで
なにか方法があるかと思って、調べてみたけど見当たらなかったんで聞いてみた
> Q&A
> 3. I have a Silicon Image SATA RAID card. Why doesn't Linux support my hardware RAID?
> A. It's not hardware RAID. It is software RAID, provided by the BIOS on the card.
>>300 は、これが言いたかったのなら、ごめんなさいでした。…コレ見て思ったんだが
sil3124は、BIOS側のRAID設定だろうが、linux側のソフトウェアRAIDだろうが関係なかったりするの?
関係ないというか、ソフトRAIDカード(RAIDカード上のコードがCPUを使って 必死に複数台に書き込むタイプのRAID)は ・他のカードに切り替えることができない(RAID構成のパラメータ管理方法が違うため) ・Linuxのmdより悪い実装で遅いことすらある といいことなしなので、単なるSATAカードとして使い、単体ドライブを認識させて 後はmd使えというのが定番の答。md+lvmにすれば途中でディスクを追加・交換したり するのも自由自在にできる(若干手間だから漏れはmdのみだけど)。
>>302 激しく同意。管理の手間考えるとlvmはねー……。
あと関係なかったらすまんがPortMultiplierは全般に鬼門だから注意
304 :
301 :2007/10/07(日) 18:08:00 ID:mpYD9xP7
ageてた…すまん。orz
>>302 ありがとう。よく理解できた
ごちゃごちゃ言わずに md の恩恵を享受することにする
余裕があったら、md+lvm にしてみる
>>303 と聞いたことがあったんで、避けてるよ
心配してくれてありがとう
板で全部やるのはどーよ。 えらい楽だぞ。 どれくらいで故障するのかが問題だな。 それをどうやって検知するのかも問題w
不良セクターのあるHDDの活用方法ってないのでしょうか? ext3じゃなくて新しいフォーマットありましたよね あれでフォーマットしたら不良セクターのあるとこだけよけてくれたりしないのかな
つ badblocks でも寿命間近なHDDではあろうから、使う度胸は漏れにはないな・・・ メモリの壊れたところを避けるbadramパッチとかもあるけど、微妙に貧乏性?>Linux
badblocks設定したHDDをRAID5に組み入れてるけど、 半年くらい問題なく動いてるな。。。たまたまだろうけどw たまにfsckして増えていないか確認してます。
>>309 たぶんraid-disk 0にあるデバイスからのコピーになると思う
あるいは、主ディスクだけのアレイを--forceつきで強制起動しておいて
hotaddとかかなぁ……これだと確実に主ディスクからのコピーになるはずだけど。
どちらもやったことないから保証はできない……
安全側に倒すために、できるなら一時退避(バックアップ)を強く奨めます。
mdadmならmissing
データを失うことの恐怖に比べれば 予備のディスクのひとつくらい安いものさ
raidを使おうとして、データをなくした人も結構いるが。。
raidにした安心感でバックアップしてないバカもたこさんいる
>>たこさん こんにちわ(*>∀<)/
たこさんカワユス
317 :
login:Penguin :2007/10/13(土) 23:33:28 ID:eMKVNvrK
すんません、質問です。 debianでmdでraid5を構築してたんですが、他のPCにこのraidを移すとき、/dev/hdb1〜/dev/hde1までの順番や位置が入れ替わっても問題ないのでしょうか。 実は取り外したときに順番がわからなくなっちゃって、どうしようか困っているのです。それに新システムの構成上どうしても/dev/hdeからになっちゃうんで、それもどうなのかと。
>>317 Persistent Superblockがあれば問題ない
あるかどうかはアレイ作ったときの指定によるんだけど、最近だと作るのがでふぉだっけ…?
さっそくバックしてないたこさん登場
HDL4-G1.0のHDDをddで複製して、LinuxPCで読めるか試してみた。 ddで複製って段階で元のHDL4に戻して、正常動作するか不安だったけど 普通のLinuxでCUI操作するぶんには問題無いっぽい。確認後、四基とも複製。 #Windows上のディスク複製ツールだとどうだか知らんよ で、インストール直後の素のVineLinux4.1のmdadmでassembleできた。 さらに、HDL4では83になっているパーティションコードをfdにすると Linux起動時にmd0が編成されている… けど、中がXFSでフォーマットされているらしいのな orz XFSを使えるっぽいubuntoで試したら…mdadmが入っていなかったorz 今自宅に回線来ていないからapt-getできんのよ。 で、今考え中。VineでXFSを使えるようにするの面倒臭そ… ちまちま低速なHDL4からLANで新サーバーにコピーするより 直でPCに持ってくほうが速いと思ったんだけどなぁ… ちなみに、HDL4はDebian GNU/Linuxベースっぽい。 RAID5ホームサーバー製品のCPUボード故障時の復旧のために こういう機能のある1CD Linuxがあるといいなぁと思った。
323 :
321 :2007/10/16(火) 07:33:42 ID:5m1gOou3
>322 ごめん、意味わかんない。 とりあえずOpenfilerで、なんとかなりそうな気がしてきた。 xfsリペアかけて読めるようになったけど、全部lost+foundに逝っちゃったから その前に、なんかまずいことやったんだと信じたい。また後日だな。
ubuntuにmdadm入れたとき保存してあったと思うからメールで送ろうか?w
質問があります。
システムは単独のHDD(例:/dev/hda)にインストールし、別途オンボード SATAに
HDD複数台を使って(例:/dev/sda 〜 /dev/sdd)
md で RAID md0 を組み、データ領域として mount していたとします。
後日、システムの /dev/hda に、別のディストリビューションをクリーンインストールしました。
このとき、データ領域としてつかっていた md0 は、クリーンインストールしたあとも
しかるべく mdadm.conf を書けば mount できるのでしょうか?
>>317 とほとんど同じ状況です。
うまくいえないのですが、アレイを構成する HDD は、
アレイを操るツールやシステムには依存していないと思っていいのですか?
# 入れ替え前と後で、kernel や mdadm のバージョンが多少違っていても、
# 入れ替え後の mdadm がアレイを認識できれば問題ない?
mdadm.confなんか書かなくても、勝手に/dev/md0として自動認識してくれると思うけど。 そういう質問をするってことは、# cat /proc/mdstatとかしても /dev/md0が表示されないってことでOK?
いつごろ作ったmdかにもよるから>自動認識 ためしにKnoppixとかでブートしてみれば?それで認識すれば無問題。
328 :
325 :2007/10/17(水) 10:46:22 ID:Ri74/EYj
レスどうもありがとうございます。 いや、まだやっているわけではなくて、 今:fedora を入れてるマシンがある。データ領域用にHDD4を確保してきたが、まだRAIDを組んでいない 今後:Ubuntu 7.10 が正式リリースされたらクリーンインスコしたい ・さきにfedora上でアレイを組んでおいて、Ubuntu 7.10 が正式リリースされたら システム用HDDに OS だけ入れ替えて、アレイはそのまま流用、ということをしたい ・あるいは、7.10 はもうすぐリリースされるので、それまで待つ と考えていました。 どうせ入れなおすので、ちょっとやってみようと思います。
nashのraidautorunが単一バイナリになれば簡単なのにな
サイズの違うHDDでraid5ってできるのでしょうか? 80G(新品)x2 60G(古くて死にそう)x1 だと60Gx3に強制的になってしまうのでしょうか? 最初に死ぬのは60Gなのは確実なので60Gx3でない場合でも 問題ないとは思ってるのですが
>>330 足りない20GB分は宇宙からのパワーにより補完されるので問題ありません。
334 :
321 :2007/10/21(日) 07:06:49 ID:GLuYmvWu
結局HDL4のHDDのdd複製からやりなおして、よけいな操作なしで mdadm --assembleしてxfsrepairしたのだが、やはり壊れている。 9割くらいは残っているから、ディレクトリ名とか調べて復旧してみたけど なんか、不安になって、この方法での移行はあきらめた。 RAID5 NASのM/B故障時の復旧手段にはなるかもしれんけどね… で、今C7/1.5GHzでのソフトウェアRAIDとSRCS14L(2003年もの)でのRAIDが ほぼ同じ性能で困っている。LAN負荷を伴っても性能差が小さく SRCS14Lの発熱と、RAIDカード故障時のリスク考えると、ソフトで行くべきか… C7付きM/BにGbE挿すと、状況が変わる気がするけど 100BASE(via-rhine)では、6MB/s程度しか出ていないんよね。 RAID5自体は、RAID5上の別名コピーで2GBを90秒弱でいけるんだけどね。
個人でファイル鯖専用なら運用の柔軟性からいってソフトが良い。
336 :
321 :2007/10/21(日) 18:25:01 ID:GLuYmvWu
やっぱそうかな…ちなみに、現在VineLinux4.0インストール直後のドライバー構成で なおかつ、SRCS14Lでは66bit,66MHzのカードを33bit,33MHzで動かしている。 良いM/BならRAID5自体の性能は、より良いのかもしれない。 ソフトウェアRAID5の性能は、sata_viaのポートとsata_sil(3114)複合の状態より PCIの3114をPCIeの3132にしたほうが、わずかに高速化した気がした。 (HDDはSATA2もの) PCIeの内部4portのSATA2カードが欲しいのだが、店頭在庫では見かけない。 商品自体が存在しないんだろうか…?
質問があります。 HDD4台を買って来ました。システム領域とは別に、4台でSoftwareRAID5を組もうと思っています。 このスレと過去スレを見ると、mdadm + LVM と組み合わせている人が多いようですが、 その理由(メリット)がわかりません。どう幸せになるのか、教えてください。 LVMを使わない場合は、4台ともディスク丸ごと fdisk で、パーティションタイプを fd でフォーマットして、 # mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 とやればおしまいですよね。 4台のRAID5 から 5台のRAID5 にする場合は、 ・HDDを買ってきて増設。パーティション丸ごと fd でフォーマットする ・# mdadm /dev/md0 --add /dev/hde1 これでアレイは大きくなるが、ファイルシステムは自動的には増えてくれないので、 resize_reiserfs とかでファイルシステムを大きくする。 こうすれば、LVM は必要ない気がするのですが、どうして LVM と組み合わせる人が多いのでしょうか?
>>337 pvmoveで死にかけのドライブを交換できる。
339 :
337 :2007/10/21(日) 21:35:04 ID:CyPL93bH
>>338 レスどうもありがとうございます。
md を使わず、LVMのみで HDD4台とかで大きい単一のパーティションを作った場合、
たとえば不良なHDDを交換したいときに、pvmove で不良なHDD上に乗っかっているデータを追い出し
(PEをほかのVGに追い出し)、新しいHDDとさしかえる、というのはわかります。
しかし md を使っている場合、不良なドライブがあれば、mdadm --fail で不良扱いにし、
mdadm --remove で取り外し、mdadm --add で好感して追加すればいいので、
やはり LVM と組み合わせる理由がわからないのですが・・・
>>339 そうだね。今のmdadmはいろいろと出来るみたいだね。
俺の場合は慣れなかな。
mdadmが出る前(raidtoolsの頃)からlvmで色々と出来てたからね。
ところで、RAID0でも
mdadm /dev/md0 --add /dev/sda1 --fail /dev/sdb1 --remove /dev/sdb1
でいけるの?
ゆとり教育世代には仮想化や論理化のメリットが理解困難なようだ
漏れも
>>337 と同じ意見。
LVM使ったこと無いorz
344 :
337 :2007/10/22(月) 03:23:03 ID:wCu8JRMx
LVM を間に挟んでおけば、以下のようなことができるかと考えてみました。
・
>>337 のように 4台でRAIDを組む。とりあえず LVM を構成してからパーティションを作る。
・1台故障した(例:/dev/sdd)のでもう一台買ってきたが、同じ値段で容量の大きなHDDが買えた。
・新しく買ってきた HDD に、以前と同じ容量の /dev/sdd1 をつくり、mdadm --add /dev/sdd1 する
・新しく買ってきたHDDの、残りの容量を /dev/sdd2 として fdisk で確保。パーティションIDは 8e とする。
/dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、ファイルシステムを保持したまま、
HDDを余すところなく使えるかな。ただしこの時点では /dev/sdd2 は冗長化されてないですが。
>>343 add するだけでリビルドが始まると思っていたのだけど、もうすこしコマンドが必要なのでしたっけ?
できるかもしれんが、 > /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、 これやったら駄目じゃね? sdd2は単独で使うのが良いと思われ。
片方のドライブが壊れたなど問題が起きたときにメールで送信してくれるユーティルティソフトはありませんか?
>>337 250GBと500GBの混在で、ソフトウェアRAID5のPCサーバーを作っています。
Vineだし、慣れでext3で行っていますが
reiserFSだと将来拡張できてウマーという認識でいいのでしょうか?
立て続けHDD故障のリスクを抑えるためにも
RAID1の240GBと、RAID5の240GB*4として運用しています。
まぁマーフィの法則的には、500GB二つが立て続けに逝くでしょうが…
LVMは、LVMもmdadmも使い慣れない状態で
LVM導入は無駄にリスクを増すと思って、私もLVMは使っていません。
むしろ、LVM使いたくなかったから、慣れたVineで行った次第。
なお、起動デバイスはCFをSATA変換してそのまま。
実験の都合で、RAIDと別ディスクにしたかったし、電力消費面で(略)
私用だし、設定終わった時点で、ddでバックアップしておけばいいや発想。
>>348 単にresizeするだけなら対応していないfsの方が少ないはず。
それはともかく、LVMはたしかに柔軟性があっていいんだけど、どうも
機能過剰感があるし台数的に少ない個人レベルでは物理ディスク単位で
管理する単純性の方を優先して漏れも使ってない。
HDDやパーティションに縛られない柔軟性は便利といえば便利だけど、
ブロックの切り出しはファイルをloopbackとかnbdで晒せば同様のことが
できなくもないし、HDD更新時のアップグレードとかも
RAID時:
新HDDをRAIDに追加 -> 同期が終わったら、旧ディスクは壊れたことにして外す -> RAIDをresizeして完了
RAID+LVM時:
新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す
と手順は違うものの、最近は同程度のゴールは達成できるようになってるから
まあいいかと。LVMを併用すれば選択肢は確かに増える(例:パーティションを
細かく切っても後悔せずにすむ自由とか)のだけど、構築ポリシと運用ポリシで
そこは我慢(という程不満でもないけど)して、より少ない知識で動かせたほうが
いいかなと。仕事じゃないし。
> RAID+LVM時: > 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す mdを新規に組むなら、わざわざLVMに追加しなくても良いのでは? 別個にLVM作成して、rsyncで。
使った事が無い奴に限ってあーだこーだ文句言うんだよな 単なる食わず嫌いだよ LVMが面倒くさいと思ったことは無いね
仕事でUnixさわってりゃ、嫌でも使うもんだしなw
353 :
login:Penguin :2007/10/25(木) 12:11:33 ID:OJWp8+U0
はいはい
とりあえず LVM を使わずに4台を RAID5 にしようとしたが、 # mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 をやったあと、cat /proc/mdstat すると、 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1] 937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_] [===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec となって、なぜか一台が fail 扱いになってリビルドが走っている。 しかも必ず途中でOSが固まってリセットせざるを得なくなる。 リセットすると、またリビルドが走る→OSが固まる。 ・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう ・なぜリビルドが最後までできないんだよう HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。 もう一度 fdisk からやりなおそうかな。
>>354 >・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
これは、そういうもの。
前に何が書かれているか判らないから、最初に一回、
全部のブロックに対して辻褄合わせをする必要がある。
>・なぜリビルドが最後までできないんだよう
こりゃ変だな。
ハードウエアかソフトがどっか壊れてるかも。
>>351 複雑な構成はトラブルの元だよ。仕事ならなおさら。
自分にしか迷惑かからないんなら別に問題ないけど。
分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。
>>350 rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。
-> LVMに加入させ、新ディスクへファイルを掃き寄せる こんなこと出来たっけ。 lvcreateでpvを指定する?そもそもファイルシステムの拡張は? lvmあまり解かってないので〜
つ pvmove
理解しました。 ありがとう。
>>354 最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね
ところで mdのパフォーマンスってあまり実測乗ってないよね
http://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.txt によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw
というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。
# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz
>>362 RAID1だけど速くならないよ(下はHDD単体)
# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec
# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec
364 :
321 :2007/10/27(土) 20:38:03 ID:HbBH9mvu
>>362 たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。
性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。
ベンチマークオフ会やるにはRAID編成に時間かかるもんね。
なんか、面白そうね。 俺もちょっとhdparmで速度測定してくる!
366 :
365 :2007/10/27(土) 20:52:22 ID:9wm9rUig
# hdparm -tT /dev/md0 Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec # hdparm -tT /dev/sda Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec # hdparm -tT /dev/sdb Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec # hdparm -tT /dev/sdc Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec # hdparm -tT /dev/sdd Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec # hdparm -tT /dev/sde Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec # hdparm -tT /dev/sdf Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・? 死兆星が光ってる?
367 :
362 :2007/10/28(日) 00:59:50 ID:71qYpNbN
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。
>>364 おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?
過去スレでmdのチューニングの話が出てたお
369 :
321 :2007/10/28(日) 21:46:34 ID:PihVE9KW
hdbenchクローンはあるんよね。 ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。 今、メインとノートのVine4.1環境にはhdbench入れてあるけど 新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。 hdbenchのためにファイルサーバー機にXも入れといたのにさ。 GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…
hdparm の実行例が、たとえば
>>366 にあるが、シーケンシャルリードだけなのかな?
適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。
方々で見かけるし、bonnie++かなぁ。 うちの宅鯖も測り直したいが、クローラのデータエリアとして 24h稼働中なんでなかなか止められない……
372 :
362 :2007/10/30(火) 00:00:50 ID:1HogexSN
ざっと走らせてみたものの bonnie++ これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。 出力結果がややこい dbench クライアントの挙動をsimったプロセス数を指定、みたいな。 dbench NでNに1〜30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。 何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。 stress cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ tiobench Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry LatencyやCPU使用率の一覧比較を出してくれて便利。 その他 apt-cache search benchmark
postmarkがおすすめ。 ただディスクベンチではなくファイルシステムベンチマークだけど・・・ 同じファイルシステムを使っていれば相互比較はできるはず。
postmarkはZFS専用。 まぁ同じベンチソフト使っていれば、ファイルシステム間での 比較はできるけどな。 ベンチマークソフトによって特定のファイルシステムで 特別性能がよかったり悪かったりするから、 何をベンチするか考えてから。
>>366 同一モデルでプラッタ容量違いの外れを引いただけ。
>>366 # hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec
というわけでたまたまじゃない?
もっかいやってみれば?
>>366 シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。
378 :
366 :2007/11/01(木) 18:47:22 ID:Gt+V+zuD
たくさんのレスありがとうです。 たまたまかもしれませんし。 フツーにマルチでやってたんで、今度シングルで試してみます〜。
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、 片方が破損して取り外したという仮定をして実験をしてみたんですが、 HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。 2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。 接続ポート入れ替えてもダメでした。 パーティション情報や grub.conf も晒した方が良いなら晒します。 誰か分かる方いたらご教示下さい。
380 :
379 :2007/11/02(金) 06:02:03 ID:QaC2YeMr
自己解決? なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。 今シンク中なので終わったらやってみます。
>>381 DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある
383 :
379 :2007/11/02(金) 18:53:15 ID:QaC2YeMr
遅くなりましたが出来ました。
>>381 さんの手も良いかなと思ったのですが、以下のような感じでOKでした。
# grub
grub> root (hd0,0)
grub> setup (hd0)
grub> root (hd1,0)
grub> setup (hd1)
こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、 既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。 現在以下のように 500GB×3 + spare という状態です。 Unit UnitType Status %Cmpl Stripe Size(GB) Cache AVerify IgnECC ------------------------------------------------------------------------------ u0 RAID-5 OK - 64K 931.303 ON OFF OFF u1 SPARE OK - - 465.753 - OFF - Port Status Unit Size Blocks Serial --------------------------------------------------------------- p0 OK u0 465.76 GB 976773168 H8****** p1 OK - 465.76 GB 976773168 9Q****** p2 OK u0 465.76 GB 976773168 H8****** p3 OK u0 465.76 GB 976773168 H8****** p4 OK u1 465.76 GB 976773168 9Q****** p5 NOT-PRESENT - - - - p6 NOT-PRESENT - - - - p7 NOT-PRESENT - - - - このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。 CLIのマニュアル(P.62)に従って # tw_cli /c0/u0 migrate type=raid5 disk=0-3 とやってみたのですが、 Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use. とエラーになってしまいます。 何がまずいのでしょう?
387 :
login:Penguin :2007/11/04(日) 15:41:59 ID:cbkyEPJh
HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題 なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合 ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中 やってもおきたら22%しか読めなかったです。 本体のBiosには変な設定あるかな。このハードで経験がある人がいたら 手伝ってください。
これのどこがRAIDの話題なんだ? (もしかしてマルチ?)
389 :
login:Penguin :2007/11/04(日) 17:26:28 ID:cbkyEPJh
ごめん、マルチでないです。 RAID設定が原因になっているかと思って。書き忘れてすみませんでした。 初期設定のRAID5です。そんなに重くならないはずでしょう? RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは 遅くならないで。
390 :
321 :2007/11/05(月) 14:37:32 ID:bQ+V7ACj
うちも、HDL4-G1.0が遅くて、放棄作業中。 その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が 通信途絶頻発で難航しているほど。 Linuxからの接続で、必要な設定変更はあるのかもしれないけど これといった情報は見つかっていないし、RAID5やっていく上で (HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。 …そっか、見たらLinux板にはSambaスレ無いのな。 UNIX板にあるみたいだから、ヲレも調べてみるか… あと、HDL4担当のスレはハードウェア板にある。
>>387 もう少し整理してわかりやすく書こうや
・何が問題なのか
・何をどうやったら問題が起きたのか
・他に何を試したのか
・その他、主観で気になること
>>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ
392 :
384 :2007/11/07(水) 12:34:29 ID:j1cRifCj
その後の報告。
月曜朝サポートが動き出したところで電話して聞きました。
どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、
新たに追加するドライブだけを記述するのが正解らしい。
>>384 の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。
実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。
1.5TBだと1500分……25時間かよっ!!
とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。
バックグラウンド動作だからいいんだけど。
393 :
384 :2007/11/07(水) 12:36:06 ID:j1cRifCj
さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。 Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか? GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が 約△△時間かかった、など実例を教えて頂けるとありがたいのですが。 パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間 利用不能になるのか見当をつけておきたいのです。 数時間〜半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを 用意しないといけないので。 くだ質の方で聞いたのだけど、有意な返答を得られませんでした。 こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが よろしくお願いします。
>>393 だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬
よく喋るやっちゃ
たいていの場合
>>394 かmdadmでgrow。どちらも君の構成じゃ使えん。
ハードウェアRAIDを使うのが普通ではないという意見は あまり普通ではないと思うが。 ハードウェアRAID使ってて、容量不足になったとき その機能があれば、容量の拡張も普通にするんでね?
実際答える奴いないじゃん。やってることがマイナーすぎて。
>>395 fsの話とブロックデバイスの話がごっちゃになってるぞお前
>>396 真のハードウェアRAIDならもちろん普通に使うけど、問題は
ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと
いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが
世の中多すぎ(なんちゃってRAIDカード群の大多数)。
そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの
可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。
真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID
という感じになるのかな。
>>399 まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、
多機能になればなるほど、こなれてない機能が多い訳で、
例えばマニュアルの誤記のように問題に当たりやすい。
だから、デフォルト以上のこと(RAID5にスペア1本)を
やらせるのはお勧めしない。やるなら検証してからで、
間違っても本番データを運用したままやらない。
>398 なんでブロックデバイスの話が出るんだ? パーティションとかボリュームなら言いたいことは理解できなくもないが それでもごっちゃにはなってないし…
今使っている分の後ろに空きブロックが増えるだけじゃないの? 1パーティションに拘らなければ、lvmでなんとかなるべ。
403 :
login:Penguin :2007/11/08(木) 20:27:40 ID:IZN1X0G5
raid1 grub> device (hd0) /dev/hdb grub> root (hd0,0) grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?
404 :
login:Penguin :2007/11/08(木) 21:27:48 ID:IZN1X0G5
hda から起動できず、結局またリビルド 今度は grub> device (hd0) /dev/hda grub> root (hd0,0) grub> setup (hd0) したけど Kernel Panic になります。
405 :
login:Penguin :2007/11/08(木) 21:56:35 ID:IZN1X0G5
md0 (boot) と md1 (/とswap)両方リビルドして リブートしたら直った^^ よかった。 さっきは md0だけリビルドしてブートしたからパニックになっただけかも。
ここはお前の日記帳じゃねえんだ
今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?
> パーテはC:D Windows板にカエレ
md使うんだよな? 1日色々勉強してみて
410 :
login:Penguin :2007/11/15(木) 13:43:28 ID:Ay00Jbql
すいません、質問させてください。 arecaのarc-1120使ってるんですけどconfigを保存することってできますか? raidの設定コンフィグなんてものはないですか? 壊れたので同じものを買って入れ替えたいんです。
修理したら?新規に買うより安くなるはずだが
修理だと時間かかるじゃん。 areca使ってないけど、興味あったんでマニュアル見てみたけど、 設定のファイルへの書き出し/読み込みなんて機能はなさそ。 ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの? あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。 ゼロからやっても数分で終わりそうだけど。 毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。 既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、 不安だったらサポートに聞いてみた方がいいと思うよ。 このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。
>>411 ,412
ありがとうございます。
save configとかそういう項目ないのでやっぱりないんですかね。
一応サポートにも連絡してみます。
RAIDボリュームの情報はHDD側に持つものもあるし、 実装次第だと思う なんで、サポに聞くのが一番いいね
RAID 1 はリード性能が向上するというイメージがあったのに mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…
なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。
そんなに知恵が足りない事をひけらかさなくてもいいのに
確かに知識というか知恵があれば分かるよなあ… >なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。 2 台の HDD でミラーリングしてる場合 両方の HDD から並列に別のデータを読めるから
> 2 台の HDD でミラーリングしてる場合 > 両方の HDD から並列に別のデータを読めるから これぢゃ、こわれててもわかんないんじゃないかな
なぜそんな話に飛躍する? しかも意味が分からん。 RAID1で1台壊れて読めなくなってどうする? RAIDの障害はsnmpやメールで通知するんだよ。
>>420 セクタ単位のデータ破損を言ってる?
そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ
2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?
>>417 man md
してから書けよ
Changes are written to all devices in parallel. Data is read from any one device.
The driver attempts to distribute read requests across all devices to maximise performance.
上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな
>>420 お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か?
予め言っておくがRAID5でも一致確認してません、よー
元の >417 がイタイのはおいといて >422 普通は HDD 内部でエラーチェックで救いきれないという状態になって バケデータを吐くのでなくエラー通知をしてくるから どちらを信じればいいかは分かる そうならなかったとしたら相当運が悪いので どのみち生きていても仕方ない…
ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな 安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?
2台構成だとセクタ単位以下の信頼性は下位層に依存、 それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。 銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な 場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ
下位層でできないことは上位層でやればいい、っていこうとでは? ということで、ZFSドゾー
>銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な >場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ 発注先とかソフトウェア部分も多数決な
429 :
3台 :2007/11/18(日) 17:54:46 ID:KXIawyII
メルキオール、バルタザール、カスパー… ごめんなさいごめんなさいごめんなさい
>>427 > 下位層でできないことは上位層でやればいい、っていこうとでは?
それ結局意味ないから。
RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。
通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の
エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。
セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で
エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない)
セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。
もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる
こともできるけど、それじゃRAIDの意味ない。
>>430 3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry
434 :
417 :2007/11/20(火) 14:41:38 ID:WUpQPj2Z
イタイ417だけど
ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。
定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど
全面的なやつは珍しいかも。
(そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?)
だからそういった意味ではRAID1で高速化するってありえないよ。
RAID0かぶせない限りはね。
>>430 ,432が正解だと思う。
わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w
アイタタタタタタタタw
あたああああああああ
あーあ そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに そもそも最初にRAIDを提唱した1988年の論文でも RAID1でread性能が向上する事が指摘されてるんだよね
>>438 めんどくさ。まぁ今更どうでもいいがな、
>>432 から引用すると
>Many older IDE RAID 1 controllers read only from one disk in the pair,
>so their read performance is always that of a single disk.
>Some older RAID 1 implementations would also read both disks
>simultaneously and compare the data to detect errors.
だとさ。結局実装次第ちゅーこっちゃね。
つーか、実際にレイド組んでベンチとってみるといいかもね。 ごたくならべてないでさ。そのmdってのが優秀なら問題ないんだろからさ。
見苦しい
>>441 なんだググっても反論見つからなかったか?w なんつてな。
正直もうどうでもいいな。
なら何も書かなきゃいいのに。 書けば書くほど見苦しくなる。 437に同意。 >そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
はいはいプロユースプロユース。 てか本気で見苦しいな。 RAID総合スレに来ておいて、今やコンシューマ向けRAID搭載NASの殆んどを占めるmdを「特定の」やら「知らない」とか言われてもな。 んなもん持ってなくてもRAID語るなら自宅鯖でLINUXでmdくらいはやってて(試していて)当然の話じゃねえの?
>>434 せっかく
>>432 書いたのに全く読んでない
ものすごく好意的にエスパーしたとしても、単独負荷と並列負荷をわざと曖昧に書いて煽ってるようにしか読めん。
つまり絡みたい気分だったのだろう。そっと放置しておいてやろう、な。
>>434 >定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
>本来は片方からしか読まないよ。
と「本来の RAID 1 は並行読み込みしないと定義されている」とほのめかしておいて
>>438 で論破されたのに
>>439 >めんどくさ。まぁ今更どうでもいいがな、
>>432 から引用すると
> >Many older IDE RAID 1 controllers read only from one disk in the pair,
> >so their read performance is always that of a single disk.
> >Some older RAID 1 implementations would also read both disks
> >simultaneously and compare the data to detect errors.
>だとさ。結局実装次第ちゅーこっちゃね。
と「過去の実装例」で「定義」の議論に対して反論したつもりになって
>>417 >なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。
での知恵の無さを誤魔化す
>>417 =
>>440 =
>>442 はとてつもなく痛い
このへんで勘弁してあげようよ
417はもう出てこれないに500ペソ
過去レスを読んでいれば、このスレが md がメインなこともわかると思うんだが。 ただスレタイに md とも書かれてないし、ハードウェアRAIDを Linux で使う場合の話も ここでしたいので、その場合はその旨一言触れておいたほうがいいな。 あときりわけが難しいけど、上に乗っかるOSは関係なく、ハードウェアそのものについての話になるなら 自作PC板にいったほうがいい。 ただしこういうストレージカードの場合、ハードウェア / fakeRAID ともにデバイスドライバが密接に絡むので むずかしいけど。 長文ごめんなさい
前スレまではハードウェアRAIDの話題も結構出てたんだけどね。
このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。
まぁ
>>417 の件はそれとは関係なく、単にナニだっただけなんだけどw
451 :
login:Penguin :2007/11/21(水) 02:39:21 ID:WhtoZStV
ひさびさに痛い奴でした
どーでもいい。次。
>>450 そうかなぁ?
アレイ拡張など運用の柔軟性とか、HW-RAIDだと対応が難しい要求を
HW-RAIDに求める奴が出ては諭されしてるだけかと。
Linuxの場合は、HW-RAIDにしたらしたで、 ちゃんとミドルウェアというかユーティリティが対応しているかっていうのは大きな問題でしょ。 ユーティリティなしで済まそうとすると、障害通知とかどうしたらいい?ってことになるからね。
大きな問題ではあるけど、そんなのベンダが提供してるかしてないかであって 話題になるようなポイントではないのでは?わざわざ高いHW-RAID入れるのに まともなサポートツールがないもの選ぶことはないし。
>>453 お前HW-RAID使ったことないんだろw
>>456 少なくとも、ここで出てくるHW-RAIDはいわゆる民生用で、
高いHW-RAIDみたいなサポートもユーティリティもないでしょ。
高いの使えばそりゃシームレスでも柔軟性でも出るけど、
そういう話が「ここで」出てたかはかなり疑問。
>>457 >>453 は過去に一体どんなハードウェアRAID使ってきたのよ。
よほどの大昔か?
少なくともここで最近このスレで出てきた3wareやarecaだったら
「アレイ拡張など」はwebブラウザ経由で簡単にできるぞ。
この価格クラスのものでも、信頼性は十分あるし、普通にRAIDを利用・管理
(故障したドライブの交換やエラー時のメール通知等含め)したり、容量を拡張する
くらいの操作する分にはソフトウェアRAIDよりも「簡単・確実」なのは確かだよ。
RAIDの知識があれば、買ってきてすぐ、ほとんどマニュアル読まずに使える。
仮にOSが落ちてても、通電さえしてりゃrebuildとか勝手に続けてくれるってな
安心感もある。
ソフトウェアRAIDにもハードウェアRAIDにもそれぞれの長所・短所はあるんで、
それぞれ理解して使い分けりゃいいだけの話。
RAIDに求めるものは使用目的によって変わってくるんだから、どちらか一方を
無理矢理否定するこたーない。
諭され云々は多分
>>384 のこと言ってるんだろうけど、
>>384 が特殊だったのは
CLIでやろうとしたからだよ。あとはファイルシステムの拡張でRAIDとは無関係。
CLIは既にメーカー側でもオマケ扱いで、サポート側もほとんどノウハウないし、
マニュアルの記入ミスが何年も放置されっぱなしだったりしてる。
ほとんど使う人がいないんだから「やってることが特殊」と言われてもしょうがない。
>>457 で、たとえばどんなことがHW-RAIDでできないと思ってるの?
アレイ拡張など、以外に。
461 :
login:Penguin :2007/11/22(木) 20:18:20 ID:Ai+8+9Qs
( ´ー`)y━・~~~
ワロタ ここお笑いスレ化してるな。 > このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。 なんか絵に描いたようなw
md の RAID 1 でリード性能を高速化する方法ってないのかな? 方法自体がないなら諦めないといけないけど…
お前は何を言ってるんだ
だから並列負荷耐性は上がるとmanにも書いてあるだろうに
そこの解釈の差が論争の原因だね。man mdだと > Data is read from any one device. > The driver attempts to distribute read requests across all devices to maximise performance. と最初の文が意味深だが、解釈は曖昧。で、ソース見ると > * Don't change to another disk for sequential reads: とあるので、おそらく単体のリードはディスク一台分の速度、ただし 別のリードは別のディスクに分散できるのでスループットが台数に 比例して伸びる、なのでは?
なるほど。
>>466 hdparm でリード性能が伸びてないのは
単発リードコマンドになってるってこと?
469 :
465 :2007/11/24(土) 02:28:51 ID:lC7phVQh
>The driver attempts to distribute read requests across all devices to maximise performance 複数の読み取り命令を全てのデバイスに割り振って高速化しようとするよ じゃないの? 単一read時のことは書いてないよ。
>Data is read from any one device. データは一つのデバイスから読まれる。 こっちが単発リードのことをいっているんだろ。
なおのこと単発リードが高速化するようには読めんが
だから速くならないって言ってるだろw
状況を整理するよ hdparm による md の RAID 1 に対するベンチマークで リード性能が単体 HDD に比べて向上していない (自分を含めて 2 〜 3 人が報告) これは ・hdparm によるベンチマークは単発リードコマンドしか発行していない ・そもそも md の RAID 1 ではリード性能は向上しない のどちら (あるいは両方?) なんだろう?ということ
同時に複数のファイル(とは限らんが)の読み込み要求があったときには できる限りドライブを分散させて、パフォーマンスが向上するようにしている。 各ファイル(とは限らんが)のシーケンシャルな読み込みは単一のドライブから。 だね。
ふむふむ。
>>473 その2択が正しいかどうかは置いといて、hdparmは単発readでしょ。
なんだか話がループしてそうなんだが>>362- は読んだ?
チラ裏だが
ディスクベンチっていうと
http://www.iozone.org/ みたいにパラメータ変えつつやるもんかと。
特にRAIDボードで組んで評価って話でよく挙げられてる単純なベンチは
あれで参考になるんかと思うわけだが、口出すようなことでもないわけで。
単純化指向は良い面もあるしな。tiobenchくらいが結果貼りやすいかもしれん
なんかmdの話ばかりでハードウェアRAIDがスレ違いな話題と化しているようだけど… それはさておき、なんでLinuxってOpenBSDやNetBSDのRAIDframeのような kernel & userlandを含めたフレームワークがきちんと整備されていないんだろう? ドライバがkernelにとりこまれても、各種ユーティリティはRAIDカードベンダまかせで、 それらが使えないディストリビューションの場合は途方に暮れるしかないっていうのは 悲しすぎる。 OpenBSDならBIOSレベルで設定しないといけないもの以外は、基本的にraidctlコマンドで 統一的に使えるのになぁ… あと、どうでもいい余談だけど、ちょっと前、mdとLVMを組み合わせるのは複雑だなんて 話があったけど、ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に 扱える。 あと、このスレからソフトウェアRAIDの話が撲滅されるというメリットもあるw
>>479 >フレームワークがきちんと整備されていないんだろう?
ニーズがないから。
OpenBSDのように遊びでHW-RAID使っている訳では無いから。
>>481 dmraidって既に
「きちんと整備されてい」るの?
単に知らないから聞いてるんだが。
>>479 お前みたいなのが居るからmd以外の話題が低レベル化するんだよ
>>482 いまだにrcのまんまとはいえ、開発は続いているね。最新版は今年の5月に出た。
>>483 必死だな
>>479 > ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に扱える。
ニーズがわかってないな。ZFSで全部、じゃシステム部品としての粒度が大きくて、
導入しづらくてたまらん。「これで全部解決」ってのは大抵成功しないよ。
mdとLVMとの組み合わせだと、機能かぶりまくりで無意味に複雑化する上に オーバーヘッドだってあるんだから、よほど素性は悪い罠
ま、それがLinuxの性
>>479 上のほうで複雑すぎる、って書いた奴です。
ZFSは見た目は簡単(?)だけど単純ではない。複雑なものを隠して簡単そうに
見せているだけ。なんで、トラブルになったとき対処に必要なアレイ構成とかの
情報も結局ZFSの中に隠されるから対応しづらい。そこが嫌で原則使わないことにしてる。
RaidFrameとLinux mdは、どちらも一長一短だけど、
ニーズにあった自由な組み合わせが必要ならhw-raid/md/LVM/fs等で、
ワンストップで操作できる点やドライバの充実をとるならRaidFrameが有利、
ってところか。
自分以外の視点で考える練習もした方が良いかもね。
>>485 > システム部品としての粒度が大きくて、
> 導入しづらくてたまらん。
これに禿胴する人は多いと思う。
おちん○ちんの皮
>>492 整合性検査って、consistency check っていうんだよ。
ttp://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID With a modern kernel, >=2.6.16, this command will initiate a data consistency check
and a unreadable block check: reading all blocks, checking them for consistency,
and attempting to rewrite unreadable blocks:
# echo check >> /sys/block/mdX/md/sync_action
You can monitor the progress of the check with:
# watch -n .1 cat /proc/mdstat
494 :
492 :2007/12/06(木) 15:26:20 ID:ap4dDKTJ
>>493 ありがとうございます、実験用領域を組んで試してみます。
mdで第一日曜に自動チェックとかいう話ってなんだっけ?
debianのデフォルトじゃね?
そんなん有るんだ。 ってググってもヒットしないし
今、250GB*6本でmdによるRAID5を作っています。 名前はmd0です。 今度500GB*6本でmdによるRAID5を作ろうと思います。 新しく作るRAIDをmd0にして、既存のRAIDをmd1にリネームしたいのですが リネームの操作が分かりません。 まだHDD買って来てないんで実験できないのですが、要領をご存知の方が いたら教えてください。 ディストリはCentOS5です。
1.旧md0を停止して 2.新md0を作成して 3.旧md0をmd1としてアセンブルして 4.好きなとこにマウント じゃだめヶ? 新HDD買う前に1と3だけ試せる。
あ、ごめん
>>498 宛てね。
それと今止めてもいいmdがないので試せなくてスマソ。
多分問題なく出来るとは思うけど。
>>498 mdadm.confのARRAY行書き換えて再起動でmd0がmd1になるから、改めてmd0をcreate
fstabとか関連のファイルも同時に変更する必要があるんで注意
あと確認は十二分にしたほうがいい
Persistent Superblock内ってアレイのデバイス名(md0)まで
埋め込まれるんだっけ?それともUUIDだけ?
502 :
498 :2007/12/12(水) 12:26:42 ID:6F5R6X/A
みなさん、どうもありがとうございます。 まだ実機のmd0をバックアップ取れていないので、virtualpc内にlinux入れて 教えていただいた手段を試してみます。
503 :
498 :2007/12/12(水) 13:18:37 ID:6F5R6X/A
CentOS4がインストールされたVirtualPCイメージがあったので、それで試してみました。
○作業前
/dev/md0: 要素 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
○手順
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 -a -l 5 -n 4 /dev/hdd1 /dev/hdd2 /dev/hdd3 /dev/hdd4
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
# shutdown -r 0
○作業後(再起動後)
[root@centos ~]# cat /proc/mdstat
Personalities : [raid5]
md1 : active raid5 hdb4[3] hdb3[2] hdb2[1] hdb1[0]
29952 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
md0 : active raid5 hdd4[3] hdd3[2] hdd2[1] hdd1[0]
60096 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
unused devices: <none>
無事にmdの名称が変わりました。
今度HDDを買ってきたら、本番マシンで試してみたいと思います。
どうもありがとうございました。
>>501 # mdadm -E /dev/hdb1
をしてみた所、md?の記述はなかったので、HDD要素自体には自分がどのmdに属すのかという
情報は持っていないのかもしれません。
あと、mdadm.confをfindで検索してみましたが、存在しませんでした
>>503 横から失礼。
自分も昨晩レスキュー用のKanotix使って
md*の名前を変更したのだけど、
古い mdadm (1.*.*) だと再構成(assemble)段で
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
を
# mdadm -A /dev/md1 -a /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
とかやらないと上手く認識しないみたい。
今時のは(2.*.*)で問題ないけど。
>>504 さらに横レスw そうだったのかー。知らなかったよサンクス。
先日上手くいかなかったんでmdadmを1から2にうpしちゃったばかりの俺です。
あ、ついでに、HDD4台とかで台数多いときは
# mdam -A 1/dev/md0 /dev/sd[abcd]1
で省略出来るお。この指定だと間違いにくいんでオヌヌメ。
知ってたらごめん。
506 :
訂正 :2007/12/12(水) 15:57:50 ID:PFZrlHwL
○ # mdam -A 1/dev/md0 /dev/sd[abcd]1 × # mdam -A /dev/md0 /dev/sd[abcd]1
507 :
498 :2007/12/12(水) 16:09:33 ID:6F5R6X/A
-aって、「必要ならばデバイスファイルを作る」っていうオプションですよね。 付けなくても動作しましたが、付けるほうが正解な気がします。
>>503 >あと、mdadm.confをfindで検索してみましたが、存在しませんでした
アレイ障害時に管理者にメールを投げる機能、とかの設定保存ファイルがどこかにあると思う。
man mdadm
man mdadm.conf
して出てこないとかなら使ってる鳥が別名にしてるんだろう
509 :
login:Penguin :2007/12/19(水) 17:03:00 ID:bGUYO486
ICH8DHのraidはlinuxでも使えますか? 現在raid1でWindows(XPとVista)を使っていますが、ハードディスクの後ろの方を空けて、そこにlinuxを入れてみたいと思っています。 この場合、raid1ままで使えますでしょうか?ich8,raid,linuxなどでggって見ましたがよく分かりませんでした。よろしくお願いします。
511 :
509 :2007/12/19(水) 17:31:25 ID:bGUYO486
>>510 ありがとうございます。
mdadmというのが有るのですね。
今回のようにハードディスク前半のWin領域はそのままraid1で、
後半のlinux領域もraid1にしたい時は、
raid1状態にlinuxをインストールするのは無理でしょうか?
RaidのBIOSでハードディスク後半は通常状態に戻し、
片方のハードディスク(の後半)にインストールして、
そのシステムで起動してから、raid1の設定をする、
という感じのなるのでしょうか?
#質問が分かりづらかったらスイマセン。
#そもそもmdadmのraid1の領域から起動することはできない?
mdadmで同期するとメモリーが増え続ける(メモリーリーク) 何が原因だろう・・・ 外すと増えない・・・ あぁ、折角Raid組んだのに・・・
>>511 ああまた一番面倒な構成を・・・
LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える
RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが
必要。正直お勧めできない。
ブートはmdの場合は別に問題なくできると思う。
お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・
当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、
チップセットの機能は殺して使う。
514 :
513 :2007/12/19(水) 23:58:47 ID:dXqKwU0p
> LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの > 後ろ半分だけmdすれば使える。 嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が どういうディスクレイアウトでHDD記録面使ってるかLinuxから 知りようがないので、「後ろ半分だけmd」は不可能です。 あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。
つかいまどきHDDなんてクソ安いんだから ひとつのHDD分割してそれぞれRAIDなどと 金払ってわざわざ面倒を買うようなことはやめて HDDひとつ増設しろ、というのが 全うなアドバイスだと思うが。 わざわざ面倒を買いたいMの人なら ここで聞かずに、自力でMるべき。 その方が長期間楽しめる。
その話だけど、HDDって最近あんま下がんないよね。 500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。
>>513-515 オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、
その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。
その事がハッキリしてよかったです。
Linuxは仮想化で使用する方向で検討します。ありがとうございました。
たぶんすごく勘違いしてる気がするけどまあいっか…
きっと
>>518 は微妙に勘違いしてるね。
勘違いしてる場合、
>>518 はチップのRAID機能を相変わらず有効にしたまま
ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは
ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で
実現してるはず(それができるチップなら、だけど)。
なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、
Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの
2つがあることは理解されたのだろうか・・・
>>520 アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、
ホストOSがWinなのでオンボードRaidに関しても面倒がありません。
この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、
Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。
なお、ICHの世代が変わっても下位互換性は確保されているようですし、
M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、
「ボード変えたらあぼん」は言いすぎかと。
なお、FakeRAIDがSoftRAIDに勝っている点として、
(1)BIOSが起動した時点からRAID機能が使える,
(2)BIOS側の設定だけでRAIDが使えてしまう
と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。
ttp://itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/
結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから 何をチョイスしたところで諦めるしかないわ。
>>521 とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。
BIOSレベルでミラーとか作れるのは便利だと思うけど、
OSからまともに使えない場合はまったく意味がないからなぁ…。
ドライバがまともならFakeも良いだろうね。
Linuxだとその条件が以外に難しいからSW使ってる人も多い。
(dmraidとかだと結構ちゃんと使えます?>使ってる方)
あとBIOSでアレイいじってる間はOS起動しないから
可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
>>523 可用性という言葉は知りませんでした。
ttp://e-words.jp/w/E58FAFE794A8E680A7.html 可用性、つまりシステムの壊れにくさのこと。
障害の発生しにくさや、障害発生時の修復速度などによって計られる。
> あとBIOSでアレイいじってる間はOS起動しないから
> 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。
もちろん復旧中はHDアクセスは非常に重くなったりしますし、
世の中にはもっと可用性の高いシステムもあるのでしょうが、
デスクトップPCの可用性としては、現状で個人的には充分です。
# 可用性が重要視されるであろうサーバー機だったら、
# Win上のLinuxで運用などしませんしw
> (dmraidとかだと結構ちゃんと使えます?>使ってる方)
使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。
というかlinuxのFakeRaidとSontRaidに関しては、既に
>>192 で結論が…。
今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ
そのせいでリビルド中に何回壊れたことやら。
527 :
login:Penguin :2007/12/24(月) 16:20:29 ID:pkkqmlH/
関係ないだろ馬鹿か?
RAID1,5は可用性をあげる目的と考えた方がいい 故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド そうじゃない場合リビルドで壊れる可能性を考慮して、 RAID1の場合一台外してバックアップする RAID5の場合全台外してバックアップする RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない 故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい データ保全を考えるなら2台壊れたら停止させることになるけど。
>>528 529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね
ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。
バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。
ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。
mdadmの話なんですが現在320Gを6台でRAID5組んでる んですが、少し容量足りなくなってきたんで1Tを2個 追加して 320>|RAID0(1T) 320>|--------→>| 320>| 320>|RAID0(1T) 320>|--------→>|RAID5(3T) 320>| 1T-------------→>| 1T-------------→>| こんなの考えてるんですが、mdだけで構築できますかね? やっぱりLVM使わないとダメ?
上から順番にmd0、md1、md2として。 もし仮に出来たとしても、md0〜2まで同時にactiveになるけど その際md2の要素が1つ欠けているわけで、立ち上げる度に md2のリビルドが発生しないだろうか? 面白そうだから、実験してみては。
アレイの組みあがる順番が問題ですよね。 そのあたりデレィさせることができないかな?...と。 しかし、よく4台のHDDでRAID0+1とかで組んでるという 話聞くんですがあれもこれと似たような話のような気がする。
Virtual PCでやってみた。 まず64MBのパーテション2個をRAID0にしてその後に 128MBの別のパーテション2個でRAID5組んで見た。 64MB> |raid0(128MB) 64MB> |--------------→>| 128MB-------------------→>|raid5(384MB) 128MB-------------------→>| 結果>OK ちゃんとmd0作ってからRAID5作成してくれてるみたい。 fstabで自動的にマウントもできた。 それではと、さらに64MBのraid0パーテション追加してみる 64MB> |raid0(128MB) 64MB> |--------------→>| 128MB-------------------→>|raid5(512MB) 128MB-------------------→>| 64MB> |raid0(128MB) 64MB> |--------------→>| 追加自体は問題なく、パーテションの拡大もできた。 が、再起動すると最後に追加した方のraid0が外れて Raid5は3セットで動作してる......orz どうもログ見て見ると単純にアレイ作成順番で認識 してるようで後ろのraid0も起動後はアレイとして 作成されているが、Raid5構築時認識されてないので 外されてしまったみたい。 なんとか、アレイの起動順番変えられないものか...
>>534 mdadm.confの記述を変えるんじゃダメなの?
アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が
mdadm.confなんだからそこを書き換える。
予想としてはmd0から順に起動するだろうから、
新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ
# 当方debianなんで流儀違ってるかもしれない。
>>534 テスト環境はdebian etchっす。
漏れもそう思って順番変えてみたんだがmdadm.confの
情報はアレイの構成情報じゃなくてモニタリングする
時の比較情報に使うものみたいで、状況変わらなかった。
そもそも
64MB> |raid0(128MB,md2)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB,md0)
128MB-------------------→>|
64MB> |raid0(128MB,md1)
64MB> |--------------→>|
md2→md0→md1の順番で作成してるんだ。
で、md2とmd0のだけの時は問題なかった。
mdadmのアレイ構成情報はどこに記述されてるんだろ。
mdadm.confって無くても動作するし、どこか別の所に
設定されてるはずなんだが、、、、。
>>536 そうか、力になれなくてすまん
/etc/init.d/mdadm-raidあたりを覗くと、
mdadm --assemble --scanとかやった出力を各行で処理してるんで、
ずっとmdadm.confで制御してると思ってたよ
mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock
(構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる
ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……
>>537 すまんできた。
少し考えれば分かることだがraidの構成はinitdの起動スクリプトは
の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を
md2→md1→md0に書き換えたらOKだった。
initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し
してるみたいね。だから単にmdadm.conf書き換えようが消そうが
raidは構成されるわけだ。
明日、1TB2個買ってきて実機でやってみよ。
>>538 おつ。ちなみにこっちで調べた感じだと、
起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ
(後から作った64MB/raid0はsuper-minor値が大きいので、
/dev/md*の数字が小さくても後に起動される)
initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。
あとで調べてみよう。
>>539 grep mdadm.conf /sbin/mkinitrd
スワップ領域って同期する必要ってあるの?
なぜ同期を取らなくても良いと思ったのですか?
バックアップする必要性がないと思ったからです
どうも釣りではなく、真面目な質問のようなのでお答えします。 稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。 もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する HDDが不良になった場合、SWAPパーティションが見えなくなります。 これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。 試したことはありませんが、きっとkernel panic行きでしょう。 SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても 冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。 結果、OSは問題なく稼動することができます。 システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に RAID内に含むべきです。 システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを RAID内に含ませなくてもいいでしょう。 こんな所でおけ?
>>545 解説乙です。
むかし同じ疑問を持って、起動中にスワップパーティションを
削除してみたところKernel Panicになりましたw それ以来、
まともな鯖の構築では必ずスワップのミラーもするようにしてます。
それミラーとか関係ないお前のミスじゃん
548 :
542 :2008/01/10(木) 09:17:31 ID:Y4ukHsPA
>>545 勉強になりました
分かりやすい解説ありがとうございました
>>547 いちいちレスするのもくだらないですが
ミスじゃなくて実験ですよ
>>549 何にでも文句つけたがる年頃なんでしょう。
脱初心者ぐらいの。
そういった輩はしつこいからスルー推奨
552 :
login:Penguin :2008/01/11(金) 17:00:47 ID:oau76v1R
Kernel Panicとか馬鹿じゃねーの
>1 出直して来い! って、ちょうど1年前・・・
FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました 再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?
>554 SATAケーブルが緩んでいる可能性あるかも 外してみて抜けやすかったら寿命
/var/log/messages見たら、何かログが残ってるんでは?
3ware 9500S-4LPを 構成250G×4でRAID5、Debian etchで使用してます 今はまだ余裕がありますが今後容量が少なくなってきたら オンライン拡張とやらで 例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか よくわからないのでご存じの方教えて下さい。
一台入れ替える→リビルド これを4回繰り返してドライブを全部入れ替える その後オンライン拡張で増量。 結構手間&ヒマはかかる。 で、増えた分を別パーティションとするなら問題ないけど ファイルシステムを拡張(既存のパーティションを大きくする) となると LVMを使ってない場合にはかなり大変。 LVM未使用の場合、一旦全部バックアップを取って、 ドライブ入れ替え→丸々新しくRAID構成→リストア の方が断然早いし、楽。
ん? 待てよ。 オンライン拡張ってドライブ単位のみだったか? マニュアル読んでみたけど、 そもそも使用してるドライブに空きがあるという前提は存在しないから… 確実なことは、サポートに聞いた方がいいと思う。 が、俺だったら、一旦バックアップ取ってゼロかやるな。 ほんの数時間で終わる作業だし。
>>561 ありがとうございます
私もよくわからなかったのがそこなんですよ
ドライブ単位の追加だと空きがない時点で
できないですからね。
新たに4ポート以上の物に交換するか
一からやり直すかですね。
563 :
login:Penguin :2008/01/20(日) 12:30:39 ID:Kq5k1NMa
SCSIでRAID組むと高いんですか?
HDD の値段見てみりゃ大体わかりそうなもんだが...
安いよ。
バッファローのTeraStationってLinux md?
567 :
鯖”管理”者 :2008/01/20(日) 20:50:05 ID:ZhP37dc/
先生方、ご教授ください。 先日、RAID1のDELLサーバのシステムボードが故障したので、電源を落とした。 交換後、電源投入するもOSが起動不可。レジストリが壊れたみたいなmesage なぜ、こんな事に??RAID1なら、片方おかしくなっても、読み取り可能ディスク からREADしにいくのではないんですか?
>>567 RAIDとて、どのディスクをどのような構成で組み立てるのかの管理情報
がいる。管理情報がBIOSか何かのフラッシュなどに書かれていて、それが
飛んだじゃない? その「レジストリが壊れたみたいなmessage」をここに
書いてみ?
>>566 そうだよ。
RAID だから OS に変なレジストリを書けと言われたら、両方の HDD に変なレジストリを書き込みにいく。 仕様通りですが何か?
570 :
login:Penguin :2008/01/20(日) 22:27:46 ID:Kq5k1NMa
アドバイスお願いします。 RAID10を組んだサーバを、LinuxでデータベースとNAS(というかファイルサーバ) として運用したいと考えています。 そこで、このマシンはデータ領域専用としNFSを立てて、別途RDBMS、ファイル共有は マシン(ML115とかの格安機)を用意してデータをNFSで共有する案を思いついたのですが、 こういうやり方ってどうでしょう? パフォーマンス悪いかな
RDBMS (Oracle とか PostgreSQL)とかの本体は別マシンで動かし、データ領域だけファイルサーバをマウントして、そこに表領域とかを置くってこと? 遅いと思うよ。 たてる RDBMS にどれくらいの性能を求めるか、同時アクセス数にもよるけど、RDBMS でアホな SQL を投げると CPU 100% 持ってかれることもあるし、大量の件数をさまざまなテーブルから取ってくるような SQL だとディスクアクセスをもっていかれる。 おれは開発環境では、DBサーバとファイルサーバは物理的に分けてるよ。
DBはクエリをon memoryが基本なんじゃないのか?
>>572 理想はそうだけど、更新系のSQLも使うし(そのアプリケーションの性格や、一回に更新するデータ量にもよるけど)、
開発やテスト時だったら、export / import もひんぱんにやることもあるだろうから、いずれにせよ
データ領域を NFS 越しに使うというのは、あまりお勧めできないと思う。
> (データベースの) データをNFSで共有する案を思いついたのですが、 実運用なら、まずありえない...
自分も最初は工エエェェ(´д`)ェェエエ工って感じだったが、 最近はRACなんかだとNASを共有ディスクとして使う例が増えてきている。 SANなどのブロックアクセスに比べて扱いが簡単になるしね。
パフォーマンスが云々より,ロックとか問題ないの?
>>576 だからそれをちゃんと意識してるのがクラスタFSって奴。
OracleとかでNetApp等をファイルサーバにしてNFS越しに使うっていうのは かなり昔からやられていたことだからなぁ
>>570 どのあたりまで共用したいのかによるだろうけど
iSCSIならそんなに遅くならなかったよ
580 :
570 :2008/01/21(月) 09:14:01 ID:ABezklEe
>>570 です、みなさんどうも
自宅サーバでの運用でそこまでやるものどうかと思ってるんですよね…
>>577 それはちょっと意味が違う。
クラスタFSの代わりとしてNFSを使う。
クラスタFSは、複数ノードから直接マウントしてブロックアクセスさせるために使うものだし。
RAID10をみくびっていた、これはいいわ。
たしかに金銭面と実装台数と容量の兼ね合いが問題なければ10が速度も安定性もあって一番いいな 何よりリビルド時の故障率の低いし
漢ならRAID0だろ
>>581 ああロックって普通のNFS上のファイルロックの話だったか。
>>580 iSCSI簡単だよ
md+LVMにiSCSI target LV用意してMacから使ってるよ。
yes
お手軽なので試してみては?>iSCSI
>>570
そーいう揉める元を言わない方が・・・
RAID0使うやつは人間のクズ。
だからさぁ
あのさぁ
>>589 事実ではあるが
流れ的に
あえて書くことでもない
ネタニマジレス
デスクトップのシステム用のHDDなんかはストライピングだな 週一回自動で鯖にバックアップ取らせてるし問題ない
バックアップが日曜だったら土曜日にRAID0が壊れる件
システム用のアレイなんか大して大事なもんないからいいよ ゲームのセーブデータやブラウザの履歴が古くなるぐらいだし メールもケータイとデスクトップとノートと鯖に同じものが行くようにしてあるしね 困るのは鯖がRAID5なんだがリビルドはすべて新しいディスクにドライブイメージをコピーしてからするようにしてるんだけどそれでも2台目がコピー中に死ぬ可能性があるということだ
RAID6 にすりゃいいじゃん。
>>595 おお、俺がいる。
うちはバックアップのあとシャットダウンするスクリプト書いて
毎日バックアップだけど。
カッコンカッコン…
601 :
login:Penguin :2008/01/24(木) 19:35:26 ID:d7j3JduP
アッー!
>>602 --createで並べた順じゃね?
--create /dev/md0 --level=10 /dev/sda1 /dev/hda1/dev/sdb1 /dev/hdb1
これで -n2 のレイアウトでAAが sda1とhda1, BBがsdb1とhdb1
すまん >これで -n2 のレイアウトでA1,A1が sda1とhda1, A2,A2がsdb1とhdb1
createしてみればすぐわかることで、しかも直後にやり直せる話なので詳しい話が見あたらないのかもね
thx、ちとためしてきまっす ついでに質問、ディスク4本で容量使用率50%の場合、RAID10、RAID5+予備1、RAID6どれがパフォーマンス一番いいんだろ? ライト、リード、ランダムライト、ランダムリードあたりがどういう順番になるのかなーと 信頼性はRAID6>RAID5+1>RAID10だとは思うんだが・・・
RAID10>RAID6>RAID5 スペアなんて個人で使うなら使ってもあまり意味がないぜ 1台死んでからリビルドするまではアクセスなんてそんなにしない(できない)だろうし RAID5で壊れたときの対処としては経年的な寿命の場合リビルドする前に同じ台数の新品のドライブを用意して そこにドライブイメージを写してすべて新しいドライブにしてからリビルドしたほうがリスクは大幅に減る 吸い出した寿命の近い可能性のあるドライブはヤフオクなり祖父やドスパラで処分すれば新品のドライブ代の少しは回収できる
>>607 プライベートといえど漏洩は困るから、
なるべく中古には流さない運用にしてるなぁ
事実上大丈夫なんだろうけど、可能性は摘んでおく
>>606 信頼性=アレイが壊れない確率ってことだとして、4台構成でランダム選択で壊れるとすると、
RAID10 → 1台目の破損では生存(リビルドのリスク有)。2台目の破損時1/3の確率で死亡(リビルドのリスク有)。3台目の破損時100%死亡。
RAID6 → 1台目の破損では生存(リビルドのリスク無)。2台目の破損では生存(リビルドのリスク有)。3台目の破損で100%死亡
RAID5(スペア1) → 1台目の破損では生存(リビルドのリスク有)。リビルド前なら2台目の破損で100%死亡。
って感じになる。詳しくはリビルド時の破損確率とか、本当にランダム破損か、
とかいろいろ確定しないと。あとコントローラ故障は考えてなかったり、
セクタ単位のエラー検出は確実に行われる、という仮定があったり。
>>608 zero-fillしちゃえばFBI等の専門機関でも厳しいみたいだよ
IBMやHITACHIのドライブならIBMのDiskManagerでさらに強力な初期化コマンドがあったと思う
610 :
login:Penguin :2008/01/26(土) 12:43:25 ID:ShBosd97
6台で10Nしようぜ
合計ディスク台数が4台で、RAID5+1とRAID6を視野に入れてるなら、大概の用途でRAID10だと思うぞ。 パフォーマンスについても、RAID1要素があれば同時readには強くなるがアクセスが1本の場合には速くならん。 RAID10だとmdのfar/nearのあたり読んだらいいが、作り方によってパフォーマンス特性変わる。
パフォーマンスの話する割には、md 前提なの?
U320の15krpmなHDD6台でRAID5マジオヌヌメ
>>609 そうなのかー。情報サンクス。
そのあたり情報収集甘かったから、きちんと調べてみる。
>>612 最近CPUって速いしマルチコアだからね。
wikiの/near/far/offset必死で読んでみました、ついでに他にも読んでみた 間違ってたら指摘よろ chunkは構成ドライブに順番 nearが同一chunkを連続何回書き込むかのパラメータ 4ドライブでn2なら2回同じデータが書き込まれる(2台でRAID1のイメージ) 4ドライブでn4なら4回同じデータが書かれる(=4台全てでRAID1) farがドライブ的に遠い所にデータを書き込む処理を何度やるか。その際chunkの順番を変える (A1 A2 A3 A4だったのを2回目はA4 A1 A2 A3みたいな) 使い道としては ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある chunkの順番が変わるため、アレイ内の破損ドライブ許容数が調整可能 4ドライブでf4なら1台でも生きていればアレイが崩れない? offsetがfarを近距離でやるのかな?よくわからん 4ドライブ構成に限って言えば n2だと通常の1+0、2台目破損時で1/3で読み取り不可 n2f2だと1台でも生きていれば読み取り可能 f3は2台まではどの組み合わせでも読み取り可能、3台目破損時100%読み取り不可 f4は1台でも生きていれば読み取り可能 パフォーマンスはわからん・・・実際試せば良いんだろうが、VM上でやっても意味無さそう
fatの使い道ってそんなこと書いてあった? 流し読みだけど、 >This is designed for rarely-written data; writes are slower because they are scattered, but the first 1/f of each drive is a standard RAID-0 array. Thus you can get striping performance on a mirrored set of only 2 disks. だから、場所が分散されて遅くなるのでカキコが希なデータ向けだが、各ドライブのfar数分の1の領域はRAID0化されるから例えば2ドライブのミラーリングでもs-readはストライピングの速度期待できるよ という話じゃないけ。offsetだと場所が遠くなりすぎないのでwriteペナルティは軽減されると。台数分の0相当のread得られるんなら10ユーザは積極的にoffset使えばいいんじゃないかね。 >ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある read err出たらそのドライブごと切り離しそうなもんだがなー どっからが推測か書いといてw 冗長性の話は実験した方がいいと思うのと、容量1/2未満になるのはどうかと思うわけで、たぶんあまりテストされてないよ。offsetだけでいいんじゃないかね
ああごめんごめん シリンダうんぬんは推測で、他はググってるときにどっかでみたんだが・・・ どこだったかまではちょっとわからん 速度は分からんが、ひとまず冗長性だけVMで試してみます
すみません質問させてください。 IODATAのNAS、HDL-GTでHDD4台-RAID5で構成していたんですが、 今日起動しなくなってLED全部が赤点灯状態になり、 データを救いたくてあれこれやってみているところです。 WEB設定画面には入って見てみると、 「RAID崩壊」「ハードディスクのシステムの内容が一致していない」 と出ています。 そこでKNOPPIX機に繋いでmdadmアセンブルモードしようとしましたが、 --uuid指定では「uuidが無い」、/dev/sd[abcd]6指定だと「superblockが無い」と蹴られます。 例のリコンストラクタで取ったイメージファイルにxfsrepair -f してみましたが、 これはエラーで途中で終了してしまいました。 イメージではなく直接ディスクに貼り付けてみても同じです。 ぼくのかわいそうなオツムではこのあたりまでしか思いつくところもなく手詰まりとなっている次第です。 どっか間違ってる部分とか他にやってみることとかありましたらご指摘お願いします。
自分は使ったこと無いので基本事項の確認のみ。 的外れかもだけど。 > /dev/sd[abcd]6 HDL-GTのmdはパーティション6番目使うのが普通なの?
622 :
login:Penguin :2008/01/30(水) 16:28:35 ID:p8UdA4TA
今更こっそり>393にレスしてみる。 44GBを30GBにするのに15時間かかった。まぁ |sda1(16GB)|sda2(44GB)| なのを |sda1(16GB)|sda2(30GB)|free(14GB)| にして |sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから |sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。 なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
623 :
login:Penguin :2008/01/30(水) 16:29:18 ID:p8UdA4TA
今更こっそり>393にレスしてみる。GParted使用。 44GBを30GBにするのに15時間かかった。まぁ |sda1(16GB)|sda2(44GB)| なのを |sda1(16GB)|sda2(30GB)|free(14GB)| にして |sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから |sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。 なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
624 :
login:Penguin :2008/01/30(水) 16:30:02 ID:p8UdA4TA
ぬああああああああああああ二重送信してしまった ちんこ切ってくる
>>621 > > /dev/sd[abcd]6
> HDL-GTのmdはパーティション6番目使うのが普通なの?
はい、
sda1 204MB
sda2 400MB
sda3 1GB
sda4(拡張)
├sda5 518MB
└sda6 230GB ←ここがRAID5でXFS
このようになっています。
他のパーティーションはRAID1で組まれててext3だったりします。
なんか妙にパーティションをたくさん切られてるよね。 普通のmdとは違う実装方法をしていたら、手が出せないよねえ。
とりあえず # mdadm -E /dev/sda6 で状態は見れるんでしょうか?
mdのoffsetとnear試しました(冗長性) ディスクは全部4台構成(全て2G) mdadm --create /dev/md0 --level=raid10 --layout=n2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 md0のサイズは4G、利用可能率50% sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし sdb、sdcをVMから見えなくする→アレイ崩れる sdb、sddをVMから見えなくする→問題なし sdb、sdeをVMから見えなくする→問題なし sdc、sddをVMから見えなくする→問題なし sdc、sdeをVMから見えなくする→問題なし sdd、sdeをVMから見えなくする→アレイ崩れる 結果:1台障害は100%問題なし、2台目障害は1/3の確率でアウト やっぱり1台目と2台目、3台目と4台目でRAID1だったようです wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・) 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8
mdadm --create /dev/md0 --level=raid10 --layout=o2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 md0のサイズは4G、利用可能率50% sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし sdb、sdcをVMから見えなくする→アレイ崩れる sdb、sddをVMから見えなくする→問題なし sdb、sdeをVMから見えなくする→問題なしに見えたが、re-addで無限ループになってアウト sdc、sddをVMから見えなくする→アレイ崩れる sdc、sdeをVMから見えなくする→問題なし sdd、sdeをVMから見えなくする→アレイ崩れる 結果:sdb、sdeをアレイ崩れとしたら1台障害は100%問題なし、2台目障害は2/3の確率でアウト どうも不安定な気がする。sdb、sde意外にもsdcsdeあたりでも変になって再構築してます・・・ wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・) 1 2 3 4 4 1 2 3 5 6 7 8 8 5 6 7 n3とo3もやりたかったんだが、アレイ構築の最後でVMがハング。うちのバージョンが古いせいかも 推定としてはn3とo3両方2台障害でも100%大丈夫なんだがなあ o2を使う場合は実環境で事前テストしてください、今回の印象だとどーにも動作怪しい パフォーマンス差についてもさっぱり。レイアウトから想像すると、o2のほうがn2より早そうな予感がするかなーってところ
>>627 レスありがとうございます。
全てのディスクで、
mdadm: No superblock detected on /dev/sd*
と出ます。
超基本的な質問があるんだけど 2台でハードウエアRAID1組んでて1台が壊れた場合、 残った1台も取り出してSATA→USBケーブルか何かつないで普通にアクセスできる?
できる けどHDDがPATAだと無理
>>630 う〜ん。。。
正直なところダメだこりゃ、と言いたい。
パーティション情報は残っているのにRAIDの情報だけが消去されるってのはおかしな話よね。
壊れているんじゃなくて、何かが誤動作してRAID情報だけを消してしまったのかな?
素直に一度メーカーに問い合わせてみた方がいいかも。
635 :
login:Penguin :2008/02/01(金) 00:10:42 ID:skbei6UK
3wareもしくはその他でハードウェアRAIDが組めるインタフェースカード 安価でおすすめのものを教えてもらえませんか? 動作環境はCentOSでRAID10で運用したいです
>>630 >>634 古い LInux 使ってて /dev/sd** のはずが、 /dev/hd** になってたりして。
> けどHDDがPATAだと無理 なぜ? SATAとPATAって運用上はデバイス名が違うだけだと思っていたのですが… だとするといまPATAでミラーしてるけど万一を考えてSATAで組み直した方が良いのかな?
PATAにSATA→USBケーブルは使えないな確かに
自宅マシンでミラーリングとかお前ら余裕あるなー。 俺はRAID5で精一杯だよ。
>>637 インターフェースが何でもソフトウェアraidなら問題ないよ。
DVD-RAMでやった人もいるくらいなんだから。
ただし、認識タイミングの違いでraid自動認識がこけることがある。
>>635 「安価」っていくら位を想定してるの?
3wareがOKってことは10万以下とか?
>>639 RAID5組むくらいなら普通に4台マウントさせて
2台分バックアップ用にしたほうがまだマシ。
コエーぞ5は。
何がどう怖いのか詳しくplz
>>643 バックアップはバックアップとして別に用意するでしょ。
もしかして、RAIDがバックアップ装置の代わりになると思ってると思ってるヤツがLinux板に居るの?
>>644 一台死ぬ→raid5だから平気さ(w。
入れ替えてリビルドする→生き残りの全てが高負荷状態に。
raidの仲間はたいてい同じロットの同じ製品。一台が死ぬころ
にはみんな寿命が近くても不思議ではない。
生き残りのうちの一台が……
全滅orz。
ってことが起こりやすい。っていうか割と起きる。
リビルド時に負荷がかかるのが、生き残りのうちの片割れな、
10の方がそういった意味では安心。
怖いかどうかはともかく、大容量のドライブがここまで安くなってしまうと、 台数が増えるほど有利になる RAID5 の価値が低下してるのは確かだね。 同じ750GB 4台なら 3台でRAID5 + 1台 spare より RAID1 + 0 の方が速度も安心感もあって使える容量は同じ 1.5TBだもんね。 RAID5が有利になるのは 5台以上で構成する場合だろうけど、 個人の利用ではそんなに容量デカくする必要ない人が多いだろうし。 まぁ今現在なら 500GB×5 で RAID5 + spare という選択肢の方が安いのは確かだけど、 750GBのだってすぐに安くなるだろうし。 物理的な台数は少ない方が故障発生率も下がるし。
650 :
635 :2008/02/01(金) 15:15:13 ID:skbei6UK
>>641 やっぱり10万くらいになってしまいますか
安価とはいえ、5万以内には収めたいと思っているんですが、ちゃんとしたハードウェアRAIDで1+0を組んでみたいと思っているので、
10万ほどなら予算を用意したいと思います。
>>647 「割と」起きる?
俺は一度も経験したことないな〜。
3wareのハードウェアRAID5構成のPCが
4台24時間稼働してるけど。
もっとも、ハードディスクをまとめて買うときは
最低でも最低2軒以上で分けて購入してるけどね。
ありゃ「最低」一つ消し忘れw
>>650 いや、なってしまいますか、ではなく、
予算とかスペック(必要なポート数など)とか分からんと
誰にも答えられないよ、と。
>643 リビルドの速度制限しとけば、それほどでも無いと思うがなあ。
>>651 幸運なだけかと思ったら、
> もっとも、ハードディスクをまとめて買うときは
> 最低でも最低2軒以上で分けて購入してるけどね。
しっかり気をつかっていらっしゃるのですね。
見習います。
>648 4台でraid5なら2台容量1台スペアより 普通に3台容量の構成にするだろjk。
>>656 あと、これは当然のことながら、RAIDでは「サーバー向け」のドライブしか使わない。
以前なら Maxtor の MaxLineシリーズ。
最近は Seagate の Barracuda ESシリーズ。
「4台」のうち、一番古くから動いてる PCは 丸5年くらい稼働させてるけど、
rebuild中のトラブルでデータを失ったことは一度もない。
>>657 それこそ危険極まりないと思うけど。
RAID使ってる意味がほとんど意味がないような。
あ〜〜〜またダブった!!! 落ち着け > 俺
>659 一台死んでも余裕があるよ。リビルドのリスクに関しては >655
俺が気にしてるのは rebuild ではなく、 degraded のリスクなんだけどね。 ドライブが故障したとき、「即座」に次のドライブが入手できるか分からんので。 要するに、故障した時点でスペアのドライブを買ってくるか、予め買っておくかの違いだよね。 ケチケチしないで、一台くらい余分に買っておこうよ。せっかくRAID使うんだったら。 ドライブの大容量・低価格化時代でのRAID5の一番のメリットは、 容量不足になったとき、柔軟に容量増加が可能である、ということだと思う。 後で容量が不足する可能性があるならば、 スタート時点には無駄と思える「4台でRAID5 + spare」にも意味がある訳で。 (後で5台、6台と増やすことを前提に)
>>662 なんでそれをRAIDのフレームワークでやらにゃならんの?
lvmがあるのに。
RAIDとLVMは用途が全然違うんだけど? 当然RAID上にLVMですよ。 でないと「柔軟に容量変更」できないじゃん。
>662 自分は500Gディスクなら十進数の500Gを狙ってfdiskで毎回 パーティション確保して、それからraid構成してるので、 少なくとも「メーカーやモデルによる容量の差」が原因の 入手性で問題出たこと無いよ。 他に入手性に影響のある要素ってあるだろうか。
>>664 すまん。じゃ、RAID5のメリットをもう一度別の表現で説明してくれないか。
RAID5にスペア用意するぐらいならRAID6でいいんじゃないの?
>667 だよね。 管理の手間が単純化できるし、デグレードしたからといって 急にゴリゴリする必要もない。
>>665 例えば「今出張中で、帰るのは一週間後」てのは?
クソ忙しくて再来週末まで買い物なんか行く暇がない! なんてことはよくあるのでは。
俺は東京在住だが、「サーバ向け」のドライブはやっぱりアキバ以外ではあまり置いてない。
(あってもゲロ高い)
地方に住んでりゃもっと大変だろうね。
あるいは「給料前で金がない」とかw
「すぐに入手できない」状況なんていくらでも思いつく。
hot spareはその間ハラハラしないで済む保険代だと思えばいいのでは。
容量については、最悪ひとつ大きいのを買えばいいんで
確かにあまり問題にはならないでしょう。
>>666 このスレ頭から読み直してください。
>>667 まぁそうだね。
話の流れが
>>639 (ミラーリング : RAID5)から来てるだけで。
>669 サーバ向けね。確かにそれだと入手性はあるかもな。 半日〜二日ほどデグレード状態でドキドキってのも そりゃあったし。
なんかだんだんRAID6にしたくなってきたなー。 mdでRAID5から移行できればいいのに。
俺はHPの6連装DDS4ドライブつけてるから、RAID5でも別に怖くない。 オートチェンジャーとして動くようにスクリプトも作ったし。 一度だけHDDが壊れたことがあったけど、HDD交換する前にすかさず dumpでバックアップ取った。 いいよDDSいいよ。 最近LTOが欲しいけど。
ここの香具師らはペンギン板だからソフトウエアRAIDだよな? それならRAID5でリビルド時の負荷を軽減させたければ寿命と思われる一台目が死んだときに同数のHDDを用意して一旦アレイを解除してドライブ単位でデータを写せばいい そして欠落している一台分は古いドライブでリビルドして御役御免で売っぱらう この際に二台目が死んでも新しいドライブのデータでリビルドすればいい この方法の欠点は多少コストがかかることと一旦データがオフラインになるということだな でもリビルド時のリスクはRAID1並に下げられるから個人的には十分な費用対効果が期待できると思う 俺もDDSでバックアップとりたいけどデータ量が多すぎてとりきれない… 小さいデータで重要なものはDDSとMOでバックアップしてる
自分のは使用量1TBくらいだけど、6連装DDSドライブを使えば割と快適にバックアップ取れるよ。 19時くらいにマガジンをセットして、dumpスタート。 テープエンドを検知したら次のテープを自動的にセットするようにスクリプト書いたから。 朝には6本全て使い切っててマガジン吐き出して、次のテープをセットしたマガジンをセットして 会社に行く。 会社から帰ったらまたマガジンを変えて翌朝にまたマガジンを変えて・・・。 だいたい2日くらいあればバックアップできる。 ずっと家に居れるんなら、もっと早く終わるとは思うけど。 ヤフオクで内蔵型を5000円くらいでゲットできたから、うれしくてね〜。
>>674 移動先のドライブに負荷かけたテストしてないと、
かえって初期不良に当たりやすくなる気がするが。
677 :
654 :2008/02/02(土) 12:56:37 ID:XKGlbsjJ
すみません、予算などをまとめると 総額10万以内、PC本体、メモリ増設、ハードウェアRAID(RAID10)、ポート数は予算が許す限り、HDD数も予算が許す限り で考えています。日本市場や米国市場、為替の歩み値をデータベース化してそれを分析するシステムを構築 したいと考えており、そのデータベースサーバとして利用する予定です。 どのような選択肢があるかアドバイスいただけると幸いです
678 :
650 :2008/02/02(土) 12:57:53 ID:XKGlbsjJ
すまんす、先ほどの書き込み主の名前まちがってた。。。
さらには
>>654 と書きたかったのです。
>>675 RAID使ってると容量いくらでもデカくなるから
バックアップの手間が一番の問題だよな。
HDDひとつ1TBが普通の値段で買える世界がもう目の前。
「RAIDで5TB」とかなったらどーすりゃいいのやら。
weekly backup に丸一週間かかったりw
せめて500GBくらい入るバックアップメディアが出てこないかな…
テープより同容量のHDD用意したほうが安いんだよな…
でも使ってないHDDって結構な確立で駄目になるんだぜ
使ってないテープも結構な確率で腐るけどな。 ただHDDと違って全体が死ぬことはほとんどないが。
5インチでもいいから100GBのMOとか作ればいいのにな まぁすでに見捨てられてる企画だけど…
そろそろバックアップ用にBlu-ray導入したいな
ブルーレイってDVD並みの保存性しか無くないか? それじゃバックアップの意味が無いじゃん…
BDは容量少なすぎ HDDのバックアップ先はHDDしか無いよ
>>686 バックアップは定期的にね
>>687 基本は俺もそれだが
バックアップのバックアップにDVDではそろそろ限界かなと
スレチっぽいのでこの辺にしておきますね
689 :
login:Penguin :2008/02/02(土) 18:53:06 ID:KheaAcBM
>>689 医者池。
包茎専門より、ちゃんとした泌尿器科がいいよ。
1TBクラスの光学メディアが欲しいところだな。
>>628-629 実証GJ
>>651 職場でならSCSIなRAID5がスペアに移行した直後お亡くなりとか、
スペア無しアレイでバカSEが復旧とちってお亡くなりとかなら経験ある。
目的がサービス止めたくないことなのか、データが大事なのかで話が違うだろうよ。
まパフォーマンス低下で実際上止めざるを得ないとかはよくあることだw
データに関してはバックアップ工夫しろとしか・・・
>>658 コスト次第。お金あるなら保証付きの箱のほうが安全だし、
キャッシュ系のマシンならSATAの安いのでいい。
高耐久ドライブでRAID5より安物でRAID6の方が安価で安全なこともある。
環境によってはSCSIドライブでも簡単に死ぬしね。
RAID5のHDDが2台同じタイミングで壊れるって言うのは、交換時の作業者のミスだと思う。 ずっと寝かせたままだったHDDを横に向けたり、角度を変えたりすると、確かに壊れやすい。 しかし、いまや5年保証までつくHDDが、一台壊れたからと言って、 外部要因無しに同時に壊れるとは考えにくい。 つまり一台壊れたときには手も触れずに外付けのHDDを接続してコピれば問題ないと思うんだが。
確かに通常の運用ならば2台同じタイミングで壊れるってことは、まず起きない。 ただしRebuild中にOnlineなHDDに不良セクタが見つかってRebuild失敗というのはある。 同じタイミングで複数台のHDDが壊れるシチュエーションは電源ONのタイミングだね。 もしくは1台のHDDが変な壊れ方をして、SCSIのバスロックが発生してしまい 同一SCSIバス上のHDDがRAID-CもしくはOSと通信ができなくなってしまって 全てのHDDがFault扱いになってしまうか。
セクタ数は爆発的に増えてるからな
>694 そう。つまり電源ON/OFFとか、HDDを傾けたりとか、結局物理的要因がない限り 2台同時になんてありえないと思うわけですよ。 壊れた後の復旧方法以上に、そういうもっと重要な知識が無い人が多いと思った。 作業者がそのことをわかっていれば、電源OFFなんてしないでコピーするでしょ? SCSIのバスロックですか。確かにそれはどうしようもないですね。
バスのせいで全部吹き飛ぶのはどのRAIDレベルでも避けようがないわな
壊れる前に定期的にHDDを入れ替えて、製造ロットを適当に分散させるのが良いと思う。
ていうかリビルド時「不良セクタがありましたのでOFFLINEにします」 って判断はRAIDボードなりソフトウェアRAIDが判断するんであって、 リビルド時に初めて(もしくは久しぶりに)アクセスするからそういうことが起きるんだと。 で、それ以前に見つかるように定期的に全セクタチェック走らせて、不良あったら即HDD交換。 これなら1台壊れてリビルド発生しても同時に2台目が逝ってRAID崩壊の率はかなり減るんじゃないかと。 それでもREADエラーとWRITEエラーは別だからアレだけど。 ・・・という考えで3年運用してるんですが突っ込みどころあったらご教示下さい。
いいんじゃない? 定期的なドライブのローテーションも効果あるだろうね。
701 :
696 :2008/02/03(日) 13:25:39 ID:mkL95ztR
>699 いいと思うけど、不良セクタがあっても普通に動くから ちょっと贅沢な使い方だと思った。
702 :
login:Penguin :2008/02/03(日) 13:27:21 ID:FPEcH9J9
RAID5+1でおk!
703 :
login:Penguin :2008/02/03(日) 13:28:07 ID:FPEcH9J9
>>701 サブバックアップ用としてでも活用するかオクなり祖父に売れ
MegaRAIDとか日立のSANRISEとかみたいに、ある一定の周期で HDDのサーフェイステストをする仕組みが欲しいよね。 そうすればRAID5でもかなりの信頼性をあげることができるんだけど。 SCSIのバスロックでステータスがFaultになるのは、悲しいけれど時々ある。 このスレにCEが居たら、「俺経験あり」って人がいるんじゃないだろうか。
HDDを同時に実装してArrayを作るから HDDの劣化度は同じだじゃね。 RAID5なら1台死んで負荷が上がれば、2台目も死ぬと。
ここ数日のスレを読んでて、LVMとmdのいいとこどりをしたような何かが欲しいと 思った。 だが作る実力はない。。。
708 :
699 :2008/02/03(日) 23:27:50 ID:/V4l36Hy
>>700 さん
ありやとやんした。
ローテやってなかったんで検討します。
>>701 さん
いまんとこ怖いんで
>>703 さんの方法を採ってます。
>>704 さん
あらまMegaRAIDてサーフェススキャンやってくれるんですか-
ちょうどボード一枚買おうと思ってたんで逝ってきます。
周りに相談出来るよなエンジニアさんいなかったんで助かりました。
皆さんありがとうございました。
どこか、パーソナルVTS出してぇ。
「mdでRAID5構成で、全セクタチェック」 という話は繰り返し出てきますが… 実際のところ、具体的にはどうやって行なうものなのでしょうか?
やってはいないけど、mdがofflineの状態のときに # dd if=/dev/sda of=/dev/null bs=1024k とかでRAID要素のサーフェイステストをするくらいかな。 もしエラーがあったら、mdをonlineにしてバックアップ。 その後に手作業でその要素をfaultにしてhdd交換。 できればmdの機能としてHDDのサーフェイステストを実装して欲しいなあ。
>>712 すごい。
こんなのがあったんですね。
現在やっています。
speedは20900K/secって出ています。
速いんだろうか?遅いんだろうか?
誰かARAID2200の発売日知らない? 2月発売としか書いてないから気になる
>>714 ARAID2000ユーザーだけど、良くなった点はどこ?
あれW/Bなので遅いよぉ。安全だけどw。
VFSのキャッシュはUPSで保護する必要はあるけどね。
>>715 あごめん。W/Tでしたね。書き込み確認しないとI/O返してくれないのはw。
>696 >2台同時になんてありえないと思うわけですよ。 思うのは自由だ、うん。
だから、そういう煽るようなことを書かないの!
>>715 チップが変わった
&UIを別チップで処理するようになった
結構な大幅変更だぜ
>>706 物理ボリューム層
論理ボリューム層
の2層で管理する思想はご存知?
ストレージ専用機(NASやSANストレージ)のエンタープライズ向けはこの思想がほとんど。
この思想に乗っかると適材適所という言葉も浮かぶ。
すでにLVMが君が言うところの物理ボリューム層論理ボリューム層に分かれていて、 物理ボリューム層とmdでできることは十分に被ってるんだよ。 LVMのPVOLではコンカチしかできないから、mdが必要となっているだけで。
>>721 そだね。mdとLVMとは機能がかぶりまくっている。かといって、いまさらその辺の
機能の再構成をするわけにもいかないだろうしなぁ。
とか思っていても、Linuxのことだから大幅に変更してくる可能性はあるか。
しかも、斜め上の方向に。
過去にはEVMSというのもあった。
てか思想なんて大仰な言葉を持ち出す時点で そいつはよく分かってない人だろ。
>>724 IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。
アンカー間違えた。
>>723 IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。
>>706 Veritas Storage Foundation Basic
http://www.symantec.com/business/theme.jsp?themeid=sfbasic ストレージが足りなくなってからHDDを一個ずつ足して、全HDD容量の合計÷2の容量のRAID1として使えないこともない。
使い始め: 200GB + 200GB → 200GBのRAID1
320GBを買ってきて追加: 200GB + 200GB + 320GB → 360GBのRAID1
500GBを買ってきて追加: 200GB + 200GB + 320GB + 500GB → 610GBのRAID1
200GBが故障しそうなので取外し: 200GB + 320GB + 500GB → 510GBのRAID1
っつう感じ。
ただ、使えるLinux distributionが限られているのがアレだな。
>>721 LVMはボリュームの自由度を上げるものだから、可用性の部分は
無理してLVMにせず素直にmd使った方がいい、とは思うけどね。
まあ多分に好みかも。
729 :
login:Penguin :2008/02/08(金) 00:55:42 ID:aD0bAbyD
/:::|:::::::|:::::::::::::/::::::/::::::::::::::/:::::::/`\_ / ̄\::::::|:::::/:::......-―――--..........__/:::::::::::::::\ ┌ー ̄::::::::::::ヽ::|:::..-^ ̄ ^ ヽ、:::::::::\ ヽ::::::::::::::::::::::::::::/ \::::::::ヽ ヽ:::::::::::::::::::::::/ :::: \:::::ヽ ヽ::::::::::::::::::/ :::::::: \::::|_ ):::::::::::::::| ::::*::::: ヽ:|::::ヽ /::::::::::::::::| ::;;;;: l::::::::ヽ /::::::::::::::::::| ノ::ii:ヽ:: l::::::::::| |::::::::::::::::::::| /::::;リ:::l:::: |::::::::::::| |:::::::::::::::::::::l ...l::::;リ:::/:: /:::::::::::::| .|::::::::::::::::::::::l . /:ア/::: /:::::::::::::::i l:::::::::::::::::::::::::l ./::`^::::: /:::::::::::::::::/ ヽ::::::::::::::::::::::::l /:::::::::: /:::::::::::::::::::/ /:::::::::::::::::::::::l /::::::::::::: /:::::::::::: __ __ __ __ __ __ __ `i | | i'l_i'l_i' i''´ __`ヽ-ッ _コ l____ i´__`ー-ッ _,,.、 ,! ,! .l l _,,,_ └'´__ ``´ レ┐ ┌─┐ ,!'´ ``´ /,r''´ / 丿 '、'、 l´ __`ヽ-ッi''´__`ヽ-ッ .l l ノ / / / / / ヽ ヾ´ ``'´└'´,,_``'´ l └ ' ,/ ___,,ノ / _,,.r'' / \ `> r'"´ ``ヽS.) l 「´ 「´ _ノ ‘''' ´ `′ └ ''´ ̄``‐-‐'' └ ┘ └‐ '' ´
>> 714 2/18日以降だそうです。
自分は対象にならないだろうと思ってましたが、 RAID5のリビルド中に他のHDDが死ぬ事象を経験しました・・・ 今後の対策なんですが、RAID1にしたとしても 片肺になった後、復旧のリビルドかけなきゃならないのは同じですよね? RAID1もRAID5もリビルド中のリスク自体は同じで RAID5は単純に壊れる可能性のあるHDDの台数が多いってだけのような気がするんですが、 リビルド時のHDDのアクセスの仕方って、RAID1とRAID5では大きく異なるんでしょうか? よく考えてみればRAID1の方がシーケンシャルに読むだけで RAID5はランダムアクセスになるので負荷が高くなるような気もするんですが 実際のところはどうなのかピンと来ないもので。
そのRAIDサブシステムがRAID6をサポートしているのならば RAID6にするがよろし。
3重RAID1という手もあるよ
要するにアレだ 壊れるときはどんだけ頑張っても壊れるんで ここはスッパリとRAIDなしの方向で
リビルト時はシンクロ速度落としてやさしくシンクロさせるのだ。
736 :
login:Penguin :2008/02/15(金) 21:34:37 ID:Kxay7Pc2
処女のドライブに無理させちゃいけないよw まぁ壊れるのは古いドライブだが…
737 :
735 :2008/02/15(金) 21:44:27 ID:3J9xJSqX
あと、リビルド時の負荷で読み取りエラーが出て raid崩壊したように見えても、実はデータ自体は 無事な場合もある。 可能ならば -f オプションだっけ、デグレード状態で 強引に新規構成して(ダミーディスクが必要かも) シンクロなし、ファイルシステムのフォーマットなしで fsck をしてみるべし。
738 :
735 :2008/02/15(金) 22:11:25 ID:3J9xJSqX
ただしダミー必須でかつ新規構成では勝手にシンクロを 始める仕様だと、問題発生の可能性があり。 自分の場合、ダメになった最初の一台は読み取りエラー多発で デグレード状態になった。 リビルド中にもう一台が負荷による破損でraid完全死亡。 そこでダミー挟んで新規構成、破損した一台は後で新しい ドライブ補充でゆっくりリビルド。 だったので特に問題なかった。 しかし一般的には。 新規構成した途端に勝手にシンクロ始めるようだと 無事なドライブの無事なチャンクをダミーに入っている 値を含んだ「汚染された」パリティ値で、正常だった パリティチャンクを上書きする可能性がある。 要はなにが言いたいかと言うと、 不要ドライブによる予行演習が必要って事。
というより、なぜRAID5なのに、いきなり復旧しようとすんだよ。 RAID5ならば、そのまま読み込み可能なのだから、一度どこかにデータをコピーするべきじゃないの? RAIDの復旧なんて、そんなに何度も経験ないと思うし、 (ソフトウェアの)復旧の精度だって怪しい。 エラーが起きた場合にはとりあえずコピーすれ。
質問です フラグを付けずにRaidを外すのは危険ですか? -f をやらずに -r するのは危険?
80GBx2でRAID0すると使用可能な容量は80Gじゃなくて160Gでok?
RAIDのイロハから調べ直せ
>>730 データをコピーするのもリビルドするのも危険性は一緒。
744 :
login:Penguin :2008/02/16(土) 12:15:16 ID:QgDn6KX6
RAIDカードスレで質問すると怒られそうな流れだったので、こちらに質問させてください。 RAID組んでLinux鯖を運用してる人って、/bootやOSはどこのパーティションにインストールしてるんでしょうか? HDD4台で組もうかと思うのですが、4台すべてをRAID(10化)にしてここにすべてインストールしても パフォーマンス的にはOKなのでしょうか? または、別に一本OS用のHDDを使ってるとか? どこかのスレだと「/var/logは別がいいよね」と言ってる人もいたり。
そもそも、そのRAIDカード上にルートファイルシステムのインストールはできるのか? できるのならばパフォーマンスもあがるし、やるべきだ。 /var/log はサイズが大きくなるからってことじゃないかな? /var/logなんていつでも移動できるから、あんまり気にする必要はなし。
746 :
login:Penguin :2008/02/16(土) 13:27:11 ID:QgDn6KX6
なるほど。ハードウェアRAIDであればマシン・OSにとってみればひとつのHDDに 見えるので、ルートファイルシステムをインストールできるのでは?と思ってました。 ソフトウェアRAIDだと仕組み上やはりムリそうですね。 はやくRAIDマシン組んで巨大なNFS鯖作りたいなあ。他のサーバの設定やコンテンツ、/var/logなどのデータを 集中管理したいんです。バックアップもしやすいし。
> /var/log はサイズが大きくなるからってことじゃないかな? プログラムや設定によるけど、/var/log にガンガンログを吐く プログラムだと、/var/log のディスクとデータを扱うディスク と分けて I/O ネックを回避することはある。
>>746 $ df /
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md1 244116192 228998376 15117816 94% /
ですが何か?まあ言わんとすることはわかるんだけど書きたくなった。
749 :
login:Penguin :2008/02/16(土) 14:55:35 ID:QgDn6KX6
>>747 ってことは、/var/logをNFS使ってログサーバ溜まるようにマウントしてたりしたら、
ものすごいパフォーマンスは悪くなるってことだね
> ソフトウェアRAIDだと仕組み上やはりムリそうですね。 インストール時にドライバ組み込めば出来る。HW RAIDと同じ
最近のインストーラなら大抵対応してないか?>root fsがRAID
対応してるよ。 だけどGrubをミラーの相方にインストールしてくれないという片手落ち。 どうせなら、そこまでやってくれよと思う。
パーティションの先頭にGRUBいれて、そのパーティションをアクティブにマークして ブートセクタにはMS-DOSブートローダつっこめばおk
おお!その手がありましたか。 ん?でも、mdってパーティションの中身だけではなく、PBRも含めて ミラーの対象にしてくれるんですか? 今度実験してみませう。
PBRもパーティションの中だろ
root fsはARAIDみたいな何も考えなくていいところに入れてるけどなぁ。 救出したくても手が打てないのは痛いし、 家だけど、bootable cd もって鯖置き場まで逝くのは面倒だし。
bootable cd コピーして、鯖のところにおいて置けばいいだけじゃん。 もしかしてバカ?
>>758 カーネル置き換えたときにリモートでブート順位変えれればなw
やっぱりバカだった。
>>760 あーなに?isoイメージでってこと?
めんどい操作は基本的にいやだよ。
参考にしたいんだけど、ちなみにあなたの場合は、どんな操作シーケンスを仮定して書いているの?
> めんどい操作は基本的にいやだよ。 何を言っても、「面倒だよ」で片付けるんだろ。 バカに何言っても無駄だったな。
試しに教えてよ
いや具体的に書いてくれないと判断のしようもないよw
>>763 ID:EeCPJ2/dを取り合わない方がスレが荒れなくて良いです。
>>764 別にお前に判断してもらわなくてもいいし。
# バカってこう言う粘着は「面倒じゃない」んだな (w
ルートファイルシステムとしてUSBメモリ使えば? ルートファイルシステムって重要な割に復旧しにくいから、 安くてコピー取り易いUSBメモリっていいよ。
USBメモリをディスク代わりにするのは耐久性に疑問がある 書き換え可能回数があまり多くない
全てのディスクをUSBメモリで、という話じゃないだろ。
当たり前の話だけど root fsに何をいれるか、が決まらないと評価も何もない
>>769 それこそミラーしておけばいいって話じゃないの?
フォールバック用途ならありかもしれませんなぁ。
また耐久性疑問厨か。 / /usr なんてそんなに書き換えないだろ。
775 :
login:Penguin :2008/02/18(月) 13:01:11 ID:1jCiBLSk
てことは、RAIDで冗長化するのは/homeと/varと/etcだけでFA?
776 :
login:Penguin :2008/02/18(月) 13:45:23 ID:hyGsnvLJ
便乗して質問なのですが、RAID化しなくてもよいルートファイルやなんかは、IDE接続のハード単機にインストールしたって構わないってことですね。
>776 ルートファイル? ハード単騎^H機? ま、好きにすればぁ?
779 :
login:Penguin :2008/02/18(月) 15:23:20 ID:RdJlk1eC
>>778 うそ!なんで?
ハードウェアRAID1+0やってるんだけど、/も/etcもRAID中な気がするんだが…
各自好きにやりゃいいがね。 /etcなんて一旦設定がきまっちゃったら そうそう頻繁に変更するもんでもないだろうし、 容量もデカくないんだから CD-Rにでも焼いときゃいいんでね〜か と俺は思うが。
>>779 なんでって / と /etc を別のパーティションに置くことはできないでしょ。
>>775 > てことは、RAIDで冗長化するのは/homeと/varと/etcだけでFA?
/home と /var と /etc だけをRAIDで冗長化するって言うから、
それだと / が別パーティションになるから
>>778 。
/etc を RAID に入れるなら必然的に / もRAIDにいれることになるっしょ。
>>779 はそうしてるし、何に対して「なんで?」なのかわからない。
782 :
login:Penguin :2008/02/18(月) 17:51:59 ID:pjqQlMbm
>782 いや、それ以外に読めないと思うが...
initrd とかでできなくはない気がする。
785 :
738 :2008/02/19(火) 11:51:04 ID:xjsgqTAQ
>>739 > 一度どこかにデータをコピーするべきじゃないの?
コピーするときの負荷もリビルド負荷も御忘れなく。
そしてなにより、リビルド負荷は数値を指定して
あらかじめ制御できることも。
> RAIDの復旧なんて、そんなに何度も経験ないと思うし、
なに言ってるんだ。
RAID使うと決めたら「必ず」復旧手順は
予行演習しとくもんなんだよ。
まるでRAIDの使いかた分かってないぞ。
786 :
login:Penguin :2008/02/19(火) 12:12:24 ID:HB+Mo7i2
ごめん、スレ読みとおしたところよくわかんないんだけど、HDD4台でRAID化したマシンに Linux OSをインストールする場合って、HDD4台すべてをRAID化(たとえばRAID1+0) しちゃってもいいの? 起動部分やOSはRAIDでジョチョウ化されてもいいものなのかどうか、わかんなくなっちゃった
なぜか変換できない
とんでもなく助長してる
冗長してる。
じょうちょう
791 :
786 :2008/02/19(火) 14:23:39 ID:HB+Mo7i2
ごめんです、ジョチョウ化⇒冗長化の間違いでした
>>778 マジで?
しらんかった・・・確かに今まで分けようと思ったこともないが。
>>786 /bootはRAID1、あとはinitrd前提で任意のRAID構成が楽
grubは自分でinstしてね
794 :
login:Penguin :2008/02/19(火) 16:14:13 ID:wqil2l39
>>792 分けたら /etc/fstab 見えないじゃん。
795 :
login:Penguin :2008/02/19(火) 17:21:02 ID:z0nKTYDQ
>>793 つーことは、RAID10のサーバを組むにはHDD4台の他に、/boot用のHDD1台ないし2台(RAID1にするなら)
の合計5-6台が必要っつーこと?まじかよ。
まともに使うならそうなるな。
>>795 bootはパーティション切ってそこだけraid1にすれば、4台でいけるよ。
Linuxなら、raidを使おうが使うまいが、/bootを別パーティションにしておくのはいまや半常識だしな。
799 :
login:Penguin :2008/02/19(火) 17:52:39 ID:z0nKTYDQ
>>797 レスサンクス。でもおれ頭わりーからまだ理解しきれていないのだけど、つまり500GB HDDが4台あったとすると、
そのうち10GBずつをRAID1化(ミラーリングなので使用可能容量は10GB)して/bootに、
残りの490GBずつをRAID10化して(使用可能容量は980GB)/boot以外をインストールするということでOK?
いま手元にあるHP ML115を調べて気づいたけどIDEが一本挿せるみたいなので、余りのIDE ATA15GBか40GB
を/bootにしてもいいのかな。そこだけRAIDにならないけども。
802 :
login:Penguin :2008/02/19(火) 18:17:04 ID:z0nKTYDQ
>>800 >>797 サンクス
でも、起動部分/bootにギガバイト単位で割り当てるのはもったいないなあ、それに
わざわざパーテ区切るくらいならHDD4台は丸ごとRAID10にしてあげたいし。
やはり、IDEドライブに/bootを配置すると思うのですが、無謀かな。ついでに/tmpもIDEドライブ
にしてやろうかと思ったくらい。 USBメモリに/bootを入れるよりはまともかと思ったのだけど。。。
803 :
802 :2008/02/19(火) 18:19:01 ID:z0nKTYDQ
うそ、よくかんがえてみりゃ、そのくらいのことでならば多少のパフォーマンス低下を
覚悟してでも、
>>801 みたくHDD4台をまるごとRAID10化したほうが障害復旧が早いじゃん
と思った。
>>794 おおなるほどw
>>803 そのあたりの悩みは用途次第で結論が変わるので思ったようにすればOK。
/bootにGB単位で割り当てる必要性を感じているなら、それは必要なのであってもったいないと言うことはない。
自分が障害復旧しやすい構成がって、障害復旧を優先したければそれを採用すればよい。
少なくともネットで大雑把な質問して得られた答えが最適解になることはまず無い。
うちの/bootは大昔に使っていた170MBのHDDだったりする。 他はSATAのGBサイズのHDDですけど。 なんか棄てるのがもったいなくて。
もったいない以上に、使い続けるのが怖いよw
やっぱり、/bootはUSBメモリに入れ込むのが楽だよなぁ。 問題はUSBメモリからbootできる機械が少ないことだけど。
>>806 /boot なんて別に壊れてもいいじゃん。
別のディスクを用意できてるなら。
>>806 いや、意外にも壊れない。
よっぽど最近のHDDの方が壊れてるよ。
kernelがupdateされるたびに/bootをtarでバックアップ取って
/mnt/common(ウチのsamba公開ディレクトリ)に保存してるから
もしHDDが壊れても、まだまだ170MBのHDDがあるから。。。
壊れてもHDD交換してパーティション作ってtarで復元して
grubをインストールするだけだから。
うちはデータしかRAID化してないなあ。 / や /boot や自前のデータがないfilesystemは適当バックアップだけ。 復旧に要する時間はまあそれなりに、ぐらいで考えてる。
飛んでもPXEで起動してくる構成
>>786 ソフトウェアRAIDで細かく使いわけしてる人は
少ないと思う。めんどくさすぎて。
起動部分をRAID1なら普通かな。
ハードウェアRAIDで可能ならそれもアリじゃね?
うわ沢山。リロードしてなかった。
>>812 は忘れてくれ。
814 :
login:Penguin :2008/02/20(水) 02:48:46 ID:3eSEJw3g
>>813 いや、いいんじゃないか。
俺なんかは3wareの9650SE-4PMLでRAID10(500GB*4)してるけど、/以下すべてRAID化してる。
mdで/bootがRAID1、/homeと/がそれぞれRAID10してるけど、 これってなにかめんどくさいっていうデメリットあるの? 個人的には/bootのためにいろんなハード持ってくるのがややこしいんだけど。
816 :
login:Penguin :2008/02/20(水) 08:27:58 ID:3eSEJw3g
>>815 >>mdで/bootがRAID1、/homeと/がそれぞれRAID10してるけど、
>>これってなにかめんどくさいっていうデメリットあるの?
説明するのがめんどくさい、っていうデメリット。
>>814 ハードウェアRAID使うならそれが普通だと思う。
つか、そのためのハードウェアRAID。
難しい/面倒なこと何も考える必要がないw
818 :
login:Penguin :2008/02/21(木) 00:59:49 ID:CnMgGiXf
RAIDの耐障害性について某スレのおかげで何がなんだかわかんなくなってきた。 RAID5をHDD*4台で構築したときに、どれかひとつのHDDに致命的な故障が発生したばあい、 そのサーバは通常稼動を続けたまま、HDDを入れ替えるまで稼動させることって できるんでしょうか。 RAID1+0というやつでは、同じストライプ組のRAID0 HDDが2台同時期に壊れなければ、そのまま運用を続けることができると勉強したのですが。
>>818 できなければ何の為のRAID5なんだよw
某スレってのはどこだ
821 :
login:Penguin :2008/02/21(木) 08:29:25 ID:CnMgGiXf
>>818-819 通常稼動を続けたままできるかどうかは、RAID とは別の次元の話。
ハード / ソフトの対応が必要。
まともなサーバーなら大抵サポートしているけど、安物の NAS なんかだと
電源切らないと HDD の交換ができない奴もあるよ。
>>821 通常運用時も常にパリティの演算はやってるので、特に縮退運転中の負荷が
高いわけじゃない。
負荷が高いのはドライブのI/Oだよな。演算じゃなく。
I/Oウェイトが高くなるから、それなりに重くなる。
826 :
login:Penguin :2008/02/22(金) 02:04:19 ID:Mw1lTqHM
パリティ演算が負荷にならないのであれば、RAID5がサーバ向けとしては最強っぽい感じがするな。 ML115を買ったばかりなんだけど、オンチップのソフトRAIDでRAID5 (HDD4台)でも 試してみよかな。
>>823 >通常運用時も常にパリティの演算はやってるので、
嘘だっ!
>>826 raid5デグレード時のリスクについてはさんざんこのスレでも
語られてるので、読んで納得してからGOすべし。
829 :
login:Penguin :2008/02/22(金) 09:24:59 ID:91jcI2i+
>>828 なるほど、サンクス
やっぱり、落としたくないサーバ&障害が起きてもマシン負荷や付随リスクを抑えられるサーバにしたいので、RAID1+0にすることにします。
教えて欲しい LinuxでRAID5のファイルサーバーを構築したいのだけど インストールから障害時の復旧方法が載ったHPって無い? 探したけど、構築方法だけのページが多くて どこかお勧めがあったら教えて欲しい。
mdadm? ならmanのページにあるよ。いちばんお勧め。 壊HDD切り離しから新HDDの追加まで載ってる。 OSインストーラ上からのRAID構築手順案内してるサイトばっか見てるのかな? 初めてなら入れるときはそれでいいと思うけど、 入れたあと必ずman片手にシェルからの復旧演習しようね。 ※データドライブのみRAIDするんなら簡単だからシェルでRAID構築したほうがいい。
832 :
login:Penguin :2008/02/28(木) 08:11:12 ID:7NHGqqq8
HDL-GTシリーズをRAID5で運用してたけど、突然RAIDが崩壊…。データ吸い出したいけど、どうしたらよい? SATA→USBに変換するケーブル4つ買って来て全部接続して、KNOPPIXから復旧できるかな? 一つだけ接続してログを確認したけど、ログがメモリ上に吐かれる仕様みたいで、ログが追えない。なにが起きたのか把握出来ないのが痛いのだが…。
>>833 あ、いや違います。
SATAが4台つくマシンがないので、そもそもSATA→USB接続では復旧不可能なのかと思って。
でも、症状は同じみたいなので、やっぱりダメかな…。
なんだか、物理的な生涯ではなさそうなんだけど…。
ベースがLinuxとはいえ、哀王がカスタマイズしている可能性があるから 下手に余計なことをせずに哀王のサポートに電話した方がいいと思うよ。
836 :
sage :2008/02/28(木) 23:54:03 ID:AxfU3lU5
>>835 ありがとうございます。
すでにIOサポートには電話済みですが、RAIDの崩壊はまったくサポートしてくれませんでした。
データ復旧会社を紹介されて終わり。ひどい。。。
というわけで、自力でできないかと模索しております。きびしいですかねぇ…
sage入力欄、間違えた。。。
貶す意図は全く無いが、ここでこんな質問してる状況では厳しいと予想する。 暗に、Nonスキルでお手軽一発回復できる方法教えてくださいって意味だろ? 学習意欲無い人に親切丁寧に付き合ってくれる人ここには少ないよ。 他のコミュニティを頼ってみては。
>>836 >>620 の時の流れを見てもあまり有用な情報が出なかったもんねえ。
あれも結局どうなったか分からないし。
いいアドバイスできなくてスマソ
>>836 自分で書いている通り、SATA→USB 4つは試す価値があるかもね。
あと、物理的に1台分格納可能な空間が4つあれば、loopback deviceでmdadmとか。
...できないかどうか知らないが無茶っぽいか。
助言が得られないというより、
崩壊したRAIDは基本的に救えないというオチかな。やっぱり。
そしてまた、RAIDはあくまで可用性向上のためのものなので、 バックアップを取っておくのは必須という大前提が出てくるわけですな。
843 :
sage :2008/02/29(金) 11:52:28 ID:ej7ymfjg
836です。
>>838 RAIDに関しては確かにNonスキルですが、Linuxは自宅でもいじってます。
至急復旧しなければいけないほどではありませんので、のんびり勉強しながらやってきます。
人柱になってもよいので、可能なことがあればやってみます!
>>840 なるほど、4台分全部イメージで吸い出して、1台に乗っけてloop back デバイスってことかな?
たしかに行けるかもしれませんが、全部で2T…orz
>>842 ありがとうございます。いま手元にないんで、ちょっと試してみます。
とりあえず、SATA→USBケーブルが1つだけあったんで、1台ずつくっつけて
mdadm --examin
でRAIDパーティションを見てみたけど、意味なかったかな?
LINUXいじってんならman見てわかんない?
その機種がどうとかいう問題以前にちゃんとmdadm使えないと無理。
一度アレイ作って→壊して→復旧とかやってから出直し。
とりあえず
>>620 くらいやるのが普通。
それとloopbackなら最低1.5TB〜出来たら2TBの作業領域、
実ディスク使うなら(危ないけど)SATA-USBがあと3つ要る。
どっちか用意しないことには何もできん。
って、ここまで書いてから気付いたんだけど本体ハックしてtelnetで入れないかな?
持ってないから知らないけれど、telnet化出来て本体起動するんなら。
>>843 むう、勉強する気があるならまず全ドライブをイメージ化してどういう配列になってるか調べてみたらいい。
/var/logがあるとすこぶるわかりやすいのだが、無ければ何か大きめのtextファイルを探す。
あと、NAS側で再構築すればRAID情報は初期化できるわけで、diffしてみたりFS部分書き戻してみたり・・・
もちろん各試行はvmware等で事前に実験成功させてから。データのバックアップは完全に取ること。
まぁ一般に考えられるような様々な対処が可能なのでやってみたらいい。
そしてエラーメッセージも書かずにどうかな?とかはチラシの裏へ。
846 :
840 :2008/03/01(土) 00:14:18 ID:zNKGHS78
>>843 0.5Tが4枚、1つのカーネルから論理的に見えていれば何でもいい。
1つが実HDD、1つがlocal fs上のfileへのloopback、
残りがNFS上のfileへのloopbackとかでもいい。はず。
まあでも、傷を深くしないためには2T分の複製確保からか。
人柱乙
847 :
843 :2008/03/01(土) 12:08:49 ID:MTZD+9N+
みなさん、どうもです。
>>844 たしかに、もうちょっと自分でmdadmの勉強・実験は必要ですね。
もちろん、本体のTelnet化はしておりました。ただ、RAIDが崩壊してからTelnetで入れない状況に。
>>845 ドライブをイメージ化してどういう配列か調べる、というのはどういうこと?
RAIDの配列がどうなってたか、という意味でしょうか?
/var/log は、HDL機では /var が RAM上に切ってあり、一度電源を切った時点で消滅。。。
エラーメッセージもたぶん消滅。これがかなり痛かったです。
NAS側での再構築の方法はマニュアルに載ってあるけど、その後のdiffとかFS書き戻しってどういう意味でしょう?
イメージ化した元のドライブとのdiff?
>>846 了解。やっぱり、まずは複製か。とりあえず、dd で吸い出せばOK?
方法より、場所の確保の方が難しそうだorz
それにしても、哀王HDL-GTの被害者はこれで2件目。 このスレに書き込まないで哀王の言うとおりにデータを諦めているユーザーも もっといるかもね。 結構ヤバイ製品?
849 :
843 :2008/03/01(土) 15:09:46 ID:MTZD+9N+
ほんとに。。。なーんにもしてないのに、月曜日会社に来てみたら「ぴーぽーぴーぽー」ってサイレンなってた。。。 「HDD外して再起動してダメだったらデータ復旧会社へ」的な案内だった。 「こういうことはめったにないんですが」って言ってたけど、ありゃしょっちゅうだな。
余りストライピングについては語られないのね..
RAIDじゃないから。
853 :
日記 :2008/03/02(日) 12:51:56 ID:emEwbtI/
2.6.24.3のDebianでPMP使用中。 SiI3726上に3デバイス接続し、(sda, sdb, sdc) MDを使用してRAID5で運用中。 テストとして、このうち1デバイスをそのまま外してみました。 (当然)link down。 しばらくして/proc/mdstatは[UU_]となる。 再び同じポートに再接続。 link up。 sddで認識しました。 /proc/mdstatは[UU_]のまま。以下のコマンドでhot add。 sudo mdadm /dev/md5 --manage --add /dev/sdd1 問題なくリカバリー始まってます。 続いて以下のコマンドでremove。 sudo mdadm /dev/md5 --manage --remove /dev/sdc1 以下のメッセージ。デバイスは既に削除 mdadm: cannot find /dev/sdc1: No such file or directory でも/proc/mdstatは active raid5 sdd1[3] sda1[0] sdc1[4](F) sdb1[1] で、sdc1がFailedフラグ立ったまま、まだいます。
何かと思ったけどポートマルチプライヤか。 RAIDと関係ないがPMの安定性とかはどう?
855 :
853 :2008/03/02(日) 15:49:23 ID:cyhXWBFJ
リビルド完了したので、--examine --scanしてみました。 sdc1にFAILEDフラグのまま 次にrebootかけてみました。 再びsda, sdb, sdcで認識。 cat /proc/mdstatしたところ、普通に上記で正常動作。 どうやらmdadmも今はuuidしか見てないんですかね・・ Sargeの頃はmdadm.confにしっかりsd*が記録されて、 認識順によっては問題が起こったりしたんだけど。 PMP周りとの相性は良さそうですね PMPの動作自体はとても安定しています。 1つのSiI3726にSATA1とSATA2のドライブが混在しても 認識に問題なし。 ただSATA1のhotplugはまだ試してません(無理だろうな)
お邪魔します。 RAID5のパリティ生成順について質問なのですが、 パリティ生成順の指定において 「left-symmetric / left-Asymmetric / right-a(略」という言い方と 「forward / backward 」という言い方がどう対応しているのかがわかりません。 それぞれの対応は「forword」=「left-symmetric」 という理解でOKでしょうか?
forward / backwardは何語ですか?
RAID5で、4台のうち2台をFail にした場合、再度RAID5で起動させて復旧するにはどうしたらいい?
神に祈る or タイムマシンを購入する
>>830 0度アダプターの説明書に書いてある。
寒心しろ。
HDD4台でRAID5なんて使うなと思うのはヲレだけだろうか
4台でRAID5とか別に普通の構成じゃん。
HDDがいっぱいだと何かいいことあるの? 二台同時に逝ったら終了なのは何台構成でも一緒でしょ。 っていうか一杯あったら10とか50とかにしない?
>>863 > HDDがいっぱいだと何かいいことあるの?
容量効率が高くなる。
(4台だと 3/4 (75%) の容量だけど、10台だと 9/10 (90%) の容量が使える。)
でも、当然 HDD 故障のリスクが高くなる。
ちょっと前に 10D + 1P + 1S の構成を提案したアホSEがいて、案の定リビル
ド中にもう一台こけて大騒ぎになってた。
>>864 へぇ
素人感覚で10台ならRAID5も(何とか)大丈夫って思ってたけど
やっぱりまずいのか…
866 :
858 :2008/03/08(土) 12:48:01 ID:aT+xoS78
テスト用にいろいろ試してみたけど、当然、通常の起動はしないよね。 で、RAIDを同じ構成で新規作成してみると、中のデータは残ってた。 これって普通?物理障害でなければ、同じ構成で新規作成すると中身は見えるのかな?
1台壊れたらアウトってよりずっとマシ まあ気休めと言われればそれまでだけど
>>866 実装によるだろうけど……期待してはいけない類の動作だと思う
仮に起動できても、データが本当にそのまま残ってる(化けてない)
という保証をするのはやっぱり大変なわけで
870 :
login:Penguin :2008/03/08(土) 17:04:17 ID:HhRa/8NZ
やっぱRAID1+0が最強だよな
同じ4台なら、RAID10よりRAID6の方がいい。
いや6はwriteペナルティがあるでしょ 5,6はキャッシュとバッテリ積んだ装置でwrite backで運用するものだと思っている
RAID5,6で writeする場合、新データに併せてパリティも更新します write範囲がストライプ全体ならば新データのみで新パリティを生成できます しかし write範囲がストライプの一部の場合には 新パリティ生成のために diskから readする必要があります(古いデータなりパリティなり) なのでRAID5,6での write処理は、read -> 新パリティ生成 -> writeという手順を踏みます 遅いディスクI/Oの readが余計に入るのでwriteペナルティと呼びます これを解消するために高額なRAID装置だとキャッシュ(メモリ)を積んでいて ホストからキャッシュにwriteした時点で応答を返し、ホストでは writeが完了します 実際のdiskへの writeはRAID装置が暇な時非同期で行ってます これが write backです ただし write back運用するとデータがRAID装置のメモリ上にしか存在しない時間が存在します このとき停電とか起きるとデータが消えちゃいます なのでバッテリなどによってキャッシュ保護してるRAID装置もあるんですよ あとね writeに不具合があるとデータとパリティがあってないことになるんですよ この状態でディスクが故障するとデータ復元した際に不正なデータになっちゃうんですよ ちょっとRAIDをかじると5とか6は怖いなと思うわけですよ 普通はそんなこと気にしないけどね
でも上記の話はRAID装置だけで考えた場合であって、当然OS作る人も認識してると思う 私は詳しくないけどファイルシステムで大抵が救われているんじゃないかと思っている 詳しい方解説頼む
> あとね writeに不具合があるとデータとパリティがあってないことになるんですよ > この状態でディスクが故障するとデータ復元した際に不正なデータになっちゃうんですよ Write に不具合と言うのが具体的にどんな現象かよくわからんけど、ディスクにうまく書け ないことを言ってるなら、RAID でないシステムだと HDD 故障がなくても不正なデータにな ると思うぞ。(要するに、HDD の故障と同じだ。)
writeに不具合ってのはディスクやバスのエラーなんかを考えていただければ でwriteに失敗した場合 write through運用ならホストが失敗を認識してリトライなりメモリ保持なりで救われます write back運用でも RAID装置が失敗したことを認識してるんでキャッシュ上にはデータを保持しとくんですよ RAID1系なら不正データの範囲は write失敗した範囲と一致してるのでリカバリが取りやすいです 一方でRAID5,6などの場合、故障HDDによっては write失敗とは異なる場所でも不正データになってしまうんですよ この点がパリティ使うRAIDの弱点ですね
可能性の話よりもMTBFのような数値を出してくれると ありがたいのですが。
FCやSCIとATAのHDDだと一桁以上違いまっせ 具体的な数値は出せませぬ
タイポでSCIじゃなくてSCSIね
>>874 勉強になります
ぱっと思いつくところだと
>>875 は
ファイルシステムのクラスタサイズと[ストライプサイズxデータドライブ台数]が一致してれば、
クラスタサイズより大きいファイルについてはwriteペナルティは減らせそうですね。
>>877 > 一方でRAID5,6などの場合、故障HDDによっては write失敗とは異なる場所
> でも不正データになってしまうんですよ
> この点がパリティ使うRAIDの弱点ですね
意味わからん。
RAID だろうがなんだろうが、HDD にうまく書けないことが認識できたら、
リトライしてうまくいけばそれでOK
リトライで救えなければ非 RAID 装置なら上位に報告するだろうし、RAID
システムなら該当の HDDを切り離して運用を継続するだけだろ。
初期の RAID システムの不具合事例を引きずっているか、「RAID 5/6 って
なんか難しいことやってるんだろうなぁ」って言うイメージで語ってるとし
か思えない。
例えば1ストリップだけのwriteが失敗した場合、 RAID1系であれば失敗した1ストリップだけリカバリすれば良いんですよ これがRAID5,6系だとwrite失敗したストリップは当然不正データでリカバリ対象なんですが 他のディスクが縮退してた場合そこのストリップも不正データになるんですよ まぁ二重障害で救えないケースとも言えるんだけどね
実装にもよるんでしょうけど縮退かどうかに関わらずリトライを試みると思うよ でリトライ中に他の範囲にreadが入ってもRAID1系なら問題無し RAID5,6系で同じストライプの他の範囲にreadが入ってそこが縮退してたら救えないよという話です
ごめん writeリトライ中ならそのデータとパリティを保持してるんで 理論上は他のディスクが縮退していてもそこのデータは復元できます でもここまでリカバリしてくれる RAIDの実装ばかりではないでしょう ということで救えないと書きました
887 :
login:Penguin :2008/03/09(日) 03:09:10 ID:NAmJLF0M
なんかわけわからん議論してるように見えてるが、俺は
>>870 の言うとおりRAID10が最強と支持!
888 :
login:Penguin :2008/03/09(日) 03:13:49 ID:42IbcYLo
なんかわけわからん議論してるように見えてるが、俺はRAID5+テープバックアップが最強と支持!
>>888 RAIDはあくまで可用性向上の技術なんだから、バックアップ取るのは
当たり前のことやん…
>>882 >初期の RAID システムの不具合事例を引きずっているか、
結局これじゃないの?
>>886 長い
まとめると、一部のRAID5,6実装であらゆるRAID1より完全ではないものが存在する
ということか?
あらゆるRAID5,6実装に適用してるかのような表現があったことと、
RAID1の実装がどこの機器でも完璧だとする考え方は直した方がいい。
RAID1に比べてRAID5はエラー処理が複雑なんで(当然RAID6はそれ以上) 同じRAIDの実装ならRAID5の堅牢さはRAID1と同等かそれ以下だと思って上記のように書きました 現状のRAID5,6もRAID1と同等のリカバリが実装されているならそれは私の認識不足です リカバリの程度はRAIDの実装によりピンキリだとは思いますが
>>893 そんなあやふやな知識の癖に、
> この点がパリティ使うRAIDの弱点ですね
なんて書くから叩かれる。
>>892 が言うように論理的な話と、実装を含めた話はちゃんと区別しとかないとね。
しっかりした知識をお持ちでしたら 現状のRAIDがどこまでリカバリできるのか解説してくださいよ 自分の知らない実装については推定にしかならないので
逆切れ? 現状の RAID って何? 実装の話するなら、具体的な機種名とか挙げなよ。 論理的な話であれば、Write に失敗する時にはバッファにはパリティを含む正しい データがあるはずだから、Read 要求が来たらそれを返せばいいだけのこと。 RAID1 と RAID5 で何の違いもないよ。
バッファに無い領域 read要求されてそこが縮退してたらどうするわけ?
縮退している状態で Write エラーが発生したってこと? 縮退してるにもかかわらず Write していると言うことは、縮退の元となった ディスクと今回 Write エラーが発生しているディスクは違うと言うことだよ な。 1. とにかく Write リトライを優先して、リトライ完了してから Read 要求に 答える。(リトライに失敗したら、2重障害で Read 要求と Write 要求の 両方にエラーを返す。) 2. Read の方を優先させて、通常の縮退動作 (残りのデータとパリティがもと データを作成) を実施して Read 要求に答えてから、Write リトライを実施。 2重障害が発生している時に凝ったことしてもしょうがないから 1. でいいん じゃないか。 RAID1 でも同じだろ、縮退中と言うことはもう一方のディスクは壊れてるわけ なので、バッファにない領域のデータを読もうとしたら Write リトライ中の ディスクから読むしかないんだからさ。
899 :
858 :2008/03/09(日) 15:42:25 ID:jN91s3c8
>>868 やっぱりそうか。。。
2台をFailした状態からとりあえず強制的にデータを救うのはRAIDの再構築以外にはないかな?
--force オプションでもあがらないよね。一時的にでもRAID情報を書き換えて、正常起動させる、なんてことは不可能?
あーあー
>>892 に追加しよう、
自分の書き込みが自らの推測であることを毎回明記すること。それから
暗黙のうちに完璧なRAID1実装例とそうではないRAID5実装例を比較し
結果をRAID5方式そのものに当てはめないこと。
その上で複雑化した方式の抱える弱点やデメリットといった話題にしてくれ。
例えば安物ハードのRAID1、RAID5では5の方が危険性の高い実装が多そうな気がする、
といった具合で。でないと意図しない部分へのツッコミばかりになると思うよ。
荒れてますね。
>>893 >>あとね writeに不具合があるとデータとパリティがあってないことになるんですよ
>>この状態でディスクが故障するとデータ復元した際に不正なデータになっちゃうんですよ
当方OS屋です。RAIDの実装にはそこまで詳しくありませんが、
ジャーナリングファイルシステム上では、通常このような問題は起こりません。
なぜならば、データにはメタデータと実データの2つがあり
書き込みに不具合があった場合にはメタデータの更新を行わないから。
書き込みに不具合があった場合には「代替セクタ」に書いてからメタデータを更新します。
不具合を起こした領域には二度とアクセスしません。
不具合があってさらに「代替セクタ」への書き込み前に電源が切れた場合には、
1、再起動時にRAIDソフトが管理するファイルシステムの検査を行う
2、RAIDソフト側で一致しないメタデータと実データを補足する。
3、一致しないデータに対応する、RAIDソフトが管理する他のHDDの実データとメタデータを元に戻す。
902 :
login:Penguin :2008/03/09(日) 17:44:23 ID:fj+FBdFH
カッコンカッコンカッコン…
RAID5で2台Failした場合になんとかする方法を研究するくらいなら 2台壊れたときでも大丈夫な手を用意するだけのほうが 最終的に安上がりなんじゃないの?
そうは言うけど、linuxのmdでsataケーブル抜けなどの理由で 複数台HDD failになった場合になんとかして復旧させる方法を 調べるのはいいことじゃないだろうか。
>>903 個人ベースでテープライブラリなんて持てないしなぁ。
RAID5運用するなら、外付きHDDでバックアップ用のRAID0アレーでも持ってた方がいいのかな?
906 :
login:Penguin :2008/03/09(日) 23:38:49 ID:NAmJLF0M
ところでうちのRAID10(3wareのハードウェアRAID HDD4台)で縮退⇒リビルドの試験運用を なんどかしておきたいのだけど、この方法ってどれか一つのHDDを別の新しいHDDに 差し替えてみるだけでOK?
うん。
908 :
login:Penguin :2008/03/10(月) 03:04:09 ID:OuINuyls
>>905 それならRAID1+0か1台足してRAID5+1の方がいいんじゃない?
>>899 スレの前の方で書いたけど
・一台だけダミー準備して前と同じパラメータでraid新構築
・ダミー外してから フォーマットせずに、
・ファイルシステムを確認
ならやった。
>>901 書き込みエラー氏の理屈になにかが抜けてると思ったら「ジャーナリング」だったか。
ま、普通raidの上にFATやらext2やら乗せた運用しないもんなあ。
912 :
login:Penguin :2008/03/11(火) 22:29:17 ID:1/VL/9HH
RAIDRAIDRAIDRAIDRAID… DRAIDRAIDRAIDRAIDRAI…
913 :
899 :2008/03/12(水) 00:09:18 ID:7LYHERNv
一秒間に十回RAID発言とは流石クラウザーさん
916 :
login:Penguin :2008/03/14(金) 10:05:45 ID:gBTXx3gb
うーむ、HDDを買いだめしておきたいのだが、ネット通販で最安値のものを注文してもいいものかどうか… がんばってでもアキバまで足を運んで、手動で買うべきか、うーむ 宅急便のにいちゃん、手荒く扱っちゃいそうだからなあ
seagateの1TBがもっと安くならないかな〜と待ち中。 間違ってもRAID用に灼熱WDなんか使いたくないしね。
何時の時代の人ですか?
WDは2〜3年前に買ったっきりだけど、今はマシになったの? もしそうなら2〜3年前の人ってことでオーケーです。
午後7時
あれー、今は知らないけど 当時のseagateって、RAIDには最悪って言われてなかったっけ? ランダムに弱いからって。
あ、RAID1なら関係ないか。
う、まじっすか。 今は低発熱が気に入って日立使ってますが、Seagateの5年保証が気に入って 日立が壊れるたびにSeagateに付け替えていこうと思ってんですが。 数年前に仕事で使ってたFCタイプのSeagateが呪われたように壊れつづけた のでSeagateから逃げてましたが、もうそろそろいいかナ〜なんて思ったり。
逆にIBM/HGST壊れまくって旧幕に逃げて、その流れで今海門 何年かのうちに旧IBM〜HSGTの3.5inで通算5台くらい買ったけど、1年持ったのが1台か2台 旧幕の一年生存率は9/9、海門が11/12とかそんな感じ まぁサンプル数が少ないんで参考にならんが
漏れも海門いかれやすい気がす。むしよ日立より弱いような。3本ぐらいやられてる。 (最近の)WDは言われるほど悪くないというか安くて普通に使えてありがたス。
WDは可もなく不可もなくって感じかなぁ メーカーからバラして同時故障のリスク分散するときには普通に入れてる SamsungはSMART温度を詐称してるとしか考えられない実験結果が出たんでパス
927 :
login:Penguin :2008/03/15(土) 04:38:02 ID:uTcCVxY6
WDはCP高いけど故障率も悪くないし意外と静かで重宝してる
サムソンは某メーカーのデスクトップPCにPATA/SATA問わず入ってるけど よく壊れた。 最初のうちは提供される保守部品もサムソンだったけど、あるタイミングから Seagateに変更されました。 WDはCPがいいから気になるけど、発熱が心配。 ミドルケースに日立250GBを7本入れてもSMART読みで45度くらいなんで 問題ないけど、WD1TBを5本入れたらどういうことになるかが気になる〜。 発熱が昔のままなら話にならんでしょうが。
そんな熱くならん気がするよ。特に最近の低電力のグリーンマーク付きのやつは。
そうですか。 では値がもっと下がってお買得感が増したら候補の一つに入れることにします。
931 :
login:Penguin :2008/03/15(土) 13:05:58 ID:H3jr+ZGF
WDの320GのRAID Edition使ってるけど日立の同じころのものより温度低いくらいだよ
日立より低発熱とはすごいですね。 RAID Editionというのが気になりますが。 日立よりも安いのかな? 実は入院中でzero3使って2ch見てるから情報集めがやりにくい。 おとなしく寝てろやって言われそうですがwww
うちのやつが稼働中で、Seagate(たぶん旧Quantum系列)30度くらいに対して、日立20度くらいなんだよね。 日立のがあまりに低すぎて妙だな〜って思ってた。
昔DOS/V magazineで各メーカーのHDD温度をサーモグラフィーで調べる特集があって WDが絶望的な温度(たしか60度超え)で、日立のみ圧倒的に温度が低かったという 調査結果がありましたよ。
935 :
login:Penguin :2008/03/15(土) 21:10:24 ID:O5SPfuA3
つーかモデルによって差が大きい
何年も昔の話したってしょうがないよ。 なくなったり身売りしたりブランドだけになったメーカーもあるしな。
>>934 SMOOTH搭載の幕を忘れないでください(><).
938 :
login:Penguin :2008/03/16(日) 03:21:44 ID:1URgJAVo
やっぱRAID組むなら5400rpmだな
いやいや、ここはちきゃうにやさしい 2.5インチ3200rpmあたりでどうでしょうか もっと地球にやさしくなら3.5インチ FDx4つでraid5ですかね
面白そうだけど、FDDを4つも用意できねえ。
て言うか、容量あたりに換算したら全然地球に優しくないし (w
いつか125台のFDDで究極の…… って、すげーうるさそうw
944 :
login:Penguin :2008/03/17(月) 08:01:49 ID:kAM4n2Ym
普通はカッカッカカッ
>>943 はガッガッガガッ(+モーター音とシャーというディスクがこすれる音)
攻殻でFDDを記憶ディスクにしてたやつが出てきたなあw
SuperDiskかもしれないよ!?w
ホログラムディスクだろ
今はWD愛用中。 日立…静かで低発熱だが故障激しい Seagate…故障しない。PATA品は低発熱、しかし要求電力が… WD…安い。故障はいまのところなし。モデルにより発熱の差が大きい 幕…5400rpm品は低発熱低騒音高耐久 サム…怖くて買えない Quantum…古すぎて今のHDDとの比較は無理 WDはAAKSシリーズは高発熱、低騒音 AACSは超低発熱、超低騒音 EACSは買ったこと内 AAJSは買ったこと内 JSは高発熱、騒音はやや大きい JDは低発熱、騒音はやや大きい SDは低発熱、騒音はやや大きい
誤爆のような予感はするが、一応 故障云々はメーカー差じゃなくて品番やロット差だろ ↓以下うちで使ってるメーカーは故障する/しないレス自重
でもこういう情報って参考になっていいよね。 故障うんぬんはおいといて。
昔から日立/IBMの指名買いです。
HDD監視ソフトってフリーでも色々あるけど、あの情報を自動収集して どこかのサイトで統計解析すればいいのに。 南にいくほど故障率があがるとか、使い方による変動はあっても 世界全体での故障率は○×社が一番低いとか、数を集めれば見えるものが あるはずなんだよな。
送信するときは、csv形式で送信して欲しいな。 バイナリとかで何を送ってるかわからんのは怖い。
Wii の「みんなの投票ちゃんねる」で「この一ヶ月で HDD が壊れたか」とか やればいいのかな。(w
>>948 ほぼ全て同意。
WDはサンプル数少なすぎてこちらでは何ともいえない
WDは老舗だしSCSI(FCは知らん)も作っている。けど、他より安めだよね。 QuantumはSeagate製品(型番も思いっきりFB***とかでw)として残っているよ。
957 :
login:Penguin :2008/03/20(木) 22:35:59 ID:rCpV5oIH
WDはRAIDエディションが安いのがありがたい
日立より海門のほが逝きやすいよ。俺だけ当たり悪いのかな。マザボとの相性とか、う〜む。
>>958 うちは主にサーバ用途(24h稼働)だけど、歴代日立が死にまくる…。
排熱とか電源品質とか、デスクトップなのかサーバなのか(→スピンアップ頻度)とか、
それぞれ条件は違うと思うから、自分の中で法則があるならそれを信じていいと思うけど。
日立はRMAさえやってくれれば何も言うことはないのだが、 RMAをやってくれないからこそ怖くて買えない。 「日本でだけ」RMAをやってないんだよなHGST。。 殿様商売過ぎだろHGSTというか日立。。。
>>959 どれくらいの使用で壊れるの?
HDD故障なんて、おいらはSMOOTH発火に遭遇したくらいだけど。
T7K250の250GB版を6本つかってて、1本だけ半年で壊れた。 症状はデバイスを認識するものの容量が0GBになる。 Twotopの領収証をなくしてしまって保障を受けられず orz 追加で同じHDDを買ってきてつけてるけど、それ以来全く壊れていない。 まぁ運が悪かったってレベル。 少なくともT7K250は低発熱だし不良は1回だけだし、問題ないと思う。
500GBx4→500GBx6に初めて追加するんだがraidreconf遅すぎる 1時間で2%・・・2日以上かかるぞ・・・orz
途中で一本failになったら泣いてしまうね。
怖いからやめてくれよ(涙) 容量大きすぎてバックアップも取れない一発勝負なんだから。
RAID5か?6本なんて勇者だな。
failのたびに750GBあたりに入れ替えて漸次容量アップとか思ってたんだけど、 今考えるとなんて無謀なんだ俺orz 今のところRAIDの整合性は問題ないけど、XFSが微妙に不整合してたんで今直したとこ。
終わったぜ。全部で40時間くらいか。 >md3 : active raid5 sdi1[3] sdh1[2] sdg1[1] sdf1[0] sde1[5] sdd1[4] >2441919680 blocks level 5, 32k chunk, algorithm 2 [6/6] [UUUUUU] >/dev/md3 2.3T 1.9T 431G 82% /data2 終わったはずなのに残り18%・・・orz
HDD増設を前提に考えると syncする間にHDDにアクセスする回数と、 容量がいっぱいになるまでにアクセスする回数を比較すれば、 RAID5がいかに割に合わないかわかるものだが。
>>971 すれ違いだがLVM+別マシンでrsync
>>972 それだと容量効率はRAID1と同じ50%の希ガス・・・(解釈あってる?)
RAID5なら6台なら75%なので最終的には8台(87.5%)かなと思ってたんだ。
ミスった75%→83.3%
>>973 RAIDはバックアップじゃないよ。
972の方法ならLVMで壊れかけたディスクをpvmoveで
入れ替えたり、死んだらミラーに入れ替えてダウンタイム0
で、ゆっくりと復旧させればよいし。
俺は容量のほうが欲しいからミラーはちょっと・・・ 同じ構成で今より1TB少なくなるのは痛い、というかハミ出るw
>>976 つまり、データの値段<HDDの値段なのですね。
それもまた人それぞれ。
消えるとまずいデータだけバックアップする方法も有効だろうね。 次に作るとき、例えば同じ筐体にmd0:D4+P1@RAID5とmd1:D4@JBOD/LVMっていう 構成にして、cronでrsyncっていう運用を考えてるんだけど、どうかな。 最低限の可用性確保(個人なら十分)+バックアップっていう。 素直に別マシンにした方がいいのかな……
>>978 似たような構成をしたことがあるよ。
メインをSCSI-HDD、バックアップをIDE-HDDで1台に押し込めてrsync。
さらにオフラインバックアップを定期的に。
まぁ色々試すのがいいんじゃない。
用途、手間、金、時間、それぞれに応じてやりかたは違うし、
実際に手を動かして得る経験だからね。
>>975 RAIDがバックアップなのじゃないのはわかるんだけど、
個人で使えるTape Libraryってないしなぁ。
LTOは個人では買えないぉ。
>>976 あでも、おれは本当に困るもの(DBとか Systemとか作り込んだアプリのレポジトリとか)は
HW−RAID1のとこに入れてるよ。
そうでもない、まあ消えてもあちゃーで済むくらいのものをSW-RAID5+LVMにしてるな。
>>980 そんなん、リムーバルドック+1TB-HDDでいいじゃん。
>>982 HDDは常時回してないと逆に不安にならない?
たまに電源を落とすと、二度と上がってこなくてねぇ〜、 って脅された口? それとも脅してる方かな。
経験した方なんだが...。
経験したのなら考察せよ
>>986 考察してよ。
騙すとか言ってる位だから、なにか持論をお持ちなんでしょ?
データを保存して、2年保管していたHDDが回らなかったことがある。 モーターが固着したものと思われる。 なぜ固着したと判断したかというと、叩いたら直った(w。 さすがに叩いたものなので、動いているうちに違うディスクに保存し直した。
長期保存向けのdiskとかあればいいのにね。 非常時には556を吹き込む穴があいてるとかw
990 :
login:Penguin :2008/03/24(月) 12:44:43 ID:yZnzLC1x
7980円だったWDの500GBを10台買ってきた
>>983 なるなる! もう買ってきたら1秒を争って電源入れるね。製造年月日が新しいものを選んで購入するのは基本だよね。
テープも冷暗所に保管するし、地理的にも100km以上は離れた場所に移送してるよ。だって不安になるでしょ?
まぁここまでやってる俺も保守には入ってないんだけどね
保守って何?
壊れた部品をタダでその日のうちに持ってきてくれる、 もしくは次の日に送ってくれる。くらいかな。
>>993 なるほど、サポートですね。
サーバはほとんどアレに金取られている気がする。
>>994 というか、サーバーで大切なのはそこだけだから。
というか結構職人芸が必要だったりする。
けちって文句垂れてる所多いけどね。