RAID総合スレッド No.3

このエントリーをはてなブックマークに追加
1login:Penguin
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。
2login:Penguin:2007/01/11(木) 13:57:58 ID:Qi1sg+Qg
(゚听)イヤダ
3login:Penguin:2007/01/12(金) 12:03:31 ID:k7DVEYg9
ソフトウェアRAID5で構成したアレイにもう一台ディスク追加して
RAID6にできればいいのになぁ。
4login:Penguin:2007/01/13(土) 00:59:20 ID:1daSzbwH
>>1

乙、今年はmdadmを懸命に応援する年になりそうだぜ。
5login:Penguin:2007/01/13(土) 17:52:42 ID:E9baDwwd
同じHDDが4台あるとして、

4台でSoftware RAID5
4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)

では、信頼性、保守性でどれがいいでしょうか?
用途はデータ置き場です。バックアップはUSB HDDにとるつもりです。
6login:Penguin:2007/01/13(土) 17:58:46 ID:/hTyXuuv
お勧め2番、やるなら3番
7login:Penguin:2007/01/13(土) 18:30:01 ID:7SZBdiSI
md と lvm とを併用かぁ。
俺は今のところ 320GB * 4台 で RAID5 運用してる。
でもブート領域のためとかで RAID1 が欲しいから、
4台(hda,hdb,hdc,hdd) ともに 20GB + 300GB にして、
hda1+hdb1 = RAID1 20GB ブート・システム領域
hdc1+hdd1 = RAID1 20GB 未使用
hda2+hdb2+hdc2+hdd2 = RAID5 900GB
8login:Penguin:2007/01/13(土) 22:28:03 ID:/JYQPWqN
ICH8DHのahci + リムバ + mdadmのRAID1でホットスワップリカバリできました。
9login:Penguin:2007/01/14(日) 09:08:41 ID:NA5ZaSYQ
ちょっと古めのマシン AOpen AX3S Pro
+ Pentium III Coppermine FC-PGA 600EB
+ IDE HDD 4台 でファイルサーバを構築しているのですが、
ディスクが足りなくなったので増設しようとしています。

マザーボード上には HighPoint の HPT368 があるので、
これを単純に IDE インターフェースカードとして使って
/dev/hd{e|f|g|h} をつなごうと思っているのですが、
HPT368 を Linux で使う上での注意点としてはどんなものがありますか?
(つづく)
10login:Penguin:2007/01/14(日) 09:10:49 ID:NA5ZaSYQ
Windows 2000 で使っていたときには HPT368 のドライバのせいか
時々ブルースクリーンに落ちてしまったので、BIOS で
disable していたのですが、Debian GNU/Linux etch の dmesg によると

HPT368: IDE controller at PCI slot 0000:01:05.0
ACPI: PCI Interrupt Link [LNKD] enabled at IRQ 12
PCI: setting IRQ 12 as level-triggered
ACPI: PCI Interrupt 0000:01:05.0[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
HPT368: chipset revision 2
HPT368: 100% native mode on irq 12
ide2: BM-DMA at 0xb000-0xb007, BIOS settings: hde:pio, hdf:pio
ACPI: PCI Interrupt 0000:01:05.1[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
ide3: BM-DMA at 0xbc00-0xbc07, BIOS settings: hdg:pio, hdh:pio

とあっさり認識してくれて、リムーバブル箱つかえば活線挿抜も
可能なのか?と期待させてくれます。

PATA の HDD が20台ほどあり、できればそれらを活線挿抜しつつ
使いたいのですが、このまま HPT368 につないでいいものか
PATA->SATA 変換ボックスと SATA カードを買ってくるべきか、
都会のショップに出かける前に思案しております。
11login:Penguin:2007/01/14(日) 09:11:57 ID:NA5ZaSYQ
ちなみに電源ユニットは新しいものなので
SATA 用の電源も供給可能です。
1218歳♀:2007/01/15(月) 22:40:41 ID:mKLR9U0k
>>8
そういう情報うれしい。
手順も書いてくれると、さらにうれしいかも。
13login:Penguin:2007/01/16(火) 20:01:35 ID:2K/TQhFN
RAID5でオンラインでキャパ変更できますか?

また、RAID5のままLVMでロジカルボリューム変更できますか?
14login:Penguin:2007/01/17(水) 05:32:47 ID:dKhI4BNe
md と lvm2 って直交?というか独立?
アレイを物理ボリュームとして論理ボリューム作り出したり、
その逆に複数の論理ボリュームからアレイを作り出したり。
漏れ md しかつかってないんだけど、そういえば lvm の
機能として RAID 0 が実装されていたなんてことは過去無かった?
ちょっと混乱気味。なので md しか使ってない。
15login:Penguin:2007/01/17(水) 05:40:18 ID:dKhI4BNe
おちついて考えてみたら、チキンな俺は ext2 から使い慣れてる
ext3 を使っているので、ファイルシステムのリサイズができないから
意味ねぇ・・いや、なんかツール使えばリサイズくらいできるん
だろうけど、チキンな俺はそれでファイルシステム全体が
吹っ飛んでしまうんじゃないかと思って怖い。
16login:Penguin:2007/01/17(水) 05:55:12 ID:dKhI4BNe
MD の LINEAR アレイが提供する機能と、
LVM の提供する機能はかぶるんじゃないだろうか・・・
と思ったんだが、いま mdadm の manpage 読んでみると
mdadm の grow で --raid-devices が変更できるのは
RAID1 に対してのみに限られるんだね。
LINEAR アレイですら grow できないのか・・・
それはやはり LVM でやれということか。
眠い。
1713:2007/01/17(水) 08:12:16 ID:jQRUuA4a
ネットワーク上のストレージに地上デジタル
の画像を直接録画できるテレビがあるんですけど、
ものすごい容量食うんですよね。

で、lvm2で後からHDDを足しながら容量増せるような
システム作りたいのですが、lvm2だと1台のHDD死んで
しまうと全滅してしまうので、その基盤のボリューム
をRaid5にできないもんかと....。
18login:Penguin:2007/01/17(水) 10:11:40 ID:dKhI4BNe
>>17
ファイルシステム自体は何を使う予定ですか?
19login:Penguin:2007/01/17(水) 10:19:28 ID:dKhI4BNe
>>17
Linux Kernel 2.6.19 からは RAID5 に reshape の機能が
あるようです、なにやら危険なにおいがぷんぷんしますが。
http://www.mail-archive.com/[email protected]/msg06587.html
前スレでも誰か言及してましたね。

自分的には RAID5 → RAID6 への reshape (というのか?)も
できるとうれしい。職場で二重障害を目の当たりにしたのでちょっとガクブル。
職場のサーバは RAID5+1だったので問題はなかったのですが。
2013:2007/01/17(水) 12:28:44 ID:jQRUuA4a
ほぼ、単機能のファイルサーバーなんでFSはなんでもいいのですが
Reiserで使ってます。

現状でもHDD6台バラバラに共有してるので隙間が目立つんですよね。
lvm2でボリュームを一つにまとめようかと思うのですが、やっぱ
怖いんですよね。

しかも用途が用途なのでRAID1にするほどでもない、、、でlvm2とRAID5
組み合わせられないものかと。

まあ、RAID5も気休め程度にはしかならない事は承知してますが
精神安定剤みたいなものですね。
21login:Penguin:2007/01/17(水) 16:04:39 ID:dKhI4BNe
RAID5が気休めって、そんなこと言わないでくれよー
やっぱり家庭用でもRAID6必要かな。
すでにRAID5で構築してしまった…
22login:Penguin:2007/01/17(水) 17:23:19 ID:tSbUi+N4
>>21
RAID5は一発でも落ちると綱渡りだからねぇ。
23login:Penguin:2007/01/17(水) 20:54:29 ID:dKhI4BNe
>>22
そうなんだよね。
すでにRAID5でデータ詰め込んでしまったからもうどうしようもない。
ところでRAID5はかなり長い間使っていて信頼してるんだけど、
RAID6のコードって枯れてる?RAID5のコードと一部統合なんて話もあるみたいだから
まだまだ紆余曲折ありそうで仕事に使うのは危険?
24login:Penguin:2007/01/17(水) 22:15:09 ID:pYVzOTz8
どうしても1アレイで大容量が必要という状況でない限り、
RAID1が信頼性、運用コストの面でベストではないかと
思い始めている今日この頃
25login:Penguin:2007/01/17(水) 22:24:09 ID:dKhI4BNe
4台ハードディスクがあるとして、RAID1とRAID6のどっちがいいだろうか?
有効容量はどちらもハードディスク2台分だから同じ。
2台が壊れたときRAID6なら助かるがRAID1なら
壊れ方によっては助からない。
26login:Penguin:2007/01/17(水) 22:34:56 ID:l/++G+GY
1台壊れた時のリビルド中の不良セクタ遭遇も考えると6
27login:Penguin:2007/01/17(水) 23:08:29 ID:dKhI4BNe
やっぱりRAID5からRAID6へのreshapeと
growはできると嬉しいな。
でも作業中に障害が発生して全部吹っ飛ぶなんてのはごめんだけど。
28login:Penguin:2007/01/17(水) 23:18:52 ID:Mb7Fwpgg
データを守ろうとすればカネがかかるわけで、
どのくらいカネかけれるかにもよるな。

まともに運用できるならRAID6は武器になるが、
運用失敗した後のリカバリではRAID1が圧倒的に強い。
セクタエラー程度ならそのままほとんどのファイルを救出できるからな。
29login:Penguin:2007/01/17(水) 23:32:00 ID:NH1vWgwK
RAID6の箱を買えばいいんじゃないか?
30login:Penguin:2007/01/17(水) 23:33:48 ID:to65kYg+
>>29
個人で買ってもよさげな価格帯の物ってある?
31login:Penguin:2007/01/18(木) 08:03:42 ID:CGK1nL0s
>>23 ソフトウェアRAIDの話?
RAID6(HDD11発と4発)を1年ほど使ったけど、RAID6側の問題は特に感じてないよ。
むしろ、同時アクセスによる割り込み処理の問題か何かが効いているような。
CPU/MBをAMD系からIntel系に変えてディスクアクセス関係のエラーが激減した。
32login:Penguin:2007/01/18(木) 17:33:03 ID:fQv5Q68V
>26
どれくらいまでの遅さなら耐えられる?
33login:Penguin:2007/01/19(金) 13:45:34 ID:Gws+Pgem
ネットワークでつながっている別のマシンの
パーティションを使ってRAID・・・って無理かww
34login:Penguin:2007/01/19(金) 13:52:18 ID:8Avse/mS
>>33
nbdをどうぞ
35login:Penguin:2007/01/19(金) 14:10:33 ID:Gws+Pgem
>>34
ふ〜む、そういうものがあるのか。
古いノートパソコンをもらったんで
自宅鯖にしてみようと思ったんだけど、
ディスクは一台しかついてないから
RAID1にできないなぁ、でも横のファイルサーバの
余っているディスク領域をネットワーク越しに
ブロックデバイスとして見せかけられれば
それ使って md の設定できないかなぁ、なんて思った。
36login:Penguin:2007/01/19(金) 14:15:42 ID:i9bLknZd
>>35
AoEおすすめ
37login:Penguin:2007/01/19(金) 14:23:19 ID:Gws+Pgem
ATA over Ethernet なんてものもあるのか。
それなりに Linux ずっと使ってきたのに、
まだまだ知らないものがあるんだなぁ・・・
単に俺が勉強不足なだけかも知れんが。
38login:Penguin:2007/01/19(金) 15:03:55 ID:T0ADJeSd
ATA over Ethernet 〜そしてiSCSI〜
39login:Penguin:2007/01/20(土) 01:43:14 ID:eR+5JFV/
秋葉まで見に行こうかと思ってるんですがRAID製品が
豊富な店とかってあります?
横浜のヨドバシにいったら、「RAID」が何かすらわからない
店員の上に、しょぼいカードが一つあるだけだったので…
40login:Penguin:2007/01/20(土) 02:21:50 ID:9XDpbJRu
USER'sSIDE 高いが品揃えは多い
DOSパラ(一部店舗?) 最近は3wareとか置いてるらしい
PCSERVER1 otto系列のサーバ屋、ARAIDとか扱ってる

まぁ、メジャーな店だと何も無いわな
4139:2007/01/20(土) 08:43:18 ID:eR+5JFV/
>>40
ありがとう。いってみます
42login:Penguin:2007/01/21(日) 02:09:27 ID:IoD8SZQl
43login:Penguin:2007/01/21(日) 11:43:08 ID:2HWPh1+Q
>>42
うぉ、ガクブル。
44login:Penguin:2007/01/21(日) 16:40:50 ID:L1NhTi/1
外出だったらスマンが、mdadmでRAID5のreshape(OCEのようなもの?)
ができたので報告。

環境:fedora core 6、kernel2.6.18-1.2869.fc6、mdadm v2.6(ソースからコンパイル)
RAID:/dev/md0、RAID5、HDDx3、ext3

1. 既存のRAID5にmdadmでオンラインのスペアディスクを追加
2. mdadm --grow /dev/md0 --raid-disks=4
(ここで念のためRebuildが完了するまで放置)
3. resize2fs /dev/md0

3の部分がちと怖いのでバックアップは忘れずに。
それとテスト環境でやっただけなので、まだ何か落とし穴があるかもしれん。
ご利用は自己責任で。
このあとfc4の本番環境でもやる予定だす。
45login:Penguin:2007/01/21(日) 21:33:42 ID:2HWPh1+Q
>>44
報告乙。もともとディスク数3だったのを4にしたんだね?
いままで RAID1 でしかディスク数の grow はできなかったんだよね。
resize2fs って怖かったのか、どんなファイルシステムでもリサイズは
全てを失うことがありそうで怖くてまだやったことない。
46login:Penguin:2007/01/21(日) 22:09:47 ID:L1NhTi/1
>>45
どもデス。乙と言ってもらえるとうれしいもんですなw
そうです、ディスク数を3本から4本、それと同時に容量もアップしました。
ちょっとわかり辛かったですね、スマソ。

>全てを失うことがありそうで怖くてまだやったことない。
激しく尿意w
なもんでテスト環境でしかまだやってまへんです。
47login:Penguin:2007/01/21(日) 23:21:55 ID:g+NGJWvd
>>44
報告thx!
1イベントとはいえ、こういう生の情報が、2chってかんじで好き。
48login:Penguin:2007/01/22(月) 10:47:09 ID:PELFx8lh
でも匿名で書くとラジオのアナウンサーに
首くくれって怒鳴られちゃうんだよな・・・

【ラジオ】コンちゃんこと近藤光史がラジオ番組で
「2ちゃんねるユーザーは『首くくれ』『人間として価値が無い』」と発言
http://news21.2ch.net/test/read.cgi/dqnplus/1168956483/
49login:Penguin:2007/01/22(月) 13:12:45 ID:PELFx8lh
カーネル入れ替えたときとか、もしバグでアレイが全部
吹っ飛んだらどうしようってすげぇビクビクする。
せめてデバイス丸ごとリードオンリーにして
アレイが問題なく構成できてファイルシステムにも
問題がないことをチェックしてから書き込みを許可できればなぁ。
数テラバイトが吹っ飛ぶなんて悪夢だ。
50login:Penguin:2007/01/22(月) 16:03:33 ID:2B3NlAcw
なんつーか、ファイルシステムとかRAID関連のバクはあまりにも
致命的すぐる。
それ以外のパッケージはunstableでも物ともせず使ってるが、
こればっかりはなぁ。
51login:Penguin:2007/01/22(月) 17:47:34 ID:V25cnwwm
>>48
新聞だってテレビのニュースだって、ほとんど匿名記事じゃないか。
アメリカに行って、テレビや新聞の記事が、記者の署名付きなのに感心した。

>>50
すげーちっさいテスト環境でテストしてから、メイン環境に使えば良いんだけど、
ちいさい環境だと問題が出てこないバグもあるからなぁ。
RedHat様やSuSE様やらを信じるしかありませんな・・・。
52login:Penguin:2007/01/22(月) 17:54:44 ID:PELFx8lh
>>51
うん、特にオーバーフロー系のバグがそうだよな。
昔ループバックデバイスで開始位置にオフセットが
設定できるようになったとき、先頭10KB飛ばして
マウントならうまくいったのに、ハードディスクの
イメージファイルの先頭10GBくらい飛ばして
途中のパーティションの中のファイルシステムを
マウントしようとしたら吹っ飛んだことがあった。
ソースコード見たらオーバーフローだった。
unsigned long で保持していなきゃならないデータを
途中 unsigned で保持している関数があった。
53login:Penguin:2007/01/24(水) 16:00:33 ID:Z+Ac2IS8
mdで構築したraid5があります。
一台のHDDでエラーが発生したのですが、アドバイスをお願いします。

○構成
sda1 + sdb1 + sdc1 + sdd1 + sde1 + sdf1

○不良HDD
 sdb1

sdb1が壊れただけなのにCentOS4.4自体の動作が非常に遅くなり
キー入力もおぼつかないので電源を落としました。

次回の起動時に自動的にsdb1への「background reconstruction」というのが
実行されました。
しかしやはりsdb1が悪いみたいで途中で失敗していました。

代わりのHDDがなかったので、hdaに空きエリアがあったのでhda4としてタイプfdを
作ったところ、fdiskが再起動しないとパーティションが有効にならないと言ってきたので
再起動したところ・・・md0がアクティブにならなくなりました。

手作業で以下のコマンドを実行してみました。
# mdadm -A /dev/md0
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: /dev/hda has no superblock - assembly aborted

見に行かなくてもいいhdaを見に行っているので、fdiskでhda4を消して再起動しました。
それでもやはりmd0がアクティブになりません。
再度mdadm -A /dev/md0を行うと、同一のメッセージが表示されます。

以下続く
5453:2007/01/24(水) 16:01:42 ID:Z+Ac2IS8
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846
すると
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument
となります。

# mdadm -D /dev/md0
すると
State : dirty, degraded
になっており、アクティブになりません。

どなたかアドバイスをいただけないでしょうか?
55login:Penguin:2007/01/24(水) 18:13:34 ID:yaoVJouN
--run --force
5653:2007/01/24(水) 18:45:52 ID:Z+Ac2IS8
>>55
的確なレスありがとうございます。

以下のコマンドで復活できました。
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 --run --force

fsckも通りマウントが正常にできました。
生半可な知識でRebuildせずに、まずはバックアップを取ってからアクションを取りたいと
思います。
57sage:2007/01/30(火) 00:14:05 ID:FqKDfkvN
Raidのリカバリで使うcpuパワーを上げ下げするコマンドを忘れてしまいました。
たしか、
echo ・・・・・>/proc/mdstat
とかそんな感じで設定するのだったと思うけど・・
どなたかご存知ありませんか?
58login:Penguin:2007/01/30(火) 00:24:12 ID:z0mWjF4o
エラー無く動いているmdにスペアディスクを設定したいと思います。
以下のコマンドラインで大丈夫でしょうか?

# mdadm --manage /dev/md0 -a /dev/sda1
59login:Penguin:2007/01/30(火) 02:20:02 ID:R4Zg6UYv
だれか
AMCCの 3ware 9650SE SATA II ハードウェア RAID コントローラ

そのまま動いている人いる?
CentOSインスコ中にエラーで止まる orz
(パーティーションきるところで)
60login:Penguin:2007/01/30(火) 07:29:29 ID:axnxJ40m
>>57
/proc/sys/dev/raid/speed_limit_max ?

http://www.die.net/doc/linux/man/man4/md.4.html
6158:2007/01/30(火) 07:45:15 ID:z0mWjF4o
自己解決しました。
その手順でOKでした。
62login:Penguin:2007/01/30(火) 23:19:58 ID:bAqM0WLs
nForce430とか61PとかでSATAでFake RAID
使っている人いませんかね?

人気ないのかな?
6362:2007/02/03(土) 21:35:50 ID:BVcNdfG1
過疎ってますので自作板に移動します。
64login:Penguin:2007/02/06(火) 15:02:39 ID:t9fdHqTH
ソフトウェアRAID1でランダムリード性能は向上するものでしょうか?
わかるかたいましたらおしえてください
65login:Penguin:2007/02/06(火) 15:20:14 ID:5Kb3UM8n
実装によるし、アクセスパターンやタイミングにもよるようだ。
LinuxのソフトウェアRAIDではやや向上する事もあるが、全く効果がないときもある。
実際に動かして測定してみれ。
66login:Penguin:2007/02/06(火) 21:45:49 ID:+WLVKn/X
RAID5のアレイにもう一つディスクを足してRAID6に出来ないものですかね。
67login:Penguin:2007/02/08(木) 18:02:09 ID:FCZCQ0FS
>>59
Debian etch(kernel:2.6.18-3-amd64) で使ってる。

自分の場合は / で使うつもりはなかったから、OS インスコ してから
ドライバコンパイルして元々の 3w-9xxx.ko と入れ換え、
マウントしていまんとこ普通に使えてる。

そのままだとたしかに認識してくれなかったなぁ。
対応鳥じゃないとインスコ時の正常動作は無理かも

最近 Linux 使いはじめた人間なんで、詳しい対応策書けなくてゴメンヨ
とりあえず報告だけ
68login:Penguin:2007/02/10(土) 16:50:10 ID:ptuSH4++
リムバ+Software RAIDでホットスワップするときって、hdparmでHDDを
スピンダウンさせてからリムバの電源を切る方が安全だよね?
69login:Penguin:2007/02/21(水) 20:45:48 ID:HkfANAOw
RAID5からRAID6へのアップグレード(?)ができればいいのになぁ。
70login:Penguin:2007/02/23(金) 20:26:40 ID:ArHTYZC9
RAIDって速度の違うドライブを使えば、速度の遅い方に足引っ張られるという認識で正しいですか?
71login:Penguin:2007/02/23(金) 22:09:23 ID:obdKOU01
スーパーマリオブラザーズ
http://www.youtube.com/watch?v=AWxpcd4Nbto

72login:Penguin:2007/02/24(土) 03:31:20 ID:jErYcOQJ
>>70

73login:Penguin:2007/02/24(土) 15:09:12 ID:MbL5jte/
RAID6ならRAID5+スペアディスクのほうが良いだろ。
74login:Penguin:2007/02/24(土) 17:45:18 ID:ZgJOy0Gl
二重障害に対応できない。
75login:Penguin:2007/02/24(土) 18:22:06 ID:MbL5jte/
RAID6のひとって、スペアディスクつけてるの?
76login:Penguin:2007/02/25(日) 12:51:24 ID:EPXHhgqo
付けないなら4-Way RAID1やるよ
77login:Penguin:2007/02/26(月) 02:05:00 ID:W3wudzvE
>RAID6のひとって、スペアディスクつけてるの?

遠隔地サーバーならともかく、自宅鯖の場合壊れたら
即交換できるからRaid6はいるけどスペアはいらない
と思っている、12WaySoftRaid6の俺
78login:Penguin:2007/02/26(月) 10:00:23 ID:dEzBE57o
RAID5 と RAID1 を比べて、スループットと
シンプルさ、何かへんなことが起きたときの
サルベージの可能性という点から考えての
「RAID1のほうが優れている」という主張には
同意できるんだけど、「RAID6よりRAID1の方が
優れているという主張っておかしくない?
たとえば http://www.13hz.jp/2006/09/raid6_695e.html とか

RAID1だとスペアに切り替わるときにはエラー無く
当該ディスク(の片割れ)からすべてのデータが
読み出せるということが前提となっているわけで、
二重障害ということを考えていないんじゃないだろうか。

ディスクが二台壊れるという場合を考えると、
その壊れ方によってはRAID1では復旧できない。
79login:Penguin:2007/02/26(月) 12:57:37 ID:mtS8QI8m
>「RAID X のほうが優れている」

そもそも単一の基準で全てをカバーできるなら
こんなにいろいろな種類は存在してないよ

だからそういう主張自体無意味だし反論も無駄
80login:Penguin:2007/02/26(月) 13:17:37 ID:C16dA1y2
> ディスクが二台壊れるという場合を考えると、
> その壊れ方によってはRAID1では復旧できない。

二台とも完全に逝った場合はどうしようもないが、
セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。

アレイの台数が増えれば、どれかが壊れる確率もそれだけ上がるし、
最小構成の2台でデータの保持ができ、
定期的なエラーセクタスキャンでほとんど回避できるとすれば
わざわざRAID6に突貫して自滅する必要も無いだろう。

RAID6で処理が複雑になる分、バグ等の問題が無いのかと考えると現時点では微妙な気もするし。
81login:Penguin:2007/02/26(月) 23:28:29 ID:VI1vlLsi
だよな。
俺たちのレベルだと、raid1+定期バックアップってのがいちばんよさそうだな。
読み書きの速度も落ちないしな。
RAIDコントローラの故障も考えると、ソフトウエアRAIDのほうがいいかもしれん。
最近のBIOSのRAID+dmraidでも、チップセット変わったら読み込めないよな?
82login:Penguin:2007/02/27(火) 00:35:02 ID:3idNzfzC
うむ、多少遅くても md が一番安心。
同じ(もしくは互換性のある)コントローラ積んだ
RAIDカードがいつでも入手可能であるとは限らないし。
83login:Penguin:2007/02/27(火) 04:27:20 ID:hjhB7IjX
自分はRAID6(スペアなし) + 定期Backupですね
ネット越しにしか使用しないので読み書き速度は遅くても全然平気

むしろ、データの保全性のほうが重要なんで、ハードRAIDは
今までの経験で壊れる頃には同じ仕様のハードを手に入れるのが
困難になっているので、使わない

>二台とも完全に逝った場合はどうしようもないが、
>セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。

疑問なんですが、二台のデータのうちどっちの保持してるデータが正しいってどうやって分かるんでしょう?
Raid5,6ならパリティで分かるけど・・

84login:Penguin:2007/02/27(火) 09:44:41 ID:3idNzfzC
>>83
読み出せたら正しい、正しくないものは読み出せない、
ということでそれ以上はあきらめるしかないだろうなぁ。
ハードディスクのセクタを記録するときにつけられている
であろう Error Detection Code (CRCとか?) を
すりぬけて正しくないものがたまたま読み出せてしまう
ということも実際にはあるだろうと思うので、それはあきらめる。

ファイルごとに Tripwire みたくハッシュを取って置いて、
つじつまが合うように正しいと思われるほうを選択する
という手もあるだろうけど、現実的じゃない気がする。
85login:Penguin:2007/02/27(火) 10:33:59 ID:mCUslleJ
>80
理屈はその通りだし、高級機ではそうしてくれるのかもしれない。

が... 現実はこういうヌケ作実装の多いこと:
一カ所セクタエラーが見つかると "障害あり" status に移って
もう片方から全コピーをしようとする。
このときコピー元側の別の部分にエラーがあると... お亡くなり...
86login:Penguin:2007/02/27(火) 14:31:53 ID:3idNzfzC
>>85
そうなんだよな・・・
再び先ほどはエラーがあったディスクのほうからの
読み出しを試みて・・・って言う具合にはしてくれない
実装も多いんだよね。

まぁ dd で交互に手動でがんばる、ということも
原理的には可能なんだろうけどね。って、
そういうツールを書けという話もあるが。
87login:Penguin:2007/02/27(火) 16:39:51 ID:QhBLHNeL
だからパーティション分割して細かいmdをいくつか作り、LVMで束ねる
88login:Penguin:2007/02/27(火) 19:17:56 ID:hjhB7IjX
mdの上にLVM・・ストレージのコントロール層を増やすごとにバグとかで
ボリューム結合できなくなる可能性が増えるきがする・・・・
昔LVM構成してたpvのヘッダが壊れて全体が読み出せなくなった悪夢が・・
(手動でヘッダを偽造してむりやり結合したけど)
89login:Penguin:2007/02/27(火) 19:52:19 ID:c7Z/JEvk
3w 9650のpci-exp版動かしてる人柱なネ申はいらっさいますか?
90login:Penguin:2007/02/27(火) 21:29:22 ID:iRfrQvRF
うーん、250GB*8のRAID5でext2で1パーティション切ったのは大失敗だなあ。
UPS保護してない時に電子レンジ+ドライヤー+炊飯器攻撃でぷつん。fsckでごりごりやり始めて早、2日間・・・。
1.6TB総なめするのにどんだけかかるんだか見当もつかん。俺アホだorz
無事回復してくれたら、一回データ総待避してext3にするなりLVMで管理するなりしよう・・・。
初心者でTB級のアレイ組む人、マジ気を付けろよー
91login:Penguin:2007/02/27(火) 22:05:44 ID:3idNzfzC
>>90
tune2fs -j じゃだめなん?
ext2→ext3なら特に退避せずに安全に移行できると思うんだが。
俺なんか間違ってる?
92login:Penguin:2007/02/27(火) 23:38:23 ID:vJg7XKnj
>>90 人柱乙! すげー参考になりました。いやまじで。
ほかのファイルシステムにしたらどーなんのかやってみたいw
93login:Penguin:2007/02/28(水) 01:06:12 ID:OKX6DIDl
おれは ext3 で、RAID5(7+スペア)で、 3.5TB以上だけど、
マウント回数と前回のfsckからの時間をみて、
たまに boot 時に fsck でディスク総なめのチェックがかかるよね。
まぁ、しかたねーべ。タイミングはパラメータいじって調整はできるが、とくにしてない。
でも、おれは数時間で終わるけど?
ハードウェアRAIDは読み出しは速いってことか。
94login:Penguin:2007/02/28(水) 01:33:35 ID:KXOqHZSX
ext2でfsckが二日以上かかるなんて話初めて聞いた。

最近はext2自体使わなくなったからなぁ


>>90
ext2→ext3にする場合でも、fsckが必要な状態ではfsckが先だろう。
95login:Penguin:2007/02/28(水) 01:35:24 ID:A1/xdUFc
うちのは250GB*6のRAID5。
ひとつのmd0として作成していて、そのうえにext3を作ってます。

メインメモリが448MBなんですが、たまにboot時に実行されるfsckで
メモリ不足と表示されて途中でmd0へのfsckしくじります。

fstabからmd0外して再起動させて、きちんとCentOSが起動完了して
からでないとfsckが完了しません。

多分、swap有効にする前にfsckが実行されているからかな〜と推測
していますが、あまり気にしていません。

今はmd0にLVM作ってlvol分ければよかったと後悔しています。
96login:Penguin:2007/02/28(水) 13:02:00 ID:IgJHr+00
tune2fs -c0 -i0
97login:Penguin:2007/02/28(水) 13:15:09 ID:A1/xdUFc
たしかに起動時のfsckチェックをなくしてやるってのも手ですけど
ちょっとそれも少し怖いような気が。

fsckがswap有効後に実行されれば別に問題ないと思うんですが。

とりあえず仕様ってことであきらめてます。
でもレスさんくす。
98login:Penguin:2007/02/28(水) 13:44:42 ID:1/vmpLar
まだおわんないなー、グラフ表示のオプション付けた時のグラフ表示、何故か100%になった後また0%になってたし、
もしかして何かバグにぶちあたってるのかなあ・・・・。いくらなんでも3日間近くかかるのは変だよね?

>>91
fsck終わったら試してみるです。thx。

>>93
H/Wだと確かドライバとコントローラ側で上手く騙して素通りさせるんじゃありませんでしたっけ?
fsckの層の更に奥で本当のチェックを走らせてるようなイメージで・・・・。

>>95

参考までにお聞きしたいんですが、fsck完了までどれぐらいかかりましたか?


99login:Penguin:2007/02/28(水) 14:04:29 ID:A1/xdUFc
OS起動時のfsckだと、4時間後ぐらいに50%ほど終わってから
「メモリのアロケートができねーよ」
っていう英文吹いてメンテナンスモードになってしまいました。

X上でfsck手動でやった場合は1時間ほどで終わりましたよ。

私のスペックさらしておきます。
P3-500MHz
448MB
P2B-F

Sil3112&Sil3114に250GB*6でmd0(RAID5)作って直接ext3。
100login:Penguin:2007/03/01(木) 18:46:38 ID:08JSMW9W
100もらた
101login:Penguin:2007/03/01(木) 19:42:30 ID:mUhR0CCU
フリーズしたから再起動してみたら
RAIDボリュームはパリティを初期化しています・・・って出たけど何だこれ?
処理すっげえ遅くなるし・・・
なんとかなんない?
102login:Penguin:2007/03/01(木) 19:58:56 ID:NQR7midD
どんな表示か分からないけど
そういう時はじっとおとなしく処理が終わるまで待つが吉
103login:Penguin:2007/03/01(木) 20:07:48 ID:mUhR0CCU
>>102
サンクス
何か右下にHDみたいなアイコンが出てきて青く点滅してる感じなのよ


しかし、おとなしく処理待ちか・・・
下手すりゃ4時間くらい待たなきゃならんのかorz
104login:Penguin:2007/03/01(木) 22:52:23 ID:nupw/141
正常にシャットダウンせんかったら整合性保障できないもんな
105login:Penguin:2007/03/02(金) 00:36:51 ID:eW4eFg7f
fsckがメモリリークとかしてると痛いかも。
fsckって途中で止めてしまっても、

 残り=開始前の状態-止めるまでに直した部分

ってなってくれるのかな?それとも

 残り=開始前の状態より酷い状態

になってしまうのだろうか?

前者なら思い切ってリセットボタンという手も・・・
106sage:2007/03/02(金) 20:06:18 ID:cqGe228H
どなたかファイバーチャネルでデイジーチェーンした方はいませんか?
107login:Penguin:2007/03/02(金) 21:06:07 ID:gjkd0HI/
一度使ってみたいんだけどなぁ

まともに買うとボード1枚15万とかするので手が出せない。


メリットもわかりにくいしなぁ
108login:Penguin:2007/03/03(土) 12:35:21 ID:70VeM9gA
>>82
デュアルコアになって、CPU(ソフトウエア)でRAIDしたほうが、
じつはパフォーマンス良いんじゃないのか?
とか思う。エロい人教えて。
109login:Penguin:2007/03/03(土) 14:12:15 ID:EzVf6r0L
>>108
デュアルコアでもデュアルプロセッサだろうとメモリとのやりとりをするバスは
RAIDシステムとそれ以外(その他のOSサービス)で共有することになるわけで、
その点でのデメリットは大きいと思う。
110login:Penguin:2007/03/03(土) 21:05:07 ID:70VeM9gA
>>109
だよな。
「やっぱハードウエアRAIDでしょ」と思っていた自分が子供でしたよ。
今はどう考えてもソフトウエアRAIDがいいな。

もちろん、大規模になるとべつだけどね。
111login:Penguin:2007/03/05(月) 00:21:46 ID:KKn14MUG
>>59
centosでインストールできたぞ
対応するドライバを使っていないからHDDを認識できていないと思われる
返信くれれば作業の詳細を書く
俺の場合はCentOS4.4になるが、他も多分大して変わらんだろう
112login:Penguin:2007/03/05(月) 09:01:53 ID:FNbXW+R/
>>109 と >>110 の会話が
かみ合っていない気がする件について。
113login:Penguin:2007/03/05(月) 19:46:05 ID:Bo3y/qbe
中華、思い切り、かみ合って無い、に千俵。
114login:Penguin:2007/03/28(水) 03:48:38 ID:QgViIyaO
ソフトウェアRAID1作ってみた。
ハードウェアRAIDに慣れすぎていると遅くて重い感じがした。
RAIDからブートしようとするとめんどくさかった。メリットは安いだけかも・・・・

で、調べてわからなかったのでちょっと聞きたいんだが、
ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装?

fsでmount中のパーティションをddで読み出してverifyするわけにはいかんよな・・・・
115login:Penguin:2007/03/28(水) 22:32:56 ID:zDe69L2m
>>114
> ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装?

お前が作った RAID のことはお前にしかわからないと思うぞ。
116login:Penguin:2007/03/28(水) 23:02:12 ID:9F05PYRT
そういう意味ではないと思われ
117login:Penguin:2007/03/29(木) 19:17:50 ID:2wW+hfh/
>>114
HDD1とHDD2でRAID1ミラーリングしてたとして、
HDD1とHDD2から同じブロックのデータを読み込んだときに、
読み込んだ値が同じかどうかのチェックをしてるかどうかってこと?

してるとは思うけど、もし違った場合どうするんだろうね?
同じ値が得られるまで何回も読み込んでみて、
同じ値が得られないままタイムアウトエラーになったら、
そのままIOエラーとして返すとかかな?

その場合、HDD1とHDD2のどっちの値が正しいのかどうやって知るんだろうね?
HDDからエラーが返ってくれば分かるけど、
必ずしもエラーが返ってくるとは限らなさそう。
誰か詳しい人教えて〜。

しかし、ZFSはFSでチェックサム持ってるから強いね。
118login:Penguin:2007/03/29(木) 23:14:05 ID:ykGgWiUN
>>116
じゃあどういう意味が説明してくれ。

>>117
HDD は、セクタ単位でデータが正しいかチェックする仕組みを持ってるから
どっちのデータが正しいかはわかる。

(何らかの不具合で) 両方の HDD から正常に読み出せたデータが不一致だっ
た時の処理は作った人に聞くしかない。
119login:Penguin:2007/04/05(木) 23:40:05 ID:nDPSs4fG
ソフトウエアRAIDのraid1で、3台のミラーってできますか?
120login:Penguin:2007/04/06(金) 05:16:34 ID:KpdA9UKj
ソフト次第です。
121login:Penguin:2007/04/06(金) 21:25:17 ID:g0fQ3ChS
>>120
そりゃそうでしょうね。
122login:Penguin:2007/04/08(日) 10:00:54 ID:86gp4iQZ
はやくダブルパリティ版RAID-Zをつかいたいー
ところで玄蔵x4とかのeSATAを分岐させる箱はLinuxで使えてるの?
123login:Penguin:2007/04/16(月) 20:46:11 ID:/KluuheB
HDD4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)
ってCentOSのインストールでやろうとしてもできないよね?
mdadm使わないとできないよね?
124login:Penguin:2007/04/16(月) 20:47:21 ID:0mxiBl50
どうしてハードウェアRAIDにしないの?
宗教的な理由?
125login:Penguin:2007/04/16(月) 21:05:40 ID:/KluuheB
カード買う金ねーもん。。
126login:Penguin:2007/04/16(月) 21:11:36 ID:LpIK41OU
ハードウェアRAID買って、カードが壊れたらどーすんのよ。

予備でもう一枚買っとく?
127login:Penguin:2007/04/16(月) 22:10:47 ID:pbo5v1pa
二重化する。
128login:Penguin:2007/04/18(水) 18:34:31 ID:3M95DZbq
ソフトが壊れる可能性を考えないのが不思議。
129login:Penguin:2007/04/18(水) 23:12:53 ID:hmudUlPg
カードが壊れる可能性と、ソフトが壊れるwwww可能性ってどっちが高いよ?

釣られた?俺?
130login:Penguin:2007/04/19(木) 01:35:19 ID:SWHw1ugZ
>>129
ソフト的(論理的)に壊れることも結構ある。
RAIDカードのドライバが案外いい加減なんだよね。
ホントの高級機はさわったこと無いので分からないけど。
131login:Penguin:2007/04/19(木) 01:57:37 ID:1Q3DqUtt
メモリ逝かれてるんちゃう(藁)
132login:Penguin:2007/04/19(木) 04:25:49 ID:lhKQmjpD
ソフト的に壊れないものだと思っているの?
結局はちゃんとした試験をしたものの信頼性が高いが、
LinuxのソフトRAIDがどれほどの試験を受けているんだ?
ちゃんと試験をパスしたハードウェアRAIDの方がまし。
ドライバがタコだと意味ないが、大抵クリティカルな用途では
ハードウェアRAIDが使われているからそういう用途のRAIDカードは
ドライバもよくできてる。
133login:Penguin:2007/04/19(木) 04:42:48 ID:1Q3DqUtt
それは壊れるんじゃなくて、はじめからバグがあるってことだろ。
意味が全然違うじゃん。
134login:Penguin:2007/04/19(木) 06:44:01 ID:QdpW4zuB
>>132
うん十万もする RAID カードのファーム不良でデータ飛ばした奴もいるけどな。(w

品質はハード/ソフトの違いよりかけられる金に比例するよ。
135login:Penguin:2007/04/19(木) 23:20:50 ID:xAH8B/OD
コネクタ・ケーブルの接触不良の類 > デバイスコントローラーの安定性 > ハード・ソフトの違い

ハードRAIDの心配する奴に限って、電源容量不足だったり、拡張スロット全部埋まってたり、
トラブルの原因になるような物を抱えてたりするからな。


「RAIDなんて危なくて仕方ないじゃないですか」は名言
136login:Penguin:2007/04/21(土) 03:03:27 ID:CyliSnvd
> 2.6.16.40(2月10日)
> ・md/raid1:raid1でrepairが動いていなかったのを動くようにする
どこでエンバグしたのか、そもそも入っていなかったのか・・・・
137login:Penguin:2007/04/21(土) 23:05:20 ID:tkUNTSZw
皆様質問です!

Linux でハードウェア RAID1 は何年も管理してるんだけど、
このたび初めて mdadm で RAID1 を構築しようと思ってます。

で、同じハードディスクを 2 台用意してミラーリング、
パーティションは、例えば / と /home に分けるとしたら、
あらかじめパーティションを切っておいて、

/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1

とするのが一般的?

それとも、ドライブ丸ごとミラーリングの設定にして、
その上でパーティションを切って、

/dev/md/d0p1
/dev/md/d0p2

とするのが一般的?

一般的というか、「普通はこうだな」とか、
「こっちはこうだけど、こっちはこうだぜ」みたいな意見があったら、
ぜひ教えてください!
138login:Penguin:2007/04/21(土) 23:23:31 ID:1Bn4OOj9
へ〜Linuxのmdって
/dev/md/d0p1
/dev/md/d0p2
こんなんができるんだな。

俺的には、LVMを併用するのがお勧めだけど、
LVMを使わない、かつ最初からディスクを全部使わないのであれば、
/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1
とする方がいいんでない?
139137:2007/04/22(日) 22:40:29 ID:+3FVnusb
>>138
thanks!

まだまだいろいろ試してます。
柔軟すぎて困りますねw
140login:Penguin:2007/05/08(火) 06:43:34 ID:v39MavRU
mdadm使ってSATA2.5のハードディスクでソフトウェアraid1したんでうすが、hdparamで測定すると
単体でもraid1でも読み込み速度が59MB/secくらいです。
こんなもんでしょうか?
raid1って書き込み速度が単体と同じで読み込みが倍速近いと思ってたんですが…
141login:Penguin:2007/05/08(火) 07:38:59 ID:AozcXxGK
単体とRAID1とでは読み込み/書き込みともに差がない。
ただ、ソフトウェアRAID1だと、若干書き込みが遅くなる傾向にはある(sync書き込みの場合)。
142login:Penguin:2007/05/08(火) 09:46:36 ID:Yye/G8Wq
初のソフトウェアRAID完了しました。
既存システムをRAID1で組んだのだけど想像以上に面倒だった。

ところで、swap領域って同期させたほうがいいの?

swap まで Linux raid autodetect にしてしまったけど、
そのままでよかったのかな・・・。
143login:Penguin:2007/05/09(水) 00:38:51 ID:SZLDgyq7
私のはファイル保管用の所だけraidにしてるけど、システム自体はraidにしてない。
吹き飛んだら再インストールすればいいやって。

システム部をraid化したんなら、swapもraidにするべきだす。
144login:Penguin:2007/05/09(水) 04:58:51 ID:xXQdi+I9
ソフトウェアRAID1では無理かも知れんけど、
ハードウェアRAID1では読み込み高速化されるものがあるよ

>>140 のケースだと、ソフトウェアRAIDだってことと、2.5インチだってことが足を引っ張ってる気がするな。
HDDが大きくなれば速くなるってわけではないけど、回転数による影響とか意外と大きい
145login:Penguin:2007/05/11(金) 12:22:43 ID:ghbhAoqH
ソフトウェアの RAID0 だとそれなりにちゃんと速くなるんだから、RAID1 でも読み込みくらいは速くなってほしいよなぁ。
146login:Penguin:2007/05/11(金) 13:22:15 ID:QfcwKvji
raid10?
147login:Penguin:2007/05/11(金) 16:22:41 ID:RIJa5Yv3
>145
性能に気をつけている実装なら当然速くなるよ
148login:Penguin:2007/05/12(土) 05:52:15 ID:ZsVZjbK0
>>147
md サブシステムは・・・ってことか・・・
149login:Penguin:2007/05/16(水) 20:20:42 ID:Wofqb0v9
md(4)のRAID1の項に
The driver attempts to distribute read requests across all devices to maximise performance.
ってちゃんと書いてあるけどな
150login:Penguin:2007/05/18(金) 21:32:04 ID:QMx07kDX
書いてあるけど、そのとおりになってない。
設定項目とかも見当たらないしなぁ。
151login:Penguin:2007/05/19(土) 02:48:30 ID:bPpyS5/5
>設定項目
おまえあほだな
152login:Penguin:2007/05/19(土) 12:22:57 ID:hG3gQkhb
>>151
何かあるかなー、と思って md と mdadm の manpage、/proc 以下なんかを探してみたけど、
特に設定できるようなものは見つけることができなかったから、そう書いただけ。
あほで結構。
153login:Penguin:2007/05/22(火) 12:29:38 ID:RMtpi8D3
コマンドラインからraidのドライバを調べることってできませんか
centosなんですが
154login:Penguin:2007/05/22(火) 14:47:53 ID:ULbOvhBc
ソフトウェアraidなら
mdadm --version か
mdadm -v でできない?
155login:Penguin:2007/05/22(火) 16:42:47 ID:IzkVC+2e
>>153
/sbin/modinfo raid0
/sbin/modinfo raid1
/sbin/modinfo raid10
/sbin/modinfo raid456
とか
156login:Penguin:2007/05/24(木) 02:56:20 ID:EhbBIrN2
>>155
どうもそれっぽい
ありがと
157login:Penguin:2007/05/28(月) 18:35:42 ID:JVkG/VZ5
新しいディスクをmdadmでRAID1に追加してsyncさせようとしたら、
途中で不良セクタが検出されてfailedされてしまった。

不良セクタが1つでも存在すると構成ディスクとしては使用不能なん?
故障箇所だけ避けたりできるとちょっと嬉しいんだが。
158login:Penguin:2007/05/28(月) 18:44:05 ID:fIlzNq6x
おまいはいったいなんのためにRAID1をつかっているのだ?
159login:Penguin:2007/05/28(月) 19:17:26 ID:AcK8PEIn
>>157
Googleの発表した統計によると
不良箇所が一箇所でもあるとHDDの残り寿命はあとわずか
160login:Penguin:2007/05/28(月) 19:20:50 ID:SCVXxM1y
>>157
なんみょうほうれんげきょう
161157:2007/05/28(月) 20:18:58 ID:JVkG/VZ5
>>158-160
特定の箇所だけでなく、ディスク全体がもうすぐだめぽなのね。了解。
新しいの買って来るか。
162login:Penguin:2007/05/30(水) 02:13:05 ID:kBP+D+YZ
そんなことない
もう一度物理フォーマットをしてだな
163login:Penguin:2007/05/30(水) 02:40:36 ID:+V1y8uwn
e2fsck -c ってどうなんだろう。
少しは延命になるのかな?
ま、焼け石に水ってところだろうけど・・・
164login:Penguin:2007/05/30(水) 10:10:41 ID:DeuYvm7G
>>162
IDEのディスクならOSにエラーがあがってくる時点で
代替セクタ使いきってるよ。
165login:Penguin:2007/05/31(木) 00:34:56 ID:ws8wZind
だから
もう一度物理フォーマットをしてだな
166login:Penguin:2007/05/31(木) 01:23:54 ID:eGl1+68x
>>164
自動交代処理は必ずうまくいくわけではない。
読み出し時の交代処理は、
何度かリトライして読めたら予防的に交代処理を行う、
というものだが、即死している場合はエラーを上げるほかない。

>>165
最近のATAのHDDは物理フォーマットは出来ない。
メーカーのフォーマットツールもゼロクリアしてるだけだ。
ゼロクリアすると不良セクターが交代処理されて見えなくなる。

ゼロクリアした後、またすぐにエラーが出たらもうダメ。
何度ゼロクリアしてもまたエラーが増殖し、いずれHDD全体が死ぬ。

もしゼロクリアする事で幸運にもエラーが出なくなったら、
それは単発的なエラーで、そのまま使っても大丈夫って事。

脳も物理フォーマット出来たらいいのに
167login:Penguin:2007/06/02(土) 00:00:51 ID:nlfNJz/5
>>166
> 最近のATAのHDDは物理フォーマットは出来ない。
> メーカーのフォーマットツールもゼロクリアしてるだけだ。
> 脳も物理フォーマット出来たらいいのに
自分の脳みそゼロクリア頑張れ
168login:Penguin:2007/06/02(土) 20:48:22 ID:UPbjiBU5
169login:Penguin:2007/06/04(月) 14:00:21 ID:E2VeCvlM
今6台でRAID5組んでるんですが
Version : 00.90.03
Creation Time : Mon May 21 01:17:19 2007
Raid Level : raid5
Array Size : 1562842880 (1490.44 GiB 1600.35 GB)
Device Size : 312568576 (298.09 GiB 320.07 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Mon Jun 4 07:40:31 2007
State : clean
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 1894a7af:0fa76ca5:a7012d86:b60e930f (local to host parple)
Events : 0.207858
Number Major Minor RaidDevice State
0 56 1 0 active sync /dev/hdi1
1 57 1 1 active sync /dev/hdk1
2 8 4 2 active sync /dev/sda4
3 8 20 3 active sync /dev/sdb4
4 34 1 4 active sync /dev/hdg1
5 33 1 5 active sync /dev/hde1
>Preferred Minor : 3
これはどういう意味なんでしょうか?3という数字に思いあたりが無い。
170login:Penguin:2007/06/04(月) 14:12:40 ID:7VwOIeVK
>>169
そのArrayは、md3ではありませんか?
ぐぐってみたら、こんなのが出てたので・・・
ttp://lists.debian.or.jp/debian-users/200512/msg00039.html
171login:Penguin:2007/06/04(月) 14:54:42 ID:E2VeCvlM
>>170
当たりです。Mmd2は2、md3は3になってました。
どうもありがと〜
172login:Penguin:2007/07/14(土) 16:31:06 ID:O5DZ0PBR
# なんか書き込みミスったのでもう一回

いまさらかもしれんけど、RAID5のディスク追加reshape成功したので報告
ディスク5台+スペア1台 → ディスク6台
debian etch
カーネルは linux-image-2.6.18-4-i686.deb そのまま
mdadmを2.5.9→2.6.2に入替
173login:Penguin:2007/07/15(日) 21:19:32 ID:CQUpisoj
mdadmでRAID5を構築していたPCが故障した場合、別なPC新たに買って
Linux入れて故障PCからHDD持ってきて復旧させることは出来ますか?

man見た感じだと特にコンフィグファイルに設定保存していないようなので-Aオプションで
復活出来そうな気がするんですが。
174login:Penguin:2007/07/15(日) 22:52:02 ID:G3EMIJfO
>>173
できる。というかこの前やったよ。

Persistent Superblockがあれば、構成ディスクの一つから
# mdadm --examine --brief /dev/sda1
とかやってUUIDを取り出して、mdadm.confに
ARRAY /dev/md0 level=raid5 num-devices=7 UUID=3f760edf:(以下略
というエントリを作り、
# mdadm -A /dev/md0 -s
で再編成できるはず。(-sは必要だったかどうか忘れた)
なお、Persistent Superblockはcreateモードでアレイを作ったら自動でできてるので問題ない
175login:Penguin:2007/07/15(日) 22:53:26 ID:G3EMIJfO
あ、levelとかnum-devicesとかUUIDは環境依存なんで適当に読み替えて
176login:Penguin:2007/07/16(月) 17:17:02 ID:gV6PB3Na
>>174
ありがとうございます。
NAS箱買おうと思ったらけっこう値段が高くてしかも安いやつは組み込みLINUX
で動いているようなので、それならDELLの激安サーバにRAID組もうかと思っているところでした
177login:Penguin:2007/07/16(月) 18:19:08 ID:93uGqOVD
激安サーバは品質も激安だから気をつけれ。用途とか稼働状況によるけど。
178名無しさん@そうだ選挙に行こう:2007/07/29(日) 00:41:14 ID:gZaay99H
すみません、ちょっと確認させて下さい。

現在以下の構成でRAID試行中です。

 sda   -> システム領域(/boot,/var,...)
 sdb,sdc -> データ領域(softwareRAID1,/dev/md0)

仮にsdaが故障しHDDを交換後にOSを再インストールした場合
再インストール後に /dev/md0 をマウントしてやれば復旧可能との認識でOKでしょうか。
179名無しさん@そうだ選挙に行こう:2007/07/29(日) 01:37:20 ID:7VEmexdu
OKです。

実際に現状のままインストーラーを起動してみたら分かるけど
DiskDruid(だっけか?)で、md0を自動認識してどこにマウントするんよ?って
聞いてくるよ。

試してみ。
180名無しさん@そうだ選挙に行こう:2007/07/29(日) 03:03:25 ID:mtNCtsXl
ディストリが不明だが、たぶん可能
セットアップで表示されなければ、raidtoolsとかmdadmあたりのパッケージを使うとできる
181178:2007/07/29(日) 09:21:50 ID:gZaay99H
>>179
>>180
有り難うございます。先ほど試してOKでした。
(ちなみにCentOS5 x86_64です)

インストール時にsdaのみパーティション編集し、sowtwareRAID領域はそのままに。
完了後に自動マウントされていませんでしたが、適当にマウントしたらデータが表示されました。

softwareRAIDってOS消したら一緒に・・・っていうイメージが強かったのですが、
そんな事はなく結構融通が利く利用方法なんですね。
182login:Penguin:2007/07/29(日) 22:34:19 ID:R/Kcw7Zr
スマン、教えてくれ。

遠隔地で動作してるマシンなんだが、ディスクを予防的に交換したい。
だが、ハードウェアの仕様がどうなってるのかわからず、PATAなのか
SCSIなのかすらわからん(SCSIにもいろいろあるだろうし)。時期的に
SATAはないだろう、ということがわかるぐらい。

また、おいそれとrebootできず(いやま最後の手段でとなればやりますがね)
boot時のログもrotationの彼方に消えさってる。

Debian sargeで動作してて、lspciの出力は以下の通り、という状況で、
このディスク交換に何を持っていけばいいか(つまりこのドライバで
動作しているカードに剌さるHDDの規格は何か)判るエスパーはおらんかいの?

0000:02:01.0 RAID bus controller: Adaptec AAC-RAID (rev 01)

183182:2007/07/29(日) 22:42:11 ID:R/Kcw7Zr
大事なコト書きわすれてた。kernelは↓です。

2.4.25-1-386 #2 Wed Apr 14 19:38:08 EST 2004 i686 GNU/Linux
184login:Penguin:2007/07/30(月) 01:07:51 ID:uYcTNOic
hdparmで情報とれるかも
185182:2007/07/30(月) 08:03:42 ID:vntdpIjG
# hdparm -I /dev/sda

/dev/sda:
HDIO_DRIVE_CMD(identify) failed: Inappropriate ioctl for device

手元のSATAノートだと取れたんだけどね...
ありがと。
186login:Penguin:2007/07/30(月) 08:22:43 ID:wIebROn1
>>182
RAIDのコマンドラインユーティリティ経由で取れるのでは。
/dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには
専用のユーティリティを使うしかない。

3ware系だとsmartctlが使えるんだけどね。
187182:2007/07/30(月) 11:40:32 ID:vntdpIjG

> /dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには
> 専用のユーティリティを使うしかない。

だよねー。野良installしてあるので、そういう気の利いたツールがないなぁ。
しょうがないので、二度手間になるのを覚悟の上で現物見てからHDD買いに行きますわ。
しかしまた、ひどい雨だなぁ。

188login:Penguin:2007/07/30(月) 12:59:27 ID:wIebROn1
>>187
野良インストールでも使える専用のコマンドラインユーティリティがあったはずだが。
189login:Penguin:2007/07/31(火) 16:25:45 ID:X79rWaJz
諸先輩方ご指導下さい。Linux初Raidです・・・。

GigabyteのマザーボードGA-G33-DS3Rというのを購入して日立のSATAのHDD500Gを4台購入しました。
Windowsと同じようにBiosでRaidの設定をして4台でRaid10のアレイを作成しました。
ここでCentOS5のインストールを開始するとドライブが見つけられません。
ドライバを入れろと出ますがICH9R用のドライバというのがintelにもgigabyteにもありません。
dmraidというのを使えば良いというのもFAQで見たのですがインストールの最中にdraidを
インストールする方法もわからず・・・。

どうすればRaid10で初期インストール出来るかアドバイス頂戴できないでしょうか。
それともBios raid利用するのは無理なのでしょうか?
190login:Penguin:2007/07/31(火) 16:38:19 ID:ISFmkAWS
苦労の割に全くあわないので素直に「本物の」RAIDカード買え。
191189:2007/07/31(火) 16:46:22 ID:X79rWaJz
>>190
回答ありがとうございます。まったくおっしゃるとおりなのですが
このためにわざわざICH9Rのマザー購入したのでなんとか使いたいのです・・・。

192login:Penguin:2007/07/31(火) 18:01:23 ID:xkQhbYF7
Q. M/BチップセットのRAID機能を使用したいのですが。

A. あなたがRAIDと呼んでいる物は複数のHDDを一つに見せかけているだけです。
  実際のRAIDの処理はOS依存のドライバが行っています。
  Linuxでこれらを使用するメリットは全くありません。素直に「本物の」RAIDカードを
  購入するか、mdadmを使ってソフトウェアRAIDを構築しましょう。

これテンプレにいれようぜ
193login:Penguin:2007/07/31(火) 20:14:40 ID:OSNRGM1l
ほんと、マザーの RAID はさっさと諦めて、カード買うのが嫌なら mdadm 使ったほうが
よっぽど賢いと思うな。
194login:Penguin:2007/07/31(火) 22:50:36 ID:FFZyWM1m
流れのついでに失敗談を一つ。
PMPで400Gx5を外部筐体に入れてSoftware RAIDにしてたんだが、
ドライバのPMPがtjで、Kernelバージョンはほぼ固定だわSATAポートの
エラーは出るわでいろいろ苦労。結局普通のM/Bに移設して安定。

Linuxだと「ハードウェアのためのドライバ」じゃなくて
「ドライバーのためのハードウェア」ってことを思い知った。
ということで、>>193には全面的に賛成だ
195189:2007/08/01(水) 00:08:31 ID:M97nTf9V
M/BとRaidカード注文しました・・・。
無駄な買い物しちまった・・・。
AdapteckのPCIExpressの4xのSATA RAIDカード。
同対応のM/B・・・。どっちも初物。わくわくです。
アドバイスサンクス。
196login:Penguin:2007/08/01(水) 00:44:24 ID:7DvPiLQ6
アダプ…
まぁがんばれ…
197login:Penguin:2007/08/01(水) 00:52:39 ID:M97nTf9V
え、アダプテックだめですか・・・。
安くて対応しているって書いてあるんだけど・・・。
え? してない!?
198 ◆Zsh/ladOX. :2007/08/01(水) 01:59:51 ID:eHhNnlyA
漏れならGA-G33-DS3Rのサウスに

・SATAのHDD500Gを4台
・システム用Raptor1台

って感じで組むね。
RaptorにOS入れた後で
500GBのディスクmdadmを使ってRAID構築。
199login:Penguin:2007/08/01(水) 03:09:55 ID:4933EbJu
なんだかんだでSoftwareRAIDは運用が柔軟にできるから好きだなー
専業ファイルサーバにすればパフォーマンスで問題が出ることはあまりないし
と思ったが、どのくらいが標準なのか分からん……6+1台のRAID5で120MB/sって良い?悪い?
TZONEのデモが22+2台で480くらいだったような気がするから、まぁまぁなのか……
200login:Penguin:2007/08/01(水) 09:18:37 ID:A9dQQM9I
>>199
raptor10発で400MB/s overだから、いろいろチューンする
ポイントはあるね。
201login:Penguin:2007/08/01(水) 11:52:08 ID:ryH53nCj
どもです。
「raidが吹っ飛んだ」としか情報のないHDDx4台を知人から預かりデータを取り出したいんですが以前の情報が全然ない上にLINUX初めてなので困り果てています。

DDで代替ディスクに貼り付けUbuntu7入れてGpartedで見ると、
パーティション1 ext2の200MB
パーティション2 スワップ
パーティション3 ext3の80GB(raid)
ただしGparted上でHDD1台目〜3台目までのパーティション3はパーティション形式が不明になっていてraidフラグだけが立っている。4台目はext3で認識している。
またパーティション1内にraidtab等のファイルがあったこととその記述から

raidtoolsで組まれたRaid5
md0として作られたこと
4台のディスク順番
チャンクサイズ 4KB

ではないかな〜というところまでわかりました。

次にRaid5を構成しようとUbuntuのGUIのアプリ追加メニューで検索。mdadmというソフトウェアraidを発見。しかしraidtoolsは見つかりませんでした。
自分にはコンソールからのアプリ追加がわからず、またUbuntuで使えるraidtoolsというアプリがあるのかもわからなかったのでとりあえずmdadmを使うことに。
manを見てmdadm -Aで以前のRaid情報から組めるかも?と思い、ディスクの順番・チャンクサイズ等を合わせてやってみました。
しかしmd0は作成できたものの、フォーマットしなければマウントできない状態です。
マウント時にext3を指定しても蹴られてしまいます。また、構成時にディスク4が自動でリビルドされます。

ここはOS入れ直してでもraidtoolsを使ったほうがよい(少なくともmdadmでは無理)でしょうか?
我ながらアホなハマりかたしてると思いますし、そもそも不良クラスタがあるんでそれ以前の問題かもしれませんが、大事な後輩なのでなんとかしてあげたく。
とりあえずここまでやってみてお手上げで途方にくれています。
どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします
202login:Penguin:2007/08/01(水) 12:36:42 ID:L/GD3i2t
>>201
>「raidが吹っ飛んだ」としか情報のない

なぜ使用者である後輩がRAID構成を聞かない?聞けばわかるだろうに
犯罪者乙
203login:Penguin:2007/08/01(水) 13:13:53 ID:ryH53nCj
>>202
中途半端な説明ですみません。
正確には"後輩の会社の物ではあるが構築したのは既に退社して連絡の取れない元社員"とのことでした。
その構築した元社員が退社した後も、そのまま仕組みも判らずストレージとして使い続けていたそうです。
204login:Penguin:2007/08/01(水) 22:51:42 ID:CuwK9/xJ
> どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします

会社のデータなら「俺には無理だ、しかるべき業者に頼んでくれ。」と言うべき。
205login:Penguin:2007/08/01(水) 23:34:03 ID:4933EbJu
>>200
情報THX。ちなみにその400MB/sってベンチマークソフトは何?

RAID5はパリティつきRAID0だから、簡単のために台数に比例して
性能が上がると仮定するとディスク1台あたり40MB/s。対してうちのは20MB/s。
ディスク単体性能だと50-60MB/sは出てるので、ボトルネックがどこかにあるってことか。
うちはメーカーバラバラの7200rpmドライブだし、アクセスタイムが影響してそうな感じだなぁ……。
# 以上すべてhdparm -tの値

>>204
後で不利な立場にならないように、データ飛んでも責任を問わない旨の
確約を(できれば書面で)得てからやったほうがいいと思う。
206login:Penguin:2007/08/01(水) 23:37:35 ID:4933EbJu
アンカー間違えた
>>204 -> >>203
207login:Penguin:2007/08/01(水) 23:42:33 ID:A9dQQM9I
208login:Penguin:2007/08/02(木) 00:14:43 ID:yPG9OgcV
>>204
業者に頼め。ちなみにへたにいぢると復旧不可能になるからな(って遅いか)
209login:Penguin:2007/08/02(木) 00:18:30 ID:0kj7Ceb3
ddで4台そっくり別HDDに移植してから遊ぶけどね
それでも元HDDを触るのは嫌すぎる
210 ◆Zsh/ladOX. :2007/08/02(木) 00:23:08 ID:UC5Db89H
>>207
thx.
chunk size以外は設定してみた。
稼働中にやってみたがドキドキしたw
211199:2007/08/02(木) 01:11:37 ID:hhKbt5z2
>>207
ありがとう。試してみるよ。
readahead(hdparm -a)の設定は既にやってあって、
個々のディスクが2048、md0を12288にしたときが一番パフォーマンス出た
212login:Penguin:2007/08/02(木) 01:29:09 ID:6Vyes60Y
Adaptec AIC-7902でRAID5で使い、CentOS5で運用しようと思っています。

RAIDのHDDにエラー等が出た場合、エラーはどのように通知される物でしょうか?

インストールしたのですが、RAIDに関わるような物が全く見つからず困っています。

ほっとスワップに対応しているらしいのですが

エラー通知がどのようにどこにでるのか?

抜く前になにかコマンドが必要じゃないのか?

差し替えた後なにをすべきなのか?

さっぱりです…。本屋に行ってもソフトウェアRAIDの本ばかりで。
これよめ!!的なアドバイスでいいので御願いします。
213199:2007/08/02(木) 03:45:41 ID:hhKbt5z2
ddで測り直したら最初から read 191MB/s write 170MB/sだったよ。
で、stripe_cache_size = 32768 で write 240MB/s に改善
何はともあれ、情報ありがとう>諸氏

>>212
www.redhat.comでAIC-7902で検索したらいくつか出てきた
読む時間なかったので有用かの判断はできてないです
214login:Penguin:2007/08/02(木) 08:20:30 ID:yPG9OgcV
>>212
よく読んでないけど「AIC-7902 監視」で検索してヒットした。
http://www-06.ibm.com/jp/developerworks/special/dlife/library/itm-linuxpd2/
215>>204 俺に言われても...:2007/08/02(木) 21:45:41 ID:O4Ixrdfk
216201:2007/08/03(金) 23:04:28 ID:6EBr4PTX
皆さんレスthxです。

OSをWBEL3に変更しraidtabの設定コピってraidtoolsで組んでみたらイケました。
残っていたconfにはext3の記述だったんですがmd0がマウント出来ず、何故か-t ext2でマウント出来ました。
以上、全データ抽出出来ました。お騒がせしました。

217login:Penguin:2007/08/03(金) 23:31:07 ID:tH0SWKPt
>何故か-t ext2でマウント出来ました。

ログデータ無効で不整合とか
218201:2007/08/04(土) 00:24:17 ID:S6GeDrRU
>>217
LINUX初めてだったもんでいろいろわからないことだらけでして、、、ext2で見れた!!とりあえず全コピー!!って感じです。
それで必要なものは抽出出来ましたんで、また時間が取れ次第ext3でマウントを試して、今回のデータと比較してみようと思います。
しかし今回いろいろやってみて思ったんですがLINUX面白いですね。余ってる自作機をNAS化したくなりました。

ありがとうございました。おやすみなさい。
219login:Penguin:2007/08/09(木) 23:51:58 ID:zBFT+mBQ
1430sa linuxでつかえねー(泣
これ、bios raidと一緒じゃねーかよ・・・。
しかもRHEL4までしかドライバでてないよ・・・。
ごみだ、これ・・・。SCSI時代から信奉してたのにぃ
220login:Penguin:2007/08/10(金) 19:02:43 ID:/oQyNmDJ
AdaptecのRAIDの1xxx系はソフトウェアRAIDだと思って良い
2xxx系になるとaacraidが使えるようになって多少マシになる。
3xxx系、4xxx系とグレードが上がっていくが、
そこまでカネ出すなら他メーカーの方がコストパフォーマンスで優れる

Adaptecの良いところは、大手PC/鯖メーカーのサポートが受けやすいくらい
221login:Penguin:2007/08/10(金) 22:31:08 ID:aqcswtuE
rocketraid買った。
正直昔adaptecのscsiカードのバルク買って
使えなくて泣きそうになったの思い出した。
もうadaptecは買わん。
サポートにあのいい加減な箱の表示なんとかしろとメールしたら
返品規定は以下の通りです、とまったく関係ないページを紹介された。
もう日本からは撤退らしいぞ。
222login:Penguin:2007/08/11(土) 09:25:02 ID:ey8Ocj1d
バルク買っといてメーカに文句言うって... 馬鹿ですか?
223login:Penguin:2007/08/11(土) 11:16:19 ID:m4TVbF7b
超人バルクと呼称します。
224login:Penguin:2007/08/11(土) 11:54:12 ID:qKgKnuHi
>>222
あなたもadaptecのサポート並の日本語理解力ですね・・・。
225login:Penguin:2007/08/11(土) 14:46:12 ID:ey8Ocj1d
頭悪いんだから、金使えよ。

頭悪くて貧乏なら、何もしないでじっとしてろ。
226login:Penguin:2007/08/11(土) 23:13:47 ID:qKgKnuHi
自分の頭が悪いからって逆ギレかっこ悪い
227login:Penguin:2007/08/11(土) 23:16:29 ID:w7ymZznK
まぁ脳みそにHotSpareはないですからね
熱かもしれんから一晩放置推奨
228login:Penguin:2007/08/12(日) 10:15:51 ID:hIATr1xY
>>226
バルクの Adaptec 買って使えなかったから相当悔しかったんだろうけど、
もう見苦しいからやめたら?
229login:Penguin:2007/08/12(日) 22:31:19 ID:IqchY8Zp
バルク買ったのは昔で、今は正規品、ということなんだろうけど、
わかりやすい文じゃないわな。

とは言え、そんなことでくどくど言ってる奴もカッコワルイ。

我慢できずにしゃしゃり出てくる俺が一番ダメ orz
230login:Penguin:2007/08/22(水) 11:21:48 ID:EFe9z8Q/
RAIDセットのパフォーマンスを煮詰めたりしたいのですが
Vista(64bit版)に対応していて容易に入手可能な
このスレ的なお勧めのベンチマークってありますか?
やっぱりCrystalあたりですか?
231login:Penguin:2007/08/22(水) 11:53:19 ID:K7h327Gn
500GBx5でRAID5してたんだけど、足りなくなったから同じ型番のやつを
もう一本買ってきた。
mdadmで追加しようとしたらエラーでできない。
よく見たら、新しいディスクだけ容量がキロバイト単位で微妙に少ない。
いやそりゃ確かにロットは違うけど
ふざけんな死ねマジ本気マジで死ねシーゲート死ね。
232login:Penguin:2007/08/22(水) 12:11:20 ID:K7h327Gn
そんで仕方ないから全部どかしてRAIDを組み直すんだけど、どかす場所がないから
・買ってきたディスク
・既存RAID5を縮退モードにして捻出したディスク
にもデータを退避した。
全部どかし終わったところでRAIDを分解、
各ディスクのパーティションサイズを誤差吸収のため多少小さくして
4本でRAID5を再構築。そこにデータを書き戻し中。

つまり何が言いたいかと言うと、これから500GBx2をOCEってかreshapeで追加するよと。
すげー時間かかりそう。
その後にpvresizeやxfs_growfsもしないといけない。
全部やったことない。うまくいくか謎。
233login:Penguin:2007/08/22(水) 12:33:32 ID:8AaQAQ4Z
>>231
いや、そこは750GBのを買ってくるのが正解だろう、常考。
234login:Penguin:2007/08/22(水) 13:07:18 ID:HuFexOwP
最後尾数十MBは使わない、でFA
235login:Penguin:2007/08/22(水) 22:33:28 ID:dmE2M+ba
500GB買いなおすかな、俺考。
236login:Penguin:2007/08/23(木) 12:47:01 ID:ipe5onr+
>>233
250GBムダになるじゃん

>>234
それしかないね

>>235
同じの買ってきても容量違うんだもん


というわけで全部無事オワタ
500x4本のRAID5に2本追加、mdadmでgrowしたら20時間ぐらいかかったよ。
その後のpvresize,lvresize,xfs_growfsは全部一瞬。超簡単だった。
pvresizeはついこないだまでなかったらしいね。
237login:Penguin:2007/08/23(木) 12:52:27 ID:DTiLiEZZ
>>236
232の作業内容を考えると、容量が無駄になっても
大きいディスクを買うのが安全。

新しく500GBを買ってきても、必要セクタあるかどうかの保証がない。

末尾を使わないのは、最初にRAIDを構築する時の話ならよいが
232の状態でのベストの解ではない。

まぁ好きにしろってことで。
238login:Penguin:2007/08/23(木) 13:23:45 ID:ipe5onr+
>>237
250GBをムダにしてでもっていうのはつまり安全を金で買うわけだ。
しかし、金があったらそもそもmdadmでSW-RAIDなんかしないとも言える。
つまり安全とコストのバランスは人それぞれ。わかってるようだけど。
239login:Penguin:2007/08/23(木) 15:42:55 ID:UNo2KVBv
HDDとか電源とか、部分入替不可のデバイスは買い直しのコストが
馬鹿にならないから若干無駄でも大きめのを買ってるなー。

うちは一度に大きな投資ができないんで、最初400GBで構築して、壊れたHDDから
500GB(そのときのバイト単価最安の容量のHDD)に入れ替える運用をしてる。
400GBが全部入替になるか、全体が容量不足になったら残りを500に入れ替えてgrow。
240login:Penguin:2007/08/23(木) 16:01:49 ID:UNo2KVBv
同じ容量で入替する前提なら、500GBなら少なくとも500,000,000,000バイトは
あることが保証されてる(なかったら詐欺) それを超えないように領域を作れば大丈夫ですな。
ちなみに昔うちで400x5で組んでたときは、↑の方法を使った場合と使わなかった場合の
容量差が60MBくらいだった。
241 ◆Zsh/ladOX. :2007/08/23(木) 22:00:49 ID:0GkpxQQg
>>231
御愁傷様でした。
マジ海門死ねだねぇ┐(゚〜゚)┌
242login:Penguin:2007/08/24(金) 11:41:49 ID:hDfGbW1b
>>241
べつに海門が悪いわけじゃないだろ。
ただのおまけでしかない容量をいっぱいまで使っていた>>231が悪い
243login:Penguin:2007/08/24(金) 12:08:18 ID:5MHQWA94
十分悪いだろ。
244231:2007/08/24(金) 13:30:51 ID:Gfnf/lpT
せめて/dev/sdaを使わず/dev/sda1とかにしとけばよかったんだけどね。
パーティションを切ってれば同じ容量になったはずなのに、
RAIDデバイスだからパーティションなんかいらねえだろと
デバイスを直でRAIDに組み込んでたからな。ほんとギリギリ一杯まで使ってた。
シーゲート死ねは半分冗談として、いい勉強になったわ。


新しいの
Disk /dev/sdb: 500.1 GB, 500106780160 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes

古いの
Disk /dev/sde: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes
245login:Penguin:2007/08/25(土) 01:44:12 ID:761ThVL/
>>244
パーティションなしでも可能だけど、非推奨になってたはずだよ
要するにブートセクタとかパーティションテーブルの位置にも
情報が書き込まれるわけで、操作ツールとかOSが誤認識する可能性がある
246login:Penguin:2007/08/26(日) 03:17:42 ID:aJidy5wk
ちょっとした疑問
今日日RAID5やらRAID1やらRAID10から構成するディスクを減らす、
Shrinkをサポートしてるものってあります?
247login:Penguin:2007/08/26(日) 22:35:45 ID:jUv9LrSQ
>>246
RAID1は3台から2台に減らすってこと?
2台から1台なら要するに縮退ってことだろうけど……。

RAID5でディスク減らすのは少なくともmdadmだとできないぽい
248login:Penguin:2007/08/27(月) 00:50:01 ID:FohsBbSg
>>247
そそ。
大きめのアレイを組んでやろうかと考えてるんだけど、
のちのちRAID5からRAID10、またはその逆みたいに組み替えとかを考えた場合新しいHDDを用意してアレイを組み直すしかないのかなーと
ディスクの追加はできたりするようなので古いアレイからディスクを削除しつつ新しいアレイにHDD追加していくような使い方ができないもんかと思った次第
改めて自分で調べてみてもそんなものは無さそうですし大人しく組み替えなんぞ考えないで済むような使い方を考えることにしまっす
249login:Penguin:2007/08/27(月) 01:00:12 ID:5IvdN37N
ARECA 1130 で昔調べたことがある。
- firmware V1.38 2005-10-4 + disk 4台で確認。
- 3台以上での 1 は作れない。
- 1+0 を作れるチャンスは少ない。
- 6 を作れるチャンスはもっと少ない。modify では作れない。create するか expand するかで作るしかない。
- 0 は袋小路。
既存 set に disk を追加するのは可能 (expand で)
既存 set から disk を抜くのは不可能
容量を増やすのは可能 (直後に連続した空き領域が必要なだけあるときのみ)
容量を減らすのは不可能

From : To 0 1 1+0 3 5 6

0 Y e e e e e
1 Y M e e e e
1+0 Y n Y Y Y e
3 Y n e Y Y e
5 Y n e Y Y e
6 Y n Y Y Y Y

legends: Y = possible,
e = possible only when expanding raid set,
M = possible only when modifying volume set,
n = impossible
250login:Penguin:2007/08/27(月) 03:48:23 ID:0NURgyjF
データ用に買ってきた二つのディスクをmdadmでミラーリングした上で、
将来的に拡張できるようにLVMでボリュームを作ったのですが、
このディスクを別のマシンに移植したところ、
fstabに書いても自動でマウントしてくれなくなっていましました。
ただし、手動で
mount /dev/vg0/lv0 /hoge
とやると、普通にマウントできるのです。
同じようなことをやったことある方、いませんか?
251login:Penguin:2007/08/27(月) 03:56:46 ID:zngIa5Wq
>>250
fstabのエントリ見せて
252250:2007/08/27(月) 13:38:40 ID:0NURgyjF
>251
ちょっと長い&ずれていて見にくいですが・・・

# /etc/fstab: static file system information.
#
# <file system> <mount point> <type> <options> <dump> <pass>
proc /proc proc defaults 0 0
# /dev/sda1
UUID=883530e2-97cd-4fbf-9cd3-8c26a3cc0b1b / ext3 defaults,errors=remount-ro 0 1
# /dev/sda5
UUID=1aad7882-719b-45a1-9771-7083ff8a9e1d none swap sw 0 0
/dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0
# for samba server
/dev/vg0/lv0 /samba ext3 defaults 0 0

一番最後の行がそれです。移植する前はコレでマウント出来ていました。
もしかすると、起動時のマウントが始まるよりも前にmdadmとlvmが起動しないとダメなのかな。
253login:Penguin:2007/08/27(月) 13:50:53 ID:h0g8ZjPt
>>250
initrdで自動的にmd/dmを構成するようになってないから
254250:2007/08/27(月) 23:29:55 ID:0NURgyjF
>253
正しいのかどうなのか分かりませんが、
mkinitramfs -o /boot/initrd.img-2.6.20-15-generic 2.6.20-15-generic
とやってみたところ、
W: mdadm: unchecked configuration file: /etc/mdadm/mdadm.conf
W: mdadm: please read /usr/share/doc/mdadm/README.upgrading-2.5.3.gz .
というエラーが出てきてしまいました。
ググってみたところ、似たような状況があるようで、
ubuntuのバグか何かかもしれません。
(書いていませんでしたが、ubuntu 7.04を使っています)
結構大変かもしれませんね、これは。
255250:2007/08/28(火) 14:41:02 ID:gj3euneM
とりあえず、ubuntuのフォーラムで聞いてみることにしました。
解決したときは、報告しますm(__)m
256login:Penguin:2007/08/28(火) 15:05:46 ID:oTQiro8t
>>254
その警告は、mdadmを2.5以上にうpグレードしたときに必ずでる。
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
に書いてある通りにすればよい。

ただ、漏れは2.5にうpグレードすると不具合が出て、システムが立ち上がらなくなった。
で、2.4にpinして使ってる。
debianのunstableから2.6借りてきて使うと、不安定だけどなんとか使える。
でも、こわいので2.4使っている。
2.4だとなんの問題もでない。
257login:Penguin:2007/08/28(火) 15:09:35 ID:ZYyaiRGJ
腐ってやがるぜ
258login:Penguin:2007/08/29(水) 19:04:08 ID:tuk6+NpS
>>256
うちは作者のサイトから直接2.6.2落としてコンパイルしたけど
特に問題なかったなぁ・・・debian etch r0
259250:2007/09/10(月) 00:17:52 ID:cnO9RpIQ
結局解決しませんでした・・・
260login:Penguin:2007/09/10(月) 04:21:05 ID:sc4LHtGY
250は最初から他人の話は聞く気が無いのだろ?
そりゃ解決は難しかろうて。
261nnn:2007/09/10(月) 10:23:06 ID:bcnjR5k4
お知恵を拝借したく。

▼環境
CPU: C2Duo 2GHz
HDD: SATA*2 をマザーのエミュレーションでhda,hdcと認識
ディストリ: Scientific Linux 44
kernel: 2.6.9-42.0.3.ELsmp
mdadm: v1.6.0 - 4 June 2004

▼問題点
/=md0(hda2,hdc2) /var=md1(hda5,hdc5) というソフトウェアRAID1
を組んでいるのですが、HDDの入出力が8MB/sしかなく(実質
書き込み速度で4MB/s、resync時の速度同じ)、大量の書き込み時に
プロセスキラーが働き、ひどい時にはOSごと固まります。
HDD ioに関係のないVC切替(Alt+Fx)も重くなります。

固まる例:
dd if=/dev/zero of=/tmp/tmp.dat bs=256k count=4096

SATAをネイティブで使えないチップセットとディストリの相性が
根本原因ではありますが、このハードを使う事情があり、
なんとかしたいのです。

(続く)
262nnn:2007/09/10(月) 10:23:41 ID:bcnjR5k4
>>261 続き

▼打開方針?
RAID層の書き込み速度を制限し、書き込み要求をするプロセスに対し
適切なio待ちを発生させる。

resync時の速度制限は >>60 の方法で解決しました。
60氏にはこの場で感謝の意を表します。

それで、通常運用時の書き込みでも speed_limit_max の要領で
速度制限できれば解決すると思うのですが・・・
263login:Penguin:2007/09/10(月) 10:30:56 ID:FRmNxXcA
>>262
IOを発生させないようにする。
SATAカードを挿す。

ところで、おまいはそのマシンのユーザなのか、
業者で設定だけすればよいのか?
264261:2007/09/10(月) 12:18:57 ID:bcnjR5k4
>>263
自家用鯖です。
7台買っちゃった・・・ のはいいとしても、うち4台投入済みで、
どうしたものかと。

> IOを発生させないようにする。
それはそうなのですが、鯖なので「IOは客次第」というのも事実です。
で、リミッタを掛けられないものかと。

> SATAカードを挿す。
検討はしますが、どれが使えるやら・・・
ICH8上でSATAを使える鳥を探したほうが速いのかしら?
265login:Penguin:2007/09/10(月) 12:24:15 ID:FRmNxXcA
>>264
ここは正攻法で、SATAドライブを認識させるのがよいのでは。
客に迷惑かけるくらいなら。

update5(2.6.9-55)にして新しいAHCIドライバでマザボの
コントローラがネイティブで認識できないかやってみたら?
https://rhn.redhat.com/errata/RHBA-2007-0304.html

IOパターンが分かれば、メモリ上に逃す、NFSに逃すとか
やればよいとおもうけど。
266login:Penguin:2007/09/11(火) 03:13:00 ID:1eKow4TN
>>262
>書き込み要求をするプロセスに対し適切なio待ちを発生させる。

IOスケジューラが悪さしてるとか。
# cat /sys/block/hda/queue/scheduler
で確認。deadlineとかになってると、大量IOプロセスがIOキューを占有する可能性がある
267login:Penguin:2007/09/11(火) 07:29:39 ID:Koj2yGIB
IDE互換モードでもDMAに出来ないの?
268login:Penguin:2007/09/11(火) 10:15:48 ID:VARFPXVr
>ICH8上でSATAを使える鳥を探したほうが速いのかしら?

カーネルの問題でしょ?
ディストリ関係ないじゃん?
269login:Penguin:2007/09/11(火) 10:26:53 ID:+giQtmHn
>>268
ディストロに含まれているカーネル(ドライバ)の問題。
270login:Penguin:2007/09/14(金) 13:48:18 ID:Qp7pOiTy
>>269
同じ意味じゃないのか?
カーネルに組み込むかカーネルモジュールとしてビルドするかの違いじゃないの?
271login:Penguin:2007/09/14(金) 13:59:25 ID:LGchwi2d
>>269
No
ディストロがいつのカーネルを収録しているか、
どれくらいバックポートしているか、という意味。
272login:Penguin:2007/09/14(金) 16:17:45 ID:J3tBG9+k
そんなにリコンパイルがイヤなのか・・・
273login:Penguin:2007/09/14(金) 16:58:41 ID:vvlhDw0v
>>272
なんでディストリ利用するかってえとアップデートをオートマティックにやりたいからなので
カーネルがアップデートするたびにリコンパイルするのは確かに嫌だわな
274login:Penguin:2007/09/14(金) 17:34:16 ID:iYDjqHcw
商用だとサポートの対象外になったりするんじゃないのかな?
275login:Penguin:2007/09/14(金) 19:35:57 ID:Qp7pOiTy
>ディストリ: Scientific Linux 44
なんでこのディストリを選んだのか分からんけど
カーネルひとつリビルドするのが面倒でディストリを
乗り換えるほうを選択するって事は元々このディスト
リに拘ってた訳では無いって事か……。

それにカーネルなんて脆弱性が無ければ別にバージョン
アップしても毎回アップデートする必要もないと思うん
だけどねぇ。

リビルドするほうが面倒か、標準のカーネルで使えそうな
ディストリを探すほうが面倒かは本人の自由だぁーっ!
って事でガンガッテくらしあ。
漏れにはICH8が何なのか調べても詳しいことが理解できな(ry
276login:Penguin:2007/09/14(金) 22:01:10 ID:4s3K/OrJ
RAIDスレとしては適切な答えではないかもしれないが
マザボでエミュレーションとかしないで
普通に新しいディストロをインストールして
その上でVMware Serverなどを使って
Scientific Linux 44を動かすこともできるんではないかと。

277login:Penguin:2007/09/15(土) 10:03:03 ID:us6rkrJ5
何の為だかもわからんな
278login:Penguin:2007/09/15(土) 18:16:51 ID:W+7omWYo
ソフトウェアRAIDを組み合わせてRAID50を構築することってできますか?
279login:Penguin:2007/09/16(日) 12:26:33 ID:z8cQ3GjF
余裕で
280login:Penguin:2007/09/16(日) 12:41:28 ID:quamL2ab
できるけど、おススメはしない
281login:Penguin:2007/09/18(火) 23:19:28 ID:JnRQfMu1
>>260
かなり遅レス(アク禁でして)ですが・・・
話を聞く気がないのなら、最初っからききませんって。
いろいろいただいたアドバイスを試して、それでもだめだったんです。
いちおう無理矢理な解決策は見つけましたけど・・・。
そんなことおっしゃらずに、
何か思い当たる方法があるのなら教えていただきたいです。
282login:Penguin:2007/09/19(水) 22:15:18 ID:Lkk29FxI
>>281
何を試したのか分からないけど、
/etc/mdadm/mdadm.confを設定してwarningを無くしてみたかい?

ルートファイルシステムじゃないから、絶対にinitrdで構成しないと
いけない事はないと思うけど。
283login:Penguin:2007/09/21(金) 09:57:43 ID:KtH/rsSr
Avidemuxのreindex系処理でmdadmだけのRAID0でもあてになることに感銘した。

気をよくして、既に遅さにがっかりしきったIO-DATA HDL4-Gに代わって
PCでソフトウェアRAIDでRAID5ファイルサーバーを作る気になっています。アホだから。

PentiumIII-m/1.2GHzのノートPCを使い
RAID5を10GBのパーティションx4(実HDDは2.5インチの二基)で試し
この程度のCPUがあれば、HDL4-Gよりはましな気がしています。
多少はウェブを調べてみましたが、いろいろ調べきれなかったことがあります。

1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
(HDL4-GはGbEを採用しジャンボフレームにも対応しますが…トホホ)

EPIAのC3/1GHz付M/BのPCIx1に4ポートSATAカードを挿すと
オンボードの100BASE-Tで行くしかないんだよなぁ…で踏み止まりました。先日
ただ、一昨日パチンコに少し勝ったので、今日は踏み止まらない気がします(笑)

これは無謀無計画に終わりそうなんでしょうか…

あと、HDL4-GのHDDをそのままPC上に移すことは、理論上不可能か…
HDL4-GのRAID関係仕様を調べてみる価値はあるのか…も気になっています。
5MB/sで700GBを移し替える日が来るわけですし…
284login:Penguin:2007/09/21(金) 10:27:20 ID:l3v0EWvd
>>283
> 1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?

ディスクが多い程アクセス分散でが大きい→高速化
ディスクが大きいほど外周にある領域の容量が増える(割合は増えない)→高速化???

> 2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?

個人的にはファイル鯖はキャッシュ命だと思っているので4Gとか積んでます。
ディレクトリエントリが結構メモリに載るので少なくともその分のシークは減らせるはず。

> 3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?

2〜3年前に250x4/RAID5で組んでたときには、100BASEで巨大1ファイル転送で10MB/sくらいは出てました。
285login:Penguin:2007/09/21(金) 16:28:27 ID:SoDKq3bm
スイマセン、質問です。

CentOSでMegaRAID 428を使おうとすると、インストーラが
パーティションを設定するところで、論理ドライブは1つ(RAID1)
しかないのにsda、sdb、sdc……と複数台表示されてしまいます。

インストール開始時にドライバが必要なのでしょうか?
もしそうでしたら、ドライバの入手先等をお教えいただけ
ませんでしょうか?
286login:Penguin:2007/09/22(土) 09:02:04 ID:+d+c9GIe
>>285
つ[MegaRAID 428マニュアル]
287login:Penguin:2007/09/23(日) 10:00:24 ID:XVZYMXtq
/proc/mdstatで[UU]ってなってるのにresyncしてる。
なんだこり?
288login:Penguin:2007/09/23(日) 20:27:26 ID:GZ/+MXCS
>>287
前スレの895の事例は?

895 名前:login:Penguin[sage] 投稿日:2006/11/10(金) 21:39:27 ID:bNIZOw4y
debian-sargeの2.6.8-3-386を使用しています。
久々に電源を入れなおしたところ、
再同期が始まってしまいました。
4つのディスクのどれかが脱落したようにも見えないのですが、
同期外れもなしに再同期が始まるときって
どういう場合なんでしょうか?

>cat /proc/mdstat
Personalities : [raid5]
md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1]
732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec
unused devices: <none>

903 名前:login:Penguin[sage] 投稿日:2006/11/11(土) 20:51:30 ID:e3BClQL/
>>895
確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。
289281:2007/09/26(水) 16:54:47 ID:R04+ijwq
>>282
mdadm.confをデフォルトからいじってみたのですが、
エラーはなくならず、mdadmのバージョンを下げてみたり、
元にもどしたりしたところ、warningは出なくなり、
initrdもできるようになりましたが、
やはり起動時に自動的にマウントすることはできませんでした。
結局/etc/rc.localに"mount /dev/vg0/lv0 /samba"と書いて、
マウントするようにしている状態です。

ちなみにmdadm.confは、こんなかんじです。
----
DEVICE /dev/sdb1 /dev/sdc1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=cf98cc9f:54e7b704:3cf3c1ab:04141d7c
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
----
290login:Penguin:2007/09/26(水) 21:32:41 ID:+JTi2+Dv
>281 キミはそもそもマシンの話を聞けてないんだよ :-D
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
は読んだのか?

291283:2007/09/28(金) 01:47:43 ID:zIk+oOYu
>>284
ありがと、参考になります。

ちなみに、いろいろあって衝動買いはまだしていません。
そうこうしているうちにEdenのSATAx4付ITX M/Bの登場を知り
無理すれば買えそうな懐具合で悩んでいるところ…

#半年分、水道代未納の同居人の代わりに全額払ったら
#ちょびっと頼りない懐具合、本来ヲレは電気代全額係なのによぉ
292login:Penguin:2007/09/28(金) 22:30:14 ID:zocg/t++
>>281
起動時のコンソールログを調べてみたら?
LVの認識とマウントのどっちが先に行われているか。

ってUbuntuのデフォルトは/boot/grub/menu.lstでsilentになってるから
出てこないんだっけか
293login:Penguin:2007/10/05(金) 17:39:13 ID:aHTjkmHH
基本的な事で質問して申し訳ないんですが、
RAIDカードを差し替えた場合って、既存のRAID0の構成でまんま使えるんでしょうか。
オンボードの物からRAIDカードに変えたんですが、正常に認識しなくて困ってます…
294login:Penguin:2007/10/05(金) 18:11:53 ID:RN6iC0Sq
そらそーだ
ディスクに書くRAIDメタデータなんて各メーカー独自だ
295login:Penguin:2007/10/05(金) 20:21:44 ID:aHTjkmHH
>>294
それはくまった…
結局めんどくさい手段を取らないといけないということですね。
ありがとうございました。
296login:Penguin:2007/10/05(金) 21:19:49 ID:Bkszhi+D
データを抜いて戻して はい おっぱいぴー! ですね。
297login:Penguin:2007/10/05(金) 21:40:04 ID:1cqRS2HI
>>295
次からはMDでドゾー
298login:Penguin:2007/10/05(金) 22:24:28 ID:sbcHKtJI
>296
誤:おっぱいぴー
正:おっぱっぴー(オーシャンパシフィックピース)

>297
メディアのMDだったりしてw
299login:Penguin:2007/10/07(日) 03:44:25 ID:mpYD9xP7
Debian に sil3124 で ハードウェアRAID5 を組もうと思ってるんだが
情報が少なくて困ってる。(俺のググり方が下手なだけかな)

Debian、sil3124、ハードウェアRAID5 の条件で
ドライバや手順に関する情報あったら教えてくれないか?
300login:Penguin:2007/10/07(日) 09:04:02 ID:rbmirQ/U
301login:Penguin:2007/10/07(日) 11:05:14 ID:mpYD9xP7
>>300

すまん。説明が悪かった。
sata_sil24 があるのは知っていた(一応、このサイトも事前に眺めている)し、入れてみたんだが
これ入れただけだと複数のドライブとして認識してしまうよね

BIOS側のRAID設定を解釈させた上で、1つのドライブとして認識させたかったんで
なにか方法があるかと思って、調べてみたけど見当たらなかったんで聞いてみた

> Q&A
> 3. I have a Silicon Image SATA RAID card. Why doesn't Linux support my hardware RAID?
> A. It's not hardware RAID. It is software RAID, provided by the BIOS on the card.

>>300 は、これが言いたかったのなら、ごめんなさいでした。…コレ見て思ったんだが
sil3124は、BIOS側のRAID設定だろうが、linux側のソフトウェアRAIDだろうが関係なかったりするの?
302login:Penguin:2007/10/07(日) 11:29:27 ID:OlJTro86
関係ないというか、ソフトRAIDカード(RAIDカード上のコードがCPUを使って
必死に複数台に書き込むタイプのRAID)は

・他のカードに切り替えることができない(RAID構成のパラメータ管理方法が違うため)
・Linuxのmdより悪い実装で遅いことすらある

といいことなしなので、単なるSATAカードとして使い、単体ドライブを認識させて
後はmd使えというのが定番の答。md+lvmにすれば途中でディスクを追加・交換したり
するのも自由自在にできる(若干手間だから漏れはmdのみだけど)。
303login:Penguin:2007/10/07(日) 13:53:21 ID:F3d4jqxR
>>302
激しく同意。管理の手間考えるとlvmはねー……。
あと関係なかったらすまんがPortMultiplierは全般に鬼門だから注意
304301:2007/10/07(日) 18:08:00 ID:mpYD9xP7
ageてた…すまん。orz

>>302
ありがとう。よく理解できた
ごちゃごちゃ言わずに md の恩恵を享受することにする
余裕があったら、md+lvm にしてみる

>>303
と聞いたことがあったんで、避けてるよ
心配してくれてありがとう
305login:Penguin:2007/10/07(日) 18:22:51 ID:oxRMUtwe
板で全部やるのはどーよ。
えらい楽だぞ。
どれくらいで故障するのかが問題だな。
それをどうやって検知するのかも問題w
306login:Penguin:2007/10/07(日) 23:48:33 ID:WejonAB/
不良セクターのあるHDDの活用方法ってないのでしょうか?
ext3じゃなくて新しいフォーマットありましたよね
あれでフォーマットしたら不良セクターのあるとこだけよけてくれたりしないのかな
307login:Penguin:2007/10/08(月) 00:28:34 ID:YaM75dRs
つ badblocks
でも寿命間近なHDDではあろうから、使う度胸は漏れにはないな・・・
メモリの壊れたところを避けるbadramパッチとかもあるけど、微妙に貧乏性?>Linux
308login:Penguin:2007/10/08(月) 01:53:48 ID:4P0RdQEd
badblocks設定したHDDをRAID5に組み入れてるけど、
半年くらい問題なく動いてるな。。。たまたまだろうけどw
たまにfsckして増えていないか確認してます。
309login:Penguin:2007/10/09(火) 06:10:00 ID:Zd8jdHw+
raid-1 をやってみようかなぁなんてふと思った今北ですが、
http://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO-4.html#ss4.4
これはディスク2つをフォーマットする形になるのでしょうか?
それとも、主ディスクと副ディスクがあるとして、副ディスクをフォーマットして、主ディスクのデータをコピーするような形になるんでしょうか?
ディスク2つをフォーマットするのならどこかデータを一時退避しないといけないのですが、2つは空きディスクもっていないのでムリカナァと。
310login:Penguin:2007/10/09(火) 06:28:28 ID:l7SMboZo
>>309
たぶんraid-disk 0にあるデバイスからのコピーになると思う
あるいは、主ディスクだけのアレイを--forceつきで強制起動しておいて
hotaddとかかなぁ……これだと確実に主ディスクからのコピーになるはずだけど。
どちらもやったことないから保証はできない……

安全側に倒すために、できるなら一時退避(バックアップ)を強く奨めます。
311login:Penguin:2007/10/09(火) 09:42:26 ID:gFNRvPVM
mdadmならmissing
312login:Penguin:2007/10/09(火) 22:37:58 ID:HKV3wXfK
データを失うことの恐怖に比べれば
予備のディスクのひとつくらい安いものさ
313login:Penguin:2007/10/10(水) 13:43:05 ID:6CsTwXc1
raidを使おうとして、データをなくした人も結構いるが。。
314login:Penguin:2007/10/10(水) 13:45:39 ID:keWQBLxK
raidにした安心感でバックアップしてないバカもたこさんいる
315login:Penguin:2007/10/10(水) 14:00:09 ID:c6a7mM5s
>>たこさん
こんにちわ(*>∀<)/
316login:Penguin:2007/10/10(水) 21:22:41 ID:pmWLI9af
たこさんカワユス
317login:Penguin:2007/10/13(土) 23:33:28 ID:eMKVNvrK
すんません、質問です。
debianでmdでraid5を構築してたんですが、他のPCにこのraidを移すとき、/dev/hdb1〜/dev/hde1までの順番や位置が入れ替わっても問題ないのでしょうか。
実は取り外したときに順番がわからなくなっちゃって、どうしようか困っているのです。それに新システムの構成上どうしても/dev/hdeからになっちゃうんで、それもどうなのかと。
318login:Penguin:2007/10/13(土) 23:44:08 ID:iOJsc/uY
>>317
Persistent Superblockがあれば問題ない
あるかどうかはアレイ作ったときの指定によるんだけど、最近だと作るのがでふぉだっけ…?
319login:Penguin:2007/10/13(土) 23:58:59 ID:PvWu112N
さっそくバックしてないたこさん登場
320login:Penguin:2007/10/14(日) 00:06:07 ID:HSMNg90n
>>317
mdならHDD内に順番書いてあるよ
321login:Penguin:2007/10/15(月) 20:20:32 ID:w9rgZYRz
HDL4-G1.0のHDDをddで複製して、LinuxPCで読めるか試してみた。

ddで複製って段階で元のHDL4に戻して、正常動作するか不安だったけど
普通のLinuxでCUI操作するぶんには問題無いっぽい。確認後、四基とも複製。
#Windows上のディスク複製ツールだとどうだか知らんよ

で、インストール直後の素のVineLinux4.1のmdadmでassembleできた。
さらに、HDL4では83になっているパーティションコードをfdにすると
Linux起動時にmd0が編成されている…

けど、中がXFSでフォーマットされているらしいのな orz

XFSを使えるっぽいubuntoで試したら…mdadmが入っていなかったorz
今自宅に回線来ていないからapt-getできんのよ。

で、今考え中。VineでXFSを使えるようにするの面倒臭そ…

ちまちま低速なHDL4からLANで新サーバーにコピーするより
直でPCに持ってくほうが速いと思ったんだけどなぁ…

ちなみに、HDL4はDebian GNU/Linuxベースっぽい。

RAID5ホームサーバー製品のCPUボード故障時の復旧のために
こういう機能のある1CD Linuxがあるといいなぁと思った。
322login:Penguin:2007/10/15(月) 22:19:35 ID:G7rWOMJX
>>321
つ RIP
323321:2007/10/16(火) 07:33:42 ID:5m1gOou3
>322
ごめん、意味わかんない。

とりあえずOpenfilerで、なんとかなりそうな気がしてきた。
xfsリペアかけて読めるようになったけど、全部lost+foundに逝っちゃったから
その前に、なんかまずいことやったんだと信じたい。また後日だな。
324login:Penguin:2007/10/16(火) 20:16:00 ID:cgFz1bYo
ubuntuにmdadm入れたとき保存してあったと思うからメールで送ろうか?w
325login:Penguin:2007/10/17(水) 02:54:28 ID:kkrXZBdi
質問があります。
システムは単独のHDD(例:/dev/hda)にインストールし、別途オンボード SATAに
HDD複数台を使って(例:/dev/sda 〜 /dev/sdd)
md で RAID md0 を組み、データ領域として mount していたとします。

後日、システムの /dev/hda に、別のディストリビューションをクリーンインストールしました。
このとき、データ領域としてつかっていた md0 は、クリーンインストールしたあとも
しかるべく mdadm.conf を書けば mount できるのでしょうか?

>>317 とほとんど同じ状況です。

うまくいえないのですが、アレイを構成する HDD は、
アレイを操るツールやシステムには依存していないと思っていいのですか?
# 入れ替え前と後で、kernel や mdadm のバージョンが多少違っていても、
# 入れ替え後の mdadm がアレイを認識できれば問題ない?
326login:Penguin:2007/10/17(水) 07:55:08 ID:5hAko6Nc
mdadm.confなんか書かなくても、勝手に/dev/md0として自動認識してくれると思うけど。
そういう質問をするってことは、# cat /proc/mdstatとかしても
/dev/md0が表示されないってことでOK?
327login:Penguin:2007/10/17(水) 09:07:32 ID:TrrqXopo
いつごろ作ったmdかにもよるから>自動認識
ためしにKnoppixとかでブートしてみれば?それで認識すれば無問題。
328325:2007/10/17(水) 10:46:22 ID:Ri74/EYj
レスどうもありがとうございます。

いや、まだやっているわけではなくて、
今:fedora を入れてるマシンがある。データ領域用にHDD4を確保してきたが、まだRAIDを組んでいない
今後:Ubuntu 7.10 が正式リリースされたらクリーンインスコしたい

・さきにfedora上でアレイを組んでおいて、Ubuntu 7.10 が正式リリースされたら
 システム用HDDに OS だけ入れ替えて、アレイはそのまま流用、ということをしたい
・あるいは、7.10 はもうすぐリリースされるので、それまで待つ

と考えていました。

どうせ入れなおすので、ちょっとやってみようと思います。

329login:Penguin:2007/10/17(水) 11:13:32 ID:pEeOZTAK
nashのraidautorunが単一バイナリになれば簡単なのにな
330login:Penguin:2007/10/17(水) 13:48:28 ID:XO21wWLP
サイズの違うHDDでraid5ってできるのでしょうか?
80G(新品)x2 60G(古くて死にそう)x1
だと60Gx3に強制的になってしまうのでしょうか?

最初に死ぬのは60Gなのは確実なので60Gx3でない場合でも
問題ないとは思ってるのですが
331login:Penguin:2007/10/18(木) 00:50:16 ID:DgGfsmJx
このスレは mdadm がメインだと思いますが、実用的かどうかはともかく、
mdadm を使わずにマザーのオンボードRAID と dmraid で、Ubuntu で RAID をやってみました。

[自作PC] Linuxマシン用自作PCスレッド 2
http://pc11.2ch.net/test/read.cgi/jisaku/1172122190/473-

とはいえ自分は mdadm をやったことがないので、mdadm でやり直してみることにしました。
332login:Penguin:2007/10/18(木) 01:56:40 ID:ZVc4Ky30
>>330
少し頭使えよ
333login:Penguin:2007/10/18(木) 07:59:46 ID:/72Qgdo5
>>330
足りない20GB分は宇宙からのパワーにより補完されるので問題ありません。
334321:2007/10/21(日) 07:06:49 ID:GLuYmvWu
結局HDL4のHDDのdd複製からやりなおして、よけいな操作なしで
mdadm --assembleしてxfsrepairしたのだが、やはり壊れている。
9割くらいは残っているから、ディレクトリ名とか調べて復旧してみたけど
なんか、不安になって、この方法での移行はあきらめた。

RAID5 NASのM/B故障時の復旧手段にはなるかもしれんけどね…

で、今C7/1.5GHzでのソフトウェアRAIDとSRCS14L(2003年もの)でのRAIDが
ほぼ同じ性能で困っている。LAN負荷を伴っても性能差が小さく
SRCS14Lの発熱と、RAIDカード故障時のリスク考えると、ソフトで行くべきか…

C7付きM/BにGbE挿すと、状況が変わる気がするけど
100BASE(via-rhine)では、6MB/s程度しか出ていないんよね。
RAID5自体は、RAID5上の別名コピーで2GBを90秒弱でいけるんだけどね。
335login:Penguin:2007/10/21(日) 12:43:32 ID:sZ2k6dRm
個人でファイル鯖専用なら運用の柔軟性からいってソフトが良い。
336321:2007/10/21(日) 18:25:01 ID:GLuYmvWu
やっぱそうかな…ちなみに、現在VineLinux4.0インストール直後のドライバー構成で
なおかつ、SRCS14Lでは66bit,66MHzのカードを33bit,33MHzで動かしている。
良いM/BならRAID5自体の性能は、より良いのかもしれない。

ソフトウェアRAID5の性能は、sata_viaのポートとsata_sil(3114)複合の状態より
PCIの3114をPCIeの3132にしたほうが、わずかに高速化した気がした。
(HDDはSATA2もの)
PCIeの内部4portのSATA2カードが欲しいのだが、店頭在庫では見かけない。
商品自体が存在しないんだろうか…?
337login:Penguin:2007/10/21(日) 21:13:13 ID:CyPL93bH
質問があります。
HDD4台を買って来ました。システム領域とは別に、4台でSoftwareRAID5を組もうと思っています。
このスレと過去スレを見ると、mdadm + LVM と組み合わせている人が多いようですが、
その理由(メリット)がわかりません。どう幸せになるのか、教えてください。

LVMを使わない場合は、4台ともディスク丸ごと fdisk で、パーティションタイプを fd でフォーマットして、
# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
とやればおしまいですよね。

4台のRAID5 から 5台のRAID5 にする場合は、
・HDDを買ってきて増設。パーティション丸ごと fd でフォーマットする
・# mdadm /dev/md0 --add /dev/hde1

これでアレイは大きくなるが、ファイルシステムは自動的には増えてくれないので、
resize_reiserfs とかでファイルシステムを大きくする。

こうすれば、LVM は必要ない気がするのですが、どうして LVM と組み合わせる人が多いのでしょうか?
338login:Penguin:2007/10/21(日) 21:15:43 ID:ccIALbTr
>>337
pvmoveで死にかけのドライブを交換できる。
339337:2007/10/21(日) 21:35:04 ID:CyPL93bH
>>338
レスどうもありがとうございます。

md を使わず、LVMのみで HDD4台とかで大きい単一のパーティションを作った場合、
たとえば不良なHDDを交換したいときに、pvmove で不良なHDD上に乗っかっているデータを追い出し
(PEをほかのVGに追い出し)、新しいHDDとさしかえる、というのはわかります。

しかし md を使っている場合、不良なドライブがあれば、mdadm --fail で不良扱いにし、
mdadm --remove で取り外し、mdadm --add で好感して追加すればいいので、
やはり LVM と組み合わせる理由がわからないのですが・・・
340login:Penguin:2007/10/21(日) 21:51:55 ID:ccIALbTr
>>339
そうだね。今のmdadmはいろいろと出来るみたいだね。
俺の場合は慣れなかな。
mdadmが出る前(raidtoolsの頃)からlvmで色々と出来てたからね。

ところで、RAID0でも
mdadm /dev/md0 --add /dev/sda1 --fail /dev/sdb1 --remove /dev/sdb1
でいけるの?
341login:Penguin:2007/10/21(日) 22:19:12 ID:Py2daiOH
ゆとり教育世代には仮想化や論理化のメリットが理解困難なようだ
342 ◆Zsh/ladOX. :2007/10/21(日) 22:36:32 ID:beoHAJJS
漏れも>>337と同じ意見。
LVM使ったこと無いorz
343login:Penguin:2007/10/22(月) 02:51:20 ID:+aosTp7W
つーか>>337、addだけじゃ駄目だろ
344337:2007/10/22(月) 03:23:03 ID:wCu8JRMx
LVM を間に挟んでおけば、以下のようなことができるかと考えてみました。

>>337 のように 4台でRAIDを組む。とりあえず LVM を構成してからパーティションを作る。
・1台故障した(例:/dev/sdd)のでもう一台買ってきたが、同じ値段で容量の大きなHDDが買えた。
・新しく買ってきた HDD に、以前と同じ容量の /dev/sdd1 をつくり、mdadm --add /dev/sdd1 する
・新しく買ってきたHDDの、残りの容量を /dev/sdd2 として fdisk で確保。パーティションIDは 8e とする。

/dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、ファイルシステムを保持したまま、
HDDを余すところなく使えるかな。ただしこの時点では /dev/sdd2 は冗長化されてないですが。

>>343
add するだけでリビルドが始まると思っていたのだけど、もうすこしコマンドが必要なのでしたっけ?
345login:Penguin:2007/10/22(月) 03:47:32 ID:RbFtcdsq
できるかもしれんが、

> /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、

これやったら駄目じゃね?
sdd2は単独で使うのが良いと思われ。
346login:Penguin:2007/10/22(月) 06:25:14 ID:afLW6y8j
片方のドライブが壊れたなど問題が起きたときにメールで送信してくれるユーティルティソフトはありませんか?
347login:Penguin:2007/10/22(月) 09:14:07 ID:xtIOR2qi
>>344
grow

>>346
mdadm
348login:Penguin:2007/10/24(水) 20:03:46 ID:bA8/b9hE
>>337
250GBと500GBの混在で、ソフトウェアRAID5のPCサーバーを作っています。

Vineだし、慣れでext3で行っていますが
reiserFSだと将来拡張できてウマーという認識でいいのでしょうか?


立て続けHDD故障のリスクを抑えるためにも
RAID1の240GBと、RAID5の240GB*4として運用しています。
まぁマーフィの法則的には、500GB二つが立て続けに逝くでしょうが…

LVMは、LVMもmdadmも使い慣れない状態で
LVM導入は無駄にリスクを増すと思って、私もLVMは使っていません。
むしろ、LVM使いたくなかったから、慣れたVineで行った次第。

なお、起動デバイスはCFをSATA変換してそのまま。
実験の都合で、RAIDと別ディスクにしたかったし、電力消費面で(略)

私用だし、設定終わった時点で、ddでバックアップしておけばいいや発想。
349login:Penguin:2007/10/25(木) 02:23:44 ID:SbJgUcvr
>>348
単にresizeするだけなら対応していないfsの方が少ないはず。

それはともかく、LVMはたしかに柔軟性があっていいんだけど、どうも
機能過剰感があるし台数的に少ない個人レベルでは物理ディスク単位で
管理する単純性の方を優先して漏れも使ってない。

HDDやパーティションに縛られない柔軟性は便利といえば便利だけど、
ブロックの切り出しはファイルをloopbackとかnbdで晒せば同様のことが
できなくもないし、HDD更新時のアップグレードとかも

RAID時:
新HDDをRAIDに追加 -> 同期が終わったら、旧ディスクは壊れたことにして外す -> RAIDをresizeして完了

RAID+LVM時:
新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

と手順は違うものの、最近は同程度のゴールは達成できるようになってるから
まあいいかと。LVMを併用すれば選択肢は確かに増える(例:パーティションを
細かく切っても後悔せずにすむ自由とか)のだけど、構築ポリシと運用ポリシで
そこは我慢(という程不満でもないけど)して、より少ない知識で動かせたほうが
いいかなと。仕事じゃないし。
350login:Penguin:2007/10/25(木) 05:36:25 ID:a7PkADFx

> RAID+LVM時:
> 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

mdを新規に組むなら、わざわざLVMに追加しなくても良いのでは?
別個にLVM作成して、rsyncで。
351login:Penguin:2007/10/25(木) 11:57:18 ID:nruqF/xu
使った事が無い奴に限ってあーだこーだ文句言うんだよな
単なる食わず嫌いだよ
LVMが面倒くさいと思ったことは無いね
352login:Penguin:2007/10/25(木) 12:08:55 ID:D3bEYjzi
仕事でUnixさわってりゃ、嫌でも使うもんだしなw
353login:Penguin:2007/10/25(木) 12:11:33 ID:OJWp8+U0
はいはい
354login:Penguin:2007/10/25(木) 19:23:40 ID:8UJAa78q
とりあえず LVM を使わずに4台を RAID5 にしようとしたが、

# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

をやったあと、cat /proc/mdstat すると、

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1]
   937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
   [===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec

となって、なぜか一台が fail 扱いになってリビルドが走っている。
しかも必ず途中でOSが固まってリセットせざるを得なくなる。
リセットすると、またリビルドが走る→OSが固まる。

・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
・なぜリビルドが最後までできないんだよう

HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。
もう一度 fdisk からやりなおそうかな。

355login:Penguin:2007/10/26(金) 13:10:51 ID:2kfwd15n
>>354
>・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう

これは、そういうもの。
前に何が書かれているか判らないから、最初に一回、
全部のブロックに対して辻褄合わせをする必要がある。

>・なぜリビルドが最後までできないんだよう
こりゃ変だな。
ハードウエアかソフトがどっか壊れてるかも。
356login:Penguin:2007/10/26(金) 22:51:06 ID:2+3v138+
>>351
複雑な構成はトラブルの元だよ。仕事ならなおさら。
自分にしか迷惑かからないんなら別に問題ないけど。
分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。
357login:Penguin:2007/10/26(金) 23:39:11 ID:VCuGyTp8
>>350
rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。
358login:Penguin:2007/10/27(土) 00:11:21 ID:4ZTrW6oo
-> LVMに加入させ、新ディスクへファイルを掃き寄せる

こんなこと出来たっけ。
lvcreateでpvを指定する?そもそもファイルシステムの拡張は?
lvmあまり解かってないので〜
359login:Penguin:2007/10/27(土) 00:25:02 ID:US/tv6oE
つ pvmove
360login:Penguin:2007/10/27(土) 00:35:04 ID:4ZTrW6oo
理解しました。
ありがとう。
361login:Penguin:2007/10/27(土) 07:28:26 ID:HMAtdp9w
>>354
最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね
362login:Penguin:2007/10/27(土) 18:22:59 ID:GzcOi8yc
ところで mdのパフォーマンスってあまり実測乗ってないよね

http://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.txt
によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw

というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。


# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz
363login:Penguin:2007/10/27(土) 20:25:18 ID:TpR9h4x8
>>362
RAID1だけど速くならないよ(下はHDD単体)

# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec

# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec
364321:2007/10/27(土) 20:38:03 ID:HbBH9mvu
>>362
たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。

性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。

ベンチマークオフ会やるにはRAID編成に時間かかるもんね。
365login:Penguin:2007/10/27(土) 20:45:42 ID:9wm9rUig
なんか、面白そうね。
俺もちょっとhdparmで速度測定してくる!
366365:2007/10/27(土) 20:52:22 ID:9wm9rUig
# hdparm -tT /dev/md0
Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec
Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec

# hdparm -tT /dev/sda
Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec
Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec

# hdparm -tT /dev/sdb
Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec

# hdparm -tT /dev/sdc
Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec

# hdparm -tT /dev/sdd
Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec
Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec

# hdparm -tT /dev/sde
Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec
Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec

# hdparm -tT /dev/sdf
Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec
Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec

md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・?
死兆星が光ってる?
367362:2007/10/28(日) 00:59:50 ID:71qYpNbN
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
 The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
 whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。

>>364
おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?
368 ◆Zsh/ladOX. :2007/10/28(日) 02:27:22 ID:DiHVZTpi
過去スレでmdのチューニングの話が出てたお
369321:2007/10/28(日) 21:46:34 ID:PihVE9KW
hdbenchクローンはあるんよね。

ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。
今、メインとノートのVine4.1環境にはhdbench入れてあるけど
新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。

hdbenchのためにファイルサーバー機にXも入れといたのにさ。
GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…
370login:Penguin:2007/10/28(日) 23:11:58 ID:8YMFjw47
hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな?

適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。
371login:Penguin:2007/10/28(日) 23:30:15 ID:PnOUhN2H
方々で見かけるし、bonnie++かなぁ。

うちの宅鯖も測り直したいが、クローラのデータエリアとして
24h稼働中なんでなかなか止められない……
372362:2007/10/30(火) 00:00:50 ID:1HogexSN
ざっと走らせてみたものの

bonnie++
これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。
出力結果がややこい

dbench
クライアントの挙動をsimったプロセス数を指定、みたいな。
dbench NでNに1〜30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。
何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。

stress
cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ

tiobench
Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry
LatencyやCPU使用率の一覧比較を出してくれて便利。

その他 apt-cache search benchmark
373login:Penguin:2007/10/30(火) 09:07:47 ID:34EF8s3m
postmarkがおすすめ。
ただディスクベンチではなくファイルシステムベンチマークだけど・・・
同じファイルシステムを使っていれば相互比較はできるはず。
374login:Penguin:2007/10/30(火) 10:05:05 ID:D9D8Yw5C
postmarkはZFS専用。

まぁ同じベンチソフト使っていれば、ファイルシステム間での
比較はできるけどな。
ベンチマークソフトによって特定のファイルシステムで
特別性能がよかったり悪かったりするから、
何をベンチするか考えてから。
375login:Penguin:2007/11/01(木) 12:34:00 ID:7nciWttU
>>366
同一モデルでプラッタ容量違いの外れを引いただけ。
376login:Penguin:2007/11/01(木) 13:12:38 ID:62ZK10ox
>>366
# hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec

というわけでたまたまじゃない?
もっかいやってみれば?
377login:Penguin:2007/11/01(木) 14:01:44 ID:1iefkY+v
>>366
シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。
378366:2007/11/01(木) 18:47:22 ID:Gt+V+zuD
たくさんのレスありがとうです。

たまたまかもしれませんし。
フツーにマルチでやってたんで、今度シングルで試してみます〜。
379login:Penguin:2007/11/02(金) 04:20:45 ID:QaC2YeMr
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、
片方が破損して取り外したという仮定をして実験をしてみたんですが、
HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz
もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。
2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。
接続ポート入れ替えてもダメでした。
パーティション情報や grub.conf も晒した方が良いなら晒します。
誰か分かる方いたらご教示下さい。
380379:2007/11/02(金) 06:02:03 ID:QaC2YeMr
自己解決?
なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。
今シンク中なので終わったらやってみます。
381login:Penguin:2007/11/02(金) 06:29:50 ID:oty1mOnF
>>381
DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。
382login:Penguin:2007/11/02(金) 11:11:28 ID:7sg8THe2
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある
383379:2007/11/02(金) 18:53:15 ID:QaC2YeMr
遅くなりましたが出来ました。
>>381さんの手も良いかなと思ったのですが、以下のような感じでOKでした。

# grub
 grub> root (hd0,0)
 grub> setup (hd0)
 grub> root (hd1,0)
 grub> setup (hd1)

こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。
384login:Penguin:2007/11/03(土) 02:06:07 ID:toJHQDFC
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、
既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。

現在以下のように 500GB×3 + spare という状態です。

Unit UnitType Status     %Cmpl Stripe Size(GB) Cache AVerify IgnECC
------------------------------------------------------------------------------
u0  RAID-5  OK       -   64K   931.303  ON   OFF   OFF
u1  SPARE   OK       -   -    465.753  -   OFF   -

Port  Status      Unit  Size    Blocks      Serial
---------------------------------------------------------------
p0   OK        u0   465.76 GB  976773168   H8******
p1   OK        -   465.76 GB  976773168   9Q******
p2   OK        u0   465.76 GB  976773168   H8******
p3   OK        u0   465.76 GB  976773168   H8******
p4   OK        u1   465.76 GB  976773168   9Q******
p5   NOT-PRESENT   -   -      -       -
p6   NOT-PRESENT   -   -      -       -
p7   NOT-PRESENT   -   -      -       -

このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。
CLIのマニュアル(P.62)に従って

# tw_cli /c0/u0 migrate type=raid5 disk=0-3

とやってみたのですが、
Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use.
とエラーになってしまいます。
何がまずいのでしょう?
385login:Penguin:2007/11/03(土) 22:23:32 ID:rg+D7DYl
>>384
RAID再構築
386login:Penguin:2007/11/04(日) 04:56:40 ID:QRh/db2g
>>385
http://japan.3ware.com/products/serial_ata2.asp
3ware 9550SXの特徴
オンライン容量増設および RAID レベルマイグレーション機能搭載
387login:Penguin:2007/11/04(日) 15:41:59 ID:cbkyEPJh
HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして
XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題
なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも
コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合
ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中
やってもおきたら22%しか読めなかったです。

本体のBiosには変な設定あるかな。このハードで経験がある人がいたら
手伝ってください。
388login:Penguin:2007/11/04(日) 17:09:06 ID:eI5sYsvU
これのどこがRAIDの話題なんだ? (もしかしてマルチ?)
389login:Penguin:2007/11/04(日) 17:26:28 ID:cbkyEPJh
ごめん、マルチでないです。
RAID設定が原因になっているかと思って。書き忘れてすみませんでした。
初期設定のRAID5です。そんなに重くならないはずでしょう?
RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは
遅くならないで。
390321:2007/11/05(月) 14:37:32 ID:bQ+V7ACj
うちも、HDL4-G1.0が遅くて、放棄作業中。
その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が
通信途絶頻発で難航しているほど。

Linuxからの接続で、必要な設定変更はあるのかもしれないけど
これといった情報は見つかっていないし、RAID5やっていく上で
(HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。

…そっか、見たらLinux板にはSambaスレ無いのな。
UNIX板にあるみたいだから、ヲレも調べてみるか…
あと、HDL4担当のスレはハードウェア板にある。
391login:Penguin:2007/11/05(月) 21:06:17 ID:6eGjWErn
>>387
もう少し整理してわかりやすく書こうや
・何が問題なのか
・何をどうやったら問題が起きたのか
・他に何を試したのか
・その他、主観で気になること

>>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ
392384:2007/11/07(水) 12:34:29 ID:j1cRifCj
その後の報告。
月曜朝サポートが動き出したところで電話して聞きました。
どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、
新たに追加するドライブだけを記述するのが正解らしい。
>>384の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。

実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。
1.5TBだと1500分……25時間かよっ!!
とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。
バックグラウンド動作だからいいんだけど。
393384:2007/11/07(水) 12:36:06 ID:j1cRifCj
さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。
Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか?
GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が
約△△時間かかった、など実例を教えて頂けるとありがたいのですが。

パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間
利用不能になるのか見当をつけておきたいのです。
数時間〜半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを
用意しないといけないので。

くだ質の方で聞いたのだけど、有意な返答を得られませんでした。
こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが
よろしくお願いします。
394login:Penguin:2007/11/07(水) 12:55:52 ID:ZtZ/usYi
>>393
だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬
395login:Penguin:2007/11/07(水) 13:15:20 ID:RKolPaG2
よく喋るやっちゃ
たいていの場合>>394かmdadmでgrow。どちらも君の構成じゃ使えん。
396login:Penguin:2007/11/07(水) 18:15:39 ID:n5tC8Tis
ハードウェアRAIDを使うのが普通ではないという意見は
あまり普通ではないと思うが。

ハードウェアRAID使ってて、容量不足になったとき
その機能があれば、容量の拡張も普通にするんでね?
397login:Penguin:2007/11/07(水) 20:23:33 ID:yncetdk8
実際答える奴いないじゃん。やってることがマイナーすぎて。
398login:Penguin:2007/11/07(水) 21:53:15 ID:o+RGikEz
>>395
fsの話とブロックデバイスの話がごっちゃになってるぞお前
399login:Penguin:2007/11/07(水) 22:49:11 ID:7ekDkmZj
>>396
真のハードウェアRAIDならもちろん普通に使うけど、問題は
ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと
いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが
世の中多すぎ(なんちゃってRAIDカード群の大多数)。

そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの
可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。

 真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID

という感じになるのかな。
400login:Penguin:2007/11/07(水) 23:02:05 ID:ZtZ/usYi
>>399
まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、
多機能になればなるほど、こなれてない機能が多い訳で、
例えばマニュアルの誤記のように問題に当たりやすい。

だから、デフォルト以上のこと(RAID5にスペア1本)を
やらせるのはお勧めしない。やるなら検証してからで、
間違っても本番データを運用したままやらない。
401login:Penguin:2007/11/08(木) 10:19:08 ID:3bsJieVy
>398
なんでブロックデバイスの話が出るんだ?
パーティションとかボリュームなら言いたいことは理解できなくもないが
それでもごっちゃにはなってないし…
402login:Penguin:2007/11/08(木) 12:55:16 ID:0yMQ2DaJ
今使っている分の後ろに空きブロックが増えるだけじゃないの?
1パーティションに拘らなければ、lvmでなんとかなるべ。
403login:Penguin:2007/11/08(木) 20:27:40 ID:IZN1X0G5
raid1
grub> device (hd0) /dev/hdb
grub> root (hd0,0)
grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf

で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?
404login:Penguin:2007/11/08(木) 21:27:48 ID:IZN1X0G5
hda から起動できず、結局またリビルド

今度は
grub> device (hd0) /dev/hda
grub> root (hd0,0)
grub> setup (hd0)
したけど Kernel Panic になります。
405login:Penguin:2007/11/08(木) 21:56:35 ID:IZN1X0G5
md0 (boot) と md1 (/とswap)両方リビルドして
リブートしたら直った^^ よかった。
さっきは md0だけリビルドしてブートしたからパニックになっただけかも。
406login:Penguin:2007/11/08(木) 23:31:13 ID:13192VKA
ここはお前の日記帳じゃねえんだ
407login:Penguin:2007/11/11(日) 14:42:23 ID:Kss4jt32
今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが
RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?
408login:Penguin:2007/11/11(日) 14:58:54 ID:EBagQV5F
> パーテはC:D
Windows板にカエレ
409login:Penguin:2007/11/11(日) 14:59:41 ID:aTKX43hi
md使うんだよな?
1日色々勉強してみて
410login:Penguin:2007/11/15(木) 13:43:28 ID:Ay00Jbql
すいません、質問させてください。
arecaのarc-1120使ってるんですけどconfigを保存することってできますか?
raidの設定コンフィグなんてものはないですか?
壊れたので同じものを買って入れ替えたいんです。
411login:Penguin:2007/11/15(木) 14:00:49 ID:kt6gqmw9
修理したら?新規に買うより安くなるはずだが
412login:Penguin:2007/11/15(木) 15:24:02 ID:wCvoExs2
修理だと時間かかるじゃん。

areca使ってないけど、興味あったんでマニュアル見てみたけど、
設定のファイルへの書き出し/読み込みなんて機能はなさそ。

ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの?
あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。
ゼロからやっても数分で終わりそうだけど。
毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。

既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、
不安だったらサポートに聞いてみた方がいいと思うよ。
このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。
413login:Penguin:2007/11/15(木) 18:00:18 ID:Ay00Jbql
>>411,412
ありがとうございます。

save configとかそういう項目ないのでやっぱりないんですかね。
一応サポートにも連絡してみます。
414login:Penguin:2007/11/16(金) 01:17:15 ID:1eXgzPsD
RAIDボリュームの情報はHDD側に持つものもあるし、
実装次第だと思う
なんで、サポに聞くのが一番いいね
415login:Penguin:2007/11/17(土) 14:53:05 ID:1ihUsYxQ
RAID 1 はリード性能が向上するというイメージがあったのに
mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…
416login:Penguin:2007/11/17(土) 17:14:37 ID:1ihUsYxQ
>>368
kwsk
417login:Penguin:2007/11/18(日) 01:00:05 ID:YtGpqr3X
なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。
418login:Penguin:2007/11/18(日) 01:09:55 ID:32uNERa2
そんなに知恵が足りない事をひけらかさなくてもいいのに
419login:Penguin:2007/11/18(日) 02:39:12 ID:HcFap/DP
確かに知識というか知恵があれば分かるよなあ…

>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

2 台の HDD でミラーリングしてる場合
両方の HDD から並列に別のデータを読めるから
420login:Penguin:2007/11/18(日) 03:14:37 ID:31wlS8LP
> 2 台の HDD でミラーリングしてる場合
> 両方の HDD から並列に別のデータを読めるから

これぢゃ、こわれててもわかんないんじゃないかな

421login:Penguin:2007/11/18(日) 03:24:33 ID:7DZoPkDC
なぜそんな話に飛躍する?
しかも意味が分からん。
RAID1で1台壊れて読めなくなってどうする?

RAIDの障害はsnmpやメールで通知するんだよ。
422login:Penguin:2007/11/18(日) 05:35:44 ID:HcFap/DP
>>420
セクタ単位のデータ破損を言ってる?
そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ
2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?
423login:Penguin:2007/11/18(日) 10:15:29 ID:w3f8FT8B
>>417
man md
してから書けよ
Changes are written to all devices in parallel. Data is read from any one device.
The driver attempts to distribute read requests across all devices to maximise performance.

上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな


>>420
お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か?
予め言っておくがRAID5でも一致確認してません、よー
424login:Penguin:2007/11/18(日) 10:44:16 ID:KXIawyII
元の >417 がイタイのはおいといて

>422
普通は HDD 内部でエラーチェックで救いきれないという状態になって
バケデータを吐くのでなくエラー通知をしてくるから
どちらを信じればいいかは分かる

そうならなかったとしたら相当運が悪いので
どのみち生きていても仕方ない…
425login:Penguin:2007/11/18(日) 10:56:59 ID:w3f8FT8B
ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな
安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ

ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?
426login:Penguin:2007/11/18(日) 11:28:10 ID:/HzRs9GI
2台構成だとセクタ単位以下の信頼性は下位層に依存、
それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。

銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ
427login:Penguin:2007/11/18(日) 12:24:10 ID:JtepkghF
下位層でできないことは上位層でやればいい、っていこうとでは?
ということで、ZFSドゾー
428login:Penguin:2007/11/18(日) 16:20:10 ID:HcFap/DP
>銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
>場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

発注先とかソフトウェア部分も多数決な
4293台:2007/11/18(日) 17:54:46 ID:KXIawyII
メルキオール、バルタザール、カスパー…

ごめんなさいごめんなさいごめんなさい
430login:Penguin:2007/11/19(月) 03:13:03 ID:+PzRhB/C
蒸し返すようだけど、ハードウェアRAID(fake raid ではなく)の場合、
RAID 1 にしても、read のときは双方のHDDから読み込みをやっているわけではないと思う。

5年ぐらい前、Escalade 7210 と HGST 180GXP で RAID0 と RAID1 のアレイを組んで
それぞれベンチを図ってみたが、RAID0 と RAID1 で同じ読み込み速度にはならなかった。
http://members.jcom.home.ne.jp/makky55/raid0-test1.gif
http://members.jcom.home.ne.jp/makky55/raid1-test1.gif

md の場合は、>>423 にあるとおり RAID1 の場合は内部で双方のHDDから読み込みをやっている
ようだけどね。
431login:Penguin:2007/11/19(月) 04:36:45 ID:YZqmzVs9
>>427
> 下位層でできないことは上位層でやればいい、っていこうとでは?

それ結局意味ないから。

RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。
通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の
エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。
セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で
エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない)
セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。
もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる
こともできるけど、それじゃRAIDの意味ない。
432login:Penguin:2007/11/19(月) 15:57:45 ID:1xeYiL1w
>>430
実装による。シーケンシャルなread1本時の挙動と、同2本や10本の速度も測ってみると良い。
ついでだからmdでRAID10組むときのnear/far/offsetのあたりも理解しておくとよい>仕組みと読み込み速度
http://en.wikipedia.org/wiki/Standard_RAID_levels#RAID_1_performance
http://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10

// 日本語wikipediaは酷いなぁ
433login:Penguin:2007/11/19(月) 19:28:24 ID:LSsBOoW2
>>430
3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry
434417:2007/11/20(火) 14:41:38 ID:WUpQPj2Z
イタイ417だけど
ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。
定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど
全面的なやつは珍しいかも。
(そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?)
だからそういった意味ではRAID1で高速化するってありえないよ。
RAID0かぶせない限りはね。
>>430,432が正解だと思う。
わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w
435login:Penguin:2007/11/20(火) 14:42:39 ID:6fbP/JrB
アイタタタタタタタタw
436login:Penguin:2007/11/20(火) 15:44:28 ID:+5gXhNB9
あたああああああああ
437login:Penguin:2007/11/20(火) 16:12:43 ID:6fbP/JrB
あーあ
そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
そもそも最初にRAIDを提唱した1988年の論文でも
RAID1でread性能が向上する事が指摘されてるんだよね
438login:Penguin:2007/11/20(火) 16:38:37 ID:0X6vxiqf
>>437
http://www.eecs.berkeley.edu/Pubs/TechRpts/1987/5853.html
その論文の基となるレポートがこれだけど
確かにRAID1でparallel readに言及してるな.
abstract読めば判るけど,当初のRAIDは可用性向上よりも
性能向上が目的だからな.

>>432にあるWikipedia英語版も読んでみたけど,
RAID1でreadは速くなるって書いてあるじゃん
439login:Penguin:2007/11/20(火) 17:59:10 ID:WUpQPj2Z
>>438
めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
>Many older IDE RAID 1 controllers read only from one disk in the pair,
>so their read performance is always that of a single disk.
>Some older RAID 1 implementations would also read both disks
>simultaneously and compare the data to detect errors.
だとさ。結局実装次第ちゅーこっちゃね。
440login:Penguin:2007/11/20(火) 18:06:26 ID:WUpQPj2Z
つーか、実際にレイド組んでベンチとってみるといいかもね。
ごたくならべてないでさ。そのmdってのが優秀なら問題ないんだろからさ。
441login:Penguin:2007/11/20(火) 18:09:41 ID:6fbP/JrB
見苦しい
442login:Penguin:2007/11/20(火) 18:12:21 ID:WUpQPj2Z
>>441
なんだググっても反論見つからなかったか?w なんつてな。
正直もうどうでもいいな。
443login:Penguin:2007/11/20(火) 19:20:47 ID:MSD+3qt7
なら何も書かなきゃいいのに。
書けば書くほど見苦しくなる。

437に同意。
>そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
444login:Penguin:2007/11/20(火) 20:45:33 ID:286gsJhP
はいはいプロユースプロユース。

てか本気で見苦しいな。
RAID総合スレに来ておいて、今やコンシューマ向けRAID搭載NASの殆んどを占めるmdを「特定の」やら「知らない」とか言われてもな。
んなもん持ってなくてもRAID語るなら自宅鯖でLINUXでmdくらいはやってて(試していて)当然の話じゃねえの?
445login:Penguin:2007/11/20(火) 21:41:26 ID:hSn6K+RS
>>434
せっかく>>432書いたのに全く読んでない
ものすごく好意的にエスパーしたとしても、単独負荷と並列負荷をわざと曖昧に書いて煽ってるようにしか読めん。
つまり絡みたい気分だったのだろう。そっと放置しておいてやろう、な。
446login:Penguin:2007/11/20(火) 23:37:47 ID:Pk03JSkS
>>434
>定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
>本来は片方からしか読まないよ。

と「本来の RAID 1 は並行読み込みしないと定義されている」とほのめかしておいて
>>438 で論破されたのに

>>439
>めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
> >Many older IDE RAID 1 controllers read only from one disk in the pair,
> >so their read performance is always that of a single disk.
> >Some older RAID 1 implementations would also read both disks
> >simultaneously and compare the data to detect errors.
>だとさ。結局実装次第ちゅーこっちゃね。

と「過去の実装例」で「定義」の議論に対して反論したつもりになって

>>417
>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

での知恵の無さを誤魔化す >>417 = >>440 = >>442 はとてつもなく痛い
447login:Penguin:2007/11/21(水) 00:27:24 ID:PIy6cxhg
このへんで勘弁してあげようよ
448login:Penguin:2007/11/21(水) 01:12:12 ID:YL4Okhmu
417はもう出てこれないに500ペソ
449login:Penguin:2007/11/21(水) 01:21:04 ID:66AMPoKv
過去レスを読んでいれば、このスレが md がメインなこともわかると思うんだが。
ただスレタイに md とも書かれてないし、ハードウェアRAIDを Linux で使う場合の話も
ここでしたいので、その場合はその旨一言触れておいたほうがいいな。

あときりわけが難しいけど、上に乗っかるOSは関係なく、ハードウェアそのものについての話になるなら
自作PC板にいったほうがいい。
ただしこういうストレージカードの場合、ハードウェア / fakeRAID ともにデバイスドライバが密接に絡むので
むずかしいけど。

長文ごめんなさい
450login:Penguin:2007/11/21(水) 01:56:35 ID:PIy6cxhg
前スレまではハードウェアRAIDの話題も結構出てたんだけどね。
このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

まぁ >>417の件はそれとは関係なく、単にナニだっただけなんだけどw
451login:Penguin:2007/11/21(水) 02:39:21 ID:WhtoZStV
ひさびさに痛い奴でした
452login:Penguin:2007/11/22(木) 00:43:36 ID:x2PaICsY
どーでもいい。次。
453login:Penguin:2007/11/22(木) 04:34:50 ID:4v8j5/xa
>>450
そうかなぁ?
アレイ拡張など運用の柔軟性とか、HW-RAIDだと対応が難しい要求を
HW-RAIDに求める奴が出ては諭されしてるだけかと。
454login:Penguin:2007/11/22(木) 05:10:47 ID:b7H+VhqY
Linuxの場合は、HW-RAIDにしたらしたで、
ちゃんとミドルウェアというかユーティリティが対応しているかっていうのは大きな問題でしょ。
ユーティリティなしで済まそうとすると、障害通知とかどうしたらいい?ってことになるからね。
455login:Penguin:2007/11/22(木) 08:46:26 ID:NB0e892q
大きな問題ではあるけど、そんなのベンダが提供してるかしてないかであって
話題になるようなポイントではないのでは?わざわざ高いHW-RAID入れるのに
まともなサポートツールがないもの選ぶことはないし。
456login:Penguin:2007/11/22(木) 12:00:33 ID:e1x8OZuz
>>453
お前HW-RAID使ったことないんだろw
457login:Penguin:2007/11/22(木) 16:43:40 ID:4v8j5/xa
>>456
少なくとも、ここで出てくるHW-RAIDはいわゆる民生用で、
高いHW-RAIDみたいなサポートもユーティリティもないでしょ。

高いの使えばそりゃシームレスでも柔軟性でも出るけど、
そういう話が「ここで」出てたかはかなり疑問。
458login:Penguin:2007/11/22(木) 17:18:20 ID:kotZkAiy
>>457
>>453は過去に一体どんなハードウェアRAID使ってきたのよ。
よほどの大昔か?

少なくともここで最近このスレで出てきた3wareやarecaだったら
「アレイ拡張など」はwebブラウザ経由で簡単にできるぞ。
この価格クラスのものでも、信頼性は十分あるし、普通にRAIDを利用・管理
(故障したドライブの交換やエラー時のメール通知等含め)したり、容量を拡張する
くらいの操作する分にはソフトウェアRAIDよりも「簡単・確実」なのは確かだよ。
RAIDの知識があれば、買ってきてすぐ、ほとんどマニュアル読まずに使える。
仮にOSが落ちてても、通電さえしてりゃrebuildとか勝手に続けてくれるってな
安心感もある。

ソフトウェアRAIDにもハードウェアRAIDにもそれぞれの長所・短所はあるんで、
それぞれ理解して使い分けりゃいいだけの話。
RAIDに求めるものは使用目的によって変わってくるんだから、どちらか一方を
無理矢理否定するこたーない。
459login:Penguin:2007/11/22(木) 17:21:32 ID:kotZkAiy
諭され云々は多分>>384のこと言ってるんだろうけど、>>384が特殊だったのは
CLIでやろうとしたからだよ。あとはファイルシステムの拡張でRAIDとは無関係。
CLIは既にメーカー側でもオマケ扱いで、サポート側もほとんどノウハウないし、
マニュアルの記入ミスが何年も放置されっぱなしだったりしてる。
ほとんど使う人がいないんだから「やってることが特殊」と言われてもしょうがない。
460login:Penguin:2007/11/22(木) 20:16:50 ID:e1x8OZuz
>>457
で、たとえばどんなことがHW-RAIDでできないと思ってるの?
アレイ拡張など、以外に。
461login:Penguin:2007/11/22(木) 20:18:20 ID:Ai+8+9Qs
( ´ー`)y━・~~~
462login:Penguin:2007/11/23(金) 18:35:28 ID:Jp++BsDp
ワロタ
ここお笑いスレ化してるな。

> このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

なんか絵に描いたようなw
463login:Penguin:2007/11/23(金) 19:42:52 ID:GS8px4nS
md の RAID 1 でリード性能を高速化する方法ってないのかな?
方法自体がないなら諦めないといけないけど…
464login:Penguin:2007/11/23(金) 21:43:27 ID:T6tLpng3
お前は何を言ってるんだ
465login:Penguin:2007/11/23(金) 23:38:14 ID:ediOoBUE
だから並列負荷耐性は上がるとmanにも書いてあるだろうに
466login:Penguin:2007/11/23(金) 23:56:04 ID:dksFbx1S
そこの解釈の差が論争の原因だね。man mdだと

> Data is read from any one device.
> The driver attempts to distribute read requests across all devices to maximise performance.

と最初の文が意味深だが、解釈は曖昧。で、ソース見ると

> * Don't change to another disk for sequential reads:

とあるので、おそらく単体のリードはディスク一台分の速度、ただし
別のリードは別のディスクに分散できるのでスループットが台数に
比例して伸びる、なのでは?
467login:Penguin:2007/11/24(土) 01:21:05 ID:NU+60JyU
なるほど。
468login:Penguin:2007/11/24(土) 02:25:30 ID:Rw3nYGM/
>>466
hdparm でリード性能が伸びてないのは
単発リードコマンドになってるってこと?
469465:2007/11/24(土) 02:28:51 ID:lC7phVQh
>The driver attempts to distribute read requests across all devices to maximise performance
複数の読み取り命令を全てのデバイスに割り振って高速化しようとするよ
じゃないの? 単一read時のことは書いてないよ。
470login:Penguin:2007/11/24(土) 03:09:26 ID:/QheRAnN
>Data is read from any one device.
データは一つのデバイスから読まれる。
こっちが単発リードのことをいっているんだろ。
471login:Penguin:2007/11/24(土) 04:35:21 ID:wJBOH4En
なおのこと単発リードが高速化するようには読めんが
472login:Penguin:2007/11/24(土) 11:53:59 ID:/QheRAnN
だから速くならないって言ってるだろw
473login:Penguin:2007/11/24(土) 14:19:03 ID:Rw3nYGM/
状況を整理するよ

hdparm による md の RAID 1 に対するベンチマークで
リード性能が単体 HDD に比べて向上していない
(自分を含めて 2 〜 3 人が報告)

これは
・hdparm によるベンチマークは単発リードコマンドしか発行していない
・そもそも md の RAID 1 ではリード性能は向上しない
のどちら (あるいは両方?) なんだろう?ということ
474login:Penguin:2007/11/24(土) 14:22:10 ID:1cLiYWi3
同時に複数のファイル(とは限らんが)の読み込み要求があったときには
できる限りドライブを分散させて、パフォーマンスが向上するようにしている。
各ファイル(とは限らんが)のシーケンシャルな読み込みは単一のドライブから。

だね。
475login:Penguin:2007/11/24(土) 14:24:48 ID:/QheRAnN
ふむふむ。
476login:Penguin:2007/11/24(土) 15:12:57 ID:lC7phVQh
>>473
その2択が正しいかどうかは置いといて、hdparmは単発readでしょ。
なんだか話がループしてそうなんだが>>362- は読んだ?
477login:Penguin:2007/11/24(土) 15:36:38 ID:Rw3nYGM/
おお >>367 にそれらしい答えが出てるね
478login:Penguin:2007/11/24(土) 16:16:33 ID:lC7phVQh
チラ裏だが

ディスクベンチっていうと
http://www.iozone.org/
みたいにパラメータ変えつつやるもんかと。
特にRAIDボードで組んで評価って話でよく挙げられてる単純なベンチは
あれで参考になるんかと思うわけだが、口出すようなことでもないわけで。
単純化指向は良い面もあるしな。tiobenchくらいが結果貼りやすいかもしれん
479login:Penguin:2007/11/29(木) 06:03:49 ID:7uM8bIDi
なんかmdの話ばかりでハードウェアRAIDがスレ違いな話題と化しているようだけど…

それはさておき、なんでLinuxってOpenBSDやNetBSDのRAIDframeのような
kernel & userlandを含めたフレームワークがきちんと整備されていないんだろう?
ドライバがkernelにとりこまれても、各種ユーティリティはRAIDカードベンダまかせで、
それらが使えないディストリビューションの場合は途方に暮れるしかないっていうのは
悲しすぎる。

OpenBSDならBIOSレベルで設定しないといけないもの以外は、基本的にraidctlコマンドで
統一的に使えるのになぁ…

あと、どうでもいい余談だけど、ちょっと前、mdとLVMを組み合わせるのは複雑だなんて
話があったけど、ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に
扱える。

あと、このスレからソフトウェアRAIDの話が撲滅されるというメリットもあるw
480login:Penguin:2007/11/29(木) 10:17:09 ID:krpLIoSe
>>479
>フレームワークがきちんと整備されていないんだろう?
ニーズがないから。
OpenBSDのように遊びでHW-RAID使っている訳では無いから。
481login:Penguin:2007/11/29(木) 10:36:45 ID:r5r946d6
>>479
つ dmraid

>>480
しったか乙
482login:Penguin:2007/11/29(木) 15:45:08 ID:yTYjvc/A
>>481
dmraidって既に
「きちんと整備されてい」るの?

単に知らないから聞いてるんだが。
483login:Penguin:2007/11/29(木) 19:19:21 ID:0m6dyEiu
>>479
お前みたいなのが居るからmd以外の話題が低レベル化するんだよ
484login:Penguin:2007/11/29(木) 19:41:18 ID:3Mr68e1S
>>482
いまだにrcのまんまとはいえ、開発は続いているね。最新版は今年の5月に出た。

>>483
必死だな
485login:Penguin:2007/11/30(金) 00:10:15 ID:revYtBrt
>>479
> ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に扱える。

ニーズがわかってないな。ZFSで全部、じゃシステム部品としての粒度が大きくて、
導入しづらくてたまらん。「これで全部解決」ってのは大抵成功しないよ。
486login:Penguin:2007/11/30(金) 03:03:09 ID:Mn/yUmHF
mdとLVMとの組み合わせだと、機能かぶりまくりで無意味に複雑化する上に
オーバーヘッドだってあるんだから、よほど素性は悪い罠
487login:Penguin:2007/11/30(金) 10:28:41 ID:N6HYB90j
ま、それがLinuxの性
488login:Penguin:2007/11/30(金) 18:30:10 ID:hZ7jSyzu
>>479
上のほうで複雑すぎる、って書いた奴です。

ZFSは見た目は簡単(?)だけど単純ではない。複雑なものを隠して簡単そうに
見せているだけ。なんで、トラブルになったとき対処に必要なアレイ構成とかの
情報も結局ZFSの中に隠されるから対応しづらい。そこが嫌で原則使わないことにしてる。

RaidFrameとLinux mdは、どちらも一長一短だけど、
ニーズにあった自由な組み合わせが必要ならhw-raid/md/LVM/fs等で、
ワンストップで操作できる点やドライバの充実をとるならRaidFrameが有利、
ってところか。

自分以外の視点で考える練習もした方が良いかもね。
489login:Penguin:2007/12/01(土) 08:04:30 ID:gB0tzcfY
>>485
> システム部品としての粒度が大きくて、
> 導入しづらくてたまらん。

これに禿胴する人は多いと思う。
490login:Penguin:2007/12/01(土) 11:45:16 ID:ywEZfGgX
>>486
どこがかぶってるんだ?
491login:Penguin:2007/12/01(土) 11:57:19 ID:s/h51g0g
おちん○ちんの皮
492login:Penguin:2007/12/06(木) 05:13:41 ID:ap4dDKTJ
たまたま、この記事を読んで気になり、
mdによるRaidで整合性検査をしてみようと思ったのですが、
どのようなコマンドがあるのでしょうか?
(ぐぐっても、見つからなかったもので・・・

ttp://itpro.nikkeibp.co.jp/article/COLUMN/20070820/279952/?ST=system
493login:Penguin:2007/12/06(木) 08:53:48 ID:TPTZjUe/
>>492
整合性検査って、consistency check っていうんだよ。
ttp://gentoo-wiki.com/HOWTO_Gentoo_Install_on_Software_RAID

With a modern kernel, >=2.6.16, this command will initiate a data consistency check
and a unreadable block check: reading all blocks, checking them for consistency,
and attempting to rewrite unreadable blocks:

# echo check >> /sys/block/mdX/md/sync_action

You can monitor the progress of the check with:

# watch -n .1 cat /proc/mdstat
494492:2007/12/06(木) 15:26:20 ID:ap4dDKTJ
>>493
ありがとうございます、実験用領域を組んで試してみます。
495login:Penguin:2007/12/06(木) 22:44:34 ID:XmDmS+kB
mdで第一日曜に自動チェックとかいう話ってなんだっけ?
496login:Penguin:2007/12/07(金) 01:00:01 ID:0L1bQ/rX
debianのデフォルトじゃね?
497login:Penguin:2007/12/07(金) 17:07:07 ID:V8m/lKoM
そんなん有るんだ。
ってググってもヒットしないし
498login:Penguin:2007/12/11(火) 21:54:14 ID:EizmHdyt
今、250GB*6本でmdによるRAID5を作っています。
名前はmd0です。

今度500GB*6本でmdによるRAID5を作ろうと思います。
新しく作るRAIDをmd0にして、既存のRAIDをmd1にリネームしたいのですが
リネームの操作が分かりません。

まだHDD買って来てないんで実験できないのですが、要領をご存知の方が
いたら教えてください。

ディストリはCentOS5です。
499login:Penguin:2007/12/11(火) 23:00:07 ID:f5+2aQ7y
1.旧md0を停止して
2.新md0を作成して
3.旧md0をmd1としてアセンブルして
4.好きなとこにマウント

じゃだめヶ?
新HDD買う前に1と3だけ試せる。
500login:Penguin:2007/12/11(火) 23:05:57 ID:f5+2aQ7y
あ、ごめん>>498宛てね。
それと今止めてもいいmdがないので試せなくてスマソ。
多分問題なく出来るとは思うけど。
501login:Penguin:2007/12/12(水) 11:28:43 ID:PJ2mXbUE
>>498
mdadm.confのARRAY行書き換えて再起動でmd0がmd1になるから、改めてmd0をcreate
fstabとか関連のファイルも同時に変更する必要があるんで注意
あと確認は十二分にしたほうがいい

Persistent Superblock内ってアレイのデバイス名(md0)まで
埋め込まれるんだっけ?それともUUIDだけ?
502498:2007/12/12(水) 12:26:42 ID:6F5R6X/A
みなさん、どうもありがとうございます。
まだ実機のmd0をバックアップ取れていないので、virtualpc内にlinux入れて
教えていただいた手段を試してみます。
503498:2007/12/12(水) 13:18:37 ID:6F5R6X/A
CentOS4がインストールされたVirtualPCイメージがあったので、それで試してみました。

○作業前
/dev/md0: 要素 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4

○手順
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 -a -l 5 -n 4 /dev/hdd1 /dev/hdd2 /dev/hdd3 /dev/hdd4
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
# shutdown -r 0

○作業後(再起動後)
[root@centos ~]# cat /proc/mdstat
Personalities : [raid5]
md1 : active raid5 hdb4[3] hdb3[2] hdb2[1] hdb1[0]
29952 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md0 : active raid5 hdd4[3] hdd3[2] hdd2[1] hdd1[0]
60096 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

無事にmdの名称が変わりました。
今度HDDを買ってきたら、本番マシンで試してみたいと思います。
どうもありがとうございました。

>>501
# mdadm -E /dev/hdb1
をしてみた所、md?の記述はなかったので、HDD要素自体には自分がどのmdに属すのかという
情報は持っていないのかもしれません。
あと、mdadm.confをfindで検索してみましたが、存在しませんでした
504login:Penguin:2007/12/12(水) 15:43:25 ID:kEBRgtVd
>>503
横から失礼。
自分も昨晩レスキュー用のKanotix使って
md*の名前を変更したのだけど、

古い mdadm (1.*.*) だと再構成(assemble)段で
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
 を
# mdadm -A /dev/md1 -a /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
とかやらないと上手く認識しないみたい。
今時のは(2.*.*)で問題ないけど。
505login:Penguin:2007/12/12(水) 15:56:54 ID:PFZrlHwL
>>504
さらに横レスw そうだったのかー。知らなかったよサンクス。
先日上手くいかなかったんでmdadmを1から2にうpしちゃったばかりの俺です。

あ、ついでに、HDD4台とかで台数多いときは
# mdam -A 1/dev/md0 /dev/sd[abcd]1
で省略出来るお。この指定だと間違いにくいんでオヌヌメ。
知ってたらごめん。
506訂正:2007/12/12(水) 15:57:50 ID:PFZrlHwL
○  # mdam -A 1/dev/md0 /dev/sd[abcd]1
×  # mdam -A /dev/md0 /dev/sd[abcd]1
507498:2007/12/12(水) 16:09:33 ID:6F5R6X/A
-aって、「必要ならばデバイスファイルを作る」っていうオプションですよね。
付けなくても動作しましたが、付けるほうが正解な気がします。
508login:Penguin:2007/12/14(金) 01:18:21 ID:XaTc4CNr
>>503
>あと、mdadm.confをfindで検索してみましたが、存在しませんでした

アレイ障害時に管理者にメールを投げる機能、とかの設定保存ファイルがどこかにあると思う。
man mdadm
man mdadm.conf
して出てこないとかなら使ってる鳥が別名にしてるんだろう
509login:Penguin:2007/12/19(水) 17:03:00 ID:bGUYO486
ICH8DHのraidはlinuxでも使えますか?

現在raid1でWindows(XPとVista)を使っていますが、ハードディスクの後ろの方を空けて、そこにlinuxを入れてみたいと思っています。
この場合、raid1ままで使えますでしょうか?ich8,raid,linuxなどでggって見ましたがよく分かりませんでした。よろしくお願いします。
510login:Penguin:2007/12/19(水) 17:07:14 ID:MVsxWy2g
511509:2007/12/19(水) 17:31:25 ID:bGUYO486
>>510 ありがとうございます。
mdadmというのが有るのですね。

今回のようにハードディスク前半のWin領域はそのままraid1で、
後半のlinux領域もraid1にしたい時は、
raid1状態にlinuxをインストールするのは無理でしょうか?
RaidのBIOSでハードディスク後半は通常状態に戻し、
片方のハードディスク(の後半)にインストールして、
そのシステムで起動してから、raid1の設定をする、
という感じのなるのでしょうか?
#質問が分かりづらかったらスイマセン。
#そもそもmdadmのraid1の領域から起動することはできない?
512login:Penguin:2007/12/19(水) 17:50:49 ID:UvMw/7fp
mdadmで同期するとメモリーが増え続ける(メモリーリーク)

何が原因だろう・・・

外すと増えない・・・

あぁ、折角Raid組んだのに・・・
513login:Penguin:2007/12/19(水) 23:56:27 ID:dXqKwU0p
>>511
ああまた一番面倒な構成を・・・

LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える
RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが
必要。正直お勧めできない。

ブートはmdの場合は別に問題なくできると思う。

お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・
当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、
チップセットの機能は殺して使う。
514513:2007/12/19(水) 23:58:47 ID:dXqKwU0p
> LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
> 後ろ半分だけmdすれば使える。

嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が
どういうディスクレイアウトでHDD記録面使ってるかLinuxから
知りようがないので、「後ろ半分だけmd」は不可能です。

あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな
ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。

515login:Penguin:2007/12/20(木) 01:06:41 ID:ah4LLGVs
つかいまどきHDDなんてクソ安いんだから
ひとつのHDD分割してそれぞれRAIDなどと
金払ってわざわざ面倒を買うようなことはやめて
HDDひとつ増設しろ、というのが
全うなアドバイスだと思うが。

わざわざ面倒を買いたいMの人なら
ここで聞かずに、自力でMるべき。
その方が長期間楽しめる。
516login:Penguin:2007/12/20(木) 01:15:18 ID:7Ear3seQ
その話だけど、HDDって最近あんま下がんないよね。
500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。
517login:Penguin:2007/12/20(木) 11:59:43 ID:9JqjcHOR
去年の夏に買った MaxLine Proの500GBは約2.8万円だった。
後継機種(?)の Barracuda ESの500GBは現在約1.6万円で買える。

このクラスは既に十分安くなったのだと思う。
過去の例から見ると、どんな容量でも 1.5万くらいで低下速度がにぶり、
その後ジワジワと1.0万前後まで下がって、消えていくパターンでは。
(最低容量路線 1製品だけは例外としてその後も残す感じ)

現在価格低下中なのは、もっと大きい容量のものだと思う。
http://www.watch.impress.co.jp/akiba/hotline/20071215/graph/gi_g83500630_50ns.html
http://www.watch.impress.co.jp/akiba/hotline/20071215/graph/gi_ga3750640_75ns.html
518login:Penguin:2007/12/20(木) 17:11:44 ID:bKOgxsVo
>>513-515
オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、
その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。
その事がハッキリしてよかったです。
Linuxは仮想化で使用する方向で検討します。ありがとうございました。
519login:Penguin:2007/12/20(木) 17:31:46 ID:PCc7T4fL
たぶんすごく勘違いしてる気がするけどまあいっか…
520login:Penguin:2007/12/21(金) 00:27:42 ID:2IO5/NZD
きっと >>518 は微妙に勘違いしてるね。

勘違いしてる場合、>>518 はチップのRAID機能を相変わらず有効にしたまま
ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは
ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で
実現してるはず(それができるチップなら、だけど)。

なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、
Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの
2つがあることは理解されたのだろうか・・・
521login:Penguin:2007/12/21(金) 08:17:35 ID:vT/e4/3W
>>520
アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、
ホストOSがWinなのでオンボードRaidに関しても面倒がありません。
この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、
Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。

なお、ICHの世代が変わっても下位互換性は確保されているようですし、
M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、
「ボード変えたらあぼん」は言いすぎかと。

なお、FakeRAIDがSoftRAIDに勝っている点として、
(1)BIOSが起動した時点からRAID機能が使える,
(2)BIOS側の設定だけでRAIDが使えてしまう
と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。
ttp://itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/
522login:Penguin:2007/12/21(金) 10:14:34 ID:BvrFe3Un
結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから
何をチョイスしたところで諦めるしかないわ。
523login:Penguin:2007/12/21(金) 10:48:48 ID:4VlKmS8l
>>521
とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。

BIOSレベルでミラーとか作れるのは便利だと思うけど、
OSからまともに使えない場合はまったく意味がないからなぁ…。
ドライバがまともならFakeも良いだろうね。
Linuxだとその条件が以外に難しいからSW使ってる人も多い。
(dmraidとかだと結構ちゃんと使えます?>使ってる方)

あとBIOSでアレイいじってる間はOS起動しないから
可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
524login:Penguin:2007/12/21(金) 16:03:13 ID:vT/e4/3W
>>523
可用性という言葉は知りませんでした。

ttp://e-words.jp/w/E58FAFE794A8E680A7.html
可用性、つまりシステムの壊れにくさのこと。
障害の発生しにくさや、障害発生時の修復速度などによって計られる。

> あとBIOSでアレイいじってる間はOS起動しないから
> 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。
もちろん復旧中はHDアクセスは非常に重くなったりしますし、
世の中にはもっと可用性の高いシステムもあるのでしょうが、
デスクトップPCの可用性としては、現状で個人的には充分です。
# 可用性が重要視されるであろうサーバー機だったら、
# Win上のLinuxで運用などしませんしw

> (dmraidとかだと結構ちゃんと使えます?>使ってる方)
使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。
というかlinuxのFakeRaidとSontRaidに関しては、既に>>192で結論が…。
525login:Penguin:2007/12/21(金) 18:40:58 ID:DRFyI6f4
今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ
526login:Penguin:2007/12/24(月) 14:03:23 ID:brxL+xQV
そのせいでリビルド中に何回壊れたことやら。
527login:Penguin:2007/12/24(月) 16:20:29 ID:pkkqmlH/
関係ないだろ馬鹿か?
528login:Penguin:2007/12/27(木) 00:40:51 ID:rLyRK7d3
RAID1,5は可用性をあげる目的と考えた方がいい

故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で

ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド

そうじゃない場合リビルドで壊れる可能性を考慮して、

 RAID1の場合一台外してバックアップする
 RAID5の場合全台外してバックアップする

RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない


故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい
データ保全を考えるなら2台壊れたら停止させることになるけど。
529login:Penguin:2007/12/27(木) 00:43:25 ID:rLyRK7d3
530login:Penguin:2007/12/27(木) 01:16:49 ID:K2qSwS4Z
>>528
529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね

ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。
バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。
ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。
531login:Penguin:2008/01/05(土) 15:15:32 ID:MAvpolV9
mdadmの話なんですが現在320Gを6台でRAID5組んでる
んですが、少し容量足りなくなってきたんで1Tを2個
追加して

320>|RAID0(1T)
320>|--------→>|
320>|     

320>|RAID0(1T)
320>|--------→>|RAID5(3T)
320>|

1T-------------→>|

1T-------------→>|

こんなの考えてるんですが、mdだけで構築できますかね?
やっぱりLVM使わないとダメ?
532login:Penguin:2008/01/05(土) 15:48:37 ID:gm0qG86Q
上から順番にmd0、md1、md2として。

もし仮に出来たとしても、md0〜2まで同時にactiveになるけど
その際md2の要素が1つ欠けているわけで、立ち上げる度に
md2のリビルドが発生しないだろうか?

面白そうだから、実験してみては。
533login:Penguin:2008/01/05(土) 17:02:09 ID:MAvpolV9
アレイの組みあがる順番が問題ですよね。
そのあたりデレィさせることができないかな?...と。

しかし、よく4台のHDDでRAID0+1とかで組んでるという
話聞くんですがあれもこれと似たような話のような気がする。
534login:Penguin:2008/01/07(月) 15:40:04 ID:dghccbSz
Virtual PCでやってみた。
まず64MBのパーテション2個をRAID0にしてその後に
128MBの別のパーテション2個でRAID5組んで見た。
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(384MB)
128MB-------------------→>|
結果>OK
ちゃんとmd0作ってからRAID5作成してくれてるみたい。
fstabで自動的にマウントもできた。
それではと、さらに64MBのraid0パーテション追加してみる
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB)
128MB-------------------→>|
64MB> |raid0(128MB)
64MB> |--------------→>|
追加自体は問題なく、パーテションの拡大もできた。
が、再起動すると最後に追加した方のraid0が外れて
Raid5は3セットで動作してる......orz
どうもログ見て見ると単純にアレイ作成順番で認識
してるようで後ろのraid0も起動後はアレイとして
作成されているが、Raid5構築時認識されてないので
外されてしまったみたい。
なんとか、アレイの起動順番変えられないものか...
535login:Penguin:2008/01/07(月) 16:57:20 ID:/TlGVyIM
>>534
mdadm.confの記述を変えるんじゃダメなの?
アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が
mdadm.confなんだからそこを書き換える。
予想としてはmd0から順に起動するだろうから、
新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ
# 当方debianなんで流儀違ってるかもしれない。
536login:Penguin:2008/01/07(月) 17:31:09 ID:dghccbSz
>>534
テスト環境はdebian etchっす。
漏れもそう思って順番変えてみたんだがmdadm.confの
情報はアレイの構成情報じゃなくてモニタリングする
時の比較情報に使うものみたいで、状況変わらなかった。

そもそも
64MB> |raid0(128MB,md2)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB,md0)
128MB-------------------→>|
64MB> |raid0(128MB,md1)
64MB> |--------------→>|

md2→md0→md1の順番で作成してるんだ。
で、md2とmd0のだけの時は問題なかった。

mdadmのアレイ構成情報はどこに記述されてるんだろ。
mdadm.confって無くても動作するし、どこか別の所に
設定されてるはずなんだが、、、、。
537login:Penguin:2008/01/07(月) 18:14:22 ID:/TlGVyIM
>>536
そうか、力になれなくてすまん
/etc/init.d/mdadm-raidあたりを覗くと、
mdadm --assemble --scanとかやった出力を各行で処理してるんで、
ずっとmdadm.confで制御してると思ってたよ

mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock
(構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる
ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……
538login:Penguin:2008/01/07(月) 18:25:08 ID:dghccbSz
>>537
すまんできた。

少し考えれば分かることだがraidの構成はinitdの起動スクリプトは
の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を
md2→md1→md0に書き換えたらOKだった。

initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し
してるみたいね。だから単にmdadm.conf書き換えようが消そうが
raidは構成されるわけだ。

明日、1TB2個買ってきて実機でやってみよ。
539login:Penguin:2008/01/07(月) 18:47:31 ID:/TlGVyIM
>>538
おつ。ちなみにこっちで調べた感じだと、
起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ
(後から作った64MB/raid0はsuper-minor値が大きいので、
/dev/md*の数字が小さくても後に起動される)
initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。
あとで調べてみよう。
540login:Penguin:2008/01/07(月) 18:51:45 ID:6LLk5psJ
>>539
grep mdadm.conf /sbin/mkinitrd
541login:Penguin:2008/01/07(月) 18:54:15 ID:/TlGVyIM
>>540
THX
542login:Penguin:2008/01/08(火) 17:53:05 ID:OGlZLqVZ
スワップ領域って同期する必要ってあるの?
543login:Penguin:2008/01/08(火) 21:32:25 ID:kFPjRcz2
なぜ同期を取らなくても良いと思ったのですか?
544login:Penguin:2008/01/09(水) 09:16:36 ID:nJLLxpTq
バックアップする必要性がないと思ったからです
545login:Penguin:2008/01/09(水) 20:10:34 ID:vhzJqQMp
どうも釣りではなく、真面目な質問のようなのでお答えします。

稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。
もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する
HDDが不良になった場合、SWAPパーティションが見えなくなります。
これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。
試したことはありませんが、きっとkernel panic行きでしょう。

SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても
冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。
結果、OSは問題なく稼動することができます。

システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に
RAID内に含むべきです。

システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを
RAID内に含ませなくてもいいでしょう。

こんな所でおけ?
546login:Penguin:2008/01/09(水) 23:10:36 ID:QSyCJota
>>545
解説乙です。

むかし同じ疑問を持って、起動中にスワップパーティションを
削除してみたところKernel Panicになりましたw それ以来、
まともな鯖の構築では必ずスワップのミラーもするようにしてます。
547login:Penguin:2008/01/10(木) 07:10:57 ID:Xl1xx6Km
それミラーとか関係ないお前のミスじゃん
548542:2008/01/10(木) 09:17:31 ID:Y4ukHsPA
>>545
勉強になりました
分かりやすい解説ありがとうございました
549login:Penguin:2008/01/11(金) 05:10:20 ID:pC8cgKoa
>>547
いちいちレスするのもくだらないですが
ミスじゃなくて実験ですよ
550login:Penguin:2008/01/11(金) 10:15:26 ID:bKTO3W/i
>>549
何にでも文句つけたがる年頃なんでしょう。
脱初心者ぐらいの。
551login:Penguin:2008/01/11(金) 10:31:57 ID:1u4+JVGt
そういった輩はしつこいからスルー推奨
552login:Penguin:2008/01/11(金) 17:00:47 ID:oau76v1R
Kernel Panicとか馬鹿じゃねーの
553login:Penguin:2008/01/11(金) 23:06:14 ID:nnTIF6b/
>1
出直して来い!

って、ちょうど1年前・・・
554login:Penguin:2008/01/14(月) 00:42:46 ID:X6gV4HK4
FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが
ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました
再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます
この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?
555login:Penguin:2008/01/14(月) 09:04:43 ID:6ov9yz32
>554
SATAケーブルが緩んでいる可能性あるかも
外してみて抜けやすかったら寿命
556login:Penguin:2008/01/14(月) 09:10:28 ID:lY+WgiSQ
/var/log/messages見たら、何かログが残ってるんでは?
557login:Penguin:2008/01/15(火) 12:43:56 ID:eGPzviNd
http://www.owltech.co.jp/products/pc_case/PCCHS01/PCCHS01.html
VIA C7のPadLock ACEでTrueCrypt暗号処理 + RAID5とかすると
かっこよさそうだけど、電源がACアダプタ 120Wでは...
558login:Penguin:2008/01/18(金) 10:32:12 ID:Onzb7zVS
559login:Penguin:2008/01/18(金) 22:19:59 ID:/N+doRnf
3ware 9500S-4LPを
構成250G×4でRAID5、Debian etchで使用してます
今はまだ余裕がありますが今後容量が少なくなってきたら
オンライン拡張とやらで
例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか
よくわからないのでご存じの方教えて下さい。
560login:Penguin:2008/01/18(金) 23:31:10 ID:wp/0tR8X
一台入れ替える→リビルド
これを4回繰り返してドライブを全部入れ替える
その後オンライン拡張で増量。
結構手間&ヒマはかかる。

で、増えた分を別パーティションとするなら問題ないけど
ファイルシステムを拡張(既存のパーティションを大きくする)
となると LVMを使ってない場合にはかなり大変。
LVM未使用の場合、一旦全部バックアップを取って、
ドライブ入れ替え→丸々新しくRAID構成→リストア
の方が断然早いし、楽。
561login:Penguin:2008/01/18(金) 23:42:23 ID:wp/0tR8X
ん? 待てよ。
オンライン拡張ってドライブ単位のみだったか?
マニュアル読んでみたけど、
そもそも使用してるドライブに空きがあるという前提は存在しないから…
確実なことは、サポートに聞いた方がいいと思う。

が、俺だったら、一旦バックアップ取ってゼロかやるな。
ほんの数時間で終わる作業だし。
562login:Penguin:2008/01/19(土) 10:41:26 ID:KPd9mEy8
>>561
ありがとうございます
私もよくわからなかったのがそこなんですよ
ドライブ単位の追加だと空きがない時点で
できないですからね。
新たに4ポート以上の物に交換するか
一からやり直すかですね。
563login:Penguin:2008/01/20(日) 12:30:39 ID:Kq5k1NMa
SCSIでRAID組むと高いんですか?
564login:Penguin:2008/01/20(日) 13:03:30 ID:VSFaVtzp
HDD の値段見てみりゃ大体わかりそうなもんだが...
565login:Penguin:2008/01/20(日) 19:43:13 ID:f+pgQsPW
安いよ。
566login:Penguin:2008/01/20(日) 20:35:48 ID:/mh+B85/
バッファローのTeraStationってLinux md?
567鯖”管理”者:2008/01/20(日) 20:50:05 ID:ZhP37dc/
先生方、ご教授ください。
先日、RAID1のDELLサーバのシステムボードが故障したので、電源を落とした。
交換後、電源投入するもOSが起動不可。レジストリが壊れたみたいなmesage
なぜ、こんな事に??RAID1なら、片方おかしくなっても、読み取り可能ディスク
からREADしにいくのではないんですか?
568login:Penguin:2008/01/20(日) 21:50:07 ID:iSaKK8Ey
>>567

RAIDとて、どのディスクをどのような構成で組み立てるのかの管理情報
がいる。管理情報がBIOSか何かのフラッシュなどに書かれていて、それが
飛んだじゃない? その「レジストリが壊れたみたいなmessage」をここに
書いてみ?


>>566

そうだよ。
569login:Penguin:2008/01/20(日) 21:52:27 ID:VSFaVtzp
RAID だから OS に変なレジストリを書けと言われたら、両方の HDD
に変なレジストリを書き込みにいく。

仕様通りですが何か?
570login:Penguin:2008/01/20(日) 22:27:46 ID:Kq5k1NMa
アドバイスお願いします。
RAID10を組んだサーバを、LinuxでデータベースとNAS(というかファイルサーバ)
として運用したいと考えています。
そこで、このマシンはデータ領域専用としNFSを立てて、別途RDBMS、ファイル共有は
マシン(ML115とかの格安機)を用意してデータをNFSで共有する案を思いついたのですが、
こういうやり方ってどうでしょう? パフォーマンス悪いかな
571login:Penguin:2008/01/20(日) 22:39:57 ID:k9dIsucL
RDBMS (Oracle とか PostgreSQL)とかの本体は別マシンで動かし、データ領域だけファイルサーバをマウントして、そこに表領域とかを置くってこと?
遅いと思うよ。

たてる RDBMS にどれくらいの性能を求めるか、同時アクセス数にもよるけど、RDBMS でアホな SQL を投げると
CPU 100% 持ってかれることもあるし、大量の件数をさまざまなテーブルから取ってくるような SQL だとディスクアクセスをもっていかれる。
おれは開発環境では、DBサーバとファイルサーバは物理的に分けてるよ。
572login:Penguin:2008/01/20(日) 22:47:36 ID:M6/8RitH
DBはクエリをon memoryが基本なんじゃないのか?
573login:Penguin:2008/01/20(日) 22:53:04 ID:k9dIsucL
>>572
理想はそうだけど、更新系のSQLも使うし(そのアプリケーションの性格や、一回に更新するデータ量にもよるけど)、
開発やテスト時だったら、export / import もひんぱんにやることもあるだろうから、いずれにせよ
データ領域を NFS 越しに使うというのは、あまりお勧めできないと思う。
574login:Penguin:2008/01/20(日) 23:50:53 ID:VSFaVtzp
> (データベースの) データをNFSで共有する案を思いついたのですが、

実運用なら、まずありえない...
575login:Penguin:2008/01/21(月) 00:12:27 ID:qM82RYen
自分も最初は工エエェェ(´д`)ェェエエ工って感じだったが、
最近はRACなんかだとNASを共有ディスクとして使う例が増えてきている。
SANなどのブロックアクセスに比べて扱いが簡単になるしね。
576login:Penguin:2008/01/21(月) 01:03:14 ID:/80iiPEb
パフォーマンスが云々より,ロックとか問題ないの?
577login:Penguin:2008/01/21(月) 01:10:59 ID:hxdOAtHc
>>576
だからそれをちゃんと意識してるのがクラスタFSって奴。
578login:Penguin:2008/01/21(月) 02:59:00 ID:RnyPYnCW
OracleとかでNetApp等をファイルサーバにしてNFS越しに使うっていうのは
かなり昔からやられていたことだからなぁ
579login:Penguin:2008/01/21(月) 05:24:08 ID:fkuqhVfb
>>570
どのあたりまで共用したいのかによるだろうけど
iSCSIならそんなに遅くならなかったよ
580570:2008/01/21(月) 09:14:01 ID:ABezklEe
>>570です、みなさんどうも
自宅サーバでの運用でそこまでやるものどうかと思ってるんですよね…
581login:Penguin:2008/01/21(月) 10:37:28 ID:qM82RYen
>>577
それはちょっと意味が違う。
クラスタFSの代わりとしてNFSを使う。
クラスタFSは、複数ノードから直接マウントしてブロックアクセスさせるために使うものだし。
582login:Penguin:2008/01/21(月) 18:46:11 ID:Ml+uIs4Z
RAID10をみくびっていた、これはいいわ。
583login:Penguin:2008/01/21(月) 18:56:42 ID:5oPPsRCb
>>582
mdadm?
584login:Penguin:2008/01/21(月) 19:13:44 ID:psEK2uGZ
たしかに金銭面と実装台数と容量の兼ね合いが問題なければ10が速度も安定性もあって一番いいな
何よりリビルド時の故障率の低いし
585login:Penguin:2008/01/21(月) 22:46:15 ID:d8TwXO3z
漢ならRAID0だろ
586login:Penguin:2008/01/21(月) 23:00:49 ID:hxdOAtHc
>>581
ああロックって普通のNFS上のファイルロックの話だったか。
587login:Penguin:2008/01/22(火) 01:50:08 ID:j1simr6K
>>580
iSCSI簡単だよ
md+LVMにiSCSI target LV用意してMacから使ってるよ。
588login:Penguin:2008/01/22(火) 03:49:38 ID:d+IS9wuL
yes
お手軽なので試してみては?>iSCSI >>570
589login:Penguin:2008/01/22(火) 03:53:10 ID:d6P1Z5B2
>>585
RAID0はRAIDにあらず
590login:Penguin:2008/01/22(火) 10:04:27 ID:ByANW+Kw
そーいう揉める元を言わない方が・・・
591login:Penguin:2008/01/22(火) 10:11:08 ID:+9P7njkg
RAID0使うやつは人間のクズ。
592login:Penguin:2008/01/22(火) 13:10:01 ID:ByANW+Kw
だからさぁ
593login:Penguin:2008/01/22(火) 13:56:21 ID:eslKqOkh
あのさぁ
594login:Penguin:2008/01/22(火) 16:33:32 ID:rk9O7CGm
>>589
事実ではあるが
流れ的に
あえて書くことでもない

ネタニマジレス
595login:Penguin:2008/01/22(火) 18:30:28 ID:mkmfUeTP
デスクトップのシステム用のHDDなんかはストライピングだな
週一回自動で鯖にバックアップ取らせてるし問題ない
596login:Penguin:2008/01/22(火) 19:07:13 ID:l4R+Ipoe
バックアップが日曜だったら土曜日にRAID0が壊れる件
597login:Penguin:2008/01/22(火) 19:15:30 ID:mkmfUeTP
システム用のアレイなんか大して大事なもんないからいいよ
ゲームのセーブデータやブラウザの履歴が古くなるぐらいだし
メールもケータイとデスクトップとノートと鯖に同じものが行くようにしてあるしね
困るのは鯖がRAID5なんだがリビルドはすべて新しいディスクにドライブイメージをコピーしてからするようにしてるんだけどそれでも2台目がコピー中に死ぬ可能性があるということだ
598login:Penguin:2008/01/22(火) 20:27:49 ID:igDhRHFt
RAID6 にすりゃいいじゃん。
599login:Penguin:2008/01/23(水) 23:04:52 ID:H/ZtqkUt
>>595
おお、俺がいる。
うちはバックアップのあとシャットダウンするスクリプト書いて
毎日バックアップだけど。
600login:Penguin:2008/01/24(木) 16:46:17 ID:7c4gJd41
カッコンカッコン…
601login:Penguin:2008/01/24(木) 19:35:26 ID:d7j3JduP
アッー!
602login:Penguin:2008/01/25(金) 03:19:34 ID:eST0kDMC
mdadmでRAID10を構築しようと思ってるんだが、
どのディスクとディスクがミラーリング構成になるか指定ってできないんですかね?
sda1とsdb1でストライピング、hda1とhdb1でストライピング、みたいな形にしたいんですが・・・
レイアウトのnearとかfarとかが関係してそうな感じなんですが、英語がわかんね

このアドレス見たけど全然わからん・・・
ttp://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10
603login:Penguin:2008/01/25(金) 09:13:14 ID:Ywyn1H84
>>602
--createで並べた順じゃね?
--create /dev/md0 --level=10 /dev/sda1 /dev/hda1/dev/sdb1 /dev/hdb1
これで -n2 のレイアウトでAAが sda1とhda1, BBがsdb1とhdb1
604login:Penguin:2008/01/25(金) 09:15:26 ID:Ywyn1H84
すまん
>これで -n2 のレイアウトでA1,A1が sda1とhda1, A2,A2がsdb1とhdb1

605login:Penguin:2008/01/25(金) 19:21:32 ID:V+xKWgCR
createしてみればすぐわかることで、しかも直後にやり直せる話なので詳しい話が見あたらないのかもね
606login:Penguin:2008/01/25(金) 20:40:45 ID:eST0kDMC
thx、ちとためしてきまっす
ついでに質問、ディスク4本で容量使用率50%の場合、RAID10、RAID5+予備1、RAID6どれがパフォーマンス一番いいんだろ?
ライト、リード、ランダムライト、ランダムリードあたりがどういう順番になるのかなーと

信頼性はRAID6>RAID5+1>RAID10だとは思うんだが・・・
607login:Penguin:2008/01/25(金) 20:51:52 ID:3TQL9c8W
RAID10>RAID6>RAID5
スペアなんて個人で使うなら使ってもあまり意味がないぜ
1台死んでからリビルドするまではアクセスなんてそんなにしない(できない)だろうし
RAID5で壊れたときの対処としては経年的な寿命の場合リビルドする前に同じ台数の新品のドライブを用意して
そこにドライブイメージを写してすべて新しいドライブにしてからリビルドしたほうがリスクは大幅に減る
吸い出した寿命の近い可能性のあるドライブはヤフオクなり祖父やドスパラで処分すれば新品のドライブ代の少しは回収できる
608login:Penguin:2008/01/26(土) 00:05:54 ID:OimhjIZ5
>>607
プライベートといえど漏洩は困るから、
なるべく中古には流さない運用にしてるなぁ
事実上大丈夫なんだろうけど、可能性は摘んでおく

>>606
信頼性=アレイが壊れない確率ってことだとして、4台構成でランダム選択で壊れるとすると、
RAID10 → 1台目の破損では生存(リビルドのリスク有)。2台目の破損時1/3の確率で死亡(リビルドのリスク有)。3台目の破損時100%死亡。
RAID6 → 1台目の破損では生存(リビルドのリスク無)。2台目の破損では生存(リビルドのリスク有)。3台目の破損で100%死亡
RAID5(スペア1) → 1台目の破損では生存(リビルドのリスク有)。リビルド前なら2台目の破損で100%死亡。

って感じになる。詳しくはリビルド時の破損確率とか、本当にランダム破損か、
とかいろいろ確定しないと。あとコントローラ故障は考えてなかったり、
セクタ単位のエラー検出は確実に行われる、という仮定があったり。
609login:Penguin:2008/01/26(土) 02:06:29 ID:VmtKdJVs
>>608
zero-fillしちゃえばFBI等の専門機関でも厳しいみたいだよ
IBMやHITACHIのドライブならIBMのDiskManagerでさらに強力な初期化コマンドがあったと思う
610login:Penguin:2008/01/26(土) 12:43:25 ID:ShBosd97
6台で10Nしようぜ
611login:Penguin:2008/01/26(土) 17:27:02 ID:nkamkNao
合計ディスク台数が4台で、RAID5+1とRAID6を視野に入れてるなら、大概の用途でRAID10だと思うぞ。
パフォーマンスについても、RAID1要素があれば同時readには強くなるがアクセスが1本の場合には速くならん。
RAID10だとmdのfar/nearのあたり読んだらいいが、作り方によってパフォーマンス特性変わる。
612login:Penguin:2008/01/26(土) 17:59:20 ID:bPajQjx1
パフォーマンスの話する割には、md 前提なの?
613login:Penguin:2008/01/26(土) 18:01:03 ID:mwRJnWKL
U320の15krpmなHDD6台でRAID5マジオヌヌメ
614login:Penguin:2008/01/26(土) 18:19:52 ID:OimhjIZ5
>>609
そうなのかー。情報サンクス。
そのあたり情報収集甘かったから、きちんと調べてみる。
615login:Penguin:2008/01/26(土) 21:53:22 ID:nkamkNao
616login:Penguin:2008/01/27(日) 15:12:51 ID:T5/DDvID
>>612
最近CPUって速いしマルチコアだからね。
617login:Penguin:2008/01/27(日) 18:52:46 ID:yrfH7ugV
wikiの/near/far/offset必死で読んでみました、ついでに他にも読んでみた
間違ってたら指摘よろ

chunkは構成ドライブに順番
nearが同一chunkを連続何回書き込むかのパラメータ
4ドライブでn2なら2回同じデータが書き込まれる(2台でRAID1のイメージ)
4ドライブでn4なら4回同じデータが書かれる(=4台全てでRAID1)

farがドライブ的に遠い所にデータを書き込む処理を何度やるか。その際chunkの順番を変える
(A1 A2 A3 A4だったのを2回目はA4 A1 A2 A3みたいな)
使い道としては
 ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
 chunkの順番が変わるため、アレイ内の破損ドライブ許容数が調整可能
 4ドライブでf4なら1台でも生きていればアレイが崩れない?

offsetがfarを近距離でやるのかな?よくわからん

4ドライブ構成に限って言えば
 n2だと通常の1+0、2台目破損時で1/3で読み取り不可
 n2f2だと1台でも生きていれば読み取り可能
 f3は2台まではどの組み合わせでも読み取り可能、3台目破損時100%読み取り不可
 f4は1台でも生きていれば読み取り可能

パフォーマンスはわからん・・・実際試せば良いんだろうが、VM上でやっても意味無さそう
618login:Penguin:2008/01/27(日) 21:25:28 ID:Zwy096+O
fatの使い道ってそんなこと書いてあった? 流し読みだけど、
>This is designed for rarely-written data; writes are slower because they are scattered, but the first 1/f of each drive is a standard RAID-0 array. Thus you can get striping performance on a mirrored set of only 2 disks.
だから、場所が分散されて遅くなるのでカキコが希なデータ向けだが、各ドライブのfar数分の1の領域はRAID0化されるから例えば2ドライブのミラーリングでもs-readはストライピングの速度期待できるよ
という話じゃないけ。offsetだと場所が遠くなりすぎないのでwriteペナルティは軽減されると。台数分の0相当のread得られるんなら10ユーザは積極的にoffset使えばいいんじゃないかね。

>ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
read err出たらそのドライブごと切り離しそうなもんだがなー
どっからが推測か書いといてw

冗長性の話は実験した方がいいと思うのと、容量1/2未満になるのはどうかと思うわけで、たぶんあまりテストされてないよ。offsetだけでいいんじゃないかね
619login:Penguin:2008/01/28(月) 00:21:35 ID:Bd7bwdVe
ああごめんごめん
シリンダうんぬんは推測で、他はググってるときにどっかでみたんだが・・・
どこだったかまではちょっとわからん

速度は分からんが、ひとまず冗長性だけVMで試してみます
620login:Penguin:2008/01/30(水) 12:49:19 ID:6dHf0JHT
すみません質問させてください。

IODATAのNAS、HDL-GTでHDD4台-RAID5で構成していたんですが、
今日起動しなくなってLED全部が赤点灯状態になり、
データを救いたくてあれこれやってみているところです。

WEB設定画面には入って見てみると、
「RAID崩壊」「ハードディスクのシステムの内容が一致していない」
と出ています。

そこでKNOPPIX機に繋いでmdadmアセンブルモードしようとしましたが、
--uuid指定では「uuidが無い」、/dev/sd[abcd]6指定だと「superblockが無い」と蹴られます。

例のリコンストラクタで取ったイメージファイルにxfsrepair -f してみましたが、
これはエラーで途中で終了してしまいました。
イメージではなく直接ディスクに貼り付けてみても同じです。

ぼくのかわいそうなオツムではこのあたりまでしか思いつくところもなく手詰まりとなっている次第です。
どっか間違ってる部分とか他にやってみることとかありましたらご指摘お願いします。
621login:Penguin:2008/01/30(水) 14:15:06 ID:gOhDQINq
自分は使ったこと無いので基本事項の確認のみ。
的外れかもだけど。

> /dev/sd[abcd]6

HDL-GTのmdはパーティション6番目使うのが普通なの?
622login:Penguin:2008/01/30(水) 16:28:35 ID:p8UdA4TA
今更こっそり>393にレスしてみる。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。

なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
623login:Penguin:2008/01/30(水) 16:29:18 ID:p8UdA4TA
今更こっそり>393にレスしてみる。GParted使用。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。

なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
624login:Penguin:2008/01/30(水) 16:30:02 ID:p8UdA4TA
ぬああああああああああああ二重送信してしまった

ちんこ切ってくる
625login:Penguin:2008/01/30(水) 18:05:47 ID:PeD2J8tS
>>621
> > /dev/sd[abcd]6
> HDL-GTのmdはパーティション6番目使うのが普通なの?

はい、

sda1 204MB
sda2 400MB
sda3 1GB
sda4(拡張)
├sda5 518MB
└sda6 230GB ←ここがRAID5でXFS

このようになっています。
他のパーティーションはRAID1で組まれててext3だったりします。
626login:Penguin:2008/01/30(水) 21:32:01 ID:wxcklNQA
なんか妙にパーティションをたくさん切られてるよね。

普通のmdとは違う実装方法をしていたら、手が出せないよねえ。
627login:Penguin:2008/01/30(水) 22:06:13 ID:wxcklNQA
とりあえず
# mdadm -E /dev/sda6
で状態は見れるんでしょうか?
628login:Penguin:2008/01/30(水) 23:34:24 ID:x5QwYMj+
mdのoffsetとnear試しました(冗長性)

ディスクは全部4台構成(全て2G)

mdadm --create /dev/md0 --level=raid10 --layout=n2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なし
sdc、sddをVMから見えなくする→問題なし
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:1台障害は100%問題なし、2台目障害は1/3の確率でアウト
  やっぱり1台目と2台目、3台目と4台目でRAID1だったようです
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 1 2 2
3 3 4 4
5 5 6 6
7 7 8 8
629login:Penguin:2008/01/30(水) 23:37:26 ID:x5QwYMj+
mdadm --create /dev/md0 --level=raid10 --layout=o2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なしに見えたが、re-addで無限ループになってアウト
sdc、sddをVMから見えなくする→アレイ崩れる
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:sdb、sdeをアレイ崩れとしたら1台障害は100%問題なし、2台目障害は2/3の確率でアウト
 どうも不安定な気がする。sdb、sde意外にもsdcsdeあたりでも変になって再構築してます・・・
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 2 3 4
4 1 2 3
5 6 7 8
8 5 6 7


n3とo3もやりたかったんだが、アレイ構築の最後でVMがハング。うちのバージョンが古いせいかも
推定としてはn3とo3両方2台障害でも100%大丈夫なんだがなあ

o2を使う場合は実環境で事前テストしてください、今回の印象だとどーにも動作怪しい
パフォーマンス差についてもさっぱり。レイアウトから想像すると、o2のほうがn2より早そうな予感がするかなーってところ
630login:Penguin:2008/01/31(木) 12:23:09 ID:SwZ0bbCA
>>627
レスありがとうございます。

全てのディスクで、
mdadm: No superblock detected on /dev/sd*
と出ます。
631login:Penguin:2008/01/31(木) 17:05:31 ID:KV+A+s93
超基本的な質問があるんだけど

2台でハードウエアRAID1組んでて1台が壊れた場合、
残った1台も取り出してSATA→USBケーブルか何かつないで普通にアクセスできる?
632login:Penguin:2008/01/31(木) 17:11:08 ID:KSncdjll
できる
けどHDDがPATAだと無理
633login:Penguin:2008/01/31(木) 17:16:31 ID:KV+A+s93
うほ!即効ありがとう。

じゃSATA使ってる
http://buffalo.jp/products/catalog/item/h/hd-wiu2_r1/
とかなら大丈夫なのか。。買うかな。
634login:Penguin:2008/01/31(木) 19:21:58 ID:jIoJh5GZ
>>630
う〜ん。。。
正直なところダメだこりゃ、と言いたい。

パーティション情報は残っているのにRAIDの情報だけが消去されるってのはおかしな話よね。
壊れているんじゃなくて、何かが誤動作してRAID情報だけを消してしまったのかな?
素直に一度メーカーに問い合わせてみた方がいいかも。
635login:Penguin:2008/02/01(金) 00:10:42 ID:skbei6UK
3wareもしくはその他でハードウェアRAIDが組めるインタフェースカード
安価でおすすめのものを教えてもらえませんか?
動作環境はCentOSでRAID10で運用したいです
636login:Penguin:2008/02/01(金) 01:28:03 ID:r8ITSzIN
>>630 >>634
古い LInux 使ってて /dev/sd** のはずが、 /dev/hd** になってたりして。
637login:Penguin:2008/02/01(金) 10:11:44 ID:gycrWFaA
> けどHDDがPATAだと無理
なぜ?
SATAとPATAって運用上はデバイス名が違うだけだと思っていたのですが…
だとするといまPATAでミラーしてるけど万一を考えてSATAで組み直した方が良いのかな?
638login:Penguin:2008/02/01(金) 10:15:09 ID:EV/CxyDO
PATAにSATA→USBケーブルは使えないな確かに
639login:Penguin:2008/02/01(金) 10:18:14 ID:dBBUm++4
自宅マシンでミラーリングとかお前ら余裕あるなー。
俺はRAID5で精一杯だよ。
640login:Penguin:2008/02/01(金) 11:29:09 ID:r8ITSzIN
>>637
インターフェースが何でもソフトウェアraidなら問題ないよ。
DVD-RAMでやった人もいるくらいなんだから。
ただし、認識タイミングの違いでraid自動認識がこけることがある。
641login:Penguin:2008/02/01(金) 13:11:43 ID:3oRMUEgb
>>635
「安価」っていくら位を想定してるの?
3wareがOKってことは10万以下とか?
642login:Penguin:2008/02/01(金) 13:12:39 ID:GwcDPWoT
>>641
アンカーつけて教えてくださいの意味w
643login:Penguin:2008/02/01(金) 14:43:27 ID:UDB5KdfE
>>639
RAID5組むくらいなら普通に4台マウントさせて
2台分バックアップ用にしたほうがまだマシ。
コエーぞ5は。
644login:Penguin:2008/02/01(金) 14:51:08 ID:3oRMUEgb
何がどう怖いのか詳しくplz
645login:Penguin:2008/02/01(金) 14:51:41 ID:qDeRbLmC
>>643
バックアップはバックアップとして別に用意するでしょ。
646login:Penguin:2008/02/01(金) 15:07:40 ID:myloF96k
もしかして、RAIDがバックアップ装置の代わりになると思ってると思ってるヤツがLinux板に居るの?
647login:Penguin:2008/02/01(金) 15:09:46 ID:N4C2bCGe
>>644

一台死ぬ→raid5だから平気さ(w。
入れ替えてリビルドする→生き残りの全てが高負荷状態に。
raidの仲間はたいてい同じロットの同じ製品。一台が死ぬころ
にはみんな寿命が近くても不思議ではない。
生き残りのうちの一台が……
全滅orz。

ってことが起こりやすい。っていうか割と起きる。

リビルド時に負荷がかかるのが、生き残りのうちの片割れな、
10の方がそういった意味では安心。
648login:Penguin:2008/02/01(金) 15:10:28 ID:3oRMUEgb
怖いかどうかはともかく、大容量のドライブがここまで安くなってしまうと、
台数が増えるほど有利になる RAID5 の価値が低下してるのは確かだね。
同じ750GB 4台なら 3台でRAID5 + 1台 spare より
RAID1 + 0 の方が速度も安心感もあって使える容量は同じ 1.5TBだもんね。

RAID5が有利になるのは 5台以上で構成する場合だろうけど、
個人の利用ではそんなに容量デカくする必要ない人が多いだろうし。
まぁ今現在なら 500GB×5 で RAID5 + spare という選択肢の方が安いのは確かだけど、
750GBのだってすぐに安くなるだろうし。
物理的な台数は少ない方が故障発生率も下がるし。
649login:Penguin:2008/02/01(金) 15:13:50 ID:N4C2bCGe
>>647
訂正。

>>644
上にスクロールしてみろ。
650635:2008/02/01(金) 15:15:13 ID:skbei6UK
>>641
やっぱり10万くらいになってしまいますか
安価とはいえ、5万以内には収めたいと思っているんですが、ちゃんとしたハードウェアRAIDで1+0を組んでみたいと思っているので、
10万ほどなら予算を用意したいと思います。
651login:Penguin:2008/02/01(金) 15:15:42 ID:3oRMUEgb
>>647
「割と」起きる?
俺は一度も経験したことないな〜。
3wareのハードウェアRAID5構成のPCが
4台24時間稼働してるけど。

もっとも、ハードディスクをまとめて買うときは
最低でも最低2軒以上で分けて購入してるけどね。
652login:Penguin:2008/02/01(金) 15:16:39 ID:3oRMUEgb
ありゃ「最低」一つ消し忘れw
653login:Penguin:2008/02/01(金) 15:17:53 ID:myloF96k
>>650
とりあえず、誤爆を謝罪してこい
654login:Penguin:2008/02/01(金) 15:18:44 ID:3oRMUEgb
>>650
いや、なってしまいますか、ではなく、
予算とかスペック(必要なポート数など)とか分からんと
誰にも答えられないよ、と。
655login:Penguin:2008/02/01(金) 15:21:22 ID:r8ITSzIN
>643
リビルドの速度制限しとけば、それほどでも無いと思うがなあ。
656login:Penguin:2008/02/01(金) 15:21:49 ID:N4C2bCGe
>>651
幸運なだけかと思ったら、

> もっとも、ハードディスクをまとめて買うときは
> 最低でも最低2軒以上で分けて購入してるけどね。

しっかり気をつかっていらっしゃるのですね。
見習います。
657login:Penguin:2008/02/01(金) 15:24:43 ID:r8ITSzIN
>648
4台でraid5なら2台容量1台スペアより
普通に3台容量の構成にするだろjk。
658login:Penguin:2008/02/01(金) 15:26:30 ID:3oRMUEgb
>>656
あと、これは当然のことながら、RAIDでは「サーバー向け」のドライブしか使わない。
以前なら Maxtor の MaxLineシリーズ。
最近は Seagate の Barracuda ESシリーズ。

「4台」のうち、一番古くから動いてる PCは 丸5年くらい稼働させてるけど、
rebuild中のトラブルでデータを失ったことは一度もない。
659login:Penguin:2008/02/01(金) 15:27:47 ID:3oRMUEgb
>>657
それこそ危険極まりないと思うけど。
RAID使ってる意味がほとんど意味がないような。
660login:Penguin:2008/02/01(金) 15:28:14 ID:3oRMUEgb
あ〜〜〜またダブった!!!
落ち着け > 俺
661login:Penguin:2008/02/01(金) 15:39:25 ID:r8ITSzIN
>659
一台死んでも余裕があるよ。リビルドのリスクに関しては >655
662login:Penguin:2008/02/01(金) 15:46:24 ID:3oRMUEgb
俺が気にしてるのは rebuild ではなく、 degraded のリスクなんだけどね。
ドライブが故障したとき、「即座」に次のドライブが入手できるか分からんので。
要するに、故障した時点でスペアのドライブを買ってくるか、予め買っておくかの違いだよね。
ケチケチしないで、一台くらい余分に買っておこうよ。せっかくRAID使うんだったら。

ドライブの大容量・低価格化時代でのRAID5の一番のメリットは、
容量不足になったとき、柔軟に容量増加が可能である、ということだと思う。
後で容量が不足する可能性があるならば、
スタート時点には無駄と思える「4台でRAID5 + spare」にも意味がある訳で。
(後で5台、6台と増やすことを前提に)
663login:Penguin:2008/02/01(金) 15:48:48 ID:o1JkhWu7
>>662
なんでそれをRAIDのフレームワークでやらにゃならんの?
lvmがあるのに。
664login:Penguin:2008/02/01(金) 15:50:41 ID:3oRMUEgb
RAIDとLVMは用途が全然違うんだけど?
当然RAID上にLVMですよ。
でないと「柔軟に容量変更」できないじゃん。
665login:Penguin:2008/02/01(金) 15:58:45 ID:r8ITSzIN
>662
自分は500Gディスクなら十進数の500Gを狙ってfdiskで毎回
パーティション確保して、それからraid構成してるので、
少なくとも「メーカーやモデルによる容量の差」が原因の
入手性で問題出たこと無いよ。

他に入手性に影響のある要素ってあるだろうか。
666login:Penguin:2008/02/01(金) 16:02:01 ID:o1JkhWu7
>>664
すまん。じゃ、RAID5のメリットをもう一度別の表現で説明してくれないか。
667login:Penguin:2008/02/01(金) 16:15:09 ID:dBBUm++4
RAID5にスペア用意するぐらいならRAID6でいいんじゃないの?
668login:Penguin:2008/02/01(金) 16:19:29 ID:r8ITSzIN
>667
だよね。
管理の手間が単純化できるし、デグレードしたからといって
急にゴリゴリする必要もない。
669login:Penguin:2008/02/01(金) 16:24:39 ID:3oRMUEgb
>>665
例えば「今出張中で、帰るのは一週間後」てのは?
クソ忙しくて再来週末まで買い物なんか行く暇がない! なんてことはよくあるのでは。
俺は東京在住だが、「サーバ向け」のドライブはやっぱりアキバ以外ではあまり置いてない。
(あってもゲロ高い)
地方に住んでりゃもっと大変だろうね。
あるいは「給料前で金がない」とかw
「すぐに入手できない」状況なんていくらでも思いつく。
hot spareはその間ハラハラしないで済む保険代だと思えばいいのでは。

容量については、最悪ひとつ大きいのを買えばいいんで
確かにあまり問題にはならないでしょう。
670login:Penguin:2008/02/01(金) 16:25:34 ID:3oRMUEgb
>>666
このスレ頭から読み直してください。

>>667
まぁそうだね。
話の流れが >>639 (ミラーリング : RAID5)から来てるだけで。
671login:Penguin:2008/02/01(金) 16:30:45 ID:r8ITSzIN
>669
サーバ向けね。確かにそれだと入手性はあるかもな。
半日〜二日ほどデグレード状態でドキドキってのも
そりゃあったし。
672login:Penguin:2008/02/01(金) 17:10:17 ID:dBBUm++4
なんかだんだんRAID6にしたくなってきたなー。
mdでRAID5から移行できればいいのに。
673login:Penguin:2008/02/01(金) 19:45:04 ID:qr3ykgm1
俺はHPの6連装DDS4ドライブつけてるから、RAID5でも別に怖くない。
オートチェンジャーとして動くようにスクリプトも作ったし。

一度だけHDDが壊れたことがあったけど、HDD交換する前にすかさず
dumpでバックアップ取った。
いいよDDSいいよ。

最近LTOが欲しいけど。
674login:Penguin:2008/02/01(金) 20:52:08 ID:wB5OamBS
ここの香具師らはペンギン板だからソフトウエアRAIDだよな?
それならRAID5でリビルド時の負荷を軽減させたければ寿命と思われる一台目が死んだときに同数のHDDを用意して一旦アレイを解除してドライブ単位でデータを写せばいい
そして欠落している一台分は古いドライブでリビルドして御役御免で売っぱらう
この際に二台目が死んでも新しいドライブのデータでリビルドすればいい
この方法の欠点は多少コストがかかることと一旦データがオフラインになるということだな
でもリビルド時のリスクはRAID1並に下げられるから個人的には十分な費用対効果が期待できると思う

俺もDDSでバックアップとりたいけどデータ量が多すぎてとりきれない…
小さいデータで重要なものはDDSとMOでバックアップしてる
675login:Penguin:2008/02/01(金) 21:56:38 ID:qr3ykgm1
自分のは使用量1TBくらいだけど、6連装DDSドライブを使えば割と快適にバックアップ取れるよ。
19時くらいにマガジンをセットして、dumpスタート。
テープエンドを検知したら次のテープを自動的にセットするようにスクリプト書いたから。
朝には6本全て使い切っててマガジン吐き出して、次のテープをセットしたマガジンをセットして
会社に行く。

会社から帰ったらまたマガジンを変えて翌朝にまたマガジンを変えて・・・。
だいたい2日くらいあればバックアップできる。
ずっと家に居れるんなら、もっと早く終わるとは思うけど。

ヤフオクで内蔵型を5000円くらいでゲットできたから、うれしくてね〜。
676login:Penguin:2008/02/02(土) 03:25:38 ID:zu1IjSu5
>>674
移動先のドライブに負荷かけたテストしてないと、
かえって初期不良に当たりやすくなる気がするが。
677654:2008/02/02(土) 12:56:37 ID:XKGlbsjJ
すみません、予算などをまとめると
総額10万以内、PC本体、メモリ増設、ハードウェアRAID(RAID10)、ポート数は予算が許す限り、HDD数も予算が許す限り
で考えています。日本市場や米国市場、為替の歩み値をデータベース化してそれを分析するシステムを構築
したいと考えており、そのデータベースサーバとして利用する予定です。
どのような選択肢があるかアドバイスいただけると幸いです
678650:2008/02/02(土) 12:57:53 ID:XKGlbsjJ
すまんす、先ほどの書き込み主の名前まちがってた。。。
さらには >>654 と書きたかったのです。
679login:Penguin:2008/02/02(土) 14:56:08 ID:5kGyMDx4
>>675
RAID使ってると容量いくらでもデカくなるから
バックアップの手間が一番の問題だよな。
HDDひとつ1TBが普通の値段で買える世界がもう目の前。
「RAIDで5TB」とかなったらどーすりゃいいのやら。
weekly backup に丸一週間かかったりw
680login:Penguin:2008/02/02(土) 16:55:21 ID:1dBAN3yO
せめて500GBくらい入るバックアップメディアが出てこないかな…
681login:Penguin:2008/02/02(土) 17:00:32 ID:C9Eze2Tn
テープより同容量のHDD用意したほうが安いんだよな…
682login:Penguin:2008/02/02(土) 17:03:12 ID:1dBAN3yO
でも使ってないHDDって結構な確立で駄目になるんだぜ
683login:Penguin:2008/02/02(土) 17:36:53 ID:aGzNkUCj
使ってないテープも結構な確率で腐るけどな。
ただHDDと違って全体が死ぬことはほとんどないが。
684login:Penguin:2008/02/02(土) 17:44:44 ID:1dBAN3yO
5インチでもいいから100GBのMOとか作ればいいのにな
まぁすでに見捨てられてる企画だけど…
685login:Penguin:2008/02/02(土) 17:54:05 ID:YmD5twGO
そろそろバックアップ用にBlu-ray導入したいな
686login:Penguin:2008/02/02(土) 17:59:24 ID:1dBAN3yO
ブルーレイってDVD並みの保存性しか無くないか?
それじゃバックアップの意味が無いじゃん…
687login:Penguin:2008/02/02(土) 18:06:11 ID:Fp6g3h3i
BDは容量少なすぎ
HDDのバックアップ先はHDDしか無いよ
688login:Penguin:2008/02/02(土) 18:43:50 ID:YmD5twGO
>>686
バックアップは定期的にね

>>687
基本は俺もそれだが
バックアップのバックアップにDVDではそろそろ限界かなと

スレチっぽいのでこの辺にしておきますね
689login:Penguin:2008/02/02(土) 18:53:06 ID:KheaAcBM
690login:Penguin:2008/02/02(土) 19:20:15 ID:Nrwh2fxn
>>689
医者池。
包茎専門より、ちゃんとした泌尿器科がいいよ。
691login:Penguin:2008/02/02(土) 19:25:27 ID:C9Eze2Tn
1TBクラスの光学メディアが欲しいところだな。
692login:Penguin:2008/02/02(土) 20:24:51 ID:3iuPL0zl
>>628-629
実証GJ

>>651
職場でならSCSIなRAID5がスペアに移行した直後お亡くなりとか、
スペア無しアレイでバカSEが復旧とちってお亡くなりとかなら経験ある。
目的がサービス止めたくないことなのか、データが大事なのかで話が違うだろうよ。
まパフォーマンス低下で実際上止めざるを得ないとかはよくあることだw
データに関してはバックアップ工夫しろとしか・・・

>>658
コスト次第。お金あるなら保証付きの箱のほうが安全だし、
キャッシュ系のマシンならSATAの安いのでいい。
高耐久ドライブでRAID5より安物でRAID6の方が安価で安全なこともある。
環境によってはSCSIドライブでも簡単に死ぬしね。
693login:Penguin:2008/02/03(日) 02:24:34 ID:mkL95ztR
RAID5のHDDが2台同じタイミングで壊れるって言うのは、交換時の作業者のミスだと思う。
ずっと寝かせたままだったHDDを横に向けたり、角度を変えたりすると、確かに壊れやすい。
しかし、いまや5年保証までつくHDDが、一台壊れたからと言って、
外部要因無しに同時に壊れるとは考えにくい。

つまり一台壊れたときには手も触れずに外付けのHDDを接続してコピれば問題ないと思うんだが。
694login:Penguin:2008/02/03(日) 10:26:28 ID:OLFvr5xO
確かに通常の運用ならば2台同じタイミングで壊れるってことは、まず起きない。

ただしRebuild中にOnlineなHDDに不良セクタが見つかってRebuild失敗というのはある。
同じタイミングで複数台のHDDが壊れるシチュエーションは電源ONのタイミングだね。

もしくは1台のHDDが変な壊れ方をして、SCSIのバスロックが発生してしまい
同一SCSIバス上のHDDがRAID-CもしくはOSと通信ができなくなってしまって
全てのHDDがFault扱いになってしまうか。
695login:Penguin:2008/02/03(日) 11:38:23 ID:EJ7i8gH6
セクタ数は爆発的に増えてるからな
696login:Penguin:2008/02/03(日) 11:52:53 ID:mkL95ztR
>694
そう。つまり電源ON/OFFとか、HDDを傾けたりとか、結局物理的要因がない限り
2台同時になんてありえないと思うわけですよ。
壊れた後の復旧方法以上に、そういうもっと重要な知識が無い人が多いと思った。
作業者がそのことをわかっていれば、電源OFFなんてしないでコピーするでしょ?

SCSIのバスロックですか。確かにそれはどうしようもないですね。
697login:Penguin:2008/02/03(日) 11:54:48 ID:q+AQxgRs
バスのせいで全部吹き飛ぶのはどのRAIDレベルでも避けようがないわな
698login:Penguin:2008/02/03(日) 12:55:27 ID:7yh5v0Sl
壊れる前に定期的にHDDを入れ替えて、製造ロットを適当に分散させるのが良いと思う。
699login:Penguin:2008/02/03(日) 12:57:22 ID:+cGxDGKE
ていうかリビルド時「不良セクタがありましたのでOFFLINEにします」
って判断はRAIDボードなりソフトウェアRAIDが判断するんであって、
リビルド時に初めて(もしくは久しぶりに)アクセスするからそういうことが起きるんだと。
で、それ以前に見つかるように定期的に全セクタチェック走らせて、不良あったら即HDD交換。
これなら1台壊れてリビルド発生しても同時に2台目が逝ってRAID崩壊の率はかなり減るんじゃないかと。
それでもREADエラーとWRITEエラーは別だからアレだけど。

・・・という考えで3年運用してるんですが突っ込みどころあったらご教示下さい。
700login:Penguin:2008/02/03(日) 13:23:50 ID:jeuHPgfo
いいんじゃない?
定期的なドライブのローテーションも効果あるだろうね。
701696:2008/02/03(日) 13:25:39 ID:mkL95ztR
>699
いいと思うけど、不良セクタがあっても普通に動くから
ちょっと贅沢な使い方だと思った。
702login:Penguin:2008/02/03(日) 13:27:21 ID:FPEcH9J9
RAID5+1でおk!
703login:Penguin:2008/02/03(日) 13:28:07 ID:FPEcH9J9
>>701
サブバックアップ用としてでも活用するかオクなり祖父に売れ
704login:Penguin:2008/02/03(日) 13:40:00 ID:OLFvr5xO
MegaRAIDとか日立のSANRISEとかみたいに、ある一定の周期で
HDDのサーフェイステストをする仕組みが欲しいよね。
そうすればRAID5でもかなりの信頼性をあげることができるんだけど。

SCSIのバスロックでステータスがFaultになるのは、悲しいけれど時々ある。
このスレにCEが居たら、「俺経験あり」って人がいるんじゃないだろうか。
705login:Penguin:2008/02/03(日) 16:18:41 ID:DGf+HCP2
HDDを同時に実装してArrayを作るから
HDDの劣化度は同じだじゃね。
RAID5なら1台死んで負荷が上がれば、2台目も死ぬと。
706login:Penguin:2008/02/03(日) 21:05:16 ID:2lFvuSaN
ここ数日のスレを読んでて、LVMとmdのいいとこどりをしたような何かが欲しいと
思った。

だが作る実力はない。。。
707login:Penguin:2008/02/03(日) 21:36:59 ID:cKmDQueJ
>>706
ZFS
708699:2008/02/03(日) 23:27:50 ID:/V4l36Hy
>>700さん
ありやとやんした。
ローテやってなかったんで検討します。
>>701さん
いまんとこ怖いんで>>703さんの方法を採ってます。
>>704さん
あらまMegaRAIDてサーフェススキャンやってくれるんですか-
ちょうどボード一枚買おうと思ってたんで逝ってきます。

周りに相談出来るよなエンジニアさんいなかったんで助かりました。
皆さんありがとうございました。
709login:Penguin:2008/02/04(月) 01:31:45 ID:+0aP9ie6
どこか、パーソナルVTS出してぇ。
710login:Penguin:2008/02/04(月) 06:47:08 ID:gy3CgsMy
「mdでRAID5構成で、全セクタチェック」
という話は繰り返し出てきますが…

実際のところ、具体的にはどうやって行なうものなのでしょうか?
711login:Penguin:2008/02/04(月) 07:22:58 ID:TY83kMjq
やってはいないけど、mdがofflineの状態のときに
# dd if=/dev/sda of=/dev/null bs=1024k
とかでRAID要素のサーフェイステストをするくらいかな。

もしエラーがあったら、mdをonlineにしてバックアップ。
その後に手作業でその要素をfaultにしてhdd交換。

できればmdの機能としてHDDのサーフェイステストを実装して欲しいなあ。
712login:Penguin:2008/02/04(月) 08:11:34 ID:Q5KXQV/l
>>710

これじゃだめ?
>>492-493
713login:Penguin:2008/02/04(月) 20:02:26 ID:TY83kMjq
>>712
すごい。
こんなのがあったんですね。

現在やっています。
speedは20900K/secって出ています。
速いんだろうか?遅いんだろうか?
714login:Penguin:2008/02/05(火) 00:26:38 ID:j6rJkT89
誰かARAID2200の発売日知らない?
2月発売としか書いてないから気になる
715login:Penguin:2008/02/05(火) 02:18:51 ID:2CYEafF8
>>714
ARAID2000ユーザーだけど、良くなった点はどこ?
あれW/Bなので遅いよぉ。安全だけどw。
VFSのキャッシュはUPSで保護する必要はあるけどね。
716login:Penguin:2008/02/05(火) 02:22:14 ID:2CYEafF8
>>715
あごめん。W/Tでしたね。書き込み確認しないとI/O返してくれないのはw。
717login:Penguin:2008/02/05(火) 13:35:36 ID:bPmvBD8x
>696
>2台同時になんてありえないと思うわけですよ。

思うのは自由だ、うん。
718login:Penguin:2008/02/05(火) 13:45:33 ID:3+aWy1p5
だから、そういう煽るようなことを書かないの!
719login:Penguin:2008/02/05(火) 22:24:03 ID:j6rJkT89
>>715
チップが変わった
&UIを別チップで処理するようになった
結構な大幅変更だぜ
720login:Penguin:2008/02/06(水) 01:18:05 ID:eqVT3L8P
>>706
物理ボリューム層
論理ボリューム層
の2層で管理する思想はご存知?
ストレージ専用機(NASやSANストレージ)のエンタープライズ向けはこの思想がほとんど。

この思想に乗っかると適材適所という言葉も浮かぶ。
721login:Penguin:2008/02/06(水) 02:00:51 ID:/VmRasag
すでにLVMが君が言うところの物理ボリューム層論理ボリューム層に分かれていて、
物理ボリューム層とmdでできることは十分に被ってるんだよ。
LVMのPVOLではコンカチしかできないから、mdが必要となっているだけで。
722login:Penguin:2008/02/06(水) 04:05:45 ID:EE+VEkuv
>>721
そだね。mdとLVMとは機能がかぶりまくっている。かといって、いまさらその辺の
機能の再構成をするわけにもいかないだろうしなぁ。

とか思っていても、Linuxのことだから大幅に変更してくる可能性はあるか。
しかも、斜め上の方向に。
723login:Penguin:2008/02/06(水) 10:00:11 ID:jVXLMw1N
過去にはEVMSというのもあった。
724login:Penguin:2008/02/06(水) 10:39:54 ID:t+5LNVrW
てか思想なんて大仰な言葉を持ち出す時点で
そいつはよく分かってない人だろ。
725login:Penguin:2008/02/06(水) 10:41:32 ID:t+5LNVrW
>>724
IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。
726login:Penguin:2008/02/06(水) 10:42:16 ID:t+5LNVrW
アンカー間違えた。


>>723
IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。
727login:Penguin:2008/02/06(水) 23:38:38 ID:Qs3PPl0i
>>706
Veritas Storage Foundation Basic
http://www.symantec.com/business/theme.jsp?themeid=sfbasic

ストレージが足りなくなってからHDDを一個ずつ足して、全HDD容量の合計÷2の容量のRAID1として使えないこともない。

使い始め: 200GB + 200GB → 200GBのRAID1
320GBを買ってきて追加: 200GB + 200GB + 320GB → 360GBのRAID1
500GBを買ってきて追加: 200GB + 200GB + 320GB + 500GB → 610GBのRAID1
200GBが故障しそうなので取外し: 200GB + 320GB + 500GB → 510GBのRAID1

っつう感じ。

ただ、使えるLinux distributionが限られているのがアレだな。
728login:Penguin:2008/02/07(木) 00:07:05 ID:kF+/kUpL
>>721
LVMはボリュームの自由度を上げるものだから、可用性の部分は
無理してLVMにせず素直にmd使った方がいい、とは思うけどね。
まあ多分に好みかも。
729login:Penguin:2008/02/08(金) 00:55:42 ID:aD0bAbyD
          /:::|:::::::|:::::::::::::/::::::/::::::::::::::/:::::::/`\_
       / ̄\::::::|:::::/:::......-―――--..........__/:::::::::::::::\
   ┌ー ̄::::::::::::ヽ::|:::..-^ ̄            ^ ヽ、:::::::::\
   ヽ::::::::::::::::::::::::::::/                  \::::::::ヽ
    ヽ:::::::::::::::::::::::/             ::::       \:::::ヽ
    ヽ::::::::::::::::::/              ::::::::        \::::|_
     ):::::::::::::::|              ::::*:::::        ヽ:|::::ヽ
     /::::::::::::::::|              ::;;;;:          l::::::::ヽ
    /::::::::::::::::::|             ノ::ii:ヽ::          l::::::::::|
    |::::::::::::::::::::|            /::::;リ:::l::::         |::::::::::::|
    |:::::::::::::::::::::l           ...l::::;リ:::/::         /:::::::::::::|
    .|::::::::::::::::::::::l          . /:ア/:::        /:::::::::::::::i
    l:::::::::::::::::::::::::l          ./::`^:::::        /:::::::::::::::::/
    ヽ::::::::::::::::::::::::l         /::::::::::        /:::::::::::::::::::/
     /:::::::::::::::::::::::l        /:::::::::::::      /::::::::::::
    __ __ __ __       __     __       __
    `i  | | i'l_i'l_i'     i''´ __`ヽ-ッ _コ  l____ i´__`ー-ッ  _,,.、
     ,!  ,! .l l   _,,,_   └'´__ ``´ レ┐ ┌─┐ ,!'´ ``´ /,r''´
    / 丿 '、'、 l´ __`ヽ-ッi''´__`ヽ-ッ  .l  l  ノ /     / /
   / /   ヽ ヾ´  ``'´└'´,,_``'´   l └ ' ,/   ___,,ノ /
_,,.r'' /      \ `>  r'"´   ``ヽS.) l  「´    「´    _ノ
‘''' ´           `′ └ ''´ ̄``‐-‐'' └ ┘   └‐ '' ´
730login:Penguin:2008/02/11(月) 00:38:18 ID:2LOosLJ3
>> 714

2/18日以降だそうです。
731login:Penguin:2008/02/14(木) 23:42:09 ID:0SxRJSvx
自分は対象にならないだろうと思ってましたが、
RAID5のリビルド中に他のHDDが死ぬ事象を経験しました・・・

今後の対策なんですが、RAID1にしたとしても
片肺になった後、復旧のリビルドかけなきゃならないのは同じですよね?

RAID1もRAID5もリビルド中のリスク自体は同じで
RAID5は単純に壊れる可能性のあるHDDの台数が多いってだけのような気がするんですが、
リビルド時のHDDのアクセスの仕方って、RAID1とRAID5では大きく異なるんでしょうか?

よく考えてみればRAID1の方がシーケンシャルに読むだけで
RAID5はランダムアクセスになるので負荷が高くなるような気もするんですが
実際のところはどうなのかピンと来ないもので。
732login:Penguin:2008/02/15(金) 07:53:53 ID:KVKrbsHP
そのRAIDサブシステムがRAID6をサポートしているのならば
RAID6にするがよろし。
733login:Penguin:2008/02/15(金) 10:23:06 ID:BRBF3NL2
3重RAID1という手もあるよ
734login:Penguin:2008/02/15(金) 16:42:52 ID:cmWvzBOb
要するにアレだ
壊れるときはどんだけ頑張っても壊れるんで
ここはスッパリとRAIDなしの方向で
735login:Penguin:2008/02/15(金) 21:33:26 ID:3J9xJSqX
リビルト時はシンクロ速度落としてやさしくシンクロさせるのだ。
736login:Penguin:2008/02/15(金) 21:34:37 ID:Kxay7Pc2
処女のドライブに無理させちゃいけないよw







まぁ壊れるのは古いドライブだが…
737735:2008/02/15(金) 21:44:27 ID:3J9xJSqX
あと、リビルド時の負荷で読み取りエラーが出て
raid崩壊したように見えても、実はデータ自体は
無事な場合もある。

可能ならば -f オプションだっけ、デグレード状態で
強引に新規構成して(ダミーディスクが必要かも)
シンクロなし、ファイルシステムのフォーマットなしで
fsck をしてみるべし。
738735:2008/02/15(金) 22:11:25 ID:3J9xJSqX
ただしダミー必須でかつ新規構成では勝手にシンクロを
始める仕様だと、問題発生の可能性があり。

自分の場合、ダメになった最初の一台は読み取りエラー多発で
デグレード状態になった。
リビルド中にもう一台が負荷による破損でraid完全死亡。
そこでダミー挟んで新規構成、破損した一台は後で新しい
ドライブ補充でゆっくりリビルド。
だったので特に問題なかった。

しかし一般的には。

新規構成した途端に勝手にシンクロ始めるようだと
無事なドライブの無事なチャンクをダミーに入っている
値を含んだ「汚染された」パリティ値で、正常だった
パリティチャンクを上書きする可能性がある。


要はなにが言いたいかと言うと、
不要ドライブによる予行演習が必要って事。
739login:Penguin:2008/02/16(土) 02:07:03 ID:AuyL7bik
というより、なぜRAID5なのに、いきなり復旧しようとすんだよ。
RAID5ならば、そのまま読み込み可能なのだから、一度どこかにデータをコピーするべきじゃないの?

RAIDの復旧なんて、そんなに何度も経験ないと思うし、
(ソフトウェアの)復旧の精度だって怪しい。
エラーが起きた場合にはとりあえずコピーすれ。
740login:Penguin:2008/02/16(土) 02:50:30 ID:M3gQgdAt
質問です

フラグを付けずにRaidを外すのは危険ですか?
-f をやらずに -r するのは危険?
741login:Penguin:2008/02/16(土) 05:31:03 ID:dXUJmQMO
80GBx2でRAID0すると使用可能な容量は80Gじゃなくて160Gでok?
742login:Penguin:2008/02/16(土) 05:45:09 ID:a7+r0Lzc
RAIDのイロハから調べ直せ
743login:Penguin:2008/02/16(土) 10:18:15 ID:YhN3CkZR
>>730
データをコピーするのもリビルドするのも危険性は一緒。
744login:Penguin:2008/02/16(土) 12:15:16 ID:QgDn6KX6
RAIDカードスレで質問すると怒られそうな流れだったので、こちらに質問させてください。
RAID組んでLinux鯖を運用してる人って、/bootやOSはどこのパーティションにインストールしてるんでしょうか?
HDD4台で組もうかと思うのですが、4台すべてをRAID(10化)にしてここにすべてインストールしても
パフォーマンス的にはOKなのでしょうか? または、別に一本OS用のHDDを使ってるとか?
どこかのスレだと「/var/logは別がいいよね」と言ってる人もいたり。
745login:Penguin:2008/02/16(土) 13:19:27 ID:AuyL7bik
そもそも、そのRAIDカード上にルートファイルシステムのインストールはできるのか?
できるのならばパフォーマンスもあがるし、やるべきだ。

/var/log はサイズが大きくなるからってことじゃないかな?
/var/logなんていつでも移動できるから、あんまり気にする必要はなし。
746login:Penguin:2008/02/16(土) 13:27:11 ID:QgDn6KX6
なるほど。ハードウェアRAIDであればマシン・OSにとってみればひとつのHDDに
見えるので、ルートファイルシステムをインストールできるのでは?と思ってました。
ソフトウェアRAIDだと仕組み上やはりムリそうですね。

はやくRAIDマシン組んで巨大なNFS鯖作りたいなあ。他のサーバの設定やコンテンツ、/var/logなどのデータを
集中管理したいんです。バックアップもしやすいし。
747login:Penguin:2008/02/16(土) 13:37:19 ID:YhN3CkZR
> /var/log はサイズが大きくなるからってことじゃないかな?

プログラムや設定によるけど、/var/log にガンガンログを吐く
プログラムだと、/var/log のディスクとデータを扱うディスク
と分けて I/O ネックを回避することはある。
748login:Penguin:2008/02/16(土) 14:54:31 ID:TWToK0Vy
>>746
$ df /
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md1 244116192 228998376 15117816 94% /

ですが何か?まあ言わんとすることはわかるんだけど書きたくなった。
749login:Penguin:2008/02/16(土) 14:55:35 ID:QgDn6KX6
>>747
ってことは、/var/logをNFS使ってログサーバ溜まるようにマウントしてたりしたら、
ものすごいパフォーマンスは悪くなるってことだね
750login:Penguin:2008/02/16(土) 17:10:45 ID:YhN3CkZR
>>749
[ここ重要] ⇒ >>747 プログラムや設定によるけど
751login:Penguin:2008/02/16(土) 18:13:58 ID:8JTLkDgS
> ソフトウェアRAIDだと仕組み上やはりムリそうですね。
インストール時にドライバ組み込めば出来る。HW RAIDと同じ
752login:Penguin:2008/02/16(土) 19:19:52 ID:spUQqV6H
最近のインストーラなら大抵対応してないか?>root fsがRAID
753login:Penguin:2008/02/16(土) 19:33:18 ID:jT4G/Hbn
対応してるよ。

だけどGrubをミラーの相方にインストールしてくれないという片手落ち。
どうせなら、そこまでやってくれよと思う。
754login:Penguin:2008/02/16(土) 19:50:02 ID:spUQqV6H
パーティションの先頭にGRUBいれて、そのパーティションをアクティブにマークして
ブートセクタにはMS-DOSブートローダつっこめばおk
755login:Penguin:2008/02/16(土) 20:04:50 ID:jT4G/Hbn
おお!その手がありましたか。

ん?でも、mdってパーティションの中身だけではなく、PBRも含めて
ミラーの対象にしてくれるんですか?

今度実験してみませう。
756login:Penguin:2008/02/16(土) 20:23:29 ID:QA952r8C
PBRもパーティションの中だろ
757login:Penguin:2008/02/17(日) 01:02:48 ID:i5d+mHPz
root fsはARAIDみたいな何も考えなくていいところに入れてるけどなぁ。
救出したくても手が打てないのは痛いし、
家だけど、bootable cd もって鯖置き場まで逝くのは面倒だし。
758login:Penguin:2008/02/17(日) 09:28:36 ID:EeCPJ2/d
bootable cd コピーして、鯖のところにおいて置けばいいだけじゃん。

もしかしてバカ?
759login:Penguin:2008/02/17(日) 11:11:40 ID:i5d+mHPz
>>758
カーネル置き換えたときにリモートでブート順位変えれればなw
760login:Penguin:2008/02/17(日) 11:20:07 ID:EeCPJ2/d
やっぱりバカだった。
761login:Penguin:2008/02/17(日) 12:18:58 ID:i5d+mHPz
>>760
あーなに?isoイメージでってこと?
めんどい操作は基本的にいやだよ。
参考にしたいんだけど、ちなみにあなたの場合は、どんな操作シーケンスを仮定して書いているの?
762login:Penguin:2008/02/17(日) 13:26:19 ID:EeCPJ2/d
> めんどい操作は基本的にいやだよ。

何を言っても、「面倒だよ」で片付けるんだろ。

バカに何言っても無駄だったな。
763login:Penguin:2008/02/17(日) 13:33:37 ID:fA/cUGCW
試しに教えてよ
764login:Penguin:2008/02/17(日) 13:35:31 ID:i5d+mHPz
いや具体的に書いてくれないと判断のしようもないよw
765login:Penguin:2008/02/17(日) 13:37:16 ID:tWbZDU3A
>>763
ID:EeCPJ2/dを取り合わない方がスレが荒れなくて良いです。
766login:Penguin:2008/02/17(日) 15:37:46 ID:EeCPJ2/d
>>764
別にお前に判断してもらわなくてもいいし。

# バカってこう言う粘着は「面倒じゃない」んだな (w
767login:Penguin:2008/02/17(日) 18:52:37 ID:ExKA9mj+
ルートファイルシステムとしてUSBメモリ使えば?
ルートファイルシステムって重要な割に復旧しにくいから、
安くてコピー取り易いUSBメモリっていいよ。
768login:Penguin:2008/02/17(日) 19:40:54 ID:i5d+mHPz
>>767
それはありだよね。
entry系の鯖M/Bでもそれ用途にUSBを基盤につけてるのもあるね。
ttp://www.intel.com/design/servers/boards/S3200SH/pix/S3200SH_lrg.jpg

あとは、管理性がついてきたらだけどね。
OS非依存でWeb consoleが付いてて、ブート関連がいじれたらそれで良いかなって気がするけど。
業務用の鯖だとそういうのって付いてるけど、安いのでも最近はそういうのは付いているのかな?
769login:Penguin:2008/02/17(日) 21:09:52 ID:YyBIzKMJ
USBメモリをディスク代わりにするのは耐久性に疑問がある
書き換え可能回数があまり多くない
770login:Penguin:2008/02/17(日) 21:29:21 ID:VhdF0BCQ
全てのディスクをUSBメモリで、という話じゃないだろ。
771login:Penguin:2008/02/17(日) 23:13:56 ID:qU3Dm9wu
当たり前の話だけど
root fsに何をいれるか、が決まらないと評価も何もない
772login:Penguin:2008/02/17(日) 23:23:39 ID:FjIQJ/u+
>>769
それこそミラーしておけばいいって話じゃないの?
773login:Penguin:2008/02/18(月) 09:12:36 ID:7pJwJgpT
フォールバック用途ならありかもしれませんなぁ。
774login:Penguin:2008/02/18(月) 12:43:13 ID:YBEsL7Ky
また耐久性疑問厨か。
/ /usr なんてそんなに書き換えないだろ。
775login:Penguin:2008/02/18(月) 13:01:11 ID:1jCiBLSk
てことは、RAIDで冗長化するのは/homeと/varと/etcだけでFA?
776login:Penguin:2008/02/18(月) 13:45:23 ID:hyGsnvLJ
便乗して質問なのですが、RAID化しなくてもよいルートファイルやなんかは、IDE接続のハード単機にインストールしたって構わないってことですね。
777login:Penguin:2008/02/18(月) 14:00:40 ID:7pJwJgpT
>776

ルートファイル?
ハード単騎^H機?

ま、好きにすればぁ?

778login:Penguin:2008/02/18(月) 14:14:37 ID:YBEsL7Ky
>>775 / と /etc は分けられない。
779login:Penguin:2008/02/18(月) 15:23:20 ID:RdJlk1eC
>>778
うそ!なんで?
ハードウェアRAID1+0やってるんだけど、/も/etcもRAID中な気がするんだが…
780login:Penguin:2008/02/18(月) 15:32:44 ID:HZgLzkAe
各自好きにやりゃいいがね。

/etcなんて一旦設定がきまっちゃったら
そうそう頻繁に変更するもんでもないだろうし、
容量もデカくないんだから
CD-Rにでも焼いときゃいいんでね〜か
と俺は思うが。
781login:Penguin:2008/02/18(月) 17:12:56 ID:YBEsL7Ky
>>779
なんでって / と /etc を別のパーティションに置くことはできないでしょ。

>>775 > てことは、RAIDで冗長化するのは/homeと/varと/etcだけでFA?

/home と /var と /etc だけをRAIDで冗長化するって言うから、
それだと / が別パーティションになるから >>778

/etc を RAID に入れるなら必然的に / もRAIDにいれることになるっしょ。
>>779 はそうしてるし、何に対して「なんで?」なのかわからない。
782login:Penguin:2008/02/18(月) 17:51:59 ID:pjqQlMbm
>>781
ハショリスギ!
783login:Penguin:2008/02/18(月) 21:29:04 ID:7pJwJgpT
>782

いや、それ以外に読めないと思うが...
784login:Penguin:2008/02/19(火) 00:28:17 ID:vYFMe8jP
initrd とかでできなくはない気がする。
785738:2008/02/19(火) 11:51:04 ID:xjsgqTAQ
>>739
> 一度どこかにデータをコピーするべきじゃないの?

コピーするときの負荷もリビルド負荷も御忘れなく。
そしてなにより、リビルド負荷は数値を指定して
あらかじめ制御できることも。

> RAIDの復旧なんて、そんなに何度も経験ないと思うし、

なに言ってるんだ。
RAID使うと決めたら「必ず」復旧手順は
予行演習しとくもんなんだよ。

まるでRAIDの使いかた分かってないぞ。
786login:Penguin:2008/02/19(火) 12:12:24 ID:HB+Mo7i2
ごめん、スレ読みとおしたところよくわかんないんだけど、HDD4台でRAID化したマシンに
Linux OSをインストールする場合って、HDD4台すべてをRAID化(たとえばRAID1+0)
しちゃってもいいの? 起動部分やOSはRAIDでジョチョウ化されてもいいものなのかどうか、わかんなくなっちゃった
787login:Penguin:2008/02/19(火) 12:14:22 ID:wqil2l39
なぜか変換できない
788login:Penguin:2008/02/19(火) 12:43:30 ID:leSjXn0T
とんでもなく助長してる
789login:Penguin:2008/02/19(火) 12:52:59 ID:9sD2K6K5
冗長してる。
790login:Penguin:2008/02/19(火) 13:16:12 ID:jU83xi7f
じょうちょう
791786:2008/02/19(火) 14:23:39 ID:HB+Mo7i2
ごめんです、ジョチョウ化⇒冗長化の間違いでした
792login:Penguin:2008/02/19(火) 16:07:31 ID:YZYGs6Xx
>>778
マジで?
しらんかった・・・確かに今まで分けようと思ったこともないが。
793login:Penguin:2008/02/19(火) 16:10:15 ID:YZYGs6Xx
>>786
/bootはRAID1、あとはinitrd前提で任意のRAID構成が楽
grubは自分でinstしてね
794login:Penguin:2008/02/19(火) 16:14:13 ID:wqil2l39
>>792
分けたら /etc/fstab 見えないじゃん。
795login:Penguin:2008/02/19(火) 17:21:02 ID:z0nKTYDQ
>>793
つーことは、RAID10のサーバを組むにはHDD4台の他に、/boot用のHDD1台ないし2台(RAID1にするなら)
の合計5-6台が必要っつーこと?まじかよ。
796login:Penguin:2008/02/19(火) 17:21:49 ID:Wt/Vgi9h
まともに使うならそうなるな。
797login:Penguin:2008/02/19(火) 17:29:20 ID:9sD2K6K5
>>795
bootはパーティション切ってそこだけraid1にすれば、4台でいけるよ。
798login:Penguin:2008/02/19(火) 17:39:33 ID:iV/BcA4E
Linuxなら、raidを使おうが使うまいが、/bootを別パーティションにしておくのはいまや半常識だしな。
799login:Penguin:2008/02/19(火) 17:52:39 ID:z0nKTYDQ
>>797
レスサンクス。でもおれ頭わりーからまだ理解しきれていないのだけど、つまり500GB HDDが4台あったとすると、
そのうち10GBずつをRAID1化(ミラーリングなので使用可能容量は10GB)して/bootに、
残りの490GBずつをRAID10化して(使用可能容量は980GB)/boot以外をインストールするということでOK?

いま手元にあるHP ML115を調べて気づいたけどIDEが一本挿せるみたいなので、余りのIDE ATA15GBか40GB
を/bootにしてもいいのかな。そこだけRAIDにならないけども。
800login:Penguin:2008/02/19(火) 17:54:40 ID:9sD2K6K5
>>799
その認識でOK
801login:Penguin:2008/02/19(火) 17:55:27 ID:9sD2K6K5
>>798
でも俺は切らない派w
802login:Penguin:2008/02/19(火) 18:17:04 ID:z0nKTYDQ
>>800 >>797 サンクス
でも、起動部分/bootにギガバイト単位で割り当てるのはもったいないなあ、それに
わざわざパーテ区切るくらいならHDD4台は丸ごとRAID10にしてあげたいし。

やはり、IDEドライブに/bootを配置すると思うのですが、無謀かな。ついでに/tmpもIDEドライブ
にしてやろうかと思ったくらい。 USBメモリに/bootを入れるよりはまともかと思ったのだけど。。。
803802:2008/02/19(火) 18:19:01 ID:z0nKTYDQ
うそ、よくかんがえてみりゃ、そのくらいのことでならば多少のパフォーマンス低下を
覚悟してでも、>>801みたくHDD4台をまるごとRAID10化したほうが障害復旧が早いじゃん
と思った。
804login:Penguin:2008/02/19(火) 20:27:16 ID:YZYGs6Xx
>>794
おおなるほどw

>>803
そのあたりの悩みは用途次第で結論が変わるので思ったようにすればOK。
/bootにGB単位で割り当てる必要性を感じているなら、それは必要なのであってもったいないと言うことはない。
自分が障害復旧しやすい構成がって、障害復旧を優先したければそれを採用すればよい。
少なくともネットで大雑把な質問して得られた答えが最適解になることはまず無い。
805login:Penguin:2008/02/19(火) 21:05:13 ID:LjOdmO1l
うちの/bootは大昔に使っていた170MBのHDDだったりする。
他はSATAのGBサイズのHDDですけど。

なんか棄てるのがもったいなくて。
806login:Penguin:2008/02/19(火) 21:10:18 ID:9sD2K6K5
もったいない以上に、使い続けるのが怖いよw
807login:Penguin:2008/02/19(火) 21:35:05 ID:+qK8q1YG
やっぱり、/bootはUSBメモリに入れ込むのが楽だよなぁ。
問題はUSBメモリからbootできる機械が少ないことだけど。
808login:Penguin:2008/02/19(火) 23:17:24 ID:nwrDQnND
>>806
/boot なんて別に壊れてもいいじゃん。

別のディスクを用意できてるなら。
809login:Penguin:2008/02/19(火) 23:33:12 ID:LjOdmO1l
>>806
いや、意外にも壊れない。
よっぽど最近のHDDの方が壊れてるよ。

kernelがupdateされるたびに/bootをtarでバックアップ取って
/mnt/common(ウチのsamba公開ディレクトリ)に保存してるから
もしHDDが壊れても、まだまだ170MBのHDDがあるから。。。

壊れてもHDD交換してパーティション作ってtarで復元して
grubをインストールするだけだから。
810login:Penguin:2008/02/20(水) 00:43:24 ID:Zep3uocy
うちはデータしかRAID化してないなあ。
/ や /boot や自前のデータがないfilesystemは適当バックアップだけ。
復旧に要する時間はまあそれなりに、ぐらいで考えてる。
811login:Penguin:2008/02/20(水) 01:48:02 ID:I7MAm7/Q
飛んでもPXEで起動してくる構成
812login:Penguin:2008/02/20(水) 02:38:13 ID:GsxLLhRu
>>786
ソフトウェアRAIDで細かく使いわけしてる人は
少ないと思う。めんどくさすぎて。
起動部分をRAID1なら普通かな。
ハードウェアRAIDで可能ならそれもアリじゃね?
813login:Penguin:2008/02/20(水) 02:44:06 ID:GsxLLhRu
うわ沢山。リロードしてなかった。
>>812
は忘れてくれ。
814login:Penguin:2008/02/20(水) 02:48:46 ID:3eSEJw3g
>>813
いや、いいんじゃないか。
俺なんかは3wareの9650SE-4PMLでRAID10(500GB*4)してるけど、/以下すべてRAID化してる。
815login:Penguin:2008/02/20(水) 03:01:21 ID:YArMzvpZ
mdで/bootがRAID1、/homeと/がそれぞれRAID10してるけど、
これってなにかめんどくさいっていうデメリットあるの?
個人的には/bootのためにいろんなハード持ってくるのがややこしいんだけど。

816login:Penguin:2008/02/20(水) 08:27:58 ID:3eSEJw3g
>>815
>>mdで/bootがRAID1、/homeと/がそれぞれRAID10してるけど、
>>これってなにかめんどくさいっていうデメリットあるの?
説明するのがめんどくさい、っていうデメリット。
817login:Penguin:2008/02/20(水) 12:31:55 ID:a4F59jek
>>814
ハードウェアRAID使うならそれが普通だと思う。
つか、そのためのハードウェアRAID。
難しい/面倒なこと何も考える必要がないw
818login:Penguin:2008/02/21(木) 00:59:49 ID:CnMgGiXf
RAIDの耐障害性について某スレのおかげで何がなんだかわかんなくなってきた。

RAID5をHDD*4台で構築したときに、どれかひとつのHDDに致命的な故障が発生したばあい、
そのサーバは通常稼動を続けたまま、HDDを入れ替えるまで稼動させることって
できるんでしょうか。

RAID1+0というやつでは、同じストライプ組のRAID0 HDDが2台同時期に壊れなければ、そのまま運用を続けることができると勉強したのですが。
819login:Penguin:2008/02/21(木) 01:05:27 ID:0MyyZeE8
>>818
できなければ何の為のRAID5なんだよw
820login:Penguin:2008/02/21(木) 01:24:24 ID:LstAdxHS
某スレってのはどこだ
821login:Penguin:2008/02/21(木) 08:29:25 ID:CnMgGiXf
>>819
できるのですね。 その場合、RAID5の仕組みから考えると障害時の縮退運転中の
ホストCPUもしくはカード上のチップの処理負荷は結構なんじゃないかなと思いました

>>820
ここです
IDE/SATA RAIDカードあれこれ 28枚目
http://pc11.2ch.net/test/read.cgi/jisaku/1198522312/933n-
822login:Penguin:2008/02/21(木) 10:19:15 ID:QU9gU0w5
>>821
レス番あってる?
823login:Penguin:2008/02/21(木) 22:56:55 ID:2FpKpxEt
>>818-819
通常稼動を続けたままできるかどうかは、RAID とは別の次元の話。
ハード / ソフトの対応が必要。

まともなサーバーなら大抵サポートしているけど、安物の NAS なんかだと
電源切らないと HDD の交換ができない奴もあるよ。

>>821
通常運用時も常にパリティの演算はやってるので、特に縮退運転中の負荷が
高いわけじゃない。
824login:Penguin:2008/02/22(金) 00:18:05 ID:lqV65jWf
負荷が高いのはドライブのI/Oだよな。演算じゃなく。
825login:Penguin:2008/02/22(金) 00:42:49 ID:gxYR4a4l
I/Oウェイトが高くなるから、それなりに重くなる。

826login:Penguin:2008/02/22(金) 02:04:19 ID:Mw1lTqHM
パリティ演算が負荷にならないのであれば、RAID5がサーバ向けとしては最強っぽい感じがするな。
ML115を買ったばかりなんだけど、オンチップのソフトRAIDでRAID5 (HDD4台)でも
試してみよかな。
827login:Penguin:2008/02/22(金) 02:11:23 ID:rUW8ziB5
>>823
>通常運用時も常にパリティの演算はやってるので、
嘘だっ!
828login:Penguin:2008/02/22(金) 06:09:35 ID:lqV65jWf
>>826
raid5デグレード時のリスクについてはさんざんこのスレでも
語られてるので、読んで納得してからGOすべし。
829login:Penguin:2008/02/22(金) 09:24:59 ID:91jcI2i+
>>828
なるほど、サンクス
やっぱり、落としたくないサーバ&障害が起きてもマシン負荷や付随リスクを抑えられるサーバにしたいので、RAID1+0にすることにします。
830login:Penguin:2008/02/25(月) 06:57:27 ID:D7C/M5Y7
教えて欲しい
LinuxでRAID5のファイルサーバーを構築したいのだけど
インストールから障害時の復旧方法が載ったHPって無い?

探したけど、構築方法だけのページが多くて
どこかお勧めがあったら教えて欲しい。
831login:Penguin:2008/02/25(月) 10:25:31 ID:9T281o0Y
mdadm?
ならmanのページにあるよ。いちばんお勧め。
壊HDD切り離しから新HDDの追加まで載ってる。

OSインストーラ上からのRAID構築手順案内してるサイトばっか見てるのかな?
初めてなら入れるときはそれでいいと思うけど、
入れたあと必ずman片手にシェルからの復旧演習しようね。

※データドライブのみRAIDするんなら簡単だからシェルでRAID構築したほうがいい。
832login:Penguin:2008/02/28(木) 08:11:12 ID:7NHGqqq8
HDL-GTシリーズをRAID5で運用してたけど、突然RAIDが崩壊…。データ吸い出したいけど、どうしたらよい?
SATA→USBに変換するケーブル4つ買って来て全部接続して、KNOPPIXから復旧できるかな?
一つだけ接続してログを確認したけど、ログがメモリ上に吐かれる仕様みたいで、ログが追えない。なにが起きたのか把握出来ないのが痛いのだが…。
833login:Penguin:2008/02/28(木) 17:29:56 ID:juedGX85
なんか見覚えのある書き込み。

>>620 = >>832 ??
834login:Penguin:2008/02/28(木) 20:50:22 ID:7NHGqqq8
>>833
あ、いや違います。
SATAが4台つくマシンがないので、そもそもSATA→USB接続では復旧不可能なのかと思って。
でも、症状は同じみたいなので、やっぱりダメかな…。
なんだか、物理的な生涯ではなさそうなんだけど…。
835login:Penguin:2008/02/28(木) 21:40:45 ID:juedGX85
ベースがLinuxとはいえ、哀王がカスタマイズしている可能性があるから
下手に余計なことをせずに哀王のサポートに電話した方がいいと思うよ。
836sage:2008/02/28(木) 23:54:03 ID:AxfU3lU5
>>835
ありがとうございます。
すでにIOサポートには電話済みですが、RAIDの崩壊はまったくサポートしてくれませんでした。
データ復旧会社を紹介されて終わり。ひどい。。。
というわけで、自力でできないかと模索しております。きびしいですかねぇ…
837login:Penguin:2008/02/28(木) 23:55:11 ID:AxfU3lU5
sage入力欄、間違えた。。。
838login:Penguin:2008/02/29(金) 00:08:26 ID:Gwi7QNca
貶す意図は全く無いが、ここでこんな質問してる状況では厳しいと予想する。
暗に、Nonスキルでお手軽一発回復できる方法教えてくださいって意味だろ?
学習意欲無い人に親切丁寧に付き合ってくれる人ここには少ないよ。
他のコミュニティを頼ってみては。
839login:Penguin:2008/02/29(金) 00:13:55 ID:pUCuLP0q
>>836

>>620の時の流れを見てもあまり有用な情報が出なかったもんねえ。
あれも結局どうなったか分からないし。

いいアドバイスできなくてスマソ
840login:Penguin:2008/02/29(金) 01:02:48 ID:NeboVMG8
>>836
自分で書いている通り、SATA→USB 4つは試す価値があるかもね。
あと、物理的に1台分格納可能な空間が4つあれば、loopback deviceでmdadmとか。
...できないかどうか知らないが無茶っぽいか。

助言が得られないというより、
崩壊したRAIDは基本的に救えないというオチかな。やっぱり。
841login:Penguin:2008/02/29(金) 03:31:32 ID:js7jhxfr
そしてまた、RAIDはあくまで可用性向上のためのものなので、
バックアップを取っておくのは必須という大前提が出てくるわけですな。
842login:Penguin:2008/02/29(金) 10:24:30 ID:ZfFSkAXp
RAID復旧なら、こんな記事もあるが。

ttp://www.linuxjournal.com/article/8874
843sage:2008/02/29(金) 11:52:28 ID:ej7ymfjg
836です。
>>838
RAIDに関しては確かにNonスキルですが、Linuxは自宅でもいじってます。
至急復旧しなければいけないほどではありませんので、のんびり勉強しながらやってきます。
人柱になってもよいので、可能なことがあればやってみます!

>>840
なるほど、4台分全部イメージで吸い出して、1台に乗っけてloop back デバイスってことかな?
たしかに行けるかもしれませんが、全部で2T…orz

>>842
ありがとうございます。いま手元にないんで、ちょっと試してみます。

とりあえず、SATA→USBケーブルが1つだけあったんで、1台ずつくっつけて
mdadm --examin
でRAIDパーティションを見てみたけど、意味なかったかな?
844login:Penguin:2008/02/29(金) 20:17:36 ID:RZopCDve
LINUXいじってんならman見てわかんない?
その機種がどうとかいう問題以前にちゃんとmdadm使えないと無理。
一度アレイ作って→壊して→復旧とかやってから出直し。
とりあえず>>620くらいやるのが普通。

それとloopbackなら最低1.5TB〜出来たら2TBの作業領域、
実ディスク使うなら(危ないけど)SATA-USBがあと3つ要る。
どっちか用意しないことには何もできん。


って、ここまで書いてから気付いたんだけど本体ハックしてtelnetで入れないかな?
持ってないから知らないけれど、telnet化出来て本体起動するんなら。
845login:Penguin:2008/02/29(金) 20:23:12 ID:Gwi7QNca
>>843
むう、勉強する気があるならまず全ドライブをイメージ化してどういう配列になってるか調べてみたらいい。
/var/logがあるとすこぶるわかりやすいのだが、無ければ何か大きめのtextファイルを探す。
あと、NAS側で再構築すればRAID情報は初期化できるわけで、diffしてみたりFS部分書き戻してみたり・・・
もちろん各試行はvmware等で事前に実験成功させてから。データのバックアップは完全に取ること。
まぁ一般に考えられるような様々な対処が可能なのでやってみたらいい。
そしてエラーメッセージも書かずにどうかな?とかはチラシの裏へ。
846840:2008/03/01(土) 00:14:18 ID:zNKGHS78
>>843
0.5Tが4枚、1つのカーネルから論理的に見えていれば何でもいい。
1つが実HDD、1つがlocal fs上のfileへのloopback、
残りがNFS上のfileへのloopbackとかでもいい。はず。

まあでも、傷を深くしないためには2T分の複製確保からか。

人柱乙
847843:2008/03/01(土) 12:08:49 ID:MTZD+9N+
みなさん、どうもです。

>>844
たしかに、もうちょっと自分でmdadmの勉強・実験は必要ですね。
もちろん、本体のTelnet化はしておりました。ただ、RAIDが崩壊してからTelnetで入れない状況に。

>>845
ドライブをイメージ化してどういう配列か調べる、というのはどういうこと?
RAIDの配列がどうなってたか、という意味でしょうか?
/var/log は、HDL機では /var が RAM上に切ってあり、一度電源を切った時点で消滅。。。
エラーメッセージもたぶん消滅。これがかなり痛かったです。
NAS側での再構築の方法はマニュアルに載ってあるけど、その後のdiffとかFS書き戻しってどういう意味でしょう?
イメージ化した元のドライブとのdiff?

>>846
了解。やっぱり、まずは複製か。とりあえず、dd で吸い出せばOK?
方法より、場所の確保の方が難しそうだorz
848login:Penguin:2008/03/01(土) 12:24:51 ID:V1aTYABK
それにしても、哀王HDL-GTの被害者はこれで2件目。

このスレに書き込まないで哀王の言うとおりにデータを諦めているユーザーも
もっといるかもね。

結構ヤバイ製品?
849843:2008/03/01(土) 15:09:46 ID:MTZD+9N+
ほんとに。。。なーんにもしてないのに、月曜日会社に来てみたら「ぴーぽーぴーぽー」ってサイレンなってた。。。
「HDD外して再起動してダメだったらデータ復旧会社へ」的な案内だった。
「こういうことはめったにないんですが」って言ってたけど、ありゃしょっちゅうだな。
850login:Penguin:2008/03/02(日) 00:04:58 ID:t3uOwrRE
余りストライピングについては語られないのね..
851login:Penguin:2008/03/02(日) 00:10:20 ID:i5pT7HBy
RAIDじゃないから。
852login:Penguin:2008/03/02(日) 00:12:24 ID:090WhxWO
>>850
需要が無いからな。
853日記:2008/03/02(日) 12:51:56 ID:emEwbtI/
2.6.24.3のDebianでPMP使用中。
SiI3726上に3デバイス接続し、(sda, sdb, sdc)
MDを使用してRAID5で運用中。

テストとして、このうち1デバイスをそのまま外してみました。

 (当然)link down。
 しばらくして/proc/mdstatは[UU_]となる。

再び同じポートに再接続。

 link up。
 sddで認識しました。
 /proc/mdstatは[UU_]のまま。以下のコマンドでhot add。
  sudo mdadm /dev/md5 --manage --add /dev/sdd1

問題なくリカバリー始まってます。

 続いて以下のコマンドでremove。
  sudo mdadm /dev/md5 --manage --remove /dev/sdc1
 以下のメッセージ。デバイスは既に削除
  mdadm: cannot find /dev/sdc1: No such file or directory

でも/proc/mdstatは
 active raid5 sdd1[3] sda1[0] sdc1[4](F) sdb1[1]
で、sdc1がFailedフラグ立ったまま、まだいます。
854login:Penguin:2008/03/02(日) 13:43:40 ID:hc9C85N7
何かと思ったけどポートマルチプライヤか。
RAIDと関係ないがPMの安定性とかはどう?
855853:2008/03/02(日) 15:49:23 ID:cyhXWBFJ
リビルド完了したので、--examine --scanしてみました。
sdc1にFAILEDフラグのまま
次にrebootかけてみました。

 再びsda, sdb, sdcで認識。
 cat /proc/mdstatしたところ、普通に上記で正常動作。

どうやらmdadmも今はuuidしか見てないんですかね・・
Sargeの頃はmdadm.confにしっかりsd*が記録されて、
認識順によっては問題が起こったりしたんだけど。

PMP周りとの相性は良さそうですね

PMPの動作自体はとても安定しています。
1つのSiI3726にSATA1とSATA2のドライブが混在しても
認識に問題なし。
ただSATA1のhotplugはまだ試してません(無理だろうな)
856login:Penguin:2008/03/04(火) 20:13:01 ID:LTSRnmt7
お邪魔します。
RAID5のパリティ生成順について質問なのですが、
パリティ生成順の指定において
「left-symmetric / left-Asymmetric / right-a(略」という言い方と
「forward / backward 」という言い方がどう対応しているのかがわかりません。

それぞれの対応は「forword」=「left-symmetric」 という理解でOKでしょうか?
857login:Penguin:2008/03/04(火) 20:18:38 ID:f138xmmP
forward / backwardは何語ですか?
858login:Penguin:2008/03/08(土) 01:42:36 ID:aT+xoS78
RAID5で、4台のうち2台をFail にした場合、再度RAID5で起動させて復旧するにはどうしたらいい?
859login:Penguin:2008/03/08(土) 02:25:14 ID:i/j6Zvyv
神に祈る or タイムマシンを購入する
860login:Penguin:2008/03/08(土) 02:32:49 ID:9FWYbXMd
>>830
0度アダプターの説明書に書いてある。
寒心しろ。
861login:Penguin:2008/03/08(土) 03:46:27 ID:081564QA
HDD4台でRAID5なんて使うなと思うのはヲレだけだろうか
862login:Penguin:2008/03/08(土) 10:05:13 ID:ikYk3pOb
4台でRAID5とか別に普通の構成じゃん。
863login:Penguin:2008/03/08(土) 10:09:55 ID:/ZyWFvm5
HDDがいっぱいだと何かいいことあるの?
二台同時に逝ったら終了なのは何台構成でも一緒でしょ。
っていうか一杯あったら10とか50とかにしない?
864login:Penguin:2008/03/08(土) 10:41:27 ID:i/j6Zvyv
>>863
> HDDがいっぱいだと何かいいことあるの?

容量効率が高くなる。
(4台だと 3/4 (75%) の容量だけど、10台だと 9/10 (90%) の容量が使える。)

でも、当然 HDD 故障のリスクが高くなる。

ちょっと前に 10D + 1P + 1S の構成を提案したアホSEがいて、案の定リビル
ド中にもう一台こけて大騒ぎになってた。
865login:Penguin:2008/03/08(土) 11:38:35 ID:+bpbSTe0
>>864
へぇ
素人感覚で10台ならRAID5も(何とか)大丈夫って思ってたけど
やっぱりまずいのか…
866858:2008/03/08(土) 12:48:01 ID:aT+xoS78
テスト用にいろいろ試してみたけど、当然、通常の起動はしないよね。
で、RAIDを同じ構成で新規作成してみると、中のデータは残ってた。
これって普通?物理障害でなければ、同じ構成で新規作成すると中身は見えるのかな?
867login:Penguin:2008/03/08(土) 13:41:34 ID:Omwxt5MP
1台壊れたらアウトってよりずっとマシ
まあ気休めと言われればそれまでだけど
868login:Penguin:2008/03/08(土) 14:56:33 ID:+bpbSTe0
>>866
実装によるだろうけど……期待してはいけない類の動作だと思う
仮に起動できても、データが本当にそのまま残ってる(化けてない)
という保証をするのはやっぱり大変なわけで
869login:Penguin:2008/03/08(土) 16:07:01 ID:F8QvG82q
>>867
高可用性と高完全性は全然違うよ
870login:Penguin:2008/03/08(土) 17:04:17 ID:HhRa/8NZ
やっぱRAID1+0が最強だよな
871login:Penguin:2008/03/08(土) 17:14:30 ID:MMP300iC
同じ4台なら、RAID10よりRAID6の方がいい。
872login:Penguin:2008/03/08(土) 17:21:18 ID:RSpr94Wo
いや6はwriteペナルティがあるでしょ
5,6はキャッシュとバッテリ積んだ装置でwrite backで運用するものだと思っている
873login:Penguin:2008/03/08(土) 18:13:10 ID:+bpbSTe0
>>872
後学のためにkwsk頼む
874login:Penguin:2008/03/08(土) 18:47:50 ID:RSpr94Wo
RAID5,6で writeする場合、新データに併せてパリティも更新します
write範囲がストライプ全体ならば新データのみで新パリティを生成できます
しかし write範囲がストライプの一部の場合には
新パリティ生成のために diskから readする必要があります(古いデータなりパリティなり)
なのでRAID5,6での write処理は、read -> 新パリティ生成 -> writeという手順を踏みます
遅いディスクI/Oの readが余計に入るのでwriteペナルティと呼びます

これを解消するために高額なRAID装置だとキャッシュ(メモリ)を積んでいて
ホストからキャッシュにwriteした時点で応答を返し、ホストでは writeが完了します
実際のdiskへの writeはRAID装置が暇な時非同期で行ってます
これが write backです
ただし write back運用するとデータがRAID装置のメモリ上にしか存在しない時間が存在します
このとき停電とか起きるとデータが消えちゃいます
なのでバッテリなどによってキャッシュ保護してるRAID装置もあるんですよ

あとね writeに不具合があるとデータとパリティがあってないことになるんですよ
この状態でディスクが故障するとデータ復元した際に不正なデータになっちゃうんですよ

ちょっとRAIDをかじると5とか6は怖いなと思うわけですよ
普通はそんなこと気にしないけどね
875login:Penguin:2008/03/08(土) 19:15:46 ID:RSpr94Wo
でも上記の話はRAID装置だけで考えた場合であって、当然OS作る人も認識してると思う
私は詳しくないけどファイルシステムで大抵が救われているんじゃないかと思っている
詳しい方解説頼む
876login:Penguin:2008/03/08(土) 22:34:45 ID:i/j6Zvyv
> あとね writeに不具合があるとデータとパリティがあってないことになるんですよ
> この状態でディスクが故障するとデータ復元した際に不正なデータになっちゃうんですよ

Write に不具合と言うのが具体的にどんな現象かよくわからんけど、ディスクにうまく書け
ないことを言ってるなら、RAID でないシステムだと HDD 故障がなくても不正なデータにな
ると思うぞ。(要するに、HDD の故障と同じだ。)
877login:Penguin:2008/03/08(土) 23:10:14 ID:RSpr94Wo
writeに不具合ってのはディスクやバスのエラーなんかを考えていただければ
でwriteに失敗した場合 write through運用ならホストが失敗を認識してリトライなりメモリ保持なりで救われます
write back運用でも RAID装置が失敗したことを認識してるんでキャッシュ上にはデータを保持しとくんですよ
RAID1系なら不正データの範囲は write失敗した範囲と一致してるのでリカバリが取りやすいです
一方でRAID5,6などの場合、故障HDDによっては write失敗とは異なる場所でも不正データになってしまうんですよ
この点がパリティ使うRAIDの弱点ですね
878login:Penguin:2008/03/08(土) 23:19:58 ID:cwkxJK45
可能性の話よりもMTBFのような数値を出してくれると
ありがたいのですが。
879login:Penguin:2008/03/08(土) 23:29:17 ID:RSpr94Wo
FCやSCIとATAのHDDだと一桁以上違いまっせ
具体的な数値は出せませぬ
880login:Penguin:2008/03/08(土) 23:42:30 ID:RSpr94Wo
タイポでSCIじゃなくてSCSIね
881login:Penguin:2008/03/09(日) 00:38:56 ID:+CxxF4jb
>>874
勉強になります

ぱっと思いつくところだと >>875
ファイルシステムのクラスタサイズと[ストライプサイズxデータドライブ台数]が一致してれば、
クラスタサイズより大きいファイルについてはwriteペナルティは減らせそうですね。
882login:Penguin:2008/03/09(日) 00:45:02 ID:1EA/Vx3i
>>877
> 一方でRAID5,6などの場合、故障HDDによっては write失敗とは異なる場所
> でも不正データになってしまうんですよ
> この点がパリティ使うRAIDの弱点ですね

意味わからん。

RAID だろうがなんだろうが、HDD にうまく書けないことが認識できたら、
リトライしてうまくいけばそれでOK

リトライで救えなければ非 RAID 装置なら上位に報告するだろうし、RAID
システムなら該当の HDDを切り離して運用を継続するだけだろ。

初期の RAID システムの不具合事例を引きずっているか、「RAID 5/6 って
なんか難しいことやってるんだろうなぁ」って言うイメージで語ってるとし
か思えない。
883login:Penguin:2008/03/09(日) 01:32:14 ID:Owod6HM6
例えば1ストリップだけのwriteが失敗した場合、
RAID1系であれば失敗した1ストリップだけリカバリすれば良いんですよ
これがRAID5,6系だとwrite失敗したストリップは当然不正データでリカバリ対象なんですが
他のディスクが縮退してた場合そこのストリップも不正データになるんですよ
まぁ二重障害で救えないケースとも言えるんだけどね
884login:Penguin:2008/03/09(日) 01:46:17 ID:whs0OwrB
>>883
縮退してなかったらリトライだろ?
885login:Penguin:2008/03/09(日) 02:03:27 ID:Owod6HM6
実装にもよるんでしょうけど縮退かどうかに関わらずリトライを試みると思うよ
でリトライ中に他の範囲にreadが入ってもRAID1系なら問題無し
RAID5,6系で同じストライプの他の範囲にreadが入ってそこが縮退してたら救えないよという話です
886login:Penguin:2008/03/09(日) 02:16:32 ID:Owod6HM6
ごめん
writeリトライ中ならそのデータとパリティを保持してるんで
理論上は他のディスクが縮退していてもそこのデータは復元できます
でもここまでリカバリしてくれる RAIDの実装ばかりではないでしょう
ということで救えないと書きました
887login:Penguin:2008/03/09(日) 03:09:10 ID:NAmJLF0M
なんかわけわからん議論してるように見えてるが、俺は>>870の言うとおりRAID10が最強と支持!
888login:Penguin:2008/03/09(日) 03:13:49 ID:42IbcYLo
なんかわけわからん議論してるように見えてるが、俺はRAID5+テープバックアップが最強と支持!
889login:Penguin:2008/03/09(日) 03:31:12 ID:0nz1PJia
>>888
RAIDはあくまで可用性向上の技術なんだから、バックアップ取るのは
当たり前のことやん…
890login:Penguin:2008/03/09(日) 04:30:58 ID:whs0OwrB
>>885
>>886
なるほど。
よくわかりました。。。
891login:Penguin:2008/03/09(日) 04:39:34 ID:Jd58I2JL
>>882
>初期の RAID システムの不具合事例を引きずっているか、

結局これじゃないの?
892login:Penguin:2008/03/09(日) 10:03:46 ID:qGlnqLo+
>>886
長い
まとめると、一部のRAID5,6実装であらゆるRAID1より完全ではないものが存在する
ということか?
あらゆるRAID5,6実装に適用してるかのような表現があったことと、
RAID1の実装がどこの機器でも完璧だとする考え方は直した方がいい。
893login:Penguin:2008/03/09(日) 11:50:22 ID:Owod6HM6
RAID1に比べてRAID5はエラー処理が複雑なんで(当然RAID6はそれ以上)
同じRAIDの実装ならRAID5の堅牢さはRAID1と同等かそれ以下だと思って上記のように書きました
現状のRAID5,6もRAID1と同等のリカバリが実装されているならそれは私の認識不足です
リカバリの程度はRAIDの実装によりピンキリだとは思いますが
894login:Penguin:2008/03/09(日) 12:10:15 ID:1EA/Vx3i
>>893
そんなあやふやな知識の癖に、

> この点がパリティ使うRAIDの弱点ですね

なんて書くから叩かれる。

>>892 が言うように論理的な話と、実装を含めた話はちゃんと区別しとかないとね。
895login:Penguin:2008/03/09(日) 12:21:51 ID:Owod6HM6
しっかりした知識をお持ちでしたら
現状のRAIDがどこまでリカバリできるのか解説してくださいよ
自分の知らない実装については推定にしかならないので
896login:Penguin:2008/03/09(日) 12:48:37 ID:1EA/Vx3i
逆切れ?

現状の RAID って何?

実装の話するなら、具体的な機種名とか挙げなよ。

論理的な話であれば、Write に失敗する時にはバッファにはパリティを含む正しい
データがあるはずだから、Read 要求が来たらそれを返せばいいだけのこと。

RAID1 と RAID5 で何の違いもないよ。
897login:Penguin:2008/03/09(日) 13:33:30 ID:Owod6HM6
バッファに無い領域 read要求されてそこが縮退してたらどうするわけ?
898login:Penguin:2008/03/09(日) 14:07:32 ID:1EA/Vx3i
縮退している状態で Write エラーが発生したってこと?

縮退してるにもかかわらず Write していると言うことは、縮退の元となった
ディスクと今回 Write エラーが発生しているディスクは違うと言うことだよ
な。

1. とにかく Write リトライを優先して、リトライ完了してから Read 要求に
  答える。(リトライに失敗したら、2重障害で Read 要求と Write 要求の
  両方にエラーを返す。)

2. Read の方を優先させて、通常の縮退動作 (残りのデータとパリティがもと
  データを作成) を実施して Read 要求に答えてから、Write リトライを実施。

2重障害が発生している時に凝ったことしてもしょうがないから 1. でいいん
じゃないか。

RAID1 でも同じだろ、縮退中と言うことはもう一方のディスクは壊れてるわけ
なので、バッファにない領域のデータを読もうとしたら Write リトライ中の
ディスクから読むしかないんだからさ。
899858:2008/03/09(日) 15:42:25 ID:jN91s3c8
>>868
やっぱりそうか。。。
2台をFailした状態からとりあえず強制的にデータを救うのはRAIDの再構築以外にはないかな?
--force オプションでもあがらないよね。一時的にでもRAID情報を書き換えて、正常起動させる、なんてことは不可能?
900login:Penguin:2008/03/09(日) 15:49:32 ID:qGlnqLo+
あーあー
>>892 に追加しよう、

自分の書き込みが自らの推測であることを毎回明記すること。それから
暗黙のうちに完璧なRAID1実装例とそうではないRAID5実装例を比較し
結果をRAID5方式そのものに当てはめないこと。

その上で複雑化した方式の抱える弱点やデメリットといった話題にしてくれ。
例えば安物ハードのRAID1、RAID5では5の方が危険性の高い実装が多そうな気がする、
といった具合で。でないと意図しない部分へのツッコミばかりになると思うよ。
901login:Penguin:2008/03/09(日) 16:21:54 ID:jyKfmYsF
荒れてますね。

>>893
>>あとね writeに不具合があるとデータとパリティがあってないことになるんですよ
>>この状態でディスクが故障するとデータ復元した際に不正なデータになっちゃうんですよ

当方OS屋です。RAIDの実装にはそこまで詳しくありませんが、
ジャーナリングファイルシステム上では、通常このような問題は起こりません。
なぜならば、データにはメタデータと実データの2つがあり
書き込みに不具合があった場合にはメタデータの更新を行わないから。

書き込みに不具合があった場合には「代替セクタ」に書いてからメタデータを更新します。
不具合を起こした領域には二度とアクセスしません。

不具合があってさらに「代替セクタ」への書き込み前に電源が切れた場合には、
1、再起動時にRAIDソフトが管理するファイルシステムの検査を行う
2、RAIDソフト側で一致しないメタデータと実データを補足する。
3、一致しないデータに対応する、RAIDソフトが管理する他のHDDの実データとメタデータを元に戻す。

902login:Penguin:2008/03/09(日) 17:44:23 ID:fj+FBdFH
カッコンカッコンカッコン…
903login:Penguin:2008/03/09(日) 19:10:02 ID:pRpyLmYY
RAID5で2台Failした場合になんとかする方法を研究するくらいなら
2台壊れたときでも大丈夫な手を用意するだけのほうが
最終的に安上がりなんじゃないの?
904login:Penguin:2008/03/09(日) 20:27:46 ID:tUD2p1yz
そうは言うけど、linuxのmdでsataケーブル抜けなどの理由で
複数台HDD failになった場合になんとかして復旧させる方法を
調べるのはいいことじゃないだろうか。
905login:Penguin:2008/03/09(日) 21:39:04 ID:IfJmdx2K
>>903
個人ベースでテープライブラリなんて持てないしなぁ。
RAID5運用するなら、外付きHDDでバックアップ用のRAID0アレーでも持ってた方がいいのかな?
906login:Penguin:2008/03/09(日) 23:38:49 ID:NAmJLF0M
ところでうちのRAID10(3wareのハードウェアRAID HDD4台)で縮退⇒リビルドの試験運用を
なんどかしておきたいのだけど、この方法ってどれか一つのHDDを別の新しいHDDに
差し替えてみるだけでOK?
907 ◆Zsh/ladOX. :2008/03/09(日) 23:57:11 ID:A1+oRS+P
うん。
908login:Penguin:2008/03/10(月) 03:04:09 ID:OuINuyls
>>905
それならRAID1+0か1台足してRAID5+1の方がいいんじゃない?
909login:Penguin:2008/03/10(月) 04:28:41 ID:V+IqLp+M
>>908
Array1つだけでって意味で言ってるよね?
>>869
910login:Penguin:2008/03/10(月) 14:46:39 ID:DwfpLEhU
>>899
スレの前の方で書いたけど
・一台だけダミー準備して前と同じパラメータでraid新構築
・ダミー外してから フォーマットせずに、
・ファイルシステムを確認
ならやった。
911login:Penguin:2008/03/11(火) 00:58:36 ID:dS6lXRcN
>>901
書き込みエラー氏の理屈になにかが抜けてると思ったら「ジャーナリング」だったか。
ま、普通raidの上にFATやらext2やら乗せた運用しないもんなあ。
912login:Penguin:2008/03/11(火) 22:29:17 ID:1/VL/9HH
RAIDRAIDRAIDRAIDRAID…
DRAIDRAIDRAIDRAIDRAI…
913899:2008/03/12(水) 00:09:18 ID:7LYHERNv
>>910
レスありがとうございます。>>737の方かな?
それでデータは救えたってこと?
914login:Penguin:2008/03/12(水) 20:28:35 ID:UoWQ0rhV
一秒間に十回RAID発言とは流石クラウザーさん
915login:Penguin:2008/03/12(水) 22:33:53 ID:Ut4EhZL1
>>914
自演乙
916login:Penguin:2008/03/14(金) 10:05:45 ID:gBTXx3gb
うーむ、HDDを買いだめしておきたいのだが、ネット通販で最安値のものを注文してもいいものかどうか…
がんばってでもアキバまで足を運んで、手動で買うべきか、うーむ
宅急便のにいちゃん、手荒く扱っちゃいそうだからなあ
917login:Penguin:2008/03/14(金) 19:01:53 ID:mUI1Nkxk
seagateの1TBがもっと安くならないかな〜と待ち中。
間違ってもRAID用に灼熱WDなんか使いたくないしね。
918login:Penguin:2008/03/14(金) 19:10:57 ID:XHTdd8Fa
何時の時代の人ですか?
919login:Penguin:2008/03/14(金) 19:14:13 ID:mUI1Nkxk
WDは2〜3年前に買ったっきりだけど、今はマシになったの?
もしそうなら2〜3年前の人ってことでオーケーです。
920login:Penguin:2008/03/14(金) 19:15:09 ID:NJBMEY94
午後7時
921login:Penguin:2008/03/14(金) 19:21:11 ID:L6YmRqFT
あれー、今は知らないけど
当時のseagateって、RAIDには最悪って言われてなかったっけ?
ランダムに弱いからって。
922login:Penguin:2008/03/14(金) 19:28:30 ID:L6YmRqFT
あ、RAID1なら関係ないか。
923login:Penguin:2008/03/14(金) 19:29:27 ID:mUI1Nkxk
う、まじっすか。
今は低発熱が気に入って日立使ってますが、Seagateの5年保証が気に入って
日立が壊れるたびにSeagateに付け替えていこうと思ってんですが。

数年前に仕事で使ってたFCタイプのSeagateが呪われたように壊れつづけた
のでSeagateから逃げてましたが、もうそろそろいいかナ〜なんて思ったり。
924login:Penguin:2008/03/15(土) 01:48:28 ID:dich6RrE
逆にIBM/HGST壊れまくって旧幕に逃げて、その流れで今海門
何年かのうちに旧IBM〜HSGTの3.5inで通算5台くらい買ったけど、1年持ったのが1台か2台
旧幕の一年生存率は9/9、海門が11/12とかそんな感じ
まぁサンプル数が少ないんで参考にならんが
925login:Penguin:2008/03/15(土) 01:58:42 ID:g7/oypWn
漏れも海門いかれやすい気がす。むしよ日立より弱いような。3本ぐらいやられてる。
(最近の)WDは言われるほど悪くないというか安くて普通に使えてありがたス。
926login:Penguin:2008/03/15(土) 03:00:11 ID:dich6RrE
WDは可もなく不可もなくって感じかなぁ
メーカーからバラして同時故障のリスク分散するときには普通に入れてる
SamsungはSMART温度を詐称してるとしか考えられない実験結果が出たんでパス
927login:Penguin:2008/03/15(土) 04:38:02 ID:uTcCVxY6
WDはCP高いけど故障率も悪くないし意外と静かで重宝してる
928login:Penguin:2008/03/15(土) 07:36:18 ID:ZiFRW5ND
サムソンは某メーカーのデスクトップPCにPATA/SATA問わず入ってるけど
よく壊れた。
最初のうちは提供される保守部品もサムソンだったけど、あるタイミングから
Seagateに変更されました。

WDはCPがいいから気になるけど、発熱が心配。
ミドルケースに日立250GBを7本入れてもSMART読みで45度くらいなんで
問題ないけど、WD1TBを5本入れたらどういうことになるかが気になる〜。

発熱が昔のままなら話にならんでしょうが。
929login:Penguin:2008/03/15(土) 11:51:01 ID:g7/oypWn
そんな熱くならん気がするよ。特に最近の低電力のグリーンマーク付きのやつは。
930login:Penguin:2008/03/15(土) 13:05:25 ID:eVRz8RhA
そうですか。
では値がもっと下がってお買得感が増したら候補の一つに入れることにします。
931login:Penguin:2008/03/15(土) 13:05:58 ID:H3jr+ZGF
WDの320GのRAID Edition使ってるけど日立の同じころのものより温度低いくらいだよ
932login:Penguin:2008/03/15(土) 13:21:31 ID:eVRz8RhA
日立より低発熱とはすごいですね。
RAID Editionというのが気になりますが。
日立よりも安いのかな?

実は入院中でzero3使って2ch見てるから情報集めがやりにくい。
おとなしく寝てろやって言われそうですがwww
933login:Penguin:2008/03/15(土) 18:40:38 ID:Sv0ZIH8W
うちのやつが稼働中で、Seagate(たぶん旧Quantum系列)30度くらいに対して、日立20度くらいなんだよね。
日立のがあまりに低すぎて妙だな〜って思ってた。
934login:Penguin:2008/03/15(土) 21:07:16 ID:AuqGP0Ji
昔DOS/V magazineで各メーカーのHDD温度をサーモグラフィーで調べる特集があって
WDが絶望的な温度(たしか60度超え)で、日立のみ圧倒的に温度が低かったという
調査結果がありましたよ。
935login:Penguin:2008/03/15(土) 21:10:24 ID:O5SPfuA3
つーかモデルによって差が大きい
936login:Penguin:2008/03/15(土) 22:59:24 ID:g7/oypWn
何年も昔の話したってしょうがないよ。
なくなったり身売りしたりブランドだけになったメーカーもあるしな。
937login:Penguin:2008/03/16(日) 00:37:35 ID:xHFK8htS
>>934
SMOOTH搭載の幕を忘れないでください(><).
938login:Penguin:2008/03/16(日) 03:21:44 ID:1URgJAVo
やっぱRAID組むなら5400rpmだな
939login:Penguin:2008/03/16(日) 11:05:53 ID:7whQNlrs
いやいや、ここはちきゃうにやさしい

2.5インチ3200rpmあたりでどうでしょうか

もっと地球にやさしくなら3.5インチ FDx4つでraid5ですかね
940login:Penguin:2008/03/16(日) 11:41:19 ID:d3YpNF0P
面白そうだけど、FDDを4つも用意できねえ。
941login:Penguin:2008/03/16(日) 12:01:34 ID:dbf3Oj3L
て言うか、容量あたりに換算したら全然地球に優しくないし (w
942login:Penguin:2008/03/16(日) 22:39:15 ID:Tp1q2oF/
943login:Penguin:2008/03/17(月) 01:27:48 ID:XekpUpM+
いつか125台のFDDで究極の……

って、すげーうるさそうw
944login:Penguin:2008/03/17(月) 08:01:49 ID:kAM4n2Ym
普通はカッカッカカッ
>>943はガッガッガガッ(+モーター音とシャーというディスクがこすれる音)
945login:Penguin:2008/03/17(月) 16:21:26 ID:nAdw/gKv
攻殻でFDDを記憶ディスクにしてたやつが出てきたなあw
946login:Penguin:2008/03/17(月) 20:15:17 ID:f4VOYkBh
SuperDiskかもしれないよ!?w
947login:Penguin:2008/03/17(月) 23:52:26 ID:oNOwBBIG
ホログラムディスクだろ
948login:Penguin:2008/03/20(木) 09:40:04 ID:s6kqo6k9
今はWD愛用中。

日立…静かで低発熱だが故障激しい
Seagate…故障しない。PATA品は低発熱、しかし要求電力が…
WD…安い。故障はいまのところなし。モデルにより発熱の差が大きい
幕…5400rpm品は低発熱低騒音高耐久
サム…怖くて買えない
Quantum…古すぎて今のHDDとの比較は無理

WDはAAKSシリーズは高発熱、低騒音
AACSは超低発熱、超低騒音
EACSは買ったこと内
AAJSは買ったこと内
JSは高発熱、騒音はやや大きい
JDは低発熱、騒音はやや大きい
SDは低発熱、騒音はやや大きい
949login:Penguin:2008/03/20(木) 10:36:58 ID:XA7/JhZN
誤爆のような予感はするが、一応
故障云々はメーカー差じゃなくて品番やロット差だろ
↓以下うちで使ってるメーカーは故障する/しないレス自重
950login:Penguin:2008/03/20(木) 11:07:58 ID:5VPVpAmd
でもこういう情報って参考になっていいよね。

故障うんぬんはおいといて。
951login:Penguin:2008/03/20(木) 11:18:26 ID:K3BE6E8F
昔から日立/IBMの指名買いです。
952login:Penguin:2008/03/20(木) 12:36:58 ID:XMoX7Had
HDD監視ソフトってフリーでも色々あるけど、あの情報を自動収集して
どこかのサイトで統計解析すればいいのに。

南にいくほど故障率があがるとか、使い方による変動はあっても
世界全体での故障率は○×社が一番低いとか、数を集めれば見えるものが
あるはずなんだよな。
953login:Penguin:2008/03/20(木) 12:56:14 ID:6MbzjmVx
送信するときは、csv形式で送信して欲しいな。
バイナリとかで何を送ってるかわからんのは怖い。
954login:Penguin:2008/03/20(木) 12:58:28 ID:pzu9e6El
Wii の「みんなの投票ちゃんねる」で「この一ヶ月で HDD が壊れたか」とか
やればいいのかな。(w
955login:Penguin:2008/03/20(木) 13:58:30 ID:t6Z+0hj9
>>948
ほぼ全て同意。
WDはサンプル数少なすぎてこちらでは何ともいえない
956login:Penguin:2008/03/20(木) 16:26:47 ID:9u/67UXJ
WDは老舗だしSCSI(FCは知らん)も作っている。けど、他より安めだよね。
QuantumはSeagate製品(型番も思いっきりFB***とかでw)として残っているよ。
957login:Penguin:2008/03/20(木) 22:35:59 ID:rCpV5oIH
WDはRAIDエディションが安いのがありがたい
958login:Penguin:2008/03/20(木) 23:36:50 ID:/epUW5RY
日立より海門のほが逝きやすいよ。俺だけ当たり悪いのかな。マザボとの相性とか、う〜む。
959login:Penguin:2008/03/21(金) 06:38:43 ID:kgEyluf0
>>958
うちは主にサーバ用途(24h稼働)だけど、歴代日立が死にまくる…。
排熱とか電源品質とか、デスクトップなのかサーバなのか(→スピンアップ頻度)とか、
それぞれ条件は違うと思うから、自分の中で法則があるならそれを信じていいと思うけど。
960login:Penguin:2008/03/21(金) 13:13:08 ID:lObywIaC
>>958
海門なら保障へGo!
961login:Penguin:2008/03/21(金) 13:34:27 ID:5t0JGjyu
日立はRMAさえやってくれれば何も言うことはないのだが、
RMAをやってくれないからこそ怖くて買えない。

「日本でだけ」RMAをやってないんだよなHGST。。
殿様商売過ぎだろHGSTというか日立。。。
962login:Penguin:2008/03/21(金) 13:45:10 ID:9BZgu+km
>>959
どれくらいの使用で壊れるの?
HDD故障なんて、おいらはSMOOTH発火に遭遇したくらいだけど。
963login:Penguin:2008/03/21(金) 13:57:35 ID:ueJbWF8x
T7K250の250GB版を6本つかってて、1本だけ半年で壊れた。
症状はデバイスを認識するものの容量が0GBになる。

Twotopの領収証をなくしてしまって保障を受けられず orz

追加で同じHDDを買ってきてつけてるけど、それ以来全く壊れていない。

まぁ運が悪かったってレベル。
少なくともT7K250は低発熱だし不良は1回だけだし、問題ないと思う。
964login:Penguin:2008/03/21(金) 18:29:48 ID:ZDFs6Wnv
500GBx4→500GBx6に初めて追加するんだがraidreconf遅すぎる
1時間で2%・・・2日以上かかるぞ・・・orz
965login:Penguin:2008/03/21(金) 18:37:38 ID:9Hy0MzVw
途中で一本failになったら泣いてしまうね。
966login:Penguin:2008/03/21(金) 19:14:40 ID:ZDFs6Wnv
怖いからやめてくれよ(涙)
容量大きすぎてバックアップも取れない一発勝負なんだから。
967login:Penguin:2008/03/21(金) 21:55:40 ID:3Qn3ZmaY
RAID5か?6本なんて勇者だな。
968login:Penguin:2008/03/22(土) 00:42:20 ID:Dr8iGDBh
failのたびに750GBあたりに入れ替えて漸次容量アップとか思ってたんだけど、
今考えるとなんて無謀なんだ俺orz
今のところRAIDの整合性は問題ないけど、XFSが微妙に不整合してたんで今直したとこ。
969login:Penguin:2008/03/23(日) 15:07:44 ID:o237ZHcq
終わったぜ。全部で40時間くらいか。

>md3 : active raid5 sdi1[3] sdh1[2] sdg1[1] sdf1[0] sde1[5] sdd1[4]
>2441919680 blocks level 5, 32k chunk, algorithm 2 [6/6] [UUUUUU]

>/dev/md3 2.3T 1.9T 431G 82% /data2

終わったはずなのに残り18%・・・orz
970login:Penguin:2008/03/23(日) 15:12:25 ID:UE8bvDeb
HDD増設を前提に考えると
syncする間にHDDにアクセスする回数と、
容量がいっぱいになるまでにアクセスする回数を比較すれば、
RAID5がいかに割に合わないかわかるものだが。
971login:Penguin:2008/03/23(日) 15:40:41 ID:o237ZHcq
>>970
他に何か方法あるの?
972login:Penguin:2008/03/23(日) 15:50:53 ID:UE8bvDeb
>>971
すれ違いだがLVM+別マシンでrsync
973login:Penguin:2008/03/23(日) 15:58:40 ID:o237ZHcq
>>972
それだと容量効率はRAID1と同じ50%の希ガス・・・(解釈あってる?)
RAID5なら6台なら75%なので最終的には8台(87.5%)かなと思ってたんだ。
974login:Penguin:2008/03/23(日) 15:59:46 ID:o237ZHcq
ミスった75%→83.3%
975login:Penguin:2008/03/23(日) 16:20:09 ID:UE8bvDeb
>>973
RAIDはバックアップじゃないよ。

972の方法ならLVMで壊れかけたディスクをpvmoveで
入れ替えたり、死んだらミラーに入れ替えてダウンタイム0
で、ゆっくりと復旧させればよいし。
976login:Penguin:2008/03/23(日) 16:43:15 ID:o237ZHcq
俺は容量のほうが欲しいからミラーはちょっと・・・
同じ構成で今より1TB少なくなるのは痛い、というかハミ出るw
977login:Penguin:2008/03/23(日) 16:45:54 ID:UE8bvDeb
>>976
つまり、データの値段<HDDの値段なのですね。
それもまた人それぞれ。
978login:Penguin:2008/03/23(日) 19:12:52 ID:VGBC95Bv
消えるとまずいデータだけバックアップする方法も有効だろうね。

次に作るとき、例えば同じ筐体にmd0:D4+P1@RAID5とmd1:D4@JBOD/LVMっていう
構成にして、cronでrsyncっていう運用を考えてるんだけど、どうかな。
最低限の可用性確保(個人なら十分)+バックアップっていう。
素直に別マシンにした方がいいのかな……
979login:Penguin:2008/03/23(日) 19:37:46 ID:UE8bvDeb
>>978
似たような構成をしたことがあるよ。
メインをSCSI-HDD、バックアップをIDE-HDDで1台に押し込めてrsync。
さらにオフラインバックアップを定期的に。

まぁ色々試すのがいいんじゃない。
用途、手間、金、時間、それぞれに応じてやりかたは違うし、
実際に手を動かして得る経験だからね。
980login:Penguin:2008/03/23(日) 21:05:46 ID:4P4qMZhj
>>975
RAIDがバックアップなのじゃないのはわかるんだけど、
個人で使えるTape Libraryってないしなぁ。
LTOは個人では買えないぉ。
981login:Penguin:2008/03/23(日) 21:08:16 ID:4P4qMZhj
>>976
あでも、おれは本当に困るもの(DBとか Systemとか作り込んだアプリのレポジトリとか)は
HW−RAID1のとこに入れてるよ。
そうでもない、まあ消えてもあちゃーで済むくらいのものをSW-RAID5+LVMにしてるな。
982login:Penguin:2008/03/23(日) 21:16:34 ID:UE8bvDeb
>>980
そんなん、リムーバルドック+1TB-HDDでいいじゃん。
983login:Penguin:2008/03/23(日) 21:24:01 ID:4P4qMZhj
>>982
HDDは常時回してないと逆に不安にならない?
984login:Penguin:2008/03/23(日) 21:31:15 ID:UE8bvDeb
たまに電源を落とすと、二度と上がってこなくてねぇ〜、
って脅された口? それとも脅してる方かな。
985login:Penguin:2008/03/23(日) 21:33:15 ID:tWPz9AaR
経験した方なんだが...。
986login:Penguin:2008/03/23(日) 21:49:10 ID:UE8bvDeb
経験したのなら考察せよ
987login:Penguin:2008/03/23(日) 23:16:51 ID:4P4qMZhj
>>986
考察してよ。
騙すとか言ってる位だから、なにか持論をお持ちなんでしょ?
988login:Penguin:2008/03/24(月) 12:21:20 ID:mEYAGIln
データを保存して、2年保管していたHDDが回らなかったことがある。
モーターが固着したものと思われる。
なぜ固着したと判断したかというと、叩いたら直った(w。
さすがに叩いたものなので、動いているうちに違うディスクに保存し直した。
989login:Penguin:2008/03/24(月) 12:42:34 ID:C9S6Ufb7
長期保存向けのdiskとかあればいいのにね。
非常時には556を吹き込む穴があいてるとかw
990login:Penguin:2008/03/24(月) 12:44:43 ID:yZnzLC1x
7980円だったWDの500GBを10台買ってきた
991login:Penguin:2008/03/24(月) 12:45:32 ID:xCc6BPh+
>>983
なるなる! もう買ってきたら1秒を争って電源入れるね。製造年月日が新しいものを選んで購入するのは基本だよね。
テープも冷暗所に保管するし、地理的にも100km以上は離れた場所に移送してるよ。だって不安になるでしょ?
まぁここまでやってる俺も保守には入ってないんだけどね
992login:Penguin:2008/03/24(月) 13:45:22 ID:rIFf8QUl
保守って何?
993login:Penguin:2008/03/24(月) 14:21:02 ID:oUo/WqjD
壊れた部品をタダでその日のうちに持ってきてくれる、
もしくは次の日に送ってくれる。くらいかな。
994login:Penguin:2008/03/24(月) 15:29:35 ID:rIFf8QUl
>>993
なるほど、サポートですね。
サーバはほとんどアレに金取られている気がする。
995login:Penguin
>>994
というか、サーバーで大切なのはそこだけだから。
というか結構職人芸が必要だったりする。
けちって文句垂れてる所多いけどね。