RAID総合スレッド No.4

このエントリーをはてなブックマークに追加
1login:Penguin
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。
2login:Penguin:2008/04/15(火) 23:01:43 ID:Cq5MAw3Q
前スレ9xxあたりで落ちてたよね?
3login:Penguin:2008/04/16(水) 06:30:22 ID:Y1jdT6Vj
手持ちのlogだと995まではあるな。
4login:Penguin:2008/04/18(金) 01:43:54 ID:HK/pyIR9
過疎だねえvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvv
5login:Penguin:2008/04/19(土) 00:59:58 ID:8NrmX72K
特にこれと言った問題もないんだよなぁ(^^;
6login:Penguin:2008/04/19(土) 01:10:29 ID:vQ5Tkj7T
んじゃ、粗悪燃料投下。

今320Gx5台でSW RAID5組んでるんだけど、
1TBのを一台ずつmark failed -> 交換 -> rebuildを繰り返すと、
4TBのRAID5のmdになりますか?
7login:Penguin:2008/04/19(土) 01:41:49 ID:HK/oHEtZ
>>6
それでアレイは大きくなるけどその上のパーティションやファイルシステムは
そのままだから、どうにかしてこれらを拡大しないと使える容量は変わらない
RAID5のリビルドを何度も繰り返すよりバックアップ→1TB5台でアレイ作成→リストア
の方が絶対速いし安全
8login:Penguin:2008/04/19(土) 01:56:33 ID:vQ5Tkj7T
>>7
あ、それはmdを生で丸ごとLVMのPVにしてるので、mdレベルで拡張できればokなのです。
LVMの方はpvresizeでも叩けばよいので。
9login:Penguin:2008/04/19(土) 07:37:10 ID:8NrmX72K
じゃあ俺も

chunkサイズってデフォの64k以外にしてる人居ます?
というかchunkは64でFS側のブロックサイズを変更の方が多そうですが。
巨大ファイル置き場の場合差は出ませんが、細かいファイルが多い場合はパフォーマンスにも影響しますよね。
WinだとよくRAIDとNTFSのユニットサイズを変えてチューンしましょうってな話が有るんですが、Linuxの場合どうなんでしょ。
md使ったサーバのパフォーマンスチューニングの話、あんまり出てないですよね。
10login:Penguin:2008/04/19(土) 20:36:17 ID:VEGs6IkJ
初歩的な質問ですいません

SATAx4をmdadmでraid5組んで使っていたのですが

昨日ぐらいから/dev/sdcのディスクで不良セクタありまっせー って言うログが出るように
なったのですが、mdstatを見る限りデッドにもなっておりませんでした。
この場合、ディスク自身の予備セクタにVOLPATCHされたと考えていいものでしょうか?

11login:Penguin:2008/04/19(土) 21:53:40 ID:iQfZTFD9
いいえ
12login:Penguin:2008/04/25(金) 15:15:19 ID:TvMLl1Gn
Intel ESB2が乗ってるRHEL4鯖でmdraidをテストしました。
raid5,6がこんなに遅いとは知りませんでした。ソフトだからこんなもんなんですかね?

<hdparm -tの結果>
single
*1 83

raid0
*5 406
*4 330
*3 248
*2 166

raid5
*5 240
*4 243
*3 164
*2 82

raid6
*5 172
*4 138
13login:Penguin:2008/04/25(金) 15:18:44 ID:TvMLl1Gn
>>9
でかいファイル扱うのが多いなら、大きめにとったほうが速いって聞きますよね。
試したことはないですが・・・

アホにもサクッとできるチューン方法があればいいんですけど、あんまり見かけないですよね。
14login:Penguin:2008/04/25(金) 15:20:02 ID:zrZvoPLa
今時hdparmの数字を見て一喜一憂するやつのほうがおかしいと思う
15login:Penguin:2008/04/25(金) 15:22:53 ID:TvMLl1Gn
>>14
まずいですかね?
お手軽だけど、そんな変な数字出さないと思いますが
16login:Penguin:2008/04/26(土) 13:17:32 ID:nn6a9nzS
質問です

mdadmでRaid0からRaid5へマイグレーションて出来ますか?
もし出来るなら英語でも構わないので解説の載ってるサイトを教えてください。
17login:Penguin:2008/04/26(土) 15:43:56 ID:eU6+VUpI
>>13
あるサイズのファイルがリクエストされたとき、それがどれほどのドライブに分散されているか、
同時に他のファイルもリクエストされているとき、シーク量合計が少なくなる条件は?と
考えるとアホにもそれなりにチューン出来ると思う >>9

>>15
haparmってことはシングルのシーケンシャルリードを見てるわけだよね。
その性能が必要になる用途って有るの? ってことじゃないかな(笑)
ま、一面はかいま見れるから無駄じゃないと思うよ。
18login:Penguin:2008/04/26(土) 16:34:51 ID:UmJKKnQl
>>16
出来ません
無理にやるなら
(1) RAID1からHDDを1個取り外してdegraded arrayにする
(2) 取り外した1個にもう1個を加えてdegraded arrayのRAID5を作る
(3) RAID1からRAID5へコピー
(4) RAID1を停止
(5) RAID1になっていたHDDをRAID5に追加

普通にバックアップして作り直すのと大差ない手間とリスクw
19login:Penguin:2008/04/26(土) 18:00:53 ID:nn6a9nzS
>>18
ありがとう。ケチらずにもう1個HDD買ってきますw
20login:Penguin:2008/04/26(土) 22:03:17 ID:hYYsRbcz
質問は0→5で回答は1→5?
0→4ならパリティ計算だけ独立に出来ればいけそうと妄想
21login:Penguin:2008/04/28(月) 00:04:43 ID:gqQLtA13
RAIDを始めてみようと思うのですが質問させてください。

OSとゲームを入れるディスクをWDの320Gを2つで、RAID0しようと思ったのですが
RAID0は、壊れやすいようでやめた方がいいといわれました。

そこで、RAID0+1なるものがあると聞いたのですが
こちらはHDDいくつで構成できるものなんでしょうか

22login:Penguin:2008/04/28(月) 00:22:10 ID:/KbnXwpt
>>21
        ,.-─ ─-、─-、
      , イ)ィ -─ ──- 、ミヽ
      ノ /,.-‐'"´ `ヾj ii /  Λ
    ,イ// ^ヽj(二フ'"´ ̄`ヾ、ノイ{
   ノ/,/ミ三ニヲ´        ゙、ノi!
  {V /ミ三二,イ , -─        Yソ
  レ'/三二彡イ  .:ィこラ   ;:こラ  j{
  V;;;::. ;ヲヾ!V    ー '′ i ー ' ソ
   Vニミ( 入 、      r  j  ,′
   ヾミ、`ゝ  ` ー--‐'ゞニ<‐-イ
     ヽ ヽ     -''ニニ‐  /
        |  `、     ⌒  ,/
       |    > ---- r‐'´
      ヽ_         |
         ヽ _ _ 」
_________∧__________
ttp://www.google.com/search?client=opera&rls=ja&q=RAID0%2B1&sourceid=opera&ie=utf-8&oe=utf-8
23login:Penguin:2008/04/28(月) 03:31:37 ID:EGlC5N3Z
>>21
3台以上
24login:Penguin:2008/04/28(月) 07:56:15 ID:0k5NUecK
>>21
ばかだなー
0+1=1 にきまってるじゃん
2515:2008/04/28(月) 13:14:56 ID:RmVAke7d
>>17
数十GBのファイルを扱いまくる科学技術計算系の用途なんで・・・
hdparmスレを見るからに、この板でそういう人って少ないぽいね
26login:Penguin:2008/04/28(月) 13:45:59 ID:CaASvQdg
yes
ラボにいたのは昔のことなので時代が違うが、でかいnfs鯖だったりクラスタ使ってた。
そういうスタンドアロンなws的用途って少なくない?
27login:Penguin:2008/04/28(月) 14:30:37 ID:RmVAke7d
NFSは遅いからなぁ。
やっぱり1ノード内で処理とIOが完結してるほうが速いし扱いやすい。
それ以上の規模になれば違った形もあるだろうけど、1研究室レベルならこれで十分。
28login:Penguin:2008/04/28(月) 17:28:18 ID:CaASvQdg
やー管理まんどくさ → シンクラにしてまえ → nfs → クラスタ
みたいな(笑)  台数の問題か。
うちは計算結果はデカかったが計算前はさほど読み込まなかったからな
29login:Penguin:2008/04/28(月) 22:33:16 ID:RmVAke7d
あるあるw 計算機は使い捨てるつもりでいるほうが
むしろ効率的だったりするし、気分的にも楽だね。
研究時間割かれるし、管理の手間って実際馬鹿にならん
30login:Penguin:2008/04/29(火) 01:56:03 ID:SNNS6IoH
AHCIは色々と難しそうなので、単体RAIDモードでWD 6400AAKSを使用したいのですが
マザーボードがRAIDに対応していません。

また、BIOSにRAIDモードの選択がありません。

PCI接続のRAIDカードを購入すれば、RAIDモードにできるのでしょうか?
また、PCIex×1でなく、普通のPCIスロットでの単品RAIDモードにした場合
マザーボードのSATAコネクタと比べて、速度の向上は見込めるのでしょうか?

PCIで遅くなるとしたら、マザーのままIDEモードで使ったほうがよさそうなので・・
意見お待ちしています。
31login:Penguin:2008/04/29(火) 16:00:04 ID:MVziVsfe
単体RAIDモードって何だよ・・・
mdraidとかのソフトRAIDなら関係ないよ>マザーボードがRAIDに対応していません。
PCI経由よりはIDEのほうが速いよな、さすがに
32login:Penguin:2008/04/29(火) 16:06:11 ID:SNNS6IoH
2台以上で組まなくとも、1台でRAIDモードにするだけで
若干ベンチの向上が見込めると、聞きました。
33login:Penguin:2008/04/30(水) 00:45:49 ID:6T3g1Mrv
RAID って何なのか…ということを判ってない人が多いな。
本来性能を向上させるための仕組みではないし、1台のディスクで RAID もどきを
組んでも性能が上がることはあり得ない。仮にベンチの向上があったとすると、
タコなドライバの代わりに別の優秀なドライバが動く…とかキャッシュが効いた…
とかいう RAID とは別の次元の話だな。
34login:Penguin:2008/04/30(水) 01:36:10 ID:7PV2fDGJ
RAIDって何ナノか・・・ということを判ってない人が多いな。
水の凝固点の話だな。
35login:Penguin:2008/04/30(水) 01:53:38 ID:01fUwoJq
寒っ!
36login:Penguin:2008/04/30(水) 02:33:58 ID:5EVGoWvM
過冷却だよ。それはRAIDではない。
37login:Penguin:2008/04/30(水) 16:14:14 ID:Fu/w9aTu
>>32
俺は聞いたことないが…

>>33
本来というか名前上はそうだが、実際は性能も同じくらい重要な要素でしょ
38login:Penguin:2008/04/30(水) 16:16:14 ID:VvZpuE3V
でも性能はRAIDで上げるもんじゃない
39login:Penguin:2008/04/30(水) 20:33:24 ID:Fu/w9aTu
>>38
意味が分からない・・・
ディスクを束ねて帯域上げるってのが考えの基本でしょ?

考えてる対象が違うのかな。せいぜい〜16台程度のディスクを言ってるんだが
それ以上でかい規模のはよく知らないや
40login:Penguin:2008/05/01(木) 02:40:51 ID:DmXJDGFI
RAIDは性能を犠牲にして信頼性を上げるものだ、ってのが>>38じゃないのかな?
41login:Penguin:2008/05/01(木) 06:09:48 ID:nzSghs7D
結果早くなるんならそれはそれでいい気がする
信頼性(冗長性)も性能(速度)もRAIDの目的じゃないのか。
どっちを選ぶかとか両方とかって事はあるけど。
42login:Penguin:2008/05/01(木) 09:38:55 ID:ruhvYnV6
そのとおり。俺は両方欲しくてRAIDにする。
実際、今のPCで一番のボトルネックなのがディスクだしな。
自作板とかにいる云GBを扱うエンコ野郎は当たり前のように使ってるよ
43login:Penguin:2008/05/01(木) 23:43:56 ID:V1OLORy4
>>41
つRAIDのR
44login:Penguin:2008/05/02(金) 10:12:53 ID:0sXzr/l1
RAIDなんてもう立派な固有名詞だろうが
「RAID0はRAIDじゃない」とか、この手の議論は不毛だからヤメヤメ
45login:Penguin:2008/05/05(月) 13:44:16 ID:GrLztUcE
>>41
ソレダヨッ (´∀`)9 ビシッ!
オレは金無いから、性能を犠牲にして信頼性を上げている。
46login:Penguin:2008/05/05(月) 20:56:46 ID:fVl8wqJm
DebianのインストーラーでRAID1にしたんですけど、
頻繁にHDDのアクセスランプが点きます。こんなもんなのかな?
47login:Penguin:2008/05/05(月) 22:41:51 ID:tIgIZxmA
RAIDにしなければ頻繁ではない、ということですよね。
どの程度違いますか?
4846:2008/05/05(月) 23:14:35 ID:fVl8wqJm
HDDの構成が違うんで一概に比較はできませんが、
RAID1にするとアイドル状態でも30秒に一回はHDD LEDがちょっとつくといった感じです。
前にHDD 1つで使ってたときはアイドル状態の時はほとんどHDD LEDはつきませんでした。
hdparmしてみたら、80MB/sぐらいでますんで、HDDは壊れかけては無いと思います、新品ですし。
RIADの整合性を取るためにアクセスがあるんですかね。
49login:Penguin:2008/05/08(木) 05:53:18 ID:toesW/sK
HDD4発でSoftware RAIDを組もうとしています。
しかし、Create段階で、「md1が開けない」と怒られます。
どうすればよいのでしょうか?
50login:Penguin:2008/05/08(木) 18:04:10 ID:W35+TxlN
devicemapperが悪さしてるに一票
51login:Penguin:2008/05/10(土) 04:09:07 ID:zlSpDqUQ
>>50
対処方法のアドバイス願います。
ちなみに、HDDはUSBです(関係無いか(汗))
52login:Penguin:2008/05/10(土) 09:59:58 ID:5KnqgZhO
>>51
具体的なエラーとしては

# mdadm ?create /dev/md0 ...
mdadm: Cannot open /dev/sda1: Device or resource busy
mdadm: Cannot open /dev/sdb1: Device or resource busy

という話と了解しているけど、あってる?

占有されているデバイスを開放するのは

 dmsetup remove_all
 dmsetup remove <name> # dmsetup ls とかで名前は確認

でできる。だけど、そもそも自動的にdm配下に入るのが問題なら
/etc/以下でdmを切る必要があるかも。こっちはdmは不要なので
dmsetupごとアンインストールした。
53login:Penguin:2008/05/10(土) 14:55:26 ID:1Imbxh2Z
CentOS5でRAIDを組みたいと思っています。
検索してみるとLinuxではソフトウェアRAIDを推奨してる人もいるんですが、
素人考えでソフトウェアRAIDは
・遅い
・そのためのドライバが必要になる(無料且つデフォルトで入っているとしても)
・運用開始してオンラインでアップデートされたのちOSが壊れると、
 手元にある旧バージョンのインストールディスクでは認識しない可能性がある
・同じくOSが壊れて管理情報がなくなると復旧できなくなる
などというイメージがあるんですが、そんなことはないのでしょうか?

ハードウェアRAIDで単に1つのハードディスクとして認識されるなら、
OS的には何も気にしなくていいと思うんですが・・
おすすめの方法、ハードウェアなどありましたら教えてください。
54login:Penguin:2008/05/10(土) 15:01:11 ID:IAFdsD6t
素人が考えてもハマるだけ
さっさとSoftware RAIDでRAID1組んでノウハウ蓄積しろ
55login:Penguin:2008/05/10(土) 15:42:12 ID:5KnqgZhO
正しい素人のRAID -> Buffaloの外付RAID箱でも買う
正しい貧乏なRAID -> なんちゃってRAID以外のSoftware RAIDを自力構築
正しいプロのRAID -> なんちゃってRAID以外のRAIDを眼力で選ぶ
正しい富豪なRAID -> 外付RAID箱を買う(Buffaloじゃないよ)
56login:Penguin:2008/05/10(土) 16:52:01 ID:zlSpDqUQ
>>52
アドバイスありがとうございます。

出ているエラーは、

[root@hoge ~]# mdadm -C /dev/md1 -l5 -n4 -f /dev/sd[ghij]1
mdadm: error opening /dev/md1: No such file or directory

になります。

教えてクンで申し訳ありませんが、再度、ご教授願います。
57login:Penguin:2008/05/10(土) 17:18:25 ID:IAFdsD6t
>>56
RAIDのドライバがロードされていないとそうなる気がした
普通は自動的にロードされるはずだけどね
カーネル再構築してたりとかすると
58login:Penguin:2008/05/10(土) 17:29:10 ID:zlSpDqUQ
>>57
Kernelはイジッテません。
RAIDは、md0が元気に動いてます。
うーん、なんか、ドツボにハマっている様な・・・
折角、救世主さまがいらっしゃるのに、再インスコの予感・・・
59login:Penguin:2008/05/10(土) 17:31:25 ID:zlSpDqUQ
訂正スマソ

Kernelはイジッテません。

KernelのRAID部分はイジッテません。
60login:Penguin:2008/05/10(土) 17:33:44 ID:IAFdsD6t
はいはい釣り師釣り師
61login:Penguin:2008/05/10(土) 17:50:21 ID:zlSpDqUQ
マジで悩んでる
62login:Penguin:2008/05/11(日) 00:24:24 ID:P9QMGt5m
>>56
Redhat系のrcスクリプトはmd0しかブート時に作ってくれなかった気がする。
自分でmd1をmknod したら動いたりしない?
63login:Penguin:2008/05/11(日) 02:38:16 ID:0GsFNoK9
>>56
おおぉ、出来ました。
mknod・・・知りませんでした。

ありがとうございました。
64login:Penguin:2008/05/12(月) 15:57:53 ID:gUbK5cyP
/dev/sda2 /dev/sdb3 /dev/sdc3 という構成で /dev/md0 にsoftwareRAID5を
組んでいます。
ある日、mdadmから「A DegradedArray event had been detected on md device
/dev/md0.」というメールが届いたので、/proc/mdstat を見てみたら、
/dev/sdb3がお亡くなりになった([U_U])ようだったので、交換して
mdadm -A /dev/md0 /dev/sdb3 を実行してみたところ、/dev/sdc3が
突然/dev/sdc3(F) になりまして、[UU_]になりました。

で、そのまま/dev/sda2と/dev/sdb3 のみでリビルドをかけはじめ、RAID5が
ぶっ壊れた模様です。([U__]な状態です)

その後、mdadm -r と mdadm -A を繰り返してみたのですが、spareとしてしか
追加されず、再構築はされませんでした。

で、/dev/md0 は / にマウントしてあったので、shutdownすらできなくなって、
強制リセットして再起動したところ、予想通りkernel panicでboot中に止まって
しまうわけなのですが、/dev/sdc3 は完全には壊れていない気がするので、
なんとか /dev/sda2 と /dev/sdc3 でRAID5を復活させて、データをサルベージ
できないかと考えています。

knoppixでmdadm --examineすると3台とも下記のような状態なのですが、
これを無理矢理有効化する方法はないでしょうか? (つづく)
6564:2008/05/12(月) 15:58:19 ID:gUbK5cyP
/dev/sdb3:
Magic : a92b4efc
Version : 00.90.00
UUID : 439a851f:fe70ff5f:1b734cc3:d7b0fc30
Creation Time : Wed Jul 19 10:18:27 2006
Raid Level : raid5
Device Size : 156119552 (148.89 GiB 159.87 GB)
Array Size : 312239104 (297.77 GiB 319.73 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0

Update Time : Mon May 12 01:45:59 2008
State : clean
Active Devices : 1
Working Devices : 3
Failed Devices : 2
Spare Devices : 2
Checksum : 7e576fe1 - correct
Events : 0.81920972

Layout : left-symmetric
Chunk Size : 256K

Number Major Minor RaidDevice State
this 4 8 19 4 spare /dev/sdb3

0 0 8 2 0 active sync /dev/sda2
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 35 3 spare /dev/sdc3
4 4 8 19 4 spare /dev/sdb3
66login:Penguin:2008/05/12(月) 16:37:41 ID:tGJxYdMx
ありがちありがち
67login:Penguin:2008/05/12(月) 19:20:14 ID:oXnGIv9t
>>64
こんなレベルの話じゃないかもしれないけど、

UUID : 439a851f:fe70ff5f:1b734cc3:d7b0fc30
devices=/dev/sda2,missing,/dev/sdc3

みたいなmdadm.conf作って、
mdadm -A -s -c .../mdadm.conf
でアクティブにならない?
68login:Penguin:2008/05/13(火) 02:05:16 ID:tK2iSOGG
>>53を興味を持って見てるんだが
まともなレスがつかないのは素人が試行錯誤してるレベルの人が多いのかな。
69login:Penguin:2008/05/13(火) 02:34:00 ID:jpZpvu91
ハードRAIDのスレは別にあるから
7064:2008/05/13(火) 12:10:42 ID:puJGEVal
>>67

ARRAY /dev/md0 level=raid5 num-devices=3 spares=0 devices=/dev/sda2,missing,/dev/sdc3 UUID=439a851f:fe70ff5f:1b734cc3:d7b0fc3
を設定後、mdadm -A -sを実行してみたんですが、下記の通りspareとして認識されてしまうんですよね。
--force --runしても同じ結果になってしまうようで、これを無理矢理Active化したいのですが、うーん・・・

root@Knoppix:~# mdadm -A -s -c /etc/mdadm/mdadm.conf
mdadm: /dev/md0 assembled from 1 drive and 1 spare - not enough to start the array.
root@Knoppix:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : inactive sda2[0] sdc3[3]
312263168 blocks super non-persistent
71login:Penguin:2008/05/13(火) 17:08:39 ID:3bKpz4k4
>>68
利点欠点をちゃんと理解して、用途に応じて使えばいいだけでしょ。
オンボによくあるなんちゃってRAIDよりこっちのほうがいいな。

つーかパリティ計算しないRAIDレベルなら遅くないよ。むしろ速いこともある。
ハードウェアRAIDはドライバがウンコだったりすると悲惨だし。
72login:Penguin:2008/05/13(火) 17:58:40 ID:rrZDv89G
>>71
 >>53はその利点・欠点を教えてくれと言っていて
 >>68はそれが説明できないレベルの人ばかりなのか?
 と言っているんだから話は合ってるんじゃね。
俺がレスを勝手にまとめると
 ここはソフトウェアレイドのスレだからハードに詳しい人はいない
 オンボードのなんちゃってRAIDよりはソフトウエアRAIDの方がいい(理由は未説明)
 パリティ計算しないRAIDなら遅くない
 ハードウェアRAIDはドライバ次第(よいハードは未説明)
ってとこかな
73login:Penguin:2008/05/13(火) 21:44:54 ID:3bKpz4k4
>>72
まぁ、そうか・・・

>オンボードのなんちゃってRAIDよりはソフトウエアRAIDの方がいい(理由は未説明)
フェイクRAIDっつーんだっけ?実は俺も詳細は良く知らない。
BIOSレベルでアレイを提供するが、RAIDの処理自体は一部ソフト処理、って程度しか。
引越しが偉く大変で、カードと違ってママンが死ぬとオシマイなんだよな・・・。
昔それで偉い目にあってそれ以来使ってない。

自作板とかで聞くという手もあるが叩かれそうだなぁw。あそこいつも荒れてるし

>ハードウェアRAIDはドライバ次第(よいハードは未説明)
自作板のスレで報告例眺めれば、それなりの参考にはなるけど。
まぁ相性とか色々あるから予想通り性能が出るとも限らんわな


Linux板ってベンチ厨少ないし、このスレも2、3台のHDDでささやかにミラーしてるような人ばかりだと思う。
74login:Penguin:2008/05/14(水) 00:19:39 ID:XfmBxcKd
>>68
>>53を読んで相手にしようというモチベーションが涌いた人がほとんど居なかった
75login:Penguin:2008/05/14(水) 03:26:23 ID:VkQ6PMP7
とりあえず俺には真のハードウエアRAIDと、管理情報をカードに記録するだけのソフトウエアRAIDを見分ける能力がないので回答のしようが無い。


76login:Penguin:2008/05/14(水) 11:25:51 ID:KLh+JPP/
パリティ計算用のチップが載ってるかどうかじゃないの?
 →真のハードウェアRAIDとなんちゃってRAID

前者なら3wareを推す
・ドライバがカーネルに入ってる
・メンテしてるのは3ware(AMCC)の中の人
・Webベースの管理ツール(3DM2)がある
・カード自体の性能や信頼性も良い
77login:Penguin:2008/05/14(水) 12:28:30 ID:iE9Q0/9B
ドライバが、(必要であるとしても)コントローラのドライバだけなのがハードRAID。
当然、どのOSからも(BIOSからも)1台のHDDに見える。
もちろん、既存のSCSI等に繋ぐRAID箱も含む。
78login:Penguin:2008/05/14(水) 13:35:20 ID:CdNA1NTm
>パリティ計算用のチップが載ってるかどうかじゃないの?
ほんとかなぁ
じゃあRAID0や1はソフト処理ではないってこと?

とりあえず>>53は自作板の専スレに行くべきかと(過去ログ目を通してから書くこと!)
7964:2008/05/14(水) 15:21:04 ID:GLS6WG/C
64ですが、自己解決しました。

raidzapを参考に、superblockを直接書き換えて mdadm -A --force --run したらマウントできました。
しかしトラブって思ったんですが、手軽なsuperblock編集ツールってありそうでないのね。。。作ったら需要あるかな?
80login:Penguin:2008/05/14(水) 17:49:39 ID:6ymrsghF
以前、md1が作成できずに、相談したところ、mknodeで腕力で/dev/md1を作成
することに成功した者です。

現在、CentOS5.1を使用してますが、RedHat系のrcスクリプトは、デフォでmd0
しか作成してくれません。
起動時にmd1を作成するスクリプトを教えてください。

以下、/etc/rc.d/rc.sysinitのRAID部分
# RAID setup
update_boot_stage RCraid
[ -x /sbin/nash ] && echo "raidautorun /dev/md0" | nash --quiet
if [ -f /etc/mdadm.conf ]; then
/sbin/mdadm -A -s
fi


あと、shutdown時に必要な追加箇所があれば、教えて下さい。
8162:2008/05/14(水) 22:52:42 ID:EPojDu+m
>>80
まてまて、手動で出来てスクリプトで出来んとはどういう状況なんだよ。
82login:Penguin:2008/05/14(水) 23:45:24 ID:6ymrsghF
>>81
スクリプトで出来ないのではなく、スクリプトの“書き方”が分らないのです。
紛らわし日本語でスミマセン・・・
83login:Penguin:2008/05/15(木) 00:44:39 ID:Mw8pOyA7
>>82
手動で打ったコマンドをそのままスクリプト中に

mknod /dev/md1 b 9 1

とか書けばいい。
システムのスクリプトは様々な環境に対応できるようやたら凝ったif文が満載だが、
自分のシステムをいじる分には気にする必要はない。がりがり決めうちコードを書けばよろし。

・・・・と、いうのが基本で、今回に限って言うと

[ -x /sbin/nash ] && echo "raidautorun /dev/md0" | nash --quiet

という行が

もし、/sbin/nash が実行可能であれば、nashを起動してraidautorun /dev/md0
というサブコマンドを実行する。
という意味なので、ここの一行下に、/dev/md1に書き換えたそっくりコードを書けば動くんじゃまいか?
84login:Penguin:2008/05/15(木) 04:29:42 ID:ov6Vj1NY
>>83
おぉぉ・・・
出来ました。
こんなに簡単な事だとは・・・

学生時分からCodingが嫌いで、構文を見ると頭痛がするもので・・・

ありがとうございました。
85login:Penguin:2008/05/16(金) 22:11:03 ID:+eVNXB7n
http://pc11.2ch.net/test/read.cgi/hosting/1114174396/108

↑これの対策ってどうすればいいの?
86login:Penguin:2008/05/18(日) 14:25:03 ID:G0J/jsmN
>>85
N段階バックアップをとって、2つ前のバージョンに戻せるようにするのが基本。かな。
でも2chみたいにデータ消えても損害賠償がこないようなデータを扱ってる場合は、
こういう割り切りをしちゃうのも、また、基本
87login:Penguin:2008/05/19(月) 18:04:16 ID:uCz8LN7S
>>64
ディスクが壊れたところ申し訳ないんだが
> お亡くなりになった([U_U])
かわいいw
88login:Penguin:2008/05/19(月) 21:34:19 ID:kYUOyLA2
1TBのHDD x 4 で RAID5 組んでみたんですが、半日放置しても、
/proc/mdstat に、
recovery = 19.3% (189467904/976759936) finish=1133.6min speed=11572K/sec
みたいに出てるんですが、recoveryってこんなに遅いもんでしょうか? (泣)
89login:Penguin:2008/05/20(火) 01:00:20 ID:aN/Be4xB
>>88
自分もアクセスしながらのsyncなら11MB/sも出れば御の字じゃない?
まったく使わず専念させれば40MB/s位なら出たけど(RAID-1の場合)。
90login:Penguin:2008/05/20(火) 10:37:45 ID:z2v1aIzv
リカバリ中じゃそんなもんかと
mdのRAID5ってそもそも速いもんじゃないし

つーか、作成時リカバリをスキップするオプションってなかったっけ?
91login:Penguin:2008/05/20(火) 17:14:42 ID:S3zj15N5
500GB x2のHDDをRAIDにしようと思います。
初歩的な質問で申し訳ないんですが、
RAIDにしたデバイスにOS自身が入っていることは問題ないんでしょうか?
プログラムが入っていることは問題ないか?ということと同じかも知れません。

プログラムは正常で、データがおかしいならプログラムが処理できると思うんですが、
プログラム(ファイル)のどちらかがこわれていた時に対応できるのかな?
という素朴な疑問です。
よろしくお願いします。
92login:Penguin:2008/05/20(火) 23:33:02 ID:vAoiwwoU
>>88
ちょっと遅すぎるような気がするけど。
家の環境では、50MB/secくらいは出てたと思った。
CPU:BE-2300
マザボ:AN-M2HD
HDD:HDP725050GLA360x4(RAID5、chunk size:128k)
9388:2008/05/21(水) 01:27:53 ID:HPeGLDSL
>89>90>92さん
皆さん速いですねえ。外付けのSATA箱で、ケーブル1本の
先に port multiplier 経由で繋がってるので、個別にSATA
で繋ぐ場合に比べると遅いとは思うんですが…
4wayのraid0を組んでも2倍速も出ませんし。

ちなみに、onboard の jmicron よりも、玄人志向の外付け
silicon image の方が速いですね(bonnie++)。結構差が
出るので驚きました。

specは以下の通り
CPU: Core2Duo E8400
マザボ: P5K-E
HDD: WD10EACS × 4
94login:Penguin:2008/05/21(水) 14:34:06 ID:J4TqOFWl
port multiplierでも250MB/sまでは出るんだっけ?
最近のHDDなら4wayで食いつぶせる帯域だな・・・
95login:Penguin:2008/05/22(木) 18:38:35 ID:itWQcnkn
かなり遅レスだが>>53
Fake RAIDの説明は↓が分かりやすいかと
http://itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/

Fake RAIDの利点
(1)BIOSが起動した時点からRAID機能が使える
(2)BIOS側の設定だけでRAIDが使えてしまう
9695:2008/05/22(木) 18:39:28 ID:itWQcnkn
やば、FakeRAIDについて聞いてるんじゃなかったのね
消えます
9753:2008/05/23(金) 00:36:43 ID:Kb6KGqA1
>>95-96
いやいや、ありがたいです。
あんまり詳しい人がいないみたいで、
ほとんどレスがつかないですから。
勉強させてもらいます。
98login:Penguin:2008/05/23(金) 13:36:56 ID:XVxqStdH
結構レスあると思うけどなぁ… ちなみにうちは>>74状態だった。
まずは、長文失礼OTZ&パット思いついた分だけだけど。

FakeRAID、HWRAIDの欠点
  MB or HWRAID カードが壊れると、同じチップの物を用意しないと復旧できない場合が大半。

HWRAIDの欠点
  高LvRAID対応のカードが高価。
  安いのを買うと速度が出ない場合がある。

FakeRAIDの欠点
  チップが負荷に耐えられなく、管理情報が飛ぶ場合もある。(MBによる)

FakeRAID、SoftRAIDの欠点
  CPUパワーを使う(最近のCPUなら誤差程度)

SoftRAIDの欠点
  手順が複雑になりがち。

FakeRAID、HWRAIDの利点
  OSからは単一ドライブに見える(設定次第)

HWRAIDの利点
  手順が簡単、高価なボードなら速度が出る、物によってはHotSwapができる。CPUパワーを使わない。

FakeRAID、SoftRaidの利点
  安価に出来る。

SoftRaidの利点
  ネットワーク先のHDDもRAIDアレーの構成として取り込める(要設定&パフォーマンス低下)
うちのお勧めは、資金が潤沢にあるなら高価なHWRAID(予備カード含む)、無いならSoftRAID(mdadmで)かな。FakeならSoftにするなぁ・・・
書いた後ぐぐったらこんなの出てきたOTZ http://www.geocities.co.jp/SiliconValley-Cupertino/6138/computer/hdd/column/column_02.html
99login:Penguin:2008/05/23(金) 13:44:29 ID:XVxqStdH
100login:Penguin:2008/05/23(金) 14:18:38 ID:CgmY/Ptt
>SoftRAIDの欠点
>  手順が複雑になりがち。
そうかなぁ。手順自体は楽じゃない?
システムが逝ったときにやばいと聞いたことあるけど、あんま経験ないんでよく分からん

FakeRAIDってソフトウェア処理なカード(例:Highpint製カード)もオンボRAID(例:nvraid)も含むみたいだな。
カードに比べてマザーボードのほうがライフサイクルが短い分、後者のほうがリスキーだわな・・・
101login:Penguin:2008/05/23(金) 21:21:54 ID:fYA/77u8
>>53
最近のソフトウェアRAID(mdadmのやつ)なら、RAIDを構成しているディスクさえ
無事なら復旧することは可能だと思いますよ。
最近システムディスクからカッコン音がしてきて、死にそうだったんだけど
興味本位でそのまま運用を続けてみたところ、システムディスクの方は
やっぱり死んでしまいました。(フリーズ後、強制電源断)
でも、RAIDの方は、新しいシステムでmdadm.confを適当にでっち上げて
うまく認識できています。

自分は、個人使用ではソフトウェアRAIDで十分と結論づけています。
102login:Penguin:2008/05/24(土) 04:53:15 ID:Flwr9z9r
まだいたのかw >>53
一般的なsoft/hard RAIDの善し悪しはググれば出るので、Linuxでどうか、って話だよね?

・速度:比較対象による
・おすすめ:要求仕様による

こんな感じかな。
103login:Penguin:2008/05/24(土) 20:25:28 ID:iUhj2EjD
>こんな感じかな。
ワカンネーヨw
104login:Penguin:2008/05/24(土) 23:14:33 ID:VINc/RoR
余計なHWが入る分だけリスクが確実に増える気がしてしまうんだけど。
mdでPC本体の負荷が上がることによるリスクというのも
いくらか評価すべきなのか?あとは、mdadmの誤操作による
データロスなどというヒューマンファクタくらい?
105login:Penguin:2008/05/25(日) 10:41:15 ID:MEYM67Vm
誤操作についてはミス対象がmdadmかHW-RAID制御コマンド(かROM画面)と
違うだけで大して変わらん。実際、HW-RAIDで、壊れてないほうのディスクを
抜いて飛ばしたりとかポカミスをしたこともあるし。

結局は専用HWであることの信頼性(PC本体よりも高い(ものもある))と
性能が差別点だね。
10653:2008/05/25(日) 18:39:41 ID:ZbgcdECV
いろいろレスどうもです。
手間はそれほどでもなさそうですけど、
障害発生時の対処は気をつけないといけないようですね。

1日に1回バックアップすれば何とかなる・・程度の使い方なら、
2台のHDDをメインと、数世代分のバックアップに分けて使う
使い方でもいいような気がしてきました。
RAIDの方は家で試してみることにします。
ありがとうございました。
107login:Penguin:2008/05/26(月) 10:56:05 ID:3TEU8xqu
mdadm で作った RAID5 アレイをデータ保持したまま
RAID6 アレイに変更することってできますか?
108login:Penguin:2008/05/26(月) 21:46:44 ID:MqrVyWY0
前スレでかな、試した人いたような?
109login:Penguin:2008/05/27(火) 03:21:53 ID:wH5d3Eeo
mdadmのヘルプに書いてあるのを読んだ限りは無理 2.6.2
110108:2008/05/27(火) 05:05:40 ID:ufV7eXCX
>>107
すまん、過去ログ調べてみたら、試した人いたのRAID5のreshapeだったOTZ

(皆RAID5→RAID6に出来ればいいなーって言ってて、それが頭に残ってた)
111107:2008/05/27(火) 12:36:28 ID:cvJ1P9ZG
>>110
わざわざすみません 過去ログみたら散々同じ話題がでてましたねorz
念のためパーティション4つ切ってRAID5(3+spare)をつくって
RAID6にgrowしてみたらまだ無理と言われました (mdadm 2.6.4)

ところで4台で組んだRAID5の1台がfail
スペアを入れてリカバリかけたらfail
別のスペアでリカバリかけてもだいたい同じところでfail
これはやはりアレイのHDDのどれかが死んでるんでしょうか
112login:Penguin:2008/05/27(火) 19:44:41 ID:wH5d3Eeo
>>111
> これはやはりアレイのHDDのどれかが死んでるんでしょうか

たぶん。
各HDDにsmartctlするとか、若干危ないけどddで全面読み出ししてみるとか。
113login:Penguin:2008/05/29(木) 18:45:13 ID:z4TVEXKi
ハードウェアRAIDはカーネルがサポートさえしていれば
OS上からは普通のHDDと同じように見えますか?
114login:Penguin:2008/05/30(金) 00:10:48 ID:kZsNjwu9
>>113
カーネルがサポートというか、要するにドライバが入ってれば。
普通は/dev/sd*に見える。

そういや/dev/sd*の順番って、チップセット内のコントローラ→PCI等の外部バスだっけか?
USB接続したまま起動するとこの順番が狂ったりして困るんだなw(んなことすんなという話だが
115aa:2008/06/09(月) 01:27:36 ID:3u30S3Lk
>>70

Linux md って一度ディスクが degrade しちゃうと fail を RAID の
control block に mark します。なので、1 度でも degrade してし
まうと、RAID の control block を再初期化するまでは RAID の一部
として追加できなくなってしまうか、spare として上書きされる運命の
ボリュームとして構成されるような気がします。

RAID の control block を修正するのが良さそうですよ。
データリカバリ業者に持ち込めばデータ部さえ上書きさえ
されてなきゃ確実にデータは取り戻せるような気はします。

ところで、RAID の仕様として、rebuilding 中なら 2 台のうちもう
1 台を fail とマークしないほうが良いような気がするんだけどね。
仕様としてどうなんでしょうね。。。あんまり実用的じゃないよね。
> Linux md
116login:Penguin:2008/06/09(月) 02:14:29 ID:Y6j9jFvx
SW RAID5(250GBx4)で組んでるのですが
1TBのHDDを一台ずつmark failed -> 交換 -> rebuildを繰り返してみました
この状態からmdを拡大することってできるんでしょうか
117login:Penguin:2008/06/09(月) 03:27:02 ID:F+1xrY6i
>>115
failしたディスクにアクセスし続けて傷を広げる仕様もどうかと思うが

>>116
mdadm --grow
118login:Penguin:2008/06/09(月) 03:29:26 ID:6IbjQHwB
確か出来るようになったはずだけど(要Kernelとmdadmのバージョンチェック)、その構成なら

(ポート不足の場合)
元アレー(250GB*4)からマイナス1台構成をROでマウント → 1TBのHDD1台にコピ(a)ー →
 → 元アレー除去 → 1T3台の縮退モードで起動(bcd) → aからbcdにコピー→
 → aをフォーマット後aをbcdに追加でよかったんじゃ?

(ポートが足りてる場合)
250GB*4構成と1TB*4構成を作成後コピー→250GB*4構成を除去でもOK
119aa:2008/06/09(月) 07:13:31 ID:3u30S3Lk
おはようございます。

a,b,c の 3 台構成で、a が完全に死んでて、b が修復可能な軽微な
エラーがある場合、

1. a が fail
2, new a をアレイに追加(もしくは spare から自動割り当て)
3. a を rebuild 中に b からデータが読めずに fail
4. b のセクターが読めずに b も fail
5. 残ったのは c だけ。何もできない。a, b には fail が
マークされており、b, c にて再構成しなおすことも
できない。

というふうになるのが現在の md 仕様です。

b,c を以後 R/O でのみマウントできるようなマークをつけてくれて、
エラー部分以外は読み取れるようにしておくべきだと思うんですけどね〜。

1 セクター読めないだけで 2 台から 1 台に落とされても、もう何も
救えないわけで・・・。
120login:Penguin:2008/06/09(月) 20:36:18 ID:Y6j9jFvx
>>117
即レスどうもありがとうございます.
一行で拡張できるとは驚きです.
早速試してみます.

>>118
6ポートしかないので,117さんの方法で手詰まりしたら(ポート不足の場合)を試してみます.
ありがとうございます.
121login:Penguin:2008/06/09(月) 22:08:12 ID:F+1xrY6i
>>119
大前提として、RAIDはバックアップにはならないってのはOK?

データ保護って意味での対策としてはバックアップしかない。
バックアップが無くて、現状のRAIDアレイから救い出すしか無い状況になる時点で、
まず運用として失格だと思う。無理矢理救出できたとしても、データ整合性を捨てる
ペナルティは覚悟する必要がある。不整合は消滅よりもたちが悪い。
mdの仕様はそういうところから来ている(と理解してる)。

で、不幸にしてデータ救出をせざるをえない事態になったとき、データ整合性を
優先する(怪しいものはfailさせる)mdの仕様が邪魔になるってのは一応同意。
現状superblockを手軽にいじれるツールも無いしね。
122aa:2008/06/10(火) 02:03:17 ID:9HfsMG6v
ぜんぜん。業務で使うなら EMC なり使うし、Linux の md にそんな
前提不要と思ってる。昨今家庭に 1 台 は RAID がある中「RAIDはバック
アップにならない」なんてこと言っても誰も納得しないと思うべきだよ。

不整合とはいうが、単なる単一のセクター不良であった場合
fail を防いだところで誤ったデータが読み出されるわけでもないし、
I/O エラーとなった部分のみを FS の bad sector block に登録して
そのまま使えちゃうほうが、大半の人にとっては都合がいいはずです。

1TB の RAID5 容量があるとして、全く読めなくなるのと、1TB の中の
うち 512 バイトが読めないのなら、前者のほうがインパクトがでかいに
決まってる。
123login:Penguin:2008/06/10(火) 09:38:18 ID:uXv3BAd1
縮退アレイのデータが全部読めることを確認しないままrebuild掛けて
アレイ全部殺すのは、ただのオペミスだろ。
124login:Penguin:2008/06/10(火) 09:47:53 ID:ewRO3SpZ
なんでここに来てRAIDがバックアップ代わりになるとか主張するやつが出てくるんだか
なわけねーーだろ バカ
125login:Penguin:2008/06/10(火) 11:36:19 ID:EpZinGw7
>>122
とりあえず、自分と他人は違うってことから学習しようね。エスパーじゃないんだから。
そんなに嫌ならmd使わなければいい話だし、業務とか言うなら他に選択肢いっぱいあるでしょ?ww
わざわざこんなところまで出張ってきて、ろくな根拠もなし、前提は後出し、で仕様がどうこう
言われても誰も納得しない。ま、それでもいいなら好きにやればいいんじゃない。
126login:Penguin:2008/06/10(火) 16:48:59 ID:rOnmIXoG
>>122
不満があるなら、自分用にコード書けばいいじゃない。

>>121,123-125
うちも、この意見に同意
127aa:2008/06/11(水) 00:38:40 ID:CHqx1dfH
せっかく Linux md のイマイチな点を挙げてるんだから誰かハック
してほしいお。知らず知らずのうちに Linux md 使ってるユーザが
大量保存されたデジカメなり動画なりのデータを一瞬で失うなんて
悲しいところなんて見たくないお (;_;)

ってことでよろしく (w

まあ、オマエラができないんなら別に俺様がやってやってもいいがな。
128login:Penguin:2008/06/11(水) 00:56:41 ID:ht4oxNB9
ハックは人に頼むものじゃなく、自分でするものだお。

まあ、でも、LKMLに投稿するならレビューしてあげれると思うよ
とりあえず、一度やってごらんよ。
129login:Penguin:2008/06/11(水) 01:11:18 ID:yNtiUL94
真性のクレクレ君ってところか
130login:Penguin:2008/06/11(水) 08:22:21 ID:uS6qwlDQ
バックアップ要素を持ったRAIDっぽいディスクシステムの提案、とかならOKなんじゃない?
現状のRAIDにそれを求めてるから話がおかしいわけで。
(だったら他の手法探せよってのはともかくw)
131login:Penguin:2008/06/11(水) 09:30:36 ID:wOMUHJ8R
raidtoolsと昔のカーネル使えば、failもactiveも自由自在。
132aa:2008/06/12(木) 02:21:28 ID:AHGexQB4
そうこうしているうちに見捨てられる Linux md。

ロジテックがマイクロソフトとNAS開発で協業,OSをLinuxからWindowsに全面移行
http://itpro.nikkeibp.co.jp/article/NEWS/20080611/307752/

ロジテック、NAS全製品をWSS 2003 R2ベースに統一
http://enterprise.watch.impress.co.jp/cda/topic/2008/06/11/13119.html

ロジテックとマイクロソフト、Windows Server(R) ベースの NAS ソリューションにおいて協業
http://www.microsoft.com/japan/presspass/detail.aspx?newsid=3462&rss_fdn=New%20Info

Linux md + Samba イマイチな点は次の通り。

・ファイル名が変化してしまう。
・アクセス権の設定がない。
・最悪復旧業者を呼ばないといけない。Linux は怖くて導入できない。


>>131

オタク君そうやってがんばっていればよいと思うよ。。。


>>123

じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。
つまり、1 台ダウンした時点ではもう全部読めなくなってしまう
状態になるかもしれないダサーな実装なわけです。有り得えねーーー。
133login:Penguin:2008/06/12(木) 03:32:17 ID:A4JBsLQa
>>132
> Linux md + Samba イマイチな点は次の通り。
> ・ファイル名が変化してしまう。
 →変化した事はありません。

> ・アクセス権の設定がない。
 →え?

> ・最悪復旧業者を呼ばないといけない。Linux は怖くて導入できない。
 →どの状態を指して最悪といっているか分からないが、復旧不可能なレベルで
   アレイが壊れた場合、どうしてもデータを吸い出したければLinuxに
   限らず業者に頼むしかない。
   単に操作方法が分からないことに起因するものであれば、
   Windowsの知識が十分でない人にとっては同じく業者を呼ぶ必要がある。
   Windowsは不安定でサーバにしたくない。
   (カーネル5になってずいぶんましになったように思うが、それでも定期的に
   再起動が必要となるのはいかがなものかと。)
134login:Penguin:2008/06/12(木) 03:34:38 ID:i3SMQS3j
俺ら釣られてる?
135login:Penguin:2008/06/12(木) 04:05:31 ID:i3SMQS3j
RAIDって言葉を知ったばかりのガキがmdに挑戦したものの挫折して逆恨みってところか。
技術の守備範囲とか他者の視点とかニーズの多様性を全く理解しようとしないあたり、
精神年齢が小学校で止まってるんだろうな

そろそろ放置かなぁ
136login:Penguin:2008/06/12(木) 09:30:17 ID:CYzfYEsG
>>132
>じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
>ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。

縮退したらアレイ止めてddとかで全セクタ読めることを確認してから
rebuildしなきゃならん、ってこと。
他にバックアップ取っていないなら、spareドライブ用意しておいて自動rebuildは危ない。

>>135
俺もそんな気がするが、まあ、失敗例と思い込みの典型ってことで。

137login:Penguin:2008/06/12(木) 10:08:42 ID:QLdaUWEF
>>115,119,122,127,132
いいかげんうざくなってきた。
設定すらまともに出来ないのに、思い込み激しいし、他人任せだし、オペミスして愚痴ってるし…

>じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
>ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。
>つまり、1 台ダウンした時点ではもう全部読めなくなってしまう
>状態になるかもしれないダサーな実装なわけです。有り得えねーーー。

それ対策にRAID6ってのもあるわけで…

何が目的なRAIDか分かってないんだろうな…


そんなに不満あるなら、使わなければいいじゃん?
それかもっと勉強汁!
138login:Penguin:2008/06/12(木) 14:47:09 ID:kPFkNEQb
PC使うの・・・やめればいいとおもうよ
139login:Penguin:2008/06/12(木) 21:49:17 ID:eOn78KxZ
「RAIDに入れたデジカメ写真が消えたら困っちゃう!」っていう人と、普通の業務の人が混じってるのが問題なんじゃね?w
140login:Penguin:2008/06/12(木) 22:11:23 ID:5wyTYRrn
mdって業務用でも使われるぐらいの完成度なんですか?
業務用は外部ストレージだと思っていたのですが実際はどうなんでしょうか?
141login:Penguin:2008/06/12(木) 22:44:04 ID:A4JBsLQa
完成度というのをどうやって図るのか分かりませんが、
RHELのパッケージに含まれる程度には完成されているようです。

業務用の外部ストレージ、と表現されているもののOSは
なんなんでしょ。
142login:Penguin:2008/06/12(木) 22:51:55 ID:5wyTYRrn
>>141
OS公表しているところないよね?企業秘密だと思うけど
組み込み用のOSも色々あるしCPUも色々

業務用のなかなか止められないシステムだと
SAN接続とかの外部ストレージが一般的なのかな?という質問です
143aa:2008/06/13(金) 00:18:30 ID:iEXE9ATZ
>> 141

例えば、VxWorks とか。

でも、RAID のエンジンはお手製なので OS はほとんど無関係かも。

レイテンシはでかいけどトランザクション処理は得意だとか、
各社得手不得手があります。
144login:Penguin:2008/06/13(金) 00:19:05 ID:+BhvvWth
>>142
マシンのOSと道連れになるのはSoftwareRAID/FakeRAIDの弱点だね。
ただ、外部ストレージにしたとしても、ストレージが生きてて対外サービス担当マシンが
死んでる状況なら、サービスとしては停止ってことになるから、実影響は構成による。
もちろん、部品として独立させることによる管理性のメリットは消えないけど。

アプリ担当鯖を多重化してSANでストレージ共有みたいなやり方をするなら、
その時点で可用性重視だろうから、外部ストレージ化の効果は大きいだろうね。
145login:Penguin:2008/06/14(土) 08:38:26 ID:oPtd7+zw
某NECな大型FCストレージは中身Linuxだよー by R&Dの人
146login:Penguin:2008/06/18(水) 18:16:30 ID:sXc5vE4z
静かになったな
十分に枯れたのか、それとも誰も使っていないのか。
147aa:2008/06/21(土) 17:07:51 ID:PpYHysDA
Linux md を使ってて 1 台ドライブが飛んでリカバリできない
事象が発生したとしよう。その際、バックアップを取ってない
利用者が悪いってのは、技術者の怠慢だよね。

http://www.symantec.com/ja/jp/about/news/release/article.jsp?prid=20080618_01
パソコンのクラッシュや全データの損失から受けるストレスは男女すべての
年代で失恋のダメージを上回る結果が出ました。

データ保存と損失:保存データ関連でのストレス要因として「重要な
データの損失」( 37% ) を挙げた回答者が最も多く、前回 ( 33% )
から続伸しています。また、ここ 1 年間で保存量が増えたものとして
「デジカメなどの写真画像」( 45% ) 、「音楽」( 29% ) が上位を
占め、回答者全体の平均保存容量は 33.5GB と、前回 ( 26.1GB ) に
比べ 28%も増加しています。一方、保存データの容量が年々増加して
いるにも関わらずバックアップ実施率は前回から変わらず 57%に
とどまり、過去 1 年間では 5 人に 1 人が大切なデータを損失した、
と回答しています。損失したデータとしては「音楽や音声ファイル」
( 31% ) と「動画ファイル」( 30% ) がそれぞれ前回より 10
ポイント程度増加しています。損失データに関しては、約半数が
「ほとんど復元できなかった」と回答しており、復元できるものなら
負担してもいいと思える金額は平均 5,364 円との結果が出ました。
148login:Penguin:2008/06/21(土) 17:32:09 ID:Noohu4IZ
まだいたのか…
技術者=管理者=おまえ(aa)だな

回復サービスに数百万払うか、いいかげん諦めれば?
149login:Penguin:2008/06/21(土) 17:36:50 ID:IubOjAtw
>>147
おまえも25歳になれば
この世に魔法なんて存在しないと判るよ
150login:Penguin:2008/06/21(土) 20:03:37 ID:VCyQqHEh
おまいら、荒らしは放置で
151login:Penguin:2008/06/21(土) 22:03:04 ID:/gY4O7ay
技術者の怠慢クソワロタ
ドライブが飛ぶなんて技術者の怠慢だよねっっw HDDベンダ涙目ww

結構笑いの取れるキャラなんじゃないか?>aa
152login:Penguin:2008/06/21(土) 22:13:48 ID:IubOjAtw
人格障害の症例はバラエティがありすぎて困る
153login:Penguin:2008/06/21(土) 22:19:47 ID:eY04Tj9T
でも、光学ドライブに焼くのは面倒なんで、HDDだけで何とか
したいってのはあるなぁ。HD録画したアニメとかそろそろ3TB
ぐらいになる状況だが、飛んだらブルーレイ買わないといかん
からなぁ。

今はとりあえず mdのRAID5 なんだが、1ドライブ飛んで復旧
不能とかなったら悲しいわ。
154login:Penguin:2008/06/21(土) 22:57:14 ID:VCyQqHEh
2TのバックアップをNFS経由のrsyncでやってる関係で、フルリストアが日単位になる。
バックアップがあってもフルリストアは避けたいので念のためRAID6にしてる。
155aa:2008/06/22(日) 01:23:11 ID:lZv4JDTd
いや、だからさー、Linux のひでえ md 実装直してくれれば済むだけの
話なんだよ。何で 1 台まで落とすんだよ馬鹿。
156login:Penguin:2008/06/22(日) 04:06:23 ID:2TTQqPfw
>>155
M$のOSに比べるとだいぶマシだが。
M$のOSはRAID自体まったくサポートしてないし。
157login:Penguin:2008/06/22(日) 08:27:53 ID:Ii7Z3jAP
>>155
Linuxのひでーって言うけど、おまえの望む実装なOSってあるのかよ?
158login:Penguin:2008/06/22(日) 09:59:24 ID:L5M/kM+A
>>156
えーと、知らないことは黙ってた方が・・・
159login:Penguin:2008/06/22(日) 21:11:05 ID:2TTQqPfw
>>158
お前こそ、Linuxコミュニティーでの会話のルールを覚えたほうがいい。
M$のOSと言えばBASICのことだ。
BASICはOSか?という問いには、当時はOSだったと答えればいい。
160login:Penguin:2008/06/23(月) 02:43:38 ID:Jf/LlKSP
>>159
そんなわけないだろう。
と、いいたいところだが、最近もLKMLでlinux-mm.orgのアフィ広告欄にWindowsの広告が表示されているのはバグだ!って
騒いでいる奴がいて生暖かい目で見られていたな。
結局、M$がお金を浪費して、僕らの懐が暖かくなるなら、ハッピーな事じゃないか。と誰かがとりなして丸く収まってたみたいだけど。
161login:Penguin:2008/06/23(月) 04:20:26 ID:csSG47hP
おまえらスルーも出来ないのか
かまって君を喜ばせるだけだぞ
162login:Penguin:2008/06/24(火) 03:46:37 ID:0xeBSssm
RAID5にランダムアクセス性能を求めてはいけないことにやっと気づいた俺が来ましたよ……
16364:2008/06/27(金) 19:13:57 ID:IJGPC5w1
すみません、復旧を焦ってまさに115氏の指摘する状態になった本人です。

なんでmdadmに同機能が含まれないのかなーと思いつつ、コード書いて自分でsuperblock変更して
直しましたが、mdに同機能が実装されないのは、開発チームがこのスレの皆さんのような考え方
なのだと納得しました。

自分はコード書いて直せるからいいけど、Ubuntuとかでデスクトップ用途で使ってる初心者のためには
mdにfailedを無視するというオプションがあってもいいかと思ったり。
無茶してぶっ壊れるのは自己責任なんだし、たかが数セクタのためにdd(rescue)のイメージからファイル
システムまで辿って再構築するのは手間がかかりすぎるので。
164login:Penguin:2008/06/28(土) 04:20:01 ID:t82gEJQM
mdの仕様に取り込まれるかどうか以前に需要自体がほとんど無いと思われ
ツールを実装する自由は万人にあるんだから、需要があるなら誰か作るはず。
ツールが無いということは、現状そこまでの需要が無いということ。

需要があると思うなら書いたツールを公開すれば喜ばれると思うよ
165login:Penguin:2008/06/30(月) 08:57:46 ID:eP8/ITok
無理にmd使わんでも、各ディスクをバラでマウントすれば良いんじゃね?
そうすれば、死んだディスクやセクタがあっても被害はそこだけ。
166login:Penguin:2008/07/01(火) 00:54:50 ID:aHyZUpTv
>>165
???。RAID-5の個別ディスクをどうやってバラでマウントするんだ?
167login:Penguin:2008/07/01(火) 00:59:02 ID:Qn6UZU93
なんで突然RAID5?
俺は、JBODかマウントポイントごとにディスク用意するんだと思ったが
168login:Penguin:2008/07/01(火) 01:06:41 ID:aHyZUpTv
>>167
ああ、そもそもmd使わなくていいじゃん、という話だったのな。誤読した。
無理にmd再構成しなくても個別マウントすればいいじゃん、と誤読した。
169login:Penguin:2008/07/08(火) 07:17:56 ID:tBce1A0Q
3ware 9650SEでHDD(500G)6本でraid6を組もうと思っています。

3テラのボリュームができますが、パーテーションどうしようか
悩んでいます。
基本的にシステムがらみは別のHDDで動かしたほうがいいのでしょうか?
3テラのボリュームはパーテーションきらずに、/home などにしたほうがいい?
170login:Penguin:2008/07/08(火) 11:45:08 ID:wACpQR7T
HDD2本がパリティ記録なんで4本分の2TBのボリュームなんじゃね?
171login:Penguin:2008/07/08(火) 12:45:20 ID:Ld9ygY/a
何入れようと思って、500Gを6発買ったんだ?
パーティションの切り方はそれ次第。
172login:Penguin:2008/07/08(火) 12:46:58 ID:dFUhNDg6
ホットスペアがないと有り難味がないから、
実際には1.5TBだろ?
173login:Penguin:2008/07/08(火) 12:47:54 ID:dFUhNDg6
で、天使が取っていって
df -h
すると、1.3GBとかになるわけだ。
174login:Penguin:2008/07/08(火) 12:48:53 ID:dFUhNDg6
orz
175login:Penguin:2008/07/08(火) 15:11:58 ID:ciEROQW6
一般的にRAID組むときにはシステム絡みもRAIDに入れるんですか?
176login:Penguin:2008/07/08(火) 15:51:45 ID:II4/+Uhu
ここにもRAIDとバックアップは違うと理解出来てない奴が
177login:Penguin:2008/07/08(火) 19:45:28 ID:wACpQR7T
>>175
RAID導入によるメリットの8割ぐらいが
HDD故障時にもシステムを稼働し続けられる
だからね〜
とうぜんそれなりのホストはシステムもRAID
残りのメリットはバックアップの間隔での更新データが救えること

素人はよく高速化を挙げるけど
RAIDで高速化なんていうのは副次的なものにすぎないし
実装によっては速くならない
178login:Penguin:2008/07/08(火) 19:47:42 ID:wFB79b2r
>>173
えげつない天使だなおいww 99.9%ってw
179login:Penguin:2008/07/09(水) 09:09:58 ID:nLnkgGAg
>>177

なるほどね!
ありがとうございました。
180login:Penguin:2008/07/09(水) 23:06:04 ID:RNssxI9R
CentOS5.2を、500GBx2のHDDをミラーリングにしてインストールしたいと思います。
このときのパーティションはどうきるのが良いのでしょうか?
私用のFedora8だと、200MBの/bootと、残りがLVMに分けられて
LVMの中に2GBの/swapと/homeがある感じなんですが、
同じでよいです?
あるサイトに管理を容易にするために/swapも個別のパーティションにする・・
というようなことが書いてあったので気になりました。
よろしくお願いします。
181login:Penguin:2008/07/09(水) 23:33:03 ID:gRDljDJc
>>180
/swapって何よ

適当に
/boot
/
/home
swap
みたいな感じで4つミラーボリューム作りながらインストールでいいんじゃないの?
あるいは、でかいミラーボリューム作ってその上でLVM
182login:Penguin:2008/07/10(木) 01:03:05 ID:YVLKQ6q3
>>180

RAIDならシステムの入れ替えがほとんど無いので、
後々の容量の引き延ばし(と、いうか同容量のHDDが市場から無くなる;)
とかを考えて/homeを一番最後にしてる。

HDDのメーカーごとにシリンダー数が違うので最後の/homeは
最終シリンダーまで切らずに鼻くそ程度残してます。
あと、サーバーと言うことで/var は多めに切ってます。

183180:2008/07/10(木) 10:43:28 ID:iJDD8Fmx
>>181-182
ありがとうございます。
RAID(ミラーリングを)するってことに関しての
特別な配慮ってことはない感じですね。
とりあえずやってみます。
184login:Penguin:2008/07/11(金) 01:25:06 ID:MF2t883a
/bootってハードウエア構成に依存するけど、専用パーティションに
しなくてokな事が多いね
GRUB使ってるおかげ?
185login:Penguin:2008/07/11(金) 04:29:32 ID:rOZ8wBgX
/をXFSにするときは念のため分割
186login:Penguin:2008/07/14(月) 11:01:55 ID:9UdAIkjR
妙にスレが伸びてると思ったら、raid5の性質を
raid全般に広げて語るニワカが発生してたのか。

業務やっているなら、いくら思い込みの強いアホでも
そこでraid6が出てこないってのはあり得ない。


>>185
GRUBと合わないんだっけか。
自分は/だけreiserfsにしてるわ。
187login:Penguin:2008/07/15(火) 18:47:44 ID:yaiFvTOZ
どのインターフェイス(SCSI0とか)に繋がったHDDにどんなデバイスファイル名(/dev/sdaとか)が割り当てられているのか確認する方法はありますか?
RAIDで全部同一のHDDを使っているので、このインターフェイスに繋がったHDDはsdaだとか判らないと交換できないのです。
188login:Penguin:2008/07/15(火) 18:55:33 ID:rrCKPMUT
>>187
/sys/block
189login:Penguin:2008/07/15(火) 21:52:28 ID:pdkdPVvb
smartctl
190login:Penguin:2008/07/16(水) 00:03:37 ID:voyUTL5p
>>186
GRUBの2nd Stageがsuperblockだか何かを上書きする?とからしい
最近調べてないから、大丈夫になってるかも
191login:Penguin:2008/07/16(水) 00:27:28 ID:wxA8/vYd
>>188,189
シリアルナンバーでディスクを識別する事にしました。
ただ、当方debian etchなのですが、
/sys/block/sda/device/serial
は見つからず、
smartctl -a /dev/hda (PATAのディスク)
smartctl -a -d ata /dev/sda (SATAのディスク)
で、シリアルナンバーを確認できました。

ありがとうございました。
192login:Penguin:2008/07/16(水) 00:59:49 ID:LX357c/f
>>191
うちもそれやってるけど、SATAコントローラが複数ある場合は起動時の
認識順で /dev/sdX と Serial: XXXXXXX のマッピングが変わるんで注意。
電源断までは有効な情報だからドライブ交換には問題ない。
193login:Penguin:2008/07/16(水) 01:05:10 ID:vwN5urnw
そのsd*,hd*認識順の問題すごく悩まされるんだけど、解決策としては

・新パーティション形式にしてラベルつける
・MDにしてmd[0-9]で認識させてから使う
・LVMにして(同様)

しかない?古来からの方式でパーティション切ってしまったのでカーネルが
変わるたびにころころテンポラリディスクのデバイス名が変わってばたばたする。
194login:Penguin:2008/07/16(水) 07:26:45 ID:5QiXFeI7
構築の時にどのシリアルナンバーのHDDを何段目に積んだかメモっとくといざというとき便利だね
195login:Penguin:2008/07/16(水) 07:36:48 ID:2XS3TY3h
UUIDで識別をしないのかな?
196login:Penguin:2008/07/16(水) 19:59:03 ID:LX357c/f
それで物理位置がわかるならな。
197login:Penguin:2008/07/16(水) 20:05:37 ID:rsgG64I0
lsscsiとか使わないの?
198login:Penguin:2008/07/17(木) 01:46:36 ID:ZWA78awn
UUIDでmd組むようにしてる > 認識順が変わる対策
199login:Penguin:2008/07/17(木) 04:34:16 ID:nqSSZGey
>>198
今問題にしてるのはコンポーネントデバイスの識別の話だからそれじゃ解決にならない
200login:Penguin:2008/07/17(木) 19:04:35 ID:pwb5+Hyk
201login:Penguin:2008/07/21(月) 15:38:10 ID:QHVhiNmM
個人用ファイルサーバで、同一ホスト上でのDisk to Diskバックアップを計画しています。
ドライブは750Gx8台です。同原因同時故障と、バックアップメディアを物理的に
別の場所に置けないこと以外に高まるリスクはありますか?
また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
202login:Penguin:2008/07/21(月) 16:02:45 ID:bfdmMxFQ
>>201
消費電力が2倍
コピー中に更新があると整合性がなくなる
帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
複数世代のバックアップを残せない
RAID1に対するメリットがほとんど無い

素直にRAID1にして
バックアップは外付けにtarか何かでとるほうがいい

>また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
RAID10でいいんじゃないの?
203login:Penguin:2008/07/21(月) 19:20:08 ID:Kok+C1hM
>>202
お題目はおなかいっぱい。
個人用だと書いてあるだろ?

>消費電力が2倍
ディスクだけが2倍なのに、どういうロジック?

>コピー中に更新があると整合性がなくなる
>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
個人用だから、そういうのを自分で避ければいいだけ。

>複数世代のバックアップを残せない
複数世代ってなにに使うんだよ。実際に使ったことあるのか。
204login:Penguin:2008/07/21(月) 19:53:45 ID:eDgO9JCd
理想を言えばRAIDハードウェアのスナップショットを利用して
別のRAIDグループへコピーが一番安心できる
問題はそのようなハードウェアは日立とかEMC、富士通とかになること
205login:Penguin:2008/07/21(月) 21:51:52 ID:r1tueaXR
>消費電力が2倍
回転止めたらいいんじゃないの? 馬鹿なの?

>コピー中に更新があると整合性がなくなる
スナップショット使わない理由がわからない。馬鹿なの?

>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
オプション1つで制限できるんだからすればいいじゃない。馬鹿なの?

>複数世代のバックアップを残せない
複数世代のバックアップを残せるソフト使えばいいじゃない。馬鹿なの?

>RAID1に対するメリットがほとんど無い
それのどこがリスクなの?馬鹿なの?
206login:Penguin:2008/07/21(月) 22:45:34 ID:+Von4bjZ
また心の問題ですか
207login:Penguin:2008/07/22(火) 05:33:29 ID:FG3KF+O+
>アレイを2つ作って
に対して
>>RAID10でいいんじゃないの?

と書いてあるので何も分かってないようですね
208login:Penguin:2008/07/22(火) 07:00:34 ID:IDlKlKUZ
>>202がフルボッコにされててワロス
209login:Penguin:2008/07/24(木) 22:55:47 ID:Y/yDJ5QP
>>207
>>202 は業務とか書いてるしな。
質問を理解せずにどっかからコピペしたのかも。
210login:Penguin:2008/07/25(金) 18:22:23 ID:7bWPoJgN
こんな記事がでたぞ〜

ハードウェアRAIDとLinuxカーネルによるソフトウェアRAIDのベンチマーク比較
http://www.itmedia.co.jp/enterprise/articles/0807/23/news016.html
211login:Penguin:2008/07/25(金) 22:05:00 ID:dHu8XFEz
>>210
お前は10個上のレスすら読めんのか
212210:2008/07/25(金) 22:55:25 ID:7bWPoJgN
あー、同じなのか…
単にベンチマークしか書いてなかったから、スルーしてた…OTZ
213login:Penguin:2008/08/04(月) 13:46:13 ID:jBaI/IVg
性能分析のお供に
http://opentechpress.jp/developer/08/08/04/0134256.shtml
次回の方が役に立ちそうだけど
214login:Penguin:2008/08/07(木) 08:00:07 ID:RuVT+4E9
1TのHDD6台買ってきたんだがRAID6にするか5にするかで一晩悩んだが結論が出なかった。
215login:Penguin:2008/08/07(木) 12:45:30 ID:gou1IcwA
とりあえず6面RAID1にしておいて慣らし。
満タンになったら、その時にまた考えるってのはどうだ?
216login:Penguin:2008/08/11(月) 00:33:45 ID:lkIu9a0L
/をxfsにするいい方法はありませんか?

OSはcent5.2です。
217login:Penguin:2008/08/11(月) 00:41:08 ID:QeT4W3NU
218login:Penguin:2008/08/11(月) 01:28:58 ID:lkIu9a0L
>>217

>>185
が書いていたので。
219login:Penguin:2008/08/11(月) 18:36:11 ID:AGF2t4QA
>>218
見苦しい言い訳だな
220login:Penguin:2008/08/12(火) 16:41:20 ID:jyLw7NZh
>>216
CentOSならそっちのスレで聞いてみたらいいんじゃないか?
ぶっちゃけRAID関係もよっぽど詳しい人がそろってるしw
221login:Penguin:2008/08/12(火) 16:56:10 ID:YIDfUhGW
>>220
もう聞いてるみたいよ。>>217
222login:Penguin:2008/08/12(火) 17:11:26 ID:IDhTWp2o
/**ファイルシステム総合スレ その8**/
ttp://pc11.2ch.net/test/read.cgi/linux/1190788761/

回答があるかわからんけど、マルチな質問はちゃんとクローズレスして、もう一度きいたら?
223login:Penguin:2008/08/14(木) 18:37:41 ID:rw0zL6g/
質問なのですが、raidtoolsで作成したボリュームは、mdadmにソフトウェアRAIDを
変更した場合、そのまま使えるのでしょうか?
要するに、raidtoolsとmdadmのデータ構造の互換性の問題なのですが。
一旦バックアップを取って、RAID構成後に書き戻す必要がありますか?

「raidtools mdadm 互換性」などとぐぐってみたのですが、答えを見つけられませんでした
224login:Penguin:2008/08/19(火) 01:07:45 ID:8EwaAh3C
実際にやってみればいい。
VirtualBoxなりVMWareなりの仮想環境を入れれば楽勝
225login:Penguin:2008/08/25(月) 15:26:56 ID:A4bL2852
ポートマルチプライヤ・ハブを使ってRAID5で使っていたが、
ハブが(熱?)故障したらしく現在、別環境でリペア中…
後10時間ほどかかるらしい。終わったらバックアップとっとこ。
226login:Penguin:2008/08/25(月) 18:46:19 ID:hmNDIIPy
あれはメチャ熱くなるよ
227login:Penguin:2008/09/01(月) 05:30:02 ID:FJQeXGzD
並列ランダムリード重視したいんだけど、
RAID5 <= 単体 <= RAID10 < RAID1+LVM
って理解であってる?
228login:Penguin:2008/09/01(月) 15:30:06 ID:URN2jkvk
どれも実装次第じゃないの?
大抵は全部単体より速くなると思うが。
229login:Penguin:2008/09/01(月) 19:19:46 ID:FJQeXGzD
>>228
じゃあ、さしあたりmd限定で。
で、その大抵が通用しないのがランダムアクセスだったりするわけで…
230質問ノ:2008/09/02(火) 00:26:54 ID:+OCnqEcR
RAID0って、データを複数のHDDに分散して同時に記録するから
早いのですよね?
ということは、1台のHDDで、データをフラッタごとに分散して同時
に記録したら、すごく早くならないのかなぁ?
フラッタ5枚のHDDなら5倍???
231login:Penguin:2008/09/02(火) 00:53:44 ID:svkuPaeg
ReadもWriteも早いのか?
232login:Penguin:2008/09/02(火) 00:58:11 ID:3FnQIo0B
シーケンシャルオンリー(かつ大昔のHDDのテクノロジ)ならね。
ランダムアクセスだと1台に集中することでかえって遅くなる。
今のHDDはプラッタ毎にヘッド位置調整をするために同時アクセスは難しいし、
5倍に速くなってもインタフェースの転送速度が追いつかない。
233理解!:2008/09/02(火) 01:06:27 ID:+OCnqEcR
なるほどねぇ
インターフェースが追いつかなきゃ意味ないですね^^;
ごもっとも^^
234login:Penguin:2008/09/02(火) 05:45:29 ID:JL3ZUwv4
ソースを読むほどのスキルはないんだけど、未だにRAID1で読み取り性能だけ2倍にする方法は解明されてない?
相変わらずmanpageに書いてあることとは違うままなのかな。
235login:Penguin:2008/09/02(火) 08:50:52 ID:xIov+WO6
性能がスループットという意味なら倍になるよ。
CPUが2つでプロセス2つで読んでればだけど。

読み出しロジックは読み出し処理を2つのディスクに並列分散させるのではなく、
単に空いているorヘッド位置が都合がいい方のディスクを選択するだけだから
あるプロセス1つから見たら別に速くなるわけではなさそう。
236login:Penguin:2008/09/02(火) 17:54:33 ID:JL3ZUwv4
あのmanpageに書いてあることは、そういうことだったのか!?
だったらmanpageにもそのように書いてくれればいいのにねぇ。
ネット上でも、たまに悩んでいる人がいるし。
237login:Penguin:2008/09/03(水) 09:36:58 ID:GOWpJIT8
ソース見ると、こういうことだべ。

2.6.18のraid1.c
* This routine returns the disk from which the requested read should
* be done. There is a per-array 'next expected sequential IO' sector
* number - if this matches on the next IO then we use the last disk.
* There is also a per-disk 'last know head position' sector that is
* maintained from IRQ contexts, both the normal and the resync IO
* completion handlers update this position correctly. If there is no
* perfect sequential match then we pick the disk whose head is closest.
*
* If there are 2 mirrors in the same 2 devices, performance degrades
* because position is mirror, not device based.
*
* The rdev for the device selected will have nr_pending incremented.
*/
static int read_balance(conf_t *conf, r1bio_t *r1_bio)
238login:Penguin:2008/09/03(水) 10:31:37 ID:E4hwRJkf
1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か
239login:Penguin:2008/09/03(水) 19:50:17 ID:Yeu4fcGq
raid5=raid0<raid1
程度だと思われるが実装によって逆転する。
240login:Penguin:2008/09/03(水) 21:37:57 ID:xUNUra92
>>234-236
裏技と言うほどのことじゃないけど、それを実現したいなら、

mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1

こうやって、2 台だけで RAID10 を組んでみたら?
きちんとミラーリングされた上で、読み取り速度は
シングル スレッドでも 2 倍になるよ。
241login:Penguin:2008/09/04(木) 00:12:57 ID:B1PfYM1l
234が想定アクセスパターンを言わないと何の議論もできんと思われ
並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率
242login:Penguin:2008/09/04(木) 00:58:57 ID:UTrxmu/B
>>241
じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で

 1.1プロセス、シーケンシャルリード100%の場合
 2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合

この場合に期待できる

 a.各プロセス単位でのリード性能(MB/s)
 b.計算機全体で達成されるリード性能(MB/s)

はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。

争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか
150MB/sなのかということかと思うが。

243login:Penguin:2008/09/04(木) 19:35:51 ID:B1PfYM1l
アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算
つっこみよろしく

1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s
2b 2.56MB/s

仮定として、
RAID1
7200rpm 平均シークタイム 8ms
noopスケジューラ
ファイルシステムを考えない(メタデータ読み書きがない)
mdドライバのリクエスト振り分けは理想的
リード・ライト対象領域はそれぞれ連続
各プロセスのアクセス単位64KB

1aα アクセス単位ごとに回転待ちが発生する場合
1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s

1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、
次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。

1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合
リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能

2b 片ディスク読み出し
書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。
1aβ/γのように回転待ちの省略が期待できないので
1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s
244login:Penguin:2008/09/04(木) 19:48:19 ID:B1PfYM1l
すまん、1aβ変なこと書いてる…

1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、
回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。

で。
245login:Penguin:2008/09/04(木) 23:56:09 ID:WdYxWaI1
1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは
どちらが生存性が高いでしょうか?
現状では500GB*2でraid1を組んでいます。
246login:Penguin:2008/09/05(金) 02:43:09 ID:/T+bWScm
RAID5は1台の破損まで復旧可能で3TB利用可能
RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ
確率だけでいえば当然RAID1


RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能
247login:Penguin:2008/09/05(金) 04:45:32 ID:1sBBnm+4
>>245
RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから
負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。

243-244だけど、1aαも1aγも実際にはまず起こらないだろうから
1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。
248login:Penguin:2008/09/05(金) 04:56:12 ID:GrlZSlCm
FA(笑)
249245:2008/09/05(金) 06:16:01 ID:aZwTzuar
>>246,247
速度は気にしていないので、raid1で組むことにします。
ついでなので1TB*6で3TBにする事にします。
ありがとうございました。
250login:Penguin:2008/09/05(金) 10:34:09 ID:2aSQ8pMt
mysqlのマスターのためにはどんな構成がよいですか?
今は高速回転のディスクでにRAID1にしてます。
251login:Penguin:2008/09/05(金) 13:29:39 ID:1sBBnm+4
そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか
並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど
252login:Penguin:2008/09/06(土) 16:52:55 ID:mklTZhL5
>>250
メモリ山ほど積んでオンメモリインデックス
それかSSD
253login:Penguin:2008/09/07(日) 01:22:02 ID:AQmY2t2w
>>240
そんなことができるのか。知らんかった。
確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、
ミラーリングもされてるみたいね。
RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。
254login:Penguin:2008/09/07(日) 02:08:53 ID:dwiRmWpQ
2台のRAID10って一体データはどういう風に乗ってるんだ?
255login:Penguin:2008/09/07(日) 02:52:54 ID:AQmY2t2w
>>254
240氏のやり方だと、RAID10ってのはあくまでも名前だけで、
実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。

書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。
で、1台外してもデータには問題なくて、そのときは読み込みも単体と
同じ程度の速度に落ちる、って感じ。

実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。
256login:Penguin:2008/09/07(日) 09:00:17 ID:3IVMMvgf
>>255
man md
257login:Penguin:2008/09/09(火) 10:43:41 ID:XWIPazgz
[root@puchiko root]# cat /proc/mdstat
Personalities : [raid5] [raid4] [raid1]
md2 : active raid5 sdc1[3] sdd1[2] sdb1[0]
490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U]
[>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec

md1 : active raid1 sde1[2] sda1[0]
199141632 blocks [2/1] [U_]
[>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec

md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6]
2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_]
[>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec

unused devices: <none>

豪勢にリカバリー中・・・コケないことを祈る
258login:Penguin:2008/09/09(火) 10:53:35 ID:a8VHVsbk
  .: + ...:.    ..:...:.. :. +
  . ..: .. .   + .. : .. .
  ..  +   ..:.  ..  ..
 +     :.     .  +..
  .    : ..    +  .. .
  .. :..    >>257  ..
  .    +   |: |
          |: |
      .(二二X二二O
          |: |    ..:+ ..
     ∧∧ |: |
     /⌒ヽ),_|; |,_,,
_,_,,_,〜(,,  );;;;:;:;;;;:::ヽ,、
"   "" """""""",, ""/;
 "" ,,,  """  ""/:;;
 ""   ,,""""" /;;;::;;
259login:Penguin:2008/09/09(火) 22:05:16 ID:XWIPazgz
終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。
md3はRAID6にするべきではないか考え中。チラ裏スマソ
260login:Penguin:2008/09/10(水) 04:30:01 ID:wQXa/rnK
おつ
261login:Penguin:2008/09/10(水) 21:04:02 ID:6XTL7ehC
いまフツーにRAID1してるんですけど、
単体のSSDに替えたら信頼性はUp?Down?
答えが出ないので教えてください

IntelのSSD良さげですよね
262login:Penguin:2008/09/10(水) 21:23:58 ID:mTxqzEnL
>>261
既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと?
単純にMTBF比較であればHDDが市販のもので60万時間程度、
SSDが200万時間程度なので、信頼性は上がるだろう。

とはいっても確率論だが。
263261:2008/09/10(水) 21:36:09 ID:6XTL7ehC
HDD RAID1→SSD1個非RAIDです。

数字上は信頼性ちょいアップだけど...
何万台も運用するわけではないので運次第ってとこですかね?

264login:Penguin:2008/09/10(水) 22:39:23 ID:mTxqzEnL
>>263
運の要素が大きいだろうな。
HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある
(ある程度は散らしているが確実なものではない)。
265login:Penguin:2008/09/11(木) 13:52:38 ID:t86QBmcU
>>262
> 単純にMTBF比較であればHDDが市販のもので60万時間程度、
> SSDが200万時間程度なので、信頼性は上がるだろう。

あれ?
HDDの方はRAID1なんだから
「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。
HDD RAIDの方が信頼性上なんじゃない?
正確な計算法が分からんけど。
266login:Penguin:2008/09/11(木) 13:54:54 ID:czapuPka
SSDもRAIDじゃないのか?
267login:Penguin:2008/09/11(木) 19:45:48 ID:x4yKwbl5
>>266
>>261を声に出して100回読め
268266:2008/09/11(木) 22:53:18 ID:czapuPka
ごめん、262しか読んでなかったorz
269login:Penguin:2008/09/12(金) 21:58:14 ID:AhnXV+bh
教えてください。

dmraidで作ったRAIDデバイスと、
フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね?

dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、
LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい?

あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?
270login:Penguin:2008/09/13(土) 05:43:54 ID:yFc3xM/P
mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ
271login:Penguin:2008/09/13(土) 16:57:51 ID:LK2wbKHe
>>264
フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの?
当然書き込み先を散らすといった手立てをした上での話だけど。

同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、
よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。
272login:Penguin:2008/09/13(土) 17:50:12 ID:ch1kjtqk
書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから
外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない

…というのが理想なんだけど、
書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ
273login:Penguin:2008/09/14(日) 16:09:17 ID:aCb6t4HK
>>269
dmraid知らんけど、互換性があるなんて聞いたことないな。

ttp://sourceforge.jp/magazine/05/03/17/0923219

ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの?
mdadmとはあまり関係なさそうな。
274login:Penguin:2008/09/14(日) 22:01:49 ID:IYFhfqhh
まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った
RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする
わけだから。

こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな
共存ができるけど、そういう部分切り出し利用しないならOS側の
ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。
275login:Penguin:2008/09/14(日) 23:38:16 ID:JSPVgMYR
> 百万回くらいいわれてる

暇なときでいいんで、リストくれ
276ヒャクマンハウソ、スマソ:2008/09/15(月) 11:53:48 ID:a7BuBquH
>>275
リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも
容量が厳しすぎるので勘弁してください mOm
277login:Penguin:2008/09/15(月) 16:04:26 ID:gKAquFIw
>>276
ここに貼り付ける必要なくね。
圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。
278login:Penguin:2008/09/19(金) 05:28:28 ID:BR3MquqB
>>225-226
サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。
サウスを冷やせ。
側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。
279login:Penguin:2008/09/20(土) 12:32:05 ID:2jxpiAok
HDD RAIDの仕組みがよく分からないのですが、
例えば、RAID1で500GBで組む、
とした場合、
この500GBと組んだ、という情報は
RAIDカードのみが認識することになるんでしょうか?
(HDD自体には特にRAID云々の情報は書き込まれない?)

現在500GBでRAID1組んでいて、1TBに変えたのですが、
ユニット拡張機能がRAIDカードについていないため、
500GBで認識されてます。

この場合、
一旦関係ない1TB載せて、再度RAID1組んで、
(RAIDカードに1TB情報載せて)
関係ない1TBをはずして、500GBと認識されてた1TB HDDを
載せれば、拡張目的果たせるんでしょうか?

ちなみに3wareの8006-2lp使ってます
280login:Penguin:2008/09/20(土) 15:56:49 ID:9fflWZZq
>>279
ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの
固定の場所)に書き込む。そうでないものもあるにはあるが。

ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで
できるのではないか。
281279:2008/09/20(土) 16:39:03 ID:2jxpiAok
>>280
うわーーー
おっしゃるとおりですね。
試してみましたが、だめでした。

ユニット拡張は、
いわゆるRAIDカードが構築した論理?ドライブを
実際のディスク容量に拡張するものです。
現在はRAID1作成時のディスク容量で実HDD容量ではないので
それを実HDDの容量に補正したいわけですが、
3wareのCLIでは無いよう何です(汗


何か代替方法ないでしょうか・・・。
282279:2008/09/20(土) 19:18:27 ID:2jxpiAok
結局HDDにRAID情報が書き込まれてるんで、
別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・

ああ激しく鬱だ orz
283login:Penguin:2008/09/24(水) 10:25:25 ID:NY4tqg7z
mdadm -Aで無理やり起動したら
failed to RUN_ARRAY /dev/md0: Input/output error
これってどういう事……汗
284login:Penguin:2008/09/24(水) 15:31:23 ID:3ffijfuO
コンポーネントデバイスがご臨終
285login:Penguin:2008/09/25(木) 21:02:44 ID:LfvtnWd8
RAID5におけるresyncについて教えてください

debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。

帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。
fumifumi@GLANTANK:~$ sudo cat /proc/mdstat
Password:
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
[>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec

md0 : active raid1 hdb3[1] hda3[0]
77649600 blocks [2/2] [UU]

この状態でmd1のデータは無事に復旧しますでしょうか?
残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。

ちなみにdfコマンドでは
/dev/md1 1538319916 1457990512 2187260 100% /share/usb
と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。)

/shaer/usbにアクセスしようとしても反応がない状況です。
どんどんデータが開放されているのでしょうか?

力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか?
アドバイス・ご教示お願いします。

ps.resyncとrebuildはちがいますよね?
286login:Penguin:2008/09/25(木) 22:29:45 ID:hqNskNnF
((((´д'))))
287 ◆Zsh/ladOX. :2008/09/25(木) 23:03:20 ID:uxBh3s9z
待つしかない。
(rsync中も遅いだけで使えた稀ガス)

反応が無いって
cd /share/usb
しても
・cdが成功しない
・cdはできるがその後lsとかでコマンドの反応が無い
ってこと?
288login:Penguin:2008/09/25(木) 23:43:29 ID:LfvtnWd8
>>287

早速のレスありがとうございます。

cd /share/usbに反応しませんでした。
プロンプトに戻ってこなかったです。

先の書き込みをした後は
sudo cat /proc/mdstat
にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。
#resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。
それ以外はmdstatしたりdfして状況を見てました。

telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。
GLANTANKのパワー不足?かもしれません。

繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか?
その他書き込みした事項以外で確認すべきことがあればアドバイスください。
返答よろしくお願いします。

敬具
289 ◆Zsh/ladOX. :2008/09/26(金) 00:02:45 ID:uxBh3s9z
>>288
まず、データは無事です。
> GLANTANKのパワー不足?かもしれません。
現状はこれかな。


最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
そのPCにHDDを6台接続してresyncした方が良い鴨
(USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
290 ◆Zsh/ladOX. :2008/09/26(金) 00:11:25 ID:D+db+I6m
あーでも今GRANTANKシャットダウンできないのか。
電源ボタンぽちしてシャットダウンしたりするのかなぁ。
どうすっぺねぇ
291login:Penguin:2008/09/26(金) 00:19:03 ID:7oAA51Rx
>>289

> まず、データは無事です。
ありがとうございます。気長に待つことにします。
先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。
希望が出てきたので、おとなしく観測します
#容量いっぱいなので、入れ替えながらかつかつ運用です。。

> > GLANTANKのパワー不足?かもしれません。
> 現状はこれかな。
やはりそうでしょうか。外部アクセスを拒絶してしまってます。
先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな?
なんとかがんばってくれぇ>SH
#感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね

> 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
> そのPCにHDDを6台接続してresyncした方が良い鴨
いまさらこのようなことが可能なのでしょうか?
リブートできない状況ではリスクが大きいかと。。
どちらにしてもLinuxな環境がないので乗り換えは厳しいです。

> (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
説明不足ですいません。
6台はい〜るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。
#それにしてもなぜ?このような状態に。。。

有益なアドバイスいただきありがとうございました。
何か思いつかれたら、また返答いただければ幸いです。

敬具
292 ◆Zsh/ladOX. :2008/09/26(金) 00:35:12 ID:D+db+I6m
> どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
CDブートのlinuxを使えば良い。
が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど


ではもう寝るので健闘を祈ります。
293login:Penguin:2008/09/26(金) 00:52:55 ID:7oAA51Rx
>>292

いろいろお世話になりました。

とりあえず現状のまま様子をみます。

夜遅くまでお付き合いいただきありがとうございました。

敬具
294login:Penguin:2008/09/26(金) 11:36:30 ID:UHMIOaKO
>>293
resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。
どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。
dmesgとかsmartを確認した方が良さそう。

あと、あんまりかつかつまで使わない方が良いと思うよ。
環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、
空きが結構ある状態では一度もフリーズしてない。
(OS:Fedora9、FS:XFS)
295login:Penguin:2008/09/26(金) 20:14:20 ID:7oAA51Rx
>>294

> resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
よく覚えてませんが、たぶん構築時もこんなものだったような??

> dmesgとかsmartを確認した方が良さそう。
寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。
いただいた情報をヒントに調べてみます。

> あと、あんまりかつかつまで使わない方が良いと思うよ。
余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。
どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。
速度よりも容量重視でこうなっちゃいました。。

296login:Penguin:2008/10/05(日) 10:49:30 ID:Ze8uaqdI
/proc/mdstatがcheckになるのは、なぜですか?
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec

/var/log/messages
Oct 5 01:06:01 host kernel: md: data-check of RAID array md1
Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks.
md0についても同じメッセージが出ています。
ファイルシステムは、md0, md1ともにXFSです。

1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので
cronによって起動された何かが原因ではありません。
OSを再起動したとか、ホットスワップしたタイミングでもありません。

OS: Debian GNU/Linux 4.1(etch)
カーネル: 2.6.26.5へ入れ替え
です。
297login:Penguin:2008/10/05(日) 13:12:24 ID:rOZmgU0Y
/etc/cron.d/mdadm じゃね?
298296:2008/10/05(日) 14:55:41 ID:Ze8uaqdI
おっしゃるとおりです。
6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && /
usr/share/mdadm/checkarray --cron --all --quiet
となってました。

どうもありがとうございました。
299login:Penguin:2008/10/11(土) 18:12:33 ID:ZuxskNzz
SATAのHDDが10個ぐらいのRAID組みたいのだが
一番安く済む方法教えてほしい
300login:Penguin:2008/10/11(土) 20:12:37 ID:0pLPQ9Sw
普通はエントリーモデル買って100万円ぐらいじゃない?
301login:Penguin:2008/10/11(土) 23:40:03 ID:qfaubBp2
>>300
80 万くらいの差額はどうするべ?
302login:Penguin:2008/10/12(日) 00:04:53 ID:0pLPQ9Sw
80万円の差額ってなぁに?
たしかにボッてるとおもうけど
冗長性のあるコントローラや電源だと
このくらいするかなと思います

そもそも家庭向けだとスロット数が4つぐらいだよ
303login:Penguin:2008/10/12(日) 00:07:47 ID:MFK5+p1z
冗長性云々必要なの?

> SATAのHDDが10個ぐらいのRAID組みたいのだが

としか書かれてないよ。
304 ◆Zsh/ladOX. :2008/10/12(日) 00:16:53 ID:BnTxnZIJ
サウスにSB700とかSB750とかICH9とかICH10のマザー
+
クロシコSATA2I2-PCIeを2個使う

ってところか。
HDDはお好きなのでどうぞ。
305login:Penguin:2008/10/14(火) 16:22:59 ID:NijeoAer
最近Supermicroのベアボーンが、実はかなりコストパフォーマンスが高いことに気付いた。
SOHO向けのファイルサーバ用途なんかだと、かなりいい感じだと思う。
バラでパーツ集めるより安心確実安上がり。
306login:Penguin:2008/10/15(水) 01:00:02 ID:MFbQNNJJ
もしドライブベイ4つあるサーバーあったら

@SASでraid1+0
ASASでraid6
BSATAでraid1+0
CSATAでraid6

のうちどれが良いと思います?
速度、コスト、耐障害、障害時復旧等
それぞれの面から教えてください。
307login:Penguin:2008/10/15(水) 02:07:17 ID:ZK7oP6Ef
>>306
シーケンシャルなら24
ランダムなら13
コストなら34
耐障害なら24
ディスク負荷高い場合は障害復旧での負荷13
308login:Penguin:2008/10/17(金) 23:47:36 ID:yE7dhqMk
>>306
これ見て思い出したんだけど
RAID1+0ってRAID0+1って言うのもあったんだね
1+0のほうが耐障害で0+1が速度だっけ?
309login:Penguin:2008/10/18(土) 03:28:34 ID:CvVG09ig
>>308
その2種類の動作は呼び方が定義されていない
普通採用される方式は
RAID0の各HDDがミラーリングされている方式
もう一つは信頼性ガタ落ちの
RAID0をミラーリングした方式
速度はどっちも同じ(リトライ処理とか考えると異なるかもしれんが)
310login:Penguin:2008/10/22(水) 23:03:41 ID:OER6wkY9
>>308
ミラーリングボリュームのストライピングか
ストライピングボリュームのミラーリングか、だね
ストライプサイズ近辺のアクセス粒度だと、シークとアクセス振り分けの関係で
性能特性が微妙に違ってきそうな感じ。分かるような違いは出ないと思うけど…

ちなみにmdのRAID10はさらに別物
311login:Penguin:2008/10/25(土) 23:44:02 ID:WFYSKaa5
mdadmでRAID1を組んでext3でフォーマットしました。
別のext3のディスクからディレクトリを
cp -a
でコピーし、
du
で見たところディレクトリ全体の容量が微妙に違います。

ですが、ディレクトリ内の各ファイルの容量はそれぞれ一致しています。
これは、ジャーナリングのメタデータの容量が違うから、ですか?
それとも、RAIDに起因するものですか?
312login:Penguin:2008/10/26(日) 01:23:25 ID:Z2w8/cR8
その「微妙」というのが何KBなのか何MBなのか、そしてどっちが多いのか
エスパーじゃない俺には全然わからないけど
単にディレクトリエントリの消去済み領域の分だったりしないかね。
313login:Penguin:2008/10/26(日) 02:35:57 ID:J0AWp7Ql
コピー元と先のそれぞれ上の階層で
ls -l すると 4096B だけコピー先のディレクトリが小さいので、
おっしゃる通りですね。勉強になりました。
314login:Penguin:2008/10/28(火) 15:40:50 ID:OkmvC/aL
3wareの9500Sで700GB*8のRAID5を構築したのですが、
ファイルシステムが上手く作れなくて大変困っております。
使用しているのはFedora Core 7です。

# parted /dev/sdb
GNU Parted 1.8.6
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags

(parted) mkpart primary ext2 0 -0
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags
1 512B 852GB 852GB primary ext2

となって、5250GBと表示されているのに、パーティションを作ろうとすると
852GBのパーティションしかできません。

RAIDの最初期化なども行ってみたのですが症状は変わりませんでした・・

どなたか、アドバイスを下さいませんでしょうか?
315login:Penguin:2008/10/28(火) 16:02:30 ID:7kZ3n49D
> Partition Table: msdos

なあ、DOSパーティションテーブルで扱えるサイズに上限があるの知ってる?
316314 :2008/10/28(火) 16:11:53 ID:OkmvC/aL
できました!大変ありがとうございました。

(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number Start End Size File system Name Flags
1 17.4kB 5250GB 5250GB primary
317login:Penguin:2008/10/28(火) 17:16:12 ID:XbLUcb3e
え〜っと
ネタ……だよね?
318login:Penguin:2008/10/28(火) 17:29:33 ID:XbLUcb3e
しかし、ドライブが普通にTBクラスになってくると
それまで遭遇したことのない状況に直面することも多そうだな。
1TB 1万円の時代がこんなに早くやって来ようとは…
319login:Penguin:2008/11/02(日) 00:36:09 ID:36V/uKQX
すまんが教えてくれ。

500GBx4(RAID5)を構成してたうちの1台が故障したんで、容量アップもかねて
1TBx3(RAID5)に変更した。
データ移行は全HDDを同時に搭載して、md0(500GBx4)とmd1(1TBx3)を作成して
コピーした。
500GBx4を取り外して1TBx3だけにしたんだが、再起動後もmd0じゃなくmd1として
認識される。
今までデバイス名はmd0を使っていたんで、これからもそうしようと思ってたんだが。
CentOS5を使ってるんだが、これをmd0に直すことは出来ないか?

困ってるというほどじゃないんだけど、気持ち悪くて・・・orz
320login:Penguin:2008/11/02(日) 01:09:58 ID:n6/w/1q1
>>319
私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。
憶測ですが、

/etc/mdadm/mdadm.conf
/etc/fstab
/boot/grub/menu.lst

の3つを編集すればmd1をmd0にできるかもしれません。
mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。
RAID初心者なのであまり信用しないでください。
判断の材料になればと思いまして書かさせていただきました。

くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。
321login:Penguin:2008/11/02(日) 01:29:20 ID:36V/uKQX
>>320
レスありがとう。

/etc/mdadm/mdadm.conf
 →今までmd0だったのをコメントアウトし、md1として記載していたのをmd0に書き換えた。
/etc/fstab
 →md0でマウントして欲しかったので、記載は変更せず。
/boot/grub/menu.lst
 →ルートパーティションもカーネル置き場もRAIDの対象外にしてあるので、変更せず。

この状態で、1TBx3(RAID5)がmd1で、md0にはデバイスが何も割り当てられていない。
仕方ないので今は、/etc/fstabを修正し(md0→md1)で動作させてる。

何をすれば直るんだろう・・・
322login:Penguin:2008/11/02(日) 04:27:52 ID:yzuijVl/
>>319
mdボリューム自体に書き込まれてる番号を見てるんで
superblock弄らないと直せない
やめておいたほうがいい
323login:Penguin:2008/11/02(日) 08:56:30 ID:36V/uKQX
>>322
ああ、そうなんだ・・・
わかった。ありがとう。
あきらめることにするよ
324login:Penguin:2008/11/07(金) 08:51:39 ID:1rUaDWwq
アロハですべて解決だお田口くん^^
325login:Penguin:2008/11/08(土) 20:24:12 ID:dUpxLcHs
アロハ田口君、使えないRAID・使えないクソ板というならここにはこないでくれ!
326login:Penguin:2008/11/08(土) 22:09:50 ID:1FtiGeqJ
md raid1なデバイスが開始しなくなったのですが、
縮退も何もしていないようなので原因が掴めずにいます。
再構成すれば正常に復帰することは確認していますが、
どのような原因でこの状況になり、どのような対応をするべきなのか、
勉強のために助言をいただければ大変ありがたいのですが。

# cat /proc/mdstat
md1 : inactive sdb1[0] sda1[1]
12345678 blocks super 1.0

# mdadm --detail /dev/md1
/dev/md1:
Raid Level : raid1
Raid Devices : 2
Total Devices : 2
Preferrer Minor : 2
Persistence : Superblock is persistent
State : active, Not started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

# mdadm --examine /dev/sd[ab]1
/dev/sda1
State : clean
Checksum : 1234abcd - correct
Events : 4
/dev/sdb1
State : active
Checksum : 56789abc - correct
Events : 5
327login:Penguin:2008/11/08(土) 22:30:16 ID:vwNnhBNG
>>326
raid1ドライバは起動時にロードされてる?
パーティションタイプの設定は間違ってない?
328326:2008/11/08(土) 22:39:01 ID:1FtiGeqJ
>>327
全く同様に作成した複数のRAID1デバイスがありますが、このデバイスのみ開始しません。
ちなみにパーティションは/としてマウントされる設定になっています。
329326:2008/11/08(土) 23:01:02 ID:1FtiGeqJ
昨日までは問題なく機能していたのですが、一体何が原因なのやら。
念のため、パーティションテーブルとmdadm.confも
バックアップと比較してみましたが、完全に一致しています。
330login:Penguin:2008/11/08(土) 23:12:58 ID:vwNnhBNG
ルートってのが怪しい気も・・・
# dmesg | grep md
とか
331326:2008/11/08(土) 23:42:00 ID:1FtiGeqJ
>>330
# cat /var/log/boot.msg | grep_wetware md
mdadm: /dev/md0 has been started with 2 drives.
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: /dev/md2 has been started with 2 drives.
mdadm: No arrays found in config file

このシステムは普通のinitrdだと起動しないので、
今Knoppixを改造する方法を調べていますが、メディアがないという・・・。
332326:2008/11/09(日) 00:02:30 ID:1FtiGeqJ
システム自体は自動復旧できるので、あまり困ってはいませんが、
復旧スクリプトはOSをカスタムクリーンインストールするだけなので、
原因究明に必要そうなデータは全部消えてしまいます。

全く関係ありませんが、M/BのRAID機能(Fake RAID)には
SB等のオンチップなもの、別途チップを搭載したオンボードなものがあります。
後者の場合、搭載チップが大手デベロッパのもの(Silicom Imageとか)なら、
全く同じチップを搭載したRAIDカードが簡単に手に入ります。
「Fake RAIDを使いたいが、拡張カードに余裕がない。しかしオンチップでは不安」
という場合にはそのようなM/Bを選ぶのもいいかもしれません。
また、PATA・SATAなどが搭載されているものでも、似た型番のファームウェアで(略
他のOSと共用しないのであれば、LinuxでFake RAIDを選ぶ理由はそうないと思いますが。
333326:2008/11/09(日) 21:20:22 ID:DGt7Zimz
どうも最近のカーネルで同じような現象が出るようです。
いくつかのフォーラムで話題に上っていましたが、いずれも原因は不明でした。
大きな実害はない(RAIDでシステムが起動しなくなるのは実害ですが)ため、
週末も終わりますので、このあたりで調査を打ちきりたいと思います。
付き合ってくださった方、ありがとうございました。
334326:2008/11/09(日) 21:47:37 ID:DGt7Zimz
同様の現象に遭遇された場合は、RAIDを構成し直すことでデータロスなく復旧できます。
私の環境では復旧作業はメンテナンスモードで完結しましたが、
カスタムinitrdなので、他の環境ではレスキューCDやLive CDが必要かもしれません。

復旧するには、RAIDを再構成し、必要であれば適当に同期します。
UUIDが変化している場合は、UUIDを元に戻すか、mdadm.confに反映してください。
# ルートをRAID構成にしているような方は理解していると思いますが、
# /boot/initrd/etc/mdadm.confです。念のため。
私の環境ではinternal bitmapが正しく認識されませんでした。
このあたり詳しくないので分からないのですが、作り直してやれば問題なく動くようです。

一応、エラーなくブートすることは確認していますが、
結局初期化してしまったため、正常に運用できることは確認していません。
また、この現象は再現性があるようなので、再び発現するかもしれません。
カーネルを大体2008年上半期のものに戻せば、再発しなくなる"らしい"ですが。
335login:Penguin:2008/11/14(金) 17:41:14 ID:SvkwSzc6
うちは64bit Ubuntu環境だが、書き込み負荷が大きいとRAIDが応答しなくなる。
非RAIDのシステムディスクも巻き込んで書き込めなくなっているらしく、
Fxの設定なんかが戻ってる。シャットダウンも途中でバスエラーで止まるし。

対処法は >>334 に同じ。

P35のサウスが腐ってるのか、ドライバが腐ってるのか。

なんでやー
336login:Penguin:2008/11/22(土) 20:07:08 ID:Jtc1qcI2
CentOSでSATAのHDDをミラーリングしたいのだが
ハードウェアRAIDで2台を接続できるやつでお勧めありませんか?
そんなに高性能でなくて構いません
337login:Penguin:2008/11/22(土) 20:32:30 ID:eQKAaNGp
べつにソフトウェアでやればよくね
338login:Penguin:2008/11/22(土) 20:42:46 ID:pwVAVQnO
個人的にはLinuxと言えば3wareのイメージが強い
339login:Penguin:2008/11/23(日) 10:20:29 ID:NMmGdMk5
沖縄に外国人3000万人受け入れ計画
http://life.bbs.thebbs.jp/1227401075/

こんな法案が可決したら日本は破綻する
(ちなみに東京の人口は1280万人)
選挙権がある方は良く考えて投票してください

340login:Penguin:2008/11/23(日) 14:17:08 ID:xbEoWaWj
まず物資の輸送が不可能
餓死させるのが計画のうちなら知らんが。

>>337
ブートローダのメンテが若干面倒だから、そのあたりを嫌うなら
透過的に扱えるHW-RAIDの方が良いかも。
341login:Penguin:2008/11/24(月) 13:53:42 ID:nIHbOfOU
3ware Escalade 9500S-4LP
adaptec Serial ATA RAID 2410SA
どっちを買おうか悩んでます
ハードウェアRAIDの方がよいらしいのですが
どうやって見分けるかがわかりません。
エロい人教えてください
342login:Penguin:2008/11/24(月) 14:17:15 ID:gPfZJ3UU
>>341
PC外付けタイプならまず確実にハードウェアRAID。
その2つもハードウェアだと思うけど。
Adaptecの方はややスペックが落ちるから3wareでいいんじゃ?

(使ったことないし、ぷらっとオンラインの説明見て書いてるだけだけど)
343login:Penguin:2008/11/24(月) 16:16:07 ID:hCv1ixFI
質問です。

現在CentOS5のmdadmを使用してRAID5構築しています。
これをRAID6に変換したくてGoogle先生に聞いたのですがサイト見つかりませんでした。
@可能なのか?
A検索するキーワード、もしくはお勧めのサイト
をご教示いただけると幸いです。
344login:Penguin:2008/11/24(月) 16:45:51 ID:VO9j9Wmt
知る範囲ではフルバックアップ+リストアしかないと思われ
最新のmdadmは知らないから、サイト見つけてman読んでくれ
345login:Penguin:2008/11/24(月) 21:36:30 ID:GzuV7Usu
高価なストレージでもRAIDレベル変換は命がけだよ
なにしろメモリ上にしかデータがない瞬間があるからね
346login:Penguin:2008/11/24(月) 22:24:15 ID:l3Kl+Jqd
>>343
可能だったとしても君には無理だと思うよ。
347login:Penguin:2008/11/25(火) 00:09:58 ID:dBliCIAC
348login:Penguin:2008/11/25(火) 00:11:10 ID:dBliCIAC
IDにCIA… ガタガタブルブル(違
349login:Penguin:2008/11/29(土) 22:26:04 ID:jRDp7xVJ
RAID構築してた二つのHDDを
普通に使用しようとしてフォーマットしたら
エラーでフォーマットできないんだが
どうすればいいのでしょうか?
DESTROYで完全消去しようとしても
エラーで消去できません(泣
350login:Penguin:2008/11/29(土) 22:44:47 ID:jRDp7xVJ
ローレベルフォーマットも無理だった・・・orz
俺の知識じゃなんともならん・・・
誰か助けてください。
351login:Penguin:2008/11/29(土) 23:01:17 ID:vVaLqDtx
>>350
もしかしてRocetRaid?
HDDの設定値書き換えるらしいので他環境では使えなくなるらしいよ。
352login:Penguin:2008/11/30(日) 02:12:02 ID:oiqzRYao
adaptec 1210SA っていうやつなんだけど・・・
353login:Penguin:2008/11/30(日) 02:12:49 ID:oiqzRYao
途中で書き込んだかも

adaptec 1210SA っていうやつなんだけど・・・
RocketRAIDでは違うようです。
354login:Penguin:2008/11/30(日) 02:46:09 ID:pP7UJGw1
>>349
どうしても他の方法が駄目なら試してみて。
もう一度、同じRAIDを構築する。
それからRAIDのレベルを1にして再構築。
そしてバラしてから一個づつフォーマット。
355login:Penguin:2008/11/30(日) 03:27:32 ID:oiqzRYao
>>354
RAID1を構築しようとすると
開始直後から固まって動いてくれないです
356login:Penguin:2008/11/30(日) 05:07:23 ID:pP7UJGw1
>>355
最初のレベルは何?
最初RAID 0なら、同じようにRAID 0で構築しないといけないよ。
それで問題ないなら、次にRAID1で再構築。
同じカードなら、これができないはずはないと思うけど。
もちろんOSは別のHDDだよね。
後は、プロンプト開いてfixmbrしてみるしかないかな?
使い方はググってくれ。
357login:Penguin:2008/11/30(日) 06:13:18 ID:I/61r+v7
ふつーに物理的に壊れたんじゃんないの
358login:Penguin:2008/11/30(日) 12:40:13 ID:oiqzRYao
>>356
OSは同じHDDですorz

まだ購入して一週間ぐらいしか経過していないんだが・・・汗
359login:Penguin:2008/11/30(日) 14:28:11 ID:lQ5yOOgC
この書き方だと導入時のHDDテストもしてないっぽいな
360login:Penguin:2008/11/30(日) 14:41:41 ID:oiqzRYao
powermaxっていうツールで
Advanced Test (Full Scan Test) っていうテストぐらいしかしてないです
361login:Penguin:2008/11/30(日) 17:06:27 ID:lQ5yOOgC
んー、それならテストとして最低ラインはクリアか
フォーマットが無理ならddで全領域ゼロうめとか
# dd if=/dev/zero of=/dev/sdX bs=1M
LBAで見える以外の領域に何かされてたらこれじゃ解決しない

どのレベルでどんな問題が起こってるのかきちんと書かれてないな
RAIDカードのBIOSなのか、OSレベルなのか、ローレベルフォーマットって
いうならメーカ製ツールなのか。半ばエスパー質問化してる
362login:Penguin:2008/12/09(火) 23:45:42 ID:cEZNK+Gg
長文失礼します、
DELL ワークステーション 450GB 15000回転×4枚 検討中ですが
SAS RAID5 か SAS RAID10でヒジョーに悩んでおります・・

一般論では RADID5のほうが良くない(書き込み遅い・2枚壊れたらアウト)
と言われます。
が、DELLに言わせれば それは主にSATAの話であって、
SAS RAID5 の場合 PERC 6 SASコンが演算する?ので
書き込み速度もそれほど遅くならないし、HDDが同時に2枚壊れるなんて
ほとんど有り得ないから大丈夫との回答・・

もし本当なら やはり作業領域の広い RAID5にしたい気持ちですが、
それを押し切ってでも あえてRAID10にする決定的なメリットを
ご存知のかた いませんでしょうか?
(RAID10の速さ・安心感も捨てがたいのも事実です)


363login:Penguin:2008/12/09(火) 23:59:13 ID:3GSXNjdZ
>>362
PERC 6 SASコンの演算性能を確認してからでもよくない?

>HDDが同時に2枚壊れるなんて
>ほとんど有り得ないから大丈夫との回答
逝ったらデータ保証してくれるのか、って言ってみたいね。
多分なーんにも考えずに言ってるだろうから。
364login:Penguin:2008/12/10(水) 00:13:28 ID:wgpxAUYw
RAID10だったとしてもデータ保証は無いし、そもそもRAIDの守備範囲じゃない
何にも考えてなさそうなのは同意だが
365login:Penguin:2008/12/10(水) 00:31:00 ID:OPHXMwCC
>>363
早速のアドバイス有難うございます。
RAID5特有の データとパリティ情報を分散して記録する手間ってヤツですよね

今回の場合、

RAID5→作業可能領域:1350GB バックUP領域:450GB
    読み速度:○ 書き速度:△ 故障時復旧:2枚逝ったらアウト

RAID10→作業可能領域:900GB バックUP領域:900GB
    読み速度:◎ 書き速度:◎ 故障時復旧:3枚逝ったらアウト

といったところでしょうが HDDの壊れ具合やHDD作業領域の大きさ等、
未体験ゆえ 何かに例えようもなく、
さて どうしたもんかという感じでざいます・・

366login:Penguin:2008/12/10(水) 00:34:11 ID:4CJ8G9lA
>>365
RAID10は組み合わせによっちゃHDD2二つ死んでもアウトじゃないか?
367login:Penguin:2008/12/10(水) 00:36:52 ID:OPHXMwCC
>>366
すみません まだあまり詳しくはないですが
0+1 と 1+0 の違いということでしょうか?
368login:Penguin:2008/12/10(水) 00:42:14 ID:4CJ8G9lA
369login:Penguin:2008/12/10(水) 00:48:16 ID:wgpxAUYw
>>365
データ守りたいの?可用性を上げたいの?
データを守りたいだけならRAIDは無意味だから
JBOD2つ作ってバックアップしなさい
370login:Penguin:2008/12/10(水) 01:04:08 ID:OPHXMwCC
>>368 わかりやすいページでした、有難う御座います
   この場合 当然1+0ですね

>>369 以下のような説明文を見つけたのですが
   そう簡単に一安心というのも なかなか難しいものですねw

実際、JBODは複数のディスクを単に1つにまとめて
大容量の単一ディスクに見せかけるだけの技術だ。
パリティなど冗長コードの仕組みはなく、
耐障害性は向上するどころか悪くなる。

冗長性がないという点で JBODはRAID 0とよく似ている。
しかし、RAID 0が複数のディスクを並行して読み書きすることで性能を高めているのに対し、
JBODでは基本的に1台ずつ読み書きされるので性能は向上しない。
371login:Penguin:2008/12/10(水) 01:20:23 ID:OPHXMwCC
やはり どちらにしてもバックUPは欠かせないように思いました。

・作業領域重視なら まめにバックUPをとりつつ RAID5
・作業速度重視なら たまにバックUPをとりつつ RAID10

という2つの選択理由で最終的な悩みに突入してみます。
結局は 作業領域450GBの差・互いの体感速度差 が
なかなか想像できないという悩みなワケですが・・
372login:Penguin:2008/12/10(水) 01:34:19 ID:Ual94Maq
書き込みの早さは、
RAID10 > 5 > 6
の認識であってますか?
373login:Penguin:2008/12/10(水) 01:36:45 ID:4CJ8G9lA
レイテンシは逆に増えるからね、
よほど大容量データを転送しない限り体感できないに一票

RAIDは間違ってデータ消したとか、
ウイルスがデータ壊したとか、
ソフトウエアの問題から起きるデータ消滅には無力。

HDDが故障する確率と間違ってデータ消す確率、
どちらが高いかを考えるとバックアップの重要性に気づくはず。
374login:Penguin:2008/12/10(水) 02:01:36 ID:OPHXMwCC
しかし 最もポピュラー且つ 全てのバランスがとれているのはRAID5だ
という意見もあるしな〜 聞けば聞くほど迷ってしまうところです
375login:Penguin:2008/12/12(金) 16:45:01 ID:n9kgBBfI
>>370
JBODって何のためにあるのか分からんよな・・・
障害発生しても別にいいやってスタンス(例えば2ch鯖w)で使うもんなんかな?
376login:Penguin:2008/12/12(金) 19:38:52 ID:IRfMgGF6
昔のドライブあたりの容量が小さかった時代には
有効な手段だったんだよ。
今となっては無価値だが。
377login:Penguin:2008/12/12(金) 20:46:10 ID:uz8EwwXm
全然分かってないな…。

メリットはドライブごとのアクセス並列化。
XFSみたいな、ファイルシステム内で複数のアロケーション単位に
分散して使っていくファイルシステムと組み合わせて、
並列入出力のアクセス時間を隠蔽する。
RAID1+0だと、アクセス単位がストライプ単位より大きい場合は
並列入出力が事実上不可能。
378login:Penguin:2008/12/12(金) 20:51:14 ID:7DMsWCHl
J(ust)BOD
379login:Penguin:2008/12/15(月) 20:30:18 ID:cQdvEHh1
>>377
まじか
したら>>370の説明は間違いってことじゃん

つーことは、RAID0と違って、JBOD中の1台が死んでも全体が死ぬわけじゃない?
380login:Penguin:2008/12/16(火) 05:33:07 ID:habB3SiC
>>379
1台死亡でボリュームが死ぬのは一緒。RAID0だと領域が櫛状に死亡するから、
完全な形で救出できるファイルが極端に少なくなるけど。
381login:Penguin:2008/12/16(火) 12:40:23 ID:V99gDv+F
JBODの実装次第なんじゃないの?
例えばどのハードウェアRAIDでも必ず >>377,380 と言える
保証はどこにもないと思う。
382login:Penguin:2008/12/16(火) 14:57:27 ID:habB3SiC
何当たり前の事を……。
370も377も必ずその動作になるとは言っていないぞ?

380もそりゃ実装次第だが、RAID0を名乗る以上実装はストライピングだろうし、
JBODを名乗るなら領域連結だろう
383login:Penguin:2008/12/16(火) 17:00:56 ID:KlJRATvp
小学生の口ゲンカみてーだな

> 「必ず」とは言ってない

そんなこといつ言った?
何時何分何秒だ?

とか続きそうw
384login:Penguin:2008/12/16(火) 17:15:15 ID:O0nTK2wv
>>383
そうなの?死ぬの?
385login:Penguin:2008/12/16(火) 18:47:07 ID:MbHpuTDI
よく分からなくなってきた
RAIDだとJBODのような並列入出力はできないわけ?
386login:Penguin:2008/12/16(火) 23:29:57 ID:habB3SiC
JBODだろうがRAIDだろうが並列入出力できるかは実装次第。
RAID0系(5/6含む)はほぼ不可能というかできても実用的じゃない。
387login:Penguin:2008/12/17(水) 10:12:16 ID:mORUj6fC
並列入出力って、
RAIDよりもNCQとかその辺の仕事では?
388login:Penguin:2008/12/17(水) 12:42:06 ID:lUpz3ShW
ここまでの話の要約

JBODとRAID0のメリット・デメリットは実装次第で、
絶対的な話として、どちらがどうとは言えない
389login:Penguin:2008/12/17(水) 15:22:26 ID:BsydUkOG
ほんとか?
390login:Penguin:2008/12/17(水) 15:34:12 ID:Q+zvZB24
JBODのメリットはディスクの容量が異なっていても全部使えることじゃないのかな
391login:Penguin:2008/12/17(水) 22:56:00 ID:n45DK9NO
みんな意見バラバラだな・・・w
まぁほとんどの人は接点がないってことだろうな。プロの鯖缶でもない限り
392login:Penguin:2008/12/18(木) 01:10:30 ID:glsjl0AW
>>387
ボリュームレベルの話とドライブレベルの話は区別するべし
並列っていうからには同時に複数箇所アクセスできないといけないけど
NCQ使ったところでアーム1個だから無理
393login:Penguin:2008/12/18(木) 10:21:59 ID:+frKg3uB
>>383
あんた、理解しないで突っ込んでるだろw

パリティデータも実データも全ディスクに分散して書き込むのがRAID5,6の肝。
その副産物として >>377 に挙げられてるメリットが出てくる。

それに対して、JBODは、概念的に並列化となんの関連もない。
だから「並列化された実装」かどうかの保証はない。
394login:Penguin:2008/12/18(木) 16:56:41 ID:glsjl0AW
377はJBODのメリットを言っている件
395login:Penguin:2008/12/18(木) 18:09:57 ID:OhRt4tvK
393が一番文脈読まずに書いてる気がする件
396login:Penguin:2008/12/18(木) 20:10:23 ID:7mUfa8Uh
そろそろFAを頼む
初心者の俺を混乱させるなよお前ら
397login:Penguin:2008/12/19(金) 04:36:05 ID:I6X68B5n
>>393
全然ダメ。構造と振る舞いが区別できてない。

RAIDもJBODも記憶領域の構造をどうするかという話。
それ単体では並列化とは何の関係もない。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
逆にJBODで複数ドライブにまたがる書き込みを並列で処理しても良い。

>>396
RAIDもJBODも単なるストレージ構成法の一つ。
本質的なところではパフォーマンスとは何の関係ないが、
ストレージの構造は並列化等の実装に影響を与えるわけで、
それがパフォーマンス特性になって出てくる。
なので、個々の製品のパフォーマンスについては
RAIDやJBODの種類と同時に実装もきちんと見ていかないとまずい。
398login:Penguin:2008/12/19(金) 09:39:33 ID:N95hrrbA
>>397
横から見ていた者だが、"並列"の意味が377と違うんでないか?
377はボリュームに対する並列アクセス、397はドライブに対する並列アクセス
を前提に書いてる気がする。

あと、
>RAIDもJBODも単なるストレージ構成法の一つ。
>本質的なところではパフォーマンスとは何の関係ないが、
これは違うべ。
何らかの性能を上げるために構造を考えるんだろ。
399login:Penguin:2008/12/19(金) 09:50:41 ID:HVbKjCGk
そもそも冗長性確保のためのデータの配置が定義されているわけで
性能については実装任せなんだが
400login:Penguin:2008/12/19(金) 12:28:20 ID:ZzooiCVr
RAID Level 0については確実に性能はアップするでしょ。
仕組み上。
Level 0そのものは正確には"RAID"ではない
(RAIDのRはRedundant = 「冗長性のある」だが、Level 0 は冗長性なし)けど、
速度向上目的で他のLevelと組み合わせて使うRAID技術の「一部」だよね。

JBODは"Just Bunch Of Disks"。
基本的には名前の通り「単にディスクをまとめただけ」で
それが性能向上に繋がるかどうかは実装次第。

では。
401login:Penguin:2008/12/19(金) 13:37:26 ID:W75DRFXy
「パフォーマンス」「性能」の定義がバラバラな気がする。
402login:Penguin:2008/12/19(金) 16:18:22 ID:I6X68B5n
>>398
>何らかの性能を上げるために構造を考えるんだろ。

だからわざわざ「本質的なところでは」って書いたんだが。

>>400
>RAID Level 0については確実に性能はアップするでしょ。
少なくとも構造上はアップしない。以下再掲。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
RAID0がRAIDかどうかってのは、本筋には何の関係もない蘊蓄。

>>399
同意見
403login:Penguin:2008/12/19(金) 16:21:37 ID:HakcTdSU
これだから原理主義者は
404login:Penguin:2008/12/19(金) 16:28:34 ID:I6X68B5n
そりゃ原理理解できてなきゃ話にならんからね。
405login:Penguin:2008/12/19(金) 20:28:43 ID:N95hrrbA
>>402
もう1行引いておくべきだったか。
おまいさんの言う"本質的なところ"はおかしくないか?、ってのが言いたかった。

単一I/Oに対するバースト転送速度を上げたい、ってのが目的で、
それが期待できる記憶領域の構造の一つとしてRAID0があるんだろ。
だから俺は、単一I/Oに対するバースト転送速度を上げたい、ってのがRAID0の本質だと思う。

もちろん、どんなRAID0でもこの目的が達成できるわけじゃなくって、
実装もちゃんと見ていかなくてはまずい、って点には同意。

極端な例で、例えばドライブ一台にパーティション二個切ってRAID0組めば、
RAID0だけど性能はグダグダ。
406login:Penguin:2008/12/19(金) 20:41:15 ID:AyOb8rM1
>>405
どんな目的で選ばれたり、どんな実装をされるかに関わらず、
RAID0(ストライピングの方が正確か)は構造を指した用語なんだから構造が本質。
それに、第3段落で言っているように「どんなRAID0でもこの目的が達成できるわけじゃな」いということは、
それはRAID0すべてに成り立つ特性ではない。つまり本質ではないということになる。
407login:Penguin:2008/12/19(金) 21:34:55 ID:N95hrrbA
う〜ん、おれは目的が本質だと思っているんで、
「RAID0の本質を誤った実装」みたいな言い方をするんだが、
おまいさんは定義が本質か。
408login:Penguin:2008/12/19(金) 23:02:52 ID:HVbKjCGk
RAID0もバカみたいな実装にすれば

Disk1のストライプ1
Disk2のストライプ1
:
DiskNのストライプ1
Disk1のストライプ2
Disk2のストライプ2
:
DiskNのストライプ2

なんて単体ディスクよりはるかに遅い実装で作れる
でもRAID0なのよね
409login:Penguin:2008/12/19(金) 23:05:43 ID:zWWlzXIk
ストライピングの定義が構造のみで振る舞いは全く含まれてないなんてどっかにソースあるのか?
一方は振る舞いを含む、一方は振る舞いは含まないという話になってるんだから、
大本の定義をもってこなきゃ水掛け論だろ。

おれはRAIDでいうストライピングの一番の目的はスピード向上であって、
それを達成できていないものはたとえデータを縞々に入れてても、
ストライピングとは言わないと思うがな。
プログラミングでいうデータ構造の概念とは違うんじゃないだろうか。
410login:Penguin:2008/12/19(金) 23:07:28 ID:HVbKjCGk
まずはヘネシー、パターソンの原典を読んでこいよ
411login:Penguin:2008/12/19(金) 23:20:22 ID:zWWlzXIk
読むのはいいけど「原典」という名の資料はないのだが。
具体的な書籍名なり論文名なりを提示してもらわないとわからん。
412login:Penguin:2008/12/19(金) 23:34:42 ID:I6X68B5n
409自己否定してどうするw
データを縞々に入れるのがストライピングだ
413login:Penguin:2008/12/19(金) 23:44:37 ID:asZoZApZ
RAIDが最初に定義された論文
ttp://www.cs.cmu.edu/~garth/RAIDpaper/Patterson88.pdf
書籍は
『コンピュータアーキテクチャ 定量的アプローチ 第4版』
がヘネパタの日本語訳の最新版なのでこれがいいんじゃないですかね。
ってもヘネシーRAID0については定義してないんじゃなかったっけ・・・?
414login:Penguin:2008/12/20(土) 01:00:39 ID:qv2fz/ke
そもそもなんでJBODなんて新しいネーミングを作ったんだ?
構成としてはRAID0まんまなわけで・・・
415login:Penguin:2008/12/20(土) 01:25:33 ID:+TD+IQmn
どういうボケだよ
416login:Penguin:2008/12/20(土) 10:26:30 ID:JWNLY8jx
>>412
データが縞々であるのは必要条件であって十分条件でないのではと言ってるんだろ。
それと「原典読め→原典って具体的にはどれ?→思いっきり無視」ってどういうことよ?
ほんとに「原典」を知ってたらすぐにこれだと言えたんだろうけどな。

>>413
サンクス。これっぽいな。
ttp://itpro.nikkeibp.co.jp/article/Watcher/20060518/238330/
によると、これでlevel1〜level5まで発表したが、
あとでlevel0とlevel6を追加したらしい。
JBODの説明も書いてあるな。>>370はこれを参照したんじゃないだろうか。

というわけでlevel0に関しては記述がなかったが、
>>386で以下のように書いてあるからlevel5のところを参照した。たぶん同じやつの書き込みだろう。
縞々でパフォーマンス向上を目指してるのは変わらんしね。

113〜114ページによると、level3では1グループで一つのI/Oしか実現できなかったのを、
level4では「parallelism」を通して小さな転送のパフォーマンスを改善したとある。
parallelism→一度に一つ以上のI/Oを行うこと。
ディスクの動作を非同期にして独立させて動かすんだな。
大きな転送についてはディスクが同期して動いても「待ち」があまりないから、
結果としてlevel3と速度的には変わらないらしいな。比較の表がおもしろい。

んで発展型としてlevel5はチェック情報を分散させるとある。
「sequential」の可能性があったチェック情報の書き込みの問題が解決されるから、
小さい変更だが効果は大きいとあるな。

というわけで「原典」にも並列アクセスについて思いっきり言及されてると思うのだが。
おれのつたない英語力のせいで誤解があったら言ってくれ。

大先生たちもとんでもない曲解に苦笑いだろうな。
「ワタシタチノイトヲゼンゼンリカイシテナイヨ・・・」
417login:Penguin:2008/12/20(土) 18:40:52 ID:+TD+IQmn
>>416
おまいさん、なんか相手取り違えて同一人物認定してないか?
とりあえず落ち着け。

で、だ。原典を神聖視するのはまあ悪いことではないが、
初学者にありがちな失敗でもある。原典から研究が進むにつれて
解釈が変わっていくことはままあるということにも気をつけてくれ。
418login:Penguin:2008/12/20(土) 21:39:58 ID:JWNLY8jx
どんな切り返しだよ
419login:Penguin:2008/12/21(日) 02:30:28 ID:A3gaIsOr
猿真似で返しか
結局まともな反論は出来ないわけね
420login:Penguin:2008/12/21(日) 18:23:06 ID:fQM9DRN3
なんか基地外がわいてるな
スレをあらさないでほしいのだが
421login:Penguin:2008/12/21(日) 22:35:58 ID:nIipvi9z
マターリで何気に良スレだったのにね
422login:Penguin:2008/12/22(月) 00:13:56 ID:Fbk41wIC
そういえばそろそろ冬休みだったな
423login:Penguin:2008/12/22(月) 07:07:57 ID:iFW65CKw
3wareのRAIDカードでAlt+3でBIOSに入ったのですが
そこからどうすればミラーリングできるのかが
いまいち設定方法等わかりません
どなたか教えてください
424login:Penguin:2008/12/22(月) 07:40:58 ID:Fbk41wIC
425login:Penguin:2008/12/22(月) 11:17:44 ID:iFW65CKw
>>424
表示上ではうまいことRAIDになってるのですが
そのドライブにWindowsXPを入れようとすると
ブルースクリーンになってしまってます(泣
なぜなのでしょうか?
426login:Penguin:2008/12/22(月) 14:07:13 ID:wBxKXJqm
>>425
F8かなんか押してドライバは入れた?
427login:Penguin:2008/12/22(月) 15:06:49 ID:iFW65CKw
>>426
正規品のCD使ってたのですが、バックアップしたCDでインストールしたら
普通にインストールできました。
で、インストール完了して再起動♪って思ってたらマザーのBIOSで
HDDが見つからないって、言われるorz
マザーのBIOSで確認すると、HDDを選択するところにRAIDカードがない!(汗
再度、WindowsXPのCDを入れてみたが、普通に見えてる・・・
もしかして、RAIDカードで起動ドライブに指定することができないのかな??
。・゚・(ノД`)・゚・。 ウワーン
なんか特殊な設定が必要なの?それともマザーのせい?
マザーはAOpen i965GMt-LA使ってます
428login:Penguin:2008/12/23(火) 02:37:53 ID:uzKBah8c
>>427
http://download.aopen.com.tw/userdownload_List.aspx?RecNo=11558&Model=2616
ここのマニュアル見る限り、
Advanced BIOS Feature > Boot Other Device
の設定でいけるんじゃないかと思った。
試してみてちょ。
429login:Penguin:2008/12/24(水) 13:49:52 ID:T5ngbbX3
 色々調べたり、質問スレで聞いたりしたのですが、分からなかったので質問します。
ICH10RでRAID0を構築しているのですが、ここに既存のNTFSを残したままFedora10を
インストールする事は出来ないでしょうか。
KNOPPIXでEXT3*2とSWAP*1を用意する事には成功しています。Ext2Fsdでも認識しています。
ところが、Fedora10をインストールしようとした時だけ、パーティーションテーブルが読み込めないという
エラーを出します。
これはどのようにFedoraをインストールすればいいのでしょうか。
430login:Penguin:2008/12/24(水) 13:55:48 ID:RefXxMd7
431login:Penguin:2008/12/25(木) 18:08:23 ID:0Q8kCwwH
mdadmでPATA×5台のRAID5アレイを組んでるんだけど、先日ハードウェアいじってないのに突然rebuildが始まり、
途中でOSごとフリーズ(無反応化)する、という現象に遭遇した。
ハードリセット掛けると一旦OSは正常起動するが、やっぱりrebuild途中で死亡。
/proc/mdstatを見ると、rebuild中であるにもかかわらず、[UUUUU]の表示でどれがイカれてるのか分からない。
その後、フリーズ中もアクセスランプが点きっぱなしになってるドライブを見つけ、
新しいドライブと交換したら無事rebuild→正常動作となった。

一台ドライブが故障しても正常に動き続けてくれなきゃRAIDの意味がない。
ましてやOSごと落ちるってのは最悪。(RAID上はデータ領域のみで、システムは別ドライブだったのに)
この種の現象はLinuxのソフトウェアRAIDではしばしば起こるものなの?
別PCのハードウェアRAIDではこんな経験したことないんで、ちょいとソフトウェアRAIDに対する信頼感が弱まった。
432login:Penguin:2008/12/25(木) 19:08:37 ID:zW/EYcXM
参考のためカーネルのバージョン報告よろしく
433login:Penguin:2008/12/25(木) 19:10:58 ID:BVWOzN/G
PATAコントローラの種類もよろしく
434login:Penguin:2008/12/25(木) 19:16:48 ID:ezPuey+U
昔SCSIのRAIDだけど、
HDDのバスコントローラ死亡→同じSCSIバスのHDD全部アクセス不可→SCSIドライバ悩む
の流れで固まったことがある。
ドライバできちんとエラー処理して、OS本体を巻き込まないようにしてくれないと…
435login:Penguin:2008/12/26(金) 00:04:12 ID:fn7jsL/s
>>431
それはSW-RAIDというよりディスクコントローラの問題では?
mdレイヤとしては下位のディスクコントローラの報告を信用するしか無いわけで、
ディスクが死んでてもコントローラが正常と報告すればUUUUUになるし、そのまま
アクセスすれば何らかの問題が起こって、ドライバがカーネルモードならフリーズとかね。
推測だけど、その問題のディスクには単体でアクセスしてもフリーズしたんじゃないかな。

でもって、HW-RAIDでも当然実装次第で同様の問題は起こりうる。
組み合わせが限定できるから実際にはトラブルは少なめとは思うけど。
436 ◆Zsh/ladOX. :2008/12/26(金) 00:16:59 ID:PlTA5U0q
437login:Penguin:2008/12/26(金) 00:47:13 ID:W2RM7LsO
そういえばHW-RAIDの癖に片方failした時にご丁寧にLinuxにも
アクセスエラーを返してOSごとお亡くなりにしてくれた"HW"-RAIDもあったな・・・
438login:Penguin:2008/12/26(金) 15:40:43 ID:w2+94DnQ
>>432-433
現在入ってるのは kernel 2.6.16、mdadm 2.5.5。
問題のRAIDアレイは2.4時代の raidtools→mdadmと移行して、合計三年くらいは運用しているもの。
PATAコントローラは Promise TX2(PDC20269)が二枚とクロシコのIT8212のやつが一枚の
合計三枚挿しで計6ポートのうち5ポートを使って各1台ずつのドライブ。
(クロシコのは比較的最近追加した)

トラブったドライブはTX2につながってた分。
439login:Penguin:2008/12/26(金) 15:43:29 ID:w2+94DnQ
>>435
> それはSW-RAIDというよりディスクコントローラの問題では?

それはそうなんだけどポイントは、結局の所、RAIDとディスクコントローラとが
同じシステム上にあるから、ディスク側のトラブル発生で「OSごと死亡」の可能性が高い
(独立したサブシステムであるハードウェアRAIDに比べて)というのがソフトウェアRAIDの
弱点なんだな〜、というとこ。
ま、それは >>435さんも書いてるけど。

RAIDの目的を考えると、これはちょっと、というか実は結構大きな弱点だよね。

ハードウェアRAIDのメリットは運用上の利便性がほとんどで、
信頼性はソフトウェアでもハードウェアでも大差ないだろ、
とわりと気楽に思ってたんで、今回ちょっと考え方を改めた、というお話。
440439:2008/12/26(金) 15:47:17 ID:w2+94DnQ
あ、書き間違いだ。

> RAIDとディスクコントローラとが

「OSとディスクコントローラとが」でした。

さらに書き忘れたけど、
当然のことながら >>438-439 = >>431です。
441login:Penguin:2008/12/26(金) 23:57:44 ID:4qL9WRZf
>>439
なるほど。
完全に1デバイスに見えるタイプのHW-RAIDはSATA/SAS IFが
システム境界になって影響が波及しないから、その点では安心ですね。
PCI/PCIe式のHW-RAIDの場合はSW-RAIDに近い問題を抱えるかも?
構成の柔軟性を取るならSW、パフォーマンスとかシステムコンポーネントの
独立性をとるならHWってところですかね。
442login:Penguin:2008/12/27(土) 00:16:21 ID:DstI2+OC
SASなりFCなりで接続する別ボックスで
コントローラや電源なども冗長化されてないと安心して使えないよ
443login:Penguin:2008/12/27(土) 00:22:48 ID:CHbsSHY3
まぁ、そこらへんは目的に合わせたトレードオフでしょう。
安心に存分にコストを掛けられるなら442が適してるでしょうし。
444login:Penguin:2008/12/27(土) 20:07:44 ID:eSSKLpWE
>>428
最終手段・・・aopenに問い合わせてみた。

平素より弊社製品をご利用頂きありがとうございます。
先日ご報告頂いた件について確認いたしましたところ、
BIOSの欠陥を確認いたしました。
現在、本社技術部門で修正BIOS等について検討中でございますので、
結果回答については、今しばらくお待ち頂けますようお願い申し上げます。
ご迷惑をお掛けしておりますことを深くお詫び申し上げます。

って返信来ました。
皆様、ありがとうございました。
445login:Penguin:2008/12/27(土) 20:27:15 ID:CHbsSHY3
446login:Penguin:2008/12/27(土) 22:03:41 ID:siPqVhlW
>>444
乙。たぶん他で悩んでた何百人かがこれで救われたな。
447login:Penguin:2008/12/27(土) 22:13:23 ID:yXeo6tkq
>>438
PDCなんて、動いてるときはいいけど、なんかトラブるととたんに最悪に
なるチップだというのに。ご愁傷様。
448login:Penguin:2008/12/29(月) 14:12:36 ID:sawoMW0p
>>447
このスレ(過去スレ含む)見てると、
HW-RAIDはRAIDコントローラのハード的故障の可能性があるが、
SW-RAIDにはそれがないので、信頼性はむしろ高い、てな話が何度か出てたと思うけど、
現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。

つか、OS共倒れになる危険性や、多ポートを利用するために複数のコントローラを
用意しなければならないことを考えると、SATA/PATAに関してはSW-RAIDの方が
ハードウェア的なリスクが高い、というパラドックスすら。
ま、HDD 2台でのRAID 1程度ならばM/Bオンボードのコントローラだけで賄えると思うが。
449login:Penguin:2008/12/29(月) 14:13:19 ID:sawoMW0p
すると、Level 4 以上のSW-RAIDを使うならSCSI使えってことになるんだろうけど、
こうなるとコストの点でのメリットは皆無になるんだよな。
SATAの「まともな」HW-RAIDを選んで買った方がトータルでは安上がりだろう。
(そも、SATAは「まとも」なのか、というのは置いといて)

結局SW-RAIDのメリットって、本当に「構成の柔軟性」だけってことになっちゃうのか?
(信頼性を犠牲にすれば超安上がり可能、というコストパフォーマンス面での柔軟性も含めて)
450login:Penguin:2008/12/29(月) 21:18:25 ID:W2yC0jiU
>>448-449
>現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。

そんなに単純な話じゃないよ
種類の違うリスクだから、足し算引き算みたいな単純な比較には何の意味もないし、
故障の可能性っていう一面だけを見るのもどうかと。

故障の可能性も重要だが、運用コストや復旧の容易さなど
考えないといけないことは沢山ある。
例えばmdでのRAIDなんかは操作にroot権限が必要だけど、HW-RAIDなら
極端な話HDD抜いて入れればOKだから一般オペレータでも対処可能で
実運用での分業をしやすい、とか。
そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。
451login:Penguin:2008/12/29(月) 22:38:14 ID:UoG3grAC
一般オペレーターって具体的にどんな感じかよくわからんが、
「一般」な人たちにマシンのハードディスクを抜いたりさしたりしてほしくないのだが・・・
452login:Penguin:2008/12/30(火) 02:18:12 ID:XDcWQoWA
>>450
> 故障の可能性っていう一面だけを見るのもどうかと。

一面だけを見てるのではなく、それがSW-RAIDのメリットだと言われてたことが
実際にはそうでもないよな、という点を書いただけだが?

> そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。

そういう「運用上の利便性」がHW-RAIDのメリットだというのは
既にさんざん書かれてるんで、誰でも知ってる。
豊富な知識を開陳したいならば、
むしろ、SW-RAIDのメリットは他にないの? というところに答えて欲しいものだ。
453login:Penguin:2008/12/30(火) 04:28:56 ID:bFaePHo0
まーroot持ってる奴は少ない方が安全だろう
少なすぎるのもトラックナンバー的にアレだが

>>452
そーいう態度は周りが話しづらくなるからおまいさんの得にもならんよ
なんか嫌なことでもあったの?
454login:Penguin:2008/12/30(火) 08:59:43 ID:1n4+uaKz
ストライピングは速くなるとは限らないのやつ、まだいたのかよ
455login:Penguin:2008/12/31(水) 02:54:03 ID:dG9Ns93a
ん、実際に速くなるとは限らないけど?
456login:Penguin:2008/12/31(水) 13:46:49 ID:wmBwgOvB
またバカがわいてきたか。
大掃除も終わって暇だからソースを出せと煽ってみる。どうせ出せないだろうけど。
457login:Penguin:2008/12/31(水) 13:57:16 ID:dG9Ns93a
ほれ。
ttp://www.runser.jp/doc/sata-raid-stripe-1.html

RAID0のストライプ単位よりアクセス単位が大きい場合、
複数のヘッドがシークする必要があるけど、
その場合シークタイムが最悪値に合わせられるのが原因。
特にストライプ単位より小さいランダムアクセスで問題になる。
458login:Penguin:2008/12/31(水) 14:13:29 ID:dG9Ns93a
間違えた。
特にストライプ単位より小さい→特にストライプ幅より小さい

あと、俺は454の言ってる奴とは多分別人。残念。
459login:Penguin:2008/12/31(水) 15:05:32 ID:wmBwgOvB
CPUの性能を比較するのに浮動小数点演算にフォーカスするのと変わらんね。
速くなる場合もある、遅くなる場合もある、なんて一個一個つまんでも無意味。
実際使う場合に全体のパフォーマンスがどうなるかが重要でしょ。

せめてOSの起動時間とかアプリ使用時の速度とか大容量ファイルの入出力とかデータベースのアクセス時間とかで計測しないと。
おれはシステム作ってるがデータベースに関しては完全にスピードアップで議論の余地ないね。
データ容量に対してメモリ容量が少ないときほど効果的。当たり前だけど。
460login:Penguin:2008/12/31(水) 15:45:02 ID:dG9Ns93a
ソース出されて涙目
必死に論点すげ変えようとしても無駄だよ
461login:Penguin:2008/12/31(水) 16:08:42 ID:VoiH1vp1
最近無意味に偉そうな人多いよね
462login:Penguin:2008/12/31(水) 16:22:17 ID:NaughPYZ
>>457
ストライプサイズは大きすぎても小さすぎても駄目という、
当たり前の事が示されたに過ぎないと思うんだが、
リンク先の内容はそれ以上の何か意味があるの?

RAID-0がランダムアクセスに弱いのは常識でしょ?
極端な例を出せば1byteのデータ書き込みはRAID-0でも絶対に速くならない。
463login:Penguin:2008/12/31(水) 16:36:19 ID:wmBwgOvB
>>460
おまえのシステム構成に関する考え方が根本的にずれてるだけ。
来年はもっとがんばれよ。

じゃあ今年おつかれ。
464login:Penguin:2008/12/31(水) 22:17:20 ID:zy8sz8rj
上のほうで話題になってる
SW-RAIDで、ディスク不調になるとシステムごと固まるのって結構痛いよね
RAID専用のLinuxマシン立ち上げてsmbmountかNFS使うしかないのか?
465429:2009/01/01(木) 15:37:19 ID:bpOiYOEo
openSUSE 11.1を試したら、GRUB以外はインストールは出来たのですが、
GRUBのみインストールが出来ません。MBRにもPBRにもインストール
出来ません。
1TB*2 のRAID0です。
フロッピーからsuper grub diskを使っても読み込めませんでした。
/boot以外のファイルは、Ext2Fsdで見てもちゃんとあります。
現在のMBRのブートローダーはMBMです。
出来れば、二段階ブートにしたいのですが、
どうすればいいでしょうか。
466login:Penguin:2009/01/03(土) 23:22:51 ID:t9OrvzZp
あけおめ

>>462
> RAID-0がランダムアクセスに弱いのは常識でしょ?

うん、だから>>455なわけで。

>>463
元の流れにない勝手な俺仮定を持ち出してよく言うw
467login:Penguin:2009/01/04(日) 09:47:01 ID:jNugnejt
ミラーリングの場合、ライト時は二つのディスクに書き込んでいるのはわかるけど、
リード時は、どうなんだろう。
やはり、二つのディスクから読み出しているのかな。あるいは、どっちか片方からなのかな。

468login:Penguin:2009/01/04(日) 14:46:39 ID:U5nW6Zhm
>>467
たしか両方から半分ずつ読み出すようなアルゴリズムになってた気がする
だからWriteは単体時と同じか遅いけど、Readは単体時よりも早いはず
469login:Penguin:2009/01/04(日) 14:48:08 ID:U5nW6Zhm
拡張されてる場合は↑みたい

wikipediaより
本来RAID 1の読み出しは、一つのドライブのみにアクセスし、もう片方は、完全なバックアップドライブである。これを双方から読み出すようアルゴリズムを拡張することで、理論上、単体ディスクの2倍の速度で読み出しを行える。
470login:Penguin:2009/01/04(日) 23:55:36 ID:jNugnejt
>>468 >>469
オンボードのbios_raidじゃあ、いくら最新のgigabyteマザーでも[拡張]ではなさそうだなあ。
でももし「拡張」だったら、ミラーリングでも、raid0の分散高速読み出しの恩恵を受けられるのか。
なんか、読み出しだけだけど得した気分だな。

471login:Penguin:2009/01/05(月) 00:56:01 ID:tYf1sft+
>>467
結論から言うと実装次第。並列読みも可能だし、片方からの場合もある。
mdのmanによると、速くなりそうなときだけ並列読み。
Windowsのミラーリングだと高負荷時のみ並列だったか。
他はそれぞれの説明書読んだり問い合わせすべし。

>>468
また来たか
472login:Penguin:2009/01/05(月) 01:29:27 ID:HmcpyJ9r
>>471
ああそうか、mdデバイスに拠るんだね
勘違いしていました。ハードウェアに「拡張」実装されているんじゃないんだ
ソフトウェアレイドの方が、拡張などがあって、融通が利きそうだと思った

473login:Penguin:2009/01/05(月) 01:48:25 ID:tYf1sft+
>>470
並列読みだしできるRAID1として、シーケンシャルアクセスだと
トラックシーク+回転待ち時間 < データ読みだし時間 じゃないと恩恵は無い。
ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り
474login:Penguin:2009/01/05(月) 03:09:42 ID:HmcpyJ9r
片方のディスクでトラックシーク+回転待ち時間を待ったとして、
それでもデータ読み出し時間で得があれば、並列読み出しraid1がなされるわけか
なるほど。
確かに、連続した収まり方をしたデータの読み出しの場合は片方のディスクを作動させるのは余計に時間がかかるなあ

>ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り しかし、そういう時間を計算して並列読み出しをするか決めるmdシステムはすごいと思う。
納得できました。

しかし、そういう時間の損得を計算して、並列読み出しを決定するmdデバイスってすごい!


475login:Penguin:2009/01/05(月) 11:22:48 ID:HmcpyJ9r
cat /proc/mdstat に何も表示されない場合、
それは、fedora10が、オンボードbios_raidミラーリングをハードウェアraidとして認識しているからでしょうか。
bios上ではraidアレイはfunctionalになっていたし、
インストーラーでも、確かにraid構成を見ることができていました。

dfでは次のように表示されます

/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm


476login:Penguin:2009/01/05(月) 11:35:50 ID:DlvIpe94
>>475
多分なってないよ。それ。dmesg貼ってみれ
477login:Penguin:2009/01/05(月) 15:46:14 ID:DdhiA30p
>>475、それ、BIOSでRAIDサポートしてて、有効にしてるんなら、mdでなく、dmraidが動いてないけ?
# dmraid -s
# dmraid -n
# dmraid -r
とか叩くとなんかでないか?
478login:Penguin:2009/01/05(月) 16:19:36 ID:HmcpyJ9r
>>476
関係ありそうな部分だけ貼ってみます
その1
<略>
ahci 0000:00:11.0: version 3.0
ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22
ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode
ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part
<略>
ata1: softreset failed (device not ready)
ata1: failed due to HW bug, retry pmp=0
ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata1.00: configured for UDMA/133
ata2: softreset failed (device not ready)
ata2: failed due to HW bug, retry pmp=0
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata2.00: configured for UDMA/133

479login:Penguin:2009/01/05(月) 16:21:12 ID:HmcpyJ9r
その2
scsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sda: sda1 sda2
sd 0:0:0:0: [sda] Attached SCSI disk
sd 0:0:0:0: Attached scsi generic sg0 type 0
scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdb: sdb1 sdb2
sd 1:0:0:0: [sdb] Attached SCSI disk
sd 1:0:0:0: Attached scsi generic sg1 type 0



480login:Penguin:2009/01/05(月) 16:21:42 ID:HmcpyJ9r
その3
<略>
device-mapper: multipath: version 1.0.5 loaded
EXT3 FS on dm-0, internal journal
kjournald starting. Commit interval 5 seconds
EXT3 FS on sda1, internal journal
EXT3-fs: mounted filesystem with ordered data mode.
Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360
4472k
481login:Penguin:2009/01/05(月) 16:24:04 ID:HmcpyJ9r
>>477
それらしきものが、出ました
# dmraid -r
/dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
/dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0

# dmraid -s
*** Set
name : pdc_cbabhifjd
size : 976642048
stride : 128
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0
482login:Penguin:2009/01/09(金) 13:18:07 ID:+j59FScV
このスレの人たちって、自作板のRAIDカードスレのように自分でインスコ、設定とかやったことあるの?
あっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・
483login:Penguin:2009/01/09(金) 13:22:01 ID:R08Zc+c9
Linuxユーザーは「本物の」RAIDカードしか使わないからじゃないの?
484login:Penguin:2009/01/09(金) 19:09:59 ID:/ZwuDsYt
俺が使ってる3wareなら今じゃドライバは標準で入ってるし、
ユーティリティ類も普通にインストーラで入るし。
kernel2.4のときはドライバはtar玉から入れてたけど
それも特に苦労をした記憶はないな。
少なくとも俺は。
書いてある通りにやれば普通に入った。
まともなメーカーのを使えば、どれでもそんなもんじゃないの?

ソフトウェアRAIDだって、
ちょっと検索すりゃ親切丁寧な解説サイトは
いくらでもあるし。

一体何をそんなに苦労してるんだか知らんけど。
485login:Penguin:2009/01/09(金) 20:26:31 ID:+j59FScV
>>483
本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。
自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。
RAIDもmdraidのミラー程度でささやかにやってるイメージ。
あ、馬鹿にしてるわけじゃないぞw

>>484
標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。
メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。
486login:Penguin:2009/01/09(金) 22:25:36 ID:+wvRjhFl
Windows特有なのが、RAID0で起動を高速化って文化じゃないかな?
それがあるから、フェイクRAIDが大人気。

Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?

つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz
487login:Penguin:2009/01/09(金) 23:52:35 ID:Al1IJSIe
mdと、dmってどう違うの?
意図して文字列を逆にしているみたいに思える。
488login:Penguin:2009/01/10(土) 01:48:52 ID:loOCjssc
>>487
md: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。

個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。
489486:2009/01/10(土) 13:36:09 ID:odJ/+a4Y
>>486
俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw
nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ

>>488
大学の研究室である程度まとまった金でRAID組まされることあんだよね。
研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。
もう全部業者任せにしようかと思うわ・・・

自分でやるならやっぱmdだな
490login:Penguin:2009/01/10(土) 14:22:42 ID:8L5rYSxp
>>486
WindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。
なんちゃってRAIDなんかよりそっち使えばいいのに・・・
491login:Penguin:2009/01/10(土) 15:34:13 ID:sulqjtr0
ここで言われてる「本物」でお奨めになものってどんなのがあります?
492login:Penguin:2009/01/10(土) 16:15:58 ID:o9R1cT+y
ETERNUS
493login:Penguin:2009/01/10(土) 17:02:57 ID:3dK3csV8
>>486>>490
md4ramって移植版のドライバがある。
ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。
壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。
494login:Penguin:2009/01/12(月) 01:59:14 ID:/Son47ik
>>488
>md: LinuxのソフトウエアRAIDドライバ
>dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、
結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。

biosraidにプロミスってあったから、これはオンボードでハード処理されて、
linuxには一個のディスクとして見せているんだと勘違いしていました。

495login:Penguin:2009/01/12(月) 04:47:57 ID:nRZhkl6m
Promiseという時点でそもそも
496login:Penguin:2009/01/12(月) 13:44:42 ID:/Son47ik
オンボードの、promiseと刻印されたあのチップは何?

497login:Penguin:2009/01/12(月) 17:33:13 ID:odrqpoZ2
FakeRAIDは、専用のインタフェースチップ使うよ。

http://itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/
498login:Penguin:2009/01/12(月) 17:50:42 ID:gg7V03n9
>>496
http://www.promise.com/
IDE,SATAのインターフェイスを作っている会社。
他にもストレージ関係をやってるのかな?

ハードウエアRAIDの会社のイメージは無いな。
499login:Penguin:2009/01/12(月) 22:04:06 ID:/Son47ik
promiseといえば、raidのイメージが付きまとうのは、
昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。

500 ◆Zsh/ladOX. :2009/01/12(月) 22:57:48 ID:HR1zAo8l
sx4000使ってたけど。
悪いイメージは無い。
数年前にPC内の画像を晒した記憶あり。
501login:Penguin:2009/01/13(火) 21:30:47 ID:UzNBMlny
今、debian etchのamd64でHDD2台を使って
ソフトウェアRAIDでミラーリングしています。
技術力の不足から、amd64をあきらめてi386バージョンを
インストールしてやり直そうと考えているんですけど
この場合、RAIDを解除して1台目のディスクにi386をインストールした後に
2台目のディスクからデータをコピーして、改めてミラーリングの設定にする
ということは可能ですか?
502login:Penguin:2009/01/13(火) 22:15:55 ID:UQqV5nIq
degradedになっても良ければ
503login:Penguin:2009/01/13(火) 22:26:17 ID:UzNBMlny
>>502
degradedってのを調べて見ました。
それって、一時的ってことですか?
それとも、i386で改めて新しくRAID1を構成しても
後遺症的なものが残るという意味ですか?
504login:Penguin:2009/01/13(火) 22:37:13 ID:JlH/mAiu
解除もクソもi386インスロースした時点でRAIDの情報消えてるんじゃないの?
505login:Penguin:2009/01/13(火) 22:40:26 ID:UzNBMlny
>>504
インストールするのは、1台目のHDDだから
2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。
インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?
506login:Penguin:2009/01/13(火) 22:47:11 ID:JlH/mAiu
あーデーターの移行の方法ね。
普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。
507login:Penguin:2009/01/13(火) 22:50:34 ID:UzNBMlny
>>506
ありがとう。細かな手順調べて、実行してみます。
508login:Penguin:2009/01/14(水) 14:35:19 ID:0aFf9qq6
>>488
>>497
ためになりました。ありがとう。

509login:Penguin:2009/01/15(木) 01:12:00 ID:9+zR18Pi
>>494

dmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。
ただし、>>497 で引用されているように、
dmraidは、biosで管理されているraidの設定情報を使用しているわけか。
だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、
そのraid構成が有効化されるのだね。
すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。

この考え方で、
合ってますでしょうか。

510login:Penguin:2009/01/15(木) 14:26:29 ID:knA7Hlz9
BUFFALOのeSATA外付けHDD(RAID1)をLinuxにつないで使っています。
HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?
511login:Penguin:2009/01/15(木) 14:34:19 ID:Rfu3LZdb
BUFFALOに聞けよw
512login:Penguin:2009/01/16(金) 02:11:08 ID:32Awgl8B
fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。
障害発生時に備えて、試しに、ハードディスクを一つを外してみました。
BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。

device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。
ついに、Kernel Panicで停止しました。
レイドアレイが正常ではないのでそれはそうだろうと思い、

BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。
単体のハードディスクで起動を試みようというわけです。
ブートローダーが動き、カーネルの読み込みが始まります。

しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。
これは意外でした。

自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。

つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。
しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。
教えてください。


513475:2009/01/16(金) 03:08:08 ID:32Awgl8B
475です。
連投ですみません。別件の問があります。

>>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました)
-----------------------------------------------------------------------------
<Fedora10での結果>
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
-----------------------------------------------------------------------------

ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、
下記のようになります。


 これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、
そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。
fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。

 このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。
Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか?

----------------------------------------------------------------------------------------
<Fedora7での結果>
Filesystem 1K-ブロック 使用 使用可 使用% マウント位置
/dev/mapper/VolGroup00-LogVol00
148297964 29496048 111147312 21% /
/dev/mapper/pdc_dacjp1
101086 19396 76471 21% /boot
tmpfs 2032296 0 2032296 0% /dev/shm
514login:Penguin:2009/01/16(金) 03:13:14 ID:rwDT7nUQ
LVMの問題ではなくて?
515login:Penguin:2009/01/18(日) 13:33:02 ID:mOdWiiXB
mdadm使いにくいよー
raidtoolsのほうがバタ臭いけどいい

mdadmで一番むかつくのが良くわからないタイミングで
ディスクがspareにされて、元に戻したいのに戻せない。イライラ
516login:Penguin:2009/01/18(日) 22:48:12 ID:06Dcpdo5
raid6がお亡くなりになった。
HDDというよりSATAカードが死亡したっぽい。
(玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。
今回は玄人志向がお亡くなりになった。)

再起動してカードは復活したみたいなので
(配下のHDDが/devに戻ってきた&badblocksが通った)
HDDをArrayに追加しようとしたが
配下のHDDが全部faulty removedに落ちちゃってて
mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。

このスレの64氏の現象に近い気がするが、
superblock書き換えなどは出来る自信ないので
mdadm -Cで再度Array構築しなおした。

ここんとこバックアップをサボってたから結構痛いわー。


つーかもうSATAカードとかあまり使わないで済むように
ちゃんとしたファイルサーバ組んだ方がいいな。
517login:Penguin:2009/01/19(月) 00:09:08 ID:L7Ubbq6r
カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。
カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。

カードを1枚にしてそこに全部ぶら下げればカードが死んでも
全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。

同じ考え方で、台数が必要な場合はSATAカード2枚準備して、
SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、
同じカードのSATAポート群とかカードのRAID機能でRAID5/6を
作ってそれをmdで繋げるとか。
518login:Penguin:2009/01/19(月) 06:19:37 ID:CHw0KQY0
>お亡くなりになる
やめてください、そういう表現。
葬式の臭いがしてくる。


519login:Penguin:2009/01/19(月) 10:43:16 ID:L7Ubbq6r
は?
520login:Penguin:2009/01/19(月) 17:06:36 ID:426uxyHi
カード死んだら葬式みたいなもんだろ…
521login:Penguin:2009/01/19(月) 17:30:39 ID:/o7gcRDM
データさえ生きてりゃ今夜が山状態だろ。
522login:Penguin:2009/01/19(月) 17:38:24 ID:hR5pv9yI
>>515
次に使うまでに
一度「バタ臭い」の意味を調べた方がいいと思う。
523login:Penguin:2009/01/19(月) 19:31:23 ID:AVvVP96W
○バタくさ・い【―臭い】

(形)

〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。
「―・い表現」「―・い顔立ち」



◎きなくさ・い 4 【きな臭い】

(3)なんとなく怪しい。うさんくさい。
「どことなく―・い話」


三省堂提供「大辞林 第二版」より
524login:Penguin:2009/01/19(月) 20:42:12 ID:8LWc0G4T
西洋人は信用するなって事ですね。
525ライナス:2009/01/19(月) 21:21:54 ID:CHw0KQY0
もともこもない
526login:Penguin:2009/01/20(火) 11:04:32 ID:QUoqwrOB
いままで、raid1で十分だと思っていた。
でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。
そこで、raid5の出番である。
ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。

で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。
ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。

ディスクが安価な今は、冗長な構成でも苦しくないね。

カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの?
カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。


それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。


527login:Penguin:2009/01/20(火) 11:39:38 ID:tmOakhLn
復旧可能かどうかはカードの壊れ方次第では。

壊れた結果ムチャクチャなデータを
デタラメに書き込まれたら
どう頑張っても復旧でけんだろう。

カードが壊れやすいかどうかは
これまたカード & 運次第かと。
俺は一度も壊れた経験ないけど。
528login:Penguin:2009/01/20(火) 11:45:10 ID:gBT8fCPT
>>526
日頃の行いが悪いからHDDが壊れる。
529login:Penguin:2009/01/20(火) 13:11:48 ID:jayBGkBw
>>526
なんつーか理解してないな

> ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ

> カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それが>>517

> それから、そもそも先に不良セクタをマークしておいたら、
経時の不良セクタ発生に対処できない

まぁカードが壊れることはそれほど多くない。
業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。
530login:Penguin:2009/01/20(火) 18:33:36 ID:n7Hnf9Lk
516だが再構築の際エラーが出て停止
その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり
ついにはbadblocksも通らないHDDが出始めた

もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも

と思っていた時
海門のニュースを知った

6台が該当です。
本当にありがとうございました。
531login:Penguin:2009/01/20(火) 18:46:34 ID:AAZq+mqB
RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。
530に同情するよ。サーバーが落ちても気は落とすな。
532login:Penguin:2009/01/20(火) 20:46:45 ID:3icForSX
>>531
基本中の基本
RAID1ペア組むときはメーカーから変える
533login:Penguin:2009/01/20(火) 21:20:12 ID:QUoqwrOB
>海門
=sea gate
ファームウェアの不具合の件ですよね
困るよなあ、といいつつ、私も、そのメーカーのディスクでした。
ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。
壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。

534login:Penguin:2009/01/21(水) 11:28:11 ID:KNJKiqg2
以前は同じモデルでも容量がちょっと違っていて、
交換したら容量不足で使えないという悲しいことが
ちょくちょくあったが、
最近は違うメーカーでも問題が起きなくなったので
ありがたい。

535login:Penguin:2009/01/21(水) 12:56:36 ID:1/Cy7HwZ
いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ
保証されてるのは例えば500GBなら500,000,000,000Bまで。
536login:Penguin:2009/01/21(水) 13:04:54 ID:xEzc7nEM
ぴったりの500GBのディスクが無ければ、
750GBのディスクを買えばいいのに。
537login:Penguin:2009/01/21(水) 14:35:01 ID:Lxj+eixA
同じモデルって前提だろ
バカか バカなのか
538login:Penguin:2009/01/21(水) 15:07:49 ID:+OFl4BAS
個人でしょぼいRAID5環境を動かしていましたが
ばっちりRAIDカードが壊れたことあります。
というか、フェイクRAIDしか無いカードをmdで使っているのに
RAIDカードと言うのか?とは思います。

玄人志向の4ポートPCI SATAカードでした。
C7のSATA2ポートなM/BでRAID5をやるために使いましたが
一年弱で、4つのうち一つのポートが動作しなくなりました。

予備HDDはあったので、HDDを入れ替えても認識せず
よくよく調べると、カードのほうが死んでいたというオチ。

急場をしのぐために、オンボードのSATAポートとの混在RAID5として
そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換)

今はPCIeの1430SAで、あえてmdドライバー。


ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか?
とりあえず、普通に抜き差しするとダメっぽいのですが…
チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…

539login:Penguin:2009/01/21(水) 15:42:19 ID:C3awCYv6
普通に抜き差しでok。sata_sil24のはずなので対応してる。
多分カーネルが古いのが原因。
540login:Penguin:2009/01/21(水) 15:47:09 ID:xqg3zZth
外す前にこれでHDDの電源を落としておく方が安全
# echo 1 > /sys/block/sdX/device/delete
541login:Penguin:2009/01/21(水) 15:47:43 ID:NpsqSYmx
ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、
豪快なロット不良見ると怖くなるな。
542538:2009/01/22(木) 02:32:04 ID:9i3fv5RC
>>539,>>540
ありがとうございます。試してみたらできました。
というかオチがあります。

これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか?
たとえば、普通にfdisk -lには出てきます。

HDDを止めて再スピンアップさせることで初期化が行なわれて
現在接続されているHDDの情報に書き換わるという挙動のようです。

で、以前はHDDの停止と再スピンアップなどは行なわなかったために
差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に
ホットプラグが正常になされていないと判断していました orz


#/sys/block/sdX/device/下のファイルについては
#どこ探せば情報が見つかるものでしょうか…
543login:Penguin:2009/01/22(木) 15:19:59 ID:CwsVQNf2
>>541
> ロット揃えたほうがパフォーマンス良さそうなので

意味が分からない
544login:Penguin:2009/01/22(木) 15:31:18 ID:7lkmeW2Z
昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。
型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。
その場合ベンチの結果も微妙に変わる。
アクセス速度近い方が効率よさそうじゃん。
当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから
ロットくらいはばらした方が良いって言う人もいたけど。
545login:Penguin:2009/01/22(木) 20:50:46 ID:u0UB26l/
ロットどころかメーカーからばらす。

まぁ結局はRAIDに何を求めるか、なわけだが、
あるのかかどうか分からないパフォーマンス向上を目当てに
同時故障リスクを採る選択は、俺はしないね
546login:Penguin:2009/01/22(木) 21:43:17 ID:xRfSeFjv
>>540
そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース?
俺はいままで

 sdparm -C stop /dev/sda

とかしてたよ。
547login:Penguin:2009/01/22(木) 21:57:04 ID:u0UB26l/
>>546
基本はソースだけど、その場合むしろsdparmの方がいいんでは?
/sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる
548login:Penguin:2009/01/23(金) 01:31:55 ID:iL0wYbEo
>>544
昔って何十年前の話?
549login:Penguin:2009/01/23(金) 01:35:42 ID:gP0PPzWy
5年前
550login:Penguin:2009/01/23(金) 03:37:27 ID:93gY8ymT
ディスクアレイはロットは知らんがメーカーと型番くらいは揃ってるな。
メーカーバラバラだったら同じ所からは二度と買わんわw
551login:Penguin:2009/01/23(金) 12:07:20 ID:3M4C0RkK
>>549
俺の周辺の風潮では5年前でも
安全のためにロットは揃えるな
だったが。

ま、地方によって違うんだろうな。
552login:Penguin:2009/01/23(金) 13:08:14 ID:7Cxp47f1
まだDECがあったころ、導入したDECのサーバーは業者が段ボール箱から次々とHDDを
取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。
それが俺のRAID初体験なのでロットのことまで気が回らなかった。

HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな?

ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。



553login:Penguin:2009/01/24(土) 04:31:39 ID:ptL5pKyY
>>533
シーゲートのファームウェア不良の件、
ウインドウズ用には、不具合検出用のツールがあるが、
どうしてリナックス用にはないのだろう。
リナックスユーザーは多いだろうに。
それとも、あるんですか?

554login:Penguin:2009/01/24(土) 07:30:04 ID:u99vPwbM
>>553
切捨てられてるんだろう。いつものこと。
555login:Penguin:2009/01/24(土) 13:11:53 ID:Di00Ifqv
検出専用ソフトではなく
CD版のSeatoolsでブートすりゃいいんじゃないかと思うが
556login:Penguin:2009/01/24(土) 21:47:35 ID:ptL5pKyY
ありがとう

557login:Penguin:2009/01/28(水) 00:26:06 ID:ir2fam9u
#mdadm -C /dev/md0 -l5 -n4 /dev/sd[bcde]1
で、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_]
はあ?と思ってmdadm -D /dev/md0 してみると
/dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。
意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。
エスパーレスおながいします。
558login:Penguin:2009/01/28(水) 00:38:08 ID:LK11AqVS
>>557
zero superblockした?
559login:Penguin:2009/01/28(水) 07:15:42 ID:ir2fam9u
>>558
sdb1〜sde1 全部にmdadm --zero-superblock してみましたが
変わりませんでした。

こうなるのも謎です。なぜ[4]なのか・・・
>md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]
560login:Penguin:2009/01/28(水) 07:34:42 ID:LK11AqVS
mdの構成対象外でも、システム内に3に相当するsuper-minor番号の
パーティションがあるとそうなるかも…
# mdadm --examine /dev/sdb1
するとどうなります?
561login:Penguin:2009/01/28(水) 07:39:07 ID:ir2fam9u
こうなりました

/dev/sdb1:

(長いので省略、多分あまりこの部分は関係なさそうです)

Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1

0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty
4 4 8 65 4 spare /dev/sde1
562login:Penguin:2009/01/28(水) 13:57:54 ID:3QasENir
よく分からんけど、
単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?

>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。
563login:Penguin:2009/01/28(水) 13:59:12 ID:3QasENir
なんか変だな。

× あまり信頼しない方がいい。
○ あまり信頼できない。

だね。
564login:Penguin:2009/01/29(木) 01:18:01 ID:PTiNMDCX
>>561
他のデバイスもexamineしてみると、違いから何か分かるかもしれない。
あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。
でもresync時の追加パーティションってspare表示になる仕様だったっけか?
565login:Penguin:2009/01/29(木) 06:27:34 ID:12B6/rA+
mdadmでRAID5を設定してるんですが、RAIDを構成してる各ディスクを
hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?
566561:2009/01/29(木) 07:16:39 ID:WiRmM86x
[UUU_]でリビルド完了を待ったところ[UUUU]になって
sde1[3]になりました。原因はよくわかりません。
567login:Penguin:2009/01/29(木) 19:37:09 ID:PTiNMDCX
>>566
たぶん構築時リビルドだろう
ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない
568561:2009/01/30(金) 21:48:37 ID:pZmCaYyi
>>567
今回は初めての事象なんですが
Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね
それを消せればいいような気がします
569login:Penguin:2009/01/31(土) 21:10:43 ID:INV0scHx
>>568
調べるとしたら設定ファイルとしてはmdadm.conf
場所は/etcとか/etc/mdadmとか
570login:Penguin:2009/02/08(日) 22:42:30 ID:Ey2JVBl4
全国のmdadmファンのじょしこうせいのみなさ〜ん
みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。
で、当然のごとく、RAID10もできないのですよ。

4wayのRAID5をでかいHDDに差し替えていって、grow機能で
250GBx4から500GBx4に移行したことがあったんだけど…

今回は1TBx4に差し替えつつ500GBパーティションx4の
RAID5とRAID10を作った上で、データを移し
1TBパーティションx4に移行しようとして
いざそこまできてgrowできないことを知ったという orz

こういうのをトホホって言うんだと思った。
まぁ、reiserfsからXFSへの切り替えもあったし
なんとかmissing付きでRAID10を起動したりして片付けた。

将来もっとでかいHDDに移行するときは
それなりの用意をせざるをえないなぁ…
571login:Penguin:2009/02/08(日) 23:27:56 ID:Nj6iWNXA
えらくピンポイントだなw
572login:Penguin:2009/02/09(月) 12:39:22 ID:9FAXyoAI
LVM組み合わせれば
RAID自体のボリューム拡張できなくても
実用上は問題ないんじゃ
573login:Penguin:2009/02/09(月) 12:46:53 ID:Eg6suWBI
>>571,572
えらいおっさん臭いじょしこうせいだな
574初心者の通りすがり:2009/02/16(月) 21:37:32 ID:4jXnyPos
お忙しいところ恐縮ですが、質問があるのですが、
誰かお助けを・・

1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか?
それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか?

2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは
ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、
代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。
しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、
これらの対応はされているのでしょうか?

3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、
そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・)

RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。
よろしくお願いします。

575初心者の通りすがり:2009/02/17(火) 01:22:44 ID:FIlRA3Ek
自己レスです。
3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。
またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。
576login:Penguin:2009/02/17(火) 01:34:14 ID:rlTL3AkS
つ badblocks -w
577login:Penguin:2009/02/17(火) 01:56:17 ID:ljmr48rY
>>574
1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
mdのレイヤだと特になし。FSは実装次第。
SMARTで異常値が出るような状態なら普通は交換処置。

2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
従って
>すべてのHDDの同じアドレスのセクタを使用不能にする必要
はない

3: 上に書いたようにセクタチェックは別のレイヤの仕事。
RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが
578login:Penguin:2009/02/17(火) 02:17:44 ID:IoPZgIsc
rebuild 時に sw RAID1 が壊れたという話をちらほら聞くけど、
これどうなってるの
579初心者の通りすがり:2009/02/17(火) 02:26:38 ID:FIlRA3Ek
お返事ありがとうございます!

> 1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
> mdのレイヤだと特になし。FSは実装次第。
> SMARTで異常値が出るような状態なら普通は交換処置。
なるほど、それではRAIDにおける致命的なHDDの時期というのは、HDDが認識しなくなったような場合だけと
いうことでしょうか?(ここでの質問では適切なHDD交換時期、不良セクタが多くなった場合などを考慮せず、
まったく使えないという状態におけるHDDの交換についての件です)

ここで、疑問なのですがinode領域などのセクタにおいても、RAID 1なり5なりでデータを復旧できる場合には、
問題なく利用できると考えても大丈夫なのでしょうか?

また無学で恐縮なのですが、このSMARTについて少しご教授いただけませんか?

> 2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
> そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
> 従って
> >すべてのHDDの同じアドレスのセクタを使用不能にする必要
> はない

580初心者の通りすがり:2009/02/17(火) 02:28:11 ID:FIlRA3Ek
認識が違っているかもしれませんが・・
このLBAの自動交換は、HDDの代替セクタがある場合そうだと思うのですが、すでに代替
セクタが無い場合、表に見えてしまうと思いますが、mdadmなどはブロックデバイスとして
活動しているということは、LBA(シリンダとセクタから計算されるやつですよね、たしか・・)
を基準に管理されているとなれば、ミラーリングなどで、データをそっくりコピーする仕組みのもの
などは、不良セクタによって、大きな問題になるのではないでしょうか?

よくWEBでも見かけるのは、死んだHDDの代わりにスペアHDDをいれて、Rebuildしている最中に、
不良セクタが発見されて、両方死んでしまったという話も聞きます。

ここでもし、不良セクタ(セクタという言い方が悪いかもしれませんのが、LBA(Logical Block Address)と読み替えていただければ幸いです)
を発見したときに、正常なHDD側のデータを他の未使用セクタに移動させ、不良セクタとして使用不可にして、すべてのセクタの同期を取ることができれば、問題は小さいのではと
考えた次第です。

> 3: 上に書いたようにセクタチェックは別のレイヤの仕事。
> RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
> ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが

すみません、そうですよね・・mkfsではRAID構築後なのでどのような動きになるのか、
ちょっと分かりませんが、RAIDシステムがセクタ不良とか見えなくしてしまいますよね。
ちょっと勘違いをしていました。ということは、HDDをセクタ単位でチェックするして
、不良セクタがあったら故障フラグを立てる機能のものはない感じでしょうか?

こんな遅い時間にお答えいただきすみません。
581初心者の通りすがり:2009/02/17(火) 02:48:36 ID:FIlRA3Ek
SMART分かりました!
ttp://hddbancho.co.jp/the_hdd_withthebadsectorisrecycled.html

なるほど、HDDの持っている情報のことだったんですね。
このページの考え方からすと、代替セクタがなくなったら、HDDは故障と見做すため、
RAIDシステムでは、このような表に出てきたセクタ不良を解決できていない可能性が高いですね。
ただ、ここにもあるように定期的なリフレッシュが無いと唐突なセクタ不良が、代替セクタの有無に関係なく
でるので、やはり本当はRAIDで対応したほうがよい気がします。(役割的に)

もちろん、Googleの研究成果(不良セクタが出始めたら(代替セクタがなくなったら)HDDの寿命が2次曲線的に劣化する)
もあるのでHDDの交換時期については議論が分かれると思いますが、上記の問題はちょっと違う気もします。
582HDDからSSDへ:2009/03/12(木) 09:35:49 ID:yKkrCTUa
SSDを使うようになれば、もうRAIDは必要なくないですか。

583login:Penguin:2009/03/12(木) 10:14:53 ID:sI0gyPRm
必要ないと思うならそれでいいんじゃないの。
584login:Penguin:2009/03/12(木) 11:55:03 ID:nculPVj6
>582
つ冗長化
585login:Penguin:2009/03/12(木) 12:24:21 ID:unsLfwpp
そうだね。
SSDは故障することは
絶対にないから
RAIDなんて不要になるね。
すばらしいことだね。
586login:Penguin:2009/03/12(木) 22:00:05 ID:yKkrCTUa
SSDの書き込み速度はともかく、読み込み速度は、SLCではかなり高速なので、
冗長化のために、RAIDを使うという意味合いも薄れてくるように思える。
これから、SSDの容量も現在のHDD並に増えていくだろうと思う。

RAIDとSSDとの関係は本当にどうなるのだろう。
587login:Penguin:2009/03/12(木) 22:03:50 ID:f8xSmkwI
>>586
冗長化の意味間違って覚えていないか?
588login:Penguin:2009/03/12(木) 22:21:41 ID:yKkrCTUa
あっ、ごめん。
今読み返したら、おかしいって思った。

ssdは壊れないので冗長化する必要はない、と使うべき。
でも、ストライピングのことは日本語でなんていうんだろう。

589login:Penguin:2009/03/12(木) 22:47:16 ID:nculPVj6
へー壊れないの?すごいね
590login:Penguin:2009/03/12(木) 23:17:36 ID:ZcXhWDBc
春だなぁ
591login:Penguin:2009/03/12(木) 23:36:46 ID:xwF18dEu
まだ基幹システムとかではフラッシュメモリのSSDは使われていないからね
あの分野でのSSDといえばDRAMをバックアップ電源で保護しているものだからな
592login:Penguin:2009/03/13(金) 00:18:53 ID:xF/8kpEU
>>591
Acard ANS-9010ですね。わかります。
593login:Penguin:2009/03/13(金) 00:21:33 ID:gAax1MH3
今普及している方のバックアップ電源不要のSSD(SLCタイプ)の寿命は伸びているし、
そもそも、稼動部分がないので、壊れないと考えてもいいんじゃないですかね。

594login:Penguin:2009/03/13(金) 00:24:13 ID:khYqmRB3
               .|   |  | |   |    |  | |   |   |   || | |
               .|   |  | レ  |    |  | |   |  J   || | |
    ∩___∩    |   |  |     J    |  | |  し     || | |
    | ノ\   ,_ ヽ  .|   レ |      |  レ|       || J |
   /  ●゛  ● |   .J      し         |     |       ||   J
   | ∪  ( _●_) ミ             .|    し         J|
  彡、   |∪|   |              .J                レ
 /     ∩ノ ⊃  ヽ
 (  \ / _ノ |  |
  \  "  /  | |
   \ / ̄ ̄ ̄ /
595login:Penguin:2009/03/13(金) 00:31:59 ID:HFjGgXnG
ID:gAax1MH3
596login:Penguin:2009/03/13(金) 00:34:36 ID:gAax1MH3
不良セクタですか?
597login:Penguin:2009/03/13(金) 00:37:05 ID:FglLNM8V
SSDの仕組みの説明だけ読んで
長所短所の説明は読んでいない人っている?

そもそもWindowsだとRAID0がRAIDの中心みたいに考えている人も多いけど
一般的にはRAIDの中心にあるのは、可用性の向上にあるわけで
SSDを用いることで、RAIDが不要になるってことは、かけらほどにも無い要素でしょ?

速度面では、SSDがSATAの速度を満たしたとしても
メモリーバスよりはるかに遅いストレージにストライピングが不要ということは無いし
大容量のものほど割高なストレージの特性からも、ストライピングは有用。

可用性においては、フラッシュメモリーSSDの耐久性は
無限なわけでもなく、加速テスト的な使い方で壊して見せている人もいる。
RAID1,5,10が不要なわけがない。
というか、たとえDRAMだって、壊れることはあるし
SSDの制御基盤レベルの故障だって、理論上はある。

#まじれすかこわるい
598login:Penguin:2009/03/13(金) 00:39:47 ID:E2+gGF86
まじれすかっこいい
599login:Penguin:2009/03/13(金) 00:48:09 ID:gAax1MH3
>>597
私は、リナックスでソフトレイドで、ミラーリングしか使ったことがありません。

SSDでも物理レベルで壊れるんですか。
ということは、SSDでさえもミラーリングが要りますね。
すみません。マジレスありがとうございます。

でもわからない点がいくつか。

可用性とはどういう意味なのでしょうか。耐久性の向上という意味なのでしょうか。
マジで、意味がわかりません。可用という単語を私は日本人なのですが辞書で引きました。
載っていません。直訳してみれば、「用いることができる性質」ということですよね。
専門用語らしいので、どういう意味を一般的に指すのかピンときません。

600login:Penguin:2009/03/13(金) 01:02:52 ID:nEmQi6SY
>>599
「可用性」でぐぐれよ……。最初に答えが出てきてるのに。
つか、RAIDを語るのに可用性を知らんて、議論以前の問題だろ。

あと、SSDが壊れないってどれだけ頭がお花畑ー。
データセンタじゃ、HDDどころか、電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ。
601login:Penguin:2009/03/13(金) 01:17:57 ID:gAax1MH3
>電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ

密封固体コンデンサになったんで、もう、茶色い花が咲くことはないだろうと喜んでいたんですが、
やっぱりこれも甘いですか。

でも、いったいどうして、それらのデバイスは壊れるんでしょうかねえ。
どうして、見たところどうもなっていない電源が壊れているのかわかりません。
どこが物理的に壊れているんでしょう。

ソフトウェアは壊れない。ハードウェアが壊れるんだ。
私のつくったソフトは壊れたことがないですが、ハードウェアが壊れるんで、
放っておくことができなくひどく残念です。
ハードウェアさえ壊れなければ、安泰なのになあ。
(すみません、Windowsと、Linuxが壊れてしまったら私のもだめですよね)

602login:Penguin:2009/03/13(金) 02:45:00 ID:IObRXwbU
gAax1MH3が壊れてる件について
603login:Penguin:2009/03/13(金) 02:56:17 ID:gAax1MH3
ついに、ばれたかー。602は、なかなか鋭いな。

そう、わたしの本体は、ハカセがつくった人工知能プログラム。
だから、低レイヤーのことはアクセスできず何もわからないんだー。

以上の冗談はおいて、おいて、
>>601について、マジレスを希望しています。

604login:Penguin:2009/03/13(金) 04:37:32 ID:B/yX40Kk
ソニータイマーと同じ。
以上
605login:Penguin:2009/03/13(金) 05:41:36 ID:HFjGgXnG
>>602
それをニヨニヨしながら見守るのが今の流れです
606login:Penguin:2009/03/13(金) 07:13:37 ID:gAax1MH3
>ソニータイマー

そういうのもあるんですね。初めて知りました。
でも、たとえば半導体なら、どういう機序で破壊されていくのでしょうかねえ。
タイマーが短い素子ってなんでしょうか。

CPUや、DRAMのタイマーは何がそうしているんでしょうか。内部の細い線の蒸発?

607login:Penguin:2009/03/13(金) 12:09:30 ID:4rdjPXAi
形あるものは、何であれ、いずれは壊れるよ。
こんな当たり前のことを知らないなんて、
リアル小学生か?
608login:Penguin:2009/03/13(金) 15:23:16 ID:HSB+9X6W
SSDでもHDDでもRAIDで雑誌に取り上げられるのはRAID0での性能ばかり
なんでRAID0使う理由があるの?冗長性が無いじゃん
609login:Penguin:2009/03/13(金) 16:13:48 ID:6eQQWDsF
スレが妙な流れなので、清めます。

もっちゃらへっぴ〜もけもけさ〜
610login:Penguin:2009/03/13(金) 22:55:58 ID:OBlhHJW3
SSDはディスククラッシュはないから、SMARTでの寿命予測の信頼性が
上がって、結果としてRAID0でもOKOKとなる可能性はあるね。それでも
事故時には全部吹っ飛ぶけど、最大の事故要因が潰れるだけでも
従来のRAID0よりははるかに安心できる。
611login:Penguin:2009/03/13(金) 23:34:38 ID:HSB+9X6W
性能を上げたければRAID0+1にすればいいのに
なんで冗長性の無いRAID0にするのか良く分からん
612login:Penguin:2009/03/14(土) 00:18:48 ID:AaTK9Cfj
そこはそれ、RAID10(0+1ではなく1+0)が注目されたのは
HDDの低価格化がより進んだ最近のことだから
まだ、雑誌記事としての啓蒙が進んでいないんじゃないかな。

うちは今年になってから
500GBx4のRAID5を1TBx4のRAID10に切り替えた。
WDのgreenを選んだから、読み出しは500GB(7200rpm)の頃と
比較していないけど、書き込みは速くなって満足してる。


個人的には、動画のCMカット(無再圧縮加工)には
少しでも速いストレージが欲しいと思ったことがある。
Windowsだと、起動速度に執着している人が多いかのように思える。
そういうところにRAID0需要はあるんだと思う。

一基のHDDで大容量を求めるのは、割高でありながら…
故障時のダメージも相対的に大きくなるから
RAIDで複数のHDDをまとめつつ、可用性も高めてウマー
(1TBのRAID10は2TBのRAID1より安上がりって話)

613login:Penguin:2009/03/14(土) 03:04:45 ID:+IDPI/cW
>>611
01なんて普通なら使わないです。
信頼性を考慮すると10が常識。
614login:Penguin:2009/03/14(土) 06:40:18 ID:eu5MmVwN
IBMとかは01しか対応していなかった気がする。
615login:Penguin:2009/03/14(土) 15:38:20 ID:2/177OkX
RAIDの0+1と1+0、10と01はどっちがどっちか定義が無いのでは?
普通はボリュームの故障の確率が低い方の実装にしているのでは?
616login:Penguin:2009/03/14(土) 16:54:41 ID:eu5MmVwN
>>615
正式な定義はないけど、1の0か、0の1か使い分ける人は多い。
可用性が違うからね。
617login:Penguin:2009/03/14(土) 17:18:40 ID:Knf4U3C2
普通は複数のミラーセットに対してストライプするもんじゃないの?
618login:Penguin:2009/03/15(日) 01:26:01 ID:olaDXg82
そうでないメーカーがあるから困る。
619login:Penguin:2009/03/15(日) 08:21:40 ID:Fo/VUGZ3
そうでないパターンって、複数のストライプセットに対してミラーするってことだよな、
それは嫌だな… 例えばどこのメーカ?
620login:Penguin:2009/03/24(火) 04:51:17 ID:Fl6r1xEy
>>610
raidなしでssdだけでも、hddを用いる場合に比べれば、
はるかにましですよね。
621login:Penguin:2009/03/24(火) 06:54:13 ID:GdGyk/Hx
SSDをそれだけ信じる根拠がどこにあるのかな?

加速試験で壊して見せている人はいるわけで
壊れないわけでは無いことはわかっている。

それに対して、SMARTが万全の予測情報を
提供できているか?が鍵だと思います。

"HDDよりはまし"とするためには
もっと実績が積み上げられた後で
やっと言えることだと思います。

HDDにおいてもSMART信者を裏切る結果は
部品の突発故障によるところが大きかったとして
電子部品の突発故障が無いわけではありませんし…

SSDだからといって、設置環境を甘く考えることもできないと思います。


622login:Penguin:2009/03/24(火) 06:59:52 ID:yXjFESP8
>>620
頻度が低かろうが、故障時にサービス停止するんだから全然ましじゃないだろ
623login:Penguin:2009/03/24(火) 20:14:58 ID:VoImn6kH
Linux(CentOS5.2) のソフトウェアRAIDで以下のことができますか?

今ある 1TB HDD のデータを
3台の 1T RAID5 に移動
移動後に RAID5 を4台にマイグレーション
624login:Penguin:2009/03/25(水) 09:41:42 ID:sNgyW6do
>>623
mdadm -C /dev/md0 -l 5 -n 4 /dev/sda{2,3,4} missing
mdadm /dev/md0 -a /dev/sda1

かな。要するに構築時に1台missingという名前でエントリだけ確保して、
後から突っ込んでやればいい。


625login:Penguin:2009/03/25(水) 20:13:36 ID:1HBgtKKu
Tyan の h2000m に sil3124 と sil3132 をさしてますが、
共に UDMA100 で connection?link? を張っているようです。
HDD は UDMA133 capable です。133 にする方法、
ご存知でしたら是非教えてください。
kernel-2.6.27 です。
626625:2009/03/26(木) 00:48:23 ID:s/iQ1Fg+
well known issue のようですね。
じぶんで sata_sil24.c をごにょごにょします。。
627login:Penguin:2009/03/28(土) 18:21:28 ID:xjWJzCpR
320x5→1Tx5に移行中
12時間以上経過してるぉ
628login:Penguin:2009/03/29(日) 06:55:07 ID:caGsjIVd
>>627
Raid5 1TBx4 を 1TBx5 に grow したときは丸一日
かかったかなあ。5400rpm だし遅くて遅くて。

>>624
-C (create) には -f (force) が要るかも。忘れちゃった。
あと /dev/sd[a-c]1 missing とかじゃね?
629login:Penguin:2009/03/29(日) 20:58:56 ID:pjONbMZq
>>628
フォロートン。間違えてた。/dev/sd[a-c]1だね。
まあ機能的にはこんな感じだよってことで後は元質問者ガンガレ。
630login:Penguin:2009/04/03(金) 07:34:17 ID:WOwrcBYH

ttp://pc.nikkeibp.co.jp/article/knowhow/20081204/1010280/?P=4
こんなシステム作ったときにバックアップってどうするの
同じ構成のシステムでミラーするとか?
631login:Penguin:2009/04/03(金) 08:12:11 ID:xpbRoEEl
ミラーはバックアップじゃないよ
間違えてファイル消したらミラー間同期で全部消えちゃう

普通のRAID装置は筐体に運用とバックアップと複数ボリュームを用意できる

つーかこの記事の著者はバカだろ
RAID5や6は1台、2台の冗長ディスクで理論上は10台でも100台でもRAIDボリューム作れるけど
普通は故障率を減らしたり、縮退時の性能低下を抑えるため
1ボリュームでせいぜい10台ぐらいだよ
632login:Penguin:2009/04/03(金) 08:33:56 ID:tezpleBo
>>630
ディスク台数が多いとRAID6の2台まで故障OK程度ではまったく信頼できないと思うのだが・・・

結局RAIDはRAID1が一番使いやすいような。RAID1+LVMで書き込みも散らせるし。
633login:Penguin:2009/04/03(金) 09:56:06 ID:OmCEVJsy
まぁ個人で作る規模では・・・と言ってるし
バックアップも取ってるみたいだからいいんじゃね?

会社の仕事でこれやられたらたまらんがw
634login:Penguin:2009/04/03(金) 10:41:28 ID:yNfGsC6L
会社だったら普通にまともなRAIDユニット使うだろうな。それならRAID6で24ユニット位は
別に珍しくも何ともない。
635login:Penguin:2009/04/03(金) 14:12:28 ID:xpbRoEEl
まともなベンダーじゃメンバーの台数に制限を設けるよ
24台でRAID6組むにしても 22+2というボリュームは避けるね
普通は 10+2のボリュームを2つ用意して結合するかストライピング
636login:Penguin:2009/04/03(金) 14:20:53 ID:TXPhg+u+
>>630
バックアップ、俺だったら同一構成のマシンもう一台組むかな。
10万ちょっとくらいでできるし、rsyncあたりで同期。
637login:Penguin:2009/04/03(金) 23:06:15 ID:KMrkK/Q+
>>632
激しく同意。いろいろ試したけど、特に小さめのサーバで
汎用性、運用性を取るとRAID1+LVM(+backup)なんだよね。

しかし630は地震に弱そうだなぁ…
638login:Penguin:2009/04/05(日) 13:51:20 ID:zpl00iwc
質問です
ttp://comp.ddo.jp/linux/raid.html
centosで上のサイトを参考にRAID1を構築したいのですが、
LVM構成環境でも同様にいけるのでしょうか。
またコピーソフトを使用し、パーティションのコピーでも可能ですか?

お手数ですが、ご教示願います。

デバイス Boot Start End Blocks Id System
/dev/sda1 * 1 13 104391 83 Linux
/dev/sda2 14 182401 1465031610 8e Linux LVM

デバイス Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 fd Linux raid 自動検出
/dev/sdb2 14 182401 1465031610 fd Linux raid 自動検出
639login:Penguin:2009/04/05(日) 16:20:38 ID:XMqVMXVw
ちょいと質問させてください。

今のサーバは3wareのRAIDカードを刺して運用しているのですが
サーバの置き換えでPCI-Xスロットが無いM/Bに換えようと思っています。

んで、3wareのRAIDカードを買い換える金は無いので
M/BのSW RAID5にするか、mdadmでRAID5にするか迷っています。
mdadmにするメリットとかってあるのでしょうか?
ネットワーク越しのファイルサーバとして使うので、速度はそこまで
重要視していません。
640login:Penguin:2009/04/05(日) 16:27:54 ID:xPY/iy8j
つか、
むしろM/BのSW RAIDのメリットって何?
と思うけど。
641639:2009/04/05(日) 16:51:29 ID:XMqVMXVw
ごめんなさい。M/BのBIOSでRAIDを組むのは
FakeRAIDという名称なのですね。

>>640
>>98さんが纏めてるように、コマンド打たなくていい。
ってぐらいじゃないかなぁ、と思っています。
642login:Penguin:2009/04/05(日) 17:22:54 ID:ialTtN9O
>637

>630のは容量もだが、速度を稼ぐ目的じゃないの? それならRAID1+0ならともかく、LVMは
目的に合わないと思われ。

>639
M/Bのにしろ、3wareのにしろ、お金がなくて予備のH/Wを用意できないのならmdadmでやってる方が
いいんじゃないかな。CPUパワーはかなり喰うけど、速度を重視しないのなら特に。
643login:Penguin:2009/04/05(日) 20:39:11 ID:Z+OjEuCD
500GBとか1TBのHDDのRAIDってrebuildどれくらいかかるわけ?
丸1日とかかかりそうだけど本当に大丈夫なの?
縮退状態で丸1日ってやばくね?
644login:Penguin:2009/04/05(日) 23:43:50 ID:n2oOwvTn
>>642
なるほど。
目的は推測するしかないけど、確かに元記事は速度すごいだろ的に読めるね
645login:Penguin:2009/04/06(月) 01:58:46 ID:MR94bHSC
>>643
1Tで5時間ぐらいかな
ICH使うのは論外
646login:Penguin:2009/04/11(土) 09:10:29 ID:bo5CTwmV
>>645
> ICH使うのは論外

詳しく。
647login:Penguin:2009/04/19(日) 10:07:29 ID:wrQxf8K5
>>638
亀レスだけど
1 /boot を RAID1 (/dev/md0)にしる
2 VG を作業用 PV に払いだして/dev/md1を作る
3 pvcreate /dev/md1 して戻せば桶
拡張性ならば RAID5 が吉
648login:Penguin:2009/04/21(火) 14:59:51 ID:o1qVLXZy
drbdがここでいいか分からんが教えて。
片肺状態で構築するにはどうしたらいいでつか。
649login:Penguin:2009/04/27(月) 18:30:59 ID:rJwiNuMr
RAID0組もうと思っているんですが
故障しやすくなると知って少し不安なのですが
実際のところどうなのでしょうか?
2〜3台で組む予定です
650login:Penguin:2009/04/27(月) 18:34:03 ID:Pc3Uwn5l
故障率が2〜3倍になるだけです
651login:Penguin:2009/04/27(月) 18:44:31 ID:f1/NPYvZ
台数が一緒なら、3台のHDDを別々に使おうがRAID 0で組もうが故障率は一緒。
ただ、失うデータがHDDひとつ分で済むか、全部失うかの違いだけ。
652login:Penguin:2009/04/27(月) 22:26:58 ID:VORtme39
その「全部失う」ってのが、アレイとしての故障率の上昇って事だろ
653login:Penguin:2009/04/27(月) 22:33:22 ID:f1/NPYvZ
>652
RAID 0でもRAID 1でも構成する台数によって故障率は同じように上がる。
異なるのはデータロストの確率。基本だよ。
654login:Penguin:2009/04/27(月) 22:35:19 ID:Pc3Uwn5l
>>649のレベルに合わせた回答してやれよww
655login:Penguin:2009/04/27(月) 22:51:56 ID:VORtme39
>>653
そのデータロストの確率ってのとアレイとしての故障率ってのは
どこが違うんだ?よっぽど悔しかったのかもしれんが
656login:Penguin:2009/04/27(月) 23:12:04 ID:QtSElZiO
>>649
1年間での1台の故障率が10%だとすると。
3台のRAID0だと27%くらいになる。
RAID0っていうのは壊れてもかまないから少しでも速くっていう特殊用途か、奇人向け。
普通の壊れると困る人はRAID1かRAID5を選ぶ。
657login:Penguin:2009/04/27(月) 23:40:57 ID:f1/NPYvZ
>655
なんでRAIDを語る時に耐故障性って話が出てくると思ってるんだ?
構成しているHDDが飛んでりゃ、そのアレイは「故障している」って言うんだよ。世間ではね。
そもそもRAIDは故障率を下げる機構ではないんだぞ。
658login:Penguin:2009/04/27(月) 23:57:58 ID:VORtme39
>>657
結局自分では何も語らないし、ただの話題逸らしか。
基本とか世間とか、いつもの荒らし君だね。

ちゃんと体系立てて説明してくれ。そうしたら納得する。
659login:Penguin:2009/04/28(火) 00:09:05 ID:m/CYeeS7
>>657
デグレードしていると言います。
660login:Penguin:2009/04/28(火) 07:29:52 ID:Lv17PKpw
raid1で組んだときに、接続しているハードディスクの
どちらに不具合が生じているか分かりません。

どうやって、見極めますか?

661login:Penguin:2009/04/28(火) 08:56:00 ID:BT3qbNMV
>658
> ちゃんと体系立てて説明してくれ。そうしたら納得する。

別にあなたに納得して貰う必要はない。必要なのは理解することだろ。
情報処理試験の最初の方にも出てくる話なんだから、自分で調べろ。

662login:Penguin:2009/04/28(火) 10:55:11 ID:HfafcQt/
>>661
OK
結局君は分かっていないことが証明された
663login:Penguin:2009/04/28(火) 11:12:19 ID:HfafcQt/
流れを追うのが面倒な人のために解説しておくと、

>RAID0組もうと思っているんですが故障しやすくなると知って少し不安なのですが

> ただ、失うデータがHDDひとつ分で済むか、全部失うかの違いだけ。

> その「全部失う」ってのが、アレイとしての故障率の上昇って事だろ

> RAID 0でもRAID 1でも構成する台数によって故障率は同じように上がる。

途中からアレイとしての故障率の話ってのが確定したのに、ずーっとデバイスの話。

> そのデータロストの確率ってのとアレイとしての故障率ってのはどこが違うんだ?

> なんでRAIDを語る時に耐故障性って話が出てくると思ってるんだ?
> 構成しているHDDが飛んでりゃ、そのアレイは「故障している」って言うんだよ。

質問には答えず、質問を返す。
やっとアレイの故障の話になったと思ったら、当たり前の定義やそもそも論を
振りかざして相手が分かっていないような雰囲気にしようとする。
以下>>658 >>661 辺りを読めば、結局f1/NPYvZは自分では何も説明していない。

>>660
mdレベルで故障が認識されてたら
$ cat /proc/mdstat
に出てくる。
そうでなければsmartctlでテストしたりヘルスステータスを確認とかかなぁ。
664login:Penguin:2009/04/28(火) 11:20:43 ID:3tR1STAF
結論

RAID0使う人は他のRAIDレベル使う人に比べてヴァカが多い
665login:Penguin:2009/04/28(火) 11:26:37 ID:m/CYeeS7
「ハードディスクが壊れてデータを失うのはしょうがない」と思っている人と、
「ハードディスクが壊れてたくらいでデータを失うなんてとんでもない」と
思っている人との違い。
後者の人が求めるソリューションとしてRAIDは生まれたが、前者の人がRAID
というものに興味を持つと何故かRAID0に目が行く。
666login:Penguin:2009/04/28(火) 19:07:20 ID:HfafcQt/
その通りだねぇ
メリットデメリットきちんと検討できれば何をやっても
そうそう問題にはならないのだけれど。
667login:Penguin:2009/04/28(火) 22:31:34 ID:zjwSq6nf
レベルの低い話題はいつまで続くんだ?
668login:Penguin:2009/04/29(水) 01:03:34 ID:AiwhrIEV
単発ID荒らしクンが消えるまで
669login:Penguin:2009/04/29(水) 13:22:08 ID:wsYO6vIH
>663
アレイとしての故障率なんて俺様基準を出してなにを語っているつもりなんだろうな。
いつからRAIDスレってこんなアホが来るようになったんだ。

670660:2009/04/29(水) 14:21:27 ID:TizG24a/
raid1を組んでいます。
エラーになっていて取り替えるときにsda, sdbが
実際のハードディスクのどちらか分かりません。

どうやってどちらのHDDか調べるのでしょうか。
671login:Penguin:2009/04/29(水) 14:36:33 ID:AiwhrIEV
>>670
smartctl -a あたりでドライブのシリアル番号が出るから、
それと実機の表面に書いてあるのを照合する。
ケースに入れたりして見づらくなる場合は、メモしておくなり対策を。

>>669
特徴が>>663が言ってるそのまんまだね。
672login:Penguin:2009/04/30(木) 11:46:54 ID:aZ37y/uJ
>>670
どのデバイス(/dev/sd?)がどのポートに繋がってるのかは
/dev/disk/by-pathを見れば分かるよ。
リンクが張ってある。

つか、
SATAのドライブの場合、/dev/sd?のデバイス名は起動時に繋がってるデバイス次第でデバイス名がずれてしまう
(未接続のポートは飛ばして存在するものだけがaから順に前詰めされて割り振られる)んで、
RAIDで使う場合は /dev/disk/by-path下にあるデバイス名で指定した方がいいと思う。
いろいろと安心。
673login:Penguin:2009/04/30(木) 14:16:11 ID:bMQ/vl6u
誰か >>648 に回答して
674670:2009/04/30(木) 16:21:01 ID:zlL3XbN1
>>671,672
ありがとう!
675login:Penguin:2009/04/30(木) 22:15:32 ID:uX7rBT51
>>673
missing
676login:Penguin:2009/05/04(月) 02:51:31 ID:t65Z7O61
>>674
人間様には把握し辛いが大事なのにはUUID指定してやるのがいいんでは
677login:Penguin:2009/05/04(月) 22:00:58 ID:KCRGJA9J

software RAID1+LVMでフォーマットしたドライブがあります。
その片一方のドライブをUSB経由で別のPCでマウントしたいのですが、
マウントできません。
/dev/sdcでドライブ自体は認識されています。ファイルシステムをうまく
認識できないようですが、どうすれば/dev/sdcへアクセスできますでしょうか。
678login:Penguin:2009/05/04(月) 23:54:14 ID:pV+AMzaA
おとなしくnfsででも使ってれば?
679login:Penguin:2009/05/05(火) 11:37:36 ID:zBjAoobd
>>676
UUIDで指定した場合ドライブ交換しても
そのまま設定いじらずにrebuildできる?
680login:Penguin:2009/05/05(火) 12:06:19 ID:SKBlHzFp
>>676
それだと物理的なドライブを特定できない
681login:Penguin:2009/05/06(水) 01:13:22 ID:oUg9NO+Q
ぜんぜんRAIDと関係ないんだけど
Linuxでblock deviceをSCSI tapeに化けさせる方法ってない?
VTS(Virtual Tape Server)みたいなのをオープンソースでできるといいんだけど・・・
682login:Penguin:2009/05/06(水) 02:09:11 ID:xcd8qE0t
スレ違い
683677:2009/05/06(水) 09:09:26 ID:TSWAO7wk

すみません。

やはりraid1で組んだドライブの片肺は他のPCで中身を見ることは
出来ないのでしょうか。
684login:Penguin:2009/05/06(水) 09:44:48 ID:DkHoxEB5
ふつうは見れるよ。
685login:Penguin:2009/05/06(水) 10:09:36 ID:xcd8qE0t
>>683
最後の方にsuperblockが書き込まれるだけの普通のパーティションだから普通に読めるが、
mdを経由しない場合等でsuperblockのところに書き込むと壊れる
686login:Penguin:2009/05/06(水) 16:21:21 ID:8ZZPhWYr
むしろ問題はLVM関係でおきていない?
687login:Penguin:2009/05/07(木) 15:44:36 ID:LFqnfI5H
CentOS5.3で全てのパーティションをSoftwareRAID10にしたいのですが
インストール時点で選択出来ない為、HDD1からHDD4のうち、HDD1に
インストールした後、mdadmを使ってHDD2とHDD4の二台でRAID10を構築
HDD1のパーティション、各データをmdデバイスにコピー、起動後
HDD1、HDD3をmdデバイスに追加という流れになるのかなと勝手に
想像しているのですが、もっと簡単な方法はあるのでしょうか。

/bootや/の起動パーティションも含めたRAID構築方法があればご教示下さい。
688login:Penguin:2009/05/07(木) 18:24:04 ID:N8WvPmPV
>>687
やったことないけど、インストール時にコンソールに移ってmdadmコマンド叩けばいいんじゃない?
689login:Penguin:2009/05/08(金) 12:48:13 ID:GZ/pWQnU
グラフィカルインストール中に切り替えが可能なのでしょうか?
方法を教えて頂けないでしょうか?
690login:Penguin:2009/05/08(金) 14:14:40 ID:gIDrHRnX
コンソールにはCtrl+Alt+F2で移れるけど、centosのインストーラがraid10.koを持っていないな。
つくづくカスなディストリだ。
691login:Penguin:2009/05/08(金) 15:36:13 ID:GZ/pWQnU
>>690
有り難うございました。
>centosのインストーラがraid10.koを持っていないな。
その様な文献は見かけました。(Debianも同じようです)
ttp://hobby.sugio-garden.com/computer-tips/linux-tips/file-system-tips/raid6-raid10

上記の通りでCentOSでもインストール出来ればいいのですが、そもそも
RAID5同様、RAID10デバイスにgrubや/bootを入れてはいけないのか不安に
なってきました…。(grubは全てのディスクに入れてもいいものか…?)

もう少し情報量があればいいのですが…。orz
692login:Penguin:2009/05/08(金) 15:52:38 ID:gIDrHRnX
>>691
ダメに決まってんじゃん。
693login:Penguin:2009/05/08(金) 16:26:07 ID:GZ/pWQnU
>>692
ぇ、そうなんですか…。ここ数日の努力は一体…。orz
Windows程手軽ではありませんね…。
694login:Penguin:2009/05/08(金) 17:12:04 ID:0CuaNTWB
そもそも /boot をraid10にする必要性を見直そう
695login:Penguin:2009/05/08(金) 18:43:47 ID:GZ/pWQnU
うーん。手軽にシステム復旧できていいかなと思ったんですが…。
起動ディスクがとんだ場合の復旧方法を纏めてあるサイトとかありますか?
696login:Penguin:2009/05/08(金) 18:46:12 ID:12vZl4Iq
/bootだけUSBメモリに入れとく
697login:Penguin:2009/05/08(金) 18:48:09 ID:RNjlyMME
>695
だから、/bootなんて多く見積もっても100MBもあれば十分で、ほとんど書き換えなんてしないんだから、
「『RAID 1』で必要にして十分。RAID 1+0にしてわざわざ耐障害性を落とす需要がないだろう?」
ということだよ。

HDD 4本使って/bootをRAID 10にするくらいなら、2本をミラーで残りをspareにでもしておいた方が
ずっと気が利いているでしょ。
698login:Penguin:2009/05/08(金) 19:01:27 ID:0CuaNTWB
>>695 いや、だからなんでRAID10でなきゃ駄目なのさ。

それに、/boot を software RAIDを組んで、ディスク障害が起きた時に本当にちゃんとboot
するかどうかちゃんと確認したいだろうが、起動しているディスクを意図的に壊すのは結構
大変なので確認そのものがそれなりに難しいよ。

ちなみにうちで、あるメーカー製サーバー機でsoftware RAIDを組んでいた時には、ディスクが故障したと
思われるタイミングでOSがフリーズ、リモートからのIPMIによるリセットや電源再投入でもOSが
起きてこなかった。この時は、BIOSがS.M.A.R.T..エラーのあるディスクを見つけて、起動前に警告画面を
出して止まっていた。結局、このマシンのBIOSでは、S.M.A.R.T.エラーのあるディスクを物理的に
切り離さないと、起動時にキーボード入力待ちにならずにbootさせることができないことがその後判った。

サーバー購入する前にここまで確認するのは結構大変。だから、リモートKVMなどが使えないなら、
手が届かないサーバールームに置くようなマシンの場合、ディスクエラー時の挙動がそれなりに判って
いるハードウェアRAIDボードなりを買ったほうが結局は良いと自分は思う。
699login:Penguin:2009/05/08(金) 19:33:00 ID:9KKZ6BOr
H/W RAIDカードは予備も一緒に買っておかないと不安なのが、個人で使うには
ハードルが高めですな。

まぁ、H/WだろうがS/Wだろうが、初めての機種やディス鳥でのRAIDの設定は
1度は抜いて試してみるってのは鉄則だということですね。
mdadmそのものの設定はOKだと思っても、ubuntuとかさ、起動時にHDDが
こけてるとbusy_boxに落ちるって挙動に設定されているのもあったりするから…。
700login:Penguin:2009/05/09(土) 00:44:21 ID:ZpbYLtpb
最近のdebianはinst時にraid10設定できた(/bootじゃないですよ)が、
ubuntuのserver 8あたりはできんかったと思う。raid5は選択肢にあったと思うので謎だけど。
でまぁ/bootは4本でも6本でも束ねてriad1でいいよ。あとgrubとかinst忘れんようになー
701login:Penguin:2009/05/09(土) 01:17:43 ID:SW2MG53c
皆さん有り難う御座いました。
色々調べてみましたが、せっかく買ったHDD4本は余すことなく使いたいので
仰るとおりRAID1を切って/bootを入れる方向で行こうかと思います。

後は下記サイトなどを参考に頑張ってみたいと思います。

ttp://d.hatena.ne.jp/g-squid/20071203
ttp://rewse.jp/fukugan/article.php?id=990

重ねて有り難う御座いました。
702login:Penguin:2009/05/09(土) 06:53:18 ID:g2MAqT6x
>>682
あーやっぱりスレ違いですか
でもおまいらバックアップはどうしてるの?
RAIDではバックアップにはならんよな?
703login:Penguin:2009/05/09(土) 08:26:01 ID:a99IzaMs
スレ違い
704login:Penguin:2009/05/09(土) 08:29:14 ID:50sBA7v3
>>700
debian系はdebootstrapがあるから、デフォルトのインストーラが対応していなくても、どうとでもなる。
705login:Penguin:2009/05/09(土) 08:30:23 ID:50sBA7v3
>>702
pdumpfsでもcronで回しとけ
706login:Penguin:2009/05/13(水) 21:18:57 ID:Dxfkh9+9
ギブアップなので質問させてください

只今ハードRAIDをミラーリングで構築しています

linux dd でRAIDドライバディケットを読み込ませてインストールを進めているのですが

HDDを認識しないです…

ddオプションを使用せずインストールするとHDDを認識するのですが
ドライバが入っていないのでRAID構成が出来ません

windowsでは成功しているのでBIOS設定は間違いないと思います

どなたかお助けください
707login:Penguin:2009/05/13(水) 21:39:30 ID:B0dJX3uS
意味がよく分からなかったので「ドライバディケット」とか
「ddオプション」とかぐぐってみたけど、やっぱり分からなかった。

DDオプション……???
ttp://goroumaru-dd-blog.cocolog-nifty.com/blog/dd/index.html
ttp://www.volks.co.jp/jp/dollfiedream2/heads/index_heads.aspx
708login:Penguin:2009/05/13(水) 21:59:09 ID:DyZoiBpp
>>706
ddってのは何かのインストーラの起動オプションか?
はっきり言って、全く意味が分からない。
ちゃんとした回答を求めているのなら、
・RAIDカードのメーカーと型番
・使用するディストリの名前のバージョン
せめて、それくらいはちゃんと書くべし。

まぁ、エスパーすると本当はハードウェアRAIDじゃないんだろうけどな。
709login:Penguin:2009/05/13(水) 22:05:29 ID:ekdM9VHa
>>706-707
ひょっとして日本語が不自由ではありませんか?
もし英語が得意なら英語でもおk?
710login:Penguin:2009/05/13(水) 22:12:28 ID:lxBosufO
>>709
何処にでもこういうこと言うやついるな。同一人物かね。
711login:Penguin:2009/05/14(木) 05:20:31 ID:m2xQQRsj
>>706
ドライバディスケット、だな。ddってのはインストーラの
起動オプション。redhat系かね。
まぁ実際にはfake raidの類だと思うけど、、、カードの型番は?

ぶっちゃけ小規模運用ならsw-raidが一番現実的だよ。
中規模以上なら替えを揃えた上で、外からは1デバイスに
見えるタイプのhw-raidの方が楽になると思うけど。
712login:Penguin:2009/05/14(木) 10:33:36 ID:Uqibt60q
中規模って具体的にはどれくらいからですか
713login:Penguin:2009/05/14(木) 10:35:20 ID:Ho0hcI6J
まともなH/W RAIDカードを予備も含めて買う予算が組める規模。
714login:Penguin:2009/05/14(木) 10:59:34 ID:Gy1T7uzg
drbdってファイルシステムが何であろうと、
ミラーしてくれますか?
715707:2009/05/14(木) 12:12:20 ID:oJXETyDq
>>709
なんで俺も入ってるんだ?w
716login:Penguin:2009/05/14(木) 12:16:18 ID:RkzUi3vt
>>706です

HP内蔵G5 SATA RAIDです

boot:linux ddでUSBFDDを読み込ませると
sdaで認識されてHDDが読み込めないのでしょうか?

通常のインストール方法ですと
sdaとsdbにHDDを認識するのですがドライバを入れられないので困っています
717login:Penguin:2009/05/14(木) 12:30:41 ID:m2xQQRsj
MCP55でnvRaidだろうから(つまりfakeraid)
インストール時にdmraid動く鳥かどうかだろうな。
718login:Penguin:2009/05/14(木) 12:32:05 ID:E869XGZo
dm使うくらいならmdにしたほうが何倍もいい
719login:Penguin:2009/05/14(木) 12:39:30 ID://Y2vNfg
どれだけ困っていても
ディストリ名は明かしたくないという
理由は何なのだろう
720login:Penguin:2009/05/14(木) 12:40:36 ID://Y2vNfg
あ〜これか?
ttp://h50222.www5.hp.com/support/445333-291/more_info_soar_MTX-16cd7c65cfec4a0d8e2957d758.html

質問するときちゃんと説明できないってことは
書かれてる手順通りにちゃんと実行してるのかどうかも分からんな。
721login:Penguin:2009/05/14(木) 12:51:26 ID:m2xQQRsj
うむ、ドライバ云々以前にmd/dmraidの得失についても検討してないみたいだしねぇ。
サポート外の鳥にドライバ突っ込もうとしてるとかありそうだw
722login:Penguin:2009/05/14(木) 13:01:02 ID:m2xQQRsj
あぁ、310あたりの内蔵だとnvじゃなくてadaptecかなぁ。
まぁ情報不足しすぎて推測にしかならんが
723login:Penguin:2009/05/14(木) 13:23:33 ID://Y2vNfg
チェックポイント
(1)使ってる機種名とディストリ名&バージョンは?
(2)手元にあるのは使用機種用の使用OS(ディストリ&バージョン)対応のドライバか?
(3)ドライバのイメージは正しい手順でFDに書き込まれているか?
(4)ドライバの読み込みを実行する正しい操作を行っているか?
724login:Penguin:2009/05/30(土) 05:36:24 ID:fl0VPPTI
>>676
> 人間様には把握し辛いが大事なのにはUUID指定してやるのがいいんでは

>>680
> それだと物理的なドライブを特定できない

え?なんで?ハードディスクのUUIDって
ユニークに割り当てられるんじゃないの?


>>679
> UUIDで指定した場合ドライブ交換しても
> そのまま設定いじらずにrebuildできる?

自分はディスク交換時に、必要に応じて
 fstab を書き換えてますよ。
725login:Penguin:2009/05/30(土) 07:20:38 ID:at9C0NOr
>>724
HDDはUUIDを持たない。
だいたいUUIDはFSなりRAIDボリュームなりに付くわけで
そこらへん分かってりゃ出てくるはずのない疑問なんだが。

パーティションを切らない運用をすればHDDとUUIDが1:1対応するけど
それはHDDのUUIDとは言わない
726login:Penguin:2009/05/30(土) 10:05:13 ID:fl0VPPTI
>>725
うわ、すまん、誤情報ごめん。

fstab に書いてる UUID は HDD じゃなくて
raid ボリュームに対しての物だった。
ボケた頭で夜中に書くもんじゃないな。

>>680 >>679
というわけで >>724 は無しでお願いします。
727login:Penguin:2009/05/30(土) 13:34:03 ID:2T6aXAyF
>>724
> >>679
> > UUIDで指定した場合ドライブ交換しても
> > そのまま設定いじらずにrebuildできる?
>
> 自分はディスク交換時に、必要に応じて
> fstab を書き換えてますよ。

なんでそんな面倒なことを。
>>672 に書いてある通り、接続してるポートで指定すりゃ
一切設定変えずにrebuildできるぞ。
普通はリムーバブルフレームとかに入れてHDD差し替えだろうから
それが一番楽だと思うが。
728724:2009/05/31(日) 09:32:37 ID:VjFraXIU
>>727
ごめんホントにごめん。
それ単に raid ボリュームのマウントで、
しかも raid 構成してるディスクの入れ替え時に
やるわけではないんだ。
寝ぼけて勘違いして書いちゃっただけw
729login:Penguin:2009/06/18(木) 02:46:39 ID:JtLuBXCI
RAID10だけあればいいだろ、もう。
730login:Penguin:2009/06/18(木) 10:09:55 ID:sFMYZNyt
RAID6+6とかどうすんだよ。
731login:Penguin:2009/06/18(木) 11:43:15 ID:RAyeJNBf
なんだそれ。
4x4で最低16台構成から?
1TBドライブ16台で使える容量は2TBとか
そんな感じ?
732login:Penguin:2009/06/18(木) 12:25:00 ID:mDbyuVWY
RAID66はつおいぞ
733login:Penguin:2009/06/18(木) 15:55:18 ID:LDOJ4AL5
PromiseのATA RAIDカード思い出すな。
734login:Penguin:2009/06/19(金) 16:47:34 ID:AZx2pzna
16台使って容量は4台分にしかならないって…なんか損した気分に
9台も短期間で壊れるとか無い…と信じたいな

735login:Penguin:2009/06/19(金) 21:21:00 ID:oA5n8H4+
RAID10が一番バランスがよい。
RAID1、5、10だけあればいいと思う。
RAID6使うメリットは何?
736login:Penguin:2009/06/19(金) 21:48:48 ID:+6l6RjW1
>>735
「任意の」2台が壊れても平気
10はRAID1を構成する2台が壊れたらアウト
737login:Penguin:2009/06/19(金) 22:37:42 ID:AZx2pzna
RAID50,RAID60までは許せるな
66とか65とかはネタだと信じたい
738login:Penguin:2009/06/19(金) 23:14:30 ID:kIDvbdHb
66や65はともかく61ぐらいは許せるけどな。
739login:Penguin:2009/06/20(土) 12:38:29 ID:CgUZ1PWu
>>735
当たり前のことだが、
何が「一番よい」なのかは使用目的次第だな。

>>736に加えて、構成するドライブ数が増えた時、
および大容量なボリュームが必要な時にもメリットあり。
1TBのドライブ16台で使用可能容量8TBと14TBの差、
4Uのケース/RAID箱だと24台で12TBと22TBの差。
これは大きい。
速度より大容量を望むならとてもデカいメリットだな。

あと、業務の状況に応じて後々容量を増やす必要が予想される場合、
RAID5/6ならば一台ずつ増やせばOKというのも、
運用の柔軟性という点ではデカい。

予算や設置空間が無限に確保できるなら
そんなこと考える必要もないんだろうけど。
740login:Penguin:2009/06/20(土) 12:42:06 ID:CgUZ1PWu
しかし

> RAID1、5、10だけあればいいと思う

1と10はともかく5?
5と6なら普通の人は6を選ぶと思うけど。

RAID5 + spare 1 にするなら
RAID6で spareなしの方がまだ安全だよね?
もちろん 5で spareなしってのは論外だし。
741login:Penguin:2009/06/20(土) 13:02:30 ID:l8BFxcVU
個人用途で4本ぐらいまでならRAID5もありだと思う。
バックアップ別に取ってspareなしとかね。

自分で言っているとおり使用目的次第だろw
742login:Penguin:2009/06/20(土) 14:49:58 ID:Ti9Rd7cZ
>>740
同意。
多少性能落ちるけど RAID5+Spare より RAID6だな
743login:Penguin:2009/06/20(土) 15:01:21 ID:3zenwQct
>>741
RAIDとバックアップは目的が違う。
データを失いたくない前提ならRAID5でも6でもバックアップは取るもんだ。

逆に言えば、バックアップを取らない人は5でも6でも取らんだろうし、
バックアップを取る人なら5でスペアなしという危険な選択肢を敢えて取るとも思えないがw

その意味で>>741の仮定は非現実的だと思う。
744login:Penguin:2009/06/20(土) 17:09:52 ID:1JSai2FT
>741の言ってるバックアップはデータのバックはなくて、機器(HDD)のバックアップだと思うが。
まぁ、RAID 6ならspareが要らないかというとそんなことはないんで。
ここら辺はどこまでリスクを許容するかという話だな。
745login:Penguin:2009/06/21(日) 01:03:00 ID:vyETa8TC
>>744
無理ありすぎ。
機器のバックアップを用意することを「バックアップを取る」とは言わんと思う。
746login:Penguin:2009/06/21(日) 16:54:45 ID:dBCYGf1k
>>743
何につっこんでるのかよくわからない

>バックアップを取る人なら5でスペアなしという危険な選択肢を敢えて取るとも思えないがw
これはたぶん勝手な妄想

747login:Penguin:2009/06/21(日) 17:37:00 ID:ke+JxsXU
ダウンタイムが認められるかどうかとかにもよるけど
ディスク3,4本程度であれば、スペア無しとかあり得るんじゃね?

前提条件無いからこれ以上やっても宗教論みたいになっちゃうかな。

とりあえず選択肢は多ければ多いほど
いろんなパターンに対応できるから、
無理に縛る必要はないんじゃね?
748login:Penguin:2009/06/21(日) 23:26:20 ID:VQh+3f2H
家庭用VTS(Virtual Tape Server)まだぁ?
749login:Penguin:2009/06/22(月) 07:50:38 ID:6OfCVb36
>>748
そういやその昔、VHSテープにデジタルデータを
書き込むとかいう妙なドライブがあったのを思い出した。
750login:Penguin:2009/06/22(月) 12:14:58 ID:xpzci0AC
VHSテープにデジタル録音する装置なら持ってた。
751login:Penguin:2009/06/23(火) 01:45:15 ID:6kMmigiU
>>749
いや、そういうのじゃなくて、3494とかそういうの。
752login:Penguin:2009/07/05(日) 17:24:16 ID:PqNELh2+
>>735
メーカーが発表している比較表だと、耐久性は10>6 になっている。。
読み込みも10のほうが早い
753login:Penguin:2009/07/06(月) 10:51:59 ID:JnhTUdJQ
その発表してる比較表どこかで見れる?
754login:Penguin:2009/07/06(月) 22:56:06 ID:STIaUCHo
耐久性
とは?
755login:Penguin:2009/07/07(火) 01:40:42 ID:PlV+wZp4
>>752
要出展
756login:Penguin:2009/07/07(火) 05:10:49 ID:8uZqbptR
>>755
なぜ展覧会に出したり個展を開かねばならんのだ?
757login:Penguin:2009/07/07(火) 08:51:04 ID:ka5gCiyc
つーか、耐久性ってのがなにを指しているのかわからんが、容量が同等なら通常は
RAID10の方が6より玉の数が増えるから、故障率なら10の方が分が悪いな。
758login:Penguin:2009/07/07(火) 11:57:02 ID:ysfW7eSZ
台数すら考慮しない厨がまた来たか
せいぜい脳内理論をこねくり回してくれ
759login:Penguin:2009/07/07(火) 23:37:03 ID:JIRTze+C
>>757
アホハケーン
760login:Penguin:2009/07/08(水) 00:58:54 ID:fh0Hycs7
やれやれ。またRAIDシステムの故障率と可用性の違いを理解できずに
アホハケーンとかはしゃぐ小僧が沸いてるのか。
もう飽きたよ。
761login:Penguin:2009/07/08(水) 01:26:39 ID:0t67BNmO
ん?
故障率と可用性の違いを理解できてないのは757だよな?
玉の数だけしか考えてないわけだし
762login:Penguin:2009/07/08(水) 03:06:50 ID:BMukzHhe
おまえら、
喧嘩する前に単語の定義を再確認しような。
763login:Penguin:2009/07/08(水) 11:10:52 ID:HCiDv/o/
さて、とうとう玉の数が増えると故障率が下がるという珍説が出てきましたよ。
どう話を繋ぐつもりなのか、>761にワクワク。
764login:Penguin:2009/07/08(水) 11:47:07 ID:chJzRSys
部品の故障率と装置の故障率とごっちゃになってるとかなんとか
765login:Penguin:2009/07/08(水) 12:03:22 ID:44lMCrPK
煽るのが目的の基地外の人は
わざとそのへんをごっちゃにして書いてる模様。

本当に分かってなくてごっちゃになってるのかもしれんけど。
766login:Penguin:2009/07/08(水) 12:26:26 ID:unIowKVf
ずいぶん盛り上がっているようだが、俺に基本的なこと教えてくれ。
RAID0とか5とかで構成されたPCが壊れたときって、
HDDの中身は救いようが無いの?
767login:Penguin:2009/07/08(水) 13:13:31 ID:Zo0dcnWf
>>766
ソフトウェアRAID5で構成されたHDDを、他のマシンに繋ぎ替えても全く問題なく使えてるから
ドライブさえ無事なら何とでもなると思うよ。
ハードウェアRAIDは分からないけど。
768login:Penguin:2009/07/08(水) 13:58:17 ID:Caci2GYb
>>766
そりゃ「PCが壊れたとき」の壊れ方次第だろうとしか言いようがない。
何がどう壊れたのか。

例えば
電源ユニットの電解コンデンサが妊娠して臨終、てな状況と
PC内で何かが爆発してHDDもなんもバラバラ、てな状況と
一括りでどうこう言えるものでもなかろう。
769login:Penguin:2009/07/08(水) 13:59:47 ID:qe9478ZF
>>766のレベルからしたら全滅と同義
770login:Penguin:2009/07/08(水) 14:33:59 ID:MYN3KcvK
ドライブを修理して使うことは稀なので故障率という指標自体が不適切
なのではないか?
また、(Linuxでおうちサーバー派の間では)MTBFを論拠にRAID0は危険
といった指摘も見受けられるが、時系列に分割すると初期故障期間を脱
したドライブは十分な信頼性を持つため、運用上問題になることは少な
いのではないか?
いずれにせよLinuxは迷信渦巻く恐ろしい世界だと痛感した次第である。
771login:Penguin:2009/07/08(水) 14:42:21 ID:MYN3KcvK
私がLinux界に感じる印象は、シックスナインレベルの稼働率を達成(た
だし10PV/day)といったようなチグハグさである。
子供の遊びとしても得るものは少ない。
そんなことより野球しようぜと言いたくなるのである。
772login:Penguin:2009/07/08(水) 21:27:44 ID:O3yCZdx1
HDD復旧専門会社に持ってけば治る鴨よ。

773login:Penguin:2009/07/08(水) 22:32:56 ID:OJvmD9NC
FASのRAID-DPラブ♪
774login:Penguin:2009/07/08(水) 23:14:23 ID:0t67BNmO
んー763みたいな誤読にはもう飽きたんだけどねぇ。
意図的なら荒らしだし、素なら小学校からやり直した方が良い。

>>766
実データと構成情報とコントローラが、各レベルの許容範囲内で残っていれば助かる。
それぞれ、
実データ:HDD内
構成情報:(SW) 大抵HDD内 (HW)ボード上の記憶領域
コントローラ: (SW) 特になし。各HDDを繋いでいるコントローラ (HW)ボード
にある。

あとは>>768の云うように状況次第。
775766:2009/07/09(木) 13:11:53 ID:vjd5NCxf
RAID5のHDDを取り出して、中身を救済したいとき
そのまま他のLinuxPCにつないでマウントできるってことで良い?
HDD自体のダメージは無しとして。
776login:Penguin:2009/07/09(木) 13:17:28 ID:DpwXMNkl
>>775
基本おk
ただしきちんと試して原理を理解しておいたほうが安全
777login:Penguin:2009/07/09(木) 13:21:18 ID:vWAwVJmN
いちおうケースバイケースということになるが、
ほとんどのケースで「できない」。
Linuxのソフトraidはmdadmで設定してやらないとだめでしょ。
その設定をしてやれば、マウントできる「はず」。
raid 1ならそのままマウントできるかな?
778766:2009/07/09(木) 13:53:45 ID:vjd5NCxf
グレーなのね。
ようするに、3年以上前に作ったlinuxのソフトRAID5のPCサーバが壊れてしまったとき
同じ構成のPCなんて間単に作れないだろうから、どうするのかと。
ハードRAIDでもコントローラが違ければNGだよね。
ならば、RAID1で作っておくのがいいってことかね。
779login:Penguin:2009/07/09(木) 14:17:02 ID:wZlOujA6
>>777
それ本当?
普通スーパーブロックにRAID情報が書かれてるはずだから、それを元に
/etc/mdadm.conf を自分で作成するなりすれば問題なく使えるような。
結構前に試したときは、デバイス名が変わったときでさえ構成している
デバイスを全て含めていれば使えた記憶がある。
780777:2009/07/09(木) 15:05:41 ID:vWAwVJmN
mdadmで設定しないと使えないよ。つなぐだけでmountできるようにはならないよ。
と言いたかったんだし。

何言ってんの。別に顔赤くなってないし。
てか意味わかんないし。
777はラッキーナンバーだし。

あー、もう負けた。お前がレイドマスター。
781login:Penguin:2009/07/09(木) 15:15:35 ID:EABWPBXH
もっちゃらへっぴ〜もけもけさ〜
782login:Penguin:2009/07/09(木) 15:16:25 ID:VbNabJJD
>778
そうH/W RAIDは基本的に同じ製品のコントローラが無ければアウト。fake RAIDも同様。
まぁRAID1なら救えるケースもないわけじゃないけどさ、全部大丈夫かと言われれば判らん。
だから普通はRAIDの種別にかかわらず、自前か保守契約した業者に持たせるとかして
交換用に予備のコントローラ(やバッテリ)をストックしておく。

>779
mdadm.confは後から掃き出させたのを追加するだけでも別に桶。
でも、最近だとmdadm単体ではなくLVMと組んで使うケースが多そうだからミスを避ける
意味でもメモは残しておいた方がいいのは間違いない。
zfsなんて単純に繋いでimport一発でそこら辺を全部クリアしてくれるし、
versionの違いも後方互換で面倒見てくれるんで、一度使うと戻りたくなくなるよな。
783779:2009/07/09(木) 15:47:52 ID:wZlOujA6
>>780
すまない。完全に俺が読み間違ってた。
「できない」と言ってるので、そこについ反応してしまった。

>>782
zfsは複雑そうなイメージがあるんだけど、システムが面倒見てくれるのね。
784login:Penguin:2009/07/09(木) 18:11:41 ID:dbdXRBlx
>>780
負け犬乙
785login:Penguin:2009/07/09(木) 22:28:27 ID:DpwXMNkl
伸びてると思ったらw
知ったか厨のID:vjd5NCxfがフルボッコにされて逆ギレって構図か
786login:Penguin:2009/07/09(木) 22:48:43 ID:4sBi5S/k
現在3TBのデータ入りHDD(非RAID)(1TBx3)があります
何台HDDを買い増ししたら、RAID5をデータ損失なしに構成できますか?
787login:Penguin:2009/07/10(金) 00:23:18 ID:jbbj/fYI
時間がかかることを無視してじわじわやれば1台でいけるんじゃない?
1台とmissingでraid5 (sda1,missing) 1TB
2台でraid5 (sda1,sdb1) 1TB
3台でraid5 (sda1,sdb1,sdc1) 2TB
4台でraid5 (sda1,sdb1,sdc1,sdd1) 2TB
とデータを移しながら順に。
788login:Penguin:2009/07/10(金) 00:24:38 ID:jbbj/fYI
最後3TBの記述ミス
789login:Penguin:2009/07/10(金) 00:44:13 ID:OM1TjxBa
>>787
>1台とmissingでraid5 (sda1,missing) 1TB
最近のRAID-5って1台で出来るんですか?
790login:Penguin:2009/07/10(金) 01:32:37 ID:jbbj/fYI
>>789
ちゃんと出来るよ。
2台のraid5のうち1台が無くなってデグレードした状態として作れる。
791login:Penguin:2009/07/10(金) 01:50:36 ID:XO3XguLV
raid5って最低3台だからmissingあっても2台必要じゃね?
792login:Penguin:2009/07/10(金) 02:04:25 ID:jbbj/fYI
2台でいけるよ。
各ドライブが、ストライプ50%,パリティ50%の状態になるはず。
ちゃんと動作するのも確認済み。
793login:Penguin:2009/07/10(金) 02:08:02 ID:jbbj/fYI
もっとも、2台でraid5は、2台でraid1に比べて、遅い・ドライブ単体でraid抜きでマウント出来ないと
何もメリットが無いから、普通やることは無いけれど。
growする過程でなら使う価値がある。
794login:Penguin:2009/07/10(金) 02:11:29 ID:QSzdrBX1
それってgrowした後はパリティディスクにパリティが集めなおされるの?
それとも実はパリティは1/Nずつ分散保持する形で、純粋なRAID5とはちょっと
違う形態なのかな?
795login:Penguin:2009/07/10(金) 02:17:33 ID:jbbj/fYI
>>794
そもそもraid5は分散パリティ。
パリティディスクを持つのはraid4。
796login:Penguin:2009/07/10(金) 08:55:17 ID:XO3XguLV
2台でできるのか…しらんかった。
失礼しました。
797login:Penguin:2009/07/10(金) 12:17:13 ID:LwCP+DbW
ま〜俺が現実にやるなら
そんな手間暇掛けるくらいなら
1.5TBを2台買ってきて一旦全部退避させちゃうけどねw
何回もデータの移動を繰り返す途中で
人為的なミスで全部パ〜〜とかってこともありえるし。
798login:Penguin:2009/07/10(金) 21:55:32 ID:BTiu9kSq
RAIDを再構築しています.現在マッピング作業が終了したんですが,
現在の設定と昔の設定の食い違いが原因でエラーが出ています.
昔の状態を記憶している設定ファイルはどこにあるんでしょうか?
evmsの設定の所でつまっています.
799login:Penguin:2009/07/10(金) 21:59:01 ID:BTiu9kSq
evms.confはあったんですが,他に何が必要なんですかね?
質問分かりにくくてすいません.
800login:Penguin:2009/07/10(金) 22:05:59 ID:9pELyBrA
まずOSや環境、ハードの構成を言ってみるといいんじゃないかな。
801login:Penguin:2009/07/10(金) 22:16:18 ID:BTiu9kSq
OS:SUSE
ハードの構成:500Gx15台
802login:Penguin:2009/07/11(土) 14:20:35 ID:dyh9nr5n
アドバイスをもらいたくないようだ
803login:Penguin:2009/07/11(土) 16:32:05 ID:TyDmWkeE
>>787
ありがとうございます。

現在、Linux上でのRAIDツールの主流はmdadmですか?
804login:Penguin:2009/07/14(火) 18:51:49 ID:mgkOjMjw
>>798
assemble時に名前を与え直せ
805login:Penguin:2009/07/16(木) 14:34:28 ID:AhLYw6fr
今、HDD2台を非RAIDで使ってます。
そこに1台か2台HDDを追加して、RAID5にしようと考え中。
初期設定は、今のデータを別PCに移してやれそうなので
あんまり難しく考えてないんですが、問題は、マザーにSATAのポートが2個しかない。
なので、RAIDカードを購入しようと思ってます。
そこで質問なのですが、SATAのポートが2個あるカードを買って
マザーのポートと混在してRAID5を構成しても問題ないんでしょうか?
RAIDは、ハードウェアではなくソフトウェアでやろうと思ってるので
これで問題ないようなら、安いカードを買ってこようかと・・・。
806login:Penguin:2009/07/16(木) 14:57:11 ID:AhLYw6fr
調べてるところだけど、Win対応ってRAIDカードは
基本的にはLinuxでソフトウェアで運用することもできないのかな?
807login:Penguin:2009/07/17(金) 15:05:04 ID:PD/7Z6Je
コントローラがlinuxでサポートされていなければ、
そのカードに繋がったHDD自体が認識されないので
ソフトウェアRAIDもへったくれもないよ。

で、Win対応とうたわれているなら多分FakeRAIDと思われるが、
たいていの場合それはソフトウェアRAIDを使うしかない。
AdaptecのHostRAIDなんかはドライバレベルで処理してくれるから
LinuxのソフトウェアRAIDを使う必要は無いんだけど。
808login:Penguin:2009/07/17(金) 22:13:49 ID:jyY3JPnZ
そのドライバレベルで処理ってのがFakeRAIDなわけだが
809806:2009/07/18(土) 01:42:41 ID:nJOzyw8j
…よくわからんなぁ。
必須の条件として、挿して認識されないと何をやっても無駄?
認識されてしまえば、ソフトウェアRAIDならできる見込みが高い?
810806:2009/07/18(土) 01:48:04 ID:nJOzyw8j
たった今、初めて知ったことなのだが、「SATAの増設カード」というものも
世の中には存在するんだね。
これがLinuxで認識するなら、もしかしたらソフトウェアRAIDの構築は
RAIDカードを使うより楽なのかな?
811login:Penguin:2009/07/18(土) 02:33:58 ID:cs+XIryB
>>810
RAIDカードでもチップを認識すれば、問題なくソフトウェアRAIDで使えるだろうけど、
ソフトウェアRAIDで使うならSATAカードで十分。
うちでは、SATA2I2-PCIeっていうカードを2枚差して、合計8台でRAID組んでるけど
問題なく使えてるよ。
念のため書くけど、いくら安くてもPCI接続のカードは買わないように。
812login:Penguin:2009/07/18(土) 03:37:33 ID:nJOzyw8j
>>811
ありがとう。でも、マザーにはPCIスロットしかないんだよね。
PCI接続だとまずいの?
813login:Penguin:2009/07/18(土) 03:55:16 ID:CIrVnNOa
>>810
SATA RAIDのRAID無効にするのと区別する意味が分からん
うちはRR2320のRAID機能無視して8ポートのSATA IFとして使ってる
814811:2009/07/18(土) 04:08:49 ID:cs+XIryB
>>812
HDD何を使おうとしてるか分からないけど、まず間違いなくPCIがボトルネックになる。
PCIスロットしかないマザーなら、SATA増設するよりマザーを新調する方がいいんじゃない?
速度気にしないなら止めはしないけど。
815login:Penguin:2009/07/18(土) 04:28:59 ID:nJOzyw8j
>>813
区別はしてないんだけど
「RAIDはRAIDカードじゃないといけない」
って先入観から解放された。
それと安さから。
>>814
勉強用にatomにLinux入れて使ってたのを
ファイルサーバとして使いたいなっていうのと
RAID5をやってみたかったのが目的。
速度は、この際、あんまり気にしないことにした。
816login:Penguin:2009/07/19(日) 09:47:40 ID:+907A/IW
PCIでボトルネックってあんの?
内部転送速度に実際の読み書き速度が追いつかないんだが
今のSATAディスクのIOならインターフェースはIDEでもおつりがくる
817login:Penguin:2009/07/19(日) 11:50:19 ID:qrI/gqr+
PCIって32bit,33MHzだろ。理論上限133MB/sじゃちょっと足りないだろ。
HDDしかつながってないとしても、実効で100MB/sを出してくるHDDの時代
これじゃ足りないよ。
818login:Penguin:2009/07/19(日) 12:36:15 ID:86dS1gZ7
カードそんなに高くないんだし、PCI で一度組んでみればいいじゃん。
819login:Penguin:2009/07/19(日) 13:14:56 ID:yAZGEeZp
使う用途次第。
WebサーバやDBサーバなら、どうせそんな最高速度が出るような長いシーケンシャルアクセスは発生しない。
820login:Penguin:2009/07/19(日) 13:24:40 ID:qrI/gqr+
キャッシュヒットする場合最高速度が出るよ。

32MBとか乗ってて、特定ファイルにアクセスが集中する場合、OS側キャッシュで
かなり捌いて、さらにそこから漏れた分だけがディスクにくるから両方合わせて
それなりの分がキャッシュアクセスになる。
821login:Penguin:2009/07/19(日) 13:58:29 ID:zVdQgd05
ディスクから直接NICに流すDMAみたいなものというアイデア
822login:Penguin:2009/07/20(月) 22:40:15 ID:zz+/xgHt
RAIDを可用性を高める用途で使っている人に聞きたいのだけど、
2台のHDDを使うとき、RAID0で組むのと、片方をバックアップHDDにして、rsyncとcronで定期差分バックアップ
するのとどちらを選びますか?
私はRAID0より、差分バックアップの形にした方が双方のHDDへのアクセス頻度が異なるため、HDDが逝く時間が
ずれやすくなるから安全だと思ったのですが、今までRAIDには手を出した事がないので、出来ればRAIDに
する方のメリットを知りたいなと思っています。
823login:Penguin:2009/07/20(月) 22:50:23 ID:4wqxvNjK
そもそもRAID0は可用性に貢献しない
824login:Penguin:2009/07/20(月) 22:50:47 ID:3ARtgDPv
RAID0か・・・
825login:Penguin:2009/07/20(月) 22:57:05 ID:2Lioj9o9
>>822
うん、とても●●な質問だね。
どうしても、たった2台のHDD運用したいのだったら、私なら
迷わずRAID1にするよ。
826login:Penguin:2009/07/20(月) 23:12:46 ID:lhnRUKwW
>>822 はRAID1を間違えてRAID0と書いてるに10ペリカ。
827login:Penguin:2009/07/20(月) 23:25:21 ID:oU/BttHi
>>822
そもそもRIADとバックアップを同等に考えることが間違い
828login:Penguin:2009/07/20(月) 23:55:33 ID:aDnxlVz3
RAID0は真性のバカかネタでしか使えない。
829login:Penguin:2009/07/21(火) 00:00:57 ID:BlYX3NN2
単純にRAID1の書き間違いなら、HDD2台で組める安全性の高い構成は、
RAID1にして、同一アレイ内で構わないからpdumpfs等で世代バックアップ。
そういう構成にすれば、故障が発生してもサービスは止まらないし、
(特別致命的なものを除き)オペレーションミスによるデータの喪失にも耐えられる。
古いデータが欲しくなったときにも便利。
830login:Penguin:2009/07/21(火) 00:10:12 ID:MfPDxDal
>>829
同一アレイ内でいいならpdumpfsよりMD+LVMでsnapshotオススメ
一回3MB程度のオーバーヘッドでどんどこ取れる。
831login:Penguin:2009/07/21(火) 00:29:00 ID:L4lOTNSh
>826
間違えているってより、単なるあらし目的のコピペの改竄。
もうちょっとしたら、「釣れた〜」とか言ってバカ晒すんじゃない?
832login:Penguin:2009/07/21(火) 00:43:40 ID:CMRpbGOo
そうなのか
833822:2009/07/21(火) 22:24:28 ID:uioDiEgr
生暖かい目ありがとうございますw
昨日そのまま寝てしまったので今日会社から帰ってきて、今モニタの前で顔を真っ赤にしてます。

確かにサービスが止まらないというメリットはRAID1ならではのメリットですね。
オペレーションミス対策としては私も、更新したファイルや削除されたファイルに対して
1ヶ月前までさかのぼれる様なスクリプトを使って(拾い物ですが)、バックアップHDDの容量を
監視して自動メールにしてます。

後、復旧対策としては、sambaのバックアップHDDはNTFSフォーマットにして、原因不明のシステム障害の場合は
物理的にHDDを引っこ抜いて誰かのwindowsに差したりしてますw
834login:Penguin:2009/07/22(水) 00:28:13 ID:NBrvCpqS
>>822
ハードウェアRAIDなら、RAID1 でミラーかな。
rsyncで差分バックアップがどれほどの物かわからないが、
オフラインで取るとなると、容量増えるとバックアップ時間が長くなり、オンライン時間に影響がでる。

LVMスナップショットもあるよ。
835login:Penguin:2009/07/22(水) 04:42:02 ID:HGpiGPZ9
わざわざめんどくさいことするのが趣味なのかな
バックアップをとるのにそもそも同じマシンでってのがオレ的にはありえないが。
バックアップは別ロケーションの別マシンじゃないと意味なくないか
836login:Penguin:2009/07/22(水) 11:04:23 ID:e4yAhJ+J
本質的にはLinuxと独立した話なんですが。。。
Promiseに超くわしい人いませんか。
PromiseのRAIDアレイを読み書きするオープンなドライバ(Linux2.4のpdcraid)は
RAID0/1のみ対応。RAID5で使おうとするとプロプライエタリなコードしかない。
最近はdmraidが発達しているので調べてみたんだけども
PDCのRAID5はやっぱりサポートされてない。
仕様が誰にもわからないとかでしょうかねえ。
ハードウェアXORエンジンがらみでNDAでもあんのかな。という。

実はですね、S150 SX4で作ったRAID5を長いこと運用していたのだけども
アレイ情報がクラッシュして以来数年間放置してるのです。
Promise様ご提供のドライバではいかんともしがたい。でもこいつらを
そろそろサルベージしてやりたいのですよ。
(ドライブのサイズが大きくなって作業しやすくなったし)
でもアレイの解読から自分でやるとか正直前途多難すぎるのでアレです。
ストレージ復旧屋とかは情報持ってるのかなあ……。

参考情報とか、お心当たりあれば。
837login:Penguin:2009/07/22(水) 11:13:34 ID:4OZbObjM
>>835
理想的にはそうだけど、そのあたりは予算と環境との相談でしょ。
バックアップで、何の脅威からデータを保護したいのかによっても違う。
同じコンピュータの中でのバックアップで十分というケースもあれば、
同じ国の中でのバックアップじゃあ役に立たないというケースもあるだろう。
838login:Penguin:2009/07/22(水) 11:23:10 ID:PJ2Wnixd
>>830
おいおい、根本的に勘違いしてるぞ。
LVMのスナップショットは単にその時点での全ファイルのハードリンク作るだけだよ。
だからこそ「一回3MB程度のオーバーヘッド」で済む。

pdumpfsと同じようなことをやるためには、普通はLVMスナップショット + dump を使う。
本番で泣かないように一度「lvm スナップショット dump」をぐぐってみなされ。
HDDが故障してファイル本体が飛んでたらリンクだけ残ってても意味がないっしょ。
839login:Penguin:2009/07/22(水) 11:25:27 ID:PJ2Wnixd
>>836
無理
あきらめろ
840login:Penguin:2009/07/22(水) 11:46:03 ID:e4yAhJ+J
>>839
クール
841login:Penguin:2009/07/22(水) 11:47:29 ID:AigxZsAa
>>838
FS独立のLVMでどうやってハードリンク作るんだよ
842836:2009/07/22(水) 11:55:17 ID:e4yAhJ+J
FastTrakのアレイ管理情報の技術資料だけでもないかなぁ。
pdcraidかdmraidを読む前にすることがある気がしてねえ。。。
843login:Penguin:2009/07/22(水) 11:55:50 ID:PJ2Wnixd
>>841
ぐぐってみれば?
844login:Penguin:2009/07/22(水) 12:19:06 ID:L9jtOV+v
>>838
SS作成以降に「更新されたファイルだけ」は
更新前(SS時点)の実体がSS領域にコピーされるけどな。
845login:Penguin:2009/07/23(木) 02:17:58 ID:vfIt/PSg
すごく初歩的な質問ですが
ディスク2本でRAIDより、ディスク4本でRAID1のほうが、読み書きは早いのでしょうか?

あと、ディスク4本でRAID5より、ディスク6本でRAID1のほうが、読み書きは早いのでしょうか?

ディスクが多いほうが分散されると思っています。
846login:Penguin:2009/07/23(木) 02:26:16 ID:3imsFcFC
0だから省略しました。
847login:Penguin:2009/07/23(木) 09:52:32 ID:qiDHBMgG
すごく初歩的な回答ですが
> ディスク2本でRAIDより、ディスク4本でRAID1のほうが、読み書きは早いのでしょうか?
CPU、I/F、HDDによって変わります。

> あと、ディスク4本でRAID5より、ディスク6本でRAID1のほうが、読み書きは早いのでしょうか?
CPU、I/F、HDDによって変わります。

> ディスクが多いほうが分散されると思っています。
何を分散するのかによって変わります。

> 0だから省略しました。
絶対にしてはいけません。
848login:Penguin:2009/07/23(木) 11:22:28 ID:8POTqhQB
>>847
アクセスパターンでも劇的に変わるね
849login:Penguin:2009/07/23(木) 11:45:50 ID:EFHH30yz
RAIDコントローラ、S/Wによっても変わるな。
RAID1でも読込を分散するかしないかで速度は変わる。
850845:2009/07/23(木) 15:24:46 ID:vfIt/PSg
HW/SW構成、アクセスパターンがまったく同じだとしたら、どうでしょう?
851login:Penguin:2009/07/23(木) 15:33:54 ID:uOV4F5O3
ディスクの本数から違うじゃねーか。
852login:Penguin:2009/07/23(木) 15:44:50 ID:8UkaR5pJ
>>850
全くオーバーヘッドの無い理想的な環境だった場合
HDD単体のスピードを1とすると

ディスク2本でRAID1 読2 書1
ディスク4本でRAID1 読4 書1
ディスク6本でRAID1 読6 書1
ディスク4本でRAID5 読4 書3
853login:Penguin:2009/07/23(木) 15:47:22 ID:gCdLHcID
>>850
> HW/SW構成、アクセスパターンがまったく同じだとしたら、どうでしょう?
その条件では、RAID0、RAID1、RAID5という違いを実現できません。
そもそもHW構成が違います。
854login:Penguin:2009/07/23(木) 16:00:21 ID:PPvVwfNO
>>852
RAID1でディスク増やすとリードが高速化するの?ほんと??
855login:Penguin:2009/07/23(木) 16:24:10 ID:gHbo44d1
少なくともうちのCentOSのS/Rでは変わらなかった。
856login:Penguin:2009/07/23(木) 16:43:28 ID:4TKdBEiW
857login:Penguin:2009/07/23(木) 16:53:23 ID:gHbo44d1
逆にライトは落ちていくのかな
858login:Penguin:2009/07/23(木) 18:42:11 ID:SaCC6aML
>>854
Linux md、FreeBSD gmirror、Windows ダイナミックディスク、SiliconImageはやってる
859login:Penguin:2009/07/23(木) 23:40:40 ID:3imsFcFC
gmirrorでround-robinとかsplitとか選べた気がするけど、誰かベンチとってないかなぁ
860login:Penguin:2009/07/24(金) 00:10:53 ID:xsQ+pNmK
>>853
アホだなw
本数はしゃーないだろ。
861login:Penguin:2009/07/24(金) 00:52:50 ID:Ym8Z1KGq
俺には元の質問の方がよほどアホに見えたけどなぁ。
862login:Penguin:2009/07/24(金) 21:53:02 ID:xsQ+pNmK
そもそもRAID1って、二本でしか組めないのでは?
三本とかあるの?
863login:Penguin:2009/07/24(金) 22:01:32 ID:E29uHdXM
3重でも4重でもお好きなように
864login:Penguin:2009/07/24(金) 22:13:05 ID:KIzvPTN3
じゃおれ10本でRAID1
865login:Penguin:2009/07/24(金) 22:31:21 ID:ydsNYj2x
それもありだなw
読み込みは早そうだ
866login:Penguin:2009/07/24(金) 23:09:59 ID:l+AVACqG
3本以上だとアレイのレベルで多数決方式のエラー検出ができるようになる。

2本以下だと、各ディスクからのバッドセクタ報告でしかエラー検出できない
(エラー訂正はバッドセクタ出てないセクタを使うだけなので2本でも可能)
867login:Penguin:2009/07/25(土) 07:06:47 ID:oTazRiOm
> 3本以上だとアレイのレベルで多数決方式のエラー検出ができるようになる。

マイノリティ・レポート><
868login:Penguin:2009/07/25(土) 09:15:57 ID:6KUfOyM2
>>830
LVMのスナップショットは,スナップショット取得後に
書き込むとすさまじくパフォーマンス落ちるから,
あれをバックアップする時にデータの整合性を保つために
一時的に使う以外の目的で勧めるのは犯罪だと思ってたが,
案外そうでもないのか?
869login:Penguin:2009/07/25(土) 10:20:10 ID:Fb3lMXfZ
>866
だから、具体的にそれをやってるのはどれよ?

zfsみたいにデータのエラーを検出したときに他から補間するというのならともかくさ、
せっかく読み込みを分散させて早くやろうとしても「多数決」なんてアホな方法では
台無しどころか却って遅くなるだけなんだが。
870login:Penguin:2009/07/25(土) 11:49:37 ID:qTghIUgl
つまるところ、こういう輩>>869がいるんで、先人たちはストライピングを
RAID0と呼ぶことを拒んだわけです。
先人たちの努力も虚しく「多数決」なんてアホな方法でストライピングは
RAID0になってしまいましたがねw
871login:Penguin:2009/07/25(土) 12:27:18 ID:Fb3lMXfZ
>870

あのな、>866の話はRAID1について語っているわけなんだが。
おまえ、RAID1でのReadの分散とRAID0のストライピングの区別も付いてないんだな。

872login:Penguin:2009/07/25(土) 12:28:01 ID:mjUm0ZPG
二本以上でRAID1組んで何が楽しいの?
仮に四本あるなら10にしちゃうぜー
873login:Penguin:2009/07/25(土) 12:42:47 ID:qTghIUgl
>>872
そりゃ確かだ。

>>871
もちろん>>866はRAID1の話だよ。
だが>>869
> せっかく読み込みを分散させて早くやろうとしても
と言い出したから、RAID1の話をしているのに「高速化」に話を向けようとするとは…
本当にRAIDの事わかってんのかなあ、と茶々入れてみただけ。
874login:Penguin:2009/07/25(土) 12:51:31 ID:I24lKVkH
読みの分散はRAID1ではありふれた手法。
それをRAID0と混同する方がありえんわ。
875login:Penguin:2009/07/25(土) 13:09:28 ID:qTghIUgl
>>874
いや、だからね。
分散させる意義として>>869のように「わずかでも遅くなるなら無意味!」って
言い出したから、RAIDに「なにより高速であることを求める」なら、ストライピングで
我慢しとけばいいのにって思っただけなのよ。
876login:Penguin:2009/07/25(土) 13:22:39 ID:I24lKVkH
>分散させる意義として>>869のように「わずかでも遅くなるなら無意味!」って
言い出したから、

無意味というのは"多数決でのエラー訂正"についてだろ。
877login:Penguin:2009/07/25(土) 13:32:12 ID:qTghIUgl
>>876
そう「遅くなる」から"多数決でのエラー訂正"は無意味だと言ってるよね?
878login:Penguin:2009/07/25(土) 13:41:16 ID:G+5AW0O+
エラー訂正は原理としてできるようになる、ってだけで、
必ずやってるわけでも、やらなきゃいけないわけでもない。

遅くなるのが嫌ならしなけりゃいい。信頼性がほしければやればいい。
それこそ設計思想次第だ。869はそのあたりの区別ついてないわな。
879login:Penguin:2009/07/25(土) 14:25:01 ID:Fb3lMXfZ
なにか席を外しているうちにアホな方向に話が進んでいる様だが、実際にそんなことしても
メリットがなく需要がないから製品が出てこないんだしねぇ。

そもそも多方向ミラーで、多数決では数が多いことは正しいことを保障しない。同じch上の
ディスクが同じように壊れていた場合、実は少ない方のデータが正しいなんてこともある。
だから信頼性を得るためにチェックサムを持たせる訳で、コントローラーがブロック単位に
そうやってたりする。その場合は普通に並列で読み出して、エラーを見つけたらその時は
もう一方のディスクから読み直す。zfsみたいにfsレベルまでカバーしているものだと、
ブロック単位ではなくファイルの単位でチェックして補償する。
いずれにしても、最初から全部のディスからおくなんて遅くなるだけでメリットがないから
普通はやらない。

>878
設計思想というより合理性の問題。
880login:Penguin:2009/07/25(土) 14:35:58 ID:qTghIUgl
よしよし、その調子でRAIDのことをもっとよ〜く調べてみようね>>879
881login:Penguin:2009/07/25(土) 14:52:05 ID:Fb3lMXfZ
>880
その位にしておけ。
いくらなんでも子供の強がりにしか見えない。
882login:Penguin:2009/07/25(土) 15:34:05 ID:G+5AW0O+
>>879
>そもそも多方向ミラーで、多数決では数が多いことは正しいことを保障しない。同じch上の
>ディスクが同じように壊れていた場合、実は少ない方のデータが正しいなんてこともある。

チェックサムだけが壊れる場合を想定してみな?

多数決もチェックサムもECCもエラー検出と訂正のやり方が異なるだけで、信頼性を
得るという点では同じ。検出能力・訂正能力・コストの違いでしかないのに、
わざわざ区別して比較もなしに多数決に信頼性がないとか言ってしまうのは滑稽だねぇ。
まだまだ理解が甘いよ。
883login:Penguin:2009/07/26(日) 10:27:34 ID:zhSG5XX7
MAGIに信頼性がないって言ってるのか?このやろう
884login:Penguin:2009/07/27(月) 01:03:07 ID:+HNEeE0D
Software RAID した場合、ディスクの故障時はどうやって知るんでしょうか?
syslogの監視スクリプトを回すんですか?
885login:Penguin:2009/07/27(月) 01:42:24 ID:wX7L9b2s
つmdadmのモニタモード #ログ監視でもおけ
886login:Penguin:2009/07/27(月) 13:31:30 ID:iWpfkHHw
1TBのディスクを2つ買ってRAID1にして増設したいとおもっています。
LinuxのソフトRAIDです。

同じ機種でRAID1を組むと同時に壊れる可能性があって意味が薄れる
という意見がありますが、みなさんは2つの機種を組み合わせてますか?

今だとカカクコムの
1位のHDT721010SLA360 (1TB SATA300 7200)

2位のWD10EADS (1TB SATA300)
を組み合わせるとかするのでしょうか。

あるいは気にせず同じ機種2つでやってますか?


887login:Penguin:2009/07/27(月) 13:41:38 ID:yERWMvNo
気にしない
888login:Penguin:2009/07/27(月) 13:44:31 ID:B/WksD4T
1分1秒同時に壊れる可能性なんてほぼ0だろうし
気にしなくて良いかと。現に数年運用しているがそもそも
1台も壊れたことない。
889login:Penguin:2009/07/27(月) 13:45:36 ID:B/WksD4T
書き忘れ。壊れる前に容量が足りなくなってディスク交換
再インストールの方が多いなw
890login:Penguin:2009/07/27(月) 15:03:54 ID:VXnrrvY1
同じ機種の方がsmart情報を比較できたりするし個人的には好きだな。

891886:2009/07/27(月) 16:11:01 ID:iWpfkHHw
なるほどです。
気にしないで同じので行くことにします。
皆さんありがとうございました。
892login:Penguin:2009/07/27(月) 22:52:57 ID:wX7L9b2s
個人でだとHDDのファームバグとかにぶつかって移行した後(=切り戻しが
できなくなった後)で全HDDの交換・修理が必要とかなるとガクブルなので、
HDDは3台買って、2台は通常稼動させるRAID1で同じの、1台は別のメーカで
バックアップ用、とかしたほうがいいかも。

・・・と最近の海門事件で泣かされた俺が言ってみる。

893login:Penguin:2009/07/27(月) 23:50:00 ID:GBfB+zC9
ごちゃまぜのソフトRAIDでも、4台でRAID5やるとそれなりに速くなるな。
894login:Penguin:2009/07/27(月) 23:53:45 ID:o0m366If
個人的にはHDDはメーカーそろえるけどね。
メーカー、出荷時期が同じだからといって、同時に壊れるなんて、都市伝説じゃね?
不具合はのぞいた話ね。
895login:Penguin:2009/07/28(火) 06:20:58 ID:QlvXkbgA
>>894 まさにその不具合を避けるために、HDDのメーカは分けてる。
同一メーカ同一型番を同じ店で買うと同じロットの可能性が高いし、
かといって複数の店で買うのも面倒だ。
896login:Penguin:2009/07/28(火) 09:37:30 ID:hnSTLGA3
どうせ出来合いのサーバー買っても、同一のHDDでRAID組まれてる。
897login:Penguin:2009/07/28(火) 14:10:19 ID:BxFslx9I
出来合いの奴は、余程なメーカーでない限りエージング済みだがな…
898login:Penguin:2009/07/28(火) 14:25:09 ID:w0P0QAYm
エージング済みと書かれてれば高く売れるしな
899886:2009/07/28(火) 14:25:17 ID:d0ZK3SKF
ファームバグなんて10年に1度当たるか当たらないかですが、
当たったことのある人にしか痛みがわからないですよね。

やはり別メーカー2機種にしておく方がより安心ですね。
データが無くなるのは取り返しが付かないです。

逆に同じ機種にしたほうが良いことって「smart情報を比較できる」
以外にありますか?

900login:Penguin:2009/07/28(火) 20:53:18 ID:cfCC4a3c
3ware Escalade 9500S-8 を使って 300GB×4でRAID 5 約900GBのアレイを使っていたのだが、
手狭になって来たので 1.5TB×3で新たにRAID 5のアレイを作った。

で、旧アレイから新アレイへと cp -a * で丸ごとコピーしているんだが……
開始から約5時間でようやく100GB終わったところ。
つーことは、あと約700GB全部コピー終わるのは約35時間後…
う〜む。トータルで丸二日近くかかる計算に。
大雑把に計算すると 100000MB/5h/60m/60s = 毎秒 5.5MB程度?
えらく遅いですよね。公式サイトには

> エスカレード 9500S ハードウェア RAID コントローラは実行値で400 MB/秒以上 RAID 5 読み取り、
> および100 MB/秒以上 RAID 5 書き込みという性能を 3% に満たない CPU 使用率で実現します

と書かれている。何がマズいんだろ。
同一カード内のアレイ間の移動だとこんなものなのでしょうか?
901900:2009/07/28(火) 21:00:17 ID:cfCC4a3c
書き忘れました。

使ってるドライバは kernel 2.6.16 に入ってる標準ドライバです。
メーカーが出してる最新版ドライバを使えば劇的に速くなる
てなことはあるのでしょうか?
(つまりLinux標準ドライバが劇的に遅いという事実はある?)
902 ◆Zsh/ladOX. :2009/07/28(火) 21:28:33 ID:BB5WK76B
2.6.16使ってる鳥なんてあるのか。
ま、それは別として遅杉だな。
903login:Penguin:2009/07/28(火) 22:11:17 ID:LAvG5GBL
情弱Vineだろ
904login:Penguin:2009/07/28(火) 22:50:34 ID:I0tqAjdR
>>903
そんなに Vine が好きなのかw
905login:Penguin:2009/07/29(水) 08:34:15 ID:vy39CNTL
>>900
新アレイがビルド中で、すごく負荷がかかっているとか?
906900:2009/07/29(水) 19:37:45 ID:yXXhe56q
すんません。
なぜか新アレイの方のライトキャッシュがOFFになってました(汗)
ONにしたところ 30〜35MB/s程度は出るようになりました。
# それでもメーカーの言う 100MB/sからは程遠いけど…
# やっぱり同一RAIDカード内の移動だから?

しかし、ライトキャッシュの有無でこんなに差がデカいとは知りませんでした。
いい実験になったw
907login:Penguin:2009/07/29(水) 20:47:05 ID:C5UGnnzw
>>906
同一カード内だからというより、PCIのカードだからじゃない?
908907:2009/07/29(水) 21:13:37 ID:C5UGnnzw
ごめん。64bit、66MHzに対応したカードみたいだから違うかも。
909login:Penguin:2009/07/29(水) 21:50:48 ID:xHRBI2w+
マザーがPCI-X使えなかったりして。
910login:Penguin:2009/07/31(金) 10:15:23 ID:opAatXfg
「なぜかライトキャッシュoff」なんじゃなくて、既存ボリュームの速度維持のためでない?
仕様として明記されていないかもしれないけど
複数のボリュームを構築することは推奨されていないのかもしれない。

mdドライバーがそういう挙動をするけど、RAID5新規構築では
リビルド処理として構築するほうが高速と言われている。

考えられる改善方法として、現在読み出ししか使わない古いボリュームを
ライトキャッシュoffにして、新しいボリュームのライトキャッシュを効率化。
それによって、リビルド中の書き込みが大幅に改善する可能性がある。


ちなみにうちはPCI-eのSATAカード一枚,md,dualcore2GHzでRAID10しているけど
2GBのファイルの同ディレクトリー別名コピーが49秒で終了する。
#vnc下のローカルファイルアクセスで計測

40MB/sでコピーできてる。/dev/nullに捨てると2GBを15秒で読み出せる。
WDグリーンの1TBx4だから、けっして速いHDDを使っているわけではない。

CPU負荷は低く、ほかのHDD上のファイルを複数エンコード中に、同様のコピーをすると
遅くなるどころか、高負荷下でクロックが倍増、書き込み速度向上で、36秒で終わる。

というか、これファイルサーバーとして設定がまずいことに今気づいた。

mdがもっと優先度高く動くようにしてやればいいのか?
それとも、cpufreqdの設定をもっとセンシティブにするか?
911login:Penguin:2009/07/31(金) 23:09:37 ID:Quc7GWrm
日本語勉強してまた来ましょう
912login:Penguin:2009/08/01(土) 01:28:19 ID:8oacFaY1
>>910
>/dev/nullに捨てると2GBを15秒で読み出せる。
おーい、現実世界に帰ってコーイ。
913login:Penguin:2009/08/09(日) 11:50:53 ID:OciFjnos
9650SE-8LPML-KIT
9650SE-8LPML
9650SE-8LPML-SGL

RAIDカードを買おうかと思うのだが、これらの違いは何?
914login:Penguin:2009/08/09(日) 13:15:08 ID:DOJSkVzQ
>>913

上2つは多分同じもの

9650SE-8LPML-SGLはMulti-lane break-outケーブルが省かれたパッケージ(single pack)
(マニュアルによるとバルク版もケーブルなし)

ケーブルはこんなの↓
ttp://www.oliospec.com/item_detail/itemId,376

普通の人は9650SE-8LPML-KITを買えばOK
915login:Penguin:2009/08/11(火) 00:34:37 ID:x2SvSkoB
>>912
実際問題、ソフトウェアRAIDの速度の相場はどの辺なの?
RAID5,10での読み出し書き込みとか…
916login:Penguin:2009/08/11(火) 11:25:54 ID:jYOBJKlM
そんなの使ってるハードウェア依存だろて。
917login:Penguin:2009/08/11(火) 12:36:07 ID:FYm7g77t
うちの環境でこのくらい
4台でmdのraid5
ディスクはバラバラで、一番遅いドライブが Barracuda 7200.10

$ dd if=/dev/zero of=test.zero bs=1024 count=10240000
10240000+0 記録始め
10240000+0 記録終わり
10485760000 バイト (10 GB) コピー終了, 104.255 s, 101 MB/s
$ dd if=test.zero of=/dev/null bs=1024 count=10240000
10240000+0 記録始め
10240000+0 記録終わり
10485760000 バイト (10 GB) コピー終了, 50.5835 s, 207 MB/s

書き込みが一番遅いドライブの2倍、読み込みが一番遅いドライブの3倍くらいといったところか。
918login:Penguin:2009/08/11(火) 12:56:54 ID:wRJhMhAx
CPUやSATA/IDEのコントローラ等々にも依存するのでは
919login:Penguin:2009/08/11(火) 13:03:02 ID:FYm7g77t
ボトルネックになるほど細くない限りは変わらんでしょ。
高負荷時は別だけど。
920login:Penguin:2009/08/14(金) 09:11:56 ID:JxCC0oUB
初歩的な質問ですみませんが、
RAID0組んでるHDDを電源とSATAを一度MBから抜いてまた同じ所に差し込んで元に戻すと前のデータ見れなくなったりしますか?
やってみれば分かる事だとは思いますが、バックアップするハードディスクも手持ちがなく、データが使えなくなると困るので、誰か教えてください。
921login:Penguin:2009/08/14(金) 09:49:49 ID:71s9m2K9
やってみれば分かる
922login:Penguin:2009/08/14(金) 10:13:18 ID:Bflix4To
データが使えなくなると困るのにRAID0ってありえないな。
923login:Penguin:2009/08/14(金) 12:21:30 ID:hqUEOy8y
確かにww
明らかに論理が矛盾してる
924login:Penguin:2009/08/14(金) 12:40:01 ID:Y5LWfhun
Unexpected Inconsistency - fsck manually! って感じですか
925login:Penguin:2009/08/14(金) 13:14:00 ID:BEe7EOWn
>バックアップするハードディスクも手持ちがなく
買えよw
926login:Penguin:2009/08/14(金) 13:33:45 ID:aeUBRV+u
>>920
やりたいことがいまいち不明。
何をしたいのかな?

まさか活線挿抜したいとかってことではないよね?
927920:2009/08/15(土) 00:38:06 ID:C0J0IAfI
そうですね、組み立てた時はとにかく速く動くようにしたかったんですが今思うと少し後悔してます…orz

ケースの取替えをしたいんですが…
誰か知ってる人いたら教えてもらえませんでしょうか?
928login:Penguin:2009/08/15(土) 01:10:27 ID:B5bx+teh
>>920
PCのコンセント抜いたらHDD上のデータが消えちまうようなPCって
どこかで聞いたことあるか?
929920:2009/08/15(土) 01:30:45 ID:C0J0IAfI
コンセント抜いてもCMOSはついててMBの電源?は切れてないですよね?
その状態でSATAを抜いても大丈夫なんでしょうか?
930login:Penguin:2009/08/15(土) 01:49:58 ID:J+6HndS1
自作PC板かハードウェア板逝け
931login:Penguin:2009/08/15(土) 01:56:29 ID:ViFUIe5U
>920
大丈夫だよ。
おまえのデータ全部消えちゃえ。
932login:Penguin:2009/08/15(土) 02:26:28 ID:ur3BVZX8
>>929
そういうレベルでLinuxのRAIDなんか使っちゃ駄目だよ。
コンセントを抜けば電源は完全に落ちる。
心配なら電源から出ているSATAのコネクタをテスターで測ってみ。
CMOSバッテリーはBIOS関連情報の保持で使うに過ぎない。

あとは>>930氏のいうようにスレを引っ越すのが吉。
933login:Penguin:2009/08/15(土) 02:31:14 ID:vp0q0mAw
FakeRAIDでWindowsを動かしている可能性
934login:Penguin:2009/08/15(土) 17:56:51 ID:wrXrviiq
>>929
活線挿抜でもしない限り大丈夫だよ。みんな何故この一言が言えないのか。
それ以上聞きたいならスレ移動どうぞ。
935login:Penguin:2009/08/15(土) 17:57:36 ID:wrXrviiq
あ、あと1本抜いたまま電源入れたりしても駄目だから注意ね。
936login:Penguin:2009/08/15(土) 22:58:31 ID:XWR81QLK
つか、そのレベルの知識しか持ってないヤツが
「ケースの取り替え」とか一体何考えてるんだ?
おとなしくメーカー製のPC使ってた方がいいと思うぞ。
自作したいなら、自力でモノを調べる技術をもちっと身につけんと。
937login:Penguin:2009/08/16(日) 20:25:22 ID:tg/bE0eZ
ちょっと知識を覚え始めた奴に限って偉そうに言う法則
938login:Penguin:2009/08/19(水) 22:21:55 ID:bRryD85g
mdadm の RAID 5 の grow(アレイの拡張)機能なんだけど、
TBクラスのドライブを使った場合どれくらい時間が掛かるものでしょう?
ぐぐってみても二桁GBクラスのものの例しか見つからなくて。
例えば 70GB×3個→4個 の拡張で 3時間とか。

容量に比例して時間が掛かると思っていいのかな。
1TBドライブとすると70GBの約14倍として 3×14=42時間?

誰かTBクラスのHDDでgrowやった経験のある方いませんか?
939login:Penguin:2009/08/19(水) 22:26:54 ID:bRryD85g
あ、>>628 に一例出てましたね。
CPU速度とかメモリの量にも依存するかな。
940login:Penguin:2009/08/19(水) 22:31:01 ID:VW8uXcc8
>921
941login:Penguin:2009/08/19(水) 22:38:02 ID:VTvYzTxQ
なにより、使用状態に依存するだろう。
動いてるサーバとかだと極端に遅くなる。
942login:Penguin:2009/08/20(木) 10:37:29 ID:C7HDGTrh
>>938
小さいサイズでやってみりゃいいのに。
原理から考えてボリュームサイズに比例、後は他タスクの負荷しかないから予測できる。
943login:Penguin:2009/08/20(木) 11:26:06 ID:qjr3+1CJ
>>942
・小さいサイズの事例はネット上に沢山ある
・大容量のときは違いがあるのか(容量に比例なのか?)が知りたい
というのが質問の主旨なのですが?

・基本的にサイズに比例
・使用中だと非常に遅くなる

ということで理解しました。
ありがとうございます。
944login:Penguin:2009/08/20(木) 23:27:33 ID:C7HDGTrh
>>943
ちゃうちゃう。回答の1行目は
比例するかどうか小さいサイズでやってみて傾向をつかむ
って話。言葉不足は謝る。
てっきり、重要なのは事例よりオーダーってあたりをきちんと
理解していると思っていた。
945login:Penguin:2009/08/21(金) 12:17:34 ID:Rpu3j5AM
しかしテストに使える
小さいサイズのHDDを3つも4つも
常に持ってる人がどれだけいるのかと
946login:Penguin:2009/08/21(金) 20:28:24 ID:F/cVcRPa
18GのSCSIならドミノ倒し出来るぐらい転がってるが
947login:Penguin:2009/08/21(金) 23:32:03 ID:x3quQyzC
>>946
いいなぁ、うちには9GBと4GBしかない。
その後財布がヘタれて以来ATAですわ。
948login:Penguin:2009/08/23(日) 01:14:48 ID:qvulVkfA
>>945
仮想環境
949login:Penguin:2009/08/23(日) 13:00:35 ID:9GRsMInL
そういえば、サーバに入れてるSCSI16Gのハードディスク、ぼちぼち稼動10年だが結構もつもんだな。
ちなみに、RAID1とスタンバイ1つ。
950login:Penguin:2009/08/23(日) 15:07:32 ID:04GPXW4u
>>948
実際に使ってる環境でどの程度時間が掛かるのかは
小さいサイズで試せば分かる、という話をしているときに
仮想環境でどうしろとw
951login:Penguin:2009/08/23(日) 16:01:48 ID:gT2wZbrq
debian raid6が起動できなくなりました。どなたか教えて下さい。

sudo mdadm -A /dev/md0 /dev/hdb1 /dev/sd[abcdef]1 --force --runを実行すると。

mdadm: /dev/sdd1 overrides previces devices due to good homehost
mdadm: /dev/sde1 overrides previces devices due to good homehost
mdadm: /dev/sdf1 overrides previces devices due to good homehost
mdadm: failed to RUN_ARRAY /dev/md0: Input/output error
mdadm: Not enough devices to start the array

どうしたらいいんでしょうか?
952login:Penguin:2009/08/23(日) 22:13:48 ID:rgfSbiSD
        _,l;;;;;;;;;;;;;l,,_
      ,.r'´;:  八  '::..゙ヽ
      ,.'___ _立_ __;;ミ゙;、     フT
      l厄巳厄 i王i ,.巳厄巳l     夕 ヒ
   ,.-'l i,.:'  ヽ:.、 ;.:' ' ヽ |,.、  
   /{´iY´ヾーtッ-ヽ'' kーtr-,'´lri   _l_
   {_i,入::.. ` ̄ ̄,'i!ヽ;` ̄´ ゙::.}rリ    i,_
   ヽ_ノiヾ ;:. _ i': ll!:,ィ ._ .: j,ノ
  ッジ::;;| ,r'´;;:> ̄弋´;;::ヽ;r1:゙'イィ   ┬‐宀
  弍::::::::l i':;r'´ ,.-ーー-、.ヾ;:;i. |:::::::ス   ノ□隹
   彡;:::l l::l  '  ---;:, ゙ l::l |::;;ャ`   、
   ,r',广ヽl::l ::. .:   ゙:.  l:lノ^i`、   三刃
  ,イ(:::j   i::iヽ  :.    .: /l:l'" l:ヽヽ  口心
 |;:;.\\ l::l  ', :;:::..::. /  l:l,r''/;::;;|
953login:Penguin:2009/08/26(水) 14:17:25 ID:AgkN0xmW
CentOS5でmdのraid1を組んでます。

>sdd: Current [descriptor]: sense key: Medium Error
> Add. Sense: Unrecovered read error - auto reallocate failed
とディスクの片割れが死にかけなのですが、
>raid1:md0: read error corrected (8 sectors at 1139297800 on sdd)
>raid1: sdc: redirecting sector 1139297752 to another mirror
とsdcに読みにいって何も無かったかのように動いてます。
>Personalities : [raid1]
>md0 : active raid1 sdd[0] sdc[1]
> 976762496 blocks [2/2] [UU]
sddは切り離されると思ったのに、そうでもないようです。

sddのどこか別のセクタを(ドライブがではなく)mdが代替して使っている
ということなのでしょうか?
954login:Penguin:2009/08/26(水) 14:42:09 ID:IGpPnFbc
単に健康 - 死亡の境界ギリギリのところにあるってだけなんじゃねーの?
ある瞬間アクセス不能だったところが、もう一度アセスしてみたら読めた
てなことは死にかけの時にはよくあると思うが。

俺ならさっさと交換するけどね。
955login:Penguin:2009/08/26(水) 15:00:17 ID:AgkN0xmW
>>954
そういうものなんですね。
エラーが上がりはじめたんでバックアップ取ってたら、mirrorから読んだよ
ってメッセージが来てたんで、てっきり切り離されたものだと。

$ cat /sys/block/md0/md/rd0/errors
16
といってるけど、週末買ってくるまで持つかな・・・
956login:Penguin:2009/08/27(木) 12:30:29 ID:hKclFF4A
smart見てみたら?
957915:2009/09/04(金) 04:28:14 ID:0fr+u1C9
なんか規制くらいまくりで日が開いちゃいましたけど…
100MB/s程度の速度はソフトウェアRAIDで出るんですよね?
912での「現実世界に帰ってこい」は、何を指した話だったんでしょうか…

実際やってみたら、RAID10で100MB/s程度はなんか余裕みたいで出るみたいですし。
958504:2009/09/11(金) 15:28:27 ID:Mg2qS551
ぎゃ〜、utorrentでDLしたファイルをウィルスチェックし忘れて実行してしまいました、泣。
OS復旧は諦めてソフトRAID0で組んだCドライブのデスクトップにあるデータを救出したいがknoppixもwindowsPEではRAIDドライバーうまく組み込めずドライブが認識しまません。
神様がたはこんな時どうやって救出してますか?
959login:Penguin:2009/09/11(金) 15:54:26 ID:IWkTWoam
水でも飲んで
落ち着いて
組み込めないのは一体「何」のドライバーなのか
くらい書いた方がいいのではないだろうか
960login:Penguin:2009/09/11(金) 15:54:41 ID:Pvo5USJ8
RAIDカード何つかってるかくらい書いたら?
961login:Penguin:2009/09/11(金) 15:57:33 ID:IWkTWoam
あと、飛んだOSが何なのかとか
どういうHW/SW構成なのかとか
その辺も
962login:Penguin:2009/09/11(金) 16:17:44 ID:ixqeNfFx
RAID0を実運用する奴は間違いなく知障
963login:Penguin:2009/09/11(金) 17:33:28 ID:Pvo5USJ8
>>962 脊髄反射乙
964504:2009/09/11(金) 22:27:32 ID:Mg2qS551
水を飲んで落ち着いたところで、汗。
使っているRAIDドライバーはIntel 82801 GR/GH SATA RAID Control Desktop ICH7Rです。
HDはSATA HDはx2でソフトウエアRAIDで構成してます。HDは壊れていないです。よろしくお願い致しますm(_ _)m
965login:Penguin:2009/09/11(金) 22:38:03 ID:IMWEtcSP
>>964
Win7RCにたしかICH*Rのドライバが入ってるはずだから
あとはわかるよね。
966504:2009/09/11(金) 22:51:35 ID:Mg2qS551
修復インストールですか?
967login:Penguin:2009/09/11(金) 23:39:04 ID:iuRJ2qrf
>>966
"ich7r bartpe"でググるとそれっぽいの出てくるけど?
968login:Penguin:2009/09/12(土) 02:29:34 ID:YHlxwivB
某が、RAID5にすれば冗長性があって、HDDが一台壊れてもデータは
失われないといって、重要なデータをみなデータ用にRAID5を組んだマシンに
入れていた。ある日、マシンが落ちていた。OSは立ち上がったが、
RAID5の領域はアクセスできなくなっていた。RAID用のインタフェース
カードが死んでいた。しかし、その古いカードの予備は持っていなかった。
969login:Penguin:2009/09/12(土) 02:53:55 ID:vVYS7Bzx
>>968
SPoF
970login:Penguin:2009/09/12(土) 05:44:36 ID:WF5EZOr/
RAIDは可用性を高めるものであって
信頼性を高めるものではないと何度言われれば
971login:Penguin:2009/09/12(土) 12:14:46 ID:HuiFlnI2
>>968
だからRAIDカードのスペアが用意できないときはソフトRAIDにしろと。
972504:2009/09/12(土) 16:16:31 ID:VjJQAsUX
ubcd4winの立ち上げ中にRAIDソフト入れて無事CドライブのデータをDドライブに引越し完了!その後CドライブにOSを再インストールして無事終了。
ありがとうございました。
973login:Penguin:2009/09/12(土) 16:50:09 ID:kqqKb9jU
RAID5の場合リスクって台数が多いほど高い?
いまだそこが良くわからないんだけど
RAID0だと1台壊れたらXなので台数が多いとリスクが高くなるのはわかるんだが
974login:Penguin:2009/09/12(土) 16:56:44 ID:HuiFlnI2
RAID5は2台壊れたらアウト
975login:Penguin:2009/09/12(土) 17:07:25 ID:kqqKb9jU
>>974
それはわかってるんだが

結局RAID0の1台とRAID5の2台のといった風にだめになるだいすうがちがうだけだから
RAID5もRAID0みたいに台数が増えればリスクは一緒なのかな
実際1台壊れて入れ替えたときのRebuild作業は当然容量が小さい方が速い訳だから
台数減らして電力消費減らすか台数増やしてRebuild速度上げるかなのかな(純粋なアクセス速度も含めて)
976login:Penguin:2009/09/12(土) 18:53:52 ID:Ioy6P6Mw
??
一台こわれるのはセーフ、二台こわれるのはアウト系だと、RAID1が一番強いぞ。

そういうの気にするなら、
二台こわれるのはセーフ、三台こわれたらアウトのRAID6にするか、
RAID5xRAID1とかで、RAIDアレイそのものを多重化するか、

もうちょっとがんばってDUALマシン構成にしてシステムレベルで多重化しろ。
977login:Penguin:2009/09/13(日) 03:47:56 ID:0qxz3ncv
>>975
それであってる。RAID0は論外というだけで、台数が多い場合はRAID5でも
RAID6でも信頼できなくなる。なので、全部まとめて1つにするのではなく、
多段RAIDにしたり、ある程度の規模に収まるようなRAIDセットを複数作る、
みたいにする。
978login:Penguin:2009/09/13(日) 04:34:44 ID:jb7/YFeO
>>977
サンクス

絶対壊れてはってわけではないので
とりあえずドライブの値段とか総合的に考えて1TB4台か1.5TB3台か検討してみます
979login:Penguin:2009/09/13(日) 23:23:33 ID:2J8RFZeH
RAID2段じゃない場合の耐障害性なら
RAID1+LVM最強
980login:Penguin:2009/09/13(日) 23:33:20 ID:F3D++pAz
LVMと耐障害性の関係が意味不明
981login:Penguin:2009/09/14(月) 01:08:05 ID:BMadGLtW
別にRAID1ったって2重化と決まってるわけじゃないだろ。(たしか)
4重ミラーとかにすれば、多段にしなくても、耐障害性はもっと向上できるでしょ。

もちろん、容量効率は大幅に悪化するけどね。
その耐障害性と容量のバランスをとった落としどころがRAID6とかなわけで。
982login:Penguin:2009/09/14(月) 15:00:38 ID:1z4aVD1f
RAID6はRAID5を改善しただけで、RAIDとしてのバランスをとったわけではないと思うけどね。
そういった意味では、やはり大容量・高速化への答えとしてはRAIDx0系統がバランスをとったと言えるかもね。
983login:Penguin:2009/09/14(月) 19:36:09 ID:4GcKXK68
RAIDに高速性を求める奴は知障
984login:Penguin
>>982
んなこた〜用途次第でどうとでも変わる