LVMを語らせていただけませんか?

このエントリーをはてなブックマークに追加
1login:Penguin
ワタクシ、Linus V Minusというものです。

LVM(Logical Volume Manager)なんてものに興味を持っています。ちょっとニッチなんですが。
こんな、小さなスレッドですが、にちゃんねるに作成してもよろしいでしょうか?

いえいえ、ワタクシの周りに使っているものがいないもので。(周りは年寄りばかりで、新しいことは躊躇されます)

以上、よろしくお願いします。
2login:Penguin:02/06/15 15:51 ID:t+syZMfW
3login:Penguin:02/06/15 15:54 ID:7xlbr7s1
>>2

絶句。RAIDとLVMの違いも知らないバカ。
4login:Penguin:02/06/15 15:57 ID:t+syZMfW
>>3
知ってるよ。
5login:Penguin:02/06/15 15:59 ID:7xlbr7s1
>>4

そいつはしつれい。
6login:Penguin:02/06/15 16:30 ID:exnKqpf5
でも、LVMとRAIDは似てるようで相対する機能でない?
7login:Penguin:02/06/15 17:11 ID:t+syZMfW
>>6
別スレにするほどでもない。
向こうはぜんぜんスレ伸びてないし。
8login:Penguin:02/06/15 17:11 ID:RyiV8F8O
>>6
相対するというより、層が違う
LVMの方がより上位層にある機能だよ
RAIDで冗長化しておいた上で、LVMを使うのが基本
(LinuxのLVMにはRAID機能がないので)

LVMは面倒臭そうだけど使ってみると便利だよね
私はガシガシ使ってます。ルートパーティション
のLVM化もinitrd使えばOKだし、イメージ作成用
のスクリプトもある

何げにLVMで一番便利なのがsnapshotですな
うっかりミスでファイルを消しても、復活でき
るので精神安定上非常によろしいです



9login:Penguin:02/06/15 17:12 ID:exnKqpf5
まあ、今までなかったんだからいいじゃん。
10login:Penguin:02/06/15 18:04 ID:RyiV8F8O
>>9
ごめん、スレの流れ見てなかった
別スレの必要性について書いてたのな
そういう意味だと 9 氏に賛成です
私もRAIDとLVMは別スレで良いと思います

LVMについて何か疑問がある人は書いてみて
答えられる範囲で書くよ
(ってもあまり高度なのは無理だが)
11hage:02/06/15 18:12 ID:PjhDhW5w
LVMとかRAIDとかってなに??
12ソラネーヨ:02/06/15 18:39 ID:bzu/YXEd
シラネーヨ
13hage:02/06/15 18:46 ID:PjhDhW5w
>>12
ダメジャン
14login:Penguin:02/06/15 19:30 ID:nCkE/Jdo
>>11
RAID は別スレでっつーか検索すれば山程出てくる。
LVM ってのはさー、あれだよ。ハードディスクを増設するときさー
tar で吸い上げたりー、cp -a でコピったりー、面倒じゃん。
単に増設して登録するだけですぐに容量が増えたら便利じゃん?
そういう機能。
1510:02/06/15 21:18 ID:RyiV8F8O
おわっ、ちょっと目を離しているスキに(゚∀゚)アヒャ
レスが増えている

>>11
本当に知らないとは思えないけど(^^;

RAIDってのは複数のディスクを組み合わせて信頼性
の高い仮想ディスクを作る技術です。信頼性向上で
はなく入出力性能向上を目的とした組み合わせ方も
あります。

LVMってのは複数のディスクを組み合わせて管理性
の高い仮想ディスクを作る技術です。サイズ可変な
ファイルシステムを使えば、データを保持したまま
ディスク容量を増減できます。ext2はサイズ可変な
ので、14さんの言うようなことが実現できます
16login:Penguin:02/06/15 22:34 ID:7xlbr7s1
1です。よかったです、理解してくださる人がいて。

みなさん、LVMって誰か使ったことありますか?安定性が気になります。
それと、オンラインでファイルシステムを大きくできますか?たとえば、ext2で。

1710:02/06/15 23:37 ID:RyiV8F8O
>>16
LVMのソフト的な安定性は問題ないレベルだと思います。
少なくともバージョン1.0以降では、ファイルが飛んだり
するような経験はありません

ただ、RAIDかますとかしないと、物理HDDの台数が増える
に従って、障害発生の確率も増えるでしょうね
# 私はLVM単体でも使っていますが(^^;;

ファイルシステムの増減はLVMの機能ではなくてファイル
システム自身の能力になります。ext2/ext3はresize2fs
を使って増減できます

他のファイルシステムは…どうでしょう?
ざっと調べてみると

reiserfsは可能
ftp://ftp.namesys.com/pub/reiserfsprogs

XFSも可能(xfs_growfs)

JFSはダメっぽいような感じです
http://oss.software.ibm.com/pipermail/jfs-discussion/2002-April/001029.html

18 :02/06/16 00:31 ID:Kudjb0GB
どうやっても、単一のスワップファイルもしくはスワップパティションの
サイズが2GBまでしか取れないのは、さっさと直して欲しい。
仮想記憶を3GB近くまで使うジョブが沢山並行に走るためには
スワップの容量の合計をたとえば40GB程度取りたいのだが、
それだと2GBのファイルもしくはパティションを20個とらねば
ならず、しかもそれだとその20個をまたぐシークが乱発して効率が悪い。
1910:02/06/16 04:44 ID:+UBZzpOs
>>18
誤爆?LVMはVMとは関係ないにゃ…

でも、言っていることには賛成です
誰かpatchを作ってないかと小一時間検索したけど
どうも無いみたいですね

しかし3GBのメモリーを使うプロセスが沢山走る環境
ってのはすごいですにゃ。差し支えなければどういう
業務か教えてほしい(Linuxを使ってる理由も(笑))

効率を上げるには、現状、RAMディスクしかないかなぁ
40GBだと滅茶苦茶高いですが(^^;
20login:Penguin:02/06/16 11:09 ID:YjSon8ga
21hage:02/06/16 13:55 ID:q2CxyG79
わしゃんとろこはext3じゃ。ext3は対応しとるかノー。
22login:Penguin:02/06/16 14:23 ID:32ZN6WA2
>>19
以前にも見たコピペだよ。内容はもっともだけどな。
複数スワップがある時のストライピングを止められればいいのに。
数年以内に一般的なシステム上でも問題になり始めるだろう。
ちょっと前まではスワップの上限が 128Mbyte だったのにな。
3G のメモリーを一度に全部使うわけじゃなくて、
それだけの仮想空間を使うって事だと思う。
データベースをまんまメモリマップしたりするとありえる。
オーバーコミット出来ないと同じだけのスワップ領域が必要。
23login:Penguin:02/06/16 14:29 ID:32ZN6WA2
>>22
ファイルのメモリマップじゃスワップは消費しねぇか。
科学技術計算ぐらいしかそんなアプリケーションなさそうだな。
2410:02/06/16 17:47 ID:+UBZzpOs
>>21
ext3にも対応してますよ。
普通に使う分には何も考えずに使えます。

ただ、ジャーナリング機能を持つファイルシステムでsnapshot
機能を使う場合はカーネルにVFS-lockパッチの適用が必要です。
VFS-lockパッチはLVMのソースと一緒に配布されています。

>>22
コピペだったのか…(´・ω・`)ショボーン
でも確かに科学技術計算ぐらいしか思い付かないんすよね。
複雑な行列計算をバンバンやってるような。

「数年以内に…」のところも同感です。
もっとメモリー積めるマザボが安ければいいんですけどね。
せっかくPAEとかに対応してもマザボが手軽に入手できないんじゃ…
2510:02/06/17 07:02 ID:+q4op+if
う〜ん、やっぱLVMって皆関心ないんだなぁ(^^;
スレ立てた1自身もダンマリだし

LVMってsnapshotだけでも十分便利ですよ。
snapfsなき今、Linuxでsnapshot利用するにはLVMしかない!

snapshotってのはある時点でのファイルシステムの状態を保存
したもので、snapshot作成後に間違ってファイルを削除しても
簡単にファイルを復元できます。

# lvcreate --size 1G --snapshot --name snap /dev/vg/lv

のように論理ボリュームにsnapshot専用の論理ボリュームを
設定してやると、それ以後に/dev/vg/lvに変更が加えられて
も、snapshotボリュームをマウントすれば、snapshot作成時
の/dev/vg/lvのデータを読みだせます。バックアップと違っ
て不必要にディスク領域を消費しないのがとても良いっす。

さぁ、みんなもLet's try!
26くそー:02/06/18 10:39 ID:l2tmV5IC
ってか、LVMをどこで使うのかがわからない。

ディスク増設することなんて頻繁に無いし。

もっと実用的な裏技を教えてくれ。
2710:02/06/18 10:59 ID:oZ3tDD9i
>>26
それをLVMのスレに書いてどうする(藁
煽りにしては低級すぎるな

悪いけど私はディスク増設を頻繁にするしLVMは必需品
自分の使い方だけがすべてではないと知ってくだされ

んでさ、そうでない人向けにもsnapshot機能は便利だと
思うのですよ。みんなうっかりファイル削除って経験あ
るでしょ? そんなときどうしてるの。mcでシコシコ復活
してるのかな。

まぁ、食わず嫌いをせずに一度実験してみてよ。大して
手間かかるわけでもないし、snapshot使うだけなら別に
HDDが複数必要なわけでもないよ。
28くそー:02/06/18 11:03 ID:l2tmV5IC
>>27
別に煽りのつもりは無かった。スマソ。

そうか、今度使ってみよう。

ほかに何か裏技キボン。
29login:Penguin:02/09/14 17:44 ID:vQZYdvIp
これか
30login:Penguin:02/09/15 01:56 ID:LyqVgR2j
今さらな書き込みのような気もするけど。
snapshotは運用上止めるわけにはいかないサーバ(データベースとか)のバックアップを取るのに便利。
あと、複数のHDDをまとめてひとつにしてつかえるってのもいい。ソフトウェアRAIDでも似たことができるけど、パーティションサイズを変えるさいはRAIDの再構築が必要な分劣る。
31EVMS:02/10/02 02:49 ID:ulgxnxu6
LVMじゃないですけど、EVMS使っている人っています?
評判聞きたいのですけど。

ちなみに、うちではLVM+XFSで1年以上使っていますが、
LVM側の問題は起きていません。
唯一問題だったのは、XFSのパーティション拡張の際に
xfs_growfsのみだと、実際には使えるようにならなかったことです。
xfs_growfsの後でxfs_repairをすれば、実際に使えるようになりました。
今では、直ってるかもしれませんが。
32login:Penguin:02/10/02 19:07 ID:Ngo8ani2
>31
ちょっと前にやったときは xfs_groufs だけでよかったよ。
しかし、lkmlではLVMを2.5treeから完全に削除しようかと
いう動きがあるみたいで、この先どうなるのか?
EVMS突っ込んでしまえって言う意見も出てたみたいだが...
(期待していたものと違うのでsage)
33login:Penguin:02/10/12 22:22 ID:zC91l6Vv
LVM2とEVMSが2.5.43にマージ(予定)らしい。
34login:Penguin:02/11/09 16:39 ID:sB3VVDlM
くそー、lvm でストライプをやると、lvextend できなくなるのか...
35login:Penguin:02/11/28 18:34 ID:E6fQKmUE

RedHat8.0にて、外付けSCSI-HDD2個をLVMで使用していたのですが、
OSが壊れてしまい、再インストールを余儀なくされてしまいました。
再インストール後に、外付けSCSI-HDD2個を以前の構成のまま使う
(データを取り出す)ことは可能でしょうか?
36login:Penguin:02/12/04 11:10 ID:XmwhOplw
vgimportできればなんとかなるかもしれませんね、がんがれー
3735:02/12/07 21:41 ID:ydayrcLM
vgdisplay -v をしてみたらLogical volumeがわかりました。
これにより、mountできました。
ほっと一安心ですた。
38login:Penguin:02/12/08 19:58 ID:fx0uvixJ
俺が勝手に勘違いしてたので >>8 を補足。
lvm にも RAID0 に相当する機能はあります。

http://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-8.html

みんな知ってた? 俺は RAID0 しか使わないもんだから
RAID と言えば 0 でしょうみたいなノリになってた。
それで勝手に >>8 の発言とドキュメントを見て葛藤してた。

ついでに devfs のせいで vgcreate の時ははまった。
だって /dev/md0 は /dev/md/0 への symlink なんだもん。
symlinkの先見てよね! 「PVが正しくねーよゴルァ!」とか
言っていじめないで! もう!

でも全部解決してすっきり。 でも lvm のストライピングは
調査不足で、ちょっと信用できないから raidtools のほうの
ストライピング使ってやるぞ!

いまから怒りと喜びの mkfs だ!
待ってろ!( ゚Д゚)ゴルァ!
39login:Penguin:02/12/10 17:16 ID:ZrnbVHbU
新たなHDDを増設して、既存のHDDとまとめて
1つの論理ヴォリュームとして使いたいと思いました。
ストライピングもミラーリングも要らなくて
単に容量増やしたいだけです。(旧HDD:20G + 新HDD:20G = 40G)

で、ここ読んでLVMを知って使ってみようと思ったのですが
この使い方って他の方法でも実現できるのですか?
ex)SoftwareRAID or まさか特に何にも入れなくてもOSのみで出来る..だったり?!
40login:Penguin:02/12/10 17:19 ID:WlHgdFGg
>>39
単に 20+20=40 だけなら software RAID でも出来るよ。
でも後でディスクを追加したり外したり出来るのが LVM のいいところ。
41login:Penguin:02/12/12 00:41 ID:TO2O1y34
>>40
なるほど。回答どもでした。
42login:Penguin:03/01/08 15:36 ID:y+2TgboG
そいえば、2.6(or 3.0)へ向けてのFeature Freezeの際に、
EVMSでなくLVM2が残ったらしいですね。

LVM便利だから、とにかく使える形で残ってほしいものです。

43IP記録実験:03/01/08 21:15 ID:/8k1w3wQ
IP記録実験
http://qb.2ch.net/test/read.cgi/accuse/1042013605/

1 名前:ひろゆき ◆3SHRUNYAXA @どうやら管理人 ★ 投稿日:03/01/08 17:13 ID:???
そんなわけで、qbサーバでIPの記録実験をはじめましたー。

27 名前:心得をよく読みましょう 投稿日:03/01/08 17:20 ID:yL/kYdMc
SETTING.TXT管轄でないということは全鯖導入を視野に、か?

38 名前:ひろゆき ◆3SHRUNYAXA 投稿日:03/01/08 17:22 ID:rLfxQ17l
>>27
鋭いです。

73 名前:ひろゆき ◆3SHRUNYAXA 投稿日:03/01/08 17:27 ID:rLfxQ17l
>ところで、IPが抜かれて何か今までと変わることってあるのでしょうか?
・今までより、サーバが重くなる。
・裁判所や警察からの照会があった場合にはIPを提出することがある。
44login:Penguin:03/01/08 23:23 ID:qi+oS6X1
>42
EVMSがマージされないことがきまって、EVMSの開発者が開発中止と
ボリューム管理ツールへの注力を決めたlkmlへの投稿があったとき、
よく決断したとの最大の讃辞がコアカーネル開発者からあったね。
45login:Penguin:03/01/09 02:37 ID:4yM3rym+
>>571
j-comいつやめる?
どうしようか考えてるんだけど
46login:Penguin:03/01/09 03:21 ID:MRkA7AM2
口びるマロ
47login:Penguin:03/01/09 04:10 ID:pmZN48jX
>>317-318
来ないと言うやつは又来るが、さようならと言った次のレスにもうコピペする奴は珍しい。
48山崎渉:03/01/15 11:42 ID:dWXij4Sa
(^^)
49login:Penguin:03/02/08 16:47 ID:YEvsEc7K
>>42 >>44
新興企業が次期Linuxカーネルの論理ボリュームマネージャ開発でIBMに競り勝つ
http://www.zdnet.co.jp/enterprise/0301/07/epn17.html

次期Linuxカーネルの論理ボリュームマネージャもシスティーナソフトウェアの
LVMが組み込まれることになった。IBMは同分野のプロジェクトを中止し、
ボリューム管理運用ツールの強化に切り替えた。
新しいLVMでは、インタフェースが標準化されるという。
50login:Penguin:03/03/07 01:05 ID:cMFL9CgQ
SistinaはLVMもそうだけどGFSも期待大。一台の中の複数ディスクの
仮想化にLVM使って、さらに複数マシンをまたぐストレージの仮想化に
GFS使えばネットワークLVM+RAIDみたいなことができる。GFSが途中で
フリーでなくなってOpenGFSと分かれてしまったのは開発リソース的に
ちょっと痛かったが…
51山崎渉:03/04/17 12:32 ID:KRn99/cy
(^^)
52login:Penguin:03/04/19 18:02 ID:WTBmCq6k
RedHat9.0の再インストールをしたのですが、LVMが削除されていませんでした。
LVMを完全に消し去るにはどうしたらいいのでしょうか?
53login:Penguin:03/04/19 18:27 ID:yKGG8MK4
だれかLVMとLVM2の機能的な違いを教えてくれ。
ファイルシステムを作りなおしする時、LVMからLVM2に完全に
以降したのだが、正直違いが分からん。ツールの違いしか。。

>>52
再インスコするなら、cfdiskで消せるだろ。
54山崎渉:03/04/20 05:48 ID:xFRXxEWb
   ∧_∧
  (  ^^ )< ぬるぽ(^^)
55山崎渉:03/05/22 02:07 ID:VfjbtMwi
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―
56山崎 渉:03/07/15 11:34 ID:doz396Fq

 __∧_∧_
 |(  ^^ )| <寝るぽ(^^)
 |\⌒⌒⌒\
 \ |⌒⌒⌒~|         山崎渉
   ~ ̄ ̄ ̄ ̄
57ぼるじょあ ◆yBEncckFOU :03/08/02 05:27 ID:GfRe8vK7
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ
58山崎 渉:03/08/15 23:24 ID:ep0zwfOh
    (⌒V⌒)
   │ ^ ^ │<これからも僕を応援して下さいね(^^)。
  ⊂|    |つ
   (_)(_)                      山崎パン
59login:Penguin:03/08/27 01:18 ID:ASis3XMK
# pvcreate /dev/hdb1
pvcreate -- physical volume "/dev/hdb1" successfully created
まではOKなのに
# vgcreate main /dev/hdb1
vgcreate -- no valid physical volumes in command line
となってしまいます。

fdisk /dev/hdbでの表示は以下のようになっています。
デバイス ブート 始点 終点 ブロック ID システム
/dev/hdb1 1 3647 29294496 8e Linux LVM

この場合原因として何が考えられるでしょうか?
60login:Penguin:03/08/27 01:59 ID:D+Tj9Ue8
devfs を使ってた場合になったことあります。

# ls -l /dev/hdb1
これが
/dev/hdb1 -> ide/host0/bus0/target1/lun0/part1
なら

こんな感じ
# vgcreate main /dev/ide/host0/bus0/target1/lun0/part1
6159:03/08/27 03:32 ID:h2tyV2ql
できました。ありがとうございます
62login:Penguin:03/09/12 01:00 ID:lVrQ/63A
スレ延びてないな。
便利なのに。
63login:Penguin:03/09/12 04:14 ID:NmdDF4x5
便利で普通に使えるからスレに書くことがないとか。
64login:Penguin:03/09/12 04:51 ID:lVrQ/63A
しかしdfスレとか見てもほとんど使ってると思われる人が(ry
65login:Penguin:03/09/12 18:30 ID:MbqfF9Ri
最近md使ってない。lvmばっか。
HDD9台と11台つなげた1TBマシンが稼働中。だいたい3ヵ月に1度は
ディスク追加してるから、lvmでないとちょっと。
66login:Penguin:03/09/13 02:29 ID:X/4NInOS
今までATA66のIDEでATA100のHDDをlvmで使ってたのですが
こんどATA100のATA拡張カードを購入したのでHDDをそちらに
移したいのですが、どの辺を修正すれば良いでしょうか?
勝手に付け替えてはじめはマウントせず、vgscan したらOK?

----詳細

/dev/hda1
/dev/hdb1
/deb/hdc1
/dev/hde1

のHDD(すべてVGを構成しています)をそれぞれ

/dev/hde1
/dev/hdf1
/deb/hdg1
/dev/hdh1

に付けかえようと思っています。
67login:Penguin:03/09/14 00:24 ID:BKQxEVXB
>>66
vgscanで良いと思う。心配なら元の環境でhdaとhdbを入れ換えて
どうなるか試してみたら?

あと、HDD全体をvgに入れるならパーティション切らなくてもいいよ。
68login:Penguin:03/09/26 04:37 ID:v6WH5HaV
>>67

遅くなりましたが、レスどうもです。
書き込めるようになったみたいです。

なるほど。HDD全体にVGを入れる場合はパーテーションを割る必要がないのですか。
一つ賢くなりました。

69login:Penguin:03/10/08 23:21 ID:FGXS3jNC
LINUXのLVMってHP-UXと同じイメージで使える?
ディスク1本でも問題なく使用可能?
70login:Penguin:03/10/11 16:43 ID:cdG1Qsus
使ってみれば分かる。
71login:Penguin:03/10/18 00:00 ID:8Iuy4WqY
やっぱ見た感じでイメージ掴めないと管理しづらいっす
webminとか使ったことないんだけど見た目どうっすかね
72login:Penguin:03/10/18 14:12 ID:iuokmhC1
外見に惑わされるな。
73login:Penguin:03/10/18 19:21 ID:+GJeNYfi
LVMスレなのにAIXの話題が出ないというのはおかしい。
74login:Penguin:03/10/18 19:35 ID:skgfOmKz
(゚Д゚)ハァ?
75login:Penguin:03/10/18 19:44 ID:+GJeNYfi
>>74
技術解説するときは、背景・事例を抑えることは基本。おまえ勉強汁。
LVMだろ?AIXが事の発端だぜ?
76login:Penguin:03/10/18 23:54 ID:7V9QF3WK
Software RAID1 の上に LVMをのせてみた。
77login:Penguin:03/10/23 16:52 ID:xBYf9KSa
>>75
おつむが弱い方ですか。
78login:Penguin:03/10/23 17:00 ID:yAdaeBKJ
だったらAIXネタのLVMを語ってくれ。
79login:Penguin:03/10/23 17:46 ID:xBYf9KSa
Linux板ですが、なにか。
80login:Penguin:03/10/26 02:48 ID:Pr89mGhe
/homeはLVMじゃないと
81login:Penguin:03/10/27 21:04 ID:rBXFvodw
偶然見つけたけど、こんなスレあったんですね!ちょっとびっくり。

で、さっそく質問!!

RedHatのASが3.0になって、LVMがネイティブに使えるようになったので
Raid 5構成(72.8GB*5の Raid5を3セット) のPVをいくつか作成して、LVMでストライプ化しようと思ってます。

でも、ストライプ化すると「容量を自由に拡張できない」みたいなことが書いてあります。
となると、Software RAIDでストライプしたほうがよいのかな?

でも前のレスにもあったけど、SnapShotが使えるのはいいよね!
Software RAID(md)の方が堅牢なのかなぁ・・・

猛者ども!教えてくれ!
82login:Penguin:03/11/04 03:43 ID:dYtpcXRE
reiser4もsnapshot使えるらしいな。
83login:Penguin:03/11/05 01:16 ID:lKl2E3dG
>>82
LVMのSnapshotはファイルシステムとは無関係でしょ。ReiserとかExt3とかいろいろあるけど
パフォーマンスってそんなに違うのかね。
84login:Penguin:03/11/19 22:42 ID:Uw9KSyAu
LVM上でって事?
85login:Penguin:03/11/21 10:36 ID:vgtaygAy
ブートパーティションにlvmを使ってgrubで軌道できますか
86login:Penguin:03/11/22 01:06 ID:+uwJ41Hv
>>84
LVM上でのオーバーヘッドも少しはあるだろうけど、一般論としてさ。
8785:03/11/25 23:06 ID:SoQSPzTM
誰もレスしてくれないからチャレンジしてみた。
gentoolinux使った
とりあえず/boot以外の/etcと/homeと/varとswapをlvmにした。

カーネルは、lvmサポート、オートマウントサポートのオプションは付けた

最後にlvmcreate-initrdした。

で、いよいよ起動してみたら古いルートファイルシステムを
/initrdにマウントできねぇヨとか言われた
適当にinitrdディレクトリを二つぐらい当てずっぽうで作成して回避した。

んで再起動してみたら、今度はinittabがみつかんねぇヨとか言われた
ずっと悩んでたけど結局/etcのファイルシステムは別パーティションにせず、
/ファイルシステムの配下に直に置いたら起動できた。

もう俺は疲れたよ

出来れば、inittabがうまく認識できなかったのか教えてください。
どうやらinittabを読み込みに行く時点で/etcがマウントされてなくて
エラーが出るようなのですが。

fstabにはマウントするように書きました。
8885:03/11/25 23:07 ID:SoQSPzTM
つーかageだ!
89login:Penguin:03/11/25 23:11 ID:Fu5daop7
>>86
http://fsbench.netnation.com/

続きがしたければファイルシステムスレでどうぞ。
90login:Penguin:03/12/10 15:03 ID:GRuDxj7K
/bootを別パーティションにしとかないとマンドクサ
91login:Penguin:03/12/17 02:17 ID:+hBhL6wT
LVM1とLVM2の違いは何?
92login:Penguin:03/12/20 02:01 ID:w66lj+Rz
Linuxみたいな安いPCサーバー買ってきて入れて
直ぐに使い始めるようなOSだと、LVMみたいな仕掛けは
なかなか馴染まなくない?ディスクが足りなくなる前に
マシンのリプレース時機になるし。だから俺は使ったことがない。
他の人もやっぱりそうなの?
93login:Penguin:03/12/29 20:21 ID:scC7iQ0n
漏れは安サーバ(DualのPen3の750MHz)だけど、
ファイル鯖にしてビデオをがんがん溜め込んでるから
LVMは激しく有用だよ。

で、久々に質問があってここに来てみたんだ。
現在
80GB+120GBのディスクをLVMで/homeにしてます。
今度、250GB足すので、80GBを外そうと思うのですが、
250GBを組み込んで、80BGソフトウエア的にvgから外すだけで、
良いんでしょうか。
あ、ReiserFSです。
94login:Penguin:03/12/30 06:59 ID:0mtlZ2/E
>>87
LVMに関係無く/etcをrootと別fsとして切り離してはいけないと思うが

kernel option で root=8E01 等( /dev 以下 logical volume block
deviceの major:minor numberのHEX) で root fs をLVMにすることも
できるがおすすめしない

>>92
リプレースする時便利じゃない?

>>93
それでOK
95login:Penguin:03/12/30 09:41 ID:0GME+3ZE
device-mapperへの移行をする手順が書いてあるページってある?
96login:Penguin:03/12/30 16:31 ID:d+Sx02u5
>>94
> root fs をLVMにすることも できるがおすすめしない
すんません、24時間稼動のサーバのバックアップで / のスナップショットとり
たいのでLVM化したいのですが、やっぱダメポなんですか?
97login:Penguin:03/12/30 17:18 ID:0mtlZ2/E
>>96
そこまで気を使っているなら/usr /var /tmp /home は別fs でmountしてるはず
とすれば root fs で書き換えが発生するのは設定の書き直しの時くらい
スナップショットでバックアップしなければいけない事態が発生するとは思えない
root fs は緊急時に最低限立ち上ってほしいのでなるべくシンプルにしていたほう
が良いと思う
98login:Penguin:04/01/03 15:18 ID:RPwznxNh
>>97
レスどうもです。
カーネルバージョンアップした時とか、とっておいたほうがよいかなって
思ってたんですが、スナップショットでとらなくても別に構わないみたい
ですね。失礼しますた。
99login:Penguin:04/01/04 00:04 ID:jOoU9t7X
LVMで複数のパーティションを一つに統合してるときに
どれか一つが壊れたときは、どうなるの?
100login:Penguin:04/01/04 01:25 ID:I17XrOfv
>>99
virtual group 全体が破壊されるはず
LVMにはオリジナルのような冗長性は無い
信頼性を要求される場合はRAIDと組合せて使うべし
101login:Penguin:04/01/04 03:31 ID:KwBJysVL
LVM便利に使っております。

ところでいま、
/dev/hda ReiserFS /
/dev/hdb これと /dev/hdc の二つでLVMを利用してReiserFSで /home
を作っております。

今度新しいマシーンにこの LVM で作った /home を持って行こうと思うの
ですが、新しいマシーンのKernelでLVMを使う設定にしておき、fstab を
編集しておく以外に何かしておかないといけないことは有りますでしょうか?
(向こうの環境、及び現在の環境で)

予定では新しいマシーンの /dev/hdc と /dev/hdd になる予定です。
102login:Penguin:04/01/04 11:00 ID:hx26I4ba
マシーン
103login:Penguin:04/01/04 11:28 ID:uI2yZvZN
>>101
LVM HOWTO - Moving a volume group to another system
ttp://tldp.org/HOWTO/LVM-HOWTO/x978.html

>>100
s/virtual/volume/
104login:Penguin:04/01/04 12:16 ID:KwBJysVL
>>103
なんと・・・日本語のHOWTOには書いてなかったので
よくわからなかったのですが、英語の方には書いてありましたか。
レスありがとうございました。非常に助かりました。
105104:04/01/11 09:39 ID:al7cuK4x
vgを非アクティブにしてvgexportで切り出し
新しいマシーンでpvscan後にvgimportであっさり移動でました!
106login:Penguin:04/01/12 00:31 ID:pzefXv4F
サイズ計算間違えて余ってしまった PE がもったいなくて
lvresize -L+10G vg_main/lv_home
とやるつもりが、
lvresize -L10G vg_main/lv_home
とやってしまって、次に出た質問につい惰性でyと答えてもうた。
(このプロンプト、さりげなさすぎ)

150G ちかくつかってた /home があぼーん。

FSがつかってるサイズより小さくできないようにならないものか。

なにが痛いって、CVSリポジトリ飛ばしたのがいたかった。。。

107login:Penguin:04/01/12 16:24 ID:rTgBW3xV
>>106
"lvresize"じゃなくて拡張専用の"lvextend"使えばエラーで止まってくれるよ。こんな感じで。

lvextend -- New size given (8 extents) not larger than existing size (16 extents)

ってか"lvresize"ってLVM2だよね?
大事なデータは置かない方がいいんじゃ…
108login:Penguin:04/01/20 19:55 ID:ZxauvQQl
LVMを語る香具師少ないな。
109login:Penguin:04/01/23 17:10 ID:K7VtDfy4
素人向けに書かれたページないすかねぇ?
110login:Penguin:04/01/23 18:17 ID:/TnM4T0Z
>>109
俺はLVM HOWTOで解ったし、後は旧ZDNETの記事で
LVMのこと全く知らなかったけど解ったよ。
111login:Penguin:04/01/28 16:00 ID:p//kBex1
ようするにこれってハードディスクを2つ以上持ってないと意味ない機能ですか?
112login:Penguin:04/01/28 16:01 ID:EAGjJ7Q+
(゚Д゚)ハァ?
113login:Penguin:04/01/28 16:07 ID:p//kBex1
RAIDの話とかでてるし、この図見てたらハードディスク1つの人には
関係ない話なのかなぁと思っただけ。
http://www.itmedia.co.jp/enterprise/0307/11/fig0111.jpg

おもしろそうだからさっそく試してみるか。
114login:Penguin:04/01/28 22:42 ID:B1flgUdw
>>113
ディスク1本でもパーティション分けてる人は有効だよん
動的に拡張できるし
115login:Penguin:04/02/05 17:55 ID:N4wUKkZN
TabとSpaceとEnterで操作できる工具が欲しいよぅ
116login:Penguin:04/02/05 19:28 ID:pweqheS2
質問というか確認。kernel 2.4.21 での LVM1 は PE サイズを大きくしても
2TB 以上の LV を作れないようだが、

[mona@2ch mona]# /sbin/vgcreate -s256m work /dev/sda1
vgcreate -- INFO: maximum logical volume size is 2 Terabyte
vgcreate -- doing automatic backup of volume group "work"
vgcreate -- volume group "work" successfully created and activated

これはそういうものなのかな? ちょうど 3TB (fs の制限にはひっか
からない) の Volume を作りたいのだが。
対案も募集。LVM2 だと幸せになれたりする?
117login:Penguin:04/02/05 19:41 ID:pweqheS2
ついでに LVM のうれしさについて一席ぶつ。
旧来は、disk 容量たりなくなったー、といったら新しい disk を
/home1,/home2,/home3 とか増やしていって、容量の調整の mv で
無駄な時間を費やしていたわけだ。これはどこにおいたらいいんだ?
もストレス。

これを単一の /home にまとめて扱えて、しかも動的に増やしたり
減らしたり(あまりないけど) できたら便利だと思わないか。
つーかふつー LVM

使うだけなら >>110 の言うこの2文書読めば死角なし。細かい
用語はそのうちわかってくる。ただし、冗長化はしないので、
>>100 の言う通り、raid1,5 の上で使うのがベストではある。

http://www.linux.or.jp/JF/JFdocs/LVM-HOWTO.html
http://www.itmedia.co.jp/enterprise/0307/11/epn01.html
118login:Penguin:04/02/06 12:49 ID:OjypMQGg
LVMにreiserfs作ろうとすると
reiserfs_create_journal: cannot create a journal of 8193 blocks with 18 offset on 8192 blocks
って出て失敗するんだけど、どうしたらいいの?
ちなみにPEは32Mでext3とxfsは問題なく作れる
119login:Penguin:04/02/08 16:28 ID:aFzkEREw
>>116
man vgcreateによれば、Block Deviceのサイズ制限(2TB)らしいが。
2.6系ならCONFIG_LBDがある。2TBなんてディスク無いんで未確認だけど。

>CONFIG_LBD:
>Say Y here if you want to attach large (bigger than 2TB) discs to
>your machine, or if you want to have a raid or loopback device
>bigger than 2TB. Otherwise say N.

ただ、LVM2(device-mapper)がまだ怪しいんで、単一のファイルが
2TBを越えないなら2.4系で複数のLVに分けた方がいいと思う。
俺はかなり久しぶりにファイルシステム壊した。
2.6.0の頃の話なので、最新Versionでは改善してるかもしれんが…
LVM2でやったらレポート希望
120login:Penguin:04/02/09 22:29 ID:KbcU0gyW
>>119
むー、単にファイルサーバじゃなく 上でじゃがじゃがやるマシンなので、
LVM2/2.6.x はヤメとくことにした。情報ありがとう。

まだマシンの本稼働までには時間があるので、時間があれば試すだけは試してみる。
121login:Penguin:04/02/10 19:37 ID:t+3Za9lM
家はLVM2/2.6.2だけど全然問題ないよ
122login:Penguin:04/02/10 21:58 ID:ZJuqC/70
2.4のXFSでたまに気がつくとファイルの中身が全部0になっていること
があるんだか、そんな経験ないですか?うちは覚えているだけで2回目。
/boot以外全部XFSでのマシンで。
123login:Penguin:04/02/10 21:59 ID:ZJuqC/70
>122
すまん、スレ違い。レスは該当スレにヨロシク。
124login:Penguin:04/02/12 12:17 ID:Rdb56AUc
vgextendでVGに割り当てたディスクをVGから外すとき、pvremoveしても問題ない?
125login:Penguin:04/02/12 13:31 ID:0EKzsiYE
以前使っていたマシーンからvgexportでVGを取り出して
新しいシステムに移し、vgimportを実行しましたが上手く取り込めないのです。

vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found exported volume group "discPV_EXPPV_EXPPV_EXP"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group

vgimport disc /dev/hd[bdefh]1
vgimport -- ERROR: wrong number of physical volumes to import volume group "disc"

こんなエラーが出てしまうのです。
そもそも何故"discPV_EXPPV_EXPPV_EXP"になってしまったのが解らないのですが・・・

vgimport discPV_EXP /dev/hd[bdefh]1
vgimport discPV_EXPPV_EXP /dev/hd[bdefh]1

試しにこのようにしてみたのですが結果は同上でした。

126125:04/02/12 13:32 ID:0EKzsiYE
必要なディスクは全てあるのを確認しております。

--- List of physical volume UUIDs ---
001: cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA
002: sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p
003: nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z
004: ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq
005: YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF

PV Name /dev/hdb1
PV UUID nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z

PV Name /dev/hdd1
PV UUID ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq

PV Name /dev/hde1
PV UUID sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p

PV Name /dev/hdf1
PV UUID cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA

PV Name /dev/hdh1
PV UUID YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF

何が悪い(原因)なのかお心当たり有る方、是非ご教授頂けませんでしょうか?
よろしくお願いします。VGに納められているデータは絶望的なのでしょうか・・・
127login:Penguin:04/02/12 14:00 ID:oIFlb4da
>>125
PV_EXPはvgexportするときにLVMがつけるようですね。
http://www.spinics.net/lists/lvm/msg11071.html

LVMのバグでimport出来ない場合があるようです。
http://www.spinics.net/lists/lvm/msg10876.html
128125:04/02/12 14:21 ID:0EKzsiYE
>>127
フォローどうもです。
私も色々調べていたのですが、如何せん英語が苦手で・・・
PV_EXPの件は問題なさそうですね。データはまだ生きているのだろうか・・・

ちなみにimport出来ない件ですが・・・

Use 1.0.7.

と教えて頂いたサイトには書いてありましたが私が使っているDebianの
woodyでは lvm10_1.0.4-4_i386.deb (Source Code: [lvm10_1.0.4.orig.tar.gz])
なので 1.0.8 以降の sarge で無いとインポート出来ないのですか・・・
woodyで作ったものをインポート出来ないのはかなり辛いですね。

とりあえず、まだデータは生きている可能性が高そうなので希望を捨てずに
頑張ってみます。

129125:04/02/12 14:43 ID:0EKzsiYE
感激感謝雨霰
>>127さん本当にありがとうございました。

とりあえずDebianをsargeにアップグレードして
lvmを1.0.8にアップグレード後vgimportを行うと
今までの不安と失望を吹き飛ばすぐらいあっさりと
importすることが出来ました。

もうダメだろうと思って一からやり直そうと9割方データ
を諦めていて、最後にlvmを導入するきっかけになった
このスレに戻り、思い切って質問させて頂いたのですが
本当に良かったです。

本当に、本当にありがとうございました。
130login:Penguin:04/02/12 21:31 ID:NYEuOy2Y
>>129
よかったね。一番恐い不具合だよなぁ。

# バックア…ま、ひとのことは言えない
131login:Penguin:04/03/31 08:45 ID:p4gnyIqI
保守あげ
132login:Penguin:04/03/31 08:45 ID:p4gnyIqI
下げてた
首吊ってきます
133login:Penguin:04/03/31 21:19 ID:FzS93x89
LVMはすごく情報が少ないような気がする
134login:Penguin:04/04/06 16:27 ID:EUJs3rTZ
質問させて下さい。

二台のHDDでLVMを利用しVGを構成しているのですが
片方のHDDが電源を入れても動かなくなりました。
こういう場合、電源が入る片方のHDDに有るデータで
無事なものを抜き出すことは可能ですか?それとも
全データを失ってしまったのでしょうか?
135login:Penguin:04/04/07 02:09 ID:Wbtjz5Vb
>>134
多分無理だと思う。

テストで、
1)2つのパーティションをPVにしてVG作成
2)LVを2つのPVを跨ぐように作成&ファイルシステム作成
3)VGを非活動化してから、ddで片方のパーティション上書き
4)vgchange -a y でVGを活動化できず。VG死亡

2)でPVを跨がなかった場合は試してない

とりあえず生き残った方の中身をddでバックアップor別ディスクにコピーしてから
vgchangeが効くかどうか試してみては?
136login:Penguin:04/04/07 19:35 ID:yMwiLEKO
>>135
レスありがとうございました・・・。
でも、どんなに頑張っても無理でした・・・。
もちろんバックアップを取っていない私が悪いのですが(TT
今後はバックアップを取るように気をつけます・・・。
137login:Penguin:04/04/07 21:04 ID:tbnmpj7T
>>135-136
http://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-8.html
8.2 なぜストライピングしないのか
ストライピングだけを行うと、「ビット単位」で破壊が起こる危険が出てきます。ディスクが駄目になると、
論理ボリュームの内容がおしゃかになってしまいます。
データを連続して置いてあれば、ファイルシステムの一部だけで済ませられます。

Stripingしてなかったらファイルシステムの一部を失うだけで助かるんじゃないの??
俺はずっとそう思っていたんだが。もしそうじゃなかったら俺も今すぐバックアップ
取らないと行けないな。かなり油断していた。

ソフトウエアRAID(md)と組み合わせてLVM作るのが一番無難か??
138login:Penguin:04/04/07 21:20 ID:YkSh897y
えっ、やってないの?
139login:Penguin:04/04/08 17:21 ID:KVyl6Huz
>>137
http://linux.msede.com/lvm_mlist/archive/2004/01/0123.html
壊れたドライブにデータが無かったら大丈夫らしい(?)が
複数のドライブで一つのパーテーションを実現するような使い方をしているとダメ臭いね。

やっぱり何はともあれバックアップが重要って事で。
140login:Penguin:04/04/08 17:23 ID:KVyl6Huz
上で>>135が言ってるけど

2)でPVを跨がなかった場合は試してない

これに関してはMailing Listの書き込みを見る限り大丈夫っぽい
って事追記するの忘れてた。

連続ポストスマソ。
141login:Penguin:04/04/08 20:49 ID:MyiCZN16
正直、PV をまたいだ LV で fs を使うのは危険だと思ってます。
リカバリ時に意味のある単位で backup できないから。
PV の I/O error がでた部分にどのファイルが書かれていたか、
あとからわからない限りはダメだと思ってるんですが。
142141:04/04/08 20:52 ID:MyiCZN16
ところで、 kernel-2.6.5 の device-mapper で、
LV を 13個以上切って使えてる香具師いますか?
なんで 13なのか とつっこまれそうだが、漏れがその辺りから使えなかったので ...
143login:Penguin:04/04/09 19:49 ID:sJAe50d2
LVMって実際に使い物になるの?AIXでもクリティカルな用途では
それほど、使われてないって聞いたけど。
144login:Penguin:04/04/10 06:25 ID:i9h2mmLK
>>143
使ったことないだけ?
使い方知らないだけ?
逆にAIXでLVM使わないでFS作る方法を教えてほしいっすよ。
漏れは、LinuxでもインストーラがLVM+ReiserFSに対応してないのは使う気になれんが。
145login:Penguin:04/04/11 17:37 ID:Z/hVhcsh
>>142
微妙に環境違うと思うけど、以下の環境でLV26個できてるよ。
Debian(sarge) Linux 2.6.5-mm2 + Device-mapper unstable(2.6.5-udm3)
device-mapper 1.00.15 / LVM2 2.00.11(2004-04-08)

試してて気づいたんだけど、reiserfsがのってるLVをmountしても
Open LVとしてカウントされないんだけど。。。ウチだけ?
↓26LV全部mountしてもOpenLVが16になってる
# vgdisplay
--- Volume group ---
VG Name               rootvg
System ID             
Format                lvm2
Metadata Areas        1
Metadata Sequence No  75
VG Access             read/write
VG Status             resizable
MAX LV                255
Cur LV                26
Open LV               16
Max PV                255
Cur PV                1
Act PV                1
VG Size               111.25 GB
PE Size               32.00 MB
Total PE              3560
Alloc PE / Size       1608 / 50.25 GB
Free  PE / Size       1952 / 61.00 GB
VG UUID               bnxgSD-J5Hb-70Io-TUic-EJGu-y0X5-mnvXRB
146141:04/04/14 10:53 ID:uDiO3j/8
>>145
情報ありがトン。
udm の patch を調べて別のマシンで実験してみます。
っていうか、こんな機能使うのに kernel-ML をチェックしていなかった漏れがバカでした(;_;
147login:Penguin:04/05/03 23:05 ID:xF+EBQEG
結局のところVGサイズが最大2TBの制限って解決したんでしょうか??
148135:04/05/06 23:53 ID:zmQQH789
>>145のreiserfsがOpenLVとしてカウントされない現象ですが、
以下の環境をゼロから作り直したら解消しました。原因は調べてませんが。

Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)

で、正直に白状すると俺は135なんだけど、>>135のレスはアホでした。
>>134には謝っておきます。すまんでした。 _o_

お詫びに以下のURLの情報をテストしてみた。
ttp://www.redhat.com/archives/linux-lvm/2003-January/msg00204.html
149135:04/05/06 23:56 ID:zmQQH789
■PVを跨がない場合の仕込み
Debian(woody) / Linux 2.4.25 / lvm_1.0.8

(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成
(2)LV&ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkreiserfs /dev/testvg/hda5lv

(3)適当にファイルコピー
(4)umount→testvgを停止後、ddでhda6(全PE未使用)を埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6

(5)testvgをactiveにしようとするが当然エラー
# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- ERROR "vg_read_with_pv_and_lv(): current PV" can't get data of volume group "testvg" from physical volume(s)
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group

# /sbin/vgchange -ay
vgchange -- no volume groups found

以前はここで止めてたんで>>135みたいなレスだった。
150135:04/05/06 23:59 ID:zmQQH789
■PVを跨がない場合のリカバリ

破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ

# pvcreate /dev/hda7
pvcreate -- physical volume "/dev/hda7" successfully created

○hda6のメタデータをhda7にリストアする。
# vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7
vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf"
vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7"

# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found inactive volume group "testvg"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group

# /sbin/vgchange -ay
vgchange -- volume group "testvg" successfully activated

# mount /dev/testvg/hda5lv /mnt/test/

全ファイル生還・md5一致
151135:04/05/07 00:04 ID:moBi7VqE
■PVを跨った場合の仕込み&リカバリ

PV,VGの作成は同じなので省略
以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用
# lvdisplay -v /dev/testvg/mixlv の結果(一部)

--- Distribution of logical volume on 2 physical volumes ---
PV Name         PE on PV   reads   writes
/dev/hda5        16      0     2
/dev/hda6        16      0     0

hda6の破壊方法とその後のリカバリ方法は上と同じなので省略
mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行

# reiserfsck --rebuild-tree /dev/testvg/mixlv
# mount -o ro /dev/testvg/mixlv /mnt/test

結果
全175ファイル
復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出)
破壊 79 ( 消失17 + md5不一致62)

ファイルはmp3でサイズはまちまち。
計算してないけどファイルサイズ的には半分だと思う
152135:04/05/07 00:14 ID:moBi7VqE
★PVを跨がない場合・仕込み(LVM2)
Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)

(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成

(2)LV & ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkfs.reiserfs /dev/testvg/hda5lv

(3)他のファイルシステムから適当にコピー

(4)umount→testvg停止後、ddでhda6を0で埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6

(5)testvgをactiveに変更しようとするが、当然エラー
# vgchange -ay testvg
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find all physical volumes for volume group testvg.
Unable to find volume group "testvg"
153135:04/05/07 00:17 ID:moBi7VqE
★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2)

(a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。
# pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7
No physical volume label read from /dev/hda7
Physical volume "/dev/hda7" successfully created

(a)-(2)testvgの情報をリストアする。
# vgcfgrestore -f /etc/lvm/backup/testvg testvg
Restored volume group testvg

(a)-(3)testvgをactiveにする。
# vgchange -ay testvg
1 logical volume(s) in volume group "testvg" now active

(a)-(4)mountする

☆全ファイル生還。md5一致
154135:04/05/07 00:18 ID:moBi7VqE
★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2)

(b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行
# vgchange -ay -P testvg
Partial mode. Incomplete volume groups will be activated read-only.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
1 logical volume(s) in volume group "testvg" now active

(b)-(2)mountする
# mount /dev/testvg/hda5lv /mnt/test
mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only

☆全ファイル生還。md5一致
155135:04/05/07 00:23 ID:moBi7VqE
★PVを跨いだ場合(LVM2)

PV,VG作成方法は同じなので省略
LV作成では両方のPVから512Mずつ使用
# lvdisplay -v --maps /dev/testvg/mixlvの結果(一部)
--- Segments ---
Logical extent 0 to 127:
Type linear
Physical volume /dev/hda5
Physical extents 0 to 127

Logical extent 128 to 255:
Type linear
Physical volume /dev/hda6
Physical extents 0 to 127

破壊の方法はPVを跨がない場合と同じ(hda6を破壊)
リカバリ方法は(a)の代替PVを使う方法しか使えない模様
(b)の方法だと(テストした環境では)
device-mapper ioctl cmd 9 failed: Invalid argument
と表示される。
結果:全176ファイル => 生還83 / 消失12 / md5不一致 81

あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が
頻発したけど、もう1回すると問題なくできた。
156135:04/05/07 00:31 ID:moBi7VqE
あと、LVM2限定で結果だけ。
ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名)
XFS+hda5破壊 = 65ファイル生還
XFS+hda6破壊 = 66ファイル生還
(ファイル数はいずれも176でサイズバラバラのmp3)

おしまい。
157login:Penguin:04/05/07 20:23 ID:JJMbJYW4
SoftRAID(RAID1)上にLVを切ろうとしています。
切ること自体はできたのですが、起動時に自動検出してくれません。
起動時のメッセージは
Starting up RAID device: md0(skipped) md1(skipped)
です。
起動後、raidstartとvgscanをやれば、有効になるんですが・・・

fstabで、LVをマウントするようにしています。
OSはRedHat9です。

何かわかりますかねぇ
158login:Penguin:04/05/07 23:28 ID:saczY0qF
initrd作りなおせオマンコ
159login:Penguin:04/05/08 11:16 ID:J2fTDgwN
157です。
mkinitrdやってみましたが、結果ダメです。
手順は以下のとおり。
1./etc/modules.confに以下の行追加
alias md-personality-3 raid1
alias block-major-58 lvm-mod
alias block-major-109 lvm-mod

2.mkinitrd
mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \
$(uname -r)

3.grub.confをeditし、initrd_raidをロードするようにする

4.再起動

dmesgでは以下のようなメッセージが出ており、うまくいっているように
見えます。
RAMDISK: Compressed image found at block 0
Freeing initrd memory: 168k freed
VFS: Mounted root (ext2 filesystem).
Journalled Block Device driver loaded
md: raid1 personality registered as nr 3
kjournald starting.  Commit interval 5 seconds
EXT3-fs: mounted filesystem with ordered data mode.

ちなみに上はfedoraでやってみました。
うーん、何がおかしいんでしょう。
160login:Penguin:04/05/08 13:33 ID:9BQlLz7P
raidstartしてからmkinitrdしたマンコか?
mkinitrdは/proc/mdstatを見てオマンコよ。
だから/etc/modules.confを編集する必要はないマンコ。
161157:04/05/08 14:45 ID:pmAGqXMP
すばらしい!うまくいったです。オマンコさん、どうもありがとう。

もうLVMの話じゃないですが、ついでに教えてください。
ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか?
#まあやってみりゃいいんですが。
162login:Penguin:04/05/08 16:22 ID:9BQlLz7P
>>161
悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw
カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。
FC2でどうなってるのかは未確認。
163login:Penguin:04/05/08 21:10 ID:5z7Jk+RY
157っす
>>162
うーん、つかえねえToT
カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。
まあとりあえず現状で満足することにします。
どうもありがとう。
164login:Penguin:04/05/16 14:46 ID:VitpnX4s
lvm上に作ったファイルシステムって
WindowsのExplore2fsとかから見えるのかな。
165login:Penguin:04/05/16 15:02 ID:aVnYK0wB
見エマセぬ
166login:Penguin:04/05/18 20:07 ID:aktDVrQJ
>>148-156
非常に参考になったわ。
こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。
これはLVM HOWTOに載せて欲しいぐらいの内容だね。
167login:Penguin:04/05/28 23:19 ID:PYZd4d/f
pv→HDD3本でひとつのvgを組んでます。
ここから生成されたlvはreiserfsでフォーマットされています。
で、最近 fsck.reiserfsをすると
ディスクにハード障害があります云々いわれます。

この場合、
1.やっぱりHDDに物理的な障害がある。
2.vgになんかの障害がある。

1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか??

もしあれば、誰か助けてください。。。。
いま、めちゃブルーです。
168login:Penguin:04/05/29 03:10 ID:Xtz3Va5J
>>167

3.ファイルシステムが壊れているとか

reiserfsckはデフォルトではcheckだけじゃないの?
--rebuild-treeとか付けんと。>>151みたいに
もちろん、やる前にはバックアップとってな。

HDDの物理的障害だったらdmesgになんか出てると思うけど

>>147
VGじゃなくてLVでしょ。
Unix Magazine 2004年6月号で2.5TBのLV作ってるよ
169167:04/05/30 23:48 ID:OnGdtw98
>>168
回答ありがとうございます。

いろいろ試してみたのですが、拉致があかなかったため、とうとう
rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。

bread: Cannot read the block (31329): (Input/output error).
Aborted

ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。

hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175
end_request: I/O error, dev hdd, sector 251175
Buffer I/O error on device dm-0, logical block 31341

そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、
badblocks -o out.txt /dev/lvm/hogehoge

再びreiserfsckをかけました。
reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge

が、上記と同様にAbortされてしまいます。

reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。


reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??
170login:Penguin:04/05/31 01:30 ID:hhvzfuis
>>169
dd_rescueでバックアップを作成し、reiserfsckする

「Bad block handling in ReiserFS」
ttp://namesys.com/bad-block-handling.html

[dd_rescue]
ttp://www.garloff.de/kurt/linux/ddrescue/
171login:Penguin:04/05/31 02:48 ID:lsYmUrdk
dd_rescueなんてあるんですね。
LVM使ってないけど、reiserfsのパーティションが壊れたときは、
私もrebuild-treeが途中で失敗してしまう状況でした。
結局、普通のddで何とかしましたけど。
結構なファイルがlost+found行きになりました。
172login:Penguin:04/05/31 06:23 ID:OXeGSEwS
えー、ここはLilyVMのスレということで異論ありませんね?


はい、ないようなのでLilyVMスレ@Linux板と決定いたします。

UNIX板のスレはこちら。
【Usermode】LilyVMってどうですか 01【NetBSD】
http://pc5.2ch.net/test/read.cgi/unix/1079170498/
173login:Penguin:04/05/31 06:29 ID:cSlLkb+0
↓何事も無かったかのように次どうぞ
174login:Penguin:04/05/31 07:03 ID:OXeGSEwS
http://lilyvm.sf.net/

IPAの金で作られたUsermodeなNetBSDでつ。Linuxだとそのまま動くけどNetBSDではパッチが必要。
どうですか。
175良い子のお約束:04/05/31 13:00 ID:KXn0+fEs
(1)日本人が作ったものは40%割り引いて考える。
(2)IPAの金で作られたものは信用しない。
(3)任天堂のゲームには近付かない。
176login:Penguin:04/06/20 02:44 ID:M3ZdqO8W
インストーラでlvmが使えると楽やね。
177login:Penguin:04/06/26 21:41 ID:NWOwsSX3
PE Sizeのことで質問させてください。

PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、
たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、
32MBのときは、32MBの倍数になる。

PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、
PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、
という理解で正しいでしょうか。

inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:;
PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる
記事を見つけて焦ってしまったんですが。
178login:Penguin:04/07/01 12:02 ID:Ua6cWiFK
無駄無駄無駄ぁぁぁ!!!
179login:Penguin:04/08/31 17:29 ID:mhv4SZxs
LVMって生で使うより重いの?
180login:Penguin:04/09/01 01:21 ID:hMUQSwG3
>>179
軽い道理が無いだろ(w
でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。
181login:Penguin:04/09/13 22:02:18 ID:vib1TXoh
LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか?
ファイルシステムはext3、ディストリはFedora2です。

/boot /dev/hda1
/    /dev/mapper/Volume00-LogVol00

/dev/hda1がext3
/dev/hda2がLinux LVM
/dev/hda3がswap

KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)
182login:Penguin:04/09/13 22:51:09 ID:vO7Y51N9
ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。
183181:04/09/14 21:29:21 ID:PwK9BewZ
でも既にこの構成になってしまっているのですよ。
なにか方法ないですかね?
184login:Penguin:04/09/14 21:54:41 ID:16qryvOq
FS自体壊れてはいないんだよね?
漏れだったら、dump/restore でLVとパーティションを切り直す。
>>182の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。
まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。
185181:04/09/15 01:11:51 ID:KT7pbieC
>>184
壊れてないです。
方法がなければ切り直そうかと思ってるんですけど、

>勉強と思ってなんとかする方法を考えてみる
ってことでココに書き込んでみた次第でございます。
186login:Penguin:04/09/17 20:59:29 ID:b4dp+fcm
SLVMって使えんの?
187login:Penguin:04/09/18 10:22:30 ID:Nmvwrsgi
>>181
スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも
作りなおせ。
188login:Penguin:04/09/21 23:05:19 ID:F8lCx2GU
>>181

亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。

カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。
189login:Penguin:04/09/22 02:04:49 ID:tY0jOet7
>>188
KNOPPIXのLVMってLVM1じゃなかったっけ?

以前、LVM2環境をミスって起動不能にした時、
データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う
(結局、LVM2環境を新しく作ってHD繋げて吸い出した)

>>181
新しく/用にLV作って必要なものコピー、
そっちを/にマウントするようにして起動ってのは?
Fedoraでどうやるか知らないけど。

FedoraのLVM2環境の起動の仕組みって↓とは全然違う?
ttp://www.poochiereds.net/svn/lvm2/
190181:04/09/24 01:19:17 ID:JORLx4Uz
>>188
なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。

>>189
そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、
/のLVの容量 + 増やしたい容量
のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。
191login:Penguin:04/09/27 13:12:09 ID:mojAcgNu
そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを
学んでおくことにしましょうね >>190

私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。
192login:Penguin:04/09/30 00:26:14 ID:9J1+0UZc
オンラインリサイズできるファイルシステム(Reiserfs,xfs)を
使い、各LVは必要最小限のサイズで作りませう

私は/boot+swap+PV1個の3パーティションで節約生活してますよ
(´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)
193login:Penguin:04/10/04 00:33:55 ID:PdEJi7TQ
 
194login:Penguin:04/10/17 02:02:36 ID:HoEJPIc+
lvmかますことによってパフォーマンス落ちる?
導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。
195login:Penguin:04/10/17 03:54:32 ID:IwSy/hON
196login:Penguin:04/10/18 00:06:23 ID:CENiT07H
定期チェックでfreiserfs@LVMにfsckかけたら
bad sectorが出てAbortしてしまう・・・
複数のHDDがVG登録されていて
物理的にどのHDDがbad sector出してるのか判別もできず・・・
こんな場合どいった手順で復旧していけばいいんでしょうか?
197login:Penguin:04/10/18 00:07:07 ID:CENiT07H
× freiserfs
○ reiserfs
うぅ・・・
198login:Penguin:04/10/18 00:58:41 ID:IHK36xr/
>>196
そのファイルシステムがmount可能なら
今すぐバックアップを作る。
その後で>>170かな

人柱になって報告したいなら>>151
199196:04/10/20 07:26:55 ID:GE+TE0oK
壊れてるHDDが物理的にどれなのかを判別できたんですが
新しくHDD買ってきてPV増やした上で
このHDDをpvmoveしたりするのは自殺行為・・・・ですよね?

syslogにガンガンエラー吐いてるけど復旧する時間が無い〜
週末まで耐えてくれ・・・

おとなしく
>>198
でいくべきかな、やはり
200login:Penguin:04/10/22 20:13:06 ID:6KWwn4ly
>>199
無事?
とりあえず、バックアップとった後で
pvmove試してくれるなら是非人柱希望

ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う
pvmove中、不良セクタ踏んだ瞬間にフリーズ
→仕方ないので電プチ
→PV死亡。VG活動化できず起動不能
ってなるかも
201196=199:04/10/23 02:49:17 ID:U8sO2JHE
とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので

・新しく買ったHDDに新しいVG割り当て
・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動
・空きが増えたらresize_reiserfsして縮小
・lvのサイズを縮小
・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove
・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て
・上を繰り返して壊れたHDDのみがVGに登録されている状態にする

という感じで玉突きしてみようかと検討してますが
resize_reiserfsでコケる気が激しくする・・・

アイオーのLinkPlayer+Einキャプチャ機+Samba
でレコーダー代わりにしてたデータ領域で
HDDが4台、データ領域が1TB近くある・・・
202201:04/10/24 03:56:24 ID:SET3wOLA
壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの
データ避難・LV削除はできましたが
壊れたデータの入ってるLVのresize_reiserfsできず・・・・
203login:Penguin:04/10/27 11:21:45 ID:EqiaD7Nc
/home にあったデータが一瞬で消えた・・・orz

83→データいれる→8e したら駄目だったのか・・・?
204login:Penguin:04/10/27 16:44:35 ID:pDldRhuo
そりゃ駄目だ。
205login:Penguin:04/10/27 17:27:20 ID:lhKPiB/N
やっちまったな
206login:Penguin:04/12/02 00:01:54 ID:BsejacY+
linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。
この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等
をオンラインでデータを保持したまま出来るものなのでしょうか。
また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが
あれば教えていただけないでしょうか。
207login:Penguin:04/12/02 00:31:11 ID:ZSpotIbt
>>206
そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?
208login:Penguin:04/12/02 07:36:22 ID:LnTTlRFZ
linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。
209login:Penguin:04/12/02 07:43:07 ID:Bm8JDMsv
raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る
Arrayをオンラインのままでは無理だったかと
250GB x 3を300GB x 3に、は知らんけど
RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?
210login:Penguin:04/12/03 02:01:38 ID:du/UIkAw
>>207
http://www.heart-pot.co.jp/lworg.html
ここに事例がありました。
しかしmdの上にLVMって普通やらないのでしょうか。
raidカード要らずでメリットが大きいと思うのですが。
211login:Penguin:04/12/04 02:07:45 ID:BbxGDoDA
> こういうmd上のLVの拡張、VG切り離しなどの情報など

LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。
問題は、

> ディスク増設>raid5再構築

によって、PV(に割当ててるパーティション)のサイズが増えること。
LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。
ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ
可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、
PVに割り当てる方が賢明。
バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。

> しかしmdの上にLVMって普通やらないのでしょうか。

普通にやるとおもうけど。raid LVMとかでぐぐってみ。
その場合に、raidを再構築するのがレアなだけ。
212login:Penguin:04/12/04 17:22:52 ID:BTKpaP2z
>>211
なるほど。そもそもraidとバックアップをきちんと考えわけ
ないといけないですね。
とりあえずディスクが2つあいているので、ミラーセットをつ
くっていろいろ試してみます。
213login:Penguin:04/12/12 19:04:45 ID:AoK/hzny
複数のPVが1つのVGとLVで構成されているデータ領域の
HDD一台がdでしまいました。
復旧にあたって死んでいない残り3台のHDDのデータを
救い出しつつ復旧するにはどうすればよいでしょうか?

来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて
vgrestoreする予定なのですが
これだと死んでないHDD3台のデータも拾えないんでしたっけ?
214login:Penguin:04/12/12 19:29:21 ID:sTtCJRM0
dd_rescue
215login:Penguin:04/12/13 02:06:30 ID:PGw1X2t2
>>213
コマンドはvgcfgrestore
>>149以降でテストしてる

生きてるHDD上のデータは救出できるけど
あまり期待しない方がいいよ
死んだHDDにちょっとでも乗っていたファイルは
助からないはず
216login:Penguin:04/12/26 23:53:59 ID:kkeu0ykE
仕事上必要があってwindows XP 64bit-editionを入れたら
見事に別ディスクのLVM領域は破壊してくれた
何でこういうイヤガラセするかなぁ
217login:Penguin:05/01/03 02:58:23 ID:mM5fO6TV
Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして
/sbin/mkdmnodで、/dev/mapper/controlをつくりました。
これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し
てくれたのですが、以降rebootやシャットダウンの度に最後に
「md0: switching to read-only mode」〜「md1X: switching to ...」
というmd関連のメッセージがずらっと表示されるようになりました。
LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。
これは何が悪いのでしょうか。
どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ
るみたいですが私ではそれをどうしてよいかもわからないんです。
218 :05/01/28 00:00:53 ID:O4GA9oN8
スナップショットをとる
しばらくその後スナップショット時点の状態に戻すことは可能?

管理情報は残ってるわけだからできそうなんだけど
219login:Penguin:05/01/28 00:11:59 ID:inuf15bo
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
在宅ワーカー募集します!!日給7800円以上可能!!

詳しいことはホームページに書いてあるのでご覧下さい。

http://advanced7success.fc2web.com/

尚、お申込みの際は

ID『sa01』が必要になります。

★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
220login:Penguin:05/02/24 12:40:30 ID:FPH7Nh1+
保守
221login:Penguin:05/03/04 02:17:33 ID:DeSP1Kyo
補修
222login:Penguin:2005/03/31(木) 15:24:49 ID:chtc/3VW
ほちゅ
223login:Penguin:2005/03/31(木) 16:18:41 ID:7faVLxYM
RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、
LVMでext3ってどうよ?
224login:Penguin:2005/04/11(月) 19:50:02 ID:1cYagJnp
カーネル2.6のLVM2ってIO負荷が重い状態でボリュームのスナップショットを取ると
メモリ不足でハングアップしてしまうがこれの解決はまだか。
225login:Penguin:2005/04/26(火) 16:16:45 ID:PT/DpSg5
保守
226login:Penguin:2005/04/30(土) 20:18:09 ID:mAb4X/xF
教えてママン

160GBのHDDをFireWireで二つ直列に繋いだ状態で動作しているのですが、
LVMでこの二つをまとめて一つにして(無問題で?)パフォーマンスでるのかしらん?

ためしゃいいじゃんっていうかもしれんが、160GBもデータが入ってると試すのが鬱でね・・・
227login:Penguin:2005/04/30(土) 20:22:21 ID:47MVGwh5
あんまり出ないだろうな。
ファイルシステムが跨る分だけ、安全性に不安があるし。
228login:Penguin:2005/05/01(日) 12:54:41 ID:+L1YW0MG
lvcreate すると以下のようなエラーが出てしまいます。

lvcreate --size 10M --snapshot --name snap /dev/VolGroup00/LogVol_01

Rounding up size to full physical extent 32.00 MB
device-mapper ioctl cmd 9 failed: メモリを確保できません
Couldn't load device 'VolGroup00-snap'.
Problem reactivating origin LogVol_01

物理メモリの残りが少ない時に同事象が発生するようなのですが、出来る時もあり、規則性がありません。
swapも1Gぐらいにしてみましたが同じです。

( >>224 の事象と同じ?)

なにか解決方法はないでしょうか。
229& ◆R7PNoCmXUc :2005/05/01(日) 22:09:16 ID:D6WravXD
金曜日の夜 土曜日の昼 土曜日の夜 日曜日の昼 日曜日の夕 日曜日の夜
    ↓     ↓      ↓        ↓      ↓     ↓
                            ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   ∧ ∧   ∧∧     ∧ ∧   ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   (・∀・)  ∩∀・)    (・∀・)∩  ┃:::∧∧::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   / ⊃⊃ ヽ  ⊃ノ   /⊃ /  ....┃:::('д` )::::::::::::::∧∧:::::::::::::::::::::::::::::::::::
 〜(  (    ヽ  )つ 〜( ヽノ  ......┃:::と  ヽ::::::::: ('д` ):::::::(   )⌒ヽ;::::::::::
   (/(/'      (/     し^ J  ......┃:::⊂,,_UO〜:::(∩∩ ):::::|/.|/uと  )〜:::::
                                         ↑ 今このへん
230login:Penguin:2005/05/08(日) 02:56:13 ID:5XzYn+h8
>>228
2.6カーネルのsnapshotは不安定で実用に耐えないから諦めろ。
231login:Penguin:2005/05/11(水) 10:01:20 ID:5vDYgAyC
>>230
了解。もう諦めて kernel2.4に戻しました。
232login:Penguin:2005/05/17(火) 11:15:10 ID:Ck8u3X4H
# vpvmove /dev/sda15
なんてして
No extents available for allocation
このエラーが出る場合、何を確保してやれば移動が可能になるんでしょうか
233login:Penguin:2005/05/17(火) 11:53:52 ID:vyhwtx4J
>>232
extents for allocation、つまり空き領域。
マウント中のファイルシステムをpvmoveすると固まるのはなんとかならんかなぁ。
snapshotが固まるのと原因同じ気がする。
234login:Penguin:2005/05/17(火) 13:32:14 ID:Ck8u3X4H
>>233
お返事どうもありがとうございました。
lvextend -L-hogeGして減らします。>232はs/vpvmove/pvmove/でした。
そういえば、pvmoveするときはアンマウントしてからやってました。
関係ありませんが、xfsはサイズを増やすことはできても減らすことができないと知って後悔しました。

235login:Penguin:2005/05/23(月) 09:18:37 ID:Ja/BWgyJ
保守
236login:Penguin:2005/05/30(月) 14:02:18 ID:d6Jlq03m
lvm3マダー?
237login:Penguin:2005/06/02(木) 04:36:32 ID:0Nz4wDQN
Fedora2でLVM使ってファイルサーバー立ててますが、quotaを使う必要があり、
fstabにLVMをつかっている/homeの箇所にquotaに記述して、再起動かけたら、
quotaつかえない旨のメッセージがでてきました。
Kernelのquota機能とLVMって共存できないんでしょうか?
以下書き換えた場所です。

LABEL=/ /   ext3 defaults 1 1
LABEL=/boot /boot   ext3 defaults 1 2
none     /dev/pts devpts gid=5,mode=620 0 0
none /dev/shm tmpfs defaults 0 0
/dev/Volume00/LogVol00 /home ext3 defaults 1 2 ←ここにquotaを記述
none /proc proc defaults 0 0
none /sys sysfs defaults 0 0
LABEL=/tmp /tmp ext3 defaults 1 2
LABEL=/var /var ext3 defaults 1 2
/dev/hda2 swap swap defaults 0 0
/dev/cdrom /mnt/cdrom udf,iso9660 noauto,owner,kudzu,ro 0 0

(読みづらかったらごめんなさい)
238login:Penguin:2005/06/03(金) 22:23:53 ID:HOSvdRwa
SGI-XLV移植キボンヌ
239login:Penguin:2005/06/16(木) 18:09:58 ID:Szie+yKv
保守
240login:Penguin:2005/06/30(木) 18:33:39 ID:+uN+drXM
ほちゅ
241login:Penguin:2005/07/12(火) 17:40:23 ID:1+WKcMXD
LVM
242login:Penguin:2005/07/26(火) 19:12:00 ID:GY/+NBD0
LVM2
243login:Penguin:2005/08/25(木) 21:00:10 ID:fWErEiK8
LVM2上にXFSのパーティションがあって、snapshot取りたいんだけど、
xfs_freeze -fしてlvcreate --snapshotすると固まってしまいます。別ttyでxfs_freeze -uするとlvcreateできましたが。
もしかしてxfs_freeze不要?kernelは2.6.12.5ですけどまだ不安定なのかな?
244login:Penguin:2005/08/30(火) 22:24:46 ID:IOjQmEM/
>243
まずはぐぐれよ。
http://marc.theaimsgroup.com/?l=linux-lvm&m=111014382900031&w=2
あと、MLとのマルチポスト禁止な。
245login:Penguin:2005/09/02(金) 17:34:27 ID:jSBJjcXW
>>228です。
CentOS4.1(2.6.9-11)で久しぶりに試してみたらsnapshot普通にできるように
なっていました!!
lvm2-2.01.08-1.0RHEL4

改善されたんですね。よかった^^
246login:Penguin:2005/09/03(土) 22:06:00 ID:bax3TQFR
>>245
え〜〜〜っと。やっぱりダメでした。
ちょっとスペックの悪いPCで試してみたらまったくダメだ(>_<)

kernel2.4のlvmできちんと動いたPCなんですけどね。ぬか喜びだった(泣)
247login:Penguin:2005/09/13(火) 10:05:53 ID:ERgf6oSn
ほちゅちゅ
248login:Penguin:2005/09/24(土) 11:03:27 ID:2QiD6Syt
HDD 10G の PC を入手したので Debian をインストールしています。

/dev/hda1 256M /
/dev/hda5 512M swap

として残りの 9G で LVM を使って /usr や /var, /home にしてみようと考え
ています。

そこで疑問なのですが、残りのパーティションの切り方は 9G を1つにしちゃっ
ていいんでしょうか。2G 程度をいくつか切ったりするほうがいい?
それぞれのメリット/デメリットがいまいち判らんとです…。
249login:Penguin:2005/09/24(土) 11:51:02 ID:fVJogvpr
/tmpはええのん?
250login:Penguin:2005/09/24(土) 11:55:07 ID:2QiD6Syt
>>249
あ、/tmp も LVM で作るつもり。
251login:Penguin:2005/09/24(土) 12:17:33 ID:frt9ybjp
DebianでLVMはやめたほうがいいよ。壊れるから。
252login:Penguin:2005/09/24(土) 12:39:50 ID:2QiD6Syt
>>251
うは、マジすか? あんまり聞いたことないけど、いままで LVM に縁が無かっ
たから見逃したかな…。ちょっとググってみるす。
253login:Penguin:2005/09/24(土) 12:44:01 ID:96A0EVGi
>>251
ソースは?
254login:Penguin:2005/09/24(土) 14:10:44 ID:UWNeNGSP
LVM2ってもう安定した?
255login:Penguin:2005/09/24(土) 14:27:37 ID:frt9ybjp
LVM2は開発が止まっているようだ。EVMSにしとけばよかったのに。
256login:Penguin:2005/09/24(土) 17:50:45 ID:fVJogvpr
ところで、そんな小さい容量のディスク1本でLVMするメリットなんてあんの?
257login:Penguin:2005/09/25(日) 18:33:45 ID:QLhf2tye
debian potatoからLVM使ってるからもう5年くらいになるが一度も壊れたことないぞ。
LVMも当然 1.0→2.0になってるけど移行時でも問題無かったし。
258login:Penguin:2005/09/25(日) 18:38:59 ID:NYE4yBcb
DebianはLVMが不安定は釣りネタだろうけど
5年間一度も壊れたことないも嘘くせぇw
259login:Penguin:2005/09/25(日) 20:54:57 ID:QLhf2tye
LVM2のsnapshotが安定しないのは閉口ものだが破壊は無かったな。
御疑いなら耐久テストでもしてみることだ。
5年といってもlogical volumeの構成を替える頻度は知れているから、
script組んで耐久テストすることは時間がかかることでは無いわけだし。
260login:Penguin:2005/10/17(月) 03:26:25 ID:llqPomCQ
保守
261login:Penguin:2005/11/08(火) 19:53:15 ID:XbU3MUL4
ほっしゅ
262login:Penguin:2005/11/08(火) 20:41:33 ID:Fqaji/ZY
snapshotってLVMだけでできるん?
FSがサポートしてなきゃだめなんちゃう?
263login:Penguin:2005/11/08(火) 23:16:09 ID:g/AaqPIy
nbd+LVM運用してる人いますか?
264login:Penguin:2005/11/16(水) 12:21:22 ID:jdJfJmQO
vgexportしないでHDD外してしまって、マシンはすでにない
場合、別のマシンに差して中を見る手段はないのかな。
PVがあることは認識出来るんだけど・・・
265login:Penguin:2005/11/16(水) 21:31:24 ID:NvCPL6WD
vgimport じゃ駄目なの?
266264:2005/11/16(水) 22:25:30 ID:rFvkJp3N
VGの情報が見つからない、みたいなことを言われて
駄目だった。(いま別の場所なので、詳細なエラー
メッセージは忘れたが)
vgexportしてないからだと思う。。。
267login:Penguin:2005/11/16(水) 22:35:17 ID:Vdp/hGgb
>>266

#man vgimport

VGIMPORT(8)

NAME
vgimport - make volume groups known to the system

OPTIONS
-f, --force
Force import of volume group even though it is not flagged exported. This
option allows the importing of volume groups from broken systems.

この辺りドウヨ?
(もちろん自己責任で宜しく)
268264:2005/11/17(木) 12:26:25 ID:1Ik63xyP
アドバイスありがとう。

でもダメですた。
-fオプションつけても、
Unable to find exported volume group "hogehoge"
だって。そうだよなあ、exportしてないもんなあ...orz
269login:Penguin:2005/11/17(木) 16:35:43 ID:UqsPVSxa
だめなんかぁ。

新しいシステムでpvscanをしてVG情報を確認後、
vginmport -f VGname
でなんとかなるんじゃ無いかと思っていただけに驚き。
270login:Penguin:2005/11/21(月) 09:39:13 ID:SEUWJCPL
ちょっと納得いかん挙動やね。
じゃぁ、なんで起動時にドライブスキャンするんだろ。
271login:Penguin:2005/11/21(月) 09:57:12 ID:fSDPZtCV
仕様に虐ギレカコヨス
272login:Penguin:2005/12/10(土) 09:21:32 ID:APO7XYXK
保守
273login:Penguin:2005/12/23(金) 01:04:08 ID:1o/HU5Zy
hoshu
274login:Penguin:2006/01/16(月) 08:49:38 ID:oy3iDMab
fedora core 4 のデフォルトインストールでLVMを使用して80GのHDDに
/dev/VolGroup00/LogVol00
を/(ルート)にマウントされてます。
今回160GのHDDを追加してWebminでPV追加。
コマンドでlvextend -L+100Gで論理ボリュームを拡張まで成功しました。
あとはファイルシステムの拡張だけですが、ext2onlineで
JBD: ext2online wants too many credits (2050 > 2048)
ext2online: ext2_ioctl: No space left on device
とエラーメッセージが出てできない。ググってみたが英語でバグ報告みたいなのが
あるだけでよくわからない。
resize2fsを使おうとしてinit 1でシングルユーザーモードにして
umount /dev/VolGroup00/LogVol00
としてから
resize2fs /dev/VolGroup00/LogVol00
とすると
/dev/VolGroup00/LogVol00 is mounted; can't resize a mounted filesystem!
とでてアンマウントできていない様子。
/bootにCDしてからやっても同じ。
LVMそのものに悩むんじゃなくてこんなところでつまずくとは思わなかった。
もう少し修行してきます。
275login:Penguin:2006/01/16(月) 12:37:43 ID:ojCdqT7z
>>274
間違ってたらごめんなさい。
FC4 の rescue disk を使って、起動時に /mnt/sysimage にマウントするか?と
聞いてくるので、マウントしないで起動する。
その状態だと VG が INACTIVE な状態にあるので、
lvm vgchange -a y とかやって、/dev/VolGroup00/LogVol00 が見えるようにしてやる。
そして、resize2fs 実行。
私はこんな感じで LVM 管理下の / (ルートパーティション) を lvreduce (危険を承知で orz) できました。
276login:Penguin:2006/01/16(月) 13:00:11 ID:oy3iDMab
おお!情報ありがとうございます。
まさに私がやりたいことです。
漠然とKNNOPIXなど使わないといけないのかなと思っていましたが、VGに関する
注意点まで書いていただいて感謝です。
一度やってみます。もちろん自己責任で。
277login:Penguin:2006/01/20(金) 12:23:32 ID:aqSLHR49
 _, ,_
( ゚∀゚)
278login:Penguin:2006/01/28(土) 19:17:57 ID:VUb2MggI
 _, ,_
( ゚∀゚)
279login:Penguin:2006/02/13(月) 01:36:33 ID:gjfNOHrh
いままで素のRAID1でmd0(hda1+hdc1)、md1(hda2+hdc2)とパーティションを
作り、定期バックアップを同容量のディスクに

 dd if=/dev/hda of=/dev/hde

として取っていたんだけど、RAID1+LVM にしてもこの方法有効ですか?

上では hde1, hde2 がそれぞれマウント可能なパーティションとして
バックアップされるのだけど、LVM が上に載ってくると、PV 自体は
md0, md1 の上にある形になるので、hde 単体でデータアクセス可能か
不安に思ってます。

同様の経験がある方、いかがでしょうか?
280login:Penguin:2006/02/13(月) 01:46:10 ID:3S74cKwo
LVMがあろうが無かろうが同じ事。完全にコピー出来ていれば動く。
しかし単純にコピーするとhdaとhdeに同じ名前のVGを検出して混乱する。
281login:Penguin:2006/02/13(月) 02:21:49 ID:gjfNOHrh
なるほど、考えてみれば RAID の方の autodetect で hde 上の RAID を
検出しておかしくならなかったのは

dd if=/dev/md1 of=/dev/hde2

と実際にはパーティション個別に dd して、hde* の partition type が
Linux RAID autodetect にならないようにしていたためでした。

今回だと md1 -> hde2 のようにパーティション単位で dd すると
partition type をどれにしても問題が生じる(Linux LVM にすれば
混乱するし、しない場合は hde 単独稼動できない)ので、

dd if=/dev/vgname/volname of=/dev/hde2

で hde の partition type を Linux とするのが唯一の解でしょうか。
ただ、これだとボリューム構成が変わるとバックアップ側の hde の
パーティション構成も追随させないといけないので、結局この簡易
バックアップ手段は RAID1+LVM では使えないかな。

とりあえずやるだけやってみて、駄目なら LVM は諦める事にします。
282login:Penguin:2006/02/13(月) 02:36:25 ID:3S74cKwo
コピー先のボリューム構成を自動的にコピー元に合わせるスクリプト書けばいい
283login:Penguin:2006/02/13(月) 10:22:07 ID:gjfNOHrh
ちょっとチラシの裏っぽくなってきてすみません。

どうやら vgchange -an で autodetect 無効にしてやれば
いけそうです。RAID の方は autodetect にしておいて、
lvm.conf の方には /dev/md* だけをスキャン対象として
書けばバックアップデバイスの hde は完全無視でいってくれそう。

週が明けてしまったので後になると思いますが、できたら
報告しますです。
284login:Penguin:2006/02/24(金) 12:31:49 ID:9ziRUFrf
だいぶ前から不思議に思っていたんだが、
fedoraとかのインストール時に、自動でパーティションを
区切らせると、swapをLVMに置きやがる。

どうせパーティションなんて、手動で区切るから、無視してたんですが、
もしかして、swapをLVM上に置くと、なんかよいことあるんですかね?
285login:Penguin:2006/02/24(金) 12:43:11 ID:AVQ1/ICR
swap領域を簡単に大きく出来る。
swap専用のパーティションが不要。
Solarisパーティションに間違える心配が無くなる。
LVM上に置く事のデメリットが特に無い。
俺は手動で切る時もLVMを使っている。
286login:Penguin:2006/02/25(土) 11:31:04 ID:QwNemt6b
むむ、最近は swap も LVM 上に取るのがトレンドなのか。思い付かなかったな。
287login:Penguin:2006/02/25(土) 15:43:08 ID:CRfylwA+
suspend, resume にswap領域を使うというのはどうなったんでしょう。
今もそうなら使い方によってはマズそう。
288login:Penguin:2006/02/25(土) 15:49:54 ID:XYGtXGls
LVMのスワップにもsuspend出来るようになったけど、それはつい最近の事だからな
289login:Penguin:2006/02/25(土) 18:52:59 ID:vFrh6tPm
swapを万が一のときのためのプライマリィパーティションとして
を使うからなぁ。LVMにはできん
290login:Penguin:2006/02/25(土) 19:56:32 ID:f8TziOip
>>289
万が一って例えばどんなとき?
291login:Penguin:2006/02/25(土) 19:59:39 ID:RKgmengN
業務用なんかでLinux専用で使うんであれば、swapは単独で切っとくな。
rootと/usr以外と外付けは必ずLVMにするだろうけど。
292login:Penguin:2006/02/25(土) 21:29:42 ID:QwNemt6b
>>291
んーと root と /usr は LVM にしないってことか。それはなにゆえ?
293login:Penguin:2006/02/25(土) 21:51:44 ID:7D7kEu1i
/と/usrは大きく容量が増えたりしないからLVMで管理する必要が無いって事だろ。
/と/usrを後生大事にするのは王より飛車を可愛がるようなもんだがな。
294login:Penguin:2006/02/25(土) 23:35:46 ID:f8TziOip
ってことは /usr/local とかは別パーテーションにするのかい?
295login:Penguin:2006/02/27(月) 20:43:44 ID:E8yShcwl
最近swapはファイルで済ませちゃってるな。
LVM使うのは/homeだけだ。
296login:Penguin:2006/02/27(月) 23:45:15 ID:ogY+RzDz
>>294
業務用で実運用中に/usr/localが増えるのはどうかと
297login:Penguin:2006/03/17(金) 16:47:29 ID:pa0JYMTy
ほちゅん
298login:Penguin:2006/03/20(月) 00:40:08 ID:Z/stLUW1
# vgcreate test /dev/hdb2 /dev/hda3
とやって、2つのPVにまたがったVGを作りました。

んで、lvcreate で LVを作るとき、/dev/hda3 だけに作ってくれとか
そういう指定はできない??
299login:Penguin:2006/03/20(月) 00:44:19 ID:3FBcKPyB
>>298
VGの後にPV指定すればいい
300login:Penguin:2006/03/20(月) 00:54:16 ID:Z/stLUW1
>>299
うお、まじで〜。

ってmanみたら書いてありました・・・すまんす。

301login:Penguin:2006/03/20(月) 09:18:30 ID:NKUFVZgB
>>298
参考のためになんでhda3だけにLV作ろうと思ったの?
なんか有るならおしえてほぢい。
302login:Penguin:2006/03/20(月) 20:33:13 ID:Z/stLUW1
>>301
実際には hda4 と hdd1 にまたがったVGで hdd は後で追加した。
hdd1 の最後のほうに LV を作りたかった。

hdd が hda に比べて古い HD なので、遅いし、いつ壊れるかわからん。
HDの後ろのほうはさらに遅いので、ここにゴミデータをおきたかった。

てなかんじの、あまり参考にならん理由です。
303login:Penguin:2006/03/20(月) 22:46:38 ID:NKUFVZgB
>>302
なるほど。ありがとう。
304login:Penguin:2006/03/21(火) 05:54:10 ID:qn7ptd8S
>>285
便乗質問で悪いけど
LVMの中にswapパーティション置いても2GBの制限はなくならないよね?

> swap領域を簡単に大きく出来る。
を誤解してるわけじゃないです
305login:Penguin:2006/03/21(火) 06:33:54 ID:GNxk/W6H
>>304
なくならない
306login:Penguin:2006/03/21(火) 10:59:31 ID:qn7ptd8S
>>305
ありがとう
307login:Penguin:2006/03/23(木) 16:32:23 ID:zYoXh2XX
LVMとは直接関係ないことだけど swap の話が出たので。

うちはメモリーを512MB以上積むようになってからは、
swapパーティションを切らないようになった。
現在はアプリケーションサーバとしては動かしていなので
問題は起きてないのですが、メモリ食いのアプリを
動かすようになったら考慮しないといけないかも。

ファイルサーバーやWebサーバー、DNSやルーター程度なら不要だよね?
308login:Penguin:2006/03/23(木) 18:03:00 ID:dgXyXwqo
俺んちFC4だが、swapの2GB制限ないよ〜?
1つのパーティションでswap 3GB に設定してあって
今、実験してみたら3GBフルに使えた。
309login:Penguin:2006/03/24(金) 20:40:48 ID:oFxp8fco
Linuxの場合、LVMとソフトRAIDが別機能ってのが、わかりづらいな。
VG作るときにミラーとかストライピングが指定できるようになれば、かなり使いやすくなるのになぁ。
310login:Penguin:2006/03/25(土) 02:03:59 ID:ldYGxjMi
>>310
何言ってんのかわからん。MirrorDisk/UXだって別売りだろ?
311login:Penguin:2006/03/25(土) 03:01:06 ID:VNcGuME2
確かに、VxVMやDiskSuiteなんかは、LVMとSW-RAIDを明確に分けてないな。
物理ディスクをまとめるときに、普通にミラーやらRAID5を指定して作れる。
312login:Penguin:2006/03/25(土) 12:01:24 ID:ldYGxjMi
VxVやMDiskSuiteに、LVMは含まれてないと思うんだが。
313login:Penguin:2006/03/25(土) 12:47:07 ID:jFeUU+q+
LVMに相当する機能のことだろ。
DiskSuiteの用語で言えば、「ソフトパーティション」
それにSolaris9からは、DiskSuiteのこと自体を「LVM」と詠んでるしな。
314login:Penguin:2006/03/26(日) 23:53:14 ID:+ilWfbVR
「くだらねえ質問は…」から引っ越してきました。
元の質問はこれです。
http://pc8.2ch.net/test/read.cgi/linux/1141903504/827
で、いろいろやりとりがあったわけですが、…
http://pc8.2ch.net/test/read.cgi/linux/1141903504/881
http://pc8.2ch.net/test/read.cgi/linux/1141903504/884
http://pc8.2ch.net/test/read.cgi/linux/1141903504/888
http://pc8.2ch.net/test/read.cgi/linux/1141903504/889
http://pc8.2ch.net/test/read.cgi/linux/1141903504/892
http://pc8.2ch.net/test/read.cgi/linux/1141903504/893
vgchange -a y VolGroup00 をやりましたが、/dev 以下には
何の変化もないようです。

あと、向こうのスレで書き忘れていたことを書いておきます。
現在インストールされているOSはFC5で、これはこれでLVMに
なっています(/bootが/dev/hda1で/dev/hda2がLVM。その中に
swap と /)。で、外付けに付いているディスクは FC3 で使用
していたものですが、構成は同じです(/dev/sda1 が /boot で
/dev/sda2 が LVM。その中に swap と /)。

ということで、この現在外付けにある LVM の中の / をマウント
する方法を教えてください。よろしくお願いします。
315login:Penguin:2006/03/27(月) 00:15:20 ID:J/oPtjaT
1. とりあえず祈る。
2. 古いディスク(/dev/sda)で起動する。
3. lvm情報を消す。(vgchange -a n VolGropu00したあと、vgexport VolGropu00)
4. 新しいディスク(/dev/hda)で起動する。
5. 古いディスクを付ける。
6. vgimport vg01 /dev/sda2、 vgchange -a y vg01
7. /dev/vg01/???をマウント。

ttp://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-9.html
日頃の行いが良いことを願え。

もしくはもっと安全な方法を誰かが教えてくれることを。
316login:Penguin:2006/03/27(月) 00:17:58 ID:J/oPtjaT
しかし、マウントしているディスクは vgchange -a n
できないんじゃないかなぁ。

なんとなく、もう1回インスコしなおしてインストール時に
VG名を変えた方が簡単な気がする。
317login:Penguin:2006/03/27(月) 00:26:17 ID:J/oPtjaT
>>316
knoppixとかを起動してlvm情報を消すの方がいいかも。
318login:Penguin:2006/03/27(月) 00:31:22 ID:LGc9eKUw
Knoppixなぞ使わんでFedoraのインストールCDでレスキューモードに入ればいい。
その時一時的にBIOSで/dev/hdaを殺しておくといいだろうな。
そのうえでvgrenameで/dev/sda上のVGを変名。
あとは普通に起動してlvscanすれば見えるはず。
319login:Penguin:2006/03/27(月) 00:40:04 ID:J/oPtjaT
>>218
ありがとう。俺も参考になったよ。
320314:2006/03/27(月) 01:10:03 ID:SywC2/7h
皆様いろいろありがとうございます。
レスキューモードためしてみます。
321314:2006/03/27(月) 02:28:07 ID:SywC2/7h
ダメでした。
BIOS で内蔵HDDをNoneにしてからレスキューで起動すると
外付けHDDがマウントされるんですが、vgrename は vgchange -an
をした後でないとできません。しかし mount されているので
vgchange はエラーとなります。umount すればいいんでしょうが、
そうすると vg* のコマンドがレスキューに入っていない、というか、
それ以前の問題として、/etc 以下が見えなくなります。
322login:Penguin:2006/03/27(月) 02:36:09 ID:LGc9eKUw
>>321
レスキューCDでLVMを操作する時はlvmコマンドを使うんだ。
lvm vgscan
lvm vgrename ほげ ふが
のように使う。
そもそもvgほげほげやlvほげほげはlvmへのシンボリックリンク。
323login:Penguin:2006/03/27(月) 02:51:07 ID:SywC2/7h
>>322
なるほど。しかし /mnt/sysimage の umount はできませんでした。
たしかオープンしているというようなエラーが出てました。
これだとどうにもできないですよね?

KNOPPIX で起動してみるというのもやってみたんですが、
KNOPPIX 4.0.2 には lvm が入っていないため、そのまま
では何もできませんでした。
324login:Penguin:2006/03/27(月) 03:01:55 ID:LGc9eKUw
>>323
umount /mnt/sysimage/boot
umount /mnt/sysimage/proc
umount /mnt/sysimage/sys
umount /mnt/sysimage
ていうかレスキューモードで起動する時にmountしないを選べ。
325login:Penguin:2006/03/27(月) 04:03:06 ID:SywC2/7h
>>324
あー!そういえばマウントしないってありましたねえ。
うっかり惰性で毎回マウントしてた。orz

でも、もうひとつの方法に気がつきました。
http://pc8.2ch.net/test/read.cgi/linux/1141903504/904
ようはVGの違うマシンにつなげばいいんじゃないか? ということですが。

ま、とにかく、続きは明日やります。
いろいろとありがとうございました。
326login:Penguin:2006/03/27(月) 10:51:35 ID:DhLB5I7L
LVMって使わない場合と比較してもファイル操作の速度はほとんど落ちないんだね。
327login:Penguin:2006/03/27(月) 20:32:55 ID:J08GeQnt
むしろ、ストライプの場合は、上がるんじゃね?
328325:2006/03/27(月) 22:10:35 ID:SywC2/7h
やった! マウント成功!

BIOSで /dev/hda を None にしてからFC5のレスキューでHDDを
マウントしないで起動して lvm rename で名前を変えたら2つVG名が
出てきました。で、リブートして BIOS で HDD を戻して起動後に
vgscan したら出ました。んで /dev に新たにVG名のディレクトリと
LVのデバイスができていたのでマウントしたらできました。

ということで皆様大変ありがとうございました。これでファイルを救えます。
329login:Penguin:2006/04/10(月) 19:36:59 ID:vi3HRBbu
LVMの中でSWAPのサイズをでかくするのはどうやってやるのですか?
330login:Penguin:2006/04/11(火) 01:39:14 ID:taYacMjR
lvextendかlvresizeででかくして、swapoff;mkswap;swapon
331login:Penguin:2006/04/11(火) 02:26:32 ID:bPJLOCKr
hahaha
332login:Penguin:2006/04/11(火) 03:09:22 ID:taYacMjR
hahahaじゃでかくはならんぞ
333login:Penguin:2006/04/11(火) 09:14:22 ID:FTvKraHL
>>329
まあ、まず swapoff する必要はあるだろうなあ。
その後スワップ用パーティションをでかくして、
それが終わったらそのパーティションに対して
mkswap して、それから swapon で追加。
334329:2006/04/11(火) 12:10:49 ID:+JtsdC+X
>>330,>>333
ありがとうございます。無事増やす事が出来ました
335login:Penguin:2006/04/11(火) 20:06:16 ID:SajR50yj
mdマジで使いにくいなぁ。
LVMの方でミラーをサポートする計画ないんかな?
336login:Penguin:2006/04/14(金) 01:08:29 ID:CGlDZwjN
無いみたい。MDは今後も活発に開発が続く。いっぽうLVMのほうは怪しい雲行き。
337login:Penguin:2006/04/25(火) 13:27:45 ID:V1nepZR+
教えてママン
例えば、外部ストレージをLVMで使ってたとするじゃん。
で、OS再インスコして、その外部ストレージのデータに再度アクセスするには、
具体的には、どのような手順で復旧すればいいんじゃろか?

RHEL4,LVM2で説明してくれるとありがたい。
338login:Penguin:2006/04/25(火) 14:09:12 ID:zXm32lfy
>>337
vgexport
339login:Penguin:2006/04/25(火) 16:13:56 ID:V1nepZR+
>>338
早々のレスポンスありがとうございます。
vgexport,vgimportは、ディスクの移設用途に有用だと思いますが、
自分のご享受頂きたいのは、復旧用途です。

質問内容を以下に変えます。
外部ストレージにLVMを使用しているOSがあったとします。
で、/etc/lvm以下は、他サーバにでもコピってあるとします。

その状態で、そのOSを再インスコして、LVMの構成情報なくなったとすると、
単純に、/etc/lvm/*をコピーって復元すれば、
もとのストレージ上のLVにアクセスできるんでしょうか?
だめなら、どうすればできるでしょうか。

LVMの構成のバックアップの観点からすると、
/etc/lvmのバックアップを考えてますが、
他になんかありますでしょうか。
340login:Penguin:2006/04/25(火) 16:30:10 ID:Q9JQH40w
vgscan してみるとか。

で、もし現在既に存在している(多分本体側のHDDにある)ボリュームグループと
同じ名前だった場合はしょうがないからレスキューディスクで起動して本体の
HDDをマウントしないで起動して lvm vgrename して違う名前にしてから
普通に起動してまた vgscan して、違う名前で出てきたら vgchange -ay で
使えるようにして、それから mount、という感じでどうか?
341login:Penguin:2006/04/25(火) 19:47:06 ID:Yn+ZcUVE
vgexportしないといけない仕様がわけわからん
342login:Penguin:2006/04/25(火) 21:49:32 ID:GxyTV1Lt
新しいバージョンのlvm2のユーザーランドツールは
同名ボリュームの扱いがよくなったらしい。
人柱レポート希望。
343login:Penguin:2006/04/25(火) 23:51:59 ID:Knifqujq
Windowsから読み込めるようになればうれしいな
ext2を読み込めるドライバとかソフトウェアがあるみたいだけど
LVMがあると駄目みたい
344login:Penguin:2006/04/26(水) 11:22:43 ID:sloBdyUe
ちょっとLVMについて質問です

LVM上に250GBx4で構成しています。
この構成で今後容量が不足してきた場合、ディスクを追加したいわけですが、
たとえば、今ある4つのディスクの内の1つを250GB→500GBに増量し、
HDD数は4つのまま、といった増設はできますか?しかもデータを消さずに。
他にディスクがないので外部ディスクに一旦保管することなくできるのが一番良いのですが、
良い方法なないでしょうか。

また、この4つのうち、いくつかのHDDを別のストレージコントローラ上に
移設した場合でも既存のLVM情報(データ)は維持されるんでしょうか?
例えば、マザーのオンボードIDEで4つHDDをつないでいたものを、
その内2つだけをPCI増設のIDEカードに移動した場合など。
345login:Penguin:2006/04/26(水) 13:23:49 ID:6pCNjhs9
一時的に5台になってもいいならpvmoveで一発
346login:Penguin:2006/04/26(水) 17:50:15 ID:6YwYLah+
とりあえずバックアップは取っておいたほうが良いとおもうけど
347login:Penguin:2006/04/27(木) 00:17:55 ID:cW9HUkmi
ありがとうございます。
pvmoveメモりました。今度増設の時にそれを元に勉強したものを試してみます。

確かにデータはお金に替えられないので無理してでも一時的に物理的に
別ディスクに退避したほうがいいですね。
ドライブドアでも買うしかないかな・・・。
348login:Penguin:2006/04/28(金) 12:00:16 ID:Tavr5iPA
/dev/hdd1 に不良セクタがあって
その中のLVから修復してもいいのかな?
lvresize とかしたら・・・・。

LVのファイルシステムはext3です。

PVに不良セクタの登録とかって無理かな?

349login:Penguin:2006/04/28(金) 12:26:41 ID:jKvdMXGf
EVMSにはBad Block Relocationって有るんだけどLVMではどうなんだべかね
e2fsck -cは無意味だろうし
350login:Penguin:2006/05/06(土) 21:36:35 ID:9Nz0DVKQ
ある論理ボリュームにlvextendコマンドでフリーなエクステントを
いくつかくっつけたら、くっつけた分が別のセグメントになって、
2つのセグメントを持つ論理ボリュームになってしまった。
1つのセグメントのサイズが追加したエクステント分だけ増えるわけじゃなくって、
追加するごとにセグメントが増えるってのは仕様なのでしょうか?
増えたセグメントをマージして1つのセグメントにするってのは
できないんでしょうか?

ちなみに、当方、Fedora Core 5をつかっておりますです。
351350:2006/05/06(土) 21:42:57 ID:ogvSlzBU
ちなみに、上記でつっつけたフリーのエクステントは
単一の物理ボリューム上にあります。
352login:Penguin:2006/05/06(土) 22:12:58 ID:0dxjyGCq
セグメントってなんだ?
353login:Penguin:2006/05/25(木) 16:16:10 ID:4eSgmVoU
netmaskで分けられてるトコだろ>segment
354boot problem:2006/05/29(月) 23:53:49 ID:2b3MoQPu
FC3ユーザーです。
ルートディレクトリのあるLVGroup00に、外付HDD(USB接続)上のパーティションを、
LogVol01として追加しました。起動すると、LogVol01が見つからなかったらしく、
全ての構成PVが見つからないのでLVGroup00が見つからない、ルートをマウントできない、
というエラーメッセージが出てカーネルパニックを起こしてしまうようになりました。
ちなみにそれまでは、論理ボリュームは内蔵HDDだけで構成していました。一度でも
起動できれば、USB/HDDをLVGroup00から抜こうと思っているのですが、そもそもPVが
認識できないのでレスキューモードでlvscanしてもLVGroup00を認識できません。
initrdを書き換えれば、とりあえず起動しそうなものですが、やり方がわかる方が
いらっしゃいましたら教えて下さい。よろしくお願いします。
355login:Penguin:2006/06/11(日) 15:55:37 ID:iWS/LLpD
ちょっと疑問があるんだけど、LVM snapshot を使っている最中に、
スナップショット元への大量書き込みが発生してバッファ領域が
足りなくなったら何が起こるの?write(2) とかが ENOSPC でエラーになる?
356login:Penguin:2006/06/11(日) 17:52:42 ID:AVHMKd1I
壊れる
357login:Penguin:2006/06/11(日) 18:20:36 ID:iWS/LLpD
>>356
まじですか?それちょっと怖いんだけど。
358login:Penguin:2006/06/25(日) 03:16:17 ID:4arPY93Z
無償のStorage Foundation Basicで良いのではないでしょうか。
359login:Penguin:2006/06/30(金) 21:30:39 ID:bt8aI5W+
LVM が

/dev/sda3: 内蔵 SATA、8e → /dev/vg1
/dev/sdb1: 内蔵 SATA、8e → /dev/vg1
/dev/sdc1: 外付 USB(ATA)、8e → /dev/vg2
/dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2

としているとき、内蔵 HDD を単純に 1台増設すると

/dev/sda3: 内蔵 SATA、8e → /dev/vg1 (変更なし)
/dev/sdb1: 内蔵 SATA、8e → /dev/vg1 (変更なし)
/dev/sdc1: 内蔵 SATA、83 (新設。後で vg1 に追加する予定だがひとまず 83 のまま)
/dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2
/dev/sde1: 外付 USB(ATA)、8e → /dev/vg2

と vg2 を構成する外付 USB の順番が 1コずつズレて vg2 がマズい状態になりそうなんですが、
HDD 増設後に vgscan で一発解決できますか?
360login:Penguin:2006/06/30(金) 23:43:50 ID:1bsmmkCt
>>359
再起動すればvgscanも必要ない。
361359:2006/07/01(土) 00:35:05 ID:2s9fKqFU
>>360
ほほぅ、そんなもんですか。だったら気が楽だ。
助かりました。ありがとうございます。
362359:2006/07/02(日) 16:46:58 ID:ebetDEkG
内蔵SATAディスクの増設はサクッと上手く行ったので、調子に乗って
/dev/vg2(3台のATAディスクを積んだ novac 4台はい〜るKIT) に
SATAディスクを1台IDE変換コネクタをかませて追加してみたところなぜか認識せず、
vg2 も見失い、困った展開に。

lvscan で探すと vg2 の LV は "inactive" となってデータ自体は生きてるようだったので、
vg2 を作り直し、LV も同名・同サイズ・フォーマットなしで作り直してマウントしてみると、
複数あるうち 1つの LV だけマウントできない。

/etc/lvm/archive/ 中のファイルを見ると、同サイズにしたつもりがマウント失敗 LV が微妙に小さかったことが判明。
vg2 中の全 LV を削除、改めて同名で作り直してマウントしてみると、無事に復活。

失われる前の LV は何度かサイズを拡張したからダメだろうと思いつつやってたんですが、
サイズと名前さえ合ってれば、結構乱暴な扱いをしても OK なんですね。
少々焦ったものの、貴重な体験ができました。
363login:Penguin:2006/07/02(日) 18:54:11 ID:ga9/U/Ul
>>362

参考になりました。
364login:Penguin:2006/07/29(土) 14:26:59 ID:TSQYdC/Y
たくさんのHDDで、RAID使わずLVMのみで構築してる人
結構壊れるもんですか?

・何も考えずにLVMのみで構築
・RAID5組んで、その上でLVM構築

どっちにしよう
後から容量足せるのがいいんだよね
365login:Penguin:2006/07/29(土) 14:31:49 ID:TSQYdC/Y
てゆかスレ止まってるのでage
366login:Penguin:2006/07/29(土) 15:34:35 ID:l49WN+G+
HAになってないDISKにLVMなんてアリエネ-
367login:Penguin:2006/07/29(土) 16:18:38 ID:K2DDu9Rg
>>366
fedoraを否定するにはあまりに分が悪くないでしょうか。
368login:Penguin:2006/07/29(土) 16:51:23 ID:xqKAhYME
スナップショット使っていて、たまたま領域溢れがおきると
それが無効になるだけじゃなくてカーネルパニックになるのは仕様?
カーネルは2.6.17です。

# mount /dev/vg0/p0 /mnt/vg0p0
# lvcreate -s -n p0.snap -L 1 /dev/vg0/p0
# dd if=/dev/zero of=/mnt/vg0p0/big.bin bs=1024 count=8192
# lvremove vg0/p0.snap
<kernel oops>

で 100% パニックになってしまう。マニュアル見ると lvextend で
救えるみたいに書いてあるので、溢れた後で意味あるのかと疑いつつ

# lvextend -L +32M /dev/vg0/p0.snap
# lvchange -ay /dev/vg0/p0.snap

などをしてみたのですが、やはり lvremove でパニックという
結末が避けられません。

十分大きな領域を取るようにする運用である程度回避はできるけど、
うっかり大きな書き込みしたらシステムごと飛ばせるのは怖いので、
パッチや回避策があれば教えて下さい。
369login:Penguin:2006/07/29(土) 16:58:50 ID:18kd3ovo
AIXとかのLVM物理ディスク丸ごとをボリュームグループに追加してるけど
LinuxのLVMだとパーティションをボリュームグループに追加するんだね。
なんか理由があるのかな?
370login:Penguin:2006/07/29(土) 18:35:30 ID:9J5yxANj
パーティションテーブル構造の違いと、
LVMが当たり前になっているAIXやHP-UXでは、物理パーティションを切るメリットが全く無いから
やらないってことじゃないかな?
371login:Penguin:2006/07/29(土) 18:58:31 ID:l49WN+G+
HP-UX@IPFはパーティション切る
EFIのクソッタレ
372login:Penguin:2006/07/29(土) 22:18:25 ID:D7f/oD9K
>>369
おれはもう何年も増設ディスクにパーティション切ってないよ。
LVMでもそうでなくても。
373login:Penguin:2006/07/29(土) 22:26:48 ID:xqKAhYME
>>372
mount /dev/sdb /data とかってこと?漢の切り方ですな。
374login:Penguin:2006/07/29(土) 22:28:32 ID:xqKAhYME
すまん、sageてなかった・・・
375login:Penguin:2006/07/29(土) 23:16:24 ID:bcm1JGhF
>>373
頭大丈夫ですか?
376login:Penguin:2006/07/29(土) 23:25:12 ID:18kd3ovo
>>375
パーティション切らないっていうと俺も>>373みたいなイメージをしてしまうんだけど。。。
377login:Penguin:2006/07/29(土) 23:41:31 ID:ypKIHAUk
領域溢れないのを前提だからねえ。そりゃパニくる。
無効にすればいいと言うけど、アプリケーションからはそんなの理解出来ないし。どう互換性取る?
378login:Penguin:2006/07/30(日) 00:28:39 ID:92rJ+6P6
PVをマウントなんかできねーっつの
379login:Penguin:2006/07/30(日) 00:34:35 ID:bLOnGl/y
>>372はLVMでなくてもパーティション切らずに利用していると言ってるみたいだけど
それはどういう意味なのかが知りたい。
もしかして単にPVにパーティションを1つだけ作成してるという意味なのか?
380login:Penguin:2006/07/30(日) 01:52:59 ID:ARvl2Fmi
全領域を1つのlvとして取ってるってことだろ

さて、やっぱバックアップなしのLVMは無謀かな…
HDDケースとかの「コンバイン」と同じだもんなぁ
データ量が多すぎるので複製バックアップは非現実的なんだよな
381login:Penguin:2006/07/30(日) 02:40:26 ID:honuiWv6
>>377
うむむ・・・単にPVの欠乏を検出したらスナップショット側への
書き込みにはENOSPCを返し、ソース側への書き込みについてはスナップ
ショットとの関連付けを最初からなくし、一切スナップショット用PVを
消費しないオプションとかあれば理想的かなーと挙動みて思った。

今すぐどうにかなる話ではないみたいなので対策の話に移ると、
バックアップ用スナップショットってどれくらい領域確保してます?
話では元領域の20-100%確保しろとかあるけれど、読み出し専用な
バックアップ用スナップショットでもそんなに取るものですか?
結局バックアップ所要時間中にどれだけ書くかだからケースバイ
ケースなんだけど、個人利用で300GB HDD中100GBとか食われるのは痛い。
382login:Penguin:2006/07/30(日) 20:21:22 ID:Mx8Fl/aT
>379
ん? mkfs /dev/sda とか pvcreate /dev/sda とか
しててるけど。
383login:Penguin:2006/07/30(日) 21:10:20 ID:bLOnGl/y
>>382
自分で試してみたらできました。
Linuxだからパーティション、AIXだから物理ボリュームとかいう分類は特にないんですね。
AIXとかは大規模システムだからパーティション切る意味がないってだけなんですね。
384login:Penguin:2006/07/30(日) 22:15:50 ID:92rJ+6P6
そのうちx86もEFI使うだろ
385login:Penguin:2006/07/30(日) 23:18:26 ID:+9CxprNK
>>384
怪しくなってきた。
Vistaでx86版もEFI対応の予定がキャンセルされちゃったし。
386login:Penguin:2006/07/30(日) 23:25:52 ID:92rJ+6P6
IA64と共に葬り去ってくれて一向に構わないけどw
最近のマカーはEFIっしょ
387login:Penguin:2006/07/31(月) 20:09:00 ID:1rvcY3/L
カーネルにはすでに EFI Support (Experimental) てな感じであるね
肝心のものは市場に出回ってるわけ?
388login:Penguin:2006/07/31(月) 20:24:11 ID:1Tsuyn7I
以前どっかの早漏メーカーが出してた
389login:Penguin:2006/07/31(月) 21:27:57 ID:v1KNHtS2
x86なEFIはIntel MACで搭載済み
390login:Penguin:2006/08/04(金) 11:39:44 ID:3TC8Ado/
zfsがLinuxに移植されたらLVMはなくなると思う。
391login:Penguin:2006/08/04(金) 13:53:06 ID:s5AMUQ9D
zfsがメインになることはありえない。
せいぜい実装できるのは、Solarisで作成したzfs領域に対して読み書きが可能となるくらい。
392login:Penguin:2006/08/04(金) 17:55:20 ID:i6p2sUmz
FUSEで実装してるならまあそうだろうな。
393login:Penguin:2006/08/04(金) 22:11:42 ID:3TC8Ado/
ext3+LVMとzfsを比べると
・物理デバイスを超えたボリューム作成
・信頼性
・スピード
・高可用性
あたりでzfsが有利に見える。
ただ、Solarisにべったりな実装になっていて移植自体が難しい場合は望むべくも無いんだけど。

>>391,392
FUSEかー、ブートはext3なんかのほうが
互換性とこれまでのノウハウの蓄積を考えるといいんだろうけど。
ってか、FUSEだとスピードや信頼性でもともと持ってるポテンシャルを
発揮できない希ガス。
394login:Penguin:2006/08/07(月) 00:39:39 ID:GtH2asAX
lvmを試してます。
OSインストール時に /dev/VolGroup00/LogVol00 を作成しました。

HDDを追加して、fdisk /dev/hdc の/dev/hdc1を
8eで lvmのボリュームを作成しました。

# pvcreate /dev/hdc1
上記コマンドを実行したところ、
Can't open /dev/hdc1 exclusively. Mounted filesystem?

というエラーが発生しました。
なぜ pvcreateできないのでしょうか

OS は cent4.3です。
395login:Penguin:2006/08/07(月) 00:43:52 ID:XI6TJIbe
>>394
mountって打ち込んでみ?
396login:Penguin:2006/08/07(月) 12:36:59 ID:GtH2asAX
>>395さん

# mount
/dev/hda2 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/pts type devpts (rw,gid=5,mode=620)
usbfs on /proc/bus/usb type usbfs (rw)
/dev/hda1 on /boot type ext3 (rw)
none on /dev/shm type tmpfs (rw)
/dev/mapper/VolGroup00-LogVol00 on /home type ext3 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

上記が表示されました。
/dev/hdc1 は含まれてませんでした。

ちなみに
#mount /dev/hdc1 /mnt
mount: /dev/hdc1 は マウント済か /mnt が使用中です


というエラーになります。
397login:Penguin:2006/08/07(月) 13:24:16 ID:XI6TJIbe
じゃ次は
fuser -v /mnt /dev/hdc1
398login:Penguin:2006/08/07(月) 14:00:39 ID:GtH2asAX
>>397さん

# fuser -v /mnt /dev/hdc1

# fuser -v /dev/hdc1

上記で試しましたが、何も表示されませんでした。
399login:Penguin:2006/08/07(月) 14:51:25 ID:YbuXzI7B
じゃ次は
# dd if=/dev/hdc of=mado --nage
400login:Penguin:2006/08/07(月) 16:12:53 ID:GtH2asAX
dd if=/dev/hdc of=mado --nage
dd: unrecognized option `--nage'
詳しくは `dd --help' を実行して下さい.

と表示されました。

調べましたが、"--nage"というオプションは見つかりませんでした。
401login:Penguin:2006/08/10(木) 02:17:28 ID:oa2uMyiW
お前面白いな
402login:Penguin:2006/08/10(木) 02:41:25 ID:DRx8xrmE
>>400
これで幸せになれるよ
dd if=/dev/zero of=/dev/hda bs=512 count=1
403login:Penguin:2006/08/10(木) 07:36:47 ID:+6NubT9U
Debian(Sarge)&LVM2なんだけど、
PE指定し忘れたまま550GBのLVを斬ってデータ書き込み、
再起動後にマウントできなくなってしまいました。

こんなエラーが出ます
mount: special device /dev/vg0/data does not exist
(LV名は仮)

vgdisplayすると、550GBのLVは見えます
vgresize(だったっけ)でのサイズ変更はとりあえず成功、250GBに切り直し。
やはりマウントは出来ません。
ttp://www.itmedia.co.jp/enterprise/0307/11/epn01_5.html
ここと攻略本を見てLVM構築したんですが、PE指定、すっかり忘れてたorz

試しにfsck /dev/vg0/dataとやっても、「そのようなファイルやディレクトリはありません」とエラー。
もうこの時点でデータは救えませんかねぇ。。

あとはvgの再構築…
しかしこれやると全部データあぼーんですよね
404login:Penguin:2006/08/10(木) 07:38:53 ID:+6NubT9U
あ、
PVは600GB(640GB)、
VGも同じ
LVは550GB
PEは4MB(デフォ)
です。

本来は255.99GBまでしかLV斬っちゃいけないんですよね
405login:Penguin:2006/08/10(木) 10:39:44 ID:hxxEJfDZ
>>402 さま
おかげさまで直りました。

どうもありがとうございます。
406login:Penguin:2006/08/18(金) 18:14:34 ID:ikn0YhVS
407login:Penguin:2006/08/22(火) 12:45:52 ID:ktWadiYS
/にマウントしてるLogVol00を15G→5Gに小さくしようとして、
レスキューCDで起動し、
 lvm vgchange -a y
 resize2fs -p /dev/VolGroup00/LogVol00 5G
 lvm lvreduce -L -10G /dev/VolGroup00/LogVol00
と打ち、CDを抜いてrebootしたところ起動時に、

/dev/VolGroup00/LogVol00: The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks
Either the superblock or the partition table is likely to be corrupt!

/dev/VolGroup00/LogVol00: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY.
(i.e.,without -a or -p options)

*** An error occurred during the file system check.
*** Dropping you to a shell; the system will reboot
*** when you leave the shell.
*** Warning -- SELinux is active
*** Disabling security enforcement for system recovery.
*** Run 'setenforce 1' to reenable.
Give root passwd for maintenance

というエラーが出てきました。この後rootでログインし、
 e2fsch -f /dev/VolGroup00/LogVol00
と打ち、
 Error reading block 1277954 (Invalid argument) while doing inode scal. Ignore error<y>?
という問いには全てEnterを押し続けました。
e2fsckが終わったところでrebootしましたがまた同じエラーが出ます。
LV縮小の手順が間違っていたのでしょうか?
408login:Penguin:2006/08/22(火) 12:53:32 ID:MSFbj8Ho
The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks

これに尽きるんじゃねぇの?
ファイルシステムの方が大きくなってるし。
lv小さくしすぎたんじゃねぇ?
409407:2006/08/22(火) 13:06:19 ID:ktWadiYS
>>408
すいません、自分で書いておきながらそのメッセージを見落としてました。
ジャストサイズで合わせようとしたのがいけなかったですかね。
手順としては
 resize2fs -p /dev/VolGroup00/LogVol00 4G ←1G少なく設定
 lvm lvreduce -L5G /dev/VolGroup00/LogVol00 ←絶対値で5Gと指定
 resize2fs /dev/VolGroup00/LogVol00 ←LogVol00の容量に合わせる
でいいでしょうか?
410407:2006/08/22(火) 13:37:15 ID:ktWadiYS
上記の手順で試したところ成功しました。
>>408氏ありがとうございます。
因みに407な状態になってしまったら復旧することは可能なのでしょうか?
今回はテスト環境だったので問題はなかったのですが。
411login:Penguin:2006/08/28(月) 18:23:16 ID:Qm2KIGHV
良いlvmの参考書ってないの?
412login:Penguin:2006/08/30(水) 21:16:00 ID:EMppbjrW
L inuxで
V olumeを上げたら
M uteになった

         ともぞう
413login:Penguin:2006/09/01(金) 01:55:10 ID:+V4to7us
>>411
そんな難しくないと思うけど、LVM HOWTOじゃだめ?
それ見ながらVMwareとかでがんがん挙動確認を兼ねていじってみるのが
いいと思う。

もっともその動作確認で極限状態での挙動が不審なんで怖くなって、
リアル利用はまだ控えてるが・・・
414login:Penguin:2006/09/08(金) 02:43:04 ID:ZNK9r2o4
hdcがLVM で ボリュームグループがVolGroup00としてが一つだけ作られていて、
その中に論理ボリュームがLogVol01の一つだけが
出来ていて、ext3でフォーマットされています。
60%ほど使用している状態です。

これを一つのfatにしたいのですが、
1.LVM内ext3に対応したdefragはありますか?
2.ボリュームグループのサイズを変更することは出来ますか?

よろしくお願いします。
415login:Penguin:2006/09/08(金) 03:06:24 ID:EaO4bLDZ
WindowsはLVMの中のFATファイルシステムをアクセス出来ないと思うが?
416414:2006/09/08(金) 08:54:44 ID:t89DwNuf
LVMのサイズを減らしてFATパーティションを作る
ファイルをコピー。
またVLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。
fatパーティションの拡大

417414:2006/09/08(金) 08:57:11 ID:t89DwNuf
1、LVMのサイズを減らしてFATパーティションを作る
2、ext3からfatにファイルをコピー。
3、VLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。
4、fatパーティションの拡大

5、2からを繰り返し


とやりたいんです
418login:Penguin:2006/09/08(金) 12:42:23 ID:EaO4bLDZ
増設ディスク買ってきて繋げ。おまえにゃ無理。
419414:2006/09/10(日) 03:42:58 ID:WmrMnAO9
ttp://pantora.net/pages/linux/lvm/3/
を参考にして ext3の縮小とLVの縮小は出来たのですが
system-config-lvmでパーティションを見ると
ぶつ切れでLVも魅しようスペースもある。
ブツ切れだからなのか論理ビューでの「新しいボリュームの作成」も効かない。

418は対処方法解ってるのならコマンドだけでも教えてくれるとうれしい。

増設ディスクのが楽なのは解ってるが、出来ればこれで何とかしたい。

LVMを一発で普通のext3とかに変更できたりするのだろうか?
420login:Penguin:2006/09/13(水) 05:41:52 ID:QbuQIyy7
バックアップさえ取ればいくらでも好きなように弄って試せると思う。
ハードディスク増設しちゃうのが金で解決で簡単だけどな。
421login:Penguin:2006/09/13(水) 08:00:56 ID:tZ69K+tZ
Time is Money.
422login:Penguin:2006/09/13(水) 17:33:10 ID:Xmrz1r6n
skill is Money.
423login:Penguin:2006/09/14(木) 09:31:47 ID:/BE0hgr7
Skill is Monky!
424login:Penguin:2006/09/14(木) 09:55:48 ID:cafxdNt0
Money is skill.
425login:Penguin:2006/09/14(木) 12:08:00 ID:GgbU7PK9
Time goes by.
426login:Penguin:2006/09/14(木) 13:38:44 ID:CUW9kQ6n
All your base is belong to us.
427login:Penguin:2006/09/20(水) 23:37:09 ID:6BRbwmHO
LVMで作成されたボリュームのマウントについて教えて下さい。

FC3をインストールして使っていたHDDが有るのですが、
この中のデータを読み書きしたくて別のLinuxのマシンのhdcポートに繋ごうと思います

対象のディスクは1パーティション?で作って有り
/dev/mapper/VolGroup00-LogVo00 /
に成っています

LVMでない場合は mount /dev/hdc1 /mnt/xxx
等でOKだと思うのですがLVMの場合はどのようになるのでしょうか?
書籍なども色々見たのですがLVMボリュームのマウント方法が分かりませんでした

LVMは複数のボリュームを繋ぎ合わせて使用する仕組みなので下手に1部分だけマウントされるとまずいかなと危惧しています。

428login:Penguin:2006/09/21(木) 00:06:27 ID:yvq2ZBoB
まず元のOSでデポートしないとだめ。
その後、新OSでクリアインポートする。
429login:Penguin:2006/09/21(木) 00:14:19 ID:inLqedFm
>>427
LVMをサポートしてるシステムなら繋ぐだけで認識して
/dev/VolGroup00/LogVol00
などが出来るはず。
ボリュームグループ名が重複してると駄目だけど。
>>428
そんな事は必要無い。
430login:Penguin:2006/09/21(木) 00:23:09 ID:oYkHcFJt
>>429
有り難うございます。

>ボリュームグループ名が重複してると駄目だけど
全く同じ構成でインストールしたディスクですので、まさに重複してます、

やりたい事はトラブったディスクを動いてるLinuxにマウントして
内容をちょっと補修して元に戻して機動しようと思ったのですが、、
ちょっと工夫が要りそうですね
全てのマシンがLVM使ったデフォでインストールしてるのでグループ名全部同じです...orz
431login:Penguin:2006/09/21(木) 00:28:33 ID:inLqedFm
>>430
レスキューCDなどで起動してlvm vgrename で変名するんだ。
インストーラがデフォルトで常に同じVG名を付けるのはあまりにも不親切だと思う。
思うならパッチ送れと言われそうだが。
432login:Penguin:2006/09/21(木) 00:38:34 ID:oYkHcFJt
>>431
>レスキューCDなどで起動してlvm vgrename で変名するんだ。
有り難うございます、
しかし、安物サーバ仕様なのでCDがついてない、、orz
あした取りあえずext3でインストしたディスク持ってきてそれを親にしてやってみます。

これからはインスト時にはVG名を全て変えるようにします、
しかしそうすると管理用の自作スクリプトとかマシン毎に全部書き換えが必要かな、
結構面倒ですねLVMって
433login:Penguin:2006/09/21(木) 00:59:32 ID:inLqedFm
スクリプトではデバイス名を使わず
極力ボリュームラベルやUUIDやマウントポイントで管理するといい。
434login:Penguin:2006/09/21(木) 22:54:28 ID:7K79Wfwz
lvm2のchanglogにはこうある。

* Thu Apr 20 2006 Alasdair Kergon <[email protected]> - 2.02.04-1.0
- New release upstream, including better handling of duplicated VG names.
435login:Penguin:2006/09/24(日) 11:51:03 ID:Zk/lDJT/
Storage Foundation for Linux
って4.1から新しいの出てないけれども、あんまり使われてないの?
436login:Penguin:2006/09/24(日) 19:20:12 ID:+L5JNLMa
veritasが必要になるほどのクリティカルな場面ではlinuxが使われないから。
437login:Penguin:2006/09/25(月) 01:28:44 ID:6TS6HcDh
>>436
VERITASのLinux対応にやる気がないから。
438login:Penguin:2006/09/25(月) 11:14:46 ID:9knmjZAy
まぁ、veritasいなくても生きてけるし。
439login:Penguin:2006/09/26(火) 12:55:06 ID:MMig26yF
Linux と VxFS の組合せってやたら遅くて使えなかった。
440login:Penguin:2006/10/11(水) 15:42:31 ID:w+0Ut2+I
あれぇ?
作ったはずのVGやLVがシステムをリブートしたら消えちゃった。
ちなみにオイラはLFSでudevdな人です。
441login:Penguin:2006/10/11(水) 22:45:09 ID:1/ePARRw
夢を見てたんですよ、きっと。
442login:Penguin:2006/10/29(日) 00:03:23 ID:ZTP3SZnn
LVM2でlvcreateやvgchange -ayすると/dev/mapper/の下にデバイスファイルが自動で出来るんですが、
これのownerやgroupやpermissionをあらかじめ設定する方法ってありますか?
443login:Penguin:2006/10/31(火) 11:05:45 ID:6oZjJImq
444login:Penguin:2006/11/12(日) 23:26:27 ID:ieFinVmQ
RHEL4U4をデフォルトのままインストールした後、
LVMのVGNameやLVNameが気に入らないので変えてみたんだが、
起動中、元の名前でマウントしようとして止ってしまう。

どこかの設定に元の名前を覚えてるっぽいんだが、
正しい変更手順てあるの?
445login:Penguin:2006/11/13(月) 00:20:26 ID:DtKUgmIq
>>444
レスキューCDで起動して変更すると共にinitrdを作りなおす。
446login:Penguin:2006/11/15(水) 09:06:40 ID:FmEvhveD
LVMを試していた際エラーが出てしまい、どうしたら良いか分からず困ってます。(Linux s390)

/dev/dasdc (約2.5G)をdasdfmtでフォーマットした後
fdasdで3つ(各500M)にパーティションを切りました。

------------------------------- tracks -------------------------------
Device start end length Id System
/dev/dasdc1 2 10667 10666 1 Linux Raid
/dev/dasdc2 10668 21333 10666 2 Linux Raid
/dev/dasdc3 21334 31999 10666 3 Linux native
32000 50069 18070 unused

partition tableを保存して終了しようとしたところ下記のようなエラーが出ました。

fdasd error: IOCTL error
Error while rereading partition table.
Please reboot!

もう一度fdasdでパーティションテーブルを見てみると
正しく表示されていたのでfdasd errorに対しては何もせず
# pvcreate /dev/dasdc3
上記のコマンドを実行してみたところ

"Device /dev/dasdc3 not found."  と表示されます。

fdasd error(IOCTL error)の解決法もしくは何故/dev/dasdc3が認識されないのか
お知恵を拝借させていただきたく書き込みしました。長くなってしまい申し訳ありません。
447login:Penguin:2006/11/15(水) 21:51:46 ID:JBx+bP3i
Please reboot!
448446:2006/11/17(金) 13:21:49 ID:GQ4FRfhc
>447
rebootしたら直りました。しっかりエラーで忠告されていたのにお恥ずかしい。
ありがとうございました。
449login:Penguin:2006/11/19(日) 01:22:27 ID:foeXuT5h
>>446
s390でLinux運用してるような奴がここで質問南なんかするなよ、、、。
IちゃんのSEは最近何やってるの?
450login:Penguin:2006/12/02(土) 03:23:43 ID:5H4vnv91
LVMの運用考えているんですが、
HDDの繋ぐ位置を変えて、たとえば /dev/sda が /dev/sdb
になったりしてもデータ壊れたりしないですかね?

ルートは非LVMでの運用を考えているので起動には
影響ないんですが。

ちなみにこういう場合はどうやって復旧させれば
良いのですか?
451login:Penguin:2006/12/02(土) 13:00:17 ID:5H4vnv91
過去ログ読むと、まだまだ不安定そうですね。
複数のHDDをつなげてテラバイトのLV作ろうと思ってたのですが
やっぱ普通のext3で運用するのが適当かな・・。
452login:Penguin:2006/12/02(土) 15:08:11 ID:hDUZpZbY
うちは3TのLV作っているけど特に問題はないな

もうすでに枯れてきている技術だとおもうが
どこを見て不安定だと思ったのか?
453login:Penguin:2006/12/02(土) 15:09:57 ID:XO8VyELM
まず名前がだめだな extの方がいけてるぜ
454login:Penguin:2006/12/02(土) 16:10:54 ID:5H4vnv91
>>452
なんか3台のうちの一部が壊れたときとか
復旧した実績がないみたいなので・・。
LVM HOW-TOだとできるみたいな感じで書いてはあるんだけれど。
455login:Penguin:2006/12/02(土) 16:50:46 ID:kzjFlxSY
>>454
つか、RAIDじゃないんだから、一部壊れたらフツーおしまい。
456login:Penguin:2006/12/02(土) 22:24:16 ID:eQc2JRBC
LinuxではソフトウェアRAIDの品質が悪いので、エンタープライズ用途では
必ずハードウェアRAIDを使えといわれました。本当?
457login:Penguin:2006/12/02(土) 22:37:37 ID:gCRA9JZT
458login:Penguin:2006/12/02(土) 22:49:27 ID:JUv9m8vq
まあ、本当。
整合性とか安定性とかだけじゃなく、故障ディスクの入れ換えもえらく面倒だった(3年以上前の経験なので今は改善されているかも)。

SolarisのDiskSuite(LVM)は、LVMとしての機能はちょー貧弱だけど、
ソフトウェアRAIDとしてはさすがによくできている。
459login:Penguin:2006/12/03(日) 02:28:25 ID:18r037ES
SolarisのSVMでトラブった経験は無いけど。
460login:Penguin:2006/12/03(日) 12:59:20 ID:tXqR4jsK
LVMってバックアップのとりやすさがうrじゃないの?
461login:Penguin:2006/12/04(月) 00:44:32 ID:PEKo/YR5
過去ログ見ると、Kernel 2.6.9ではsnapshotはやめといた方がよい?
462login:Penguin:2006/12/04(月) 07:48:00 ID:73bxYoAu
>>460 SVMだとmetaofflineでミラー切り離してバックアップ。
463login:Penguin:2006/12/04(月) 09:44:53 ID:JHet0fUL
>>462
それ自体はすごく便利な機能なんだけど、最近はSVMはシステムディスクのミラー化くらいにしか使われんからなぁ。
464login:Penguin:2006/12/04(月) 21:06:47 ID:73bxYoAu
最近のSunサーバはハードウェアRAID積むようになってきたからSVMも不要になる日は近い。
加えて、近い将来ZFSがrootファイルシステムをサポートするようになった日には。。。
465login:Penguin:2006/12/09(土) 03:29:47 ID:EBN5bRDP
ZFSあればそもそもLVMいらね
466login:Penguin:2006/12/09(土) 21:53:37 ID:6srhV/6+
最近居着いてるZFS厨はお前か。
残念ながら味方は居らぬようだぞ。
467login:Penguin:2006/12/10(日) 01:46:43 ID:tyXcoLby
味方というか、近いうちにはリリースされないのは明白だから放置状態なだけだろ
468login:Penguin:2007/01/18(木) 09:49:40 ID:OQ5FlAlV
badblocks の -n オプションは具体的にどういう原理で
非破壊的な検査をしているのでしょうか?
読み出しオンリーのときに badblocks が必要とするメモリを x とすると、
破壊的読み書きによる検査の時には 2x
非破壊的読み書きによる検査の時には 3x
のメモリが必要になるということなので、
元の情報をメモリに保持しておいて破壊的な読み書きによる検査をした後
元の情報を欠き戻すという動作をしているように思えるのですが、
この場合やはり badblocks 実行中に電源が吹っ飛んでしまったりすると
元の内容は失われてしまいますよね?
まぁ badblocks をかけるのはたいてい何も記録していない
ディスクとかだろうと思うので問題はないのかもしれませんが。
469login:Penguin:2007/02/13(火) 23:17:55 ID:1S/FhvJ/
http://pc9.2ch.net/test/read.cgi/mac/1171230282/64-66 によると
LVM,セキュアOS,Xenは目糞鼻糞な技術だそうです
470login:Penguin:2007/02/13(火) 23:32:05 ID:WSnRQ6Pg
目糞でも鼻糞でも役に立つならそれでいいじゃない
471login:Penguin:2007/02/13(火) 23:34:24 ID:veakA3NE
Macに実装されたとたんにマンセーしだすに1ペソ
472login:Penguin:2007/02/14(水) 01:20:54 ID:PUSkSyv8
/usr LVMに置き換えたよ記念。
最初からもっと大きくしときゃよかったorz
homeはnfsなので当分大丈夫かな。
473login:Penguin:2007/02/14(水) 10:18:23 ID:MJJeb0Jw
ほちゅ
474login:Penguin:2007/02/21(水) 17:51:23 ID:GEUl/Slj
LVM2でpvsとかlvsとかvgsって入れたときに出てくるAttrのところの意味がわかんない
どこかにまとめページない?
475login:Penguin:2007/02/21(水) 18:09:47 ID:Cx7Ly8SD
man attr
476login:Penguin:2007/03/11(日) 00:10:56 ID:ukEOg9KI
Sarge 2.4.27にlvm2が入っております
PVはmd5とmd6とsdi5という構成です

500GBのmd6デバイスをVGから外すため、
新たに500GBのHDDをpvcreate→vgextendまで完了しました。

これでpvmoveで新HDDへデータ移行しようという段階ですが、
いざpvmove /dev/md6すると
mirror: Required device-mapper target(s) not detected in your kernel
というエラーが出ます。

このエラー文を具具って見たところ、
/etc/modulesに dm_snapshot を追加して
# update-modulesしる
と出てたのでやってみたが状況変わらずです
もちろんvgdisplayでNOT availableを確認済みです

ttp://www.itmedia.co.jp/enterprise/0308/08/epn01_3.html
ここ見て作業してるんだけど、この環境はすんなり行ってるorz

もう止まった・・何をすればいいんだ。。
ボスケテ…
477login:Penguin:2007/03/11(日) 00:11:29 ID:ukEOg9KI
すみませんかなり過疎っぽいのでageます
478login:Penguin:2007/04/07(土) 20:50:11 ID:GOSiQcrK
LVMの完全解説本は出ないのかなぁ。

479login:Penguin:2007/04/08(日) 01:35:33 ID:3IlYmNEr
LVM+mdすげー便利。
いちいちLVMパーティション切らなくてもmdの上でlv作れるし。
mdadmのgrowでディスク追加しまくれるし、PVもそのままgrowできるし。
LVM+md+VMwareで愛用してます。
480login:Penguin:2007/04/09(月) 23:09:10 ID:OjYqpEl9
>>478
HP-UXの本とかホームページでも見れば?
481その1:2007/04/23(月) 23:12:04 ID:TAtKd+oU
(1/3)
古いHDDからデータがサルベージできなくなりました。
助けてください。。。

RedHat9で運用していたサーバのHDDを増設した。
SCSIハードディスクだけだったサーバに、IDEハードディスクを増設した。

増設したHDD(/dev/hda)に、Vine 4.1をインストールし、
BIOS設定の起動順序をIDE優先にした。

RH9(kernel2.4)では、/dev/sda2と/dev/sda6をlvm1にて、
ひとつのVGにまとめ、そこに、ひとつのLVを作って
/homeにマウントしていた。(/dev/vg01/lv_data)
482その1:2007/04/23(月) 23:12:35 ID:TAtKd+oU
(2/3)
新しくインストールしたVine(kernel2.6)起動後、
/dev/vg01/lv_dataが見えないので、
pvscan/vgscan/lvscanを実施したがlvm1だと警告が出て、
期待通りマウントできなかった。

明日の朝までにHDD増設を完了させなければならない案件だったので、
よく調べず、焦って、なにをトチ狂ったか、pvcreate/vgcreate/lvcreateを
/dev/sda2、/dev/sda6に実施し、/dev/vg01/lv_dataを作成した。

LVは作成できたが、mount -t ext3 /dev/vg01/lv_data /mnt/temp
してみると、ファイルシステムが正しくない旨のエラーが現れた。
(エラーメッセージはメモっておらず詳細不明)
483その1:2007/04/23(月) 23:13:44 ID:TAtKd+oU
(3/3)
BIOS設定の起動順序をSCSI優先に戻し、RH9環境に戻そうとしたが、
FSをマウントできない旨のエラーがでてRH9も起動しなくなった。

調べてみると、kernel2.6でlvm2に変わっていて、
vgconvertをすれば良かった事が判明した。

とんでもないことをやらかしてしまったことに気づいた。
 orz...  ←今ここ。

pvcreate/vgcreate/lvcreateは実施したものの、
ファイルシステムの作成はしていないので、
壊れた(上書きされた)のは、LVMの管理情報だけで、
実データは、まだ/dev/sdaに残っているはず。

なんとかサルベージしたい。。。
何卒お助けを。・・・もうだめです。
484login:Penguin:2007/04/23(月) 23:40:20 ID:hxiP9Yh0
古いシステムのバックアップは無いの?
/etc/lvm/の下にメタデータのASCIIテキストのバックアップがあるよ。
485その1:2007/04/24(火) 00:43:51 ID:TkXAc5rB
>>484
バックアップは無いんです。。
/etc/lvm/の下は明日、さっそく確認してみます。
ありがとうございます。
486login:Penguin:2007/05/19(土) 16:21:03 ID:FBnX1/62
>>485は復活できたかな?

やっぱ複雑だと恐いね。
ふつーにext3だけで運用していれば、他のパソコンに
くっつけてすぐマウントも簡単だし。



487login:Penguin:2007/05/28(月) 07:59:18 ID:JVkG/VZ5
定期バックアップにスナップショットを使おうかと考えているので質問。

ジャーナリングなfsを載せたLVのスナップショットを取るときって、
fsをアクティブに使っている状態のままlvcreateしてもいいんかな。
それともumountとかreadonly mountとかしてからの方がいい?
488login:Penguin:2007/05/28(月) 15:52:24 ID:AoSYt1Xv
要件次第だけど、umountできるならした方がいい。
umountしなくてもlockできるなら、それでもいいけど。
489login:Penguin:2007/08/10(金) 18:35:44 ID:dBMj30OW
LVM2のスナップショットは不安定という過去ログがあるが
現在はどうなんだろうか?
490login:Penguin:2007/08/10(金) 18:58:30 ID:/z8b1l8u
大して進歩してないでしょ。
期待もされてないし。
491login:Penguin:2007/08/11(土) 16:32:47 ID:S+h83dfI
LVM2ってパーティションテーブルIDを0x8eにしなくても
問題ないらしいけど、大丈夫なのかな?
なんか誤って削除してしまわないように0x8eで運用
してるんだけれど。
LVM2はどうやって認識してんだろう?
492login:Penguin:2007/08/11(土) 17:13:29 ID:9PYy2GpA
全てのブロックデバイスをスキャンしてLVMのシグニチャ探すので問題ない。
そもそもRAIDデバイス上にLVMを構築する時などIDに頼れない場合もあるから。

しかし、可能なら8eにしてLVMだとわかるようにしておくべきだとは思う。
493login:Penguin:2007/08/11(土) 17:51:39 ID:S+h83dfI
lvreduce を使う前にLV上のファイルシステム(ext3)を小さくしないと
ダメなんですよね? 最初にファイルシステムを小さくしないと
dataをlostするとか怖いこと書いてあるし。

で、最初にresize2fsを実行しました。
# resize2fs -p /dev/vg00/lv00 16457728K
Resizing the filesystem on /dev/vg00/lv00 to 4114432 (4k) blocks.
The filesystem on /dev/vg00/lv00 is now 4114432 blocks long.

次のlvreduceを実行
# lvreduce --size 16457728K /dev/vg00/lv00
WARNING: Reducing active logical volume to 15.70 GB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce lv00? [y/n]: y
Reducing logical volume lv00 to 15.70 GB
Logical volume lv00 successfully resized

↑これで問題ないのかな? メッセージ怖すぎだぜ。
データ入ってたら中止してくれ。

494login:Penguin:2007/08/11(土) 17:59:58 ID:S+h83dfI
(続き)
実は今回のテストは hdb1(15.7GB), hdb2(15.7GB), hdb3(24.51GB)の
PVを使っていたLVをhda1のPV上だけに移動したいと思って
実行しました。実行結果を見ると、下記のようになっていて
hdb3の一部に移動されているようです。lvcreate時にPVを指定して
LVを作れるようですが、それ以外でPVを指定した変更動作はできないのかな。

--- Physical volume ---
PV Name /dev/hdb1
Total PE 4018
Free PE 4018
Allocated PE 0
--- Physical volume ---
PV Name /dev/hdb2
Total PE 4018
Free PE 4018
Allocated PE 0
--- Physical volume ---
PV Name /dev/hdb3
Total PE 6273
Free PE 2255
Allocated PE 4018

↑hdb3に4018を割り当てている。hdb1に割り当てれば過不足無いのに!w
だいたいreduceしたら、後ろを削るもんじゃないの〜?
495login:Penguin:2007/08/11(土) 18:00:29 ID:S+h83dfI
>>492
なるほど。thx。
496login:Penguin:2007/08/11(土) 20:16:50 ID:9PYy2GpA
>>494
pvmoveで特定のPVに移動できる。
以前はmount中にpvmoveすると固まった。今は確認してないけど。
497login:Penguin:2007/08/11(土) 22:39:10 ID:S+h83dfI
>>496
thx。
マウント中に処理する予定は無いです。
でも動かないならマウント中はエラー返して欲しいですね。

ところで1つのVG中に複数のLVがあったときに
LVがどのPVを使ってるかって、表示できるんですっけ?
vgdisplay -v やってみたが、関係までは分からない
ようですが。
498login:Penguin:2007/08/12(日) 00:43:42 ID:1FLa+W/M
>>497
lvdisplay -m
499login:Penguin:2007/08/12(日) 19:01:12 ID:TaVGrKuf
>>497
LVMからしてみれば、ファイルシステムなんて知ったこっちゃないし。
500login:Penguin:2007/08/19(日) 23:15:15 ID:T6S2sCgB
512GBのVGに512GBを追加して、
1TBのLVを作ろうとしています。

PVの追加はできたのですが、lvextend ができない。

◆ vgdisplay -v
VG Size 931.52 GB
PE Size 4.00 MB
Total PE 238468
Alloc PE / Size 119234 / 465.76 GB
Free PE / Size 119234 / 465.76 GB
※ 119234のFree PEアリ。

◆ lvextend -l+5000 /dev/vg01/lv01
Extending logical volume lv01 to 485.29 GB
Insufficient free space: 124234 extents needed, but only 119234 available

availableが何故か 119234しかない。-l+119234 でも同じです。

PEサイズはデフォルトですがLVM2(SuSE10.2 / kernel2.6)なので関係ないですよね?
何が原因でしょうか?
501login:Penguin:2007/08/19(日) 23:54:42 ID:T6S2sCgB
結局、LVをremoveして、作り直しました。
その前にPEを64MBにしましたが、lvextend失敗に変化無し。

lvcreate で1TBを指定した場合、問題なく
作成されました。

でもextendできないと不便だなぁ・・。


502login:Penguin:2007/08/20(月) 00:00:34 ID:kH0aJAtz
Semper avarus eget
503login:Penguin:2007/08/20(月) 12:50:52 ID:9YNRh3lY
>何が原因でしょうか?
RTFM
504login:Penguin:2007/08/22(水) 00:43:09 ID:VSzDj+IC
-lと-Lは違うのだよおっさん
505login:Penguin:2007/09/02(日) 00:04:10 ID:9jcT6cwh
バグみたいよ。
506login:Penguin:2007/10/08(月) 02:43:03 ID:noXEAedN
/dev/hdb1をpvとしてvg1を作っていたのですが、
いきなり物理的に繋ぎ変えてhdb1からhdd1にしたら
認識しなくなっちゃいますか?
507login:Penguin:2007/10/08(月) 07:49:33 ID:bgwXsIR/
PVに当てられた固有IDで認識してるから、デバイス名には依存しない
つまり大丈夫ってことさ
508login:Penguin:2007/10/08(月) 14:35:28 ID:noXEAedN
>>507
ありがとうございます。何事もないように認識しました。
509login:Penguin:2007/10/09(火) 17:26:27 ID:CR7wiDCr
>>507
LVMに/を配置しているディスクhdaからddでsdaにディスクコピーしてgrub周りを書き換えましたが、
sdaで起動すると/マウント中にカーネルパニックが起きます。(hdaは取り外し済)
レスキューモードではマウントできるんですが、どうすれば起動できるようになりますか?
510login:Penguin:2007/10/09(火) 17:37:31 ID:dupuTztZ
dd? なんでpvmove使わなかったの
511login:Penguin:2007/10/09(火) 21:43:02 ID:gFNRvPVM
LVMなんて使わずcp -acがお似合いだと言ってやれ
512login:Penguin:2007/10/10(水) 02:38:16 ID:LDDKpBnL
>>505
一月遅れであれだが、
ttp://search.luky.org/vine-users.7/msg07261.html
の件やね。
513login:Penguin:2007/10/13(土) 00:05:08 ID:l6GyC4t8
何台も同じパーティション構成のサーバを作るときって、今俺はLVM使ってないので、
予め作っといたパーティションテーブルの情報をsfdiskにぶち込んでパーティションを
切らせてたんだが、LVMで似たようなことをやろうとした時に楽にやれる方法ってある?

pvcreateとかvgcreateとかlvcreateとかをタラタラ流すスクリプト作るしかない?
514login:Penguin:2007/10/17(水) 12:01:13 ID:6v2jXhkm
>>513
1台作ったら、ddでメタデータをコピーすればいいんでない?
515login:Penguin:2007/10/25(木) 11:17:23 ID:4uCOppUn
LVMって複数のHDDにまたがって構築したとき、どれか一台でも故障すると、
全体が壊れて読み出せなくなるんだよね?

つまりLVMはRAID上に構築するのが大前提ですか?
516login:Penguin:2007/10/25(木) 11:29:15 ID:xk5fq29w
>>515
RAIDだって2台同時に死ねばいっしょ。
運用による。

壊れそうなHDDの予兆を察知してディスクを交換するか、
LVMの下のレイヤーで冗長性を確保する。
517login:Penguin:2007/10/25(木) 11:55:52 ID:D3bEYjzi
ストレージを使っていればLVMだけでいいけど、
内蔵とか単なる外付けディスクで組む場合は、RAID併用を考慮しないとね。
VxVMやZFSなんかはLVMとSoftwareRAIDの両方を兼ねているけど。
518login:Penguin:2007/10/25(木) 15:04:00 ID:Lgcv7leu
壊れてないディスクからも読み出せなくなるのか。。。
ファイル単位で記録してるわけじゃないから仕方無いかな。
519login:Penguin:2007/10/25(木) 16:14:04 ID:mZNLZbQp
>>518
ただし残るファイルもあるがな。
だが、250Gのディスクが吹っ飛んだとしたら250G以上の被害があるのは確実
そこは理解して使おう
ま、RAIDのJBODするよりは柔軟性があるってだけ
520login:Penguin:2007/10/25(木) 16:14:41 ID:mZNLZbQp
書いてから気づいたがRAIDのJBODて言い方は語弊があるな
521login:Penguin:2007/10/25(木) 20:29:55 ID:xk5fq29w
RAID0には違和感は感じないの?
522login:Penguin:2007/10/26(金) 13:15:57 ID:2kfwd15n
俺は、冗長度ゼロのディスクアレイなので1台故障したら全滅、
と解釈している。
523login:Penguin:2007/10/26(金) 14:33:04 ID:E+EQY5Mq
ファイルが不必要にディスクをまたがないような仕組みにしたら
ある程度軽減できるんじゃないかな。
524login:Penguin:2007/10/26(金) 16:18:56 ID:k8++Xzzr
それリニアモードじゃね?
525login:Penguin:2007/10/26(金) 16:31:49 ID:ICp0Nr8Q
リニアとかコンカチ(ネイト)とかいろいろ呼び方があるんだな。
526login:Penguin:2007/10/27(土) 10:26:16 ID:tpLgCQ0c
んーRAID5の/dev/md0をまるごとLVMで切って使ってるけど。
527login:Penguin:2007/11/10(土) 17:50:37 ID:75KqCEgM
fdisk -lの結果が実態とズレてて困ってるんだが、
こういうのってどうやったら修正できる?
Device Boot Start End Blocks Id System
/dev/sda1 * 1 12749 102400000 7 HPFS/NTFS
/dev/sda2 12750 12761 96390 83 Linux
/dev/sda3 12762 30401 141693300 8e Linux LVM

/dev/sda1は Linux LVMなのだが。
528527:2007/11/10(土) 18:06:30 ID:75KqCEgM
自己解決しました。微妙にスレ違いでした。
529login:Penguin:2007/11/20(火) 01:30:54 ID:jEvbITJ+
ハードウェア板からきました。

Linux の SoftRaid で インストール時にRAID1を組みました。
md0 -> /boot
md1 -> PV (/, swap)

この後md2 (RAID1)を追加で作成して上のmd1のVGに追加した後、
lv / を拡張しました。拡張して領域も増えてうまく行ったんですが、
再起動したら、/ が無いとか言われて Kernel Panicになります。

この場合どうしたらよいのか、またなぜそうなるのかがよくわかりません。

SoftRAIDを組んでない場合は / の拡張はうまく行くのですが・・・

よろしくお願いします。
530login:Penguin:2007/11/20(火) 02:31:13 ID:JgF19cQw
mkinitrdし直した?
531login:Penguin:2007/11/20(火) 08:17:38 ID:jEvbITJ+
>>530
し直してないです。
532login:Penguin:2007/11/20(火) 08:20:33 ID:FQmr64dD
>>531
聞いている側はそんなレス期待してない
そういうときは言われたことをやってから、その結果を答えるもんだ
533login:Penguin:2007/11/20(火) 14:48:10 ID:rmTyWI1j
>>530
>>532
ありがとうございました。

mkinitrd でうまく行きました。
オリジナルのイメージファイルから起動するとやはりカーネルパニックに
なりましたが、mkinitrd で作成しなおしたイメージから正常に起動できました。

534login:Penguin:2007/11/26(月) 21:44:37 ID:aR8zYa9e
Vine 3.2でLVMを入れようと思ったのですが、Howtoなど読みながらいろいろと
試行錯誤しているうちに妙な状態(消したはずのVGが認識されたり)になってしまいました。

一旦全部消してゼロからやり直そうと思い、apt-get remove lvmの後 /etc/lvm*を削除したのですが、
その後 fdiskからやり直すと、前回の設定がどこかに残ってしまっているようで、VGが既にある、と認識されてしまいます。

/etc/lvm* 以外に、どのファイルを削除すればスッピン状態に戻ってくれるのでしょうか?
535login:Penguin:2007/11/26(月) 21:50:45 ID:asrSmFuw
dd if=/dev/zero of=/dev/hd** とかで一旦ディスクをまっさらにしてみては?
pvscan が多分勝手に PV を見つけてくれちゃってるせいではないかと。
536login:Penguin:2007/11/26(月) 21:57:57 ID:kqJnnjsh
いや、そういうときはpvremoveを使うのが本式だろう
しかしfdiskしてるのに何でVGを検出するんだろな
537534:2007/11/26(月) 22:43:44 ID:aR8zYa9e
ファイルシステムからは見えない場所に情報が書き込まれている、ということでしょうか?
(vgscan すると、「前回作ったVG名」の内容で /etc/lvmtab.d/ および lvmtab か作られてしまいます)

なお、Vine 3.2 の LVMにはなぜか pvremove コマンドが入っていません。
/sbin で ls pv* すると出てくるのは以下のものだけです。
pvchange pvcreate pvdata pvdisplay pvmove pvscan

ちなみに LVM のバージョンは lvm-1.0.3-19vl1 となっています。
だいぶ古いですね。そのせいでしょうか。
538login:Penguin:2007/11/26(月) 23:19:48 ID:kqJnnjsh
lvm2じゃないのか…
適当なアドバイスですまんかった
539login:Penguin:2007/11/27(火) 02:02:02 ID:TK2aPOw7
fdiskしても同じサイズアロケートしたら前の情報丸々残ってるんじゃ・・・

わかりにくい例だけど
windowsでクイックフォーマットしても、復旧ツールで直せるのと同じだと思うよ。
540login:Penguin:2007/11/27(火) 14:09:00 ID:PE+7IEYU
initngってLVMに対応しました?
541534:2007/11/27(火) 17:07:34 ID:kwFAlWL3
>>539
なるほど。
ということで、一旦fdisk で先頭から数百MB程度の小さいパーティションを作り、これをext2で
フォーマットをかけた後、再度 fdisk で前回よりも少しだけ小さい LVM領域を確保しました。
この状態で vgscan を掛けたところ、今回は VGは検出されませんでした。

ところが、pvcreate -> vgcreate と進んだところで、前回と同じ VG名を指定したところ
「そのVG名は既に使われている、他のを指定しろ」と蹴られてしまいます。
前回だけでなく、これまでテストとかで使った VG名は全部残っているようです。

続いて ddでゼロ埋めしてみましたが、やはり過去の VG名は消えてくれません。
(もちろん vgremove を行おうとしても、「そんな VGねーよ」となります)
こうなるとLVM領域とは別の場所(システム側)に情報が保存されているとしか思えません。

ここで最初に戻ってしまうのですが、/etc/lvm* 以外に LVMの設定が保存されているファイル
というのは存在しないのでしょうか?
/etc 内のファイルは一通り grep してみたのですが、VG名が書き込まれているものはなさそうです。
/proc/lvmにもなさそうですし。(このディレクトリはapt-get remove した際、一度消えてました)
542login:Penguin:2007/11/27(火) 17:11:28 ID:4HpV7mg9
lvm2なら/etc/lvm配下だけなんだが…
/varとかに作ってるのかなぁ…
543534:2007/11/28(水) 20:52:14 ID:L0IMODeH
結局Vineを現行の4.1に upgradeして LVM2入れたところ、何の問題もなく設定できました。
LVM1でのトラブルの原因も解決法も分かりませんが、取り敢えずはヨシということで。

特に問題も出てないのにOSのメジャーバージョンアップって、余計な手間が掛かりそうで腰が引けてたんですが、
結果からいえば LVM1であれこれ苦労した時間を考えると、さっさと upgradeしときゃよかったっつー感じですw

お騒がせいたしました。
544534:2007/11/29(木) 22:06:57 ID:yTYjvc/A
連日申し訳ありませんが、引き続き質問です。

昨日は意図的に小さめのLVMボリュームを作成し、今日はそれを拡張するテストをしました。
(1)昨日余らせたHDDの空間を fdiskで LVM用に確保 (仮に /dev/hdb2 とします)
(2)そこにPV作成 → pvcreate /dev/hdb2
(3)昨日のVGを拡張 (VG名を仮に VG_1 とします) → vgextend VG_1 /dev/hdb2

と、ここまでは特に問題なく意図通りに進んだことを vgdisplay にて確認しました。
現在は
 VG Name        VG_1
 VG Size        838.00 GB
 Alloc PE / Size    6128 / 766.00 GB
 Free PE / Size    576 / 72.00 GB
という状態です。
しかし次に LV(仮に LV_1 とします)の拡張を行おうとするとうまく行きません。

lvextend -L 838.0G /dev/VG_1/LV_1
lvextend -L +72.0G /dev/VG_1/LV_1
lvextend -l +576 /dev/VG_1/LV_1

どの指定方法でも
Insufficient free space: 6704 extents needed, but only 576 available
と表示され、拡張されません(766GBのまま)。
何がマズいのでしょう?
545login:Penguin:2007/11/29(木) 22:48:29 ID:choThEVO
>>544
man lvextend
をよく読め。

まぁ、意図したい操作をするのに一番いいのは
lvextend -l +100%FREE /dev/VG_1/LV_1
かな
546login:Penguin:2007/11/29(木) 22:49:25 ID:choThEVO
あとサイズの指定に小数点の数値は使えなかった気がするな。
547534:2007/11/30(金) 04:03:15 ID:XRlfEnID
>>545
もちろん man lvextendは散々読んだのですが……

-l, --extents [+]LogicalExtentsNumber[%{VG|LV|FREE}]
  Extend or set the logical volume size in units of logical extents. With the + sign the value
  is added to the actual size of the logical volume and without it, the value is taken as an
  absolute one. The number can also be expressed as a percentage of the total space in the
  Volume Group with the suffix %VG or relative to the existing size of the Logical Volume with
  the suffix %LV or as a percentage of the remaining free space in the Volume Group with the
  suffix %FREE.

-l, --extents [+]LEの数 [%{VG|LV|FREE}]
  LVのサイズをLEユニットのサイズで拡張、もしくは設定する。+をつけると現在の LVのサイズの増分、
  +がなければ値は(LVのサイズの)値そのものになる。また、末尾に%LVを付けると数値はVG全体中のパー
  センテージを表し、%FREEを付ければVGの残りのフリーな空間のパーセンテージを表す。


-L, --size [+]LogicalVolumeSize[kKmMgGtT]
  Extend or set the logical volume size in units in units of megabytes. A size suffix of M for
  megabytes, G for gigabytes or T for terabytes is optional. With the + sign the value is
  added to the actual size of the logical volume and without it, the value is taken as an abso-
  lute one.

-L, --size [+]LVのサイズ[kKmMgGtT]
  LVのサイズをメガバイト単位で拡張、もしくは設定する。数値の末尾にMを付けることでメガバイト、G
  ではギガバイト、Tではテラバイトをそれぞれ表すこともできる。+記号を付けるとLVの現在のサイズか
  らの増分を、なければ(LVのサイズの)値そのものになる。

"actual size"を「現在のサイズ」と解釈しましたが、これが間違っていますでしょうか?
548534:2007/11/30(金) 04:04:21 ID:XRlfEnID
いろいろぐぐって見たのですが、上記の解釈と矛盾するものは見つかりませんでした。
例えば http://www.docs.hp.com/ja/B2355-60104-03/lvextend.1M.html

> 論理ボリュームの論理エクステント数を 100 に増加します。
>
> lvextend -l 100 /dev/vg01/lvol3
>
> 論理ボリュームのサイズを 400MB に増加します。
>
> lvextend -L 400 /dev/vg01/lvol4

論理エクステント(LE)の数というのは、物理エクステント(PE)の価と同じだと理解している
のですが、違うのでしょうか?

> lvextend -l +100%FREE /dev/VG_1/LV_1
> かな

前述の解釈が正しいならば、+0%FREEになりそうですが、違うのでしょうか。
また、%を付けないスタイルでの正しい指定方法はどうなるのでしょうか?

ちなみに、小数点以下は付けても付けなくても同じ結果でした。
549534:2007/11/30(金) 04:14:11 ID:XRlfEnID
>>547
あ、すいません。
訂正です。
-Lオプションでの%VGと%LVがゴチャマゼになっちゃってますね。

末尾に%VGを付けるとVG全体中でのパーセンテージを、%LVを付けると存在するLVに対する比率を表す
550534:2007/11/30(金) 04:35:07 ID:XRlfEnID
再度すみません。

remaining の解釈を間違っていました。
a percentage of the remaining free space in the Volume Group with the suffix %FREE
というのは「現在残っているVG中のフリーな空間」でのパーセンテージなのですね。
作業後に残る分ではなく。
従って -L +100%FREE は ADD 100% of the current FREE space の意味だと理解しました。

どうもありがとうございます。

あまり使う機会はないかもしれませんが、バイト数での正しい指定方法も教えて頂けるとありがたいです。
551login:Penguin:2007/11/30(金) 08:19:54 ID:PbsH8r35
>>550
× -L +100%FREE
○ -l +100%FREE

バイト数での正しい指定ってmanに書いてあるじゃないか…
-L [+]LVのサイズ[kKmMgGtT]
てか、うまく行かないなら小さい数字で少しずつ大きくしてみて
確かめればいいじゃん?(使用してなければ)拡張縮小思いのままなんだしさ
めんどいからちゃんと調べてはないけど、vgdisplayで出てくる数値は
読みやすいように丸められてるように思う。
だからlvextendでそのまま指定してもうまくいかない、と思う。
vgdisplay --units b
とかで見てみたらどう?
552534:2007/11/30(金) 12:20:33 ID:XRlfEnID
>>551
失礼。typoでした。

実は>>547-550は問題のPCとは別の場所から書き込んでました。
先ほど実機の方で試してみたところ、結果としてはダメでした。

-l +100%FREE
-l 100%VG
-L 838G
-L 838.0G
-L +72G
-L +72.0G

改めて全部試しましたが、前と同じですべて
> Extending logical volume LV_1 to 838.00 GB
> Insufficient free space: 6704 extents needed, but only 576 available
と出てしまいます。

1行目の内容(と2行目がすべて同じ数値であること)から察するに、どの指定方法も「正しい」ように思えます。
問題は何か別の原因?????
>>544の手順で、何か間違いがあるのでしょうか?
少なくとも、「空いてる空間を100%使え」あるいは「存在するVGを100%使え」と指定しているにも関わらず、
free spaceが不足している、というのは通常はありえないと思うのですが。
(空き容量がゼロだ、という表示になるならばまだ分かりますが)
553login:Penguin:2007/11/30(金) 12:33:57 ID:heZ0YSeF
Vineだから
554534:2007/11/30(金) 12:47:10 ID:XRlfEnID
> めんどいからちゃんと調べてはないけど、vgdisplayで出てくる数値は
> 読みやすいように丸められてるように思う。

というのは確かなのですが、-Lオプションがそもそも「メガバイト単位で指定」
なので、「丸められた数値」での指定が正しいはずでは。

ちなみに vgdisplay --unit bで表示される数値は
> VG Size 899795648512 B
> PE Size 134217728 B
> Total PE 6704
> Alloc PE / Size 6128 / 822486237184 B
> Free PE / Size 576 / 77309411328 B
となりますが、lvextend で「バイト単位での指定」を行う方法が存在しません。
最小単位が「キロバイト」です。

そもそもLVMが管理する最小単位はバイトではなくPE or LEであるはずです。
555534:2007/11/30(金) 12:50:18 ID:XRlfEnID
ということで、LEの数を直接指定してみました。(まだやっていなかった)

-l 6704
-l +576

全く同じ表示でした。

> Insufficient free space: 6704 extents needed, but only 576 available

6704が「増分」とみなされてしまうのならば、と

-l 576

も試してみましたが、これだと

> New size given (576 extents) not larger than existing size (6128 extents)
> lvextend: Add space to a logical volume

と、「本来の正しい」エラーメッセージが出てきます。
もうお手上げです。
556login:Penguin:2007/11/30(金) 12:50:33 ID:PbsH8r35
>>552
だから単位の丸め方に違いがあるんじゃないかなって見解示したじゃん
本当は837.99999GBくらいだけど、838.00GBって表示しちゃうのかも。ということ。
!!!憶測でしかないから本当はどうか知らんがな!!!

で、ワークアラウンドとして、小さい量から積み重ねて増やす。
10Gずつとか。何回かやって、そのたびにvgdisplayで残りを確認。
完全にFree PEが0になったら積み重ねた量を足し算してみればいいと思う。
一気に増やすも少しずつ増やすも一緒だ。
557534:2007/11/30(金) 17:33:33 ID:XRlfEnID
>>556
仰ることは分からないでもないですが、>>552に書いたとおり、
-l +100%FREE
-l 100%VG
というパーセンテージの指定方法でもまったく同じエラーメッセージが出る
という点から考えて問題点は別にある(指定サイズの大小ではない)のは明らかと思われます。

と、書くと「やってもみないで」と言われそう wですので、
一応 -L +1K と最小の指定で実行してみましたが、結果はやはり
> Insufficient free space: 6129 extents needed, but only 576 available
となります。
(もちろん実際の最小の増分は1Kバイトではなく、PEのサイズになりますので、
実質 -l +1と同じ指定になります)

>>553の通り、Vine 依存の問題なのでしょうかねぇ……
本来はこんなに手間がかかる作業ではないんでしょうけど。
困りました。
558534:2007/11/30(金) 19:13:33 ID:XRlfEnID
実のところ、Vine依存のトラブルというよりは
根本的に LVMボリューム拡張の手順を間違えている
という可能性の方が高いような気がしているのですが。

実際に何度も拡張を経験している方の目から見て
>>544の手順というのは正しいのでしょうか?
559login:Penguin:2007/11/30(金) 19:19:58 ID:heZ0YSeF
>>558
>>512あたりを嫁
560534:2007/11/30(金) 20:38:57 ID:XRlfEnID
>>559
なるほど。
リンク先記事では複数HDDとなってますが、実際は複数PVを含む LVは全部 NGなのですね。
(最初の一つ分のPV以上のサイズにできない)

これじゃなんのための LVMか分かりませんね。
(縮小はできるけど、やっぱり主用途は拡張でしょうから)
しかし、もう 4ヶ月も前の投稿なのに、まだアップデートされてないってのが……
Vineなワケですかw

取り敢えず原因が分かりました。
どうもありがとうございました。
561login:Penguin:2007/11/30(金) 22:35:07 ID:PbsH8r35
わけわかんね、Vine腐ってるんじゃないの?
もうそんなディストリ投げ捨てろ

って書こうとして自粛してたのだが、本当に腐ってたのかよw
562login:Penguin:2007/12/07(金) 20:25:25 ID:0Todx2Do
lvm2 Build Date: 2007年12月01日
Dタン..
563login:Penguin:2007/12/30(日) 03:47:41 ID:GnmabIoz
lvm2ってミラーリング(Mirror/UXのlvcreate -mみたいな)とかストライピングできるようになった?
clvmってやつがRHEL4up4でクラスタ化ボリュームミラーリングとか書いてあったからもしかしたら
できるようになったのかなー?

ttp://www.jp.redhat.com/magazine/NO31/
564login:Penguin:2007/12/30(日) 14:48:22 ID:kD6wUebp
あれ?
ミラーリングはすでにできてたんじゃなかったっけ?
ストライピングは無理だけど。
565login:Penguin:2008/01/01(火) 01:06:02 ID:k+j/wHVO
2.6カーネル下でのsnapshotって安定して使えるようになった?
566login:Penguin:2008/01/01(火) 08:11:57 ID:B56glK3n
2.6.19 あたりは安定していた。
最近のはいまいち。
567login:Penguin:2008/01/19(土) 17:42:04 ID:M8Nmbs0I
>>407にもあるように
/dev/VolGroup00/LogVol00: The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks
Either the superblock or the partition table is likely to be corrupt!

/dev/VolGroup00/LogVol00: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY.
(i.e.,without -a or -p options)

このようになってしまった場合の解決策ありませんか?(´・ω・`)
physizal sizeの縮小に対して filesystem sizeの縮小がおこなえていないことが原因なのはわかるのですが
具体的にどこで設定できるのかがここ数日挑戦しても解決できません。
どなたかアドバイスいただけませんか(つд⊂)
568login:Penguin:2008/01/21(月) 14:32:19 ID:CLm+aD3F
ファイルシステムをまず小さくしてからLVを小さくしなきゃダメ
そもそも小さくできるファイルシステムは限られてる。確か、
ファイルシステム標準のツールで小さくできるのはReiserだけで、
GNU parted で ext[23] も小さくできる、んだっけかな?

いずれにしても壊れてしまってるものは運良く復元できるかも
しれないしダメかもしれない。
569login:Penguin:2008/01/21(月) 20:06:22 ID:0424Edot
CentOS4.6で
SCSI device sdf: 20507805696 512-byte hdwr sectors (10499997 MB)
こんなディスクをつけたんだけど、pvcreateすると、
PV Size 9.55 TB / not usable 1.00 MB
なんて言われる。0.5TBはどこへ行った?
570login:Penguin:2008/01/21(月) 20:22:40 ID:0424Edot
20507805696*512/1024/1024/1024/1024=9.5497
すまね。
あまりの天使の取り分の多さに気が動転してたようだ。
571login:Penguin:2008/01/21(月) 21:51:29 ID:C2nM2YT+
>>568
ext2,ext3はe2fsprogs付属のresize2fsで小さくできるよ。
作業ミスが怖いからGNU Partedを使ったほうがいいけど‥
572login:Penguin:2008/01/21(月) 22:00:50 ID:y073FPoP
partedは最近の拡張に追い付いてこれてるか?
573567:2008/01/22(火) 05:35:38 ID:KvGSt0M/
レスありがとうございます!
resize2fsを試してみたのですが
resize2fs: Can't read an block bitmap while trying to resize /dev/XXX
とでてしまい次へすすめませんでした。

また、GNU partedというヒントから検索してみたところ
/**ファイルシステム総合スレ その1**/
http://pc.2ch.net/test/read.cgi/linux/1006743807/
こちらの640〜647の下りで似たようなケースを発見しました。
上記のケースではMBMの区画エディタにて復旧できたそうです。が
残念ながら、肝心の区画エディタO&Oのoodlinuxなるソフトウェアの公開が停止しているようで
試すことができませんでした。orz

万策つきた感じでしょうか(T-T

574567:2008/01/22(火) 05:43:25 ID:KvGSt0M/
O&O Defrag Linux BETAはベータで開発中止、ボツったそうです・・・。
575567:2008/01/22(火) 06:33:11 ID:KvGSt0M/
すいません、深夜作業でテンパってたみたいです。
上記のケースではMBMの区画エディタを利用したわけですね。
休憩後チャレンジしてみます:)
576567:2008/01/22(火) 07:55:09 ID:KvGSt0M/
MBM区画エディタではect3閲覧できずorz
577login:Penguin:2008/01/22(火) 12:03:32 ID:yiAXiNME
MBMに区画の中を見る能力なんてない

あんたのスキルじゃあまりに無茶だろ、その作業は、正直
578login:Penguin:2008/01/23(水) 09:17:27 ID:lfCjtbY5
LVMにMBM無意味だし
もう諦めろよ
579567:2008/01/23(水) 09:52:59 ID:FgvqTTFZ
あきらめずにKNOPPIXから
vgchage,e2fsck,resize2fs,lvextend,lvreduceを駆使して、
もとのphysical sizeに戻し正常な状態になんとかもどせました。

お世話様でした。m(__)m
580login:Penguin:2008/01/23(水) 11:33:50 ID:6pJ/x7kZ
良かったな
581login:Penguin:2008/02/02(土) 17:34:16 ID:Sk+gOLYe
manみたかんじだと-mと-iでミラーもストライピングもできるってかいてあるんだが
ちゃんと使えるならmdadmとかのraid0、raid1、raid10とは機能的にかぶるよね、どっちが良いんだろ?
clusterlvmでも-mと-i使えるんだろうか?
raid5とraid6も使えるようになればlvmだけでよくなりそうやね
582login:Penguin:2008/02/02(土) 21:42:55 ID:hWODtnUX
VxVM化するのか。
バグも同じように増えていくんだろうなw
583login:Penguin:2008/02/07(木) 02:19:17 ID:hSH8lz3u
RAID総合スレでも同じような話題が出ているな。
っていうか内部で raid5 とかやっちゃうと、不良HDDがでたときに、
pvmove で健康なHDDに寄せるということができなくなっちゃうんじゃないの?
あ、raid5 だから、一台とりかえてリビルドすればいいのか。

なんか頭がこんがらがってきた。
584login:Penguin:2008/02/07(木) 02:47:04 ID:MhI2GJBO
くだ質だったらすみません。

LVM で2個イチにまとめた 500GBx2 のボリュームを2つ使っています。
具体的には /dev/hda と /dev/hdb で /VolGroup00、
/dev/hdc と /dev/hdd で /VolGroup01 を作成しています。
前者を /home に割り当て、後者をそのバックアップ /home_backup にしています。

ここで疑問なのですが、LVM を構成するHDDの一つに障害が発生した場合、
その LVM をバラして各 HDD の内容を救出する、というようなことは可能なのでしょうか

いま現在は上述どおりバックアップも取っているのでまだいいのですが、
いずれは VolGroup00 側の HDD も VolGroup01 側の HDD も故障すると思うので、
そういう事態がないとは言い切れません。

どうなんでしょうか?
やはり LVM をバラすとそのドライブは読めなくなってしまうのでしょうか。
585login:Penguin:2008/02/07(木) 03:34:36 ID:wkwo0mxs
「lvm 故障 復旧」でぐぐってみれば?
情報はいっぱい出てくるよ。
586login:Penguin:2008/02/07(木) 08:32:32 ID:PJ0xyyBI
>>584
>>149〜あたりの話かな?
587login:Penguin:2008/02/07(木) 10:29:17 ID:j9YRu0Ee
どうもありがとうございます。
>>148-156 の大作ですね ←自分のメモ用です。すみません。
ちょっとじっくり読ませていただきたいと思います。
588login:Penguin:2008/03/04(火) 23:11:07 ID:K8yPdd7W
くだらねぇ...。
で相手にさらなかった(長文すぎて)ので質問させてください。
勉強不足なのはわかってますので、ご容赦を。眠くてかなり思考力おちてます。
ぶっちゃけた話、FC4でLVM組んでますが、/dev/hda2に/dev/VolGroup00/LogVol0[01]があったとして、
そのVGとLGを消してしまった場合、元に戻す方法ってありますか?
/dev/hda2の中にboot以外とswapのみはいってました。(=LV00,LV01)
最悪LVMでなくても普通のファイルシステムとしてマウントできる方法とかないのでしょうか?
LVMの管理情報が消えたときって中身のデータ自体は無事ですよね?
全くバックアップをとってないのというのはあきれてますが、頼まれたら嫌とはいえない性格ですので。
かなりこまってます。
申し訳ないですが、分かる方ヒントのみで結構ですので、お教えください。
589login:Penguin:2008/03/04(火) 23:29:41 ID:f138xmmP
FC4を捨ててから出直してこい
590login:Penguin:2008/03/05(水) 02:36:07 ID:HWfQXJWF
まず寝ろ
591login:Penguin:2008/03/05(水) 08:51:14 ID:W53eNevY
ないんじゃね?
592login:Penguin:2008/03/05(水) 09:16:46 ID:V8HqIqNE
>>588
dd if=/dev/hda2 bs=512 count=255 skip=1 | strings
これで何も見えなかったら諦めれ。
593login:Penguin:2008/03/08(土) 16:44:17 ID:tl0WRxQT
>>592

レス有り難う。つД`)・゚・。・゚゚・*:.。..。.:*・゚

ちなみに古いPV,LVはのこってない。
ちゅうか、痕跡もなかったです。

で、馬犬 目 ぽ..._〆(゚▽゚*)、データレスキューの会社に頼みましょうっていったら、
じゃ、そうしてって...。
最初からプロにまかせりゃはやいっていってるのに。

本当に(;´ρ`) グッタリ でした。
本当、こんな訳わからんことにレスしてくれて有り難う。
もっと精進します。
594login:Penguin:2008/03/08(土) 18:01:09 ID:OXyuHSqg
SUSE 9から10にあげたんだ。
LVMは1のままだったんだ。
スナップショットとったらLVM関係がうごかねーんだ。
リブートしたらはんぐなんだ。
うわー。
595login:Penguin:2008/03/12(水) 20:33:22 ID:7jQsVz/g
最近やっとLVMの意味がわかった
しかしまぁ・・・・いまさらHDをいじるのが怖いw
OS入れ替えのときにLVMにしてみます
596login:Penguin:2008/03/15(土) 07:00:20 ID:5C7unTpW
>>594
いい事いうじゃねえか。
で、やれるんだな?
今すぐ頼むぞ。
597login:Penguin:2008/03/24(月) 17:48:52 ID:xks+NIrR
>>595

LVMの意味を教えて下さい。
598login:Penguin:2008/03/24(月) 21:07:48 ID:xwvutk/t
>>597
>>1に書いてある
599login:Penguin:2008/03/26(水) 10:27:32 ID:/rbx928m
スナップショットが簡単にできるならと思い、Fedora8で
# lvcreate --snapshot --size=1G --name snap0 /dev/VolGroup00/LogVol00
そしたらエラーになった。
Insufficient free extents (1) in volume group VolGroup00: 96 required

デフォルトインストールなので VolGroup00はLogVol00だけで空きはない。
HDD追加せずにsnapshot領域を確保するには
LogVol00を縮小できればいいような気がするけど、できるの?
600login:Penguin:2008/03/26(水) 10:51:42 ID:JMhK92pu
FSが縮小に対応していて、もちろん空きがあれば。
601login:Penguin:2008/03/26(水) 14:16:06 ID:/rbx928m
>>600
あんがと、できるかどうかから調べるのはNG時のショックが大きいので躊躇してた。
一応
1. レスキューでmountせずに起動
2. lvm vgchange -ay /dev/VolGroup00 <-LVM有効化
3. fsck.ext3 -f /dev/VolGroup00/LogVol00
4. resize2fs /dev/VolGroup00/LogVol00 34G
-- reboot --
5. lvresize -L34G /dev/VolGroup00/LogVol00
6. lvcreate --snapshot ・・・・
無事 snapshot 領域確保できた。
602login:Penguin:2008/04/09(水) 22:10:32 ID:5v+cawCi
pvmove中でも普通にpc使って大丈夫なのかぁ。
なんかlinuxはどの作業が危険だとか認識される/されないが分かりづらいな。
クラッシュしても続きからいけるとか書いてるから安心してwebをm
603login:Penguin:2008/04/10(木) 00:26:18 ID:5lkztsUT
mountされてなきゃただのI/Oよ
604login:Penguin:2008/04/10(木) 02:25:07 ID:GkLC0n+x
>>603
いやマウント中の作業です。
無事終わった。
605login:Penguin:2008/05/05(月) 12:04:22 ID:qLvyVB3C
LVM3開発開始だとか
606login:Penguin:2008/05/05(月) 12:43:49 ID:p+flnnxD
LVM3はちゃんとバリアが効くようにしてください
607login:Penguin:2008/06/04(水) 22:30:36 ID:n3tY6HIr
LVM(中身はext3)の外付けHDDがあります。
これを別のマシンにつないで中を見たいのですが
どうやってLVMをマウントすればいいのでしょうか?
普通だったら
nfs -t ext3 /dev/sda /mnt
だと思うのですがLVMの場合はどうすれば???
608login:Penguin:2008/06/05(木) 08:30:16 ID:pEFbHf00
>>607
pvscanしてvgchange -a yしたらいいと思うよ。
609login:Penguin:2008/06/05(木) 17:10:26 ID:JbNBeTqA
nfs?
610login:Penguin:2008/06/05(木) 18:13:27 ID:21YGfzJ8
lvcreateであいているスペースすべてを作成するには以下のコマンドであっていますか?
lvcreate -l 100%FREE -n LV VolGrouptest
http://linux.die.net/man/8/lvcreate
↑読んだんですけどいまいち-lオプションのVGとFREEについてわからなくて・・・
611login:Penguin:2008/06/05(木) 23:22:00 ID:xuMIbzDB
起動ドライブのVolGroup00をVolGroup99にしたら起動しなくなったのだけれど
助けて
612login:Penguin:2008/06/06(金) 11:11:47 ID:25LbsBUl
>>611
インスコCDのレスキューモードで起動して名前直せばいいんじゃない?
613login:Penguin:2008/06/06(金) 12:48:36 ID:F4ZUbmLb
>>610
>>544-557あたり読んでみれば?
俺がどうしてもサイズ変更できなくて苦闘したときのやりとりだが。
いろんなパターン片っ端から試してる。
(やってるのはlvextendだが指定方法は同じ)

ちなみに、オチはVineのバグだったとゆーw
614login:Penguin:2008/06/07(土) 01:30:03 ID:juXFIy0Q
>>610
%指定は動かないから実装されてないんだと思ってたよ
615login:Penguin:2008/06/07(土) 21:03:01 ID:Gk9jVHRS
gpartedでLVMの入ったパーティションをリサイズ(拡大)したいのですが
どうしてもうまくいきません。
もちろん空きはあります。fdiskで新しいパーティションをつくれます。
どうやってパーティションを広げたらいいでしょうか?

616login:Penguin:2008/06/07(土) 21:10:21 ID:AVJ99GJ4
>>615
未対応
617login:Penguin:2008/06/09(月) 13:15:08 ID:Qv/HdhEc
>>615
pvresize

でもぶっちゃけリスクを負いたくないなら新しいパーティションをPVに追加するだけでもいいんじゃないかと
618login:Penguin:2008/06/14(土) 00:42:09 ID:GtA4XCQf
LinuxLVMで質問です
起動時、grub> のプロンプトでkernel行のroot= の部分でルートファイルシステムを指定しようと思うのですが、
LVMのデバイス名(vg名やlv名)を忘れてしまった場合、
TABキーやfindコマンドを使ってもルートファイルしシステムがLVMなので補完したくてもできない場合、
Linux のLiveCD等で起動してLVMのデバイス名を調べるしかないですか?
619login:Penguin:2008/06/14(土) 12:58:34 ID:uzvw2+4m
複数ディスクをLVMで1ボリュームにしてガバっと使いたいんだけど
LVMのデメリットって何?
1つのディスクが死んだら終わりとか?
620login:Penguin:2008/06/14(土) 14:00:20 ID:1+VSoFd/
多少のオーバーヘッドがあるくらい?
あとトラブル時に対応できるスキルがないとダメなくらいかな?
よくわかんないけど。
621login:Penguin:2008/06/14(土) 15:12:39 ID:6SEFplCp
ゴミどもめ
622login:Penguin:2008/06/14(土) 20:08:31 ID:ae9YVSGi
オーバーヘッドだけ?
束ねたディスクのうち1台が死んだらどーなるの?
623login:Penguin:2008/06/14(土) 20:34:58 ID:sC2X09Sk
全滅
624login:Penguin:2008/06/14(土) 21:02:44 ID:qs0Dc9DK
上がってるから何気に開いたらこのスレ2002年からあるのか…
625login:Penguin:2008/06/15(日) 02:37:09 ID:B19FrabJ
>>619
動的に容量を増減できるところはメリットかなぁ
626login:Penguin:2008/06/15(日) 16:20:52 ID:CdTlYS0s
>>622
LVMは普通RAIDと一緒に使う。
RAIDの上にLVM。
627login:Penguin:2008/06/15(日) 19:47:05 ID:BA+ZzdGW
ZFS vs. Linux Raid vs. Linux LVM vs. Linux LVM + Raid
http://www.unixconsult.org/zfs_vs_lvm.html
628login:Penguin:2008/07/01(火) 21:37:53 ID:3IykgVK0
一つのディレクトリに2箇所からmountすれば
単一のボリュームとして扱われると信じてたころが懐かしい
2箇所からリンク引っ張って合体とか・・・
そういう仕様で作ってくださいとエロい人にいいたい

RAIDの上にLVM必至とか、安全なんだか危険なんだか
便利なんだか面倒くさいんだか全然わかんねーよ

そんな理由でLVMに踏みきらない人は多いはず
629login:Penguin:2008/07/01(火) 21:58:45 ID:0HA3LMf0
漏れも漏れも
使ってるトリのインストーラの標準がLVMだから
切るのまんどくさい。つーかやめていただきたい。
630login:Penguin:2008/07/02(水) 08:03:43 ID:1ybAcnmw
>>626
世の中のUNIXサーバーは、内蔵ディスクに「RAIDの上にLVM」なんてことは
しないが。
LVMミラーリングでRAID1を構成することはよくあるが。
631login:Penguin:2008/07/02(水) 09:16:38 ID:RgaN+n31
俺のRHEL5はインストール時RAID5の上でLVMしてる…
コレって普通じゃないの?
632login:Penguin:2008/07/02(水) 12:33:30 ID:kY+rYQjq
>>630
UNIXサーバとやらだったら
ハードウェアRAIDがデフォルトなんじゃないの?
633login:Penguin:2008/07/02(水) 12:41:27 ID:15uy4jBz
別にデフォルトではないよ。
634login:Penguin:2008/07/02(水) 15:19:43 ID:eGcFOXuW
というか、カードタイプのハードウェアRAIDなんかまず使わん。
635login:Penguin:2008/07/02(水) 20:16:05 ID:1ybAcnmw
ハードウェアRAID使ってるのなんて、PCみたいな廉価なサーバーぐらいしか
思い浮かばん・・・
636login:Penguin:2008/07/04(金) 00:33:48 ID:X/oJ9laK
最近のUNIXサーバは内蔵ディスクでハードウェアRAIDに対応しているものが多いと思う
HPでもSunでも

ただ>>626は外部ストレージのことを言ってる様な気がする
637login:Penguin:2008/07/04(金) 01:57:46 ID:7gcupJvt
>>636
> 内蔵ディスクでハードウェアRAID

?

638login:Penguin:2008/07/05(土) 10:54:50 ID:MeeUCArm
>>637
マザーにRAIDチップが載ってるタイプのことと想像。
639login:Penguin:2008/07/06(日) 19:41:38 ID:AtahaQoe
http://www.atmarkit.co.jp/flinux/rensai/xen202/xen202b.html

ふつうターゲット上でLVMじゃねーの?
640login:Penguin:2008/07/25(金) 23:39:36 ID:8Ned7Kmk
言っちゃうぞ。

まだスナップショット駄目なんだってな。
素直に evms にしときゃあ……くっ……
641login:Penguin:2008/07/27(日) 03:15:50 ID:RwYz5TZf
LVMを構成しているHDDのうち、1台が故障したとき、
LVMで構成したファイルシステム全体が見えなくなるのでしょうか。
それとも、一部のファイルのみが見ることができなくなるんでしょうか?

642login:Penguin:2008/07/27(日) 12:21:57 ID:zvF1vjzN
ちょっと検索すりゃ
すぐ出てくる話だと思うが
643login:Penguin:2008/07/28(月) 06:10:17 ID:vcSXj+Qj
LVMに経験ある人の話を直積
聞きたいから来たわけだが
644login:Penguin:2008/07/28(月) 06:29:35 ID:vcSXj+Qj
とだけ書いても会話になりそうにないから付け足して書けば、
僕の予想では、LVMの上に構築するファイルシステムの種類によって違うのだと思う。
ファイルへのインデックスが書かれている番地が偏在しているようなファイルシステムで
インデックスがたまたま位置したHDDが故障すれば全部が見えないこともあるし、
逆の場合は、大きなバッドセクタのようになり、ファイルが虫食い状態になる。
そう考えていいのですか?
それとも、LVMシステムがボリューム構築に利用する情報がHDDの障害に脆くて
HDDが1個焼失してもLVMが機能しなくなるのでしょうか・・・。

645login:Penguin:2008/07/28(月) 11:36:57 ID:DQdsBUbz
ちょっと検索すりゃ
(LVMに経験ある人の話が)
すぐ出てくる話だと思うが
646login:Penguin:2008/07/29(火) 01:14:16 ID:8d+X+gCG
>>644
LVMはファイルシステムから見たらただのブロックデバイスだよ。
647login:Penguin:2008/07/29(火) 06:42:34 ID:lGh89x8f
例えばHDD10個をつなげてLVMを作れば、どこかで故障が起こる可能性は10倍に増える。
対障害性能があるRAIDと組み合わせて(2重化として対障害は積算か)も、効果が相殺されて厳しい気がする。
だけど10個つなげばLVM全体から見ればHDD一つは1/10の故障となるから故障規模は小さくなるわけで
結局RAID+LVMを構成するかしないか決断がつくには、
1個のHDDの故障が、どれだけのデーターの損失波及するかによるよね。
物理的損失より必ず論理的な情報損失のほうが大きくなるわけで、
一つはLVMシステムが持っている管理情報がダメージを受けること、
もう一つは上に構成したファイルシステムに障害がおこりダメージが派生することだ。
すなわちLVMやファイルシステムの障害が個別のデーターではなく、それ以上にデーター全体の整合性に波及することが
怖い。
その辺のから解脱できたひといたら語ってほしい。
648login:Penguin:2008/07/29(火) 08:45:05 ID:cjUPK7RU
> 例えばHDD10個をつなげてLVMを作れば、どこかで故障が起こる可能性は10倍に増える。

基本情報処理から勉強し直したほうがいいよ。

それと、「データー」って何?
649login:Penguin:2008/07/29(火) 13:43:57 ID:FOLu2OoK
135から読み直せ
650login:Penguin:2008/07/29(火) 14:39:34 ID:PdclCiTI
実際には、モノの故障率によって変わってくるけど、まあ10倍でいいよ(笑)
651login:Penguin:2008/07/31(木) 13:47:14 ID:jh4IJeuA
>>135
厳しい現実がかかれてるね・・了解。

652login:Penguin:2008/08/13(水) 12:21:14 ID:XmgY44KA
>>648
稼働率0.9のHDDを10台用意し、それらで一つのボリュームグループを作ったら、
LVMの稼働率は0.9^10になります。
653login:Penguin:2008/08/13(水) 12:24:28 ID:XmgY44KA
>>648
>>650
お前らなんでそんなに不親切で知ったかぶりな態度をとるんだ?
そんな小馬鹿にした態度をとる暇があったら答えを書けよ答えを。
654login:Penguin:2008/08/13(水) 12:47:02 ID:XmgY44KA
ああ、つまり、答えを知らない初心者君が同じ初心者をいたぶっているだけか。
655login:Penguin:2008/08/13(水) 23:45:22 ID:sho8OfFG
二週間遅れのツッコミ乙
656login:Penguin:2008/08/15(金) 23:56:12 ID:Dahhif8C
やっと勉強して帰ってきたらしい
657login:Penguin:2008/09/14(日) 12:01:57 ID:O5/W6Pyy
ソフトウェアのストライピングが微妙な件
658login:Penguin:2008/09/14(日) 14:11:22 ID:QHy0db2G
スレ違い?
659login:Penguin:2008/09/17(水) 03:24:11 ID:s5weIHPc
単にインタリーブしてるだけだしな
660login:Penguin:2008/09/25(木) 14:46:51 ID:m/JW7tpN
lvm 使うか普通にパーティション切るかで考えてるですが、
将来HDD交換して増量させたい場合は、lvmの方が良いんでしょうか?
lvmならパーティションのように困らず
自由に領域を変更できる、みたいなのがウリな気がしますが、
結局Gpartedとかでパーティション増やせるし変わらない気がします。
そこのところどうなんでしょう。

これまでlvmを使ってきましたが、
gpartedなどが対応していないため、
部分的にコピーしたい場合など非常に不便に感じています。
ああ、これパーティション切ってたら、パーティションコピーして
終わりなのになあ・・・みたいな感じです。
661login:Penguin:2008/09/25(木) 15:28:36 ID:wLKYoEG2
おれはlvm使わないなぁ。メリットがわからん。
662login:Penguin:2008/09/25(木) 16:04:36 ID:LyRk07KA
交換して増量するなら大してかわらないだろう
追加して増量するときに威力を発揮すると思うんだが・・・
663login:Penguin:2008/09/25(木) 16:15:48 ID:5Y5rOSdf
>>660
HDD交換で増量ではなく
HDD追加で増量のときにメリット大。
ただ、普通に足したらHDD故障時に面倒になるんで
大抵の人はRAIDと組み合わせて使ってるのでは。

RAID + LVM + XFSの組み合わせが
容量変化の要求に対して柔軟に対応できて
かつ安全な組み合わせだと思うが。

こういったメリットが分からない、
あるいは、そのメリットが不必要な人は
別に無理して使うもんでもないと思う。
664login:Penguin:2008/09/25(木) 16:16:44 ID:5Y5rOSdf

一部カブった
665login:Penguin:2008/09/25(木) 16:24:35 ID:Mtld4aS2
HDなんて揺らさずに冷やしまくれば10年は壊れない。
と最近思えてきた。
666login:Penguin:2008/09/26(金) 05:29:58 ID:L6fJPxoG
うちのサーバも663の組み合わせにしてるけど、
XFSだと容量を減らせないのが場合によっては扱いづらいかも。

元々は多数のストレージデバイスをうまく抽象化したり、
容量割り当てを固定化しないためのものだから、
660みたいな容量ぎりぎりでやりくり(?)するような使い方は
LVMとしては想定の外だろうね

LVMを使う場合はその複雑性とつきあう必要も出てくるから、
小規模なら使わない方が良い場合も多いだろうね。
667login:Penguin:2008/09/26(金) 10:28:02 ID:3nl099Gm
おれはsnapshotが便利だから使ってるよ。
668login:Penguin:2008/09/26(金) 13:39:08 ID:XgVKNEXu
>>665
それは間違い
669login:Penguin:2008/09/26(金) 13:49:21 ID:QI1JpPNb
670login:Penguin:2008/09/26(金) 14:05:40 ID:c/zlIyMB
>>669
GoogleのHDの使い方と、一般人のHDの使い方は違うから
一概にそうも言えないと思うが。GoogleのHDは環境によるダメージを
受ける前に別の要因で死んだ可能性もあるし。
671login:Penguin:2008/09/26(金) 15:13:37 ID:XgVKNEXu
故障については個人的な経験のみで語ると恥をかく
672login:Penguin:2008/09/29(月) 21:05:23 ID:UaUxgw6s
俺の脳みそを拡張するには
どのようなコマンドを実行すればいいでしょうか?
673login:Penguin:2008/09/29(月) 21:12:44 ID:L4lBHZ6L
>>672
vi
674login:Penguin:2008/09/29(月) 21:23:05 ID:4IQ0HTwg
>>669
頼むからその手のデマをばらまかないでくれ。
グーグルのはサーバルームで冷却されてるのが前提だ。
675login:Penguin:2008/09/29(月) 21:26:58 ID:L4lBHZ6L
>>674
で、君はどんなデマをばらまきたいのかな?
676login:Penguin:2008/09/30(火) 00:51:45 ID:0Isl7Nwk
>>675
意味不明だな。グーグルのアレを出して「HDDは高温でも大丈夫」と
言いふらすのは有害なデマだって事だ。アレを持ち出す奴はみんなそう。

だが実際は、「(サーバルームの温度範囲において)寿命と温度との相関はない」。

異論があるならどうぞ。
677login:Penguin:2008/09/30(火) 00:54:08 ID:iiLEqaD/
>>676
誰がそんな事を言いふらしているのだろうか?
やはり君が少しおかしい人なだけだろ
678login:Penguin:2008/09/30(火) 13:17:49 ID:zvVIh1Zj
>>676
サーバルームの温度範囲を越えた場合のデータってある?
679login:Penguin:2008/09/30(火) 13:40:02 ID:7DeFMFdL
>>676
グーグルのアレを出して「HDDは高温でも大丈夫」と
言いふらしているやつがどこかにいるのか?

お前の脳内に聞こえてくる声かもしれんがそれがデマだよ。
680676:2008/10/02(木) 20:33:06 ID:twJATkUN
>>677
>>679
> お前の脳内に聞こえてくる声かもしれんがそれがデマだよ。

ギガジンの紹介当時、自作板のHDDスレッドには寿命と温度は
無関係と突撃してくる量産型の厨が山ほど涌いたよ。

なら質問だが、>>669>>665(温度と振動に気をつける)に対して
ギガジン記事のURL貼ったのはそれ以外の「どういう意図」だと思う?

当人じゃないから分からない、と言い逃れるなら意味不明だぞ。


>>678
そもそも20-50度の範囲での使用が前提で、家庭だと夏場
簡単に50度を超える。
電子部品で温度が無関係なんてありえない。

元論文
ttp://labs.google.com/papers/disk_failures.pdf
Figure 4: Figure 5: とそのコメント。
・AFRは年間故障率。
・45度未満では温度と故障率に関係ない。
(が、30度未満と45度以上では高い数値)
・あとFig5の3年目に注目。特定モデルの傾向が影響か。

似た別のアブストラクトもどっかで見た気がするが、
これしか見つからないので読みづらくても我慢しる。

/.-Jのやり取りも見とくこと。全件表示が望ましい。
ttp://slashdot.jp/hardware/article.pl?sid=07/02/18/2229247
681login:Penguin:2008/10/02(木) 20:36:57 ID:twJATkUN
忘れてた。

>>678
当のギガジン記事にもこうある。

> ただし、ハードディスクの温度が50度を超えるような環境であれば、故障率は如実に
> 上昇しています。これはハードディスクのメーカーも推奨していない温度なので
> さすがに当然か。
682login:Penguin:2008/10/02(木) 21:28:53 ID:WziukuCx
>>680
わかったわかった
君が病人なのは良くわかった
たぶん幼い頃に御両親が君の温度管理に無頓着だったせいだろう
683login:Penguin:2008/10/02(木) 22:02:40 ID:twJATkUN
結局、誤魔化しかよw クズだなあ。
684login:Penguin:2008/10/02(木) 22:28:01 ID:WziukuCx
誰がクズかはスレを見た人が判断してくれるだろう
685login:Penguin:2008/10/03(金) 02:21:41 ID:gz+UP2MN
このスレには揺らさずに冷やしまくったら、儲からなくなる人が(ry
686login:Penguin:2008/10/03(金) 02:39:45 ID:eQRaRQ0X
今北

>>680
温度に関しては異論はないというか同意見なんだが……言い方が高圧的すぎて損してるよ。
WziukuCxはクズだろうが。
687login:Penguin:2008/10/03(金) 11:18:37 ID:RuwrUhWh
>>674が意味不明なだけだろ。このスレでデマばらまいた奴がいるわけでもないのに、
いきなりやってきて過去の別スレの敵と戦ってるんじゃ病気と思われても仕方がない。

本人自身、「当のギガジン記事にもこうある」つってるんだから、
Gigazineの記事をリンクするのはデマばらまきじゃないことははっきりしてるわけで。
688login:Penguin:2008/10/03(金) 11:25:32 ID:Ri2P8GoR
元になった >>665 は明らかに温度の低いほうの話。
だから gigazine の記事で google の例をひいて反論するのは正当。
誰も 40 度超える高温の世界の話はしていない。
頭の温度管理が壊れた >>674 が一人で明後日の方向で吠えてるだけ。
吠えてる内容が間違ってないことに大して意味はない。
689login:Penguin:2008/10/04(土) 02:42:02 ID:8+inl+T/
>>680

>HDなんて揺らさずに冷やしまくれば10年は壊れない。

常温であれば「冷やす(冷やしまくる)」ことには意味がない。
常温であれば故障率と温度には相関がないからだ。

意図的に振動を与えたり、高温の状態にすることは考慮していない。
あくまでも通常の使用状況を想定している。

つまりHDを揺らさずに冷やしまくれば10年は壊れないなんて保証はどこにもない。
冷やしまくっても、常温に置いておいても、どちらも明日には壊れる可能性がある。
「HDなんて揺らさずに冷やしまくれば10年は壊れない」というのは間違いだ。

ギガジン記事のURL貼ったのはそういう意図だよ。
690login:Penguin:2008/10/04(土) 12:06:48 ID:zXRpQtaU
いい加減
余所のスレでやってくれないか
691login:Penguin:2008/10/04(土) 16:57:03 ID:L5pGcLlF
LVMってUSB外付けHDDも対象にできるんだっけ?
692login:Penguin:2008/10/04(土) 17:45:08 ID:8zxfUkEV
ブロックデバイスなら何でもいいような気がする
693login:Penguin:2008/10/04(土) 20:30:16 ID:51y1fQ9U
>>691
出来るよ。実際に使ってる。
694login:Penguin:2008/10/14(火) 10:07:10 ID:FyQEQmkb
LVM で構成しているHDDの物理的な引越しについて質問。
現在、machine1 に搭載されている4台の SATA な HDD があります。
この4台は、2台ずつLVMが組まれていて、2つのボリュームとして利用されています。
これを、新規に導入する machine2 に、丸ごと引越したい。
現在の machine1 上での組み合わせのまま、machine2 に物理的に搭載し直し、
machine1 の /etc/fstab に書かれている通りの内容を、machine2 の /etc/fstab に記述すれば、
まったく同様に認識されるものでしょうか?
もしそうでないとすると、これらの HDD はどのように物理的に引越せばいいのでしょうか?
695login:Penguin:2008/10/14(火) 10:33:06 ID:vWmjK4Jt
vgexport して vgimport で良いんじゃないの
696login:Penguin:2008/10/14(火) 11:26:32 ID:aEVCml9h
>>694
まったく同様に認識されるから移設すればいいだけ
デバイス名が変わってもLVMが吸収してくれる
697login:Penguin:2008/10/14(火) 11:29:41 ID:aEVCml9h
>>694
Red Hat系ではinitrdを作り直さないと認識しないから注意
698login:Penguin:2008/10/22(水) 18:24:56 ID:mn9zpdol
ストライピングしたい場合、LVMの機能でやるのと、LVM+raidtoolsでやるのではどちらが速いですかね?
699login:Penguin:2008/10/22(水) 22:34:18 ID:OER6wkY9
md/raidtools
餅は餅屋
700login:Penguin:2008/10/23(木) 11:08:42 ID:1XXgMoB4
thx。
あ、でもLVM上にraidtoolsでRAID0した場合って、LVを拡張/縮小したい場合はオンラインで出来るのかな?
701login:Penguin:2008/10/23(木) 11:53:52 ID:EC+7CKjs
raidtoolでつくったらいd0ボリュームの上にlvmボリュームを作るべきではないか
702login:Penguin:2008/10/23(木) 11:56:09 ID:bfBmD8Ku
RAIDとLVMの役割分担を
何か勘違いしてる感じだなw
703login:Penguin:2008/10/23(木) 12:21:25 ID:1XXgMoB4
そっか。順番を逆にしたらいいのか。
704login:Penguin:2008/12/14(日) 00:35:28 ID:UAh/Kl0e
LLVMじゃドライブの一つが欠損したらどうにもならないだろうと思って
RAID1+LLVMの組み合わせを作ろうかなと思ってるんだけど、どうなの?
無駄?
705login:Penguin:2008/12/14(日) 02:04:20 ID:x3iOnWd3
LLVM?
706login:Penguin:2008/12/14(日) 02:08:59 ID:I0d8H/8+
LowLevelVirtualMachine
たぶん誤爆だと思うんだが。でもRAIDが出てきてるしようわからん。
707login:Penguin:2008/12/14(日) 02:43:28 ID:gTU7GUHh
このスレで質問してるんだからLVMのことじゃねーの?
708login:Penguin:2008/12/14(日) 03:16:48 ID:OkP+EP5M
>>704
ごく当たり前に行われている
709login:Penguin:2009/01/28(水) 23:02:45 ID:tUS0opCF
1). /dev/sda1 + /dev/sdb1 とで /dev/mapper/VolGroup00-LogVol00 を、
2). /dev/sdc1 + /dev/sdd1 とで /dev/mapper/VolGroup01-LogVol01 を作成し、

1). をオリジナルとして、2). をバックアップとして、毎日完全に同期させています。

もし仮に 1). に異常が発生したとき、/dev/sda1 と /dev/sdb1 、
つまり /dev/mapper/VolGroup00-LogVol00 を外し、
/dev/sdc1 を /dev/sda1 に、/dev/sdd1 を /dev/sdb1 に繋いで、
/dev/mapper/VolGroup00-LogVol00 とすることはできるんでしょうか?
710login:Penguin:2009/01/28(水) 23:14:46 ID:auWKhnPP
図で頼む
711login:Penguin:2009/01/28(水) 23:18:27 ID:AqwV8nqk
>>709
正直、

 lvm(raid1(sda1,sdc1)) + lvm(raid1(sdb1,sdd1))

でLVM+MD構成にしたほうがよくね?それなら繋ぎ替えとかしなくても
そのまま片肺で動くし。
712login:Penguin:2009/01/29(木) 10:04:25 ID:FT6dwQZ5
>>711
709は、ハード障害よりも、OS/AP/ユーザ操作によるソフト障害のリカバリーを心配してるのかも
713login:Penguin:2009/01/29(木) 10:14:51 ID:ZQNgMLUN
LogVol01 を LogVol00 にしたいだけなら、単純に lvrename で済んだりしないかな。

あと、 LVM は各 PV を UUID で見てるから、 sdc が sda に変わっても構成は変化しないと思う。
714login:Penguin:2009/01/30(金) 18:26:47 ID:jo26Z68K
dumpでバックアップ用にLVMでsnapshotを作ろうとしたんだけど、
空き容量足りない、みたいにいってくるんだけど、
もしかしたら、HDDの空き容量がないとsnapshotは作られないんでしょうか?

$ sudo lvcreate --snapshot --size=1G --name snap0 /dev/my/home
Insufficient free extents (0) in volume group my: 256 required

って、もしかして >>599-601 と同じ現象でしょうか?

さすがに運用してからリサイズすんのは怖くて無理だなあ orz
運用がひと段落して時間空いたらリサイズすることにするか・・・
715login:Penguin:2009/01/30(金) 18:46:32 ID:pFX4Hfia
FSに割り当ててない空きがないとそりゃ無理だろ
716login:Penguin:2009/01/31(土) 20:59:24 ID:xCSyeJqC
>>715
うん・・・そうだよね。
最初にそれいってよ!ってことなんです orz
LVMの意味ねえ・・・。
717login:Penguin:2009/01/31(土) 21:34:01 ID:xR7C3gwX
RedHatのインストーラはデフォルトだと全領域をロジカルボリュームにしてしまうからな
718login:Penguin:2009/02/01(日) 22:45:38 ID:W8JBndQ5
SUSEもだ
719login:Penguin:2009/02/21(土) 19:03:15 ID:94qX/ymd
LVMって定期的にディスクアクセスする?

なんかカリカリ言うんだよね…
720login:Penguin:2009/02/21(土) 19:53:36 ID:b/h0+KPy
メタデータのタイムスタンプ更新とかじゃね
721login:Penguin:2009/03/02(月) 17:46:54 ID:eMi0mnVL
LVMのパフォーマンスが出ずに困ってます。
ソフトウェアRAID5(SATA500GBx6)のhdparm -tの結果が
/dev/md0:
Timing buffered disk reads: 958 MB in 3.00 seconds = 318.90 MB/sec

このmd0を全領域そのままLVMに割り当てると
/dev/vg01/data:
Timing buffered disk reads: 292 MB in 3.02 seconds = 96.80 MB/sec

こんなもん…?
特にカスタマイズしてないgentooのLVMパッケージそのままなんですが。
Core2Duo(x86-64)、kernel2.6.27です。
チューニング次第でもうちょい速くなるでしょうか。
722login:Penguin:2009/03/05(木) 09:56:55 ID:TF4Gm0YN
lvcreate --contiguous y
723login:Penguin:2009/04/01(水) 15:43:22 ID:B06/PAhd
LVMで構築されてるルートファイルシステムの入ってるディスクを
交換したいんだけど、手順がわからん。

/dev/hda 壊れそうな起動ディスク
/dev/hdd 新しく起動ディスクにするつもりのHDD

/dev/hddにディスクを追加して中身をコピーして、そのあと
/dev/hdaのハードディスクを捨てて、/dev/hddにあったHDDを
/dev/hdaに差し替えて、ここからの手順が不明。
/etc/lvmの下の設定ファイルとかの取り回しもよくわかんね。
724login:Penguin:2009/04/01(水) 16:36:59 ID:N+qA7O0F
やったことないけど、
適当にknoppixとかで立ち上げて
ddして差し替えるんじゃダメなの?
725login:Penguin:2009/04/02(木) 09:47:02 ID:wLO/nTsR
はやいところZFSでもHAMMERでもBtrfsでもいいから標準になってくれたら
md+LVMの上にFS作ってとかいう三重苦から解放されるのに。
726login:Penguin:2009/04/02(木) 10:00:01 ID:iWqzU7Dl
RAID箱買えばいいのに..
727login:Penguin:2009/04/02(木) 12:07:38 ID:AtKG6Evx
RAID箱とかカードとかは予備も含めて買っておかないと痛い思いをするからなぁ。
仕事で使うのならともかく、家で使うような鯖ならそこまではとても…。
728login:Penguin:2009/04/02(木) 12:08:45 ID:DD255WSi
>>726
RAID箱だとLVMやFSが不要になるの?
すごいね。
729login:Penguin:2009/04/02(木) 13:20:25 ID:iWqzU7Dl
字面しか追えないお子様ですか。それとも非ネイティブ?
730login:Penguin:2009/04/02(木) 13:36:02 ID:l22LEMmy
LVMで構成しているHDDからデータを抜き出したいのですが、
誤って論理ボリューム(LV)を削除してしまいました。
復旧させる方法があれば教えてもらえますでしょうか。
731login:Penguin:2009/04/02(木) 20:39:46 ID:KmPuZOah
RAIDとLVMの関係がいまいち分からんかったので実験してみた。

sda1┐
sdb1--md0(RAID1)--pv0--vg0-----lvol0
                   └--lvol1

この状態で、sdaを破損させた。
結果は、普通にlvolにアクセス可能だった。
つまり、物理ディスクの故障はRAIDのボリューム(md0)で吸収されて、
その上位のpv〜lvolには影響ないって認識でOKなのかね
732login:Penguin:2009/04/02(木) 21:20:57 ID:h+cIIODu
当たり前じゃんww
733login:Penguin:2009/04/03(金) 13:48:55 ID:DfOWQDhR
当たり前じゃんww
734login:Penguin:2009/04/03(金) 14:24:45 ID:xcr1Fpsd
LVMを好んで使っている奴なんているの?
735login:Penguin:2009/04/03(金) 16:11:01 ID:NGrwCixC
731面白いw
それダメだったら何のためのRAID1なんだよw
736login:Penguin:2009/04/03(金) 22:53:43 ID:KMrkK/Q+
>>734
737login:Penguin:2009/04/05(日) 10:27:00 ID:F2DWFdY2
>>723
難しく考える必要ない。
・/dev/hddをpvとして登録(pvcreate)して
・/dev/hddを既存のvgに追加 (vgextend) して、
・/dev/hdaに含まれているlvをすべて/dev/hddに移動(pvmove)して
 ※アンマウント無しで出来る
・/dev/hdaをvgから除去 (vgreduce)
すればおk。lvmconfとかいじる必要なし。

http://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-5.html#ss5.3
http://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-6.html
738731:2009/04/06(月) 22:54:42 ID:D6ic0j5B
>>732 >>733 >>735
過去レス見てて、RAIDとLVMの組み合わせが何回か話題になってたけど、いまいち理解できなかったんだよwww
おかげでやっと理解できたよwww
739login:Penguin:2009/04/10(金) 14:53:39 ID:aZl7+NF4
実際に自分で試してみるのは重要だと思う。
いざっと言う時の不安も減るし。
740login:Penguin:2009/04/11(土) 13:51:09 ID:nGoq+PnZ
いざって言うときの話ならZero fillするなりブランクディスクと交換するなりしてちゃんと復帰までできるか試さないと意味がないぞ。
741login:Penguin:2009/06/19(金) 12:17:03 ID:wDgygRt1
LVMで新しくファイルシステム作ったらOSリブートしたほうが良い?
742login:Penguin:2009/06/19(金) 15:41:06 ID:xOpWvKLs
>>741
どんだけおバカさんやねん
743login:Penguin:2009/06/19(金) 15:45:14 ID:xOpWvKLs
>>737
アンマウント無しに安全にpvmove出来るようになったのはつい最近
RHELやCentOSでは未だに出来ないはず
744login:Penguin:2009/06/19(金) 17:09:34 ID:uVS0LrOc
それはそれとして、せめてgrubのinstallはやらんとマズイでしょ。いろいろと。
745login:Penguin:2009/06/20(土) 15:13:58 ID:fz3w6jiH
>>741
Windowsかよw
746login:Penguin:2009/06/20(土) 16:01:09 ID:d0+hafqG
いまどきWindowsだって再起動は不要だ。
747login:Penguin:2009/06/20(土) 16:49:20 ID:Wg4IvLcN
再起動が必要なのはWindowsの制限だけじゃないぞ
748login:Penguin:2009/06/20(土) 17:32:40 ID:mLzLCpGE
使用中のディスクのパーティション構成を変更した時は
再起動が必要だったような。LVM関係ないけど
749login:Penguin:2009/06/20(土) 18:59:45 ID:4+KsKEtJ
partprobeぐらい使えよ
750login:Penguin:2009/06/24(水) 19:00:48 ID:BRl/h1nk
新しく論理ボリューム作って
mkfsでフォーマットしたあと
マウントしたら中身消えたんだけど何で?
751login:Penguin:2009/06/24(水) 19:03:20 ID:+50xqMil
アナタニホンゴワカリマスカ
752login:Penguin:2009/06/24(水) 19:05:16 ID:WxeAnTpj
mkfsでフォーマットしたあと
753login:Penguin:2009/06/24(水) 21:06:38 ID:aCF67bw3
携帯から書いたから文章打つの面倒で。どうもすみません。


たとえば
mkdir /test でディレクトリを作成して適当なファイルを作る。

lvcreate で/dev/VolGroup00/LogVol07 作成

mkfs -t ext3 /dev/VolGroup00/LogVol07 でフォーマットしてから

mount /dev/VolGroup00/LogVol07 /test/ で/test をマウント

/test の中身消失。

って事なんだけど・・・・なんでだろ



754login:Penguin:2009/06/24(水) 21:13:18 ID:bBFYdeOy
自分で消してるから。
755login:Penguin:2009/06/24(水) 21:15:59 ID:WxeAnTpj
アンマウントしたら復帰するはず
756login:Penguin:2009/06/24(水) 22:09:23 ID:N8ozJxG8
>>753
馬鹿だから
757login:Penguin:2009/06/24(水) 22:17:21 ID:iXcZm1Nd
/test をマウント

じゃなくて/testにマウントだろ?日本語教えたろか?
758login:Penguin:2009/06/24(水) 22:27:30 ID:N7wYxMR6
>>753
umount /test/
find /test/ -type f -delete
759login:Penguin:2009/06/24(水) 22:48:19 ID:hXip6hlN
>>753
面白い
760login:Penguin:2009/06/24(水) 22:49:20 ID:aCF67bw3
そうか俺が馬鹿だからダメなんだな。

叱咤激励ありがとさん
761login:Penguin:2009/06/25(木) 11:56:58 ID:h89Zn1ea
ネタだと思いたい
762login:Penguin:2009/06/26(金) 23:26:29 ID:HPdCGQPQ
これはひどい
763login:Penguin:2009/07/10(金) 22:43:44 ID:IJ2is51O
スナップショットは取得元と異なるVGに保存することは可能でしょうか?
764login:Penguin:2009/07/11(土) 21:42:06 ID:LFA7ddCW
>>763
どうも不可能っぽい
765login:Penguin:2009/07/15(水) 22:09:41 ID:2C0YOuic
ということは、例えばVG01に登録されているPV=物理ディスクに
何らかの障害が発生し、復旧不可能になると、スナップショットは意味ないの?
別のVGに保存できるなら、元データがふっとんでも、復旧できると思ってました。
766login:Penguin:2009/07/15(水) 22:12:45 ID:J/B7VN8D
扱う問題のレイヤが違う。
コンポーネントデバイス(物理ディスク)の障害はRAIDとかそこらへんの仕事。
LVMはあくまで記憶領域の柔軟な運用が目標
767login:Penguin:2009/07/15(水) 22:57:00 ID:Wh+3Uee4
つか、そもそもスナップショットがどういうものなのか誤解してるぞ。
なぜスナップショット領域が元のデータ領域の 1割とかで済むと思ってる?

スナップショットは「バックアップなどを取るために」ある時点での状態を記録したものだ。
それを対象にdumpなどを使ってテープ等の「他のデバイスに」バックアップするのが使い道。
元のファイルのコピーではなく単なるリンクなんだから
元のディスクが死ねば当然リンク先の本体がなくなる訳で復旧なんか出来るはずがない。
768login:Penguin:2009/07/21(火) 16:16:21 ID:8jOz+2Dy
LVMってなんなのさ?

HDDのストライピングなの?
領域移動が楽なフォーマットって感じのもの?
769login:Penguin:2009/07/21(火) 16:28:31 ID:0g7wYV4c
メリットが明確に理解出来るまで使わなけりゃいい
770login:Penguin:2009/07/21(火) 16:54:27 ID:L4lOTNSh
>768
ぶっちゃけ、ストレージの仮想化の一手段。
まぁ、仮想化と言っても色々なレベルがあるけどな。
771login:Penguin:2009/07/21(火) 17:56:17 ID:ZhQXycai
複数のボリューム(まあHDDと読み替えてok)を束ねて一つの仮想ボリュームと看做せるから、
HDDの増設や追加でいちいちデータを移動したりしなくても、
単一のボリュームに追加で容量を増やして行けるとか、個人レベルでも結構応用が利くのが利点。

単一ファイルでも物理的な配置をストライピングのようにクラスタ単位で複数のHDDに振り分けたりはしないから、
仮にHDDの中の一台があぼーんしても、読み出せなくなるのはあぼーんしたHDDに記録されていたファイルのみ。
そういう意味ではストライピングほど深刻ではない(どれか一台あぼーんしただけでもボリューム全体があぼーん確定)けど、
元々冗長性や安全性を期待して使う類のものではないから注意。

772login:Penguin:2009/07/21(火) 18:43:09 ID:8jOz+2Dy
>>769 あ、いや、そのCentOSで任せるとLVMで作ってくれるので・・・
>>770 なるほどね、HDDの仮想化ね そう思ったらなんとなくつじつまが合うかもw
>>771 あぼーんしたHDDとまだ生きてるHDDで
生きてるHDDをext3とかでmount してファイル救出ですかね?

ちょっとGoogってきます
みなさまdクスですた!
773login:Penguin:2009/07/21(火) 22:08:12 ID:sxU3ftvQ
>>771
マジ?片方死んでも生きてるディスク上のデータ助かるの?
774login:Penguin:2009/07/21(火) 22:33:50 ID:CMRpbGOo
データとしては残っててもFSが不整合になるから
サルベージ技術無い限り結局は望み薄
775login:Penguin:2009/07/21(火) 23:37:41 ID:ne/05ljE
ディスク拡張がラク、スナップショット便利てこと以外に利点。
スナップショット不要、さらにアレイコントローラで、物理ディスクをLU(RG)で纏める場合、LVMの必要性がよくわからん。

ディスク追加する際はLUに追加すればいいんじゃないのと思ってみた。
LVMあんま使ったことないから、混乱してきたな。。
776login:Penguin:2009/07/21(火) 23:39:57 ID:ne/05ljE
↑最初の文章おかしいまま、カキコしてしまいました。
利点は二つだという事を言いたいだけです。
777login:Penguin:2009/07/22(水) 10:04:14 ID:iqxl84l9
スナッポショト取れてもMBRからの復旧ができる?
778login:Penguin:2009/07/22(水) 11:53:41 ID:PJ2Wnixd
>>775
HDDが内蔵の少数の個数とかって運用なら
メリットはほとんどないだろうね。

LVMの実力が本当に発揮されるのは
もっと大規模な運用なときなんだよ。
ボリューム構成の柔軟性が格段に増す、ってのが最大のメリット。
だから >>769 が現実的な答えだと思う。

最近デフォルトでLVMアリにしちゃうディストリが多いようだけど、
正直、デスクトップユーザには面倒が増えるだけで不要だと思う。
779login:Penguin:2009/07/22(水) 12:06:40 ID:kNb8Im68
アレイコントローラなんて持ってないご家庭仕様のファイルサーバで使ってるが
SATAディスクを3つ4つとスケーラブルに増やしていけるから便利だよ。
780login:Penguin:2009/07/22(水) 16:30:51 ID:L9jtOV+v
家庭内ファイルサーバで、どうしても単一のボリュームを増やしたり減らしたりしなきゃいけない
って状況はあまりないのでは? (もちろん絶対にないとは言わんが)
普通は新しく買ってきたHDDを既存のディレクトリ下のどこかにマウントしてやるだけで事足りるし
その方がいろいろ楽だと思う。
前に出てたけど、ドライブ故障のときとかデータ損失の危険が増えるだけじゃね?
781login:Penguin:2009/07/22(水) 17:07:37 ID:kNb8Im68
確かにね。
だから俺はRAID5で組んでるよ。
1TBを4発で実質3TBの単一パーティション。
そしてsambaでSMB共有として使ってるから
Windowsからの容量管理を考えると単一パーティションの方が楽なんだよね。
いちいちサーバ側でマウントポイントごとの容量を確認するのも手間だし、
かと言ってWindows側でドライブレターが複数になるのも煩雑だし。
なるべく安楽にメンテナンスフリーで使いたいと思ったらこうなった。
782login:Penguin:2009/07/22(水) 17:25:43 ID:i0d9v6zl
>780
面倒なのはHDD partition-RAID-LVM-FSの階層手順が深すぎるからだからね。
zfsやbtrfsみたいな階層ブレーカーを使う様になると、HDDはむしろ纏めちゃった
方が楽ってことになるんだけどさ。
783login:Penguin:2009/07/22(水) 17:41:48 ID:L9jtOV+v
先月だかのソフデ誌のZFS特集見て
ええな〜と思っただよ。ほんと。
現状だとマウント可能になるまでやること大杉。

ライセンス変更してなんとかLinuxカーネルに
組み込めるようにしてくれんものかな。
784login:Penguin:2009/07/22(水) 18:07:42 ID:i7pHEMGV
ディスク1台のみのデスクトップ用途でも便利。
/homeが足りなくなってきたが/はガラガラなんてことは結構有りがちで、
そういう時に比較的楽にパーティションサイズを調整出来るのが良い。
785login:Penguin:2009/07/23(木) 12:31:13 ID:L4G0kme3
オンラインでリサイズするの怖い。
786login:Penguin:2009/07/23(木) 14:09:46 ID:cxfbehGv
このチキンが!
787login:Penguin:2009/07/23(木) 18:33:16 ID:V0FXlWLo
>>758 やぱ、こえぇよな
>>786 バクうpが万全な方でしょうか?
788login:Penguin:2009/07/23(木) 18:34:25 ID:V0FXlWLo
あーアンカミスッタ orz

×
>>758 やぱ、こえぇよな
>>786 バクうpが万全な方でしょうか?

>>785 やぱ、こえぇよな
>>786 バクうpが万全な方でしょうか?

つーかバックアップがテープの人っている?
789login:Penguin:2009/07/23(木) 22:54:36 ID:cxfbehGv
>>788
俺はLTO3
790login:Penguin:2009/07/24(金) 09:53:38 ID:s6i8kuK+
やぱ、いらっしゃいますか。。。
高いし、ワカメが怖いし
テープ以外になんかいいのないですかね?

LTO3ならそう簡単にはワカメにならないですか? >>789
791login:Penguin:2009/07/24(金) 10:32:02 ID:QDLizY3t
ちっとは自分でぐぐれよ
792login:Penguin:2009/07/24(金) 20:26:08 ID:8cFFY/1k
ジャムるってどんな粗悪品だよ
ヘリカルはクソだがね
793login:Penguin:2009/07/25(土) 12:02:23 ID:b0ziyYCL
>>784
そうなんだけど、現状だと

・一番手間がかからない/のみの1パーティション構成にする人が多い
・LVMしても、その後でファイルシステムをリサイズするのを怖がる人が多い

ということでなかなか普及しませんな。

そういう俺もディスク3台程度でLVMはやめとこうとなって、
一番近いLVM的用法なんてVMwareの仮想ディスクをリサイズして
C:\の容量が足りなくなったWindowsのパーティションを拡張したことくらい。
個人用途だと中々LVMの出番が来ない。

会社だとLVM+iSCSIとかでディスク仮想化便利に使ってるけど。
794login:Penguin:2009/07/25(土) 13:02:10 ID:Em2XyEmO
snapshotの為にLVM使ってる。
795login:Penguin:2009/07/25(土) 13:13:56 ID:Wi3Nn4VF
LVMの利用意義がなんとなくわかってきたw

>・LVMしても、その後でファイルシステムをリサイズするのを怖がる人が多い
これってもっといい方法ないのですかねぇ
796login:Penguin:2009/07/25(土) 13:20:15 ID:qTghIUgl
>>795
ディスク追加して、ちょいとマウントしてやれば、簡単に増やせるよ!って方式の
「もっといい方法」がLVMだと思ってたんだが、違うの?
797login:Penguin:2009/07/25(土) 13:24:52 ID:Fb3lMXfZ
>795
> これってもっといい方法ないのですかねぇ

そこら辺を改善しているのがzfsやbtrfs。
798login:Penguin:2009/07/25(土) 13:44:24 ID:lzFVun58
LVM使うのが怖い人は、VMWareやVirtualBoxなどの仮想環境でいじり倒して
みるのがおすすめ。
799login:Penguin:2009/07/26(日) 02:25:39 ID:dKQ6FUJz
>>795
パーティション操作ツールの方が便利
DiskDirectorSuiteとかね
それにLVMはディザスタリカバリとか考えると・・・ねぇ
イメージバックアップソフトでLVM対応したものは無い
無理やり取ってもセクタイメージになるからサイズがでっかくなる
システム領域にはLVM使いたくない
800login:Penguin:2009/07/26(日) 08:31:55 ID:Sqf6GSrG
ZFSにしてみるかなw
801login:Penguin:2009/07/27(月) 23:30:05 ID:3M/GH2Yd
ディザスタリカバリしたければ DRBD + LVM2 もいいだろう。
802login:Penguin:2009/07/28(火) 02:15:41 ID:s+fkhqn+
ファイルシステムリサイズ恐怖症は一昨年卒業した。
803login:Penguin:2009/07/28(火) 08:39:33 ID:qkh/vCxj
そして慣れたころに油断してファイルシステムごと吹っ飛ばす。
いつしか動いて当然、という気になって、バックアップとか取らないで
やっちゃうんだよね。
804login:Penguin:2009/07/28(火) 14:15:32 ID:cfCC4a3c
HDDを増設したところ従来のHDDのデバイス名がsda → sdbにずれてしまい、
今まで使用していたLVMのVG/PV/LVが認識されなくなってしまいました。
(もちろん新しいHDDを外して、旧HDDをsdaとして起動すれば認識されます)
この場合の「正しい」再認識手順ってのは、どういうものでしょう?

いや、実は最初 pvdisplay やっても全く見えてなかったんですが、
pvchange(使い方がよく分からん)をオプション変えて何度か実行してたら、
全部エラーだったくせに、いつの間にかVG/PVが見えるようになってたもんで。
# その後 lvchange -a y LVパス で正常に使用可能になりました

という訳で、取り敢えず解決はしたけど「正しい手順」が分からないとゆーw
再び同じ状況になったときのために、どなたかご教示ください。
805login:Penguin:2009/07/29(水) 02:10:47 ID:7FiVoOM7
>>804
pvscan
vgscan
lvscan
806login:Penguin:2009/08/11(火) 18:53:33 ID:N8YxJrhg
DVDから最小インストールしたFedora11でvgremoveを使用すると
Volume group "VolGroup" not removed
Command failed with status code 5.
と出力されます
原因としては何が考えられるでしょうか?
心当たりのある方ヒントをお願いします
807login:Penguin:2009/08/11(火) 18:58:02 ID:WK11feHT
>>806
エラーメッセージでggr
808login:Penguin:2009/08/11(火) 20:25:26 ID:N8YxJrhg
ググり方が悪いのかいまいちわからない
よかったら教えてもらえませんか?
809login:Penguin:2009/08/12(水) 11:56:13 ID:rnZGPXwQ
その二行しか出力されないの?
それより前に何行も出てたりしない?
810login:Penguin:2009/08/12(水) 18:59:24 ID:PPhnpZ+s
既存のLinuxサーバに1TB*2のディスクを増設してRAID1を組み、
1TBすべてをLVMの領域としようと考えています。

このときにパーティションを
- 1TBのおおきなパーティションにする
- 500G*2等、分割しておく
の2つでなにか違いがありますか?

全体をLVMにするので最終的には同じなのですが、障害時や運用上、
パフォーマンス上でなにか良い点、悪い点はありますか?

811login:Penguin:2009/08/13(木) 15:48:40 ID:H9Ey2wIe
>>806
自分で踏んでいるから
812login:Penguin:2009/08/13(木) 22:15:23 ID:rZrZs/Jn
LVMって複数のHDDを1つのHDDみたいな感じで扱うって認識でいるけど
複数HDDでLVMを組んだ場合にHDDがどれか1つでも壊れると全滅ってこと?
813login:Penguin:2009/08/13(木) 22:45:58 ID:cLHxYtSX
盛り土した上に高速道路作るみたいだがw
PVを跨がないようにLVを作ればよろし
814812:2009/08/14(金) 01:16:19 ID:9/vKw7tC
>>813
ありがとうです。
これってPVとかまたがっている状態でHDDを抜き取ったらダメだけど
逆に抜き取ったHDDからはデータが読めないから盗まれないって解釈でもOKですか?
HDD3個あればRAIDとLVMを組み合わせて抜き取られてもデータが読めず、1個壊れても問題ない
っていうのが作れるんじゃないかと考えております。
815login:Penguin:2009/08/14(金) 01:49:21 ID:iVeb+he4
mdで3玉RAID5とかして、それをPVにするのね
いいんじゃないかね、2玉持って行かれるとアウトだが
816login:Penguin:2009/08/14(金) 02:33:26 ID:0iNIM8VR
1個抜かれるなら2個でも3個でも抜かれるよね?


PVまたがらないでLVつくるってのはPVとVGを1対1対応でつくるてこと?
817login:Penguin:2009/08/14(金) 03:12:44 ID:iVeb+he4
律儀に1玉抜いて帰る泥棒も居ないと思うがw
1VGに3PV入ってても、lvcreate時にはPV指定できるから
PV跨がないでLV作成は可能

PV跨いでないならDISKブチ壊れた時でも全部パーにはならないで
何とかなる >>135な人が追試している
818login:Penguin:2009/08/14(金) 11:08:58 ID:FmrgXovH
>>817
RAID5のアレイからそれぞれ1玉ずつ抜いていくのは、
間違いなくプロの犯行ww
819login:Penguin:2009/08/14(金) 15:19:19 ID:q89o8hhF
PEの大きさ決める時って何か基準とか目安みたいなものあるんでしょうか?
小さい方が無駄が少なそうだから4Mとかにしたりしてるんですが。
820login:Penguin:2009/08/14(金) 16:24:32 ID:hqUEOy8y
LV 1つあたりのPEの最大数が65536個と決まってる。
4MBだと最大256GBのボリュームしか作成できない。
従って、TBクラスのボリュームを作成する場合には
64MBとか128MBとかって大きさで作らんと。

参考 ttp://pantora.net/pages/linux/lvm/1/
821login:Penguin:2009/08/14(金) 16:27:38 ID:hqUEOy8y
あ、ごめん。
これ LVM1 の話で LVM2 では制限なくなってるっぽい?

ずっと64MBとか指定してたけど、LVM2だともっと小さくていいのか。
822login:Penguin:2009/08/14(金) 16:32:16 ID:hqUEOy8y
自己フォロー

ttp://www.ibm.com/developerworks/jp/linux/library/l-lvm2/index.html
> LVM2 では、PV/LV あたりの最大エクステント数に制限はありません。デフォルトのエクステン
> ト・サイズは 4MB です。エクステント・サイズの大小による入出力パフォーマンスへの影響は
> 一切ないので、ほとんどの構成ではこのデフォルト・サイズを変更する必要はありません。ただ
> し、エクステント数が多いと LVM ツールを使用しにくくなる場合があるので、エクステント・
> サイズを大きくしてエクステント数を抑えることが得策となります。

とのこと。
823login:Penguin:2009/08/14(金) 16:36:17 ID:0iNIM8VR
>>817 ありがとう。
135からのはすばらしい資料。お世話になりたくないけど。

LVM+RAIDのような仕組みがあればいいのに。
LV作るときに
- ストライピング数
- 冗長化数
- サイズ
が選べる。

PVレベルで物理的なHDDの構成を認識していて、データの保存先を
うまく分散してくれる。

あとから設定変えられて、ストライピングが不要になったら減らせる。とか。
824login:Penguin:2009/08/14(金) 16:57:09 ID:iVeb+he4
期待している機能がよくわかんけど
Storage Foundation Basicが使えるなら試してみるといい
こっちはこっちでややこしい機能満載
825login:Penguin:2009/08/14(金) 17:10:05 ID:hqUEOy8y
期待している機能がよくわかんけど
ZFSも試してみるといい
826login:Penguin:2009/08/14(金) 17:47:53 ID:iVeb+he4
FUSE経由のzfsは耐障害性の確認には使えんだろ
827login:Penguin:2009/08/14(金) 18:49:01 ID:Aecr2YER
そもそもパフォーマンス的にFUSE経由のZFSなんて論外だろ
828login:Penguin:2009/08/14(金) 19:27:48 ID:6hhpnVOs
試して気に入ったら
Solaris に移ればいいんだよ
829login:Penguin:2009/08/14(金) 22:10:48 ID:Aecr2YER
Linux板でOSを変えろなんて意見は愚の骨頂
830login:Penguin:2009/08/14(金) 22:32:12 ID:kMqgWFrJ
そうだな。
Linux板ではまずLinuxありきだし。
831login:Penguin:2009/08/15(土) 01:06:57 ID:B5bx+teh
別にいいんでね?
普通の人はOSを使うのが目的ではないんだし。
LinuxでできることのほとんどはSolarisでもできるだろ。
832login:Penguin:2009/08/15(土) 22:59:22 ID:lBhfkabu
>>831
Solarisなんかに変えたらzfsは良くても他で苦労するだろww
833login:Penguin:2009/08/15(土) 23:07:27 ID:VquFcSzY
んーなこたーない。
834login:Penguin:2009/08/15(土) 23:23:41 ID:GcEfXI3O
Solaris厨ウザいな。巣に帰れ
835login:Penguin:2009/08/16(日) 16:01:09 ID:hCeDzmax
デスクトップ用途ならともかく、
ファイルサーバ用途だったら別にLinuxでもSolarisでもいいんでね。
この場合、ファイルシステムにZFSがネイティブで使えるってのは
Solarisの最大のメリットであることは確か。

なんでもかんでもLinuxでやらなきゃ気が済まん
というのは正に厨な発想だな >>834
現実的にいいとこ取りでいこうぜ。
836login:Penguin:2009/08/16(日) 16:09:47 ID:9z2ATOvk
ZFSは別にSolarisの長所ではあるが最大の長所でもなんでもないとか他にもあるけど
スレ違いで板違いなので細かくはツっこまない。

LinuxでLVMをやりたい人のスレであり板であるわけなのでどうも…。
私もSolaris使いではあるんだが、ちょっと>>835は空気嫁。
837login:Penguin:2009/08/16(日) 16:36:32 ID:hCeDzmax
>>836
>>823からの流れで
そういう機能が必要なら別のOSに移るという選択肢もあるよ
と紹介してるだけだが。
もしLinuxでのRAID + LVM + FS という多層レイヤ管理に本気でウンザリしてるなら
別の選択肢を考えてもいいんじゃないか。
そんな話を出すのもいかんのかな。
LinuxにはLinuxの利点が沢山あるのは承知した上で。

あと、「最大の長所」と書いたのは「この場合」という前提が付いての話な。
「それがSolarisの最大の長所」と書いたつもりはないんで。
838login:Penguin:2009/08/16(日) 16:41:27 ID:hCeDzmax
あ、いや
伝えたいことは書いたんで
もう去るわ。
839login:Penguin:2009/08/16(日) 16:42:23 ID:H9W5yc/R
書き捨てするならチラ裏に書けや
840login:Penguin:2009/08/16(日) 17:04:19 ID:5RW4AdcN
自分の好まない話題が出されると出て行けと言い
出て行くと書けばそれを書き捨てと言う

実に夏休みって感じの展開だねぇw
841login:Penguin:2009/08/16(日) 17:15:02 ID:H9W5yc/R
論理も何もない支離滅裂な文章しか書けない池沼はさっさと病院に戻れよ
842login:Penguin:2009/08/16(日) 17:21:10 ID:O1n+AG9l
>>837
なんか超漢字の信者思い出した
Win3.1よりもOSとして優れてる!とか言ってたけど
でアプリは何が動くの?って訊くと黙っちゃった……
アプリケーション含めて初めて役に立つんだと思うな
有償ソフトで固めるならまだしもオープンソースソフトウェアをガンガン使うプラットフォームとしてはアリエナイ
お約束守ってないし色々互換性の問題あるし
843login:Penguin:2009/08/16(日) 18:42:58 ID:hCeDzmax
>>842
ん〜
「ファイルサーバとして使うなら」って前提で書いたんだけど。
samba とか ftpとか使う分には特に問題ないでしょ。

そんなにSolarisがこの板で嫌われてるとは知らなかったよ。
俺は単純にOSなんてなんでもよくって
自分で使う機能が使いやすいのを自由に選べばいいんじゃないか
ってつもりで書いたんだが。

「OSを使いたくて選ぶ」ってのはMacな人だけなのかと思ったけど
意外とそうでもないんだな。
844login:Penguin:2009/08/16(日) 19:07:06 ID:Da0iBNrp
>>843
しかしKYなのは間違いない。
なにしろ、ここがlinux板だって事を意識してないみたいだからね。
845823:2009/08/16(日) 20:48:09 ID:ON+i6sRP
全部面倒みてくれるZFSいいすね。

いつかの未来にlinuxでフルに使えるようになったらいいですね

846login:Penguin:2009/08/16(日) 22:24:56 ID:/UcbSk4q
StorageFoundatio anywhere
847login:Penguin:2009/08/17(月) 00:59:41 ID:tX4eXfat
>>810
PVをある程度細かく切ると、移行先へのpvmoveが少し楽になる場合がある。
1TBのディスクをファームバグとかで切り離したいが、500GBのHDDx2しか
用意できてないとか。1TBのpv切ってると退避不能だが、分割してpv切ってると
退避できる。
848login:Penguin:2009/08/17(月) 14:21:42 ID:H9tKCOaM
>>843
変態ディレクトリな時点でSolarisいらね
849login:Penguin:2009/08/18(火) 22:23:33 ID:+UN+JVuz
どんなDIR?
850login:Penguin:2009/08/19(水) 18:15:25 ID:nLRNfndA
ソフトRAID+LVM -> ハードRAID+LVMへの移行について
教えてください。

現在、pvとしてmd1が割り当てられているのですが
# pvdisplay
--- Physical volume ---
PV Name /dev/md1
VG Name VolGroup00
[root@mail01 ~]# cat /proc/mdstat
md1 : active raid1 sdb2[1] sda2[0]

ハードRAIDへ移行するために/dev/sda2をpvとして割り当るには
どのようにしたらよいでしょうか?
#fdisk -l
/dev/sda1 * 1 13 fd
/dev/sda2 14 19452 fd

/dev/sdb1 * 1 13 fd
/dev/sdb2 14 19452 fd

# cat /etc/fstab
/dev/md0 /boot ext3 defaults 1 2
/dev/VolGroup00/LogVol00 / ext3 defaults 1 1
/dev/VolGroup00/LogVol01 swap swap defaults 0 0

分かりづらくてすみません。
851login:Penguin:2009/08/20(木) 13:39:12 ID:a5N2XjsE
>ハードRAIDへ移行するために/dev/sda2をpvとして割り当るには
ここおかしくない?

ハードウェアRAIDのデバイスをVolGroup00に追加して、pvmoveして、md1の割り当てを解除するのがいいんじゃなかろうか
852login:Penguin:2009/08/20(木) 14:42:53 ID:oZrZ4RMg
ソフトウェアRAIDにつかってるデバイスを切らずに
ハードウェアRAIDが作れればいいんだろうけど、
そこんとこどうなんだろ。
853login:Penguin:2009/08/20(木) 16:23:17 ID:qjr3+1CJ
何を意図してるのかまったく意味が分からない。
やりたいのは「移行」なんだよな?

ハードウェアRAIDを追加したら(ドライバが正しく入ってれば)
普通は新しくsdc として認識されるだけだと思うが。
(あるいは新しいのがsdaになり、従来のがsd[bc]にずれる)
両方マウントして単に中身をコピーした後
SW RAIDを無効にすればいいだけでは?
854login:Penguin:2009/08/20(木) 16:35:35 ID:oZrZ4RMg
>>853
それやったらLVMでやってる意味がないじゃない。
855login:Penguin:2009/08/20(木) 18:26:49 ID:qjr3+1CJ
え? なんで?
ソフトウェアRAIDをやめて
ハードウェアRAIDに「移行」するんでしょ?

両者併用したいってこと?
それなら「移行」ではなく「追加」だと思うんだが。
856850:2009/08/20(木) 18:49:16 ID:8wrndRwo
みなさん、ありがとうございます。
情報小出しになってしまってすみません。

HDD2台でソフトRAIDを組んでいるサーバーを
RAIDコントローラが付いているサーバーへ移行したいのです。
ソフトRAIDのサーバーのsdaディスク全体をddでイメージしました。
新たにRAIDコントローラー付きのサーバーにイメージをリストアしました。
LVMではないパーティションはfstabの指定で/dev/md0 となっているところを
/dev/sda1と書き換えました。
LVMからなるパーティションはfstabなどを書き換える必要はなさそうですが
VGがmd1のpvから構成されているので、このままではmdの縮退モードとなってしまいます。
せっかくハードRAIDのサーバーへ移行したので、sda2からなるVGとしてソフトRAIDをやめたいのです。

書いてて気づいたのですが、RAIDカードの設定でハードRAIDを無効にした(sda,sdbと2本みえる)状態でリストアして、
mdからsdbを削除して、sdbのパーティションタイプを変更して、sdbのMDスーパーブロックを削除してvgにsdbを加える、
データコピー後にmdを削除、sdbからsdaへ同期するようにハードRAIDを構成でいけるかなあ。
857login:Penguin:2009/08/20(木) 18:51:56 ID:Tl2T+IF2
>ソフトRAIDのサーバーのsdaディスク全体をddでイメージしました。
>新たにRAIDコントローラー付きのサーバーにイメージをリストアしました。
おおっと。これは想定外www
858login:Penguin:2009/08/20(木) 18:54:09 ID:qjr3+1CJ
>>856
人に状況を説明する能力がかなり低そうだ。

> LVMではないパーティションはfstabの指定で/dev/md0 となっているところを
> /dev/sda1と書き換えました。

これ以降かなり意味不明に見える。
859login:Penguin:2009/08/20(木) 19:07:21 ID:z7LXRLpP
LVM2の不満点:
1. LVのsnapshotは同一VG上にしか作成できない。
自動でバックアップさせているが、VGの空きスペースが少ないときに困る。
外付けHDDにある *別の* VG上に作成できれば便利だと思うのだが。

2. ひとつのLVにつき65534 PEまでしか管理できない。
デフォルトのPEサイズ(= 4MB)だとLVMのサイズは256GBまでに制限される。

これらが改善されればもっと快適なのだが。。
LVM3に期待しちゃってもいいですか?
860850:2009/08/20(木) 19:23:32 ID:8wrndRwo
>>858
確かに。。
LVMを利用していないソフトRAIDサーバーをハードRAIDサーバーへ移行
する場合は、ddで取得したHDDイメージをリストアしてから、fstabやgrub.conf
におけるmd*の部分を該当のsda*へ書き換え、RAIDを使用しないオプションで
initrdを作成し直すとハードRAIDのサーバーでソフトRAIDを使用せずに起動しました。

上手く行かないのがソフトRAID上でLVMを使用したサーバーを
ハードRAIDへ移行する場合なのです。
デバイスの指定方法はソフトRAIDでもハードRAIDでも/dev/VolGroup00/LogVol00と
変わらないのでファイルの変更は必要なさそうですが、そもそもVGが/dev/md1からなる
PVから構成されているので困っているのです。
たとえばこんなことが出来れば助かります。
レスキューCDなどから起動
/dev/sda2をPVとしてcreate
vgの構成要因を/dev/md1から/dev/sda2へ変更
861login:Penguin:2009/08/20(木) 19:28:01 ID:Tl2T+IF2
>LVM3に期待しちゃってもいいですか?
もうちょっと真面目にlvm2のマニュアル嫁
862login:Penguin:2009/08/20(木) 19:44:08 ID:oZrZ4RMg
>>859
> 2. ひとつのLVにつき65534 PEまでしか管理できない。
> デフォルトのPEサイズ(= 4MB)だとLVMのサイズは256GBまでに制限される。
おかしいなあ……
おれが1TのHDDをLVMにつっこんで700GのLVを切ってるのはマボロシ……?
863login:Penguin:2009/08/20(木) 19:52:45 ID:oZrZ4RMg
>>860
まだよく状況がつかめんけど、vgscanじゃだめ?
864login:Penguin:2009/08/20(木) 19:53:27 ID:Tl2T+IF2
>>862
おそらく使っているlvm2のバージョンがとてもとても古いのでしょう。
俺もPEサイズを指定した記憶があるもの。いつだったか忘れるくらい
昔だけど。
865859:2009/08/20(木) 20:23:05 ID:z7LXRLpP
あ、はい。
PEの管理数制限は私の勘違いでした。(昔の記憶だったもので。)

しかしスナップショットが異なるVG上に作成できないのが痛い。
なんとかならないのか。。
866login:Penguin:2009/08/20(木) 22:30:02 ID:hQNNU4ge
>>865
その制約、何処かの売り物ストレージ管理ソフトも同じ
PV単位でVG結合・分割できるけどね
867login:Penguin:2009/08/20(木) 23:52:52 ID:oZrZ4RMg
でもなあ、スナップショットは元のLVから切りはなすと
何の意味も持たなくなっちゃうから、
VGをまたげる、っていうのはなんだか気持悪いけどなあ……
868login:Penguin:2009/08/21(金) 00:03:07 ID:YkMVscqX
スナップショットを差分のコピーか何かと勘違いしていると思われ
869login:Penguin:2009/08/21(金) 00:17:00 ID:89zFTgQ5
んなことするんだったらddかtarしろよ、って気はするよね。
870login:Penguin:2009/08/21(金) 08:53:39 ID:eN5qxsOo
ある意味スナップショットが本体でしょ。
それを外部ディスクに作成したいなんて正気とは思えん。
871login:Penguin:2009/08/21(金) 12:14:31 ID:Rpu3j5AM
スナップショットは一種のハードリンクなんだから
別のVGに作成ってのは原理的に無理なんでは
872login:Penguin:2009/08/21(金) 19:11:34 ID:xIv5/jxT
スナップ元と同容量のPVが必要だがVxVM買えばできる

873login:Penguin:2009/08/21(金) 20:46:06 ID:HWzVO6eL
そんなん買わなくてもlvconvert -s でおk
874名無しさん@そうだ選挙に行こう:2009/08/30(日) 16:05:48 ID:HLlF5dV7
最近LVMに興味を持って調べてたら、凄まじい長寿スレに遭遇w
初期からの住人ってまだいるのかな
875login:Penguin:2009/08/31(月) 23:25:40 ID:Xzc+G5jH
ノシ
876login:Penguin:2009/09/01(火) 14:14:53 ID:zvxr/DOn
「snapshotが存在している間に書き込みをすると、書き込みに先立って
もとのデータがPE単位でsnapshot用LVに待避される」
という記述は妥当?
データを待避するのでなくて、PEの割り当てを交換するような
実装になっていたりする?(自分はそう思い込んでいたのだが)
877login:Penguin:2009/09/01(火) 21:26:56 ID:30xIRbHh
878login:Penguin:2009/09/01(火) 23:12:58 ID:DdYzX9ch
>>874 ノシ

>>876
ここの記述だと、PE単位ではなくchunk size単位みたい
ttp://www.linux.or.jp/JF/JFdocs/LVM-HOWTO.html#toc7.1

あとsnapshot作成時にはデータはコピーされないんだから、
"待避するのではなくて、"というのはありえない
879login:Penguin:2009/09/01(火) 23:26:21 ID:r5Ah4PuX
>>878
後半意味不明
880login:Penguin:2009/09/02(水) 23:48:21 ID:akbxfo5I
スナップショットで基本的な質問。
スナップショットの領域って、
空きPV
空きVG
のどっちが必要なの?

881login:Penguin:2009/09/03(木) 19:01:33 ID:6HR1l5tV
VGでそ
882login:Penguin:2009/09/03(木) 20:27:44 ID:pvTDd6jz
同一VG内の空きPE
883login:Penguin:2009/09/04(金) 21:02:45 ID:99CfDDyH
同じVGじゃなくてもいいだろ
884login:Penguin:2009/09/04(金) 22:11:26 ID:5+k8oEIJ
同じVGでしょjk
885login:Penguin:2009/09/04(金) 23:03:02 ID:cj0NRcJt
>>883
別VGのPEにはsnapできません
886login:Penguin:2009/09/05(土) 16:23:41 ID:OqNMUexm
>>883
>>871

定期的に出てくるな
887login:Penguin:2009/09/09(水) 22:24:50 ID:+ofEzcpO
複数の物理HDDで1つの論理ボリューム組んでる場合、
物理HDD1つ壊れたらどうなんの?

全体が死ぬの?
それとも、残った部分だけは読み込み可能?
888login:Penguin:2009/09/09(水) 22:32:40 ID:WETFV6iF
またループかよ
>>887

>>135さんのレポよめ
889login:Penguin:2009/09/12(土) 08:05:30 ID:urmObRhF
横レスだけど、135さんの情報って大きいね。
LVMを組む場合は、通常の構成以上にバックアップと冗長性が大切なのだと認識…
でもRAID5とか組むと高いし騒音になるし…どうやって冗長性を確保するべきか悩む…
890login:Penguin:2009/09/12(土) 09:15:30 ID:wp6ePPWn
>>889
同じマシンをもう1台用意してミラーでおk
891login:Penguin:2009/09/12(土) 09:31:21 ID:urmObRhF
もっと金かかるさorz
892login:Penguin:2009/09/13(日) 01:42:43 ID:/s5WO+FD
>>889
HDDが一個増えるだけじゃん。
騒音とか高いとか何のことやら。
893login:Penguin:2009/09/24(木) 02:31:47 ID:F3Ai2mrx
LVMの復旧でお知恵を貸してください。
RAID5+LVMで単一パーティションに単一VGの構成なんですが
メタデータが壊れたようで、リブートしたタイミングで
パーティションが見えなくなってしまいました。
システムは入っておらず、データ用にマウントしていました。

その直前、ミスによりルートパーティションの使用率が100%になっていたため
解消後すぐOSをリブートしました。これが直接原因ではないかと思います。
mdadmによるとRAIDはクリーンな状態で、実際おそらくハード的には問題ないと思います。

RAIDアレイは/dev/md1、PVはデバイスのパスでは /dev/vg02/data です。

# vgcfgrestore vg02 -f /etc/lvm/backup/vg02
Incorrect metadata area header checksum
Restore failed.

# vgck vg02
Incorrect metadata area header checksum
WARNING: Inconsistent metadata found for VG vg02 - updating to use version 4
Incorrect metadata area header checksum
Automatic metadata correction failed
Recovery of volume group "vg02" failed.

といった状態で、**scanや**displayでも大体同じエラー内容です。
他に試すべきこと等あったら教えていただけないでしょうか。
894893:2009/09/24(木) 02:56:05 ID:F3Ai2mrx
お騒がせしました。以下のとおりPV強制再作成で復旧しました。
pvcreate --restorefile /etc/lvm/backup/vg02 --uuid (略) /dev/md1 -ff
vgcfgrestore -f /etc/lvm/backup/vg02 vg02
vgchange -ay vg02
895login:Penguin:2009/10/05(月) 00:59:56 ID:f20OIVpr
LVMっていらんよな、もう・・・
896login:Penguin:2009/10/05(月) 03:35:10 ID:Phix5zCo
めちゃくちゃ要りますが?
ZFSとか言い出したら笑うからな
897login:Penguin:2009/10/05(月) 11:38:04 ID:VGtPQ1v4
まぁ、確かにzfsが使えれば要らないけど、linux側の都合で事実上zfsは使用不可だもんな。
898login:Penguin:2009/10/05(月) 12:45:27 ID:d9oXGiND
別にZFSでなくてもいいが
ZFS同等機能のFSが
Linuxで正式に採用されるなら
大喜びして使う。
誰か作ってくれ。
899login:Penguin:2009/10/05(月) 12:51:45 ID:i3KKGHBf
フリーライダー乙
900login:Penguin:2009/10/05(月) 14:04:43 ID:WXce1IKN
俺はイージーライダー。
901login:Penguin:2009/10/06(火) 15:47:06 ID:LrSj3bn6
PV跨いだ時の冗長性とか、復活の呪文とか…
902login:Penguin:2009/10/12(月) 14:13:02 ID:SfIDrwqz
>>888
ありがとう。やっぱ壊れるのか
903login:Penguin:2009/10/24(土) 00:16:44 ID:5Oxq5Pfq
質問させて下さい。
現在マシンAに接続されている、以下2つの LVM (それぞれ物理 HDD 2台よりなる)があって、
/dev/VolGroup00/LogVol00 /home
/dev/VolGroup01/LogVol01 /home_backup
これら合計4台の物理 HDD を、丸ごと新しいマシンBに接続し、かつ、
マシンA下と同様にマウントしたい場合、どのような手順で行うべきなのでしょうか。
904login:Penguin:2009/10/24(土) 10:12:45 ID:vdLadtr6
>>903
>これら合計4台
2台じゃなくて?

Bに接続したらvgscanしてmountすればいいんじゃない?
905login:Penguin:2009/10/24(土) 10:14:20 ID:vdLadtr6
あ、「それぞれ2台」*2LV=4台か。
906login:Penguin:2009/10/24(土) 10:20:11 ID:PS9fv/ZN
>>898
つ btrfs
907login:Penguin:2009/10/24(土) 16:49:37 ID:TJJoTZWM
>>903
普通のLVMの再認識の手順。
pvscan
vgscan
lvscan
んでもってactiveになってなければ
lvchange -ay
すれば普通にmountできるようになると思うが。

ただ、VolGroup00/LogVol00 てな名前は
多分OSインストール時のデフォルトのままなんだろうけど、
新しいマシンでも同じ名前のLVが作られてたら
当然のことながら名前が重複してるぞ、とエラーになる。
事前にどちらか一方(または両方)の名前を変えておかんと。
908login:Penguin:2009/10/30(金) 20:07:09 ID:90wG+kbw
>>906
Btrfs は ZFS でいうストレージプールってあるの?
909login:Penguin:2009/11/14(土) 23:34:57 ID:F6dTqzxo
起動ディスクの別HDDに引越ししたいんだが
手順を解説しているページってある?

手順書見ながらでも、一通り手作業でこなせば
LVMの理解が深まるだろうなぁと思ってるんだが
参考文献がまるでない
あるのは、データ領域として別HDDにLVMを構築
してごにょごにょいじるものばかりで
910login:Penguin:2009/11/16(月) 03:32:49 ID:5Bwtu7pz
せめて1行目を日本語に
911login:Penguin:2009/11/22(日) 19:44:10 ID:xyg58vIP
>>910
起動ディスクを別HDDに引越ししたい
912login:Penguin:2009/11/24(火) 18:45:53 ID:Ri+CVRaW
えっ!?
そんな意味だったのか!!!
913login:Penguin:2009/11/29(日) 14:14:39 ID:s24dDtm7
>>909
何が分からんのかが、分からん
起動HDDだからって何も特別なことはない。
LVM用の領域(HDD全体か区画か知らんが)があるなら、「データ領域」と同じように移行すればいい
914login:Penguin:2009/11/29(日) 15:10:24 ID:yJL8bQn5
>>913
コピーするときは論理ボリューム名はどうでもいいと思うんだけど
起動するためには論理ボリューム名を今までのHDDと同じ名前に
変更する必要があるよね?
起動時に使う論理ボリューム名をどうやって設定すればいいの?
915login:Penguin:2009/11/29(日) 15:52:53 ID:s24dDtm7
>>914
普通にカーネルの起動オプションとして渡せばいいやん
それかGrub2で直接起動するとか
916login:Penguin:2009/11/29(日) 15:57:44 ID:Qjexh95m
>>914
何を難しく考えているのか。
現在のVGをリネームして、新しいHDDに現在と同じ構成でVG/LVを構築して
コピーすれば、そのまま変更なしで起動できるはずだが?

そもそも基本的な知識はあるの?
917login:Penguin:2009/12/03(木) 19:26:49 ID:LhDc+e3j
論理ボリュームにはUUIDが割り振られていますが、これを使って
real pathにマッピングしたいのですが、そのような実装はありますか?
918login:Penguin:2009/12/10(木) 12:22:42 ID:MbD6x0uN
LVMとか触ったばかり&Linuxのファイルシステムとか
いまいち理解していない状態で質問なんだけど、

 ・ファイバーでつないだストレージにボリュームを20GBで作成
 ・サーバから20GBで見えたディスク(上で作成したやつ)で
  pvを20GBで1個作成 → vgを作成 → 丸々20GBでlvを作成(厳密には違うが・・・)

あんま意味っぽいけど・・・
後でボリュームを追加でマッピングしてVGに加えてLV拡張できるのはわかる

質問)
ストレージ側で既存の20GBを うにょ〜ん と40GBに増加させた場合、
LVM側ではLV拡張まで持っていくことは可能?
いったんPV自体削除しないとだめぽ?

わかり難くてすまそ
919login:Penguin:2009/12/10(木) 16:21:05 ID:QrjblcvP
>>918
pvresize
920login:Penguin:2009/12/11(金) 18:48:14 ID:xXYVjSAb
LVM はコマンドの数が多すぎて全容を把握するのが難しいよな。
man lvm をしてみると、存在すら知らなかったコマンドがぞろぞろ出てくる。
vgcfgbackup, vgcfgrestore, vgimportclone, lvmdump とか使ったことある人いる?

で、ついさっき知ったが pvs/vgs/lvs って便利じゃん。
pv/vg/lvdisplayよりも打鍵数が少なくていいw
921login:Penguin:2009/12/13(日) 21:49:33 ID:jHaC7Iao
>>919
あんがと。
そう思ってやってみてもlvextendで怒られる・・・

どうもfdiskで見えるサイズが変化しない(20GBのまま)のだが、
これってLVMと関係ないよね?
OS側で変更後のサイズ(40GB)を認識させる必要があると思うけど、
再起動とかしない方法がわからん。。。
922login:Penguin:2009/12/14(月) 00:28:11 ID:HcqF8U/U
>>921
IBMのpSeries用Linux、且つSoftwareRAIDが挟まっているけど、
下記ページの「Online resizing of md devices with LVM2」で
再起動せずにSANのVolume拡張→pvresizeまでやってるみたい

ttp://www.ibm.com/developerworks/wikis/display/LinuxP/SCSI+-+Hot+add,+remove,+rescan+of+SCSI+devices

これがDISKのscanっぽい
> # echo 1 > /sys/bus/scsi/drivers/sd/0\:0\:2\:0/rescan
> # echo 1 > /sys/bus/scsi/drivers/sd/0\:0\:3\:0/rescan
923login:Penguin:2009/12/15(火) 01:45:55 ID:tx5kvce1
>>921
> OS側で変更後のサイズ(40GB)を認識させる必要があると思うけど、
> 再起動とかしない方法がわからん。。。

「ストレージ側でうにょ〜ん」てのが
具体的に何をやったのかを秘密にしてる理由は知らんけど
再起動しろってメッセージが出てたんなら再起動しろよ。

増えた分を新規PVにしてVGに組み込めばいいんじゃねーの
とも思うが、何故その選択肢を排除するのかも理解できん。
924login:Penguin:2009/12/15(火) 21:18:56 ID:S2Ry8bHI
エンタープライズの質問にコンシューマの知識でイチャモンとかスゲーカックイーな
925login:Penguin:2009/12/15(火) 22:12:27 ID:DeZ5m+oO
何いってんだこいつ
926login:Penguin:2009/12/15(火) 23:28:43 ID:z7T/3Fcp
2ちゃんで「エンタープライズの質問」っのはある意味すげーな。
ちゃんとコンサル料払えよw >>924
927login:Penguin:2009/12/16(水) 23:38:43 ID:u6X2oLgr
そうか? オレみたいに趣味で百台単位のブレードとPBクラスのストレージで遊んでる奴、
日本なら結構いるんじゃないのか? 規模だけなら充分エンタープライズ言えると思うが。
928login:Penguin:2009/12/16(水) 23:42:26 ID:2RDtaE9R
GBでもエンタープライズ
PBでもエンターテインメント
929login:Penguin:2009/12/17(木) 00:08:13 ID:UcpC4nHo
趣味でいくらかかってるんだろ…

ブレード百台って枠何個?
ラックマウントしてるの?
ラック何台必要?
ハード揃えるのにいくらかかった?
電気代またはデータセンター代は?
930893:2009/12/17(木) 00:51:31 ID:zeINg69o
大袈裟に言ってるけどたぶん100%趣味ではなくて
ちゃっかり金稼いでると思う
931login:Penguin:2009/12/17(木) 00:52:58 ID:nNb/mU8/
ヤクザ調子に乗るな w
932login:Penguin:2009/12/17(木) 12:41:12 ID:QjcCDD9y
>>927
一度「エンタープライズ」の意味を
辞書で調べてから出直してきてください。
933login:Penguin:2009/12/17(木) 15:13:59 ID:VO+bt8CE
ところで、>>924 は >>918 の一体どのあたりに
「エンタープライズの質問」を感じ取ったのだろうか。
当面これが最大の謎だな。
934login:Penguin:2009/12/17(木) 23:34:52 ID:/Kxk++sU
Great Britainの企業
Packard Bellの娯楽
935login:Penguin:2009/12/18(金) 13:15:13 ID:NzoBz393
>>933
> ・ファイバーでつないだストレージにボリュームを20GBで作成
>ストレージ側で既存の20GBを うにょ〜ん と40GBに増加させた場合、
って書いてあるからだろ?
ファイバチャネルのストレージにLUN作ってからそれを大きくしたいって事なら
一応ミッドレンジ以上と言えるかもしれん
936login:Penguin:2009/12/18(金) 14:38:26 ID:ERJRddwN
20GBを40GBにうにょ〜ん
だぜ?
「ミッドレンジ」ねぇ…
937login:Penguin:2009/12/18(金) 14:43:40 ID:XhxSVMqA
テスト環境じゃねーの?
938login:Penguin:2009/12/18(金) 18:23:06 ID:NzoBz393
clusterのクォーラムDiskとかSAN BOOTとかで小さなLUN切ることはよくある
サイズは用途次第だろ
939login:Penguin:2009/12/18(金) 22:27:20 ID:nrHdpEMX
問題はサイズではない!
うにょ〜んだ!!!
940login:Penguin:2009/12/19(土) 00:20:27 ID:4Uy4N7FU
片や「百台単位のブレードとPBクラスのストレージ」を趣味といい
片や「ファイバー」の一語だけでエンタープライズという

やたら極端なスレだなw
941login:Penguin:2009/12/19(土) 00:23:46 ID:A586aEGk
うちもフレッツ光引いてるからエンタープライズだな
942login:Penguin:2009/12/19(土) 18:16:59 ID:1OOblPMz
>>940
首の上に頭ついてますよね?
頭の中に脳ってものが入ってるんすよ。脳。
使ってみてくださいよ
マジ便利っすから
943login:Penguin:2009/12/20(日) 13:39:27 ID:1jzU1jj0
みなさん、現在のLVM2の実装、およびディスク上のフォーマットについて満足していますか?
よろしければ理由も一緒にお願いします。
944login:Penguin:2009/12/20(日) 15:36:55 ID:6gJend6V
自分の必要を十分満たしているから不満は無い。以上。
945login:Penguin:2009/12/20(日) 21:46:19 ID:1jzU1jj0
ありがとうございます。
ところでLVM 3 はどうなるのでしょうか。話題を聞かないのですが。。
946login:Penguin:2009/12/20(日) 21:49:46 ID:9SGFzSTN
LVM2というかデバイスマッパの問題だが
スナップショットのスナップショットはときどきほしくなる

あと、スナップショットが10とか20とかあるとメモリ不足とやらでdmsetupがこけるのが困る。
LVの拡大をした影響で「断片化」状態になるとさらに。
VG内デフラグをすると治ったりする。
947login:Penguin:2009/12/21(月) 09:57:29 ID:dtU6ukE+
パーティションテーブルの様に、ボリュームグループと論理ボリュームの
構成をバックアップ・復元することは可能ですか?
948login:Penguin:2010/01/08(金) 02:03:18 ID:O4n9RCwu
vgcfgbackup, vgcfgrestore これらのコマンドはどんな意味があり、どういった場合に使用するのでしょうか??
949login:Penguin:2010/01/08(金) 12:36:50 ID:u2d021ly
ggrks
950login:Penguin:2010/01/08(金) 13:04:55 ID:awvr0YeL
manks
951sage:2010/01/13(水) 23:11:24 ID:XqcSrg5G
スナップショットのマージ機能がサポートされたらしいぞ。yay!

lvconvert --marge VolumeGroup/Snapshot
これによって、オリジナルのデバイスに COW の内容をマージできるらしい。

http://git.kernel.org/?p=linux/kernel/git/torvalds/linux-2.6.git;a=blob;f=Documentation/device-mapper/snapshot.txt;h=e3a77b215135eeef2350fc0471dfe8633184384e;hb=HEAD
952sage:2010/01/14(木) 17:53:05 ID:iA54GJ2q
あれ?
もっとみんな喜べ!(^o^)
953login:Penguin:2010/01/14(木) 18:03:11 ID:dzPzgwkR
意味が理解できん
954login:Penguin:2010/01/14(木) 19:04:38 ID:+3WbE2+u
どうせLinuxのソフトウエアRAIDを使ったNASとかで便利って話だろ?

今まで通りテープに直接書き込む方法で間に合ってるよ
955login:Penguin:2010/01/14(木) 19:20:43 ID:t9V7l82T
original へ merge って……
要するに古いバージョンのデータを現在のものに上書きするってこと?
何が嬉しいのか全然分からない。
どういう状況で必要になるの?
956login:Penguin:2010/01/14(木) 19:28:06 ID:GCiOAUlG
>>947
構成だけなら紙とエンピツで可能
中身のデータも一緒にバックアップ&リストアするならClonezillaとか

でも以前テストした時、Clonezillaは/dev/sd* or /dev/hd*以外の
ハードディスク(具体的にはAdaptec i2o)に未対応みたいだった
957login:Penguin:2010/01/14(木) 19:31:06 ID:WYFYihC/
ttp://www.atmarkit.co.jp/flinux/rensai/watch2009/watch12b.html
>システム復元を容易にするDM snapshot merge
958sage:2010/01/14(木) 20:38:26 ID:iA54GJ2q
>>957
 *     +    巛 ヽ
            〒 !   +    。     +    。     *     。
      +    。  |  |
   *     +   / /   イヤッッホォォォオオォオウ!
       ∧_∧ / /
      (´∀` / / +    。     +    。   *     。
      ,-     f
      / ュヘ    | *     +    。     +   。 +
     〈_} )   |
        /    ! +    。     +    +     *
       ./  ,ヘ  |
 ガタン ||| j  / |  | |||
――――――――――――
959login:Penguin:2010/01/15(金) 12:28:43 ID:GYrC/AsX
>>957
デスクトップ用途でワケの分からん物を
ごちゃごちゃインストールしてるような人には必要なのかな?
俺には全く必要が感じられないが。
960login:Penguin:2010/01/15(金) 12:43:00 ID:GYrC/AsX
俺的にはどうせなら
SS作成時には最小のサイズだけ指定して
更新ファイルのサイズ分だけ空いてるvgを消費して
COW領域が勝手に大きくなる、
てな仕様にしてくれるとありがたいんだが。
複数のバージョンのSSを作りやすくなる。

容量があふれちゃったら全部パーな現仕様だと
無駄に大きく確保しておくしかないからな。
複数はキツい。
961login:Penguin:2010/01/15(金) 12:48:01 ID:OWxrMRKA
>In case the snapshot
>runs out of storage, use lvextend(8) to grow it.
962login:Penguin:2010/01/15(金) 12:53:12 ID:hCNyyvKn
小崎資広 2010/1/12

 ……が、予想どおり
陥ってます。南無。
は「うぎゃー、勘弁してくれ。ファイルシステム
がかかりそうです……。
消えたかな、というところ。
してたの?」とつぶやいて
963login:Penguin:2010/01/15(金) 17:16:10 ID:GYrC/AsX
>>961
それは、「あふれそうになったら実行しろ」であって
自動的に拡張してくれる訳ではない。
使用量をチェックするスクリプトを定期的に走らせたとしても
実行前にあふれたら全部パーなのは同じ。
964sage:2010/01/15(金) 17:59:40 ID:1Ghuhjt2
>>959
お前には必要が感じられなくても
開発者によって、このような機能が実装された。

それは何故か。考えてみよう。キリッ
965login:Penguin:2010/01/15(金) 18:11:18 ID:OWxrMRKA
966login:Penguin:2010/01/15(金) 18:35:08 ID:y8QlG4gj
>>964
推察は既に >>959 の前半に書いてあるようだが。
ところでわざとageてるの?
誰なのか分かりやすくていいけど。

>>965
2.6.30か…
RHELやCentOSにとっては
遠い未来の話だな…
967login:Penguin:2010/01/15(金) 18:56:54 ID:OWxrMRKA
>>966
ttps://bugzilla.redhat.com/show_bug.cgi?id=461506#c25
> in kernel-2.6.18-178.el5
> You can download this test kernel from http://people.redhat.com/dzickus/el5
968login:Penguin:2010/04/04(日) 18:24:10 ID:SDS7gaTh
保守。

ところでボリューム管理はZFSみたいに、ファイルシステムレベルで統合されると嬉しいな。
論理ボリュームを拡大/縮小したら、ファイルシステムも同様に拡大/縮小される感じ。
自分でリサイズすれば済む話だけどさ。。
969login:Penguin:2010/04/05(月) 10:41:02 ID:9X8SRNwd
FreeBSDのファイルシステムはsoftupdateのおかげで停滞した。
ZFSのおかげでまたしばらく停滞するだろう。
970login:Penguin:2010/04/11(日) 18:14:45 ID:+zpEZtlO
extendfsしろ
971login:Penguin:2010/04/11(日) 19:18:30 ID:ciT4qoho
>>970
俺の記憶違いかもしれないが、extendfsってHP-UXじゃないのか?
972login:Penguin:2010/05/13(木) 21:59:39 ID:AnZS7vyd
linuxのLVM2だとLVの作成数の上限は無いとmanページに書いてあるんですけど、
試しに作ってみたら400個程しか作れませんでした。
100GのHDDに4MのLVを作ったので、空き容量はあるんですけど?
metadataが一杯みたいなエラーがでてました。
特別な作成方法があるのでしょうか?
973login:Penguin:2010/06/30(水) 17:44:54 ID:FlM5EzIK
lvremoveで削除した論理ボリュームを復活させたいんだけど、
もう無理?
974login:Penguin:2010/06/30(水) 20:37:07 ID:ukEf+Mdo
>973
testdiskとかは?
975login:Penguin:2010/06/30(水) 21:12:27 ID:aeXlIJ6f
>>973
VGの構成情報は/etc/lvm/archive/の下に
自動でバックアップされている(LVMを操作するたび)

lvremoveしたあと、LVM関連の変更を行っていないのであれば、
/etc/lvm/archive/の下の一番新しいファイルが
lvremove直前のものだから、vgcfgrestoreで戻せるはず。

つうか、テストしたら普通に戻せた

1.バックアップの中身確認( "-l"オプション )
# vgcfgrestore -f /etc/lvm/archive/testvg_00006.vg -l testvg

File: /etc/lvm/archive/testvg_00006.vg
VG name: testvg
Description: Created *before* executing 'lvremove /dev/mapper/testvg-first'
Backup Time: Wed Jun 30 21:03:38 2010

2.実際の構成情報リストア
# vgcfgrestore -f /etc/lvm/archive/testvg_00006.vg testvg
Restored volume group testvg

3. LVのactivate
# vgchange -ay testvg
976973:2010/06/30(水) 21:40:06 ID:FlM5EzIK
>>974-975 ありがとうございます。
vgcfgrestoreで元に戻せました。
977login:Penguin:2010/06/30(水) 22:02:45 ID:aeXlIJ6f
>>972
PV作成時にmetadataのサイズを指定する

# pvcreate --metadatasize 512m /dev/sda

>>976
オメ
978login:Penguin:2010/07/05(月) 05:05:53 ID:CEfOH2GT
973の方と同様の過ちをしたのですが、archiveにも残ってない場合は無理でしょうか?
979login:Penguin:2010/07/05(月) 09:54:12 ID:O4/akwBF
よくわかっている人で、あえてLVMを使っている人って
どのくらいまだ残っているんでしょうか。
980login:Penguin:2010/07/05(月) 11:43:44 ID:OlYBkC/L
まだ
の意味が分からんが
もうどの鳥でもデフォルトで採用だろ
981login:Penguin:2010/07/05(月) 12:21:57 ID:4sFqst/z
ZFSとの比較なのかな?
982login:Penguin:2010/07/05(月) 14:54:18 ID:JO5TJwnx
よくわからないという理由で、あえてLVMを外してる人って
どのくらいまだ残っているんでしょうか。

の間違いか?
983login:Penguin:2010/07/05(月) 23:38:37 ID:vI6Vt5iG
>>978
ネタだと思うけど一応。
基本的には無理だけど、限定条件下なら可能

1. これまでlvcreate/lvextendでPV,PEを指定するオプションを使ったことが無い
2. LVの縮小や削除をしたことが無い(ミスった1回以外)
3. 削除後、LVMの操作をしていない

上記1-3を満たす場合、PEは先頭から順番に使用され(複数のPVがある場合1個目から)
かつ再利用されていないから、以下のコマンドで使用中のPEを確認し、
歯抜け部分を先頭から順番にくっつければOKのはず
# lvdisplay --maps

歯抜け部分を順番にくっつけるには、以下のいずれか
A. PE指定で、lvcreate→lvextend→lvextend→lvextend…
B. vgcfgbackupで現在のVG情報をテキストに落としたものに、削除してしまったLVの
 エントリを捏造して、vgcfgrestore

テストなら戻せるけど、実環境では2の条件が無理
(歯抜けPEをddで見て、元のLVを判別出来るなら何とかなるかもしんないけど)
984login:Penguin
ネタではないのですが、、、ありがとうございます。
しかし自分で色々調べてゴニョゴニョしてる間に分け分からなくなってしまい、
結局フォーマットして最初から作り直すことにしました。
次壊したら上記を実践してみます。