1 :
login:Penguin :
02/06/15 15:28 ID:7xlbr7s1 ワタクシ、Linus V Minusというものです。 LVM(Logical Volume Manager)なんてものに興味を持っています。ちょっとニッチなんですが。 こんな、小さなスレッドですが、にちゃんねるに作成してもよろしいでしょうか? いえいえ、ワタクシの周りに使っているものがいないもので。(周りは年寄りばかりで、新しいことは躊躇されます) 以上、よろしくお願いします。
3 :
login:Penguin :02/06/15 15:54 ID:7xlbr7s1
>>2 絶句。RAIDとLVMの違いも知らないバカ。
5 :
login:Penguin :02/06/15 15:59 ID:7xlbr7s1
でも、LVMとRAIDは似てるようで相対する機能でない?
>>6 別スレにするほどでもない。
向こうはぜんぜんスレ伸びてないし。
8 :
login:Penguin :02/06/15 17:11 ID:RyiV8F8O
>>6 相対するというより、層が違う
LVMの方がより上位層にある機能だよ
RAIDで冗長化しておいた上で、LVMを使うのが基本
(LinuxのLVMにはRAID機能がないので)
LVMは面倒臭そうだけど使ってみると便利だよね
私はガシガシ使ってます。ルートパーティション
のLVM化もinitrd使えばOKだし、イメージ作成用
のスクリプトもある
何げにLVMで一番便利なのがsnapshotですな
うっかりミスでファイルを消しても、復活でき
るので精神安定上非常によろしいです
まあ、今までなかったんだからいいじゃん。
10 :
login:Penguin :02/06/15 18:04 ID:RyiV8F8O
>>9 ごめん、スレの流れ見てなかった
別スレの必要性について書いてたのな
そういう意味だと 9 氏に賛成です
私もRAIDとLVMは別スレで良いと思います
LVMについて何か疑問がある人は書いてみて
答えられる範囲で書くよ
(ってもあまり高度なのは無理だが)
11 :
hage :02/06/15 18:12 ID:PjhDhW5w
LVMとかRAIDとかってなに??
12 :
ソラネーヨ :02/06/15 18:39 ID:bzu/YXEd
シラネーヨ
13 :
hage :02/06/15 18:46 ID:PjhDhW5w
14 :
login:Penguin :02/06/15 19:30 ID:nCkE/Jdo
>>11 RAID は別スレでっつーか検索すれば山程出てくる。
LVM ってのはさー、あれだよ。ハードディスクを増設するときさー
tar で吸い上げたりー、cp -a でコピったりー、面倒じゃん。
単に増設して登録するだけですぐに容量が増えたら便利じゃん?
そういう機能。
15 :
10 :02/06/15 21:18 ID:RyiV8F8O
おわっ、ちょっと目を離しているスキに(゚∀゚)アヒャ
レスが増えている
>>11 本当に知らないとは思えないけど(^^;
RAIDってのは複数のディスクを組み合わせて信頼性
の高い仮想ディスクを作る技術です。信頼性向上で
はなく入出力性能向上を目的とした組み合わせ方も
あります。
LVMってのは複数のディスクを組み合わせて管理性
の高い仮想ディスクを作る技術です。サイズ可変な
ファイルシステムを使えば、データを保持したまま
ディスク容量を増減できます。ext2はサイズ可変な
ので、14さんの言うようなことが実現できます
16 :
login:Penguin :02/06/15 22:34 ID:7xlbr7s1
1です。よかったです、理解してくださる人がいて。 みなさん、LVMって誰か使ったことありますか?安定性が気になります。 それと、オンラインでファイルシステムを大きくできますか?たとえば、ext2で。
17 :
10 :02/06/15 23:37 ID:RyiV8F8O
18 :
:02/06/16 00:31 ID:Kudjb0GB
どうやっても、単一のスワップファイルもしくはスワップパティションの サイズが2GBまでしか取れないのは、さっさと直して欲しい。 仮想記憶を3GB近くまで使うジョブが沢山並行に走るためには スワップの容量の合計をたとえば40GB程度取りたいのだが、 それだと2GBのファイルもしくはパティションを20個とらねば ならず、しかもそれだとその20個をまたぐシークが乱発して効率が悪い。
19 :
10 :02/06/16 04:44 ID:+UBZzpOs
>>18 誤爆?LVMはVMとは関係ないにゃ…
でも、言っていることには賛成です
誰かpatchを作ってないかと小一時間検索したけど
どうも無いみたいですね
しかし3GBのメモリーを使うプロセスが沢山走る環境
ってのはすごいですにゃ。差し支えなければどういう
業務か教えてほしい(Linuxを使ってる理由も(笑))
効率を上げるには、現状、RAMディスクしかないかなぁ
40GBだと滅茶苦茶高いですが(^^;
20 :
login:Penguin :02/06/16 11:09 ID:YjSon8ga
21 :
hage :02/06/16 13:55 ID:q2CxyG79
わしゃんとろこはext3じゃ。ext3は対応しとるかノー。
>>19 以前にも見たコピペだよ。内容はもっともだけどな。
複数スワップがある時のストライピングを止められればいいのに。
数年以内に一般的なシステム上でも問題になり始めるだろう。
ちょっと前まではスワップの上限が 128Mbyte だったのにな。
3G のメモリーを一度に全部使うわけじゃなくて、
それだけの仮想空間を使うって事だと思う。
データベースをまんまメモリマップしたりするとありえる。
オーバーコミット出来ないと同じだけのスワップ領域が必要。
>>22 ファイルのメモリマップじゃスワップは消費しねぇか。
科学技術計算ぐらいしかそんなアプリケーションなさそうだな。
24 :
10 :02/06/16 17:47 ID:+UBZzpOs
>>21 ext3にも対応してますよ。
普通に使う分には何も考えずに使えます。
ただ、ジャーナリング機能を持つファイルシステムでsnapshot
機能を使う場合はカーネルにVFS-lockパッチの適用が必要です。
VFS-lockパッチはLVMのソースと一緒に配布されています。
>>22 コピペだったのか…(´・ω・`)ショボーン
でも確かに科学技術計算ぐらいしか思い付かないんすよね。
複雑な行列計算をバンバンやってるような。
「数年以内に…」のところも同感です。
もっとメモリー積めるマザボが安ければいいんですけどね。
せっかくPAEとかに対応してもマザボが手軽に入手できないんじゃ…
25 :
10 :02/06/17 07:02 ID:+q4op+if
う〜ん、やっぱLVMって皆関心ないんだなぁ(^^; スレ立てた1自身もダンマリだし LVMってsnapshotだけでも十分便利ですよ。 snapfsなき今、Linuxでsnapshot利用するにはLVMしかない! snapshotってのはある時点でのファイルシステムの状態を保存 したもので、snapshot作成後に間違ってファイルを削除しても 簡単にファイルを復元できます。 # lvcreate --size 1G --snapshot --name snap /dev/vg/lv のように論理ボリュームにsnapshot専用の論理ボリュームを 設定してやると、それ以後に/dev/vg/lvに変更が加えられて も、snapshotボリュームをマウントすれば、snapshot作成時 の/dev/vg/lvのデータを読みだせます。バックアップと違っ て不必要にディスク領域を消費しないのがとても良いっす。 さぁ、みんなもLet's try!
26 :
くそー :02/06/18 10:39 ID:l2tmV5IC
ってか、LVMをどこで使うのかがわからない。 ディスク増設することなんて頻繁に無いし。 もっと実用的な裏技を教えてくれ。
27 :
10 :02/06/18 10:59 ID:oZ3tDD9i
>>26 それをLVMのスレに書いてどうする(藁
煽りにしては低級すぎるな
悪いけど私はディスク増設を頻繁にするしLVMは必需品
自分の使い方だけがすべてではないと知ってくだされ
んでさ、そうでない人向けにもsnapshot機能は便利だと
思うのですよ。みんなうっかりファイル削除って経験あ
るでしょ? そんなときどうしてるの。mcでシコシコ復活
してるのかな。
まぁ、食わず嫌いをせずに一度実験してみてよ。大して
手間かかるわけでもないし、snapshot使うだけなら別に
HDDが複数必要なわけでもないよ。
28 :
くそー :02/06/18 11:03 ID:l2tmV5IC
>>27 別に煽りのつもりは無かった。スマソ。
そうか、今度使ってみよう。
ほかに何か裏技キボン。
29 :
login:Penguin :02/09/14 17:44 ID:vQZYdvIp
これか
今さらな書き込みのような気もするけど。 snapshotは運用上止めるわけにはいかないサーバ(データベースとか)のバックアップを取るのに便利。 あと、複数のHDDをまとめてひとつにしてつかえるってのもいい。ソフトウェアRAIDでも似たことができるけど、パーティションサイズを変えるさいはRAIDの再構築が必要な分劣る。
31 :
EVMS :02/10/02 02:49 ID:ulgxnxu6
LVMじゃないですけど、EVMS使っている人っています? 評判聞きたいのですけど。 ちなみに、うちではLVM+XFSで1年以上使っていますが、 LVM側の問題は起きていません。 唯一問題だったのは、XFSのパーティション拡張の際に xfs_growfsのみだと、実際には使えるようにならなかったことです。 xfs_growfsの後でxfs_repairをすれば、実際に使えるようになりました。 今では、直ってるかもしれませんが。
>31 ちょっと前にやったときは xfs_groufs だけでよかったよ。 しかし、lkmlではLVMを2.5treeから完全に削除しようかと いう動きがあるみたいで、この先どうなるのか? EVMS突っ込んでしまえって言う意見も出てたみたいだが... (期待していたものと違うのでsage)
LVM2とEVMSが2.5.43にマージ(予定)らしい。
くそー、lvm でストライプをやると、lvextend できなくなるのか...
35 :
login:Penguin :02/11/28 18:34 ID:E6fQKmUE
RedHat8.0にて、外付けSCSI-HDD2個をLVMで使用していたのですが、 OSが壊れてしまい、再インストールを余儀なくされてしまいました。 再インストール後に、外付けSCSI-HDD2個を以前の構成のまま使う (データを取り出す)ことは可能でしょうか?
36 :
login:Penguin :02/12/04 11:10 ID:XmwhOplw
vgimportできればなんとかなるかもしれませんね、がんがれー
37 :
35 :02/12/07 21:41 ID:ydayrcLM
vgdisplay -v をしてみたらLogical volumeがわかりました。 これにより、mountできました。 ほっと一安心ですた。
俺が勝手に勘違いしてたので
>>8 を補足。
lvm にも RAID0 に相当する機能はあります。
http://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-8.html みんな知ってた? 俺は RAID0 しか使わないもんだから
RAID と言えば 0 でしょうみたいなノリになってた。
それで勝手に
>>8 の発言とドキュメントを見て葛藤してた。
ついでに devfs のせいで vgcreate の時ははまった。
だって /dev/md0 は /dev/md/0 への symlink なんだもん。
symlinkの先見てよね! 「PVが正しくねーよゴルァ!」とか
言っていじめないで! もう!
でも全部解決してすっきり。 でも lvm のストライピングは
調査不足で、ちょっと信用できないから raidtools のほうの
ストライピング使ってやるぞ!
いまから怒りと喜びの mkfs だ!
待ってろ!( ゚Д゚)ゴルァ!
39 :
login:Penguin :02/12/10 17:16 ID:ZrnbVHbU
新たなHDDを増設して、既存のHDDとまとめて 1つの論理ヴォリュームとして使いたいと思いました。 ストライピングもミラーリングも要らなくて 単に容量増やしたいだけです。(旧HDD:20G + 新HDD:20G = 40G) で、ここ読んでLVMを知って使ってみようと思ったのですが この使い方って他の方法でも実現できるのですか? ex)SoftwareRAID or まさか特に何にも入れなくてもOSのみで出来る..だったり?!
40 :
login:Penguin :02/12/10 17:19 ID:WlHgdFGg
>>39 単に 20+20=40 だけなら software RAID でも出来るよ。
でも後でディスクを追加したり外したり出来るのが LVM のいいところ。
42 :
login:Penguin :03/01/08 15:36 ID:y+2TgboG
そいえば、2.6(or 3.0)へ向けてのFeature Freezeの際に、 EVMSでなくLVM2が残ったらしいですね。 LVM便利だから、とにかく使える形で残ってほしいものです。
IP記録実験
http://qb.2ch.net/test/read.cgi/accuse/1042013605/ 1 名前:ひろゆき ◆3SHRUNYAXA @どうやら管理人 ★ 投稿日:03/01/08 17:13 ID:???
そんなわけで、qbサーバでIPの記録実験をはじめましたー。
27 名前:心得をよく読みましょう 投稿日:03/01/08 17:20 ID:yL/kYdMc
SETTING.TXT管轄でないということは全鯖導入を視野に、か?
38 名前:ひろゆき ◆3SHRUNYAXA 投稿日:03/01/08 17:22 ID:rLfxQ17l
>>27 鋭いです。
73 名前:ひろゆき ◆3SHRUNYAXA 投稿日:03/01/08 17:27 ID:rLfxQ17l
>ところで、IPが抜かれて何か今までと変わることってあるのでしょうか?
・今までより、サーバが重くなる。
・裁判所や警察からの照会があった場合にはIPを提出することがある。
>42 EVMSがマージされないことがきまって、EVMSの開発者が開発中止と ボリューム管理ツールへの注力を決めたlkmlへの投稿があったとき、 よく決断したとの最大の讃辞がコアカーネル開発者からあったね。
>>571 j-comいつやめる?
どうしようか考えてるんだけど
口びるマロ
>>317-318 来ないと言うやつは又来るが、さようならと言った次のレスにもうコピペする奴は珍しい。
48 :
山崎渉 :03/01/15 11:42 ID:dWXij4Sa
(^^)
SistinaはLVMもそうだけどGFSも期待大。一台の中の複数ディスクの 仮想化にLVM使って、さらに複数マシンをまたぐストレージの仮想化に GFS使えばネットワークLVM+RAIDみたいなことができる。GFSが途中で フリーでなくなってOpenGFSと分かれてしまったのは開発リソース的に ちょっと痛かったが…
51 :
山崎渉 :03/04/17 12:32 ID:KRn99/cy
(^^)
52 :
login:Penguin :03/04/19 18:02 ID:WTBmCq6k
RedHat9.0の再インストールをしたのですが、LVMが削除されていませんでした。 LVMを完全に消し去るにはどうしたらいいのでしょうか?
だれかLVMとLVM2の機能的な違いを教えてくれ。
ファイルシステムを作りなおしする時、LVMからLVM2に完全に
以降したのだが、正直違いが分からん。ツールの違いしか。。
>>52 再インスコするなら、cfdiskで消せるだろ。
54 :
山崎渉 :03/04/20 05:48 ID:xFRXxEWb
∧_∧ ( ^^ )< ぬるぽ(^^)
55 :
山崎渉 :03/05/22 02:07 ID:VfjbtMwi
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―
56 :
山崎 渉 :03/07/15 11:34 ID:doz396Fq
__∧_∧_ |( ^^ )| <寝るぽ(^^) |\⌒⌒⌒\ \ |⌒⌒⌒~| 山崎渉 ~ ̄ ̄ ̄ ̄
∧_∧ ∧_∧ ピュ.ー ( ・3・) ( ^^ ) <これからも僕たちを応援して下さいね(^^)。 =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕 = ◎――――――◎ 山崎渉&ぼるじょあ
58 :
山崎 渉 :03/08/15 23:24 ID:ep0zwfOh
(⌒V⌒) │ ^ ^ │<これからも僕を応援して下さいね(^^)。 ⊂| |つ (_)(_) 山崎パン
59 :
login:Penguin :03/08/27 01:18 ID:ASis3XMK
# pvcreate /dev/hdb1 pvcreate -- physical volume "/dev/hdb1" successfully created まではOKなのに # vgcreate main /dev/hdb1 vgcreate -- no valid physical volumes in command line となってしまいます。 fdisk /dev/hdbでの表示は以下のようになっています。 デバイス ブート 始点 終点 ブロック ID システム /dev/hdb1 1 3647 29294496 8e Linux LVM この場合原因として何が考えられるでしょうか?
devfs を使ってた場合になったことあります。 # ls -l /dev/hdb1 これが /dev/hdb1 -> ide/host0/bus0/target1/lun0/part1 なら こんな感じ # vgcreate main /dev/ide/host0/bus0/target1/lun0/part1
61 :
59 :03/08/27 03:32 ID:h2tyV2ql
できました。ありがとうございます
62 :
login:Penguin :03/09/12 01:00 ID:lVrQ/63A
スレ延びてないな。 便利なのに。
便利で普通に使えるからスレに書くことがないとか。
しかしdfスレとか見てもほとんど使ってると思われる人が(ry
最近md使ってない。lvmばっか。 HDD9台と11台つなげた1TBマシンが稼働中。だいたい3ヵ月に1度は ディスク追加してるから、lvmでないとちょっと。
今までATA66のIDEでATA100のHDDをlvmで使ってたのですが こんどATA100のATA拡張カードを購入したのでHDDをそちらに 移したいのですが、どの辺を修正すれば良いでしょうか? 勝手に付け替えてはじめはマウントせず、vgscan したらOK? ----詳細 /dev/hda1 /dev/hdb1 /deb/hdc1 /dev/hde1 のHDD(すべてVGを構成しています)をそれぞれ /dev/hde1 /dev/hdf1 /deb/hdg1 /dev/hdh1 に付けかえようと思っています。
>>66 vgscanで良いと思う。心配なら元の環境でhdaとhdbを入れ換えて
どうなるか試してみたら?
あと、HDD全体をvgに入れるならパーティション切らなくてもいいよ。
>>67 遅くなりましたが、レスどうもです。
書き込めるようになったみたいです。
なるほど。HDD全体にVGを入れる場合はパーテーションを割る必要がないのですか。
一つ賢くなりました。
LINUXのLVMってHP-UXと同じイメージで使える? ディスク1本でも問題なく使用可能?
70 :
login:Penguin :03/10/11 16:43 ID:cdG1Qsus
使ってみれば分かる。
やっぱ見た感じでイメージ掴めないと管理しづらいっす webminとか使ったことないんだけど見た目どうっすかね
72 :
login:Penguin :03/10/18 14:12 ID:iuokmhC1
外見に惑わされるな。
73 :
login:Penguin :03/10/18 19:21 ID:+GJeNYfi
LVMスレなのにAIXの話題が出ないというのはおかしい。
74 :
login:Penguin :03/10/18 19:35 ID:skgfOmKz
(゚Д゚)ハァ?
75 :
login:Penguin :03/10/18 19:44 ID:+GJeNYfi
>>74 技術解説するときは、背景・事例を抑えることは基本。おまえ勉強汁。
LVMだろ?AIXが事の発端だぜ?
76 :
login:Penguin :03/10/18 23:54 ID:7V9QF3WK
Software RAID1 の上に LVMをのせてみた。
77 :
login:Penguin :03/10/23 16:52 ID:xBYf9KSa
だったらAIXネタのLVMを語ってくれ。
79 :
login:Penguin :03/10/23 17:46 ID:xBYf9KSa
Linux板ですが、なにか。
80 :
login:Penguin :03/10/26 02:48 ID:Pr89mGhe
/homeはLVMじゃないと
偶然見つけたけど、こんなスレあったんですね!ちょっとびっくり。 で、さっそく質問!! RedHatのASが3.0になって、LVMがネイティブに使えるようになったので Raid 5構成(72.8GB*5の Raid5を3セット) のPVをいくつか作成して、LVMでストライプ化しようと思ってます。 でも、ストライプ化すると「容量を自由に拡張できない」みたいなことが書いてあります。 となると、Software RAIDでストライプしたほうがよいのかな? でも前のレスにもあったけど、SnapShotが使えるのはいいよね! Software RAID(md)の方が堅牢なのかなぁ・・・ 猛者ども!教えてくれ!
82 :
login:Penguin :03/11/04 03:43 ID:dYtpcXRE
reiser4もsnapshot使えるらしいな。
>>82 LVMのSnapshotはファイルシステムとは無関係でしょ。ReiserとかExt3とかいろいろあるけど
パフォーマンスってそんなに違うのかね。
84 :
login:Penguin :03/11/19 22:42 ID:Uw9KSyAu
LVM上でって事?
ブートパーティションにlvmを使ってgrubで軌道できますか
>>84 LVM上でのオーバーヘッドも少しはあるだろうけど、一般論としてさ。
87 :
85 :03/11/25 23:06 ID:SoQSPzTM
誰もレスしてくれないからチャレンジしてみた。 gentoolinux使った とりあえず/boot以外の/etcと/homeと/varとswapをlvmにした。 カーネルは、lvmサポート、オートマウントサポートのオプションは付けた 最後にlvmcreate-initrdした。 で、いよいよ起動してみたら古いルートファイルシステムを /initrdにマウントできねぇヨとか言われた 適当にinitrdディレクトリを二つぐらい当てずっぽうで作成して回避した。 んで再起動してみたら、今度はinittabがみつかんねぇヨとか言われた ずっと悩んでたけど結局/etcのファイルシステムは別パーティションにせず、 /ファイルシステムの配下に直に置いたら起動できた。 もう俺は疲れたよ 出来れば、inittabがうまく認識できなかったのか教えてください。 どうやらinittabを読み込みに行く時点で/etcがマウントされてなくて エラーが出るようなのですが。 fstabにはマウントするように書きました。
88 :
85 :03/11/25 23:07 ID:SoQSPzTM
つーかageだ!
90 :
login:Penguin :03/12/10 15:03 ID:GRuDxj7K
/bootを別パーティションにしとかないとマンドクサ
91 :
login:Penguin :03/12/17 02:17 ID:+hBhL6wT
LVM1とLVM2の違いは何?
Linuxみたいな安いPCサーバー買ってきて入れて 直ぐに使い始めるようなOSだと、LVMみたいな仕掛けは なかなか馴染まなくない?ディスクが足りなくなる前に マシンのリプレース時機になるし。だから俺は使ったことがない。 他の人もやっぱりそうなの?
93 :
login:Penguin :03/12/29 20:21 ID:scC7iQ0n
漏れは安サーバ(DualのPen3の750MHz)だけど、 ファイル鯖にしてビデオをがんがん溜め込んでるから LVMは激しく有用だよ。 で、久々に質問があってここに来てみたんだ。 現在 80GB+120GBのディスクをLVMで/homeにしてます。 今度、250GB足すので、80GBを外そうと思うのですが、 250GBを組み込んで、80BGソフトウエア的にvgから外すだけで、 良いんでしょうか。 あ、ReiserFSです。
>>87 LVMに関係無く/etcをrootと別fsとして切り離してはいけないと思うが
kernel option で root=8E01 等( /dev 以下 logical volume block
deviceの major:minor numberのHEX) で root fs をLVMにすることも
できるがおすすめしない
>>92 リプレースする時便利じゃない?
>>93 それでOK
device-mapperへの移行をする手順が書いてあるページってある?
96 :
login:Penguin :03/12/30 16:31 ID:d+Sx02u5
>>94 > root fs をLVMにすることも できるがおすすめしない
すんません、24時間稼動のサーバのバックアップで / のスナップショットとり
たいのでLVM化したいのですが、やっぱダメポなんですか?
>>96 そこまで気を使っているなら/usr /var /tmp /home は別fs でmountしてるはず
とすれば root fs で書き換えが発生するのは設定の書き直しの時くらい
スナップショットでバックアップしなければいけない事態が発生するとは思えない
root fs は緊急時に最低限立ち上ってほしいのでなるべくシンプルにしていたほう
が良いと思う
98 :
login:Penguin :04/01/03 15:18 ID:RPwznxNh
>>97 レスどうもです。
カーネルバージョンアップした時とか、とっておいたほうがよいかなって
思ってたんですが、スナップショットでとらなくても別に構わないみたい
ですね。失礼しますた。
LVMで複数のパーティションを一つに統合してるときに どれか一つが壊れたときは、どうなるの?
>>99 virtual group 全体が破壊されるはず
LVMにはオリジナルのような冗長性は無い
信頼性を要求される場合はRAIDと組合せて使うべし
LVM便利に使っております。 ところでいま、 /dev/hda ReiserFS / /dev/hdb これと /dev/hdc の二つでLVMを利用してReiserFSで /home を作っております。 今度新しいマシーンにこの LVM で作った /home を持って行こうと思うの ですが、新しいマシーンのKernelでLVMを使う設定にしておき、fstab を 編集しておく以外に何かしておかないといけないことは有りますでしょうか? (向こうの環境、及び現在の環境で) 予定では新しいマシーンの /dev/hdc と /dev/hdd になる予定です。
マシーン
>>103 なんと・・・日本語のHOWTOには書いてなかったので
よくわからなかったのですが、英語の方には書いてありましたか。
レスありがとうございました。非常に助かりました。
105 :
104 :04/01/11 09:39 ID:al7cuK4x
vgを非アクティブにしてvgexportで切り出し 新しいマシーンでpvscan後にvgimportであっさり移動でました!
サイズ計算間違えて余ってしまった PE がもったいなくて lvresize -L+10G vg_main/lv_home とやるつもりが、 lvresize -L10G vg_main/lv_home とやってしまって、次に出た質問につい惰性でyと答えてもうた。 (このプロンプト、さりげなさすぎ) 150G ちかくつかってた /home があぼーん。 FSがつかってるサイズより小さくできないようにならないものか。 なにが痛いって、CVSリポジトリ飛ばしたのがいたかった。。。
>>106 "lvresize"じゃなくて拡張専用の"lvextend"使えばエラーで止まってくれるよ。こんな感じで。
lvextend -- New size given (8 extents) not larger than existing size (16 extents)
ってか"lvresize"ってLVM2だよね?
大事なデータは置かない方がいいんじゃ…
108 :
login:Penguin :04/01/20 19:55 ID:ZxauvQQl
LVMを語る香具師少ないな。
素人向けに書かれたページないすかねぇ?
>>109 俺はLVM HOWTOで解ったし、後は旧ZDNETの記事で
LVMのこと全く知らなかったけど解ったよ。
ようするにこれってハードディスクを2つ以上持ってないと意味ない機能ですか?
(゚Д゚)ハァ?
>>113 ディスク1本でもパーティション分けてる人は有効だよん
動的に拡張できるし
TabとSpaceとEnterで操作できる工具が欲しいよぅ
116 :
login:Penguin :04/02/05 19:28 ID:pweqheS2
質問というか確認。kernel 2.4.21 での LVM1 は PE サイズを大きくしても 2TB 以上の LV を作れないようだが、 [mona@2ch mona]# /sbin/vgcreate -s256m work /dev/sda1 vgcreate -- INFO: maximum logical volume size is 2 Terabyte vgcreate -- doing automatic backup of volume group "work" vgcreate -- volume group "work" successfully created and activated これはそういうものなのかな? ちょうど 3TB (fs の制限にはひっか からない) の Volume を作りたいのだが。 対案も募集。LVM2 だと幸せになれたりする?
118 :
login:Penguin :04/02/06 12:49 ID:OjypMQGg
LVMにreiserfs作ろうとすると reiserfs_create_journal: cannot create a journal of 8193 blocks with 18 offset on 8192 blocks って出て失敗するんだけど、どうしたらいいの? ちなみにPEは32Mでext3とxfsは問題なく作れる
>>116 man vgcreateによれば、Block Deviceのサイズ制限(2TB)らしいが。
2.6系ならCONFIG_LBDがある。2TBなんてディスク無いんで未確認だけど。
>CONFIG_LBD:
>Say Y here if you want to attach large (bigger than 2TB) discs to
>your machine, or if you want to have a raid or loopback device
>bigger than 2TB. Otherwise say N.
ただ、LVM2(device-mapper)がまだ怪しいんで、単一のファイルが
2TBを越えないなら2.4系で複数のLVに分けた方がいいと思う。
俺はかなり久しぶりにファイルシステム壊した。
2.6.0の頃の話なので、最新Versionでは改善してるかもしれんが…
LVM2でやったらレポート希望
>>119 むー、単にファイルサーバじゃなく 上でじゃがじゃがやるマシンなので、
LVM2/2.6.x はヤメとくことにした。情報ありがとう。
まだマシンの本稼働までには時間があるので、時間があれば試すだけは試してみる。
121 :
login:Penguin :04/02/10 19:37 ID:t+3Za9lM
家はLVM2/2.6.2だけど全然問題ないよ
2.4のXFSでたまに気がつくとファイルの中身が全部0になっていること があるんだか、そんな経験ないですか?うちは覚えているだけで2回目。 /boot以外全部XFSでのマシンで。
>122 すまん、スレ違い。レスは該当スレにヨロシク。
124 :
login:Penguin :04/02/12 12:17 ID:Rdb56AUc
vgextendでVGに割り当てたディスクをVGから外すとき、pvremoveしても問題ない?
125 :
login:Penguin :04/02/12 13:31 ID:0EKzsiYE
以前使っていたマシーンからvgexportでVGを取り出して 新しいシステムに移し、vgimportを実行しましたが上手く取り込めないのです。 vgscan vgscan -- reading all physical volumes (this may take a while...) vgscan -- found exported volume group "discPV_EXPPV_EXPPV_EXP" vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created vgscan -- WARNING: This program does not do a VGDA backup of your volume group vgimport disc /dev/hd[bdefh]1 vgimport -- ERROR: wrong number of physical volumes to import volume group "disc" こんなエラーが出てしまうのです。 そもそも何故"discPV_EXPPV_EXPPV_EXP"になってしまったのが解らないのですが・・・ vgimport discPV_EXP /dev/hd[bdefh]1 vgimport discPV_EXPPV_EXP /dev/hd[bdefh]1 試しにこのようにしてみたのですが結果は同上でした。
126 :
125 :04/02/12 13:32 ID:0EKzsiYE
必要なディスクは全てあるのを確認しております。 --- List of physical volume UUIDs --- 001: cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA 002: sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p 003: nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z 004: ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq 005: YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF PV Name /dev/hdb1 PV UUID nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z PV Name /dev/hdd1 PV UUID ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq PV Name /dev/hde1 PV UUID sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p PV Name /dev/hdf1 PV UUID cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA PV Name /dev/hdh1 PV UUID YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF 何が悪い(原因)なのかお心当たり有る方、是非ご教授頂けませんでしょうか? よろしくお願いします。VGに納められているデータは絶望的なのでしょうか・・・
128 :
125 :04/02/12 14:21 ID:0EKzsiYE
>>127 フォローどうもです。
私も色々調べていたのですが、如何せん英語が苦手で・・・
PV_EXPの件は問題なさそうですね。データはまだ生きているのだろうか・・・
ちなみにimport出来ない件ですが・・・
Use 1.0.7.
と教えて頂いたサイトには書いてありましたが私が使っているDebianの
woodyでは lvm10_1.0.4-4_i386.deb (Source Code: [lvm10_1.0.4.orig.tar.gz])
なので 1.0.8 以降の sarge で無いとインポート出来ないのですか・・・
woodyで作ったものをインポート出来ないのはかなり辛いですね。
とりあえず、まだデータは生きている可能性が高そうなので希望を捨てずに
頑張ってみます。
129 :
125 :04/02/12 14:43 ID:0EKzsiYE
感激感謝雨霰
>>127 さん本当にありがとうございました。
とりあえずDebianをsargeにアップグレードして
lvmを1.0.8にアップグレード後vgimportを行うと
今までの不安と失望を吹き飛ばすぐらいあっさりと
importすることが出来ました。
もうダメだろうと思って一からやり直そうと9割方データ
を諦めていて、最後にlvmを導入するきっかけになった
このスレに戻り、思い切って質問させて頂いたのですが
本当に良かったです。
本当に、本当にありがとうございました。
>>129 よかったね。一番恐い不具合だよなぁ。
# バックア…ま、ひとのことは言えない
保守あげ
132 :
login:Penguin :04/03/31 08:45 ID:p4gnyIqI
下げてた 首吊ってきます
LVMはすごく情報が少ないような気がする
134 :
login:Penguin :04/04/06 16:27 ID:EUJs3rTZ
質問させて下さい。 二台のHDDでLVMを利用しVGを構成しているのですが 片方のHDDが電源を入れても動かなくなりました。 こういう場合、電源が入る片方のHDDに有るデータで 無事なものを抜き出すことは可能ですか?それとも 全データを失ってしまったのでしょうか?
>>134 多分無理だと思う。
テストで、
1)2つのパーティションをPVにしてVG作成
2)LVを2つのPVを跨ぐように作成&ファイルシステム作成
3)VGを非活動化してから、ddで片方のパーティション上書き
4)vgchange -a y でVGを活動化できず。VG死亡
2)でPVを跨がなかった場合は試してない
とりあえず生き残った方の中身をddでバックアップor別ディスクにコピーしてから
vgchangeが効くかどうか試してみては?
136 :
login:Penguin :04/04/07 19:35 ID:yMwiLEKO
>>135 レスありがとうございました・・・。
でも、どんなに頑張っても無理でした・・・。
もちろんバックアップを取っていない私が悪いのですが(TT
今後はバックアップを取るように気をつけます・・・。
>>135-136 http://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-8.html 8.2 なぜストライピングしないのか
ストライピングだけを行うと、「ビット単位」で破壊が起こる危険が出てきます。ディスクが駄目になると、
論理ボリュームの内容がおしゃかになってしまいます。
データを連続して置いてあれば、ファイルシステムの一部だけで済ませられます。
Stripingしてなかったらファイルシステムの一部を失うだけで助かるんじゃないの??
俺はずっとそう思っていたんだが。もしそうじゃなかったら俺も今すぐバックアップ
取らないと行けないな。かなり油断していた。
ソフトウエアRAID(md)と組み合わせてLVM作るのが一番無難か??
えっ、やってないの?
上で
>>135 が言ってるけど
2)でPVを跨がなかった場合は試してない
これに関してはMailing Listの書き込みを見る限り大丈夫っぽい
って事追記するの忘れてた。
連続ポストスマソ。
正直、PV をまたいだ LV で fs を使うのは危険だと思ってます。 リカバリ時に意味のある単位で backup できないから。 PV の I/O error がでた部分にどのファイルが書かれていたか、 あとからわからない限りはダメだと思ってるんですが。
142 :
141 :04/04/08 20:52 ID:MyiCZN16
ところで、 kernel-2.6.5 の device-mapper で、 LV を 13個以上切って使えてる香具師いますか? なんで 13なのか とつっこまれそうだが、漏れがその辺りから使えなかったので ...
LVMって実際に使い物になるの?AIXでもクリティカルな用途では それほど、使われてないって聞いたけど。
>>143 使ったことないだけ?
使い方知らないだけ?
逆にAIXでLVM使わないでFS作る方法を教えてほしいっすよ。
漏れは、LinuxでもインストーラがLVM+ReiserFSに対応してないのは使う気になれんが。
>>142 微妙に環境違うと思うけど、以下の環境でLV26個できてるよ。
Debian(sarge) Linux 2.6.5-mm2 + Device-mapper unstable(2.6.5-udm3)
device-mapper 1.00.15 / LVM2 2.00.11(2004-04-08)
試してて気づいたんだけど、reiserfsがのってるLVをmountしても
Open LVとしてカウントされないんだけど。。。ウチだけ?
↓26LV全部mountしてもOpenLVが16になってる
# vgdisplay
--- Volume group ---
VG Name rootvg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 75
VG Access read/write
VG Status resizable
MAX LV 255
Cur LV 26
Open LV 16
Max PV 255
Cur PV 1
Act PV 1
VG Size 111.25 GB
PE Size 32.00 MB
Total PE 3560
Alloc PE / Size 1608 / 50.25 GB
Free PE / Size 1952 / 61.00 GB
VG UUID bnxgSD-J5Hb-70Io-TUic-EJGu-y0X5-mnvXRB
146 :
141 :04/04/14 10:53 ID:uDiO3j/8
>>145 情報ありがトン。
udm の patch を調べて別のマシンで実験してみます。
っていうか、こんな機能使うのに kernel-ML をチェックしていなかった漏れがバカでした(;_;
結局のところVGサイズが最大2TBの制限って解決したんでしょうか??
148 :
135 :04/05/06 23:53 ID:zmQQH789
149 :
135 :04/05/06 23:56 ID:zmQQH789
■PVを跨がない場合の仕込み
Debian(woody) / Linux 2.4.25 / lvm_1.0.8
(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成
(2)LV&ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkreiserfs /dev/testvg/hda5lv
(3)適当にファイルコピー
(4)umount→testvgを停止後、ddでhda6(全PE未使用)を埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6
(5)testvgをactiveにしようとするが当然エラー
# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- ERROR "vg_read_with_pv_and_lv(): current PV" can't get data of volume group "testvg" from physical volume(s)
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group
# /sbin/vgchange -ay
vgchange -- no volume groups found
以前はここで止めてたんで
>>135 みたいなレスだった。
150 :
135 :04/05/06 23:59 ID:zmQQH789
■PVを跨がない場合のリカバリ 破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ # pvcreate /dev/hda7 pvcreate -- physical volume "/dev/hda7" successfully created ○hda6のメタデータをhda7にリストアする。 # vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7 vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf" vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7" # /sbin/vgscan vgscan -- reading all physical volumes (this may take a while...) vgscan -- found inactive volume group "testvg" vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created vgscan -- WARNING: This program does not do a VGDA backup of your volume group # /sbin/vgchange -ay vgchange -- volume group "testvg" successfully activated # mount /dev/testvg/hda5lv /mnt/test/ 全ファイル生還・md5一致
151 :
135 :04/05/07 00:04 ID:moBi7VqE
■PVを跨った場合の仕込み&リカバリ PV,VGの作成は同じなので省略 以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用 # lvdisplay -v /dev/testvg/mixlv の結果(一部) --- Distribution of logical volume on 2 physical volumes --- PV Name PE on PV reads writes /dev/hda5 16 0 2 /dev/hda6 16 0 0 hda6の破壊方法とその後のリカバリ方法は上と同じなので省略 mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行 # reiserfsck --rebuild-tree /dev/testvg/mixlv # mount -o ro /dev/testvg/mixlv /mnt/test 結果 全175ファイル 復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出) 破壊 79 ( 消失17 + md5不一致62) ファイルはmp3でサイズはまちまち。 計算してないけどファイルサイズ的には半分だと思う
152 :
135 :04/05/07 00:14 ID:moBi7VqE
★PVを跨がない場合・仕込み(LVM2) Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1) device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19) (1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成 (2)LV & ファイルシステム作成(hda5のみ使用) # lvcreate -L1g -n hda5lv testvg /dev/hda5 # mkfs.reiserfs /dev/testvg/hda5lv (3)他のファイルシステムから適当にコピー (4)umount→testvg停止後、ddでhda6を0で埋める # vgchange -an testvg # dd if=/dev/zero of=/dev/hda6 (5)testvgをactiveに変更しようとするが、当然エラー # vgchange -ay testvg Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find all physical volumes for volume group testvg. Unable to find volume group "testvg"
153 :
135 :04/05/07 00:17 ID:moBi7VqE
★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2) (a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。 # pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7 No physical volume label read from /dev/hda7 Physical volume "/dev/hda7" successfully created (a)-(2)testvgの情報をリストアする。 # vgcfgrestore -f /etc/lvm/backup/testvg testvg Restored volume group testvg (a)-(3)testvgをactiveにする。 # vgchange -ay testvg 1 logical volume(s) in volume group "testvg" now active (a)-(4)mountする ☆全ファイル生還。md5一致
154 :
135 :04/05/07 00:18 ID:moBi7VqE
★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2) (b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行 # vgchange -ay -P testvg Partial mode. Incomplete volume groups will be activated read-only. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'. 1 logical volume(s) in volume group "testvg" now active (b)-(2)mountする # mount /dev/testvg/hda5lv /mnt/test mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only ☆全ファイル生還。md5一致
155 :
135 :04/05/07 00:23 ID:moBi7VqE
★PVを跨いだ場合(LVM2) PV,VG作成方法は同じなので省略 LV作成では両方のPVから512Mずつ使用 # lvdisplay -v --maps /dev/testvg/mixlvの結果(一部) --- Segments --- Logical extent 0 to 127: Type linear Physical volume /dev/hda5 Physical extents 0 to 127 Logical extent 128 to 255: Type linear Physical volume /dev/hda6 Physical extents 0 to 127 破壊の方法はPVを跨がない場合と同じ(hda6を破壊) リカバリ方法は(a)の代替PVを使う方法しか使えない模様 (b)の方法だと(テストした環境では) device-mapper ioctl cmd 9 failed: Invalid argument と表示される。 結果:全176ファイル => 生還83 / 消失12 / md5不一致 81 あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が 頻発したけど、もう1回すると問題なくできた。
156 :
135 :04/05/07 00:31 ID:moBi7VqE
あと、LVM2限定で結果だけ。 ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名) XFS+hda5破壊 = 65ファイル生還 XFS+hda6破壊 = 66ファイル生還 (ファイル数はいずれも176でサイズバラバラのmp3) おしまい。
157 :
login:Penguin :04/05/07 20:23 ID:JJMbJYW4
SoftRAID(RAID1)上にLVを切ろうとしています。 切ること自体はできたのですが、起動時に自動検出してくれません。 起動時のメッセージは Starting up RAID device: md0(skipped) md1(skipped) です。 起動後、raidstartとvgscanをやれば、有効になるんですが・・・ fstabで、LVをマウントするようにしています。 OSはRedHat9です。 何かわかりますかねぇ
initrd作りなおせオマンコ
157です。 mkinitrdやってみましたが、結果ダメです。 手順は以下のとおり。 1./etc/modules.confに以下の行追加 alias md-personality-3 raid1 alias block-major-58 lvm-mod alias block-major-109 lvm-mod 2.mkinitrd mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \ $(uname -r) 3.grub.confをeditし、initrd_raidをロードするようにする 4.再起動 dmesgでは以下のようなメッセージが出ており、うまくいっているように 見えます。 RAMDISK: Compressed image found at block 0 Freeing initrd memory: 168k freed VFS: Mounted root (ext2 filesystem). Journalled Block Device driver loaded md: raid1 personality registered as nr 3 kjournald starting. Commit interval 5 seconds EXT3-fs: mounted filesystem with ordered data mode. ちなみに上はfedoraでやってみました。 うーん、何がおかしいんでしょう。
raidstartしてからmkinitrdしたマンコか? mkinitrdは/proc/mdstatを見てオマンコよ。 だから/etc/modules.confを編集する必要はないマンコ。
161 :
157 :04/05/08 14:45 ID:pmAGqXMP
すばらしい!うまくいったです。オマンコさん、どうもありがとう。 もうLVMの話じゃないですが、ついでに教えてください。 ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか? #まあやってみりゃいいんですが。
>>161 悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw
カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。
FC2でどうなってるのかは未確認。
157っす
>>162 うーん、つかえねえToT
カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。
まあとりあえず現状で満足することにします。
どうもありがとう。
164 :
login:Penguin :04/05/16 14:46 ID:VitpnX4s
lvm上に作ったファイルシステムって WindowsのExplore2fsとかから見えるのかな。
見エマセぬ
>>148-156 非常に参考になったわ。
こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。
これはLVM HOWTOに載せて欲しいぐらいの内容だね。
167 :
login:Penguin :04/05/28 23:19 ID:PYZd4d/f
pv→HDD3本でひとつのvgを組んでます。 ここから生成されたlvはreiserfsでフォーマットされています。 で、最近 fsck.reiserfsをすると ディスクにハード障害があります云々いわれます。 この場合、 1.やっぱりHDDに物理的な障害がある。 2.vgになんかの障害がある。 1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか?? もしあれば、誰か助けてください。。。。 いま、めちゃブルーです。
>>167 3.ファイルシステムが壊れているとか
reiserfsckはデフォルトではcheckだけじゃないの?
--rebuild-treeとか付けんと。
>>151 みたいに
もちろん、やる前にはバックアップとってな。
HDDの物理的障害だったらdmesgになんか出てると思うけど
>>147 VGじゃなくてLVでしょ。
Unix Magazine 2004年6月号で2.5TBのLV作ってるよ
169 :
167 :04/05/30 23:48 ID:OnGdtw98
>>168 回答ありがとうございます。
いろいろ試してみたのですが、拉致があかなかったため、とうとう
rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。
bread: Cannot read the block (31329): (Input/output error).
Aborted
ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。
hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175
end_request: I/O error, dev hdd, sector 251175
Buffer I/O error on device dm-0, logical block 31341
そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、
badblocks -o out.txt /dev/lvm/hogehoge
再びreiserfsckをかけました。
reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge
が、上記と同様にAbortされてしまいます。
reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。
reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??
dd_rescueなんてあるんですね。 LVM使ってないけど、reiserfsのパーティションが壊れたときは、 私もrebuild-treeが途中で失敗してしまう状況でした。 結局、普通のddで何とかしましたけど。 結構なファイルがlost+found行きになりました。
↓何事も無かったかのように次どうぞ
(1)日本人が作ったものは40%割り引いて考える。 (2)IPAの金で作られたものは信用しない。 (3)任天堂のゲームには近付かない。
176 :
login:Penguin :04/06/20 02:44 ID:M3ZdqO8W
インストーラでlvmが使えると楽やね。
PE Sizeのことで質問させてください。 PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、 たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、 32MBのときは、32MBの倍数になる。 PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、 PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、 という理解で正しいでしょうか。 inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:; PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる 記事を見つけて焦ってしまったんですが。
178 :
login:Penguin :04/07/01 12:02 ID:Ua6cWiFK
無駄無駄無駄ぁぁぁ!!!
LVMって生で使うより重いの?
>>179 軽い道理が無いだろ(w
でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。
181 :
login:Penguin :04/09/13 22:02:18 ID:vib1TXoh
LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか? ファイルシステムはext3、ディストリはFedora2です。 /boot /dev/hda1 / /dev/mapper/Volume00-LogVol00 /dev/hda1がext3 /dev/hda2がLinux LVM /dev/hda3がswap KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)
ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。
183 :
181 :04/09/14 21:29:21 ID:PwK9BewZ
でも既にこの構成になってしまっているのですよ。 なにか方法ないですかね?
FS自体壊れてはいないんだよね?
漏れだったら、dump/restore でLVとパーティションを切り直す。
>>182 の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。
まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。
185 :
181 :04/09/15 01:11:51 ID:KT7pbieC
>>184 壊れてないです。
方法がなければ切り直そうかと思ってるんですけど、
>勉強と思ってなんとかする方法を考えてみる
ってことでココに書き込んでみた次第でございます。
SLVMって使えんの?
187 :
login:Penguin :04/09/18 10:22:30 ID:Nmvwrsgi
>>181 スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも
作りなおせ。
188 :
login:Penguin :04/09/21 23:05:19 ID:F8lCx2GU
>>181 亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。
カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。
>>188 KNOPPIXのLVMってLVM1じゃなかったっけ?
以前、LVM2環境をミスって起動不能にした時、
データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う
(結局、LVM2環境を新しく作ってHD繋げて吸い出した)
>>181 新しく/用にLV作って必要なものコピー、
そっちを/にマウントするようにして起動ってのは?
Fedoraでどうやるか知らないけど。
FedoraのLVM2環境の起動の仕組みって↓とは全然違う?
ttp://www.poochiereds.net/svn/lvm2/
190 :
181 :04/09/24 01:19:17 ID:JORLx4Uz
>>188 なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。
>>189 そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、
/のLVの容量 + 増やしたい容量
のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。
191 :
login:Penguin :04/09/27 13:12:09 ID:mojAcgNu
そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを
学んでおくことにしましょうね
>>190 私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。
オンラインリサイズできるファイルシステム(Reiserfs,xfs)を 使い、各LVは必要最小限のサイズで作りませう 私は/boot+swap+PV1個の3パーティションで節約生活してますよ (´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)
194 :
login:Penguin :04/10/17 02:02:36 ID:HoEJPIc+
lvmかますことによってパフォーマンス落ちる? 導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。
定期チェックでfreiserfs@LVMにfsckかけたら bad sectorが出てAbortしてしまう・・・ 複数のHDDがVG登録されていて 物理的にどのHDDがbad sector出してるのか判別もできず・・・ こんな場合どいった手順で復旧していけばいいんでしょうか?
× freiserfs ○ reiserfs うぅ・・・
199 :
196 :04/10/20 07:26:55 ID:GE+TE0oK
壊れてるHDDが物理的にどれなのかを判別できたんですが
新しくHDD買ってきてPV増やした上で
このHDDをpvmoveしたりするのは自殺行為・・・・ですよね?
syslogにガンガンエラー吐いてるけど復旧する時間が無い〜
週末まで耐えてくれ・・・
おとなしく
>>198 でいくべきかな、やはり
>>199 無事?
とりあえず、バックアップとった後で
pvmove試してくれるなら是非人柱希望
ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う
pvmove中、不良セクタ踏んだ瞬間にフリーズ
→仕方ないので電プチ
→PV死亡。VG活動化できず起動不能
ってなるかも
とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので ・新しく買ったHDDに新しいVG割り当て ・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動 ・空きが増えたらresize_reiserfsして縮小 ・lvのサイズを縮小 ・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove ・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て ・上を繰り返して壊れたHDDのみがVGに登録されている状態にする という感じで玉突きしてみようかと検討してますが resize_reiserfsでコケる気が激しくする・・・ アイオーのLinkPlayer+Einキャプチャ機+Samba でレコーダー代わりにしてたデータ領域で HDDが4台、データ領域が1TB近くある・・・
202 :
201 :04/10/24 03:56:24 ID:SET3wOLA
壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの データ避難・LV削除はできましたが 壊れたデータの入ってるLVのresize_reiserfsできず・・・・
/home にあったデータが一瞬で消えた・・・orz 83→データいれる→8e したら駄目だったのか・・・?
そりゃ駄目だ。
やっちまったな
206 :
login:Penguin :04/12/02 00:01:54 ID:BsejacY+
linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。 この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等 をオンラインでデータを保持したまま出来るものなのでしょうか。 また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが あれば教えていただけないでしょうか。
>>206 そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?
linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。
raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る Arrayをオンラインのままでは無理だったかと 250GB x 3を300GB x 3に、は知らんけど RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?
210 :
login:Penguin :04/12/03 02:01:38 ID:du/UIkAw
211 :
login:Penguin :04/12/04 02:07:45 ID:BbxGDoDA
> こういうmd上のLVの拡張、VG切り離しなどの情報など LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。 問題は、 > ディスク増設>raid5再構築 によって、PV(に割当ててるパーティション)のサイズが増えること。 LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。 ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ 可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、 PVに割り当てる方が賢明。 バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。 > しかしmdの上にLVMって普通やらないのでしょうか。 普通にやるとおもうけど。raid LVMとかでぐぐってみ。 その場合に、raidを再構築するのがレアなだけ。
212 :
login:Penguin :04/12/04 17:22:52 ID:BTKpaP2z
>>211 なるほど。そもそもraidとバックアップをきちんと考えわけ
ないといけないですね。
とりあえずディスクが2つあいているので、ミラーセットをつ
くっていろいろ試してみます。
複数のPVが1つのVGとLVで構成されているデータ領域の HDD一台がdでしまいました。 復旧にあたって死んでいない残り3台のHDDのデータを 救い出しつつ復旧するにはどうすればよいでしょうか? 来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて vgrestoreする予定なのですが これだと死んでないHDD3台のデータも拾えないんでしたっけ?
dd_rescue
>>213 コマンドはvgcfgrestore
>>149 以降でテストしてる
生きてるHDD上のデータは救出できるけど
あまり期待しない方がいいよ
死んだHDDにちょっとでも乗っていたファイルは
助からないはず
仕事上必要があってwindows XP 64bit-editionを入れたら 見事に別ディスクのLVM領域は破壊してくれた 何でこういうイヤガラセするかなぁ
217 :
login:Penguin :05/01/03 02:58:23 ID:mM5fO6TV
Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして /sbin/mkdmnodで、/dev/mapper/controlをつくりました。 これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し てくれたのですが、以降rebootやシャットダウンの度に最後に 「md0: switching to read-only mode」〜「md1X: switching to ...」 というmd関連のメッセージがずらっと表示されるようになりました。 LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。 これは何が悪いのでしょうか。 どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ るみたいですが私ではそれをどうしてよいかもわからないんです。
218 :
:05/01/28 00:00:53 ID:O4GA9oN8
スナップショットをとる しばらくその後スナップショット時点の状態に戻すことは可能? 管理情報は残ってるわけだからできそうなんだけど
219 :
login:Penguin :05/01/28 00:11:59 ID:inuf15bo
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
在宅ワーカー募集します!!日給7800円以上可能!!
詳しいことはホームページに書いてあるのでご覧下さい。
http://advanced7success.fc2web.com/ 尚、お申込みの際は
ID『sa01』が必要になります。
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
保守
補修
ほちゅ
RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、 LVMでext3ってどうよ?
カーネル2.6のLVM2ってIO負荷が重い状態でボリュームのスナップショットを取ると メモリ不足でハングアップしてしまうがこれの解決はまだか。
保守
226 :
login:Penguin :2005/04/30(土) 20:18:09 ID:mAb4X/xF
教えてママン 160GBのHDDをFireWireで二つ直列に繋いだ状態で動作しているのですが、 LVMでこの二つをまとめて一つにして(無問題で?)パフォーマンスでるのかしらん? ためしゃいいじゃんっていうかもしれんが、160GBもデータが入ってると試すのが鬱でね・・・
あんまり出ないだろうな。 ファイルシステムが跨る分だけ、安全性に不安があるし。
228 :
login:Penguin :2005/05/01(日) 12:54:41 ID:+L1YW0MG
lvcreate すると以下のようなエラーが出てしまいます。
lvcreate --size 10M --snapshot --name snap /dev/VolGroup00/LogVol_01
Rounding up size to full physical extent 32.00 MB
device-mapper ioctl cmd 9 failed: メモリを確保できません
Couldn't load device 'VolGroup00-snap'.
Problem reactivating origin LogVol_01
物理メモリの残りが少ない時に同事象が発生するようなのですが、出来る時もあり、規則性がありません。
swapも1Gぐらいにしてみましたが同じです。
(
>>224 の事象と同じ?)
なにか解決方法はないでしょうか。
229 :
& ◆R7PNoCmXUc :2005/05/01(日) 22:09:16 ID:D6WravXD
金曜日の夜 土曜日の昼 土曜日の夜 日曜日の昼 日曜日の夕 日曜日の夜 ↓ ↓ ↓ ↓ ↓ ↓ ┃:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: ∧ ∧ ∧∧ ∧ ∧ ┃:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: (・∀・) ∩∀・) (・∀・)∩ ┃:::∧∧:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: / ⊃⊃ ヽ ⊃ノ /⊃ / ....┃:::('д` )::::::::::::::∧∧::::::::::::::::::::::::::::::::::: 〜( ( ヽ )つ 〜( ヽノ ......┃:::と ヽ::::::::: ('д` ):::::::( )⌒ヽ;:::::::::: (/(/' (/ し^ J ......┃:::⊂,,_UO〜:::(∩∩ ):::::|/.|/uと )〜::::: ↑ 今このへん
>>228 2.6カーネルのsnapshotは不安定で実用に耐えないから諦めろ。
231 :
login:Penguin :2005/05/11(水) 10:01:20 ID:5vDYgAyC
>>230 了解。もう諦めて kernel2.4に戻しました。
# vpvmove /dev/sda15 なんてして No extents available for allocation このエラーが出る場合、何を確保してやれば移動が可能になるんでしょうか
>>232 extents for allocation、つまり空き領域。
マウント中のファイルシステムをpvmoveすると固まるのはなんとかならんかなぁ。
snapshotが固まるのと原因同じ気がする。
>>233 お返事どうもありがとうございました。
lvextend -L-hogeGして減らします。>232はs/vpvmove/pvmove/でした。
そういえば、pvmoveするときはアンマウントしてからやってました。
関係ありませんが、xfsはサイズを増やすことはできても減らすことができないと知って後悔しました。
保守
236 :
login:Penguin :2005/05/30(月) 14:02:18 ID:d6Jlq03m
lvm3マダー?
Fedora2でLVM使ってファイルサーバー立ててますが、quotaを使う必要があり、 fstabにLVMをつかっている/homeの箇所にquotaに記述して、再起動かけたら、 quotaつかえない旨のメッセージがでてきました。 Kernelのquota機能とLVMって共存できないんでしょうか? 以下書き換えた場所です。 LABEL=/ / ext3 defaults 1 1 LABEL=/boot /boot ext3 defaults 1 2 none /dev/pts devpts gid=5,mode=620 0 0 none /dev/shm tmpfs defaults 0 0 /dev/Volume00/LogVol00 /home ext3 defaults 1 2 ←ここにquotaを記述 none /proc proc defaults 0 0 none /sys sysfs defaults 0 0 LABEL=/tmp /tmp ext3 defaults 1 2 LABEL=/var /var ext3 defaults 1 2 /dev/hda2 swap swap defaults 0 0 /dev/cdrom /mnt/cdrom udf,iso9660 noauto,owner,kudzu,ro 0 0 (読みづらかったらごめんなさい)
SGI-XLV移植キボンヌ
保守
ほちゅ
LVM
LVM2
LVM2上にXFSのパーティションがあって、snapshot取りたいんだけど、 xfs_freeze -fしてlvcreate --snapshotすると固まってしまいます。別ttyでxfs_freeze -uするとlvcreateできましたが。 もしかしてxfs_freeze不要?kernelは2.6.12.5ですけどまだ不安定なのかな?
245 :
login:Penguin :2005/09/02(金) 17:34:27 ID:jSBJjcXW
>>228 です。
CentOS4.1(2.6.9-11)で久しぶりに試してみたらsnapshot普通にできるように
なっていました!!
lvm2-2.01.08-1.0RHEL4
改善されたんですね。よかった^^
246 :
login:Penguin :2005/09/03(土) 22:06:00 ID:bax3TQFR
>>245 え〜〜〜っと。やっぱりダメでした。
ちょっとスペックの悪いPCで試してみたらまったくダメだ(>_<)
kernel2.4のlvmできちんと動いたPCなんですけどね。ぬか喜びだった(泣)
ほちゅちゅ
248 :
login:Penguin :2005/09/24(土) 11:03:27 ID:2QiD6Syt
HDD 10G の PC を入手したので Debian をインストールしています。 /dev/hda1 256M / /dev/hda5 512M swap として残りの 9G で LVM を使って /usr や /var, /home にしてみようと考え ています。 そこで疑問なのですが、残りのパーティションの切り方は 9G を1つにしちゃっ ていいんでしょうか。2G 程度をいくつか切ったりするほうがいい? それぞれのメリット/デメリットがいまいち判らんとです…。
/tmpはええのん?
>>249 あ、/tmp も LVM で作るつもり。
251 :
login:Penguin :2005/09/24(土) 12:17:33 ID:frt9ybjp
DebianでLVMはやめたほうがいいよ。壊れるから。
>>251 うは、マジすか? あんまり聞いたことないけど、いままで LVM に縁が無かっ
たから見逃したかな…。ちょっとググってみるす。
LVM2ってもう安定した?
255 :
login:Penguin :2005/09/24(土) 14:27:37 ID:frt9ybjp
LVM2は開発が止まっているようだ。EVMSにしとけばよかったのに。
ところで、そんな小さい容量のディスク1本でLVMするメリットなんてあんの?
debian potatoからLVM使ってるからもう5年くらいになるが一度も壊れたことないぞ。 LVMも当然 1.0→2.0になってるけど移行時でも問題無かったし。
DebianはLVMが不安定は釣りネタだろうけど 5年間一度も壊れたことないも嘘くせぇw
LVM2のsnapshotが安定しないのは閉口ものだが破壊は無かったな。 御疑いなら耐久テストでもしてみることだ。 5年といってもlogical volumeの構成を替える頻度は知れているから、 script組んで耐久テストすることは時間がかかることでは無いわけだし。
保守
ほっしゅ
snapshotってLVMだけでできるん? FSがサポートしてなきゃだめなんちゃう?
nbd+LVM運用してる人いますか?
vgexportしないでHDD外してしまって、マシンはすでにない 場合、別のマシンに差して中を見る手段はないのかな。 PVがあることは認識出来るんだけど・・・
vgimport じゃ駄目なの?
266 :
264 :2005/11/16(水) 22:25:30 ID:rFvkJp3N
VGの情報が見つからない、みたいなことを言われて 駄目だった。(いま別の場所なので、詳細なエラー メッセージは忘れたが) vgexportしてないからだと思う。。。
>>266 #man vgimport
VGIMPORT(8)
NAME
vgimport - make volume groups known to the system
OPTIONS
-f, --force
Force import of volume group even though it is not flagged exported. This
option allows the importing of volume groups from broken systems.
この辺りドウヨ?
(もちろん自己責任で宜しく)
268 :
264 :2005/11/17(木) 12:26:25 ID:1Ik63xyP
アドバイスありがとう。 でもダメですた。 -fオプションつけても、 Unable to find exported volume group "hogehoge" だって。そうだよなあ、exportしてないもんなあ...orz
だめなんかぁ。 新しいシステムでpvscanをしてVG情報を確認後、 vginmport -f VGname でなんとかなるんじゃ無いかと思っていただけに驚き。
ちょっと納得いかん挙動やね。 じゃぁ、なんで起動時にドライブスキャンするんだろ。
仕様に虐ギレカコヨス
保守
hoshu
fedora core 4 のデフォルトインストールでLVMを使用して80GのHDDに /dev/VolGroup00/LogVol00 を/(ルート)にマウントされてます。 今回160GのHDDを追加してWebminでPV追加。 コマンドでlvextend -L+100Gで論理ボリュームを拡張まで成功しました。 あとはファイルシステムの拡張だけですが、ext2onlineで JBD: ext2online wants too many credits (2050 > 2048) ext2online: ext2_ioctl: No space left on device とエラーメッセージが出てできない。ググってみたが英語でバグ報告みたいなのが あるだけでよくわからない。 resize2fsを使おうとしてinit 1でシングルユーザーモードにして umount /dev/VolGroup00/LogVol00 としてから resize2fs /dev/VolGroup00/LogVol00 とすると /dev/VolGroup00/LogVol00 is mounted; can't resize a mounted filesystem! とでてアンマウントできていない様子。 /bootにCDしてからやっても同じ。 LVMそのものに悩むんじゃなくてこんなところでつまずくとは思わなかった。 もう少し修行してきます。
>>274 間違ってたらごめんなさい。
FC4 の rescue disk を使って、起動時に /mnt/sysimage にマウントするか?と
聞いてくるので、マウントしないで起動する。
その状態だと VG が INACTIVE な状態にあるので、
lvm vgchange -a y とかやって、/dev/VolGroup00/LogVol00 が見えるようにしてやる。
そして、resize2fs 実行。
私はこんな感じで LVM 管理下の / (ルートパーティション) を lvreduce (危険を承知で orz) できました。
おお!情報ありがとうございます。 まさに私がやりたいことです。 漠然とKNNOPIXなど使わないといけないのかなと思っていましたが、VGに関する 注意点まで書いていただいて感謝です。 一度やってみます。もちろん自己責任で。
277 :
login:Penguin :2006/01/20(金) 12:23:32 ID:aqSLHR49
_, ,_ ( ゚∀゚)
278 :
login:Penguin :2006/01/28(土) 19:17:57 ID:VUb2MggI
_, ,_ ( ゚∀゚)
いままで素のRAID1でmd0(hda1+hdc1)、md1(hda2+hdc2)とパーティションを 作り、定期バックアップを同容量のディスクに dd if=/dev/hda of=/dev/hde として取っていたんだけど、RAID1+LVM にしてもこの方法有効ですか? 上では hde1, hde2 がそれぞれマウント可能なパーティションとして バックアップされるのだけど、LVM が上に載ってくると、PV 自体は md0, md1 の上にある形になるので、hde 単体でデータアクセス可能か 不安に思ってます。 同様の経験がある方、いかがでしょうか?
LVMがあろうが無かろうが同じ事。完全にコピー出来ていれば動く。 しかし単純にコピーするとhdaとhdeに同じ名前のVGを検出して混乱する。
281 :
login:Penguin :2006/02/13(月) 02:21:49 ID:gjfNOHrh
なるほど、考えてみれば RAID の方の autodetect で hde 上の RAID を 検出しておかしくならなかったのは dd if=/dev/md1 of=/dev/hde2 と実際にはパーティション個別に dd して、hde* の partition type が Linux RAID autodetect にならないようにしていたためでした。 今回だと md1 -> hde2 のようにパーティション単位で dd すると partition type をどれにしても問題が生じる(Linux LVM にすれば 混乱するし、しない場合は hde 単独稼動できない)ので、 dd if=/dev/vgname/volname of=/dev/hde2 で hde の partition type を Linux とするのが唯一の解でしょうか。 ただ、これだとボリューム構成が変わるとバックアップ側の hde の パーティション構成も追随させないといけないので、結局この簡易 バックアップ手段は RAID1+LVM では使えないかな。 とりあえずやるだけやってみて、駄目なら LVM は諦める事にします。
コピー先のボリューム構成を自動的にコピー元に合わせるスクリプト書けばいい
ちょっとチラシの裏っぽくなってきてすみません。 どうやら vgchange -an で autodetect 無効にしてやれば いけそうです。RAID の方は autodetect にしておいて、 lvm.conf の方には /dev/md* だけをスキャン対象として 書けばバックアップデバイスの hde は完全無視でいってくれそう。 週が明けてしまったので後になると思いますが、できたら 報告しますです。
だいぶ前から不思議に思っていたんだが、 fedoraとかのインストール時に、自動でパーティションを 区切らせると、swapをLVMに置きやがる。 どうせパーティションなんて、手動で区切るから、無視してたんですが、 もしかして、swapをLVM上に置くと、なんかよいことあるんですかね?
swap領域を簡単に大きく出来る。 swap専用のパーティションが不要。 Solarisパーティションに間違える心配が無くなる。 LVM上に置く事のデメリットが特に無い。 俺は手動で切る時もLVMを使っている。
むむ、最近は swap も LVM 上に取るのがトレンドなのか。思い付かなかったな。
suspend, resume にswap領域を使うというのはどうなったんでしょう。 今もそうなら使い方によってはマズそう。
LVMのスワップにもsuspend出来るようになったけど、それはつい最近の事だからな
swapを万が一のときのためのプライマリィパーティションとして を使うからなぁ。LVMにはできん
業務用なんかでLinux専用で使うんであれば、swapは単独で切っとくな。 rootと/usr以外と外付けは必ずLVMにするだろうけど。
>>291 んーと root と /usr は LVM にしないってことか。それはなにゆえ?
/と/usrは大きく容量が増えたりしないからLVMで管理する必要が無いって事だろ。 /と/usrを後生大事にするのは王より飛車を可愛がるようなもんだがな。
ってことは /usr/local とかは別パーテーションにするのかい?
最近swapはファイルで済ませちゃってるな。 LVM使うのは/homeだけだ。
>>294 業務用で実運用中に/usr/localが増えるのはどうかと
ほちゅん
# vgcreate test /dev/hdb2 /dev/hda3 とやって、2つのPVにまたがったVGを作りました。 んで、lvcreate で LVを作るとき、/dev/hda3 だけに作ってくれとか そういう指定はできない??
>>299 うお、まじで〜。
ってmanみたら書いてありました・・・すまんす。
>>298 参考のためになんでhda3だけにLV作ろうと思ったの?
なんか有るならおしえてほぢい。
>>301 実際には hda4 と hdd1 にまたがったVGで hdd は後で追加した。
hdd1 の最後のほうに LV を作りたかった。
hdd が hda に比べて古い HD なので、遅いし、いつ壊れるかわからん。
HDの後ろのほうはさらに遅いので、ここにゴミデータをおきたかった。
てなかんじの、あまり参考にならん理由です。
>>285 便乗質問で悪いけど
LVMの中にswapパーティション置いても2GBの制限はなくならないよね?
> swap領域を簡単に大きく出来る。
を誤解してるわけじゃないです
LVMとは直接関係ないことだけど swap の話が出たので。 うちはメモリーを512MB以上積むようになってからは、 swapパーティションを切らないようになった。 現在はアプリケーションサーバとしては動かしていなので 問題は起きてないのですが、メモリ食いのアプリを 動かすようになったら考慮しないといけないかも。 ファイルサーバーやWebサーバー、DNSやルーター程度なら不要だよね?
俺んちFC4だが、swapの2GB制限ないよ〜? 1つのパーティションでswap 3GB に設定してあって 今、実験してみたら3GBフルに使えた。
Linuxの場合、LVMとソフトRAIDが別機能ってのが、わかりづらいな。 VG作るときにミラーとかストライピングが指定できるようになれば、かなり使いやすくなるのになぁ。
>>310 何言ってんのかわからん。MirrorDisk/UXだって別売りだろ?
確かに、VxVMやDiskSuiteなんかは、LVMとSW-RAIDを明確に分けてないな。 物理ディスクをまとめるときに、普通にミラーやらRAID5を指定して作れる。
VxVやMDiskSuiteに、LVMは含まれてないと思うんだが。
LVMに相当する機能のことだろ。 DiskSuiteの用語で言えば、「ソフトパーティション」 それにSolaris9からは、DiskSuiteのこと自体を「LVM」と詠んでるしな。
1. とりあえず祈る。
2. 古いディスク(/dev/sda)で起動する。
3. lvm情報を消す。(vgchange -a n VolGropu00したあと、vgexport VolGropu00)
4. 新しいディスク(/dev/hda)で起動する。
5. 古いディスクを付ける。
6. vgimport vg01 /dev/sda2、 vgchange -a y vg01
7. /dev/vg01/???をマウント。
ttp://www.linux.or.jp/JF/JFdocs/LVM-HOWTO-9.html 日頃の行いが良いことを願え。
もしくはもっと安全な方法を誰かが教えてくれることを。
しかし、マウントしているディスクは vgchange -a n できないんじゃないかなぁ。 なんとなく、もう1回インスコしなおしてインストール時に VG名を変えた方が簡単な気がする。
>>316 knoppixとかを起動してlvm情報を消すの方がいいかも。
Knoppixなぞ使わんでFedoraのインストールCDでレスキューモードに入ればいい。 その時一時的にBIOSで/dev/hdaを殺しておくといいだろうな。 そのうえでvgrenameで/dev/sda上のVGを変名。 あとは普通に起動してlvscanすれば見えるはず。
320 :
314 :2006/03/27(月) 01:10:03 ID:SywC2/7h
皆様いろいろありがとうございます。 レスキューモードためしてみます。
321 :
314 :2006/03/27(月) 02:28:07 ID:SywC2/7h
ダメでした。 BIOS で内蔵HDDをNoneにしてからレスキューで起動すると 外付けHDDがマウントされるんですが、vgrename は vgchange -an をした後でないとできません。しかし mount されているので vgchange はエラーとなります。umount すればいいんでしょうが、 そうすると vg* のコマンドがレスキューに入っていない、というか、 それ以前の問題として、/etc 以下が見えなくなります。
>>321 レスキューCDでLVMを操作する時はlvmコマンドを使うんだ。
lvm vgscan
lvm vgrename ほげ ふが
のように使う。
そもそもvgほげほげやlvほげほげはlvmへのシンボリックリンク。
>>322 なるほど。しかし /mnt/sysimage の umount はできませんでした。
たしかオープンしているというようなエラーが出てました。
これだとどうにもできないですよね?
KNOPPIX で起動してみるというのもやってみたんですが、
KNOPPIX 4.0.2 には lvm が入っていないため、そのまま
では何もできませんでした。
>>323 umount /mnt/sysimage/boot
umount /mnt/sysimage/proc
umount /mnt/sysimage/sys
umount /mnt/sysimage
ていうかレスキューモードで起動する時にmountしないを選べ。
LVMって使わない場合と比較してもファイル操作の速度はほとんど落ちないんだね。
むしろ、ストライプの場合は、上がるんじゃね?
328 :
325 :2006/03/27(月) 22:10:35 ID:SywC2/7h
やった! マウント成功! BIOSで /dev/hda を None にしてからFC5のレスキューでHDDを マウントしないで起動して lvm rename で名前を変えたら2つVG名が 出てきました。で、リブートして BIOS で HDD を戻して起動後に vgscan したら出ました。んで /dev に新たにVG名のディレクトリと LVのデバイスができていたのでマウントしたらできました。 ということで皆様大変ありがとうございました。これでファイルを救えます。
329 :
login:Penguin :2006/04/10(月) 19:36:59 ID:vi3HRBbu
LVMの中でSWAPのサイズをでかくするのはどうやってやるのですか?
lvextendかlvresizeででかくして、swapoff;mkswap;swapon
hahaha
hahahaじゃでかくはならんぞ
>>329 まあ、まず swapoff する必要はあるだろうなあ。
その後スワップ用パーティションをでかくして、
それが終わったらそのパーティションに対して
mkswap して、それから swapon で追加。
334 :
329 :2006/04/11(火) 12:10:49 ID:+JtsdC+X
mdマジで使いにくいなぁ。 LVMの方でミラーをサポートする計画ないんかな?
無いみたい。MDは今後も活発に開発が続く。いっぽうLVMのほうは怪しい雲行き。
337 :
login:Penguin :2006/04/25(火) 13:27:45 ID:V1nepZR+
教えてママン 例えば、外部ストレージをLVMで使ってたとするじゃん。 で、OS再インスコして、その外部ストレージのデータに再度アクセスするには、 具体的には、どのような手順で復旧すればいいんじゃろか? RHEL4,LVM2で説明してくれるとありがたい。
339 :
login:Penguin :2006/04/25(火) 16:13:56 ID:V1nepZR+
>>338 早々のレスポンスありがとうございます。
vgexport,vgimportは、ディスクの移設用途に有用だと思いますが、
自分のご享受頂きたいのは、復旧用途です。
質問内容を以下に変えます。
外部ストレージにLVMを使用しているOSがあったとします。
で、/etc/lvm以下は、他サーバにでもコピってあるとします。
その状態で、そのOSを再インスコして、LVMの構成情報なくなったとすると、
単純に、/etc/lvm/*をコピーって復元すれば、
もとのストレージ上のLVにアクセスできるんでしょうか?
だめなら、どうすればできるでしょうか。
LVMの構成のバックアップの観点からすると、
/etc/lvmのバックアップを考えてますが、
他になんかありますでしょうか。
vgscan してみるとか。 で、もし現在既に存在している(多分本体側のHDDにある)ボリュームグループと 同じ名前だった場合はしょうがないからレスキューディスクで起動して本体の HDDをマウントしないで起動して lvm vgrename して違う名前にしてから 普通に起動してまた vgscan して、違う名前で出てきたら vgchange -ay で 使えるようにして、それから mount、という感じでどうか?
vgexportしないといけない仕様がわけわからん
新しいバージョンのlvm2のユーザーランドツールは 同名ボリュームの扱いがよくなったらしい。 人柱レポート希望。
Windowsから読み込めるようになればうれしいな ext2を読み込めるドライバとかソフトウェアがあるみたいだけど LVMがあると駄目みたい
ちょっとLVMについて質問です LVM上に250GBx4で構成しています。 この構成で今後容量が不足してきた場合、ディスクを追加したいわけですが、 たとえば、今ある4つのディスクの内の1つを250GB→500GBに増量し、 HDD数は4つのまま、といった増設はできますか?しかもデータを消さずに。 他にディスクがないので外部ディスクに一旦保管することなくできるのが一番良いのですが、 良い方法なないでしょうか。 また、この4つのうち、いくつかのHDDを別のストレージコントローラ上に 移設した場合でも既存のLVM情報(データ)は維持されるんでしょうか? 例えば、マザーのオンボードIDEで4つHDDをつないでいたものを、 その内2つだけをPCI増設のIDEカードに移動した場合など。
一時的に5台になってもいいならpvmoveで一発
とりあえずバックアップは取っておいたほうが良いとおもうけど
ありがとうございます。 pvmoveメモりました。今度増設の時にそれを元に勉強したものを試してみます。 確かにデータはお金に替えられないので無理してでも一時的に物理的に 別ディスクに退避したほうがいいですね。 ドライブドアでも買うしかないかな・・・。
/dev/hdd1 に不良セクタがあって その中のLVから修復してもいいのかな? lvresize とかしたら・・・・。 LVのファイルシステムはext3です。 PVに不良セクタの登録とかって無理かな?
EVMSにはBad Block Relocationって有るんだけどLVMではどうなんだべかね e2fsck -cは無意味だろうし
ある論理ボリュームにlvextendコマンドでフリーなエクステントを いくつかくっつけたら、くっつけた分が別のセグメントになって、 2つのセグメントを持つ論理ボリュームになってしまった。 1つのセグメントのサイズが追加したエクステント分だけ増えるわけじゃなくって、 追加するごとにセグメントが増えるってのは仕様なのでしょうか? 増えたセグメントをマージして1つのセグメントにするってのは できないんでしょうか? ちなみに、当方、Fedora Core 5をつかっておりますです。
351 :
350 :2006/05/06(土) 21:42:57 ID:ogvSlzBU
ちなみに、上記でつっつけたフリーのエクステントは 単一の物理ボリューム上にあります。
セグメントってなんだ?
netmaskで分けられてるトコだろ>segment
354 :
boot problem :2006/05/29(月) 23:53:49 ID:2b3MoQPu
FC3ユーザーです。 ルートディレクトリのあるLVGroup00に、外付HDD(USB接続)上のパーティションを、 LogVol01として追加しました。起動すると、LogVol01が見つからなかったらしく、 全ての構成PVが見つからないのでLVGroup00が見つからない、ルートをマウントできない、 というエラーメッセージが出てカーネルパニックを起こしてしまうようになりました。 ちなみにそれまでは、論理ボリュームは内蔵HDDだけで構成していました。一度でも 起動できれば、USB/HDDをLVGroup00から抜こうと思っているのですが、そもそもPVが 認識できないのでレスキューモードでlvscanしてもLVGroup00を認識できません。 initrdを書き換えれば、とりあえず起動しそうなものですが、やり方がわかる方が いらっしゃいましたら教えて下さい。よろしくお願いします。
ちょっと疑問があるんだけど、LVM snapshot を使っている最中に、 スナップショット元への大量書き込みが発生してバッファ領域が 足りなくなったら何が起こるの?write(2) とかが ENOSPC でエラーになる?
壊れる
>>356 まじですか?それちょっと怖いんだけど。
358 :
login:Penguin :2006/06/25(日) 03:16:17 ID:4arPY93Z
無償のStorage Foundation Basicで良いのではないでしょうか。
359 :
login:Penguin :2006/06/30(金) 21:30:39 ID:bt8aI5W+
LVM が /dev/sda3: 内蔵 SATA、8e → /dev/vg1 /dev/sdb1: 内蔵 SATA、8e → /dev/vg1 /dev/sdc1: 外付 USB(ATA)、8e → /dev/vg2 /dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2 としているとき、内蔵 HDD を単純に 1台増設すると /dev/sda3: 内蔵 SATA、8e → /dev/vg1 (変更なし) /dev/sdb1: 内蔵 SATA、8e → /dev/vg1 (変更なし) /dev/sdc1: 内蔵 SATA、83 (新設。後で vg1 に追加する予定だがひとまず 83 のまま) /dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2 /dev/sde1: 外付 USB(ATA)、8e → /dev/vg2 と vg2 を構成する外付 USB の順番が 1コずつズレて vg2 がマズい状態になりそうなんですが、 HDD 増設後に vgscan で一発解決できますか?
361 :
359 :2006/07/01(土) 00:35:05 ID:2s9fKqFU
>>360 ほほぅ、そんなもんですか。だったら気が楽だ。
助かりました。ありがとうございます。
362 :
359 :2006/07/02(日) 16:46:58 ID:ebetDEkG
内蔵SATAディスクの増設はサクッと上手く行ったので、調子に乗って /dev/vg2(3台のATAディスクを積んだ novac 4台はい〜るKIT) に SATAディスクを1台IDE変換コネクタをかませて追加してみたところなぜか認識せず、 vg2 も見失い、困った展開に。 lvscan で探すと vg2 の LV は "inactive" となってデータ自体は生きてるようだったので、 vg2 を作り直し、LV も同名・同サイズ・フォーマットなしで作り直してマウントしてみると、 複数あるうち 1つの LV だけマウントできない。 /etc/lvm/archive/ 中のファイルを見ると、同サイズにしたつもりがマウント失敗 LV が微妙に小さかったことが判明。 vg2 中の全 LV を削除、改めて同名で作り直してマウントしてみると、無事に復活。 失われる前の LV は何度かサイズを拡張したからダメだろうと思いつつやってたんですが、 サイズと名前さえ合ってれば、結構乱暴な扱いをしても OK なんですね。 少々焦ったものの、貴重な体験ができました。
たくさんのHDDで、RAID使わずLVMのみで構築してる人 結構壊れるもんですか? ・何も考えずにLVMのみで構築 ・RAID5組んで、その上でLVM構築 どっちにしよう 後から容量足せるのがいいんだよね
365 :
login:Penguin :2006/07/29(土) 14:31:49 ID:TSQYdC/Y
てゆかスレ止まってるのでage
HAになってないDISKにLVMなんてアリエネ-
>>366 fedoraを否定するにはあまりに分が悪くないでしょうか。
368 :
login:Penguin :2006/07/29(土) 16:51:23 ID:xqKAhYME
スナップショット使っていて、たまたま領域溢れがおきると それが無効になるだけじゃなくてカーネルパニックになるのは仕様? カーネルは2.6.17です。 # mount /dev/vg0/p0 /mnt/vg0p0 # lvcreate -s -n p0.snap -L 1 /dev/vg0/p0 # dd if=/dev/zero of=/mnt/vg0p0/big.bin bs=1024 count=8192 # lvremove vg0/p0.snap <kernel oops> で 100% パニックになってしまう。マニュアル見ると lvextend で 救えるみたいに書いてあるので、溢れた後で意味あるのかと疑いつつ # lvextend -L +32M /dev/vg0/p0.snap # lvchange -ay /dev/vg0/p0.snap などをしてみたのですが、やはり lvremove でパニックという 結末が避けられません。 十分大きな領域を取るようにする運用である程度回避はできるけど、 うっかり大きな書き込みしたらシステムごと飛ばせるのは怖いので、 パッチや回避策があれば教えて下さい。
AIXとかのLVM物理ディスク丸ごとをボリュームグループに追加してるけど LinuxのLVMだとパーティションをボリュームグループに追加するんだね。 なんか理由があるのかな?
パーティションテーブル構造の違いと、 LVMが当たり前になっているAIXやHP-UXでは、物理パーティションを切るメリットが全く無いから やらないってことじゃないかな?
HP-UX@IPFはパーティション切る EFIのクソッタレ
>>369 おれはもう何年も増設ディスクにパーティション切ってないよ。
LVMでもそうでなくても。
373 :
login:Penguin :2006/07/29(土) 22:26:48 ID:xqKAhYME
>>372 mount /dev/sdb /data とかってこと?漢の切り方ですな。
すまん、sageてなかった・・・
>>375 パーティション切らないっていうと俺も
>>373 みたいなイメージをしてしまうんだけど。。。
領域溢れないのを前提だからねえ。そりゃパニくる。 無効にすればいいと言うけど、アプリケーションからはそんなの理解出来ないし。どう互換性取る?
PVをマウントなんかできねーっつの
>>372 はLVMでなくてもパーティション切らずに利用していると言ってるみたいだけど
それはどういう意味なのかが知りたい。
もしかして単にPVにパーティションを1つだけ作成してるという意味なのか?
全領域を1つのlvとして取ってるってことだろ さて、やっぱバックアップなしのLVMは無謀かな… HDDケースとかの「コンバイン」と同じだもんなぁ データ量が多すぎるので複製バックアップは非現実的なんだよな
381 :
login:Penguin :2006/07/30(日) 02:40:26 ID:honuiWv6
>>377 うむむ・・・単にPVの欠乏を検出したらスナップショット側への
書き込みにはENOSPCを返し、ソース側への書き込みについてはスナップ
ショットとの関連付けを最初からなくし、一切スナップショット用PVを
消費しないオプションとかあれば理想的かなーと挙動みて思った。
今すぐどうにかなる話ではないみたいなので対策の話に移ると、
バックアップ用スナップショットってどれくらい領域確保してます?
話では元領域の20-100%確保しろとかあるけれど、読み出し専用な
バックアップ用スナップショットでもそんなに取るものですか?
結局バックアップ所要時間中にどれだけ書くかだからケースバイ
ケースなんだけど、個人利用で300GB HDD中100GBとか食われるのは痛い。
>379 ん? mkfs /dev/sda とか pvcreate /dev/sda とか しててるけど。
>>382 自分で試してみたらできました。
Linuxだからパーティション、AIXだから物理ボリュームとかいう分類は特にないんですね。
AIXとかは大規模システムだからパーティション切る意味がないってだけなんですね。
そのうちx86もEFI使うだろ
>>384 怪しくなってきた。
Vistaでx86版もEFI対応の予定がキャンセルされちゃったし。
IA64と共に葬り去ってくれて一向に構わないけどw 最近のマカーはEFIっしょ
カーネルにはすでに EFI Support (Experimental) てな感じであるね 肝心のものは市場に出回ってるわけ?
以前どっかの早漏メーカーが出してた
x86なEFIはIntel MACで搭載済み
zfsがLinuxに移植されたらLVMはなくなると思う。
zfsがメインになることはありえない。 せいぜい実装できるのは、Solarisで作成したzfs領域に対して読み書きが可能となるくらい。
FUSEで実装してるならまあそうだろうな。
ext3+LVMとzfsを比べると
・物理デバイスを超えたボリューム作成
・信頼性
・スピード
・高可用性
あたりでzfsが有利に見える。
ただ、Solarisにべったりな実装になっていて移植自体が難しい場合は望むべくも無いんだけど。
>>391 ,392
FUSEかー、ブートはext3なんかのほうが
互換性とこれまでのノウハウの蓄積を考えるといいんだろうけど。
ってか、FUSEだとスピードや信頼性でもともと持ってるポテンシャルを
発揮できない希ガス。
lvmを試してます。 OSインストール時に /dev/VolGroup00/LogVol00 を作成しました。 HDDを追加して、fdisk /dev/hdc の/dev/hdc1を 8eで lvmのボリュームを作成しました。 # pvcreate /dev/hdc1 上記コマンドを実行したところ、 Can't open /dev/hdc1 exclusively. Mounted filesystem? というエラーが発生しました。 なぜ pvcreateできないのでしょうか OS は cent4.3です。
>>395 さん
# mount
/dev/hda2 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/pts type devpts (rw,gid=5,mode=620)
usbfs on /proc/bus/usb type usbfs (rw)
/dev/hda1 on /boot type ext3 (rw)
none on /dev/shm type tmpfs (rw)
/dev/mapper/VolGroup00-LogVol00 on /home type ext3 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
上記が表示されました。
/dev/hdc1 は含まれてませんでした。
ちなみに
#mount /dev/hdc1 /mnt
mount: /dev/hdc1 は マウント済か /mnt が使用中です
というエラーになります。
じゃ次は fuser -v /mnt /dev/hdc1
>>397 さん
# fuser -v /mnt /dev/hdc1
# fuser -v /dev/hdc1
上記で試しましたが、何も表示されませんでした。
じゃ次は # dd if=/dev/hdc of=mado --nage
dd if=/dev/hdc of=mado --nage dd: unrecognized option `--nage' 詳しくは `dd --help' を実行して下さい. と表示されました。 調べましたが、"--nage"というオプションは見つかりませんでした。
お前面白いな
>>400 これで幸せになれるよ
dd if=/dev/zero of=/dev/hda bs=512 count=1
Debian(Sarge)&LVM2なんだけど、
PE指定し忘れたまま550GBのLVを斬ってデータ書き込み、
再起動後にマウントできなくなってしまいました。
こんなエラーが出ます
mount: special device /dev/vg0/data does not exist
(LV名は仮)
vgdisplayすると、550GBのLVは見えます
vgresize(だったっけ)でのサイズ変更はとりあえず成功、250GBに切り直し。
やはりマウントは出来ません。
ttp://www.itmedia.co.jp/enterprise/0307/11/epn01_5.html ここと攻略本を見てLVM構築したんですが、PE指定、すっかり忘れてたorz
試しにfsck /dev/vg0/dataとやっても、「そのようなファイルやディレクトリはありません」とエラー。
もうこの時点でデータは救えませんかねぇ。。
あとはvgの再構築…
しかしこれやると全部データあぼーんですよね
あ、 PVは600GB(640GB)、 VGも同じ LVは550GB PEは4MB(デフォ) です。 本来は255.99GBまでしかLV斬っちゃいけないんですよね
>>402 さま
おかげさまで直りました。
どうもありがとうございます。
407 :
login:Penguin :2006/08/22(火) 12:45:52 ID:ktWadiYS
/にマウントしてるLogVol00を15G→5Gに小さくしようとして、 レスキューCDで起動し、 lvm vgchange -a y resize2fs -p /dev/VolGroup00/LogVol00 5G lvm lvreduce -L -10G /dev/VolGroup00/LogVol00 と打ち、CDを抜いてrebootしたところ起動時に、 /dev/VolGroup00/LogVol00: The filesystem size (according to the superblock) is 1310720 blocks The physical size of the device is 1277952 blocks Either the superblock or the partition table is likely to be corrupt! /dev/VolGroup00/LogVol00: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY. (i.e.,without -a or -p options) *** An error occurred during the file system check. *** Dropping you to a shell; the system will reboot *** when you leave the shell. *** Warning -- SELinux is active *** Disabling security enforcement for system recovery. *** Run 'setenforce 1' to reenable. Give root passwd for maintenance というエラーが出てきました。この後rootでログインし、 e2fsch -f /dev/VolGroup00/LogVol00 と打ち、 Error reading block 1277954 (Invalid argument) while doing inode scal. Ignore error<y>? という問いには全てEnterを押し続けました。 e2fsckが終わったところでrebootしましたがまた同じエラーが出ます。 LV縮小の手順が間違っていたのでしょうか?
The filesystem size (according to the superblock) is 1310720 blocks The physical size of the device is 1277952 blocks これに尽きるんじゃねぇの? ファイルシステムの方が大きくなってるし。 lv小さくしすぎたんじゃねぇ?
409 :
407 :2006/08/22(火) 13:06:19 ID:ktWadiYS
>>408 すいません、自分で書いておきながらそのメッセージを見落としてました。
ジャストサイズで合わせようとしたのがいけなかったですかね。
手順としては
resize2fs -p /dev/VolGroup00/LogVol00 4G ←1G少なく設定
lvm lvreduce -L5G /dev/VolGroup00/LogVol00 ←絶対値で5Gと指定
resize2fs /dev/VolGroup00/LogVol00 ←LogVol00の容量に合わせる
でいいでしょうか?
410 :
407 :2006/08/22(火) 13:37:15 ID:ktWadiYS
上記の手順で試したところ成功しました。
>>408 氏ありがとうございます。
因みに407な状態になってしまったら復旧することは可能なのでしょうか?
今回はテスト環境だったので問題はなかったのですが。
良いlvmの参考書ってないの?
L inuxで V olumeを上げたら M uteになった ともぞう
>>411 そんな難しくないと思うけど、LVM HOWTOじゃだめ?
それ見ながらVMwareとかでがんがん挙動確認を兼ねていじってみるのが
いいと思う。
もっともその動作確認で極限状態での挙動が不審なんで怖くなって、
リアル利用はまだ控えてるが・・・
414 :
login:Penguin :2006/09/08(金) 02:43:04 ID:ZNK9r2o4
hdcがLVM で ボリュームグループがVolGroup00としてが一つだけ作られていて、 その中に論理ボリュームがLogVol01の一つだけが 出来ていて、ext3でフォーマットされています。 60%ほど使用している状態です。 これを一つのfatにしたいのですが、 1.LVM内ext3に対応したdefragはありますか? 2.ボリュームグループのサイズを変更することは出来ますか? よろしくお願いします。
WindowsはLVMの中のFATファイルシステムをアクセス出来ないと思うが?
416 :
414 :2006/09/08(金) 08:54:44 ID:t89DwNuf
LVMのサイズを減らしてFATパーティションを作る ファイルをコピー。 またVLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。 fatパーティションの拡大
417 :
414 :2006/09/08(金) 08:57:11 ID:t89DwNuf
1、LVMのサイズを減らしてFATパーティションを作る 2、ext3からfatにファイルをコピー。 3、VLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。 4、fatパーティションの拡大 5、2からを繰り返し とやりたいんです
増設ディスク買ってきて繋げ。おまえにゃ無理。
419 :
414 :2006/09/10(日) 03:42:58 ID:WmrMnAO9
ttp://pantora.net/pages/linux/lvm/3/ を参考にして ext3の縮小とLVの縮小は出来たのですが
system-config-lvmでパーティションを見ると
ぶつ切れでLVも魅しようスペースもある。
ブツ切れだからなのか論理ビューでの「新しいボリュームの作成」も効かない。
418は対処方法解ってるのならコマンドだけでも教えてくれるとうれしい。
増設ディスクのが楽なのは解ってるが、出来ればこれで何とかしたい。
LVMを一発で普通のext3とかに変更できたりするのだろうか?
バックアップさえ取ればいくらでも好きなように弄って試せると思う。 ハードディスク増設しちゃうのが金で解決で簡単だけどな。
Time is Money.
skill is Money.
Skill is Monky!
Money is skill.
Time goes by.
All your base is belong to us.
LVMで作成されたボリュームのマウントについて教えて下さい。 FC3をインストールして使っていたHDDが有るのですが、 この中のデータを読み書きしたくて別のLinuxのマシンのhdcポートに繋ごうと思います 対象のディスクは1パーティション?で作って有り /dev/mapper/VolGroup00-LogVo00 / に成っています LVMでない場合は mount /dev/hdc1 /mnt/xxx 等でOKだと思うのですがLVMの場合はどのようになるのでしょうか? 書籍なども色々見たのですがLVMボリュームのマウント方法が分かりませんでした LVMは複数のボリュームを繋ぎ合わせて使用する仕組みなので下手に1部分だけマウントされるとまずいかなと危惧しています。
まず元のOSでデポートしないとだめ。 その後、新OSでクリアインポートする。
>>427 LVMをサポートしてるシステムなら繋ぐだけで認識して
/dev/VolGroup00/LogVol00
などが出来るはず。
ボリュームグループ名が重複してると駄目だけど。
>>428 そんな事は必要無い。
>>429 有り難うございます。
>ボリュームグループ名が重複してると駄目だけど
全く同じ構成でインストールしたディスクですので、まさに重複してます、
やりたい事はトラブったディスクを動いてるLinuxにマウントして
内容をちょっと補修して元に戻して機動しようと思ったのですが、、
ちょっと工夫が要りそうですね
全てのマシンがLVM使ったデフォでインストールしてるのでグループ名全部同じです...orz
>>430 レスキューCDなどで起動してlvm vgrename で変名するんだ。
インストーラがデフォルトで常に同じVG名を付けるのはあまりにも不親切だと思う。
思うならパッチ送れと言われそうだが。
>>431 >レスキューCDなどで起動してlvm vgrename で変名するんだ。
有り難うございます、
しかし、安物サーバ仕様なのでCDがついてない、、orz
あした取りあえずext3でインストしたディスク持ってきてそれを親にしてやってみます。
これからはインスト時にはVG名を全て変えるようにします、
しかしそうすると管理用の自作スクリプトとかマシン毎に全部書き換えが必要かな、
結構面倒ですねLVMって
スクリプトではデバイス名を使わず 極力ボリュームラベルやUUIDやマウントポイントで管理するといい。
lvm2のchanglogにはこうある。
* Thu Apr 20 2006 Alasdair Kergon <
[email protected] > - 2.02.04-1.0
- New release upstream, including better handling of duplicated VG names.
Storage Foundation for Linux って4.1から新しいの出てないけれども、あんまり使われてないの?
veritasが必要になるほどのクリティカルな場面ではlinuxが使われないから。
>>436 VERITASのLinux対応にやる気がないから。
まぁ、veritasいなくても生きてけるし。
Linux と VxFS の組合せってやたら遅くて使えなかった。
あれぇ? 作ったはずのVGやLVがシステムをリブートしたら消えちゃった。 ちなみにオイラはLFSでudevdな人です。
夢を見てたんですよ、きっと。
LVM2でlvcreateやvgchange -ayすると/dev/mapper/の下にデバイスファイルが自動で出来るんですが、 これのownerやgroupやpermissionをあらかじめ設定する方法ってありますか?
RHEL4U4をデフォルトのままインストールした後、 LVMのVGNameやLVNameが気に入らないので変えてみたんだが、 起動中、元の名前でマウントしようとして止ってしまう。 どこかの設定に元の名前を覚えてるっぽいんだが、 正しい変更手順てあるの?
>>444 レスキューCDで起動して変更すると共にinitrdを作りなおす。
446 :
login:Penguin :2006/11/15(水) 09:06:40 ID:FmEvhveD
LVMを試していた際エラーが出てしまい、どうしたら良いか分からず困ってます。(Linux s390) /dev/dasdc (約2.5G)をdasdfmtでフォーマットした後 fdasdで3つ(各500M)にパーティションを切りました。 ------------------------------- tracks ------------------------------- Device start end length Id System /dev/dasdc1 2 10667 10666 1 Linux Raid /dev/dasdc2 10668 21333 10666 2 Linux Raid /dev/dasdc3 21334 31999 10666 3 Linux native 32000 50069 18070 unused partition tableを保存して終了しようとしたところ下記のようなエラーが出ました。 fdasd error: IOCTL error Error while rereading partition table. Please reboot! もう一度fdasdでパーティションテーブルを見てみると 正しく表示されていたのでfdasd errorに対しては何もせず # pvcreate /dev/dasdc3 上記のコマンドを実行してみたところ "Device /dev/dasdc3 not found." と表示されます。 fdasd error(IOCTL error)の解決法もしくは何故/dev/dasdc3が認識されないのか お知恵を拝借させていただきたく書き込みしました。長くなってしまい申し訳ありません。
Please reboot!
448 :
446 :2006/11/17(金) 13:21:49 ID:GQ4FRfhc
>447 rebootしたら直りました。しっかりエラーで忠告されていたのにお恥ずかしい。 ありがとうございました。
>>446 s390でLinux運用してるような奴がここで質問南なんかするなよ、、、。
IちゃんのSEは最近何やってるの?
450 :
login:Penguin :2006/12/02(土) 03:23:43 ID:5H4vnv91
LVMの運用考えているんですが、 HDDの繋ぐ位置を変えて、たとえば /dev/sda が /dev/sdb になったりしてもデータ壊れたりしないですかね? ルートは非LVMでの運用を考えているので起動には 影響ないんですが。 ちなみにこういう場合はどうやって復旧させれば 良いのですか?
過去ログ読むと、まだまだ不安定そうですね。 複数のHDDをつなげてテラバイトのLV作ろうと思ってたのですが やっぱ普通のext3で運用するのが適当かな・・。
うちは3TのLV作っているけど特に問題はないな もうすでに枯れてきている技術だとおもうが どこを見て不安定だと思ったのか?
まず名前がだめだな extの方がいけてるぜ
454 :
login:Penguin :2006/12/02(土) 16:10:54 ID:5H4vnv91
>>452 なんか3台のうちの一部が壊れたときとか
復旧した実績がないみたいなので・・。
LVM HOW-TOだとできるみたいな感じで書いてはあるんだけれど。
>>454 つか、RAIDじゃないんだから、一部壊れたらフツーおしまい。
456 :
login:Penguin :2006/12/02(土) 22:24:16 ID:eQc2JRBC
LinuxではソフトウェアRAIDの品質が悪いので、エンタープライズ用途では 必ずハードウェアRAIDを使えといわれました。本当?
まあ、本当。 整合性とか安定性とかだけじゃなく、故障ディスクの入れ換えもえらく面倒だった(3年以上前の経験なので今は改善されているかも)。 SolarisのDiskSuite(LVM)は、LVMとしての機能はちょー貧弱だけど、 ソフトウェアRAIDとしてはさすがによくできている。
459 :
login:Penguin :2006/12/03(日) 02:28:25 ID:18r037ES
SolarisのSVMでトラブった経験は無いけど。
LVMってバックアップのとりやすさがうrじゃないの?
461 :
login:Penguin :2006/12/04(月) 00:44:32 ID:PEKo/YR5
過去ログ見ると、Kernel 2.6.9ではsnapshotはやめといた方がよい?
462 :
login:Penguin :2006/12/04(月) 07:48:00 ID:73bxYoAu
>>460 SVMだとmetaofflineでミラー切り離してバックアップ。
>>462 それ自体はすごく便利な機能なんだけど、最近はSVMはシステムディスクのミラー化くらいにしか使われんからなぁ。
464 :
login:Penguin :2006/12/04(月) 21:06:47 ID:73bxYoAu
最近のSunサーバはハードウェアRAID積むようになってきたからSVMも不要になる日は近い。 加えて、近い将来ZFSがrootファイルシステムをサポートするようになった日には。。。
465 :
login:Penguin :2006/12/09(土) 03:29:47 ID:EBN5bRDP
ZFSあればそもそもLVMいらね
最近居着いてるZFS厨はお前か。 残念ながら味方は居らぬようだぞ。
味方というか、近いうちにはリリースされないのは明白だから放置状態なだけだろ
badblocks の -n オプションは具体的にどういう原理で 非破壊的な検査をしているのでしょうか? 読み出しオンリーのときに badblocks が必要とするメモリを x とすると、 破壊的読み書きによる検査の時には 2x 非破壊的読み書きによる検査の時には 3x のメモリが必要になるということなので、 元の情報をメモリに保持しておいて破壊的な読み書きによる検査をした後 元の情報を欠き戻すという動作をしているように思えるのですが、 この場合やはり badblocks 実行中に電源が吹っ飛んでしまったりすると 元の内容は失われてしまいますよね? まぁ badblocks をかけるのはたいてい何も記録していない ディスクとかだろうと思うので問題はないのかもしれませんが。
目糞でも鼻糞でも役に立つならそれでいいじゃない
Macに実装されたとたんにマンセーしだすに1ペソ
/usr LVMに置き換えたよ記念。 最初からもっと大きくしときゃよかったorz homeはnfsなので当分大丈夫かな。
ほちゅ
LVM2でpvsとかlvsとかvgsって入れたときに出てくるAttrのところの意味がわかんない どこかにまとめページない?
man attr
Sarge 2.4.27にlvm2が入っております
PVはmd5とmd6とsdi5という構成です
500GBのmd6デバイスをVGから外すため、
新たに500GBのHDDをpvcreate→vgextendまで完了しました。
これでpvmoveで新HDDへデータ移行しようという段階ですが、
いざpvmove /dev/md6すると
mirror: Required device-mapper target(s) not detected in your kernel
というエラーが出ます。
このエラー文を具具って見たところ、
/etc/modulesに dm_snapshot を追加して
# update-modulesしる
と出てたのでやってみたが状況変わらずです
もちろんvgdisplayでNOT availableを確認済みです
ttp://www.itmedia.co.jp/enterprise/0308/08/epn01_3.html ここ見て作業してるんだけど、この環境はすんなり行ってるorz
もう止まった・・何をすればいいんだ。。
ボスケテ…
477 :
login:Penguin :2007/03/11(日) 00:11:29 ID:ukEOg9KI
すみませんかなり過疎っぽいのでageます
478 :
login:Penguin :2007/04/07(土) 20:50:11 ID:GOSiQcrK
LVMの完全解説本は出ないのかなぁ。
LVM+mdすげー便利。 いちいちLVMパーティション切らなくてもmdの上でlv作れるし。 mdadmのgrowでディスク追加しまくれるし、PVもそのままgrowできるし。 LVM+md+VMwareで愛用してます。
>>478 HP-UXの本とかホームページでも見れば?
481 :
その1 :2007/04/23(月) 23:12:04 ID:TAtKd+oU
(1/3) 古いHDDからデータがサルベージできなくなりました。 助けてください。。。 RedHat9で運用していたサーバのHDDを増設した。 SCSIハードディスクだけだったサーバに、IDEハードディスクを増設した。 増設したHDD(/dev/hda)に、Vine 4.1をインストールし、 BIOS設定の起動順序をIDE優先にした。 RH9(kernel2.4)では、/dev/sda2と/dev/sda6をlvm1にて、 ひとつのVGにまとめ、そこに、ひとつのLVを作って /homeにマウントしていた。(/dev/vg01/lv_data)
482 :
その1 :2007/04/23(月) 23:12:35 ID:TAtKd+oU
(2/3) 新しくインストールしたVine(kernel2.6)起動後、 /dev/vg01/lv_dataが見えないので、 pvscan/vgscan/lvscanを実施したがlvm1だと警告が出て、 期待通りマウントできなかった。 明日の朝までにHDD増設を完了させなければならない案件だったので、 よく調べず、焦って、なにをトチ狂ったか、pvcreate/vgcreate/lvcreateを /dev/sda2、/dev/sda6に実施し、/dev/vg01/lv_dataを作成した。 LVは作成できたが、mount -t ext3 /dev/vg01/lv_data /mnt/temp してみると、ファイルシステムが正しくない旨のエラーが現れた。 (エラーメッセージはメモっておらず詳細不明)
483 :
その1 :2007/04/23(月) 23:13:44 ID:TAtKd+oU
(3/3) BIOS設定の起動順序をSCSI優先に戻し、RH9環境に戻そうとしたが、 FSをマウントできない旨のエラーがでてRH9も起動しなくなった。 調べてみると、kernel2.6でlvm2に変わっていて、 vgconvertをすれば良かった事が判明した。 とんでもないことをやらかしてしまったことに気づいた。 orz... ←今ここ。 pvcreate/vgcreate/lvcreateは実施したものの、 ファイルシステムの作成はしていないので、 壊れた(上書きされた)のは、LVMの管理情報だけで、 実データは、まだ/dev/sdaに残っているはず。 なんとかサルベージしたい。。。 何卒お助けを。・・・もうだめです。
古いシステムのバックアップは無いの? /etc/lvm/の下にメタデータのASCIIテキストのバックアップがあるよ。
485 :
その1 :2007/04/24(火) 00:43:51 ID:TkXAc5rB
>>484 バックアップは無いんです。。
/etc/lvm/の下は明日、さっそく確認してみます。
ありがとうございます。
486 :
login:Penguin :2007/05/19(土) 16:21:03 ID:FBnX1/62
>>485 は復活できたかな?
やっぱ複雑だと恐いね。
ふつーにext3だけで運用していれば、他のパソコンに
くっつけてすぐマウントも簡単だし。
定期バックアップにスナップショットを使おうかと考えているので質問。 ジャーナリングなfsを載せたLVのスナップショットを取るときって、 fsをアクティブに使っている状態のままlvcreateしてもいいんかな。 それともumountとかreadonly mountとかしてからの方がいい?
要件次第だけど、umountできるならした方がいい。 umountしなくてもlockできるなら、それでもいいけど。
489 :
login:Penguin :2007/08/10(金) 18:35:44 ID:dBMj30OW
LVM2のスナップショットは不安定という過去ログがあるが 現在はどうなんだろうか?
大して進歩してないでしょ。 期待もされてないし。
491 :
login:Penguin :2007/08/11(土) 16:32:47 ID:S+h83dfI
LVM2ってパーティションテーブルIDを0x8eにしなくても 問題ないらしいけど、大丈夫なのかな? なんか誤って削除してしまわないように0x8eで運用 してるんだけれど。 LVM2はどうやって認識してんだろう?
全てのブロックデバイスをスキャンしてLVMのシグニチャ探すので問題ない。 そもそもRAIDデバイス上にLVMを構築する時などIDに頼れない場合もあるから。 しかし、可能なら8eにしてLVMだとわかるようにしておくべきだとは思う。
lvreduce を使う前にLV上のファイルシステム(ext3)を小さくしないと ダメなんですよね? 最初にファイルシステムを小さくしないと dataをlostするとか怖いこと書いてあるし。 で、最初にresize2fsを実行しました。 # resize2fs -p /dev/vg00/lv00 16457728K Resizing the filesystem on /dev/vg00/lv00 to 4114432 (4k) blocks. The filesystem on /dev/vg00/lv00 is now 4114432 blocks long. 次のlvreduceを実行 # lvreduce --size 16457728K /dev/vg00/lv00 WARNING: Reducing active logical volume to 15.70 GB THIS MAY DESTROY YOUR DATA (filesystem etc.) Do you really want to reduce lv00? [y/n]: y Reducing logical volume lv00 to 15.70 GB Logical volume lv00 successfully resized ↑これで問題ないのかな? メッセージ怖すぎだぜ。 データ入ってたら中止してくれ。
494 :
login:Penguin :2007/08/11(土) 17:59:58 ID:S+h83dfI
(続き) 実は今回のテストは hdb1(15.7GB), hdb2(15.7GB), hdb3(24.51GB)の PVを使っていたLVをhda1のPV上だけに移動したいと思って 実行しました。実行結果を見ると、下記のようになっていて hdb3の一部に移動されているようです。lvcreate時にPVを指定して LVを作れるようですが、それ以外でPVを指定した変更動作はできないのかな。 --- Physical volume --- PV Name /dev/hdb1 Total PE 4018 Free PE 4018 Allocated PE 0 --- Physical volume --- PV Name /dev/hdb2 Total PE 4018 Free PE 4018 Allocated PE 0 --- Physical volume --- PV Name /dev/hdb3 Total PE 6273 Free PE 2255 Allocated PE 4018 ↑hdb3に4018を割り当てている。hdb1に割り当てれば過不足無いのに!w だいたいreduceしたら、後ろを削るもんじゃないの〜?
>>494 pvmoveで特定のPVに移動できる。
以前はmount中にpvmoveすると固まった。今は確認してないけど。
>>496 thx。
マウント中に処理する予定は無いです。
でも動かないならマウント中はエラー返して欲しいですね。
ところで1つのVG中に複数のLVがあったときに
LVがどのPVを使ってるかって、表示できるんですっけ?
vgdisplay -v やってみたが、関係までは分からない
ようですが。
>>497 LVMからしてみれば、ファイルシステムなんて知ったこっちゃないし。
512GBのVGに512GBを追加して、 1TBのLVを作ろうとしています。 PVの追加はできたのですが、lvextend ができない。 ◆ vgdisplay -v VG Size 931.52 GB PE Size 4.00 MB Total PE 238468 Alloc PE / Size 119234 / 465.76 GB Free PE / Size 119234 / 465.76 GB ※ 119234のFree PEアリ。 ◆ lvextend -l+5000 /dev/vg01/lv01 Extending logical volume lv01 to 485.29 GB Insufficient free space: 124234 extents needed, but only 119234 available availableが何故か 119234しかない。-l+119234 でも同じです。 PEサイズはデフォルトですがLVM2(SuSE10.2 / kernel2.6)なので関係ないですよね? 何が原因でしょうか?
結局、LVをremoveして、作り直しました。 その前にPEを64MBにしましたが、lvextend失敗に変化無し。 lvcreate で1TBを指定した場合、問題なく 作成されました。 でもextendできないと不便だなぁ・・。
Semper avarus eget
>何が原因でしょうか? RTFM
-lと-Lは違うのだよおっさん
バグみたいよ。
506 :
login:Penguin :2007/10/08(月) 02:43:03 ID:noXEAedN
/dev/hdb1をpvとしてvg1を作っていたのですが、 いきなり物理的に繋ぎ変えてhdb1からhdd1にしたら 認識しなくなっちゃいますか?
PVに当てられた固有IDで認識してるから、デバイス名には依存しない つまり大丈夫ってことさ
>>507 ありがとうございます。何事もないように認識しました。
>>507 LVMに/を配置しているディスクhdaからddでsdaにディスクコピーしてgrub周りを書き換えましたが、
sdaで起動すると/マウント中にカーネルパニックが起きます。(hdaは取り外し済)
レスキューモードではマウントできるんですが、どうすれば起動できるようになりますか?
dd? なんでpvmove使わなかったの
LVMなんて使わずcp -acがお似合いだと言ってやれ
何台も同じパーティション構成のサーバを作るときって、今俺はLVM使ってないので、 予め作っといたパーティションテーブルの情報をsfdiskにぶち込んでパーティションを 切らせてたんだが、LVMで似たようなことをやろうとした時に楽にやれる方法ってある? pvcreateとかvgcreateとかlvcreateとかをタラタラ流すスクリプト作るしかない?
>>513 1台作ったら、ddでメタデータをコピーすればいいんでない?
LVMって複数のHDDにまたがって構築したとき、どれか一台でも故障すると、 全体が壊れて読み出せなくなるんだよね? つまりLVMはRAID上に構築するのが大前提ですか?
>>515 RAIDだって2台同時に死ねばいっしょ。
運用による。
壊れそうなHDDの予兆を察知してディスクを交換するか、
LVMの下のレイヤーで冗長性を確保する。
ストレージを使っていればLVMだけでいいけど、 内蔵とか単なる外付けディスクで組む場合は、RAID併用を考慮しないとね。 VxVMやZFSなんかはLVMとSoftwareRAIDの両方を兼ねているけど。
壊れてないディスクからも読み出せなくなるのか。。。 ファイル単位で記録してるわけじゃないから仕方無いかな。
>>518 ただし残るファイルもあるがな。
だが、250Gのディスクが吹っ飛んだとしたら250G以上の被害があるのは確実
そこは理解して使おう
ま、RAIDのJBODするよりは柔軟性があるってだけ
書いてから気づいたがRAIDのJBODて言い方は語弊があるな
RAID0には違和感は感じないの?
俺は、冗長度ゼロのディスクアレイなので1台故障したら全滅、 と解釈している。
ファイルが不必要にディスクをまたがないような仕組みにしたら ある程度軽減できるんじゃないかな。
それリニアモードじゃね?
リニアとかコンカチ(ネイト)とかいろいろ呼び方があるんだな。
んーRAID5の/dev/md0をまるごとLVMで切って使ってるけど。
fdisk -lの結果が実態とズレてて困ってるんだが、 こういうのってどうやったら修正できる? Device Boot Start End Blocks Id System /dev/sda1 * 1 12749 102400000 7 HPFS/NTFS /dev/sda2 12750 12761 96390 83 Linux /dev/sda3 12762 30401 141693300 8e Linux LVM /dev/sda1は Linux LVMなのだが。
528 :
527 :2007/11/10(土) 18:06:30 ID:75KqCEgM
自己解決しました。微妙にスレ違いでした。
529 :
login:Penguin :2007/11/20(火) 01:30:54 ID:jEvbITJ+
ハードウェア板からきました。 Linux の SoftRaid で インストール時にRAID1を組みました。 md0 -> /boot md1 -> PV (/, swap) この後md2 (RAID1)を追加で作成して上のmd1のVGに追加した後、 lv / を拡張しました。拡張して領域も増えてうまく行ったんですが、 再起動したら、/ が無いとか言われて Kernel Panicになります。 この場合どうしたらよいのか、またなぜそうなるのかがよくわかりません。 SoftRAIDを組んでない場合は / の拡張はうまく行くのですが・・・ よろしくお願いします。
mkinitrdし直した?
531 :
login:Penguin :2007/11/20(火) 08:17:38 ID:jEvbITJ+
>>531 聞いている側はそんなレス期待してない
そういうときは言われたことをやってから、その結果を答えるもんだ
533 :
login:Penguin :2007/11/20(火) 14:48:10 ID:rmTyWI1j
>>530 >>532 ありがとうございました。
mkinitrd でうまく行きました。
オリジナルのイメージファイルから起動するとやはりカーネルパニックに
なりましたが、mkinitrd で作成しなおしたイメージから正常に起動できました。
534 :
login:Penguin :2007/11/26(月) 21:44:37 ID:aR8zYa9e
Vine 3.2でLVMを入れようと思ったのですが、Howtoなど読みながらいろいろと 試行錯誤しているうちに妙な状態(消したはずのVGが認識されたり)になってしまいました。 一旦全部消してゼロからやり直そうと思い、apt-get remove lvmの後 /etc/lvm*を削除したのですが、 その後 fdiskからやり直すと、前回の設定がどこかに残ってしまっているようで、VGが既にある、と認識されてしまいます。 /etc/lvm* 以外に、どのファイルを削除すればスッピン状態に戻ってくれるのでしょうか?
dd if=/dev/zero of=/dev/hd** とかで一旦ディスクをまっさらにしてみては? pvscan が多分勝手に PV を見つけてくれちゃってるせいではないかと。
いや、そういうときはpvremoveを使うのが本式だろう しかしfdiskしてるのに何でVGを検出するんだろな
537 :
534 :2007/11/26(月) 22:43:44 ID:aR8zYa9e
ファイルシステムからは見えない場所に情報が書き込まれている、ということでしょうか? (vgscan すると、「前回作ったVG名」の内容で /etc/lvmtab.d/ および lvmtab か作られてしまいます) なお、Vine 3.2 の LVMにはなぜか pvremove コマンドが入っていません。 /sbin で ls pv* すると出てくるのは以下のものだけです。 pvchange pvcreate pvdata pvdisplay pvmove pvscan ちなみに LVM のバージョンは lvm-1.0.3-19vl1 となっています。 だいぶ古いですね。そのせいでしょうか。
lvm2じゃないのか… 適当なアドバイスですまんかった
fdiskしても同じサイズアロケートしたら前の情報丸々残ってるんじゃ・・・ わかりにくい例だけど windowsでクイックフォーマットしても、復旧ツールで直せるのと同じだと思うよ。
540 :
login:Penguin :2007/11/27(火) 14:09:00 ID:PE+7IEYU
initngってLVMに対応しました?
541 :
534 :2007/11/27(火) 17:07:34 ID:kwFAlWL3
>>539 なるほど。
ということで、一旦fdisk で先頭から数百MB程度の小さいパーティションを作り、これをext2で
フォーマットをかけた後、再度 fdisk で前回よりも少しだけ小さい LVM領域を確保しました。
この状態で vgscan を掛けたところ、今回は VGは検出されませんでした。
ところが、pvcreate -> vgcreate と進んだところで、前回と同じ VG名を指定したところ
「そのVG名は既に使われている、他のを指定しろ」と蹴られてしまいます。
前回だけでなく、これまでテストとかで使った VG名は全部残っているようです。
続いて ddでゼロ埋めしてみましたが、やはり過去の VG名は消えてくれません。
(もちろん vgremove を行おうとしても、「そんな VGねーよ」となります)
こうなるとLVM領域とは別の場所(システム側)に情報が保存されているとしか思えません。
ここで最初に戻ってしまうのですが、/etc/lvm* 以外に LVMの設定が保存されているファイル
というのは存在しないのでしょうか?
/etc 内のファイルは一通り grep してみたのですが、VG名が書き込まれているものはなさそうです。
/proc/lvmにもなさそうですし。(このディレクトリはapt-get remove した際、一度消えてました)
lvm2なら/etc/lvm配下だけなんだが… /varとかに作ってるのかなぁ…
543 :
534 :2007/11/28(水) 20:52:14 ID:L0IMODeH
結局Vineを現行の4.1に upgradeして LVM2入れたところ、何の問題もなく設定できました。 LVM1でのトラブルの原因も解決法も分かりませんが、取り敢えずはヨシということで。 特に問題も出てないのにOSのメジャーバージョンアップって、余計な手間が掛かりそうで腰が引けてたんですが、 結果からいえば LVM1であれこれ苦労した時間を考えると、さっさと upgradeしときゃよかったっつー感じですw お騒がせいたしました。
544 :
534 :2007/11/29(木) 22:06:57 ID:yTYjvc/A
連日申し訳ありませんが、引き続き質問です。 昨日は意図的に小さめのLVMボリュームを作成し、今日はそれを拡張するテストをしました。 (1)昨日余らせたHDDの空間を fdiskで LVM用に確保 (仮に /dev/hdb2 とします) (2)そこにPV作成 → pvcreate /dev/hdb2 (3)昨日のVGを拡張 (VG名を仮に VG_1 とします) → vgextend VG_1 /dev/hdb2 と、ここまでは特に問題なく意図通りに進んだことを vgdisplay にて確認しました。 現在は VG Name VG_1 VG Size 838.00 GB Alloc PE / Size 6128 / 766.00 GB Free PE / Size 576 / 72.00 GB という状態です。 しかし次に LV(仮に LV_1 とします)の拡張を行おうとするとうまく行きません。 lvextend -L 838.0G /dev/VG_1/LV_1 lvextend -L +72.0G /dev/VG_1/LV_1 lvextend -l +576 /dev/VG_1/LV_1 どの指定方法でも Insufficient free space: 6704 extents needed, but only 576 available と表示され、拡張されません(766GBのまま)。 何がマズいのでしょう?
>>544 man lvextend
をよく読め。
まぁ、意図したい操作をするのに一番いいのは
lvextend -l +100%FREE /dev/VG_1/LV_1
かな
あとサイズの指定に小数点の数値は使えなかった気がするな。
547 :
534 :2007/11/30(金) 04:03:15 ID:XRlfEnID
>>545 もちろん man lvextendは散々読んだのですが……
-l, --extents [+]LogicalExtentsNumber[%{VG|LV|FREE}]
Extend or set the logical volume size in units of logical extents. With the + sign the value
is added to the actual size of the logical volume and without it, the value is taken as an
absolute one. The number can also be expressed as a percentage of the total space in the
Volume Group with the suffix %VG or relative to the existing size of the Logical Volume with
the suffix %LV or as a percentage of the remaining free space in the Volume Group with the
suffix %FREE.
-l, --extents [+]LEの数 [%{VG|LV|FREE}]
LVのサイズをLEユニットのサイズで拡張、もしくは設定する。+をつけると現在の LVのサイズの増分、
+がなければ値は(LVのサイズの)値そのものになる。また、末尾に%LVを付けると数値はVG全体中のパー
センテージを表し、%FREEを付ければVGの残りのフリーな空間のパーセンテージを表す。
-L, --size [+]LogicalVolumeSize[kKmMgGtT]
Extend or set the logical volume size in units in units of megabytes. A size suffix of M for
megabytes, G for gigabytes or T for terabytes is optional. With the + sign the value is
added to the actual size of the logical volume and without it, the value is taken as an abso-
lute one.
-L, --size [+]LVのサイズ[kKmMgGtT]
LVのサイズをメガバイト単位で拡張、もしくは設定する。数値の末尾にMを付けることでメガバイト、G
ではギガバイト、Tではテラバイトをそれぞれ表すこともできる。+記号を付けるとLVの現在のサイズか
らの増分を、なければ(LVのサイズの)値そのものになる。
"actual size"を「現在のサイズ」と解釈しましたが、これが間違っていますでしょうか?
548 :
534 :2007/11/30(金) 04:04:21 ID:XRlfEnID
いろいろぐぐって見たのですが、上記の解釈と矛盾するものは見つかりませんでした。
例えば
http://www.docs.hp.com/ja/B2355-60104-03/lvextend.1M.html > 論理ボリュームの論理エクステント数を 100 に増加します。
>
> lvextend -l 100 /dev/vg01/lvol3
>
> 論理ボリュームのサイズを 400MB に増加します。
>
> lvextend -L 400 /dev/vg01/lvol4
論理エクステント(LE)の数というのは、物理エクステント(PE)の価と同じだと理解している
のですが、違うのでしょうか?
> lvextend -l +100%FREE /dev/VG_1/LV_1
> かな
前述の解釈が正しいならば、+0%FREEになりそうですが、違うのでしょうか。
また、%を付けないスタイルでの正しい指定方法はどうなるのでしょうか?
ちなみに、小数点以下は付けても付けなくても同じ結果でした。
549 :
534 :2007/11/30(金) 04:14:11 ID:XRlfEnID
>>547 あ、すいません。
訂正です。
-Lオプションでの%VGと%LVがゴチャマゼになっちゃってますね。
末尾に%VGを付けるとVG全体中でのパーセンテージを、%LVを付けると存在するLVに対する比率を表す
550 :
534 :2007/11/30(金) 04:35:07 ID:XRlfEnID
再度すみません。 remaining の解釈を間違っていました。 a percentage of the remaining free space in the Volume Group with the suffix %FREE というのは「現在残っているVG中のフリーな空間」でのパーセンテージなのですね。 作業後に残る分ではなく。 従って -L +100%FREE は ADD 100% of the current FREE space の意味だと理解しました。 どうもありがとうございます。 あまり使う機会はないかもしれませんが、バイト数での正しい指定方法も教えて頂けるとありがたいです。
>>550 × -L +100%FREE
○ -l +100%FREE
バイト数での正しい指定ってmanに書いてあるじゃないか…
-L [+]LVのサイズ[kKmMgGtT]
てか、うまく行かないなら小さい数字で少しずつ大きくしてみて
確かめればいいじゃん?(使用してなければ)拡張縮小思いのままなんだしさ
めんどいからちゃんと調べてはないけど、vgdisplayで出てくる数値は
読みやすいように丸められてるように思う。
だからlvextendでそのまま指定してもうまくいかない、と思う。
vgdisplay --units b
とかで見てみたらどう?
552 :
534 :2007/11/30(金) 12:20:33 ID:XRlfEnID
>>551 失礼。typoでした。
実は
>>547-550 は問題のPCとは別の場所から書き込んでました。
先ほど実機の方で試してみたところ、結果としてはダメでした。
-l +100%FREE
-l 100%VG
-L 838G
-L 838.0G
-L +72G
-L +72.0G
改めて全部試しましたが、前と同じですべて
> Extending logical volume LV_1 to 838.00 GB
> Insufficient free space: 6704 extents needed, but only 576 available
と出てしまいます。
1行目の内容(と2行目がすべて同じ数値であること)から察するに、どの指定方法も「正しい」ように思えます。
問題は何か別の原因?????
>>544 の手順で、何か間違いがあるのでしょうか?
少なくとも、「空いてる空間を100%使え」あるいは「存在するVGを100%使え」と指定しているにも関わらず、
free spaceが不足している、というのは通常はありえないと思うのですが。
(空き容量がゼロだ、という表示になるならばまだ分かりますが)
Vineだから
554 :
534 :2007/11/30(金) 12:47:10 ID:XRlfEnID
> めんどいからちゃんと調べてはないけど、vgdisplayで出てくる数値は > 読みやすいように丸められてるように思う。 というのは確かなのですが、-Lオプションがそもそも「メガバイト単位で指定」 なので、「丸められた数値」での指定が正しいはずでは。 ちなみに vgdisplay --unit bで表示される数値は > VG Size 899795648512 B > PE Size 134217728 B > Total PE 6704 > Alloc PE / Size 6128 / 822486237184 B > Free PE / Size 576 / 77309411328 B となりますが、lvextend で「バイト単位での指定」を行う方法が存在しません。 最小単位が「キロバイト」です。 そもそもLVMが管理する最小単位はバイトではなくPE or LEであるはずです。
555 :
534 :2007/11/30(金) 12:50:18 ID:XRlfEnID
ということで、LEの数を直接指定してみました。(まだやっていなかった) -l 6704 -l +576 全く同じ表示でした。 > Insufficient free space: 6704 extents needed, but only 576 available 6704が「増分」とみなされてしまうのならば、と -l 576 も試してみましたが、これだと > New size given (576 extents) not larger than existing size (6128 extents) > lvextend: Add space to a logical volume と、「本来の正しい」エラーメッセージが出てきます。 もうお手上げです。
>>552 だから単位の丸め方に違いがあるんじゃないかなって見解示したじゃん
本当は837.99999GBくらいだけど、838.00GBって表示しちゃうのかも。ということ。
!!!憶測でしかないから本当はどうか知らんがな!!!
で、ワークアラウンドとして、小さい量から積み重ねて増やす。
10Gずつとか。何回かやって、そのたびにvgdisplayで残りを確認。
完全にFree PEが0になったら積み重ねた量を足し算してみればいいと思う。
一気に増やすも少しずつ増やすも一緒だ。
557 :
534 :2007/11/30(金) 17:33:33 ID:XRlfEnID
>>556 仰ることは分からないでもないですが、
>>552 に書いたとおり、
-l +100%FREE
-l 100%VG
というパーセンテージの指定方法でもまったく同じエラーメッセージが出る
という点から考えて問題点は別にある(指定サイズの大小ではない)のは明らかと思われます。
と、書くと「やってもみないで」と言われそう wですので、
一応 -L +1K と最小の指定で実行してみましたが、結果はやはり
> Insufficient free space: 6129 extents needed, but only 576 available
となります。
(もちろん実際の最小の増分は1Kバイトではなく、PEのサイズになりますので、
実質 -l +1と同じ指定になります)
>>553 の通り、Vine 依存の問題なのでしょうかねぇ……
本来はこんなに手間がかかる作業ではないんでしょうけど。
困りました。
558 :
534 :2007/11/30(金) 19:13:33 ID:XRlfEnID
実のところ、Vine依存のトラブルというよりは
根本的に LVMボリューム拡張の手順を間違えている
という可能性の方が高いような気がしているのですが。
実際に何度も拡張を経験している方の目から見て
>>544 の手順というのは正しいのでしょうか?
560 :
534 :2007/11/30(金) 20:38:57 ID:XRlfEnID
>>559 なるほど。
リンク先記事では複数HDDとなってますが、実際は複数PVを含む LVは全部 NGなのですね。
(最初の一つ分のPV以上のサイズにできない)
これじゃなんのための LVMか分かりませんね。
(縮小はできるけど、やっぱり主用途は拡張でしょうから)
しかし、もう 4ヶ月も前の投稿なのに、まだアップデートされてないってのが……
Vineなワケですかw
取り敢えず原因が分かりました。
どうもありがとうございました。
わけわかんね、Vine腐ってるんじゃないの? もうそんなディストリ投げ捨てろ って書こうとして自粛してたのだが、本当に腐ってたのかよw
lvm2 Build Date: 2007年12月01日 Dタン..
あれ? ミラーリングはすでにできてたんじゃなかったっけ? ストライピングは無理だけど。
2.6カーネル下でのsnapshotって安定して使えるようになった?
2.6.19 あたりは安定していた。 最近のはいまいち。
>>407 にもあるように
/dev/VolGroup00/LogVol00: The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks
Either the superblock or the partition table is likely to be corrupt!
/dev/VolGroup00/LogVol00: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY.
(i.e.,without -a or -p options)
このようになってしまった場合の解決策ありませんか?(´・ω・`)
physizal sizeの縮小に対して filesystem sizeの縮小がおこなえていないことが原因なのはわかるのですが
具体的にどこで設定できるのかがここ数日挑戦しても解決できません。
どなたかアドバイスいただけませんか(つд⊂)
ファイルシステムをまず小さくしてからLVを小さくしなきゃダメ そもそも小さくできるファイルシステムは限られてる。確か、 ファイルシステム標準のツールで小さくできるのはReiserだけで、 GNU parted で ext[23] も小さくできる、んだっけかな? いずれにしても壊れてしまってるものは運良く復元できるかも しれないしダメかもしれない。
CentOS4.6で SCSI device sdf: 20507805696 512-byte hdwr sectors (10499997 MB) こんなディスクをつけたんだけど、pvcreateすると、 PV Size 9.55 TB / not usable 1.00 MB なんて言われる。0.5TBはどこへ行った?
20507805696*512/1024/1024/1024/1024=9.5497 すまね。 あまりの天使の取り分の多さに気が動転してたようだ。
>>568 ext2,ext3はe2fsprogs付属のresize2fsで小さくできるよ。
作業ミスが怖いからGNU Partedを使ったほうがいいけど‥
partedは最近の拡張に追い付いてこれてるか?
573 :
567 :2008/01/22(火) 05:35:38 ID:KvGSt0M/
レスありがとうございます!
resize2fsを試してみたのですが
resize2fs: Can't read an block bitmap while trying to resize /dev/XXX
とでてしまい次へすすめませんでした。
また、GNU partedというヒントから検索してみたところ
/**ファイルシステム総合スレ その1**/
http://pc.2ch.net/test/read.cgi/linux/1006743807/ こちらの640〜647の下りで似たようなケースを発見しました。
上記のケースではMBMの区画エディタにて復旧できたそうです。が
残念ながら、肝心の区画エディタO&Oのoodlinuxなるソフトウェアの公開が停止しているようで
試すことができませんでした。orz
万策つきた感じでしょうか(T-T
574 :
567 :2008/01/22(火) 05:43:25 ID:KvGSt0M/
O&O Defrag Linux BETAはベータで開発中止、ボツったそうです・・・。
575 :
567 :2008/01/22(火) 06:33:11 ID:KvGSt0M/
すいません、深夜作業でテンパってたみたいです。 上記のケースではMBMの区画エディタを利用したわけですね。 休憩後チャレンジしてみます:)
576 :
567 :2008/01/22(火) 07:55:09 ID:KvGSt0M/
MBM区画エディタではect3閲覧できずorz
MBMに区画の中を見る能力なんてない あんたのスキルじゃあまりに無茶だろ、その作業は、正直
LVMにMBM無意味だし もう諦めろよ
579 :
567 :2008/01/23(水) 09:52:59 ID:FgvqTTFZ
あきらめずにKNOPPIXから vgchage,e2fsck,resize2fs,lvextend,lvreduceを駆使して、 もとのphysical sizeに戻し正常な状態になんとかもどせました。 お世話様でした。m(__)m
良かったな
manみたかんじだと-mと-iでミラーもストライピングもできるってかいてあるんだが ちゃんと使えるならmdadmとかのraid0、raid1、raid10とは機能的にかぶるよね、どっちが良いんだろ? clusterlvmでも-mと-i使えるんだろうか? raid5とraid6も使えるようになればlvmだけでよくなりそうやね
VxVM化するのか。 バグも同じように増えていくんだろうなw
RAID総合スレでも同じような話題が出ているな。 っていうか内部で raid5 とかやっちゃうと、不良HDDがでたときに、 pvmove で健康なHDDに寄せるということができなくなっちゃうんじゃないの? あ、raid5 だから、一台とりかえてリビルドすればいいのか。 なんか頭がこんがらがってきた。
584 :
login:Penguin :2008/02/07(木) 02:47:04 ID:MhI2GJBO
くだ質だったらすみません。 LVM で2個イチにまとめた 500GBx2 のボリュームを2つ使っています。 具体的には /dev/hda と /dev/hdb で /VolGroup00、 /dev/hdc と /dev/hdd で /VolGroup01 を作成しています。 前者を /home に割り当て、後者をそのバックアップ /home_backup にしています。 ここで疑問なのですが、LVM を構成するHDDの一つに障害が発生した場合、 その LVM をバラして各 HDD の内容を救出する、というようなことは可能なのでしょうか いま現在は上述どおりバックアップも取っているのでまだいいのですが、 いずれは VolGroup00 側の HDD も VolGroup01 側の HDD も故障すると思うので、 そういう事態がないとは言い切れません。 どうなんでしょうか? やはり LVM をバラすとそのドライブは読めなくなってしまうのでしょうか。
「lvm 故障 復旧」でぐぐってみれば? 情報はいっぱい出てくるよ。
587 :
login:Penguin :2008/02/07(木) 10:29:17 ID:j9YRu0Ee
どうもありがとうございます。
>>148-156 の大作ですね ←自分のメモ用です。すみません。
ちょっとじっくり読ませていただきたいと思います。
588 :
login:Penguin :2008/03/04(火) 23:11:07 ID:K8yPdd7W
くだらねぇ...。 で相手にさらなかった(長文すぎて)ので質問させてください。 勉強不足なのはわかってますので、ご容赦を。眠くてかなり思考力おちてます。 ぶっちゃけた話、FC4でLVM組んでますが、/dev/hda2に/dev/VolGroup00/LogVol0[01]があったとして、 そのVGとLGを消してしまった場合、元に戻す方法ってありますか? /dev/hda2の中にboot以外とswapのみはいってました。(=LV00,LV01) 最悪LVMでなくても普通のファイルシステムとしてマウントできる方法とかないのでしょうか? LVMの管理情報が消えたときって中身のデータ自体は無事ですよね? 全くバックアップをとってないのというのはあきれてますが、頼まれたら嫌とはいえない性格ですので。 かなりこまってます。 申し訳ないですが、分かる方ヒントのみで結構ですので、お教えください。
FC4を捨ててから出直してこい
まず寝ろ
ないんじゃね?
>>588 dd if=/dev/hda2 bs=512 count=255 skip=1 | strings
これで何も見えなかったら諦めれ。
593 :
login:Penguin :2008/03/08(土) 16:44:17 ID:tl0WRxQT
>>592 レス有り難う。つД`)・゚・。・゚゚・*:.。..。.:*・゚
ちなみに古いPV,LVはのこってない。
ちゅうか、痕跡もなかったです。
で、馬犬 目 ぽ..._〆(゚▽゚*)、データレスキューの会社に頼みましょうっていったら、
じゃ、そうしてって...。
最初からプロにまかせりゃはやいっていってるのに。
本当に(;´ρ`) グッタリ でした。
本当、こんな訳わからんことにレスしてくれて有り難う。
もっと精進します。
SUSE 9から10にあげたんだ。 LVMは1のままだったんだ。 スナップショットとったらLVM関係がうごかねーんだ。 リブートしたらはんぐなんだ。 うわー。
595 :
login:Penguin :2008/03/12(水) 20:33:22 ID:7jQsVz/g
最近やっとLVMの意味がわかった しかしまぁ・・・・いまさらHDをいじるのが怖いw OS入れ替えのときにLVMにしてみます
>>594 いい事いうじゃねえか。
で、やれるんだな?
今すぐ頼むぞ。
597 :
login:Penguin :2008/03/24(月) 17:48:52 ID:xks+NIrR
598 :
login:Penguin :2008/03/24(月) 21:07:48 ID:xwvutk/t
599 :
login:Penguin :2008/03/26(水) 10:27:32 ID:/rbx928m
スナップショットが簡単にできるならと思い、Fedora8で # lvcreate --snapshot --size=1G --name snap0 /dev/VolGroup00/LogVol00 そしたらエラーになった。 Insufficient free extents (1) in volume group VolGroup00: 96 required デフォルトインストールなので VolGroup00はLogVol00だけで空きはない。 HDD追加せずにsnapshot領域を確保するには LogVol00を縮小できればいいような気がするけど、できるの?
FSが縮小に対応していて、もちろん空きがあれば。
601 :
login:Penguin :2008/03/26(水) 14:16:06 ID:/rbx928m
>>600 あんがと、できるかどうかから調べるのはNG時のショックが大きいので躊躇してた。
一応
1. レスキューでmountせずに起動
2. lvm vgchange -ay /dev/VolGroup00 <-LVM有効化
3. fsck.ext3 -f /dev/VolGroup00/LogVol00
4. resize2fs /dev/VolGroup00/LogVol00 34G
-- reboot --
5. lvresize -L34G /dev/VolGroup00/LogVol00
6. lvcreate --snapshot ・・・・
無事 snapshot 領域確保できた。
pvmove中でも普通にpc使って大丈夫なのかぁ。 なんかlinuxはどの作業が危険だとか認識される/されないが分かりづらいな。 クラッシュしても続きからいけるとか書いてるから安心してwebをm
mountされてなきゃただのI/Oよ
>>603 いやマウント中の作業です。
無事終わった。
LVM3開発開始だとか
LVM3はちゃんとバリアが効くようにしてください
607 :
login:Penguin :2008/06/04(水) 22:30:36 ID:n3tY6HIr
LVM(中身はext3)の外付けHDDがあります。 これを別のマシンにつないで中を見たいのですが どうやってLVMをマウントすればいいのでしょうか? 普通だったら nfs -t ext3 /dev/sda /mnt だと思うのですがLVMの場合はどうすれば???
>>607 pvscanしてvgchange -a yしたらいいと思うよ。
609 :
login:Penguin :2008/06/05(木) 17:10:26 ID:JbNBeTqA
nfs?
611 :
login:Penguin :2008/06/05(木) 23:22:00 ID:xuMIbzDB
起動ドライブのVolGroup00をVolGroup99にしたら起動しなくなったのだけれど 助けて
>>611 インスコCDのレスキューモードで起動して名前直せばいいんじゃない?
>>610 >>544-557 あたり読んでみれば?
俺がどうしてもサイズ変更できなくて苦闘したときのやりとりだが。
いろんなパターン片っ端から試してる。
(やってるのはlvextendだが指定方法は同じ)
ちなみに、オチはVineのバグだったとゆーw
>>610 %指定は動かないから実装されてないんだと思ってたよ
gpartedでLVMの入ったパーティションをリサイズ(拡大)したいのですが どうしてもうまくいきません。 もちろん空きはあります。fdiskで新しいパーティションをつくれます。 どうやってパーティションを広げたらいいでしょうか?
>>615 pvresize
でもぶっちゃけリスクを負いたくないなら新しいパーティションをPVに追加するだけでもいいんじゃないかと
LinuxLVMで質問です 起動時、grub> のプロンプトでkernel行のroot= の部分でルートファイルシステムを指定しようと思うのですが、 LVMのデバイス名(vg名やlv名)を忘れてしまった場合、 TABキーやfindコマンドを使ってもルートファイルしシステムがLVMなので補完したくてもできない場合、 Linux のLiveCD等で起動してLVMのデバイス名を調べるしかないですか?
619 :
login:Penguin :2008/06/14(土) 12:58:34 ID:uzvw2+4m
複数ディスクをLVMで1ボリュームにしてガバっと使いたいんだけど LVMのデメリットって何? 1つのディスクが死んだら終わりとか?
多少のオーバーヘッドがあるくらい? あとトラブル時に対応できるスキルがないとダメなくらいかな? よくわかんないけど。
ゴミどもめ
622 :
login:Penguin :2008/06/14(土) 20:08:31 ID:ae9YVSGi
オーバーヘッドだけ? 束ねたディスクのうち1台が死んだらどーなるの?
全滅
上がってるから何気に開いたらこのスレ2002年からあるのか…
>>619 動的に容量を増減できるところはメリットかなぁ
>>622 LVMは普通RAIDと一緒に使う。
RAIDの上にLVM。
一つのディレクトリに2箇所からmountすれば 単一のボリュームとして扱われると信じてたころが懐かしい 2箇所からリンク引っ張って合体とか・・・ そういう仕様で作ってくださいとエロい人にいいたい RAIDの上にLVM必至とか、安全なんだか危険なんだか 便利なんだか面倒くさいんだか全然わかんねーよ そんな理由でLVMに踏みきらない人は多いはず
漏れも漏れも 使ってるトリのインストーラの標準がLVMだから 切るのまんどくさい。つーかやめていただきたい。
>>626 世の中のUNIXサーバーは、内蔵ディスクに「RAIDの上にLVM」なんてことは
しないが。
LVMミラーリングでRAID1を構成することはよくあるが。
俺のRHEL5はインストール時RAID5の上でLVMしてる… コレって普通じゃないの?
>>630 UNIXサーバとやらだったら
ハードウェアRAIDがデフォルトなんじゃないの?
別にデフォルトではないよ。
というか、カードタイプのハードウェアRAIDなんかまず使わん。
ハードウェアRAID使ってるのなんて、PCみたいな廉価なサーバーぐらいしか 思い浮かばん・・・
最近のUNIXサーバは内蔵ディスクでハードウェアRAIDに対応しているものが多いと思う
HPでもSunでも
ただ
>>626 は外部ストレージのことを言ってる様な気がする
>>636 > 内蔵ディスクでハードウェアRAID
?
>>637 マザーにRAIDチップが載ってるタイプのことと想像。
言っちゃうぞ。 まだスナップショット駄目なんだってな。 素直に evms にしときゃあ……くっ……
641 :
login:Penguin :2008/07/27(日) 03:15:50 ID:RwYz5TZf
LVMを構成しているHDDのうち、1台が故障したとき、 LVMで構成したファイルシステム全体が見えなくなるのでしょうか。 それとも、一部のファイルのみが見ることができなくなるんでしょうか?
ちょっと検索すりゃ すぐ出てくる話だと思うが
643 :
login:Penguin :2008/07/28(月) 06:10:17 ID:vcSXj+Qj
LVMに経験ある人の話を直積 聞きたいから来たわけだが
644 :
login:Penguin :2008/07/28(月) 06:29:35 ID:vcSXj+Qj
とだけ書いても会話になりそうにないから付け足して書けば、 僕の予想では、LVMの上に構築するファイルシステムの種類によって違うのだと思う。 ファイルへのインデックスが書かれている番地が偏在しているようなファイルシステムで インデックスがたまたま位置したHDDが故障すれば全部が見えないこともあるし、 逆の場合は、大きなバッドセクタのようになり、ファイルが虫食い状態になる。 そう考えていいのですか? それとも、LVMシステムがボリューム構築に利用する情報がHDDの障害に脆くて HDDが1個焼失してもLVMが機能しなくなるのでしょうか・・・。
ちょっと検索すりゃ (LVMに経験ある人の話が) すぐ出てくる話だと思うが
>>644 LVMはファイルシステムから見たらただのブロックデバイスだよ。
647 :
login:Penguin :2008/07/29(火) 06:42:34 ID:lGh89x8f
例えばHDD10個をつなげてLVMを作れば、どこかで故障が起こる可能性は10倍に増える。 対障害性能があるRAIDと組み合わせて(2重化として対障害は積算か)も、効果が相殺されて厳しい気がする。 だけど10個つなげばLVM全体から見ればHDD一つは1/10の故障となるから故障規模は小さくなるわけで 結局RAID+LVMを構成するかしないか決断がつくには、 1個のHDDの故障が、どれだけのデーターの損失波及するかによるよね。 物理的損失より必ず論理的な情報損失のほうが大きくなるわけで、 一つはLVMシステムが持っている管理情報がダメージを受けること、 もう一つは上に構成したファイルシステムに障害がおこりダメージが派生することだ。 すなわちLVMやファイルシステムの障害が個別のデーターではなく、それ以上にデーター全体の整合性に波及することが 怖い。 その辺のから解脱できたひといたら語ってほしい。
> 例えばHDD10個をつなげてLVMを作れば、どこかで故障が起こる可能性は10倍に増える。 基本情報処理から勉強し直したほうがいいよ。 それと、「データー」って何?
135から読み直せ
実際には、モノの故障率によって変わってくるけど、まあ10倍でいいよ(笑)
651 :
login:Penguin :2008/07/31(木) 13:47:14 ID:jh4IJeuA
>>648 稼働率0.9のHDDを10台用意し、それらで一つのボリュームグループを作ったら、
LVMの稼働率は0.9^10になります。
>>648 >>650 お前らなんでそんなに不親切で知ったかぶりな態度をとるんだ?
そんな小馬鹿にした態度をとる暇があったら答えを書けよ答えを。
ああ、つまり、答えを知らない初心者君が同じ初心者をいたぶっているだけか。
二週間遅れのツッコミ乙
やっと勉強して帰ってきたらしい
ソフトウェアのストライピングが微妙な件
スレ違い?
単にインタリーブしてるだけだしな
660 :
login:Penguin :2008/09/25(木) 14:46:51 ID:m/JW7tpN
lvm 使うか普通にパーティション切るかで考えてるですが、 将来HDD交換して増量させたい場合は、lvmの方が良いんでしょうか? lvmならパーティションのように困らず 自由に領域を変更できる、みたいなのがウリな気がしますが、 結局Gpartedとかでパーティション増やせるし変わらない気がします。 そこのところどうなんでしょう。 これまでlvmを使ってきましたが、 gpartedなどが対応していないため、 部分的にコピーしたい場合など非常に不便に感じています。 ああ、これパーティション切ってたら、パーティションコピーして 終わりなのになあ・・・みたいな感じです。
おれはlvm使わないなぁ。メリットがわからん。
交換して増量するなら大してかわらないだろう 追加して増量するときに威力を発揮すると思うんだが・・・
>>660 HDD交換で増量ではなく
HDD追加で増量のときにメリット大。
ただ、普通に足したらHDD故障時に面倒になるんで
大抵の人はRAIDと組み合わせて使ってるのでは。
RAID + LVM + XFSの組み合わせが
容量変化の要求に対して柔軟に対応できて
かつ安全な組み合わせだと思うが。
こういったメリットが分からない、
あるいは、そのメリットが不必要な人は
別に無理して使うもんでもないと思う。
ヲ 一部カブった
HDなんて揺らさずに冷やしまくれば10年は壊れない。 と最近思えてきた。
うちのサーバも663の組み合わせにしてるけど、 XFSだと容量を減らせないのが場合によっては扱いづらいかも。 元々は多数のストレージデバイスをうまく抽象化したり、 容量割り当てを固定化しないためのものだから、 660みたいな容量ぎりぎりでやりくり(?)するような使い方は LVMとしては想定の外だろうね LVMを使う場合はその複雑性とつきあう必要も出てくるから、 小規模なら使わない方が良い場合も多いだろうね。
おれはsnapshotが便利だから使ってるよ。
>>669 GoogleのHDの使い方と、一般人のHDの使い方は違うから
一概にそうも言えないと思うが。GoogleのHDは環境によるダメージを
受ける前に別の要因で死んだ可能性もあるし。
故障については個人的な経験のみで語ると恥をかく
俺の脳みそを拡張するには どのようなコマンドを実行すればいいでしょうか?
>>669 頼むからその手のデマをばらまかないでくれ。
グーグルのはサーバルームで冷却されてるのが前提だ。
>>674 で、君はどんなデマをばらまきたいのかな?
>>675 意味不明だな。グーグルのアレを出して「HDDは高温でも大丈夫」と
言いふらすのは有害なデマだって事だ。アレを持ち出す奴はみんなそう。
だが実際は、「(サーバルームの温度範囲において)寿命と温度との相関はない」。
異論があるならどうぞ。
>>676 誰がそんな事を言いふらしているのだろうか?
やはり君が少しおかしい人なだけだろ
>>676 サーバルームの温度範囲を越えた場合のデータってある?
>>676 グーグルのアレを出して「HDDは高温でも大丈夫」と
言いふらしているやつがどこかにいるのか?
お前の脳内に聞こえてくる声かもしれんがそれがデマだよ。
680 :
676 :2008/10/02(木) 20:33:06 ID:twJATkUN
忘れてた。
>>678 当のギガジン記事にもこうある。
> ただし、ハードディスクの温度が50度を超えるような環境であれば、故障率は如実に
> 上昇しています。これはハードディスクのメーカーも推奨していない温度なので
> さすがに当然か。
>>680 わかったわかった
君が病人なのは良くわかった
たぶん幼い頃に御両親が君の温度管理に無頓着だったせいだろう
結局、誤魔化しかよw クズだなあ。
誰がクズかはスレを見た人が判断してくれるだろう
このスレには揺らさずに冷やしまくったら、儲からなくなる人が(ry
今北
>>680 温度に関しては異論はないというか同意見なんだが……言い方が高圧的すぎて損してるよ。
WziukuCxはクズだろうが。
>>674 が意味不明なだけだろ。このスレでデマばらまいた奴がいるわけでもないのに、
いきなりやってきて過去の別スレの敵と戦ってるんじゃ病気と思われても仕方がない。
本人自身、「当のギガジン記事にもこうある」つってるんだから、
Gigazineの記事をリンクするのはデマばらまきじゃないことははっきりしてるわけで。
元になった
>>665 は明らかに温度の低いほうの話。
だから gigazine の記事で google の例をひいて反論するのは正当。
誰も 40 度超える高温の世界の話はしていない。
頭の温度管理が壊れた
>>674 が一人で明後日の方向で吠えてるだけ。
吠えてる内容が間違ってないことに大して意味はない。
>>680 >HDなんて揺らさずに冷やしまくれば10年は壊れない。
常温であれば「冷やす(冷やしまくる)」ことには意味がない。
常温であれば故障率と温度には相関がないからだ。
意図的に振動を与えたり、高温の状態にすることは考慮していない。
あくまでも通常の使用状況を想定している。
つまりHDを揺らさずに冷やしまくれば10年は壊れないなんて保証はどこにもない。
冷やしまくっても、常温に置いておいても、どちらも明日には壊れる可能性がある。
「HDなんて揺らさずに冷やしまくれば10年は壊れない」というのは間違いだ。
ギガジン記事のURL貼ったのはそういう意図だよ。
いい加減 余所のスレでやってくれないか
LVMってUSB外付けHDDも対象にできるんだっけ?
ブロックデバイスなら何でもいいような気がする
694 :
login:Penguin :2008/10/14(火) 10:07:10 ID:FyQEQmkb
LVM で構成しているHDDの物理的な引越しについて質問。 現在、machine1 に搭載されている4台の SATA な HDD があります。 この4台は、2台ずつLVMが組まれていて、2つのボリュームとして利用されています。 これを、新規に導入する machine2 に、丸ごと引越したい。 現在の machine1 上での組み合わせのまま、machine2 に物理的に搭載し直し、 machine1 の /etc/fstab に書かれている通りの内容を、machine2 の /etc/fstab に記述すれば、 まったく同様に認識されるものでしょうか? もしそうでないとすると、これらの HDD はどのように物理的に引越せばいいのでしょうか?
vgexport して vgimport で良いんじゃないの
>>694 まったく同様に認識されるから移設すればいいだけ
デバイス名が変わってもLVMが吸収してくれる
>>694 Red Hat系ではinitrdを作り直さないと認識しないから注意
ストライピングしたい場合、LVMの機能でやるのと、LVM+raidtoolsでやるのではどちらが速いですかね?
md/raidtools 餅は餅屋
thx。 あ、でもLVM上にraidtoolsでRAID0した場合って、LVを拡張/縮小したい場合はオンラインで出来るのかな?
raidtoolでつくったらいd0ボリュームの上にlvmボリュームを作るべきではないか
RAIDとLVMの役割分担を 何か勘違いしてる感じだなw
そっか。順番を逆にしたらいいのか。
LLVMじゃドライブの一つが欠損したらどうにもならないだろうと思って RAID1+LLVMの組み合わせを作ろうかなと思ってるんだけど、どうなの? 無駄?
LLVM?
LowLevelVirtualMachine たぶん誤爆だと思うんだが。でもRAIDが出てきてるしようわからん。
このスレで質問してるんだからLVMのことじゃねーの?
1). /dev/sda1 + /dev/sdb1 とで /dev/mapper/VolGroup00-LogVol00 を、 2). /dev/sdc1 + /dev/sdd1 とで /dev/mapper/VolGroup01-LogVol01 を作成し、 1). をオリジナルとして、2). をバックアップとして、毎日完全に同期させています。 もし仮に 1). に異常が発生したとき、/dev/sda1 と /dev/sdb1 、 つまり /dev/mapper/VolGroup00-LogVol00 を外し、 /dev/sdc1 を /dev/sda1 に、/dev/sdd1 を /dev/sdb1 に繋いで、 /dev/mapper/VolGroup00-LogVol00 とすることはできるんでしょうか?
710 :
login:Penguin :2009/01/28(水) 23:14:46 ID:auWKhnPP
図で頼む
>>709 正直、
lvm(raid1(sda1,sdc1)) + lvm(raid1(sdb1,sdd1))
でLVM+MD構成にしたほうがよくね?それなら繋ぎ替えとかしなくても
そのまま片肺で動くし。
>>711 709は、ハード障害よりも、OS/AP/ユーザ操作によるソフト障害のリカバリーを心配してるのかも
LogVol01 を LogVol00 にしたいだけなら、単純に lvrename で済んだりしないかな。 あと、 LVM は各 PV を UUID で見てるから、 sdc が sda に変わっても構成は変化しないと思う。
dumpでバックアップ用にLVMでsnapshotを作ろうとしたんだけど、
空き容量足りない、みたいにいってくるんだけど、
もしかしたら、HDDの空き容量がないとsnapshotは作られないんでしょうか?
$ sudo lvcreate --snapshot --size=1G --name snap0 /dev/my/home
Insufficient free extents (0) in volume group my: 256 required
って、もしかして
>>599-601 と同じ現象でしょうか?
さすがに運用してからリサイズすんのは怖くて無理だなあ orz
運用がひと段落して時間空いたらリサイズすることにするか・・・
FSに割り当ててない空きがないとそりゃ無理だろ
>>715 うん・・・そうだよね。
最初にそれいってよ!ってことなんです orz
LVMの意味ねえ・・・。
RedHatのインストーラはデフォルトだと全領域をロジカルボリュームにしてしまうからな
SUSEもだ
LVMって定期的にディスクアクセスする? なんかカリカリ言うんだよね…
メタデータのタイムスタンプ更新とかじゃね
LVMのパフォーマンスが出ずに困ってます。 ソフトウェアRAID5(SATA500GBx6)のhdparm -tの結果が /dev/md0: Timing buffered disk reads: 958 MB in 3.00 seconds = 318.90 MB/sec このmd0を全領域そのままLVMに割り当てると /dev/vg01/data: Timing buffered disk reads: 292 MB in 3.02 seconds = 96.80 MB/sec こんなもん…? 特にカスタマイズしてないgentooのLVMパッケージそのままなんですが。 Core2Duo(x86-64)、kernel2.6.27です。 チューニング次第でもうちょい速くなるでしょうか。
lvcreate --contiguous y
LVMで構築されてるルートファイルシステムの入ってるディスクを 交換したいんだけど、手順がわからん。 /dev/hda 壊れそうな起動ディスク /dev/hdd 新しく起動ディスクにするつもりのHDD /dev/hddにディスクを追加して中身をコピーして、そのあと /dev/hdaのハードディスクを捨てて、/dev/hddにあったHDDを /dev/hdaに差し替えて、ここからの手順が不明。 /etc/lvmの下の設定ファイルとかの取り回しもよくわかんね。
やったことないけど、 適当にknoppixとかで立ち上げて ddして差し替えるんじゃダメなの?
はやいところZFSでもHAMMERでもBtrfsでもいいから標準になってくれたら md+LVMの上にFS作ってとかいう三重苦から解放されるのに。
RAID箱買えばいいのに..
RAID箱とかカードとかは予備も含めて買っておかないと痛い思いをするからなぁ。 仕事で使うのならともかく、家で使うような鯖ならそこまではとても…。
>>726 RAID箱だとLVMやFSが不要になるの?
すごいね。
字面しか追えないお子様ですか。それとも非ネイティブ?
730 :
login:Penguin :2009/04/02(木) 13:36:02 ID:l22LEMmy
LVMで構成しているHDDからデータを抜き出したいのですが、 誤って論理ボリューム(LV)を削除してしまいました。 復旧させる方法があれば教えてもらえますでしょうか。
RAIDとLVMの関係がいまいち分からんかったので実験してみた。 sda1┐ sdb1--md0(RAID1)--pv0--vg0-----lvol0 └--lvol1 この状態で、sdaを破損させた。 結果は、普通にlvolにアクセス可能だった。 つまり、物理ディスクの故障はRAIDのボリューム(md0)で吸収されて、 その上位のpv〜lvolには影響ないって認識でOKなのかね
当たり前じゃんww
当たり前じゃんww
LVMを好んで使っている奴なんているの?
731面白いw それダメだったら何のためのRAID1なんだよw
738 :
731 :2009/04/06(月) 22:54:42 ID:D6ic0j5B
>>732 >>733 >>735 過去レス見てて、RAIDとLVMの組み合わせが何回か話題になってたけど、いまいち理解できなかったんだよwww
おかげでやっと理解できたよwww
実際に自分で試してみるのは重要だと思う。 いざっと言う時の不安も減るし。
いざって言うときの話ならZero fillするなりブランクディスクと交換するなりしてちゃんと復帰までできるか試さないと意味がないぞ。
741 :
login:Penguin :2009/06/19(金) 12:17:03 ID:wDgygRt1
LVMで新しくファイルシステム作ったらOSリブートしたほうが良い?
>>737 アンマウント無しに安全にpvmove出来るようになったのはつい最近
RHELやCentOSでは未だに出来ないはず
それはそれとして、せめてgrubのinstallはやらんとマズイでしょ。いろいろと。
いまどきWindowsだって再起動は不要だ。
再起動が必要なのはWindowsの制限だけじゃないぞ
使用中のディスクのパーティション構成を変更した時は 再起動が必要だったような。LVM関係ないけど
partprobeぐらい使えよ
750 :
login:Penguin :2009/06/24(水) 19:00:48 ID:BRl/h1nk
新しく論理ボリューム作って mkfsでフォーマットしたあと マウントしたら中身消えたんだけど何で?
アナタニホンゴワカリマスカ
mkfsでフォーマットしたあと
753 :
login:Penguin :2009/06/24(水) 21:06:38 ID:aCF67bw3
携帯から書いたから文章打つの面倒で。どうもすみません。 たとえば mkdir /test でディレクトリを作成して適当なファイルを作る。 ↓ lvcreate で/dev/VolGroup00/LogVol07 作成 ↓ mkfs -t ext3 /dev/VolGroup00/LogVol07 でフォーマットしてから ↓ mount /dev/VolGroup00/LogVol07 /test/ で/test をマウント ↓ /test の中身消失。 って事なんだけど・・・・なんでだろ
自分で消してるから。
アンマウントしたら復帰するはず
/test をマウント じゃなくて/testにマウントだろ?日本語教えたろか?
>>753 umount /test/
find /test/ -type f -delete
760 :
login:Penguin :2009/06/24(水) 22:49:20 ID:aCF67bw3
そうか俺が馬鹿だからダメなんだな。 叱咤激励ありがとさん
ネタだと思いたい
これはひどい
763 :
login:Penguin :2009/07/10(金) 22:43:44 ID:IJ2is51O
スナップショットは取得元と異なるVGに保存することは可能でしょうか?
765 :
login:Penguin :2009/07/15(水) 22:09:41 ID:2C0YOuic
ということは、例えばVG01に登録されているPV=物理ディスクに 何らかの障害が発生し、復旧不可能になると、スナップショットは意味ないの? 別のVGに保存できるなら、元データがふっとんでも、復旧できると思ってました。
扱う問題のレイヤが違う。 コンポーネントデバイス(物理ディスク)の障害はRAIDとかそこらへんの仕事。 LVMはあくまで記憶領域の柔軟な運用が目標
つか、そもそもスナップショットがどういうものなのか誤解してるぞ。 なぜスナップショット領域が元のデータ領域の 1割とかで済むと思ってる? スナップショットは「バックアップなどを取るために」ある時点での状態を記録したものだ。 それを対象にdumpなどを使ってテープ等の「他のデバイスに」バックアップするのが使い道。 元のファイルのコピーではなく単なるリンクなんだから 元のディスクが死ねば当然リンク先の本体がなくなる訳で復旧なんか出来るはずがない。
LVMってなんなのさ? HDDのストライピングなの? 領域移動が楽なフォーマットって感じのもの?
メリットが明確に理解出来るまで使わなけりゃいい
>768 ぶっちゃけ、ストレージの仮想化の一手段。 まぁ、仮想化と言っても色々なレベルがあるけどな。
複数のボリューム(まあHDDと読み替えてok)を束ねて一つの仮想ボリュームと看做せるから、 HDDの増設や追加でいちいちデータを移動したりしなくても、 単一のボリュームに追加で容量を増やして行けるとか、個人レベルでも結構応用が利くのが利点。 単一ファイルでも物理的な配置をストライピングのようにクラスタ単位で複数のHDDに振り分けたりはしないから、 仮にHDDの中の一台があぼーんしても、読み出せなくなるのはあぼーんしたHDDに記録されていたファイルのみ。 そういう意味ではストライピングほど深刻ではない(どれか一台あぼーんしただけでもボリューム全体があぼーん確定)けど、 元々冗長性や安全性を期待して使う類のものではないから注意。
>>769 あ、いや、そのCentOSで任せるとLVMで作ってくれるので・・・
>>770 なるほどね、HDDの仮想化ね そう思ったらなんとなくつじつまが合うかもw
>>771 あぼーんしたHDDとまだ生きてるHDDで
生きてるHDDをext3とかでmount してファイル救出ですかね?
ちょっとGoogってきます
みなさまdクスですた!
>>771 マジ?片方死んでも生きてるディスク上のデータ助かるの?
データとしては残っててもFSが不整合になるから サルベージ技術無い限り結局は望み薄
775 :
login:Penguin :2009/07/21(火) 23:37:41 ID:ne/05ljE
ディスク拡張がラク、スナップショット便利てこと以外に利点。 スナップショット不要、さらにアレイコントローラで、物理ディスクをLU(RG)で纏める場合、LVMの必要性がよくわからん。 ディスク追加する際はLUに追加すればいいんじゃないのと思ってみた。 LVMあんま使ったことないから、混乱してきたな。。
776 :
login:Penguin :2009/07/21(火) 23:39:57 ID:ne/05ljE
↑最初の文章おかしいまま、カキコしてしまいました。 利点は二つだという事を言いたいだけです。
スナッポショト取れてもMBRからの復旧ができる?
>>775 HDDが内蔵の少数の個数とかって運用なら
メリットはほとんどないだろうね。
LVMの実力が本当に発揮されるのは
もっと大規模な運用なときなんだよ。
ボリューム構成の柔軟性が格段に増す、ってのが最大のメリット。
だから
>>769 が現実的な答えだと思う。
最近デフォルトでLVMアリにしちゃうディストリが多いようだけど、
正直、デスクトップユーザには面倒が増えるだけで不要だと思う。
アレイコントローラなんて持ってないご家庭仕様のファイルサーバで使ってるが SATAディスクを3つ4つとスケーラブルに増やしていけるから便利だよ。
家庭内ファイルサーバで、どうしても単一のボリュームを増やしたり減らしたりしなきゃいけない って状況はあまりないのでは? (もちろん絶対にないとは言わんが) 普通は新しく買ってきたHDDを既存のディレクトリ下のどこかにマウントしてやるだけで事足りるし その方がいろいろ楽だと思う。 前に出てたけど、ドライブ故障のときとかデータ損失の危険が増えるだけじゃね?
確かにね。 だから俺はRAID5で組んでるよ。 1TBを4発で実質3TBの単一パーティション。 そしてsambaでSMB共有として使ってるから Windowsからの容量管理を考えると単一パーティションの方が楽なんだよね。 いちいちサーバ側でマウントポイントごとの容量を確認するのも手間だし、 かと言ってWindows側でドライブレターが複数になるのも煩雑だし。 なるべく安楽にメンテナンスフリーで使いたいと思ったらこうなった。
>780 面倒なのはHDD partition-RAID-LVM-FSの階層手順が深すぎるからだからね。 zfsやbtrfsみたいな階層ブレーカーを使う様になると、HDDはむしろ纏めちゃった 方が楽ってことになるんだけどさ。
先月だかのソフデ誌のZFS特集見て ええな〜と思っただよ。ほんと。 現状だとマウント可能になるまでやること大杉。 ライセンス変更してなんとかLinuxカーネルに 組み込めるようにしてくれんものかな。
ディスク1台のみのデスクトップ用途でも便利。 /homeが足りなくなってきたが/はガラガラなんてことは結構有りがちで、 そういう時に比較的楽にパーティションサイズを調整出来るのが良い。
オンラインでリサイズするの怖い。
このチキンが!
あーアンカミスッタ orz
×
>>758 やぱ、こえぇよな
>>786 バクうpが万全な方でしょうか?
>>785 やぱ、こえぇよな
>>786 バクうpが万全な方でしょうか?
つーかバックアップがテープの人っている?
やぱ、いらっしゃいますか。。。
高いし、ワカメが怖いし
テープ以外になんかいいのないですかね?
LTO3ならそう簡単にはワカメにならないですか?
>>789
ちっとは自分でぐぐれよ
ジャムるってどんな粗悪品だよ ヘリカルはクソだがね
>>784 そうなんだけど、現状だと
・一番手間がかからない/のみの1パーティション構成にする人が多い
・LVMしても、その後でファイルシステムをリサイズするのを怖がる人が多い
ということでなかなか普及しませんな。
そういう俺もディスク3台程度でLVMはやめとこうとなって、
一番近いLVM的用法なんてVMwareの仮想ディスクをリサイズして
C:\の容量が足りなくなったWindowsのパーティションを拡張したことくらい。
個人用途だと中々LVMの出番が来ない。
会社だとLVM+iSCSIとかでディスク仮想化便利に使ってるけど。
snapshotの為にLVM使ってる。
LVMの利用意義がなんとなくわかってきたw >・LVMしても、その後でファイルシステムをリサイズするのを怖がる人が多い これってもっといい方法ないのですかねぇ
>>795 ディスク追加して、ちょいとマウントしてやれば、簡単に増やせるよ!って方式の
「もっといい方法」がLVMだと思ってたんだが、違うの?
>795 > これってもっといい方法ないのですかねぇ そこら辺を改善しているのがzfsやbtrfs。
LVM使うのが怖い人は、VMWareやVirtualBoxなどの仮想環境でいじり倒して みるのがおすすめ。
>>795 パーティション操作ツールの方が便利
DiskDirectorSuiteとかね
それにLVMはディザスタリカバリとか考えると・・・ねぇ
イメージバックアップソフトでLVM対応したものは無い
無理やり取ってもセクタイメージになるからサイズがでっかくなる
システム領域にはLVM使いたくない
ZFSにしてみるかなw
ディザスタリカバリしたければ DRBD + LVM2 もいいだろう。
ファイルシステムリサイズ恐怖症は一昨年卒業した。
そして慣れたころに油断してファイルシステムごと吹っ飛ばす。 いつしか動いて当然、という気になって、バックアップとか取らないで やっちゃうんだよね。
HDDを増設したところ従来のHDDのデバイス名がsda → sdbにずれてしまい、 今まで使用していたLVMのVG/PV/LVが認識されなくなってしまいました。 (もちろん新しいHDDを外して、旧HDDをsdaとして起動すれば認識されます) この場合の「正しい」再認識手順ってのは、どういうものでしょう? いや、実は最初 pvdisplay やっても全く見えてなかったんですが、 pvchange(使い方がよく分からん)をオプション変えて何度か実行してたら、 全部エラーだったくせに、いつの間にかVG/PVが見えるようになってたもんで。 # その後 lvchange -a y LVパス で正常に使用可能になりました という訳で、取り敢えず解決はしたけど「正しい手順」が分からないとゆーw 再び同じ状況になったときのために、どなたかご教示ください。
>>804 pvscan
vgscan
lvscan
DVDから最小インストールしたFedora11でvgremoveを使用すると Volume group "VolGroup" not removed Command failed with status code 5. と出力されます 原因としては何が考えられるでしょうか? 心当たりのある方ヒントをお願いします
ググり方が悪いのかいまいちわからない よかったら教えてもらえませんか?
その二行しか出力されないの? それより前に何行も出てたりしない?
既存のLinuxサーバに1TB*2のディスクを増設してRAID1を組み、 1TBすべてをLVMの領域としようと考えています。 このときにパーティションを - 1TBのおおきなパーティションにする - 500G*2等、分割しておく の2つでなにか違いがありますか? 全体をLVMにするので最終的には同じなのですが、障害時や運用上、 パフォーマンス上でなにか良い点、悪い点はありますか?
812 :
login:Penguin :2009/08/13(木) 22:15:23 ID:rZrZs/Jn
LVMって複数のHDDを1つのHDDみたいな感じで扱うって認識でいるけど 複数HDDでLVMを組んだ場合にHDDがどれか1つでも壊れると全滅ってこと?
盛り土した上に高速道路作るみたいだがw PVを跨がないようにLVを作ればよろし
814 :
812 :2009/08/14(金) 01:16:19 ID:9/vKw7tC
>>813 ありがとうです。
これってPVとかまたがっている状態でHDDを抜き取ったらダメだけど
逆に抜き取ったHDDからはデータが読めないから盗まれないって解釈でもOKですか?
HDD3個あればRAIDとLVMを組み合わせて抜き取られてもデータが読めず、1個壊れても問題ない
っていうのが作れるんじゃないかと考えております。
mdで3玉RAID5とかして、それをPVにするのね いいんじゃないかね、2玉持って行かれるとアウトだが
1個抜かれるなら2個でも3個でも抜かれるよね? PVまたがらないでLVつくるってのはPVとVGを1対1対応でつくるてこと?
律儀に1玉抜いて帰る泥棒も居ないと思うがw
1VGに3PV入ってても、lvcreate時にはPV指定できるから
PV跨がないでLV作成は可能
PV跨いでないならDISKブチ壊れた時でも全部パーにはならないで
何とかなる
>>135 な人が追試している
>>817 RAID5のアレイからそれぞれ1玉ずつ抜いていくのは、
間違いなくプロの犯行ww
819 :
login:Penguin :2009/08/14(金) 15:19:19 ID:q89o8hhF
PEの大きさ決める時って何か基準とか目安みたいなものあるんでしょうか? 小さい方が無駄が少なそうだから4Mとかにしたりしてるんですが。
あ、ごめん。 これ LVM1 の話で LVM2 では制限なくなってるっぽい? ずっと64MBとか指定してたけど、LVM2だともっと小さくていいのか。
>>817 ありがとう。
135からのはすばらしい資料。お世話になりたくないけど。
LVM+RAIDのような仕組みがあればいいのに。
LV作るときに
- ストライピング数
- 冗長化数
- サイズ
が選べる。
PVレベルで物理的なHDDの構成を認識していて、データの保存先を
うまく分散してくれる。
あとから設定変えられて、ストライピングが不要になったら減らせる。とか。
期待している機能がよくわかんけど Storage Foundation Basicが使えるなら試してみるといい こっちはこっちでややこしい機能満載
期待している機能がよくわかんけど ZFSも試してみるといい
FUSE経由のzfsは耐障害性の確認には使えんだろ
そもそもパフォーマンス的にFUSE経由のZFSなんて論外だろ
試して気に入ったら Solaris に移ればいいんだよ
Linux板でOSを変えろなんて意見は愚の骨頂
そうだな。 Linux板ではまずLinuxありきだし。
別にいいんでね? 普通の人はOSを使うのが目的ではないんだし。 LinuxでできることのほとんどはSolarisでもできるだろ。
>>831 Solarisなんかに変えたらzfsは良くても他で苦労するだろww
んーなこたーない。
Solaris厨ウザいな。巣に帰れ
デスクトップ用途ならともかく、
ファイルサーバ用途だったら別にLinuxでもSolarisでもいいんでね。
この場合、ファイルシステムにZFSがネイティブで使えるってのは
Solarisの最大のメリットであることは確か。
なんでもかんでもLinuxでやらなきゃ気が済まん
というのは正に厨な発想だな
>>834 現実的にいいとこ取りでいこうぜ。
ZFSは別にSolarisの長所ではあるが最大の長所でもなんでもないとか他にもあるけど
スレ違いで板違いなので細かくはツっこまない。
LinuxでLVMをやりたい人のスレであり板であるわけなのでどうも…。
私もSolaris使いではあるんだが、ちょっと
>>835 は空気嫁。
>>836 >>823 からの流れで
そういう機能が必要なら別のOSに移るという選択肢もあるよ
と紹介してるだけだが。
もしLinuxでのRAID + LVM + FS という多層レイヤ管理に本気でウンザリしてるなら
別の選択肢を考えてもいいんじゃないか。
そんな話を出すのもいかんのかな。
LinuxにはLinuxの利点が沢山あるのは承知した上で。
あと、「最大の長所」と書いたのは「この場合」という前提が付いての話な。
「それがSolarisの最大の長所」と書いたつもりはないんで。
あ、いや 伝えたいことは書いたんで もう去るわ。
書き捨てするならチラ裏に書けや
自分の好まない話題が出されると出て行けと言い 出て行くと書けばそれを書き捨てと言う 実に夏休みって感じの展開だねぇw
論理も何もない支離滅裂な文章しか書けない池沼はさっさと病院に戻れよ
>>837 なんか超漢字の信者思い出した
Win3.1よりもOSとして優れてる!とか言ってたけど
でアプリは何が動くの?って訊くと黙っちゃった……
アプリケーション含めて初めて役に立つんだと思うな
有償ソフトで固めるならまだしもオープンソースソフトウェアをガンガン使うプラットフォームとしてはアリエナイ
お約束守ってないし色々互換性の問題あるし
>>842 ん〜
「ファイルサーバとして使うなら」って前提で書いたんだけど。
samba とか ftpとか使う分には特に問題ないでしょ。
そんなにSolarisがこの板で嫌われてるとは知らなかったよ。
俺は単純にOSなんてなんでもよくって
自分で使う機能が使いやすいのを自由に選べばいいんじゃないか
ってつもりで書いたんだが。
「OSを使いたくて選ぶ」ってのはMacな人だけなのかと思ったけど
意外とそうでもないんだな。
>>843 しかしKYなのは間違いない。
なにしろ、ここがlinux板だって事を意識してないみたいだからね。
845 :
823 :2009/08/16(日) 20:48:09 ID:ON+i6sRP
全部面倒みてくれるZFSいいすね。 いつかの未来にlinuxでフルに使えるようになったらいいですね
StorageFoundatio anywhere
>>810 PVをある程度細かく切ると、移行先へのpvmoveが少し楽になる場合がある。
1TBのディスクをファームバグとかで切り離したいが、500GBのHDDx2しか
用意できてないとか。1TBのpv切ってると退避不能だが、分割してpv切ってると
退避できる。
>>843 変態ディレクトリな時点でSolarisいらね
どんなDIR?
850 :
login:Penguin :2009/08/19(水) 18:15:25 ID:nLRNfndA
ソフトRAID+LVM -> ハードRAID+LVMへの移行について 教えてください。 現在、pvとしてmd1が割り当てられているのですが # pvdisplay --- Physical volume --- PV Name /dev/md1 VG Name VolGroup00 [root@mail01 ~]# cat /proc/mdstat md1 : active raid1 sdb2[1] sda2[0] ハードRAIDへ移行するために/dev/sda2をpvとして割り当るには どのようにしたらよいでしょうか? #fdisk -l /dev/sda1 * 1 13 fd /dev/sda2 14 19452 fd /dev/sdb1 * 1 13 fd /dev/sdb2 14 19452 fd # cat /etc/fstab /dev/md0 /boot ext3 defaults 1 2 /dev/VolGroup00/LogVol00 / ext3 defaults 1 1 /dev/VolGroup00/LogVol01 swap swap defaults 0 0 分かりづらくてすみません。
>ハードRAIDへ移行するために/dev/sda2をpvとして割り当るには ここおかしくない? ハードウェアRAIDのデバイスをVolGroup00に追加して、pvmoveして、md1の割り当てを解除するのがいいんじゃなかろうか
ソフトウェアRAIDにつかってるデバイスを切らずに ハードウェアRAIDが作れればいいんだろうけど、 そこんとこどうなんだろ。
何を意図してるのかまったく意味が分からない。 やりたいのは「移行」なんだよな? ハードウェアRAIDを追加したら(ドライバが正しく入ってれば) 普通は新しくsdc として認識されるだけだと思うが。 (あるいは新しいのがsdaになり、従来のがsd[bc]にずれる) 両方マウントして単に中身をコピーした後 SW RAIDを無効にすればいいだけでは?
>>853 それやったらLVMでやってる意味がないじゃない。
え? なんで? ソフトウェアRAIDをやめて ハードウェアRAIDに「移行」するんでしょ? 両者併用したいってこと? それなら「移行」ではなく「追加」だと思うんだが。
856 :
850 :2009/08/20(木) 18:49:16 ID:8wrndRwo
みなさん、ありがとうございます。 情報小出しになってしまってすみません。 HDD2台でソフトRAIDを組んでいるサーバーを RAIDコントローラが付いているサーバーへ移行したいのです。 ソフトRAIDのサーバーのsdaディスク全体をddでイメージしました。 新たにRAIDコントローラー付きのサーバーにイメージをリストアしました。 LVMではないパーティションはfstabの指定で/dev/md0 となっているところを /dev/sda1と書き換えました。 LVMからなるパーティションはfstabなどを書き換える必要はなさそうですが VGがmd1のpvから構成されているので、このままではmdの縮退モードとなってしまいます。 せっかくハードRAIDのサーバーへ移行したので、sda2からなるVGとしてソフトRAIDをやめたいのです。 書いてて気づいたのですが、RAIDカードの設定でハードRAIDを無効にした(sda,sdbと2本みえる)状態でリストアして、 mdからsdbを削除して、sdbのパーティションタイプを変更して、sdbのMDスーパーブロックを削除してvgにsdbを加える、 データコピー後にmdを削除、sdbからsdaへ同期するようにハードRAIDを構成でいけるかなあ。
>ソフトRAIDのサーバーのsdaディスク全体をddでイメージしました。 >新たにRAIDコントローラー付きのサーバーにイメージをリストアしました。 おおっと。これは想定外www
>>856 人に状況を説明する能力がかなり低そうだ。
> LVMではないパーティションはfstabの指定で/dev/md0 となっているところを
> /dev/sda1と書き換えました。
これ以降かなり意味不明に見える。
859 :
login:Penguin :2009/08/20(木) 19:07:21 ID:z7LXRLpP
LVM2の不満点: 1. LVのsnapshotは同一VG上にしか作成できない。 自動でバックアップさせているが、VGの空きスペースが少ないときに困る。 外付けHDDにある *別の* VG上に作成できれば便利だと思うのだが。 2. ひとつのLVにつき65534 PEまでしか管理できない。 デフォルトのPEサイズ(= 4MB)だとLVMのサイズは256GBまでに制限される。 これらが改善されればもっと快適なのだが。。 LVM3に期待しちゃってもいいですか?
860 :
850 :2009/08/20(木) 19:23:32 ID:8wrndRwo
>>858 確かに。。
LVMを利用していないソフトRAIDサーバーをハードRAIDサーバーへ移行
する場合は、ddで取得したHDDイメージをリストアしてから、fstabやgrub.conf
におけるmd*の部分を該当のsda*へ書き換え、RAIDを使用しないオプションで
initrdを作成し直すとハードRAIDのサーバーでソフトRAIDを使用せずに起動しました。
上手く行かないのがソフトRAID上でLVMを使用したサーバーを
ハードRAIDへ移行する場合なのです。
デバイスの指定方法はソフトRAIDでもハードRAIDでも/dev/VolGroup00/LogVol00と
変わらないのでファイルの変更は必要なさそうですが、そもそもVGが/dev/md1からなる
PVから構成されているので困っているのです。
たとえばこんなことが出来れば助かります。
レスキューCDなどから起動
/dev/sda2をPVとしてcreate
vgの構成要因を/dev/md1から/dev/sda2へ変更
>LVM3に期待しちゃってもいいですか? もうちょっと真面目にlvm2のマニュアル嫁
>>859 > 2. ひとつのLVにつき65534 PEまでしか管理できない。
> デフォルトのPEサイズ(= 4MB)だとLVMのサイズは256GBまでに制限される。
おかしいなあ……
おれが1TのHDDをLVMにつっこんで700GのLVを切ってるのはマボロシ……?
>>860 まだよく状況がつかめんけど、vgscanじゃだめ?
>>862 おそらく使っているlvm2のバージョンがとてもとても古いのでしょう。
俺もPEサイズを指定した記憶があるもの。いつだったか忘れるくらい
昔だけど。
865 :
859 :2009/08/20(木) 20:23:05 ID:z7LXRLpP
あ、はい。 PEの管理数制限は私の勘違いでした。(昔の記憶だったもので。) しかしスナップショットが異なるVG上に作成できないのが痛い。 なんとかならないのか。。
>>865 その制約、何処かの売り物ストレージ管理ソフトも同じ
PV単位でVG結合・分割できるけどね
でもなあ、スナップショットは元のLVから切りはなすと 何の意味も持たなくなっちゃうから、 VGをまたげる、っていうのはなんだか気持悪いけどなあ……
スナップショットを差分のコピーか何かと勘違いしていると思われ
んなことするんだったらddかtarしろよ、って気はするよね。
ある意味スナップショットが本体でしょ。 それを外部ディスクに作成したいなんて正気とは思えん。
スナップショットは一種のハードリンクなんだから 別のVGに作成ってのは原理的に無理なんでは
スナップ元と同容量のPVが必要だがVxVM買えばできる
そんなん買わなくてもlvconvert -s でおk
最近LVMに興味を持って調べてたら、凄まじい長寿スレに遭遇w 初期からの住人ってまだいるのかな
ノシ
「snapshotが存在している間に書き込みをすると、書き込みに先立って もとのデータがPE単位でsnapshot用LVに待避される」 という記述は妥当? データを待避するのでなくて、PEの割り当てを交換するような 実装になっていたりする?(自分はそう思い込んでいたのだが)
877 :
login:Penguin :2009/09/01(火) 21:26:56 ID:30xIRbHh
ノ
スナップショットで基本的な質問。 スナップショットの領域って、 空きPV 空きVG のどっちが必要なの?
VGでそ
同一VG内の空きPE
同じVGじゃなくてもいいだろ
同じVGでしょjk
887 :
login:Penguin :2009/09/09(水) 22:24:50 ID:+ofEzcpO
複数の物理HDDで1つの論理ボリューム組んでる場合、 物理HDD1つ壊れたらどうなんの? 全体が死ぬの? それとも、残った部分だけは読み込み可能?
横レスだけど、135さんの情報って大きいね。 LVMを組む場合は、通常の構成以上にバックアップと冗長性が大切なのだと認識… でもRAID5とか組むと高いし騒音になるし…どうやって冗長性を確保するべきか悩む…
>>889 同じマシンをもう1台用意してミラーでおk
もっと金かかるさorz
>>889 HDDが一個増えるだけじゃん。
騒音とか高いとか何のことやら。
LVMの復旧でお知恵を貸してください。 RAID5+LVMで単一パーティションに単一VGの構成なんですが メタデータが壊れたようで、リブートしたタイミングで パーティションが見えなくなってしまいました。 システムは入っておらず、データ用にマウントしていました。 その直前、ミスによりルートパーティションの使用率が100%になっていたため 解消後すぐOSをリブートしました。これが直接原因ではないかと思います。 mdadmによるとRAIDはクリーンな状態で、実際おそらくハード的には問題ないと思います。 RAIDアレイは/dev/md1、PVはデバイスのパスでは /dev/vg02/data です。 # vgcfgrestore vg02 -f /etc/lvm/backup/vg02 Incorrect metadata area header checksum Restore failed. # vgck vg02 Incorrect metadata area header checksum WARNING: Inconsistent metadata found for VG vg02 - updating to use version 4 Incorrect metadata area header checksum Automatic metadata correction failed Recovery of volume group "vg02" failed. といった状態で、**scanや**displayでも大体同じエラー内容です。 他に試すべきこと等あったら教えていただけないでしょうか。
894 :
893 :2009/09/24(木) 02:56:05 ID:F3Ai2mrx
お騒がせしました。以下のとおりPV強制再作成で復旧しました。 pvcreate --restorefile /etc/lvm/backup/vg02 --uuid (略) /dev/md1 -ff vgcfgrestore -f /etc/lvm/backup/vg02 vg02 vgchange -ay vg02
LVMっていらんよな、もう・・・
めちゃくちゃ要りますが? ZFSとか言い出したら笑うからな
まぁ、確かにzfsが使えれば要らないけど、linux側の都合で事実上zfsは使用不可だもんな。
別にZFSでなくてもいいが ZFS同等機能のFSが Linuxで正式に採用されるなら 大喜びして使う。 誰か作ってくれ。
フリーライダー乙
俺はイージーライダー。
PV跨いだ時の冗長性とか、復活の呪文とか…
質問させて下さい。 現在マシンAに接続されている、以下2つの LVM (それぞれ物理 HDD 2台よりなる)があって、 /dev/VolGroup00/LogVol00 /home /dev/VolGroup01/LogVol01 /home_backup これら合計4台の物理 HDD を、丸ごと新しいマシンBに接続し、かつ、 マシンA下と同様にマウントしたい場合、どのような手順で行うべきなのでしょうか。
>>903 >これら合計4台
2台じゃなくて?
Bに接続したらvgscanしてmountすればいいんじゃない?
あ、「それぞれ2台」*2LV=4台か。
>>903 普通のLVMの再認識の手順。
pvscan
vgscan
lvscan
んでもってactiveになってなければ
lvchange -ay
すれば普通にmountできるようになると思うが。
ただ、VolGroup00/LogVol00 てな名前は
多分OSインストール時のデフォルトのままなんだろうけど、
新しいマシンでも同じ名前のLVが作られてたら
当然のことながら名前が重複してるぞ、とエラーになる。
事前にどちらか一方(または両方)の名前を変えておかんと。
>>906 Btrfs は ZFS でいうストレージプールってあるの?
起動ディスクの別HDDに引越ししたいんだが 手順を解説しているページってある? 手順書見ながらでも、一通り手作業でこなせば LVMの理解が深まるだろうなぁと思ってるんだが 参考文献がまるでない あるのは、データ領域として別HDDにLVMを構築 してごにょごにょいじるものばかりで
せめて1行目を日本語に
911 :
login:Penguin :2009/11/22(日) 19:44:10 ID:xyg58vIP
えっ!? そんな意味だったのか!!!
>>909 何が分からんのかが、分からん
起動HDDだからって何も特別なことはない。
LVM用の領域(HDD全体か区画か知らんが)があるなら、「データ領域」と同じように移行すればいい
>>913 コピーするときは論理ボリューム名はどうでもいいと思うんだけど
起動するためには論理ボリューム名を今までのHDDと同じ名前に
変更する必要があるよね?
起動時に使う論理ボリューム名をどうやって設定すればいいの?
>>914 普通にカーネルの起動オプションとして渡せばいいやん
それかGrub2で直接起動するとか
>>914 何を難しく考えているのか。
現在のVGをリネームして、新しいHDDに現在と同じ構成でVG/LVを構築して
コピーすれば、そのまま変更なしで起動できるはずだが?
そもそも基本的な知識はあるの?
論理ボリュームにはUUIDが割り振られていますが、これを使って real pathにマッピングしたいのですが、そのような実装はありますか?
LVMとか触ったばかり&Linuxのファイルシステムとか いまいち理解していない状態で質問なんだけど、 ・ファイバーでつないだストレージにボリュームを20GBで作成 ・サーバから20GBで見えたディスク(上で作成したやつ)で pvを20GBで1個作成 → vgを作成 → 丸々20GBでlvを作成(厳密には違うが・・・) あんま意味っぽいけど・・・ 後でボリュームを追加でマッピングしてVGに加えてLV拡張できるのはわかる 質問) ストレージ側で既存の20GBを うにょ〜ん と40GBに増加させた場合、 LVM側ではLV拡張まで持っていくことは可能? いったんPV自体削除しないとだめぽ? わかり難くてすまそ
LVM はコマンドの数が多すぎて全容を把握するのが難しいよな。 man lvm をしてみると、存在すら知らなかったコマンドがぞろぞろ出てくる。 vgcfgbackup, vgcfgrestore, vgimportclone, lvmdump とか使ったことある人いる? で、ついさっき知ったが pvs/vgs/lvs って便利じゃん。 pv/vg/lvdisplayよりも打鍵数が少なくていいw
>>919 あんがと。
そう思ってやってみてもlvextendで怒られる・・・
どうもfdiskで見えるサイズが変化しない(20GBのまま)のだが、
これってLVMと関係ないよね?
OS側で変更後のサイズ(40GB)を認識させる必要があると思うけど、
再起動とかしない方法がわからん。。。
>>921 > OS側で変更後のサイズ(40GB)を認識させる必要があると思うけど、
> 再起動とかしない方法がわからん。。。
「ストレージ側でうにょ〜ん」てのが
具体的に何をやったのかを秘密にしてる理由は知らんけど
再起動しろってメッセージが出てたんなら再起動しろよ。
増えた分を新規PVにしてVGに組み込めばいいんじゃねーの
とも思うが、何故その選択肢を排除するのかも理解できん。
エンタープライズの質問にコンシューマの知識でイチャモンとかスゲーカックイーな
何いってんだこいつ
2ちゃんで「エンタープライズの質問」っのはある意味すげーな。
ちゃんとコンサル料払えよw
>>924
そうか? オレみたいに趣味で百台単位のブレードとPBクラスのストレージで遊んでる奴、 日本なら結構いるんじゃないのか? 規模だけなら充分エンタープライズ言えると思うが。
GBでもエンタープライズ PBでもエンターテインメント
趣味でいくらかかってるんだろ… ブレード百台って枠何個? ラックマウントしてるの? ラック何台必要? ハード揃えるのにいくらかかった? 電気代またはデータセンター代は?
930 :
893 :2009/12/17(木) 00:51:31 ID:zeINg69o
大袈裟に言ってるけどたぶん100%趣味ではなくて ちゃっかり金稼いでると思う
ヤクザ調子に乗るな w
>>927 一度「エンタープライズ」の意味を
辞書で調べてから出直してきてください。
ところで、
>>924 は
>>918 の一体どのあたりに
「エンタープライズの質問」を感じ取ったのだろうか。
当面これが最大の謎だな。
Great Britainの企業 Packard Bellの娯楽
>>933 > ・ファイバーでつないだストレージにボリュームを20GBで作成
>ストレージ側で既存の20GBを うにょ〜ん と40GBに増加させた場合、
って書いてあるからだろ?
ファイバチャネルのストレージにLUN作ってからそれを大きくしたいって事なら
一応ミッドレンジ以上と言えるかもしれん
20GBを40GBにうにょ〜ん だぜ? 「ミッドレンジ」ねぇ…
テスト環境じゃねーの?
clusterのクォーラムDiskとかSAN BOOTとかで小さなLUN切ることはよくある サイズは用途次第だろ
問題はサイズではない! うにょ〜んだ!!!
片や「百台単位のブレードとPBクラスのストレージ」を趣味といい 片や「ファイバー」の一語だけでエンタープライズという やたら極端なスレだなw
うちもフレッツ光引いてるからエンタープライズだな
>>940 首の上に頭ついてますよね?
頭の中に脳ってものが入ってるんすよ。脳。
使ってみてくださいよ
マジ便利っすから
みなさん、現在のLVM2の実装、およびディスク上のフォーマットについて満足していますか? よろしければ理由も一緒にお願いします。
自分の必要を十分満たしているから不満は無い。以上。
ありがとうございます。 ところでLVM 3 はどうなるのでしょうか。話題を聞かないのですが。。
LVM2というかデバイスマッパの問題だが スナップショットのスナップショットはときどきほしくなる あと、スナップショットが10とか20とかあるとメモリ不足とやらでdmsetupがこけるのが困る。 LVの拡大をした影響で「断片化」状態になるとさらに。 VG内デフラグをすると治ったりする。
パーティションテーブルの様に、ボリュームグループと論理ボリュームの 構成をバックアップ・復元することは可能ですか?
vgcfgbackup, vgcfgrestore これらのコマンドはどんな意味があり、どういった場合に使用するのでしょうか??
ggrks
manks
951 :
sage :2010/01/13(水) 23:11:24 ID:XqcSrg5G
952 :
sage :2010/01/14(木) 17:53:05 ID:iA54GJ2q
あれ? もっとみんな喜べ!(^o^)
意味が理解できん
どうせLinuxのソフトウエアRAIDを使ったNASとかで便利って話だろ? 今まで通りテープに直接書き込む方法で間に合ってるよ
original へ merge って…… 要するに古いバージョンのデータを現在のものに上書きするってこと? 何が嬉しいのか全然分からない。 どういう状況で必要になるの?
>>947 構成だけなら紙とエンピツで可能
中身のデータも一緒にバックアップ&リストアするならClonezillaとか
でも以前テストした時、Clonezillaは/dev/sd* or /dev/hd*以外の
ハードディスク(具体的にはAdaptec i2o)に未対応みたいだった
958 :
sage :2010/01/14(木) 20:38:26 ID:iA54GJ2q
>>957 * + 巛 ヽ
〒 ! + 。 + 。 * 。
+ 。 | |
* + / / イヤッッホォォォオオォオウ!
∧_∧ / /
(´∀` / / + 。 + 。 * 。
,- f
/ ュヘ | * + 。 + 。 +
〈_} ) |
/ ! + 。 + + *
./ ,ヘ |
ガタン ||| j / | | |||
――――――――――――
>>957 デスクトップ用途でワケの分からん物を
ごちゃごちゃインストールしてるような人には必要なのかな?
俺には全く必要が感じられないが。
俺的にはどうせなら SS作成時には最小のサイズだけ指定して 更新ファイルのサイズ分だけ空いてるvgを消費して COW領域が勝手に大きくなる、 てな仕様にしてくれるとありがたいんだが。 複数のバージョンのSSを作りやすくなる。 容量があふれちゃったら全部パーな現仕様だと 無駄に大きく確保しておくしかないからな。 複数はキツい。
>In case the snapshot >runs out of storage, use lvextend(8) to grow it.
小崎資広 2010/1/12 ……が、予想どおり 陥ってます。南無。 は「うぎゃー、勘弁してくれ。ファイルシステム がかかりそうです……。 消えたかな、というところ。 してたの?」とつぶやいて
>>961 それは、「あふれそうになったら実行しろ」であって
自動的に拡張してくれる訳ではない。
使用量をチェックするスクリプトを定期的に走らせたとしても
実行前にあふれたら全部パーなのは同じ。
964 :
sage :2010/01/15(金) 17:59:40 ID:1Ghuhjt2
>>959 お前には必要が感じられなくても
開発者によって、このような機能が実装された。
それは何故か。考えてみよう。キリッ
>>964 推察は既に
>>959 の前半に書いてあるようだが。
ところでわざとageてるの?
誰なのか分かりやすくていいけど。
>>965 2.6.30か…
RHELやCentOSにとっては
遠い未来の話だな…
保守。 ところでボリューム管理はZFSみたいに、ファイルシステムレベルで統合されると嬉しいな。 論理ボリュームを拡大/縮小したら、ファイルシステムも同様に拡大/縮小される感じ。 自分でリサイズすれば済む話だけどさ。。
FreeBSDのファイルシステムはsoftupdateのおかげで停滞した。 ZFSのおかげでまたしばらく停滞するだろう。
970 :
login:Penguin :2010/04/11(日) 18:14:45 ID:+zpEZtlO
extendfsしろ
>>970 俺の記憶違いかもしれないが、extendfsってHP-UXじゃないのか?
linuxのLVM2だとLVの作成数の上限は無いとmanページに書いてあるんですけど、 試しに作ってみたら400個程しか作れませんでした。 100GのHDDに4MのLVを作ったので、空き容量はあるんですけど? metadataが一杯みたいなエラーがでてました。 特別な作成方法があるのでしょうか?
973 :
login:Penguin :2010/06/30(水) 17:44:54 ID:FlM5EzIK
lvremoveで削除した論理ボリュームを復活させたいんだけど、 もう無理?
>973 testdiskとかは?
>>973 VGの構成情報は/etc/lvm/archive/の下に
自動でバックアップされている(LVMを操作するたび)
lvremoveしたあと、LVM関連の変更を行っていないのであれば、
/etc/lvm/archive/の下の一番新しいファイルが
lvremove直前のものだから、vgcfgrestoreで戻せるはず。
つうか、テストしたら普通に戻せた
1.バックアップの中身確認( "-l"オプション )
# vgcfgrestore -f /etc/lvm/archive/testvg_00006.vg -l testvg
File: /etc/lvm/archive/testvg_00006.vg
VG name: testvg
Description: Created *before* executing 'lvremove /dev/mapper/testvg-first'
Backup Time: Wed Jun 30 21:03:38 2010
2.実際の構成情報リストア
# vgcfgrestore -f /etc/lvm/archive/testvg_00006.vg testvg
Restored volume group testvg
3. LVのactivate
# vgchange -ay testvg
976 :
973 :2010/06/30(水) 21:40:06 ID:FlM5EzIK
>>972 PV作成時にmetadataのサイズを指定する
# pvcreate --metadatasize 512m /dev/sda
>>976 オメ
978 :
login:Penguin :2010/07/05(月) 05:05:53 ID:CEfOH2GT
973の方と同様の過ちをしたのですが、archiveにも残ってない場合は無理でしょうか?
よくわかっている人で、あえてLVMを使っている人って どのくらいまだ残っているんでしょうか。
まだ の意味が分からんが もうどの鳥でもデフォルトで採用だろ
ZFSとの比較なのかな?
よくわからないという理由で、あえてLVMを外してる人って どのくらいまだ残っているんでしょうか。 の間違いか?
>>978 ネタだと思うけど一応。
基本的には無理だけど、限定条件下なら可能
1. これまでlvcreate/lvextendでPV,PEを指定するオプションを使ったことが無い
2. LVの縮小や削除をしたことが無い(ミスった1回以外)
3. 削除後、LVMの操作をしていない
上記1-3を満たす場合、PEは先頭から順番に使用され(複数のPVがある場合1個目から)
かつ再利用されていないから、以下のコマンドで使用中のPEを確認し、
歯抜け部分を先頭から順番にくっつければOKのはず
# lvdisplay --maps
歯抜け部分を順番にくっつけるには、以下のいずれか
A. PE指定で、lvcreate→lvextend→lvextend→lvextend…
B. vgcfgbackupで現在のVG情報をテキストに落としたものに、削除してしまったLVの
エントリを捏造して、vgcfgrestore
テストなら戻せるけど、実環境では2の条件が無理
(歯抜けPEをddで見て、元のLVを判別出来るなら何とかなるかもしんないけど)
984 :
login:Penguin :
2010/07/06(火) 22:07:11 ID:a2O2SRNV ネタではないのですが、、、ありがとうございます。 しかし自分で色々調べてゴニョゴニョしてる間に分け分からなくなってしまい、 結局フォーマットして最初から作り直すことにしました。 次壊したら上記を実践してみます。