KVM(Kernel based Virtual Machine)を語れ 2
1 :
login:Penguin :
2012/01/01(日) 12:02:24.44 ID:j6P2SYaT
いちおつ
3 :
login:Penguin :2012/01/02(月) 09:06:52.66 ID:cN6pQInD
4 :
login:Penguin :2012/01/03(火) 22:31:25.32 ID:in4iM9kT
乙
鯖向けだが、KVMベースの仮想マシン管理に、Proxmox 2.0 を使ってる。 まだ 1.x と機能はそう変わらないけど、インストールが超簡単で、クラスタもコマンドをちょこっと打つだけで構成できるので 大変気に入っている。Webベースの管理ツールというとインストールが面倒くさかったり機能が過剰で大げさすぎたりするのが 多い中、単純明快なワークフローと画面構成であるのも大変良いと思う。
>>5 ProxmoxってKVMをVMWAREのESXiみたいに使えるってこと?
OvenVZとKVMに特化したディストリって考えればいいのかな?
>>6 ESXiみたいってのが何を指してるかよくわからんが、OpenVZとKVM特化のディストリっていうのはあってる。
Debian にもインストールして使うことができる。まあ Debian ベースだから当たり前だけど。
管理画面がWebからアクセスできるので、ユーザーPCにソフトをインストールする必要はない。
ほむー ま、1回つかってみるよーありがd
そうそう。ユーザー管理機能がまだ実装途中なので、root でしかログインできない問題がある。 翻訳が必要なリソースの量が多いせいでパッチが当たりきってなくて、まだ完全に翻訳されていない部分もある。
Fedora16でqxl+SPICEにしたけど これVNCに対して優位性あんの?
(いまのところ)全然ないんじゃない?
そうかな? VNCよりもっさり具合が改善されてるような気がしないでもないけど。 でもWinのSPICEは起動時がめんどくさ過ぎ。
VNCの方がはるかにマシに動作。SPICEはVNCにない機能が欲しいときだけ。ところが
わっふるわっふる
rdpで十分か。香辛料に期待して損した
xrdpって使い物になるの?
今更だけど、これからKVM等でPCIパススルーをやりたい人の為に
VT-dが使える母板の情報をまとめてあるところってないのかな?
http://wiki.xensource.com/xenwiki/VTdHowTo ↑ココは今はちょっと情報が古くなっちゃってて…
とくに、Core i5/i7世代だと、CPU側にVT-dの機能が盛り込まれて対応状況が
分かりやすくなってるけど、母板のBIOSが対応してないと結局使えないわけだし
インテル公式ではQ系チップセットとサーバーチップセット以外使えませんよと
いうことになってるけど、一部マザーはこれらのチップセット以外でもVT-dを
サポートしていることがある(完全に使えるかどうかは別として)
>>16 vncよりは遥かに挙動がいい
但し、クライアントとの相性がある
ねえWindows 64bitをゲストOSとして起動したんだけどさ、 サウンドがノイズだらけで耐えられないんだ だれか解決策知ってる人いる?
ゲストのイメージファイルをバックアップしたいんだけど、 稼働中でも構わずcpなりrsyncなりで別の場所にコピーすれば、 ゲストの電源をブチ切りしたのと同じ状態では複製可能? たとえば500GBのイメージファイルを単純cpしてる最中に そのゲストが大量のローカルデータ更新をしたらどうなりますか? というか無停止でのバックアップってみんなどうしてるの?
どうなるのかは実際にVMのコピー取ってみりゃ確認できると思うが 別にコピー元にリスクが生じる訳でもないのに何故わざわざ人に聞くのか
>>21 OS丸ごとバックアップは取らないよ。
運用前に空のOSをコピーしたりするけど、
基本的には、ゲスト内のDBやファイルを普通の鯖と同じようにバックアップ(もちろん物理的ロケーションは別のとこね)。
まあ、ライブマイグレーション調べてれば、何か出てくるかもね。
>>22 あ、ごめん、手元で何度か試した限りうまくいってるんだけど、
理屈の上ではどうなのかが知りたいです。
つまり何度かたまたまうまくいっただけで、
本来はイメージファイルが壊れて起動すらしなくても
おかしくない…のかな?と思って。最初から書けば良かったですね。
>>23 なるほど。ライブマイグレーションの瞬間の状態を
別途コピーしておければ目的は果たせるし、
では内部で何やってるかってことですね。
確かに調べてみる価値ありそう。
>>21 ダラダラコピーするので、ならないと思う
lvm スナップショット作って、スナップショットからコピーしたほうが良いんじゃないかな
生lvmをvmイメージにつかっていれば、スナップショット作って、lvそのままダンプでよいとおもう
私はこのやり方
なんか面白そうな話題だな 変な独自なやり方でもいいから俺はこうやってるぜってのを教えて欲しい ちなみに俺は21と同じやり方してる、書き込みのありそうなディレクトリは 別ドライブにしてるけど
本当に一瞬たりとも落とせないなら仕方ないけど、 virsh shutdown → lvmスナップショット作成 → virsh start すればダウンタイムは1分以内で済むんじゃない? (Windowsゲストだともっと掛かるかもしれんが) 一旦スナップショット取っちまえばコピーはいくら時間掛かっても問題ない。
CentOS 5.6でKVMをソースからコンパイルして使ってます。今までのVNCに代わって、SPICEを使ってみようとしたのですが --enable-spiceオプションをつけるとqemu-kvmのコンパイルにコケてしまいます。何が原因かわかりますでしょうか? # ./configure --enable-spice Disabling PIE due to missing toolchain support ERROR ERROR: User requested feature spice ERROR: configure was not able to find it ERROR # pkg-config --list-all | grep spice spice spice - SPICE server library spice-protocol spice-protocol - SPICE protocol headers # uname -a Linux hostname 2.6.18-238.19.1.el5 #1 SMP Fri Jul 15 07:31:24 EDT 2011 x86_64 x86_64 x86_64 GNU/Linux
fedora16でvirt-cloneすると、イメージの複製が正常に行われない。 formatがrawとqcow2のファイルをイメージとして使用。 複製したものとオリジナルのvirtual sizeが違ってる。 何故かrawなのにvirtual size:48Gでdisk sizeが212M。 ファイルをcpしてるだけじゃないのか?
>>30 カーネル足引っ張ってるのと
KVMの開発指揮とってるこの会社の人間が
革新的な改善を受け入れないからどんどん
性能下がってるよ
過去の話だね
もはやcitrixは眼中にないようだな
34 :
login:Penguin :2012/01/27(金) 20:27:20.91 ID:HXdaCgbA
vm間通信もっと速くならんかな
kvm入れたらguiからマシン再起動できね sshメインだからいいけどなんかきもい kvm入れる前はいけたのに ちなみに Debian squeeze 64bit ゲスト入れる前からの症状
oracle vm に乗り換えようか悩むなぁ
38 :
35 :2012/02/01(水) 07:41:42.04 ID:8+vrQyC1
なるほど
オラオラvmか〜 モチベーション下がるな〜
クライアントのNICの割り込み処理(?)が350Mbpsを超えたあたりから 追いつかなくなって糞詰まりになるのは、KVMではしかたがないんでしょうか?
CPU
qemu-img snapshot -c でqcow2イメージのスナップショットを取った場合、 ファイル内部的には差分データはどこに書かれるんでしょう?単純にファイル後半につけたし? diffファイルが別にできてくれれば話は早いんですけどねー…
44 :
login:Penguin :2012/03/01(木) 23:51:18.61 ID:9G3TgImJ
>>41 virtioとvhost-net使ったか?話はそれからだ。
>>43 ソース読め。分からなければググれ
45 :
login:Penguin :2012/03/13(火) 22:55:24.37 ID:LkY19GXR
CPU i7-2600 MEM 16G HDD 1T x2台 SSD 120G こういう構成のマシンにKVM入れて、ゲストにファイルサーバ用のFreeNAS、 社内用DB&Webサービス開発用のCentOS、ライセンスサーバー用のWindows XPを 入れようと思ってます。皆さんならSSDを何に使います?
CentOSはホストOSじゃないのか
47 :
45 :2012/03/14(水) 01:26:11.48 ID:i8M0c1xM
ホストOSはCentOSかFedoraかで迷ってます。 ゲストでも入れるのは半分Migrationの実験も兼ねてるからです。
そんだけ積むんなら、RaidZは辛いかな 各ゲストの性能要件がわからんからなんとも言えないけど とりあえずホストOSインスコしてゲストOSインスコ用の仮想ディスク作って置いておく ちょっと窮屈だね でも開発用だから良いのか? と思ったけど、DBは社内用の本番系なのか? DBの要件によっては、NASかDB、どっちかを外に出したいのが正直なところ
VT-dでストレージコントローラーごとゲストにパススルーするならいいが、 I/Oの多いファイルサーバやDBはvirtio経由だと使いたくないというのが正直なところ。 SSDは今だと速度の落ちにくいPLEXTORのPX-M2Pか、安定の 東芝コントローラー搭載品でいいんじゃね。エンプラ向け製品?知らんがな。
× PX-M2P ○ PX-M3P
SSDに何を、じゃなくてSSDを何に、じゃね? ホストOSとゲストOSと、DBの要件によってはDB置くかなあ。そもそもなんでつけたの?
VirtualBOXのCentOSでVMXが有効にならねー!! KVM使おうと思ったのに、何だこれ・・・
NestedVM出来るCPU使ってるのか? それ以前にVBOXで出来るのか?
wikipediaとかでintel-vt調べてみると何でできないか分かるかも。
以前、隔離スレでZFSの素晴らしさ、BSDに比べてLINUXが如何に不安定か、 世界中の基幹ネットは須くWINDOWSとBSD他UNIX(と多分MACも)で構築されるべき という持論を展開していた痛々しい人を思い出した
さくらの件ってKVMが悪いの?ストレージが悪いの?
>>58 リリースされている情報からすると、それすら切り分けられていないような。
さくらもストレージ機器メーカー大喜びの実験場になってるな。 期待してるからグダグダにならんことを祈る。
世の中には、Solarisも、AIXも、HP-UXも結構よくこけるという事実を知らない人が多いんだな。
え、世の中の Solaris, AIX, HP-UX ってさくら並にこけまくるの?
>>62 こけるこける。それをいかにこけさせないようにするかが運用技術者の腕の見せ所。マニュアル対応しかできん奴には無理。
単に、どの程度の負荷でボロを出し始めるかの違いってだけだわ。 linuxはわりと早めにボロが出る。
65 :
login:Penguin :2012/04/03(火) 20:55:44.82 ID:Ezx0iYpl
KVMホストOSに一番ののおすすめは? Fedora Cent OS Debian
何の略だ? そんなディストリあったっけ
SSD/Linux とは渋いな・・・しかしホストに選ぶのはかなりの苦行じゃないか?
Sotokanda Software Distributionか
どれでも可、ということでOK?
好きなの使えよ 俺ならネット上に情報が多そうなの選ぶけど
>>70 Fedoraはクライアント用にはいいが、
サーバー用には不便だぞ
バージョンアップによるサポート切れがすぐくるから
1年程でOS再インストールせにゃならん
再五十子せんでもアップグレード掛ければいいんじゃ? Debianのアップグレードの高い打率には及ばないながら 滅多なことではUG失敗しないよ
仮想サーバーホスト用としては、機能追加が少なく 長ーく同じバージョンが保守されてるOSがいいんじゃね ホスト自体が多機能である必要全然ないもん むしろ保守に必要な最低限の機能残して他削除してもいいぐらい
なんだESXi最強じゃん
そうするとやっぱDEBIAN辺りに落ち着くのかな? 性能向上を突き詰めるにはGENTOOか??
79 :
前968 :2012/04/20(金) 12:43:28.90 ID:C3niAwOb
前
>>968 で「ホストのNICにタグ付きで入ってくるパケットを、そのままゲストに渡せないか」
と質問してた件、手元機材で確認できました。
br0のようなブリッジデバイスがtaggedパケットを通すか心配してたのですが、すんなり
ゲストのNICまで流れてきました。
[tagged] -> host_eth0 = host_br0 = host_vnet0 = guest_eth0 -> [tagged]
ホスト・ゲストともにCentOS6.2。
前
>>976 のゲスト側でタグが見えないということも無く、ホストのeth0で拾ったパケッ
トが、そのままゲストのeth0に流れてきてました。
標準のbridgeの代わりにOpen vSwitchに置き換えても無問題でした。
動作のお知らせとお礼まで。
>>79 便乗で教えてください。
最近当方もまさに同じことをしようとしたのですが、host_vnet0までは
taggedなキャプチャがされたのですが、guest_eth0はキャプチャされませんでした。
この「キャプチャされない」というのは、guestのvirtio_netの受信ルーチンに
デバッグ出力を入れることで確認しています。
(taggedなパケットに対して特殊な処理をしなければならないため)
で、Linux標準Bridgeだと↑のような状況です。
ちなみに、何故かguest_eth0にてtcpdumpをしかけるとデバッグ出力がされていました。
次に、Open vSwitchで
ovs-vsctl set port host_vnet0 tag=[VLANタグ]
とするとuntaggedでguestまで届きます。
が、これも何も設定しないと届きませんでした。
故あって、vconfigによるVLAN IFを生成できないので、仕方なく今は
Open vSwitchを使うようにしています。
ttp://d.hatena.ne.jp/naga_sawa/20120415/1334502258 とかにも、
>>79 さんのようにできると書いてあるんですが、何か設定間違ってるのかな…
ちなみに、OSはhost/guest共にFedora15です。
>>80 ゲスト側で動かしたtcpdumpの出力は正常にtaggedを吐き出してる、というのが前提ですが…
debug outを仕込んだ
>virtio_netの受信ルーチン
はアプリが受信処理しないと呼ばれないルーチンだったりしませんか?
素人オペ屋なのでドライバの中味やらの深い部分はわからないですが
tcpdumpのようなユーザランドのプログラムでパケットを吸い上げると
debug outが働く、というのならその線が疑わしいような
ストレージとの連携で、ISCSIか、NFSか、どっちを使おうか迷っています。 (ESXIでいうところの)シンタイプディスクの場合、データ転送量が少ないのはどっちになるんでしょうか。
83 :
login:Penguin :2012/05/07(月) 10:33:12.95 ID:bJ9OVUho
質問があります。 Lenovo E420上で、ScientificLinux 6.2(64bit)でKVMを使って"Windows7pro"と"ScientficLinux 6.2(32bit)"を 仮想化しています。 Windows7の方の音を鳴らしたいのですが、KVMのSPICEを使うと音は鳴るのですが解像度がおかしくなります。 どうおかしいのかと言うと、画面の右3分の1が切れてしまいます。(フルスクリーンにしても同じ) 表示も遅いしそんな状態なので、rdesktopを使っています。 描画も速いし、解像度も問題ないし満足してるんですが、音が鳴りません。 オプションに、-r sound("-r sound:local" "-r sound:remote" も試しました) とつけても鳴りません。 何が原因なのでしょうか?
KVMやqemuに対する質問なのかよくわからないが むしろ、rdesktopに関する質問ではなかろうか。だとするとスレ違い。 とりあえず、普通のWindowsクライアントでリモートデスクトップ接続で つないでみて、音が出るかどうか確認してみては?
85 :
login:Penguin :2012/05/09(水) 17:42:37.82 ID:DcU0LKxZ
>>84 KVMの設定次第で解決する問題かもと思ってたのですが、読み返すと確かに質問の主が、
rdesktopになってました。すいません。
別のWindowsから試してみます。
ゲストのホットバックアップはできんかね
>>86 ゲスト側にIO flush + fs freezeするツール仕込めばおけ。
でもジャーナル巻き戻し前提で「だいたいあってる」レベルならなくても即分岐させてよくない?
libvirtに、ホスト/ゲスト間の通信IF機能とかないかなぁ。
>87 ゲストで / の freeze と unfreeze をやってるんだけど、たまに unfreeze に失敗する事がある。
できるかわかんないけど ゲストのacpidで電源ボタンでハイバネ設定しておく virsh shutdown vm cp image virsh start vm みたいなセミホットバックアップとか妄想してみる
>>90 それなら(前にも出てきたけど)
cpではなくlvmでsnapshot取る方が断然早いだろう
数秒以内で終わる
qemu consoleからスナップショット(LVMではなくqcow2やqedの)分岐させる手もあるね。 これもゲスト内FSレベルでのフラッシュ&フリーズはされないから巻き戻るけど。
93 :
login:Penguin :2012/05/12(土) 23:46:53.37 ID:0UgSkxly
libvirtdが動作してるにも関わらず Unable to open a connection to the libvirt management daemon. とか言われちゃうって何が原因なのかさっぱりだな・・・
>>93 デーモンが動作していることと
デーモンに接続可能なことは
まったく別物だと思うが
95 :
88 :2012/05/13(日) 17:33:27.97 ID:VMmrqtfK
普通に、qemu-kvmに"-chardev"オプションでいけるのか。 とりあえずUNIX domainで試してみよう。
cpuをCeleron G1101からCore i7 860に変えたら、 仮想Windows7が立ち上がらくなった。 ログを見るとこんな感じ、誰か助けて KVM: entry failed, hardware error 0x80000021 If you're running a guest on an Intel machine without unrestricted mode support, the failure can be most likely due to the guest entering an invalid state for Intel VT. For example, the guest maybe running in big real mode which is not supported on less recent Intel processors. EAX=00000010 EBX=00000080 ECX=00000000 EDX=00000080 ESI=0025db2a EDI=0007db2a EBP=00007c00 ESP=00000200 EIP=000000ca EFL=00000002 [-------] CPL=3 II=0 A20=1 SMM=0 HLT=0 ES =0020 00000200 0000ffff 0000f300 CS =b000 002b0000 0000ffff 0000f300 SS =0020 00000200 0000ffff 0000f300 DS =0020 00000200 0000ffff 0000f300 FS =0020 00000200 0000ffff 0000f300 GS =0020 00000200 0000ffff 0000f300 LDT=0000 00000000 0000ffff 00008200 TR =0000 00000000 0000ffff 00008b00 GDT= 002b0000 0000001f IDT= 00000000 000003ff CR0=00000010 CR2=00000000 CR3=00000000 CR4=00000000 DR0=0000000000000000 DR1=0000000000000000 DR2=0000000000000000 DR3=0000000000000 000 DR6=00000000ffff0ff0 DR7=0000000000000400 EFER=0000000000000000 Code=00 ea be 00 00 00 18 00 0f 20 c0 66 25 fe ff 00 00 0f 22 c0 <66> 31 c0 8e d 8 8e c0 8e d0 66 bc 00 04 00 00 8e e0 8e e8 ea 00 00 00 20 00 00 00 20 2a db handle_dev_stop: stop
ちょっと0が多すぎだな
>>96 もってないから適当だけど
# rmmod kvm-intel
# modprobe kvm-intel unrestricted_guest=0
でどう?
>>98 ダメみたい。
modprobe kvm-intel unrestricted_guest=0で
カーネルログに
kvm: VM_EXIT_LOAD_IA32_PERF_GLOBAL_CTRL does not work properly. Using workaround
と出る。
BIOS?
101 :
login:Penguin :2012/06/04(月) 00:54:49.45 ID:ChjyveUA
KVM が kepler に対応するのはいつ頃だろう・・・
102 :
login:Penguin :2012/06/17(日) 22:19:30.09 ID:zkSdSvlU
ところで皆、Win2008R2のゲストにUSBHDDって接続できてる? 自分の環境だと、ゲストが認識はすれど、エラー10 利用できない状態ですで使えないんですよね(´・ω・`) どっかでドライバ探してこないとだめ?
ググったらXenもKVMも引っかかるみたいだな
ないない。
複数の物理ホスト+virt-managerの環境で、両方のホストから同じゲストを起動できちゃうのって 何か抑止方法ないですか?ググってもなかなか対策が見当たらず。 どうなるか試しにやってみたら、見事にゲストのファイルシステムがおかしくなった。
>>110 運用変えるかscriptにロック書くしか無いんじゃ?
ほ
>>112 やってみたら確かにロックできた!
代わりにライブマイグレーションできなくなったw
migration may lead to data corruption if disks use cache !=noneとか出る。
日本語の情報、全然ないね。英語でもあんまり解決策とかなさげ
115 :
login:Penguin :2012/07/07(土) 01:45:53.12 ID:g/AEDtO+
複数のネットワーク作るのはどうやるのがいいの? 仮想マシンマネージャーで普通にNATのネットワーク2つ作ったら何もしなくても相互に通信できちゃうんだな どこが仕事してどう通信してるのかよくわからないんだが
116 :
112 :2012/07/07(土) 02:14:52.18 ID:TYBH9PZF
>>115 分離したネットワークを2つつくればいいよ
KVM専用のディストリビューションってないの? 名前も悪いしこれじゃ普及しないだろ
RHEV
121 :
114 :2012/07/10(火) 16:48:37.69 ID:1hC8yaPp
>>116 ありがとございます。
確かに、これっぽいですね。
Scientific6.2なのでまだ来てないですが、来たら試してみて
また報告します。
RHEV使ってる人いる? FedoraでoVirtを入れてみたんだが、かなり不安定な印象。大丈夫?
>>123 いるよ〜
oVirt v3.0と、v3.1bも使っているけど、安定性を求めるなら、v3.0 stableを使った方が良いかと。
v3.1bは、新機能追加がメインなので、いろいろ安定化させるのは苦労しますよ。
125 :
123 :2012/07/11(水) 18:30:33.42 ID:s8yAooXy
>>124 あざっす。
試したのは3.1bでした。
3.0の方やってみまっすmm
>>125 一応、注意点として、f16向けのパッケージしかないので、engine用のマシンを構築するときは、fedora16で作りましょう。
Nodeは、iso配布のモノを使うのが良いかと。
127 :
123 :2012/07/13(金) 10:59:43.32 ID:C7QyAv/p
>>126 感謝。
大抵の場合、皆さんFedoraでやってるみたいですけど、諸事情によりCentOS限定なんですよね。
試してないけど、EPEL使ってCentに入れれないかなぁと画策中です。
まともに動かなそうだけど・・・。
128 :
124 :2012/07/13(金) 16:02:21.74 ID:5QzCX/lB
qemu+sshでvirtdにアクセスしていると、いつのまにか ホスト側に大量のsshdとncが発生してつながらなくなるのですが 回避方法ないですか? killall ncとかだと一時的に回復するけど、いたちごっこでした。
130 :
123 :2012/07/15(日) 09:47:35.15 ID:UTe5qMsH
>>128 本当に親切にありがとう。
自分もこのリポジトリは見つけたんだけど、危ない香りがしたから試さなかったんですw
でも折角なので、インストールしてみて近いうちにレポート入れるよ。
ありがとう〜(`・ω・´)
>>52 うちでは、VirtualBOX上で
UbuntuではKVM動作○
Fedoraでは?
だった。
lsmod | grep kvm で何も出てこない。
VMwarePlayerでCentOS:KVM>CentOSってやってるんだけど、 ネットワーク設定がよくわかりません。 VMwarePlayer(ブリッジ)>CentOS(br0,eth0)では外部と通信できます。 しかし、 VMwarePlayer(ブリッジ)>CentOS(br0,eth0)KVM>CentOSだと ゲストのCentOSのeth0が起動しません。 ググッたところ、tapの設定が必要らしいのですが、qemuのコマンドでtap追加してる サイトばかりで、virt-managerでguestOSをインストール、起動してからの設定が載っているサイトが みつからずに困っています。 どなたかご存知ないですか?
virt-managerなら何も難しいことはなく、br0を ブリッジ対象として選べると思うんだが。
134 :
132 :2012/07/21(土) 23:08:21.20 ID:lEKceQcZ
>>133 ありがとうございます。
virt-managerでeth0(br0)を選択したのですが、
eth0が起動しないのです。
普通なら、これだけで使えるようになるのでしょうか?
どうもKVMのネットワークが良く分かっていなくて・・・
いいサイトもしくは、本などございませんでしょうか。
>>132 KVMゲストのNICが上がらんのと、KVMゲストが外部と通信できないのは別の問題なので、
KVMゲストの/var/log/messeges とかでエラーを見てみるんだ(`・ω・´)
文章から読み取るに、VMwareもKVMも関係ない希ガス。
というか、VMwareのゲスト上でKVMが動くほうがびっくりした。
137 :
136 :2012/07/22(日) 11:29:00.41 ID:nfjE9Qv/
ごめんスペル間違えてた /var/log/messages です
138 :
132 :2012/07/22(日) 12:05:05.26 ID:kSxNlPG6
>>135 ,136
回答ありがとうございます。
やはりブリッジ設定した後は本来なら、普通に使えるんですね。
てっきり、ゲストOS側で何か紐付けする設定が必要なのかと
思っていました。
networkmanagerとシスログをチェックしてみます。
VMwarePlayer4.0.4ならintel-VTをゲストOSに橋渡しできるオプションが
あるのでKVM動かせました。
139 :
132 :2012/07/22(日) 15:46:09.50 ID:kSxNlPG6
試しにゲストOSを新規に作り直してみたら、 うまく通信できるようになりました。 みなさんありがとうございました。
140 :
132 :2012/07/25(水) 22:51:58.75 ID:6h06JUF6
またまた困ったので質問です。 KVM上でルータ役のCentOS6.3(eth0(br0)192.168.0.0/24とeth0:0 192.168.1.0/24 とゲストOSCentos6.3(eth0(br0)192.168.1.0/24 という構成にしたのですが、ルータ役を介してインターネットに出られません。 ホストのbr0 1個に異なるネットワークの設定って出来ないものなんでしょうか? ifconfig -a をゲストOSで実行するとなぜかGWがかなり遅れて表示されます。
>>140 ゲストのIPアドレスがネットワークアドレス
142 :
132 :2012/07/26(木) 19:28:19.18 ID:tCMOEn4j
>>141 いえ、書いているネットワークに属するホスト用アドレスにしていると
いう意味です。
143 :
123 :2012/07/26(木) 19:46:29.59 ID:q77YAfJ+
>>140 組もうとしてるネットワークの全体像が判らないので、必ずしも間違っているとは言えませんが、
どういう構成で組みたいのかな。
仮想マシンのルーター役CentOSを、そのKVMホスト内で複数のサブネットを束ねるルーターとして使うなら、
br0だけじゃ駄目です。(というより、自分はそういう組み方しない。)
基本的にゲストOSのネットワーク設定は何も弄りません。
ルーター役CentOSは、必要なサブネットの数だけ仮想NICを用意するけど、IPエイリアスもVLANの設定もなし。
NICの設定を弄るのはあくまでホストOSのそれになります。
virt-managerでネットワーク設定が弄れるけど、あまり希望の構成通りにならないので、
ifcfg-eth*とかifcfg-br*を直接触ったほうがいいです。(マネージャーはきちんと認識するので大丈夫)
で、ルーターOSのグローバル側にbr0を付けて、LAN側にVLAN設定したNICを割り当ててやれば、
後はゲストで任意のIPを設定してやれば、サブネットとVLANIDが同じになっていれば、勝手に通信するし、
異なるVLANのゲスト同士は通信できない。
ルーターOSも希望のIPをそれぞれのNICにつければ、特にルーティングの設定なしで通信できます。(ゲートウェイは適切に)
解決しなかったら、自分が作ったファイルの内容貼りますので言ってちょー。
144 :
132 :2012/07/26(木) 21:42:00.13 ID:tCMOEn4j
>>143 BBルータ LAN側 192.168.0.1/24 (ルーティングテーブルに192.168.1.0は192.168.0.101追記)
ホストOS br0(192.168.0.100/24),eth0(br0にブリッジ)GW192.168.0.1
ゲストOS(router) eth0(br0)192.168.0.101/24 eth0:0 192.168.1.100/24(GW192.168.0.1)
ゲストOS2 eth0(br0)192.168.1.102/24
という風にしています。
構成は BBルータ----192.168.0.0/24---ゲストOS(ルータ)---192.168.1.0/24
という風にしたいと思っています。
>>143 さんのアドバイスをもとにちょっと頑張ってみます。
BBルータ LAN側 192.168.0.1/24 (ルーティングテーブルに192.168.1.0は192.168.0.101追記) ホストOS br0(192.168.0.100/24),eth0(br0にブリッジ)GW192.168.0.1 →eth0:0 br0:0を作成(IP付けない) ゲストOS(router) eth0(br0)192.168.0.101/24 eth0:0 192.168.1.100/24(GW192.168.0.1) →ゲストOS(router) eth0(br0)192.168.0.101/24 eth1(br0:0) 192.168.1.100/24(GW192.168.0.1) ゲストOS2 eth0(br0)192.168.1.102/24 →ゲストOS2 eth0(br0:0)192.168.1.102/24(GW 192.168.1.100) こんな感じですかね。
146 :
login:Penguin :2012/07/27(金) 01:21:39.33 ID:N5e/xEb+
こっちでやってる
iptables/routing
you can also connect your guest vm to a tap in your host. then setting iptables
rules in your host to become a router + firewall for your vm.
Routing would be done simply by creating the default route on the client to the
IP of the host (and allowing IP forwarding) and setting a route to the tap? device
of the client on the host.
以下略
http://www.linux-kvm.org/page/Networking
147 :
132 :2012/07/27(金) 02:32:47.81 ID:zRBPvS1o
>>145 ,146
ありがとうございます!
早速試してみます。
148 :
132 :2012/07/27(金) 05:00:44.24 ID:zRBPvS1o
うまくいきました!
150 :
login:Penguin :2012/08/08(水) 01:20:07.64 ID:/KQw8DfU
kvmのネットワーク設定でつまづいています。 ifcth-eth0(192.168.1.1) ifcth-eth0:11(192.168.1.11) ifcth-eth0:12(192.168.1.12) ifcth-eth0:13(192.168.1.13) ifcth-eth0:14(192.168.1.14) ifcth-eth0:15(192.168.1.15) 現在上記イメージでホストにIPを振っています。 (iptablesやブリッジの設定は特になし) virt-managerでゲストOSを作って、NICの設定で「ホストデバイス eth0:11:macvtap」を指定して ゲスト側ではDHCPでIPを自動取得にしたのですが外部につながりません・・・。 やりたい事はゲストOS毎にIPを振って外部のPCからSSHでアクセスしたりhttpにアクセスしたりしたいのですが、 どこが原因なんでしょうか。 ※構築したいイメージ図 【ルータ】(192.168.1.254) | 【ホスト】(192.168.1.1) |-------------|-------------|-------------|-------------| 【ゲスト1】 【ゲスト2】 【ゲスト3】 【ゲスト4】 【ゲスト5】 (192.168.1.11〜192.168.1.15) よろしくお願いします。
>>150 ホストで設定するNICは
ifcfg-eth0 (ブリッジ設定 IP無し)
ifcfg-br0 (eth0の内容を引き継いで192.168.1.1)
んで、ゲストには全部br0をつければOK。
ゲストのIPはホストが決めるもんじゃないです。
>>151 ゲストのIPはゲスト側で設定すれば良かったんですね。
ありがとうございます。
再度挑戦してみます。
153 :
150 :2012/08/08(水) 22:54:54.37 ID:/KQw8DfU
ゲスト側の設定で詰まってしまったのでまた質問させていただきます。
現在グローバルIPが33個あります。
※グローバルIPの振り分けは下記とします
ホスト用IP:xxx.xxx.3.17
ゲスト用IP:xxx.xxx.194.14〜xxx.xxx.194.45
>>151 さんのご指摘であったブリッジ接続については下記のように設定してあります。
【ifcfg-eth0】
DEVICE=eth0
ONBOOT=yes
HWADDR=XX:XX:XX:XX:XX:XX
BRIDGE=br0
【ifcfg-br0】
DEVICE=br0
ONBOOT=yes
TYPE=Bridge
IPADDR=xxx.xxx.3.17
NETMASK=255.255.255.0
GATEWAY=xxx.xxx.3.1
上記で設定したbr0をゲスト側のNICの設定(ホストデバイス vnet0 (Brigde 'br0'))して、
ゲスト側のifcfg-eth0は下記のようにしましたが外部につながりません(8.8.8.8やゲートウェイなどにpingが通らない)。
【ifcfg-eth0】
DEVICE="eth0"
BOOTPROTO="static"
IPADDR=xxx.xxx.194.14
GATEWAY=xxx.xxx.3.1
ONBOOT=yes
どこの設定まわりを見直せば良いのでしょうか。
よろしくお願いします。
154 :
150 :2012/08/08(水) 22:55:46.18 ID:/KQw8DfU
すみませんsageてしまっていたのでageます
ここはお前用のサポートじゃねえんだよ
>153 「よろしくお願いします」って、丸投げするなよ。 仮想化以前に、基本的にネットワークセグメントがおかしいと思うが。 1台のIPがxxx.xxx.3.17/24で、同一セグメントに、 別のIPがxxx.xxx.194.14 って。実環境で構築したっておかしい。 >155 全くもって同意。
まずちゃんとしたトポロジの設計かな
158 :
150 :2012/08/08(水) 23:24:15.64 ID:/KQw8DfU
>>155 ,
>>156 丸投げするもりなどはなく、なにかしらヒントだけでもらえればと思ったもので。
>>156 > 1台のIPがxxx.xxx.3.17/24で、同一セグメントに、
> 別のIPがxxx.xxx.194.14 って。実環境で構築したっておかしい。
そうなんですけどね。こういうIPを割り振られてしまったものでして。
もう少し調べてみます。
ありがとうございました。
>>150 は質問の仕方が「自分専用のサポート窓口」みたいになってるってことに気付かないんだろうな
哀れ
160 :
759 :2012/08/09(木) 00:38:00.02 ID:/cz17INV
誰だって最初は判らないんだから、もちょい優しくしてやれよw
俺は暇人だからおk。
>>158 前出の通り、割り当てられてるグローバルIPとゲートウェイの関係がおかしいよ。
これはKVMの話じゃなくて、普通のネットワークの話ね。
仮にゲストにNIC1つでOKで、ローカルIPが必要無いってなら、KVMのネットワーク設定はそれで合ってる。
(物理スイッチとかの配線までは知らんけど、間違ってそうな気がせんでもない。)
IPに関しては最低限必要な基本情報が3つあって、
・IPアドレス
・サブネットマスク
・ゲートウェイ
が必要なんですわ。 だから下のゲストの設定で問題なのは、
>ゲスト側のifcfg-eth0は下記のようにしましたが外部につながりません(8.8.8.8やゲートウェイなどにpingが通らない)。
>【ifcfg-eth0】
> DEVICE="eth0"
> BOOTPROTO="static"
> IPADDR=xxx.xxx.194.14
> GATEWAY=xxx.xxx.3.1
> ONBOOT=yes
・NETMASKが書いてない。
・GATEWAYが常識的にはありえない。
(ちゃんと金払って借りてるグローバルIPが前提の話ね。大規模ならあるかもしれんけど。)
の2点。 GATEWAYはxxx.xxx.194.1とかのはずだよ。
>そうなんですけどね。こういうIPを割り振られてしまったものでして。
この設定を指示した人間は、それくらい判るだろうとおもって頼んでるはずw
ガンガレ
ごめん読みが甘かった。
>>156 の言うとおり、そもそもIPの振られ方がおかしい可能性がありますね。
ホストのNIC設定が1つで、2つのサブネットに繋ぐことはあまりしないかも。
ネットワークの全容が分からんからなんとも言えんけど、一度仕様を確認した方がいいと思います。
つかこのレベルにグローバルIPの運営をまかせて良いのか? 取りあえずボコボコにして追い返すのが世界平和の為じゃない? 今IP4はかなり割り当て厳しくなってるんだから即刻返却すべし!
業務なら知識のないうちは付焼より金払って勉強したほうがいい 毎回このスレに相談に来る気か
kvm覚えるのに丁度いい書籍なんてあったっけ
残念ながら、ろくな本無いねぇ。 大体古い。 自分はネット漁った。
日本語でのKVMの本は、今のところ「KVM徹底入門」 一冊しか無い。 かなり初心者向けだけど。 大抵の人がlibvirt使って管理をしてるだろうし、 Qemuとlibvirtのサイトでドキュメントを見るのが一番いいような気がする。
Qemuのサイトを一通り読んだ記憶がうっすらある。 1回作ったら、あとはたいていコピペだし、もうほぼ記憶無い。
168 :
login:Penguin :2012/08/19(日) 12:29:29.27 ID:RaTwhhlL
virt-managerみたいなやつをmacで使いたいんだけどなんかない? sshでX飛ばしてvirt-manager起動させてみたけどkeymapがおかしくなったりする
VNCでも使えば?
>>169 今VNC使ってるけどXはなるべくサーバに入れたくないんだよね。
なんか代案があればと思ったんだけどやっぱないか。
keymapがおかしくなるのは仮想マシン?それとも virt-manager自身? 仮想マシンのkeymapがおかしくなるのは、keymapを 定義してないからではないでしょうか。 自分もMacからSSH越しでvirt-managerを使っているけど keymapで困ったことはないです。
「mac xサーバ virt-manager」とかでググるといろんなサイトで.Xmodmapいじれって書いてあるけど
173 :
login:Penguin :2012/08/20(月) 20:43:37.86 ID:g+2xrkIq
画面共有の方法を教えてください。 下記環境で使っていた時は、サーバの仮想PCの画面と クライアント側UltraVNCで同時に同じ画面を表示されることができてました。 サーバ:centos6.2でKVM クライアント:Win7 + UltraVNC このサーバにCentOS6.3をクリーンインストールしてKVM環境を構築すると、 サーバで仮想マシンの画面を開いている時はクライアントVNCが接続できず、 サーバの仮想マシンの画面を閉じている時のみクライアントVNCが接続できる様な具合になってしまいました。 これを以前の環境(centos6.2)と同じように、2つのPC間で同時に同じ画面を表示させたいのです。
複数ホスト運用時、 /etc/libvirt/qemu 以下のXMLファイルってどうしてる? できれば同期的に最新状態にしておきたいんだけど、 cronで定期的にrsyncで回すとかで問題ないもんかな…?
lsyncdしてる
リアルマシンの台数を削減するためKVM(ホストはCentOS6を予定)上に集約させようと思うのですが、 現在運用している環境を再構築するのは面倒なので今のリアルDiskイメージから仮想イメージが作れれば比較的簡単に移行出来るのではないかと考えています、 その様な方法は可能なのでしょうか? 可能であればリアルディスクイメージを仮想ディスクへ変換するツールなどあるのでしょうか? なお動かしているシステムは特別なハードに依存していないのでKVMの仮想ハードでも問題なく動くと考えていますがどうでしょうか?
>>176 CentOS6.3のvirt-p2vパッケージの中にISOイメージ入ってる
HDDを適当なLinuxマシンに接続して、後は dd コマンドで丸ごとイメージ持ってくればいいだけ違うの?
ご存知の方がいれば教えて下さい。 KVMのVNCサーバってホストOSにXが無いと動かないでしょうか? ホストOS(Gentoo)にゲストOS(Gentoo)を作成し、 クライアントPC(Windows)からゲストOSへ、 UltraVNCでアクセスしようしています。 ネットワーク設定はブリッジ接続で行っており、 レイヤ3レベルの疎通性は取れているのですが、 tcpdumpしてみるとポインタの位置情報のやり取りを、 ゲストOSのVNCからバチっと切っているようでして、 ひょっとしたらホストOS側にXが必要なんではないかと。 ホストOSがGentooという事でスレ違いでしたらすみません。
>>180 listenがループバックになってんじゃないの?
182 :
180 :2012/09/09(日) 12:02:17.60 ID:E05UzG1u
>>181 さん
レスありがとうございます。
deamonizeで動かしている状態で、netstat -l -tしてみました所、
tcp 0 0 *:5900 *:* LISTEN
となっていました。
なのでlistenループバックは多分大丈夫です。
理解が間違ってたらすみません。
libvirt つかってるけど、qemu.conf にこんな設定がある。 なんかの参考になれば... # VNC is configured to listen on 127.0.0.1 by default. # To make it listen on all public interfaces, uncomment # this next option. # # NB, strong recommendation to enable TLS + x509 certificate # verification when allowing public access # # vnc_listen = "0.0.0.0"
184 :
180 :2012/09/09(日) 20:02:44.37 ID:E05UzG1u
>>183 さん
レスありがとうございます。
ひょっとしたら省略可能とは聞くものの、
-vnc :0で端折ってるのがいけないのかな。。。
今までqemu-kvmコマンド直打ちで試していたのですが、
一度virtshでの設定と運用を試してみたいと思います。
185 :
login:Penguin :2012/09/16(日) 16:04:52.06 ID:W24XMlJx
kvmでゲストOSを起動する際にドメインIDを固定にさせたいんですけどそういう方法ってありますか? 調べてみたけど <domain type='kvm' id='3'> これだとvirsh editで編集しても元に戻っちゃうから書き方が間違っていると思うんですが・・・
>185 virsh domid で id 取得するんじゃダメなの?
>>186 管理NoとドメインIDを統一したいんです。(わざわざ管理Noが書かれた別ファイルを開きたくない)
libvirtd起動時にドメインIDがランダムに割り振られちゃうので指定できればと思ったんです。
xmlで設定できれば良いんですがラッパープログラム書かないと難しそうですね。
>>187 listで出てくる数字とuuidを統一したいとか?
根本から考え違いしてないか?
ESXiとKVM、迷ってから早半年
そこはいい加減決めよう! Q1. デバイスパススルー使いますか? Q2. ディスクI/Oは多い方ですか? Q3. Linuxは好きですか? Yesが多ければKVM、Noが多ければESXiくらいの感じで。
>>188 listで出てくる数字(ドメインiD)とサーバの管理番号(Excelに記載しているサーバの管理No)を一緒にしたいってことです。
uuidとかはまったく関係がなく単純にドメインIDを指定した番号に固定出来ればいいだけです。
192 :
login:Penguin :2012/09/17(月) 14:58:46.85 ID:H/U9TRem
KVMってWindowsがゲストの場合にモタつく感じがするんですが ESXiだとサクサクになるんでしょうか?
195 :
login:Penguin :2012/09/17(月) 19:36:56.96 ID:H/U9TRem
>>194 KVMよりマシなら試してみる価値ありそうです、
Hyper-Vも検討してみます。
>>192 両方使ってるけど、
ESXiの方が若干軽い感じがする。>Windowsゲスト
つーか、ESXiはハードウェアの好き嫌いがかなりあるからなぁ。
手持ちのマシンで何も考えずにお手軽に仮想環境が作りたいなら
KVMの方がいいかもしれん。
197 :
login:Penguin :2012/09/18(火) 06:26:26.01 ID:c5sehihA
>>192 ディスクイメージを SSD に置けば気にならなくなるかも
以前の virt-manager って表示を 「稼働中のVM」とか「停止中のVM」って 切り替えられた思うんだけど、 最近(手元には0.9.0と0.9.4)ではなくなった? 縦に一杯並んじゃって見にくい。
一つのVMに9個以上のPCIデバイスを割り当てようとするとエラーになるんだが、 どこの設定を弄ればいいんだろう
MAX_DEV_ASSIGN_CMDLINE(8)で思いっきりハードコーディングされてるのか… ダメじゃん…OTL なんでこんな制限設けてるんだ
自己解決してダメな理由がわからん・・・
202 :
199 :2012/09/28(金) 07:12:47.99 ID:GOAlBBHa
ハードコーディング=弄れる設定ではないってことです。 ちょっと事情があって自前でビルドできないので。 ダメ元で提供元に依頼をしてみる。
エミュレートしているBIOS/PCIブリッジの仕様だったりはしない?
最近KVMに興味出てきたんだけど ESXi上でKVMて動く?
仮想化支援引き継ぐように設定されてれば条件満たすけど?
nested(入れ子)VMに対応したCPUなら出来る
NestedVMって概念を初めて知った。 メインフレームとかその手の技術かと思ったら Intel VT 詰んだその辺のマシンとVMWareでも出来るんだな、、、 便利に成ったもんだなー
ESXi上でESXi動いたけどその環境ならESXi上でKVMも動かせるって事か
>>207 intelVTだけじゃ動くかどうか判らないよ
できたとして何の意味があるんだ?
>211 実機じゃなくてもハイパーバイザーの検証ができるとか
>>211 仮想環境ごと仮想化できるメリットを理解できないとかw
わかんない人は関係ない人だから聞いてもわかんないよ、どうせ。 でもわかんない人の関係のない世界では、多重の仮想化はもはや欠かせない 技術になっている。できないと崩壊するくらいに必須。
仮想の多重化って単なるCPUの無駄遣いじゃん
217 :
login:Penguin :2012/10/04(木) 17:35:32.07 ID:L0c9qQoO
ポンコツな「パーソナルコンピュータ」しか触ったことのない人って見ててかわいそうだよね
我々セキュリティ分野の人間としてもだな
雑談はそのくらいで。
仮想の多重化て実験以外の必要性が思い浮かばないのだが いったいどんな時に必要になるんだ?
>>215 を可能な限り好意的に解釈してみると
仮想ホストを乗っかってるゲストごとライブミグラチオンするとか
仮想ホストを乗っかってるゲストごとFT鯖化するとか
メーカーも機種も異なる屑鯖の山でハードウェアリソースをプールして仮想ホスト&ゲストを乗っけるとか
実験にしか使えんな
ミグラチオンってどこの方言だ。
エレクチオン方面と思われ
メインフレームとかPowerPCやItaniumみたいな非x86_64積んだのや VMwareESXなんかの複数台をまとめて1仮想ホストで使える環境でなら、 仮想環境上にx86_64linuxなりを入れて更にxenやらKVM使うことはあるよ。 メリットは管理運用上や、ゲストOS・中間ホストOSで発生する各種上限の回避じゃないかな
マジでそんなアホな案件通す会社があるのか? 仮想化使う保守管理費用がすげー事になりそうだが
>>226 メインフレームのリプレースやサーバー数百台以上の統合レベルの案件だったら十分あるでしょ。
すでにハードウェアの保守管理費用がすげー事になってたはずだし、移行費用とランニングコスト次第じゃないかね。
無駄に多い改行は無視してください。
ゲストOS/中間ホストOSで発生する各種上限の回避ってのが、 例えばESXiサーバの上にKVM用のLinuxを立てたとして、そのLinuxは ESXiの制限に縛られるものなんじゃないの? 逆もまた然りで。
けっこうぬるい仕事しかしてない奴がほとんどなんだな。 VM on VMの利点すら考えつかないなんて、そうとうに楽して 稼いでいる感じ。
>>230 データセンタで監視のお仕事ご苦労様です。
明日も出勤頑張ってくださいね。
もうかまうな。
>>234 1:Windows 7上のXPモードが使える
2:ハイパーバイザのデバッグ(=開発)が簡単になる
3:組み込みハイパーバイザでも柔軟性が高まる
一般ユーザだとせいぜい1ぐらいしかメリット無くないか?
それも製品版XP持ってたらメリット無いしLinuxメインだと全然関係無いね
まぁ全く意味ないと言う事ではないが必死に必要性を力説する程じゃないな
商用の仮想アプライアンスはESXiで動く前提のものが多いから、 KVM上でESXiを動かせば多少はメリットがあるかな。 ただ、オーバーヘッドは気になる。
そう考えるとVMonVMというよりはESXionVMって感じか
お前らは VMware 商用クラウドのVM上で XenDesktop 動かしたいとか言い出す変態SIerをパートナーに持ってないだけ幸せだよ まあうちのクラウドサービスではネスト許可してないんだけどな
中古のPCでも目の前にドンて置いてやって「好きなだけ動かしな!(ペッ」って言ってやれ
>>239 お前がさくらだったら愚痴言いたい
そろそろ使えるようにしないと更新時期に出てきますよ…
でてって VM on VM 可能な VPS なんて CPU 貧弱であろう Core Cloud VPS 位か…
Phenom 9550 の 4 Core 中 1 Core じゃなぁ… 上位プランまだすk
ところでなんで商用利用が前提になってるの?
厳しい仕事で苦労して稼いでいる空気が出せるから?
244 :
239 :2012/10/11(木) 19:30:35.50 ID:PuMHn6y9
遅レス。スレタイ100回音読してた
>>240 力関係がSIer>>>>>>インフラ屋だったから。「こんなのいつもやってますよ当たり前ですよ」だって
客まで洗脳されて「何でダメなの」って言い出すんだぜ。何なのこれ
案の定空中分解してSIer自身も失注したけど
>>241 違います。さくらは安すぎて怖いよねー。個人的にも使いたくないね
>>242 突っ込みどころは「KVMじゃないからスレ違い」だろ?
>>243 自分語りで目立ちたかったからじゃないの?
というわけで以下KVMの話題↓ スマン
興味本位で聞くんだけど多段ネストって出来るの? やったこと有る人は最高何段?
1段だけだな
247 :
245 :2012/10/12(金) 17:49:27.40 ID:NX9WsntC
>246 実機で動いているVMの上で、VMを動かしてOSを動かしている状態? つまり3段重ねって事でしょうか? ベンチじゃなくて雑感としてで ケッコウですが、処理速度は実機の何割くらいの感触になるんですか?
>>247 うん
処理速度的にはネイティブの2割〜3割位かな
色々パススルー駆使しまくってもね
あと思ってる以上に安定性悪いよ、10年以上前のvmware使ってるような感じ
249 :
245 :2012/10/13(土) 19:08:58.31 ID:tQQxLeIu
>248 情報有難う御座います。 思ったよりパフォーマンス高いですね。 ハードによるサポートのお陰かな。 安定性が低いのはどうしてなんだろう? 仮想化がちゃんと行われて いるのなら子プロセスで行われる作業も孫プロセスでの処理も変らない筈、、、 オーバーヘッドが大きくて処理待ちしている間に、親の方でエラー扱いに してしまっている、、とかかな
「ネイティブの2割〜3割位」ってことは 1/3〜1/5倍速って感じだよね それで「思ったよりパフォーマンス高い」のかw
WANとLANを繋ぐルーターを仮想マシン上に委譲しようと思う。 生回線と比べてどんだけ性能低下するんだ?
>>250 ここは日本語の勉強をするスレではありませんよ。
日本語が理解できるようになってから来てくださいね。
>>250 の言ってることは何も間違ってないと思うのは俺だけか?
2割〜3割位 20% 〜 30% 1/3〜1/5倍速 33.3..% 〜 20%
>>250 その速度だとホスト型の方が速そうだw
>>251 元々のルータが一般に市販されてるルータだとしたら
ホストの処理能力によるけど普通に市販ルータよりはスループット高いと思う
>>255 すいません。元はLinuxルーターです。
>>251 GbE-[VM NAPT]-GbE, 他の負荷無し, NAPT 1session でiperf計測900Mbpsぐらい
BGPでフルルート食わせても、10GbEで8Gbpsくらい出てるよ。
>>259 ホストマシン上で直接ってのはやってないのでわかんない。
環境としては、
A)iperf送信側 Dell PowerEdge R210II / Xeon E3-1270 3.40GHz / 16GB
CentOS 6.2(64) 2.6.32-220.7.1.el6.x86_64 #1 SMP
VM qemu-kvm-0.12.1.2-2.209.el6_2.4.x86_64 / 1vcpu / 2GB
CentOS 6.2(64) 2.6.32-220.13.1.el6.x86_64 #1 SMP
iperf 2.0.4 (7 Apr 2008) pthreads
仮想ブリッジは Open vSwitch 1.4
B)iperf受信側 Dell PowerEdge2950 / Xeon E5405 2.00GHz / 2GB
CentOS 5.7(32) k 2.6.18-274.12.1.el5 #1 SMP
iperf 2.0.4 (7 Apr 2008) pthreads
C)vyatta HP DL120 G7 / Xeon E3-1240 3.30GHz / 16GB
CentOS 6.2(64) 2.6.32-220.7.1.el6.x86_64 #1 SMP
VM qemu-kvm-0.12.1.2-2.209.el6_2.4.x86_64
仮想ブリッジは Open vSwitch 1.4
vyatta-livecd-virt_VC6.3-2011.07.21_i386.iso
1 cpu / 512MB 割り当て
A -> C 直接 941Mbps (ovs で tag/untag処理入り)
A -> B -> C 870〜941Mpbs 平均で930Mbpsぐらい (ovs で tag/untag処理入り)
vyattaでやってるのは192.168アドレスからグローバルアドレスへのNAPT処理のみ
iperfのデータしか流してない低負荷状態なのでピーク性能でこんなもんって目安になれば。
ありがとうございました。
ミグラチオン
KVMは使いものにならないゴミだから 調べる価値もないよ。 マイグレーションはESXいの10倍かかるし HAすらできないゴミだし。
良く調べもせずに客に提案して先輩に怒られたの?
KVMは実際にゴミ大手は絶対に使わない。
>>265 >>266 > KVMは実際にゴミ
> 大手は絶対に使わない。
じゃないか?大規模商業ベースで使うにはいまいち信頼できないな。
個人で遊ぶには丁度いいと思うが。
大手のVPSサーバーは 大抵KVMだけど
KVMが使えないのは確か。 ただ、タダ。w
>>271 IBMは商用で使った実績ないぞ嘘つくな
あと研究所の記事載せるな。
IBMはもろにKVMのスポンサーだろ。推進側企業。
Redhat<・・・
6SyncとかJoyentとかRackspaceとかGoogleみたいな普通のVPSを言えばいいのになぜIBM…
6Syncはシックスセンスにかけてるのかな?
さくらってKVMよね? さくらクラウドとVPSがKVMなはず。 「さくらは大手じゃねぇ」と突っ込まれる場合は、規模感を定義してくれ。
おなまえ.comのVPSもKVMですね
むしろKVM以外のが少ないわ。
282 :
245 :2012/10/23(火) 00:09:21.48 ID:Es9X5S0d
openvzのVPS借りてるけどカーネルのバージョンがあげられないから セキュリティ的にちょっと心配。 さくらかお名前に変えようかな、、、
openvzからkvmとか、kvmからlxcとか自分でやってたら簡単なんだけど、サービスとして使ってたらどうなんだろ。
OpenVZのVPSかりてて他に行きたいけど 100円のとこがここしかないから移れない
285 :
login:Penguin :2012/10/27(土) 12:39:57.18 ID:/1FBhTx+
CIAっていう、画面転送プロトコルは通信帯域がもっとも小さいと聞きました KVMもCIAというプロトコルは採用しているのでしょうか 仮想マシンとしてWIN7を動かして、その画面をCIAでクライアントへ送って使うことはできますか?
>>285 Citrix ICAの間違いだとして、
> KVMもCIAというプロトコルは採用しているのでしょうか
いいえ。
287 :
login:Penguin :2012/10/27(土) 22:16:58.25 ID:/1FBhTx+
>>286 レスありがとうございました
ICAの間違いです。どうして勘違いしちゃったんだろう
対応は今のところはXENだけでしょうか
特許があるんじゃないかな<ICA 別にVDI的なことやるんでなければ普通のプロトコルでもよさそうな。SPICEとかどうなの
>>288 レスありがとうございました。
SPICEなんていう画面転送プロトコルは初耳でした。
すごいですね、WINDOWSでも使える。
勉強して使ってみます!
290 :
login:Penguin :2012/11/03(土) 05:14:06.64 ID:5qrKm+PN
291 :
290 :2012/11/03(土) 05:16:21.43 ID:5qrKm+PN
(改行が多すぎるって怒られたので分割)
>>290 の続き
virtioドライバの配布場所に英語で
latest drivers are of version "15", dated "15-Jun-2011",
with the CD image being virtio-win-0.1-mm34.iso.
In that image, WindowsXP drivers does not seem to work,
it is impossible to install them using regular winXP driver interface.
But the previous drivers, version "14" as found on this Directory,
dated "13-Jan-2011", from CD image named "virtio-win-1.1.16.iso",
installs on winXP fine.
と書いてあります。
英語読解0なりに
最新バージョンはXPで動かないよ。
前のバージョンを試すんだルーク。
virtio-win-1.1.16.isoをDLしろっ
てな感じに読めるのですが、this Directoryのリンク先には
virtio-win-0.1-30.isoしか置いてなく、肝心のvirtio-win-1.1.16.isoがありません。
KVM + XP + virtioでうまく安定稼働させる助言をお願いします
293 :
290 :2012/11/03(土) 14:24:14.91 ID:5qrKm+PN
まあどうせドライバは署名されてないし、それぐらい検証すれば 十分じゃないかな。動いてよかったね。
295 :
login:Penguin :2012/11/05(月) 22:20:21.84 ID:2YGDwAto
windows の仮想化はKVMよりESXiのほうがずっと速いと思ってたんだけど 1割り程度しか改善しないんだね。 倍速くらい出るとおもってたのに俺の土日はなんだったんだ。
296 :
login:Penguin :2012/11/19(月) 15:59:33.19 ID:HMAtrWlL
暇な人、教えて下さい。 ホストOS→Centos 6.3 ゲストOS→Win XP Pro SP3 液晶ディスプレイ→Mitsubishi RDT234WLM-D 教えてほしいのは、ゲストOSで画面解像度「1920x1080」を表示させる方法。 ホストOSの「VGA」設定だと、「1920x1080」がない。 ※1920x1200はあるんだけど、文字や線がにじんでいる。 「VMVGA」設定だと、ゲストOS起動から、黒画面のまま。 取り敢えず、こっちで試してダメだったのはKVMのビデオカード設定を、 【VGA設定】 WindowsXPの画面解像度に、「1920x1080」の設定が無い。 「Monitor Asset Manager」と「DTD Calculator」で、無理くり1920x1080の解像度を作ろうとしたけど、 “Intel Graphic Registry Key not Found”と怒られ断念。 ※仮想環境な為、当然と言えば当然。 【VMVGA設定】 WindowsXPに「vmwarevga32-kvm.iso」をインストール。 ゲスト終了→ビデオカードを「vmvga」に設定変更→ゲスト起動→画面黒のまま ※参考にしたURL→tp://www.linux-kvm.com/content/using-vmware-vga-kvm-windows-guests 流石に、詰んでる感が出てきたので…最後に、此処で聞いてみようかと…。 宜しくお願い致します。 ※質問なので、一応ageときますね。
>WindowsXPに「vmwarevga32-kvm.iso」をインストール。 あたまおかしいの?
そこまで調べられるのになんで正解にたどり着けないんだろうか…
301 :
296 :2012/11/19(月) 21:46:13.41 ID:HMAtrWlL
>>297 有難うございます。
無事上手くいきました。
補足すると…。
ゲストOS側(WinXP)に、「spice-guest-tools-0.2.exe」をインストールして、
ゲストOS再起動後に、画面解像度に「1920x1080」が表示されました。
※まぁ…当然っちゃあ当然ですが…。
また、WinXPに「avast!」を入れてる場合、
上記ソフトをマルウェア検知し、マウスが効かなくなりますが、
キーボード操作で、インストール先フォルダのみ除外設定にすると、
無事、マウスも反応するようになり、大変満足しております。
本当に有難うございました。
>>298 有難うございます。
勉強になりました。
>>299 すいません…当方、学も何もないもので…。
ご迷惑お掛けしました。
>>300 こういう問題が発生した場合、解決するには…センス(才能)としか…。
以上です。
本当にありがとうございました。
302 :
296,301 :2012/11/20(火) 00:19:00.11 ID:LoiTdiVM
本日は、本当にありがとうございました。
私も将来、
>>297-300 さんのように、
博識で、人の役に立ち、尊敬されるようなエンジニアに、なりたいと思います。
本当にありがとうございした。
では、また何処かの板でm(_ _)m
>本当にありがとうございました。 この文字列見て反射的に縦読み部分探してしまう俺は脳が腐ってるんだよな・・・
centos6.3でvirt-p2vを使ってライブマイグレーションをしようと思っているのですが、誰か実際にやった方いらっしゃいますか?
>脳が腐ってるんだよな・・・ だな
わろたw
kvmってイメージファイル破損するけどなんでなの?
サーバとして2年以上使ってるけど破損したことがない。
>>308 KVM が壊すんじゃなくて、
仕様外の運用してるからこなわれるんだろ?
>>311 何もしてないのに
プロセス強制的に落とすとディスク壊れた。
VMwareだと大丈夫なのに
で、でたー!www何もしてないのに壊れたとか言う奴www
>>312 VMware 使ってろ
2度とこっちくんなw
「何もしてないのに」 「プロセスを強制的に落とすと」 という点ですでに矛盾を感じるんだが、ともかくも実PCで いうところの電源ぶち抜きをしてるようなものだから、 そりゃディスク書込み中だったら壊れるんじゃないか。 VMWareで壊れなかったっていうのも、偶然だと思うよ。 もしくは「強制的に」のレベル感が異なっていて、VMWareは 実際には強制的に落としては居ないのかもしれない。
釣られすぎだろ
>>316 virsh destroyってコマンド実行して
普通に終了させただけだよ。
"virsh destroy"でぐぐると、RedHatのマニュアルにもちゃんと 「virsh destroy を使用すると、ゲストのファイルシステムを 破損するかも知れません。」って書いてあるな。
vmを強制終了(電源オフ)させてもvm wareだとデータ破損しないのか あ〜すげぇすげぇ()
こんなスレで笑かさないでくれよ
>>318 普通に終了させるのは
virsh shutdown
仮想上でsyncした上でホスト側でsyncしてればvirsh destroyでもほぼ大丈夫でしょ そんな面倒なことしないだろうけど
>>320 VMWareは破損しないですね。心配になったら
問い合わせましたけどVMotionがあるから絶対
大丈夫ですって言わましたけど?
KVMだけが機能的なバグで普通に使ってても
破損するってことは理解できましたよ。
>>324 文盲か?2度と来んなカス
テメェにとって機能が足りなくてもそれが仕様なんだよ
勝手に勘違いしてギヤーギヤー騒いでないで、黙って必要とする機能をもったツールを使ってろ
カスが目障りなんだよ
2度とくんなカス
まだ何もしてないのに壊れたと考えてるらしい
本当に何もせずぶっ壊れたならハードに問題あるのかもよ HDDがSMART見たら危なかったりMemがエラー吐いてたり
VMのプロセスを殺す話をしてVMotionがあるから大丈夫なんて回答が帰ってくるとは思えないが・・・
オレもVMwareに対する巧妙な逆ステマかと思ったw
>>324 なんでマイグレーション機能が関係あるんだ?
強制終了して無事であることとのさ関係がさっぱりわからん。
>>324 もっと自身の理解を深めてください。曲解した知識で他人を巻き込まないでください
>KVMだけが機能的なバグで普通に使ってても >破損するってことは理解できましたよ。 バグじゃなくて仕様どうりの動き。 ついでに言うと、ゲストの強制的な終了ととvmotionは関係ないから、騙されてるか問題を勘違いしてるとおもうよ。
「どおり」な。
お前以外はちゃんと脳内変換できてる
このスレで起きた事を他スレになすりつける行為をすんのか? お前はグダグダ続けてる馬鹿共以下だな
ゲストが破損するような危険な機能を仕様です。 とかいっちゃうお前らって頭湧いてるよな
検定中
これは試練
>>337 >大丈夫ですって言わましたけど?
じゃあ、大丈夫なんだろ。おめでろう。よかったな。
だから引っ込んでろよウジ虫
似非業者モドキが大した検証もなしに客に納品して 大事なデーターぶっ飛ばして八つ当たりって感じですかね。
>337 マニュアルも読まずに使う人に言われても・・・ virsh destroyは、実機での強制電源断を シミュレートしたい人が使えばいいんじゃね?
PCの電源の切り方は電源ボタンを長押しすることだと思っていた一昔前のオバサンみたいだな。 それを正しい操作だと思っていて壊れるとヒステリックに逆切れする。
>>337 VMwareでもパワーオフ押せば同じことが出来るぞ
しかも右クリックでかんたんにできる
ていうかゲストが壊れるような操作もきちんとできないとVMとしては片手落ちじゃないか?
とりあえず壊れてざまぁだね
vmware使ってデータ破損するんだろうな
> VMWareは破損しないですね。心配になったら > 問い合わせましたけどVMotionがあるから絶対 > 大丈夫ですって言わましたけど? こんなスレで聞いてないでKVMも問い合わせてみたらいいんじゃないの
もうほっとけよ。
そんな情報仮想化大全にも載ってないし KVMのひどいバグでしかない
おかしいな、普段使ってるPCはちゃんとコンセント抜いたりバッテリー外して電源切ってる? まさかシャットダウンとかOSで操作してないだろうな ちゃんと電源を途絶えさせて切らないとダメだぞ
「ひとりH。私はけっこうしてます!」
353 :
login:Penguin :2012/12/11(火) 09:55:39.92 ID:aNmgcVnF
KVMって、VMWAREのVSPHERE CLIENTみたな管理GUIのようなものってあるんですか?
KVM専用というわけではないが、 virt-managerとかがある
355 :
login:Penguin :2012/12/11(火) 18:00:02.23 ID:aNmgcVnF
>>354 レスありがとうございます。
調べてみたいと思います。
356 :
login:Penguin :2012/12/11(火) 18:04:16.75 ID:aNmgcVnF
>virt-manager >libvirt (virtualization API)を介して、 >Xen, Qemu, KVMなど異なるハイパーバイザーを一括して管理 なるほど。 まだ発展途上なわけですね。 最新版を使いたいなら、やっぱりFedoraを用いなければならないかな。
新しい方がいいことは間違いないが、CentOSとかに入ってるバージョンでも 私はそれほど困ったことはない
358 :
login:Penguin :2012/12/11(火) 18:35:04.72 ID:aNmgcVnF
>>357 ありがとうございます。
参考になります。
CentOS6で試してみようかなと思いました。
KVMはちょっとしたことでデータ破損するので使いもに ならないよ。
360 :
login:Penguin :2012/12/12(水) 01:58:20.92 ID:dejHuP6U
ちょっとしたことって?
もうその話はいいよ。
362 :
login:Penguin :2012/12/12(水) 02:08:48.07 ID:dejHuP6U
上のほうでだらだらと発言があったみたいだな。 とても気になるけど、喧嘩を見に行くのはいや。 結局、その真意ってなんだったの?
蒸し返すな。
Gnome-BoxesだとVirtualBoxみたいな感覚でKVMが扱えるね
365 :
login:Penguin :2012/12/12(水) 14:08:07.74 ID:dejHuP6U
それって、virt-manager に類するものですか? KVMって、自由だなあ。
最近KVMいじり始めたが企業とかで運用するのもGUIでやってんのかな
AQEMUも結構使えるね
368 :
login:Penguin :2012/12/13(木) 02:20:54.58 ID:ypW8UxCX
virt-manager Gnome-Boxes AQEMU いろいろ出てきたね それぞれの長所短所が知りたい
つい先日からoVirtを使ってる
371 :
login:Penguin :2012/12/13(木) 15:28:24.27 ID:ypW8UxCX
>>369 おお、よくまとまっています。
しかし、こんなにたくさんあるとは。驚きです。
CentOS4で動いてる環境を、KVMに持ってきたいんですが P2Vでおすすめソフトって、何かありますか? 出来れば、元のOSが稼働中でも出来るものがないかと探してます。 (VMConvertorみたいなもの)
もうメンテされてないOS使うな。正月出勤してCentOS6に更新しろ。
>>362−375
(専ブラって全角安価でも機能するんだな…)
376 :
login:Penguin :2012/12/15(土) 00:22:18.87 ID:CU6sL+7O
P2Vって、新しい(仮想の)ハードウェアに対応させるために、ドライバの組み換えもするんですよね。 すごいな。 OSを知り尽くしているのか。
>>377 virt-p2v だと、Cold Cloningかな、
Mond Rescueなら、Hot Cloningでも、いけそう。
これを試してみます。
でも、373や376の意見をみてると、VMWareにした方がいいのかもしれない。
カーネル統合されてる。というので、KVM期待してたんだけど。
KVMでも、HotCloningいけそうなので、両方試してみよう
379 :
login:Penguin :2012/12/17(月) 06:30:45.90 ID:84HDI9QJ
>KVM期待 良いと思う。 VMWAREはお金かかるよ
>>378 KVMは危険だよ。業務で使うならVMWareしかないよ。
データ消えちゃってもいいの?
普通に使ってたらデータは消えない ちゃんと使えないクズは金払ってVMwareスレに行けばいいよ クズの中のクズはスレチに粘着するらいがw
382 :
login:Penguin :2012/12/18(火) 00:23:14.86 ID:Mc4G7qn0
どんな使い方すればデータが消えるんだ
syncしてないのに停電で電源落ちちゃったとか
>382
318 名前:login:Penguin[sage] 投稿日:2012/12/05(水) 21:07:12.28 ID:a9npjCoE [2/2]
>>316 virsh destroyってコマンド実行して
普通に終了させただけだよ。
なにやら無茶なことしたくせに、壊れた壊れたって叫んでいるだけのように聞こえるんだけど。
もうその話はいいよ。
初心者お断りでいいだろ
初心者以前に頭がおかしい
馬鹿には無理
>>380 また君か壊れるなぁ(怒)
>>319 が見たのってこれだよね
第22章 virsh でゲストを管理
ゲストを強制的に停止
virsh コマンドを使用してゲストの停止を強制します:
# virsh destroy {domain-id, domain-name or domain-uuid}
このコマンドは素早くに強引にシャットダウンして、指定したゲストを停止します。
virsh destroy を使用すると、ゲストのファイルシステムを 破損するかも知れません。
destroy オプションは、ゲストが 反応しない時にのみ使用して下さい。
para-virtualized ゲスト用には代わりに shutdown オプション ( ゲストのシャットダウン) を使用します。
やっぱり壊れるコマンドを実行してただけじゃないか(憤怒)
危険 壊れてる人に触ってはいけません
壊っちまえ(やっちまえ)ーーーー!! virsh save ?virsh shutdown ? そんなもの・・・ クソ喰らえだ! そんなものは見えやしねーー!! 「a9npjCoE」の目にうつるものはただ一つ!! virsh destroyーーーーー!!(デストローーーーーイ!!) --―――-- 、 /::::::::::::::::::::::::::::::::::::\ /:::::::::::::::::::::::::::::::::::::::::::::::\ |::::厂 ̄'''ー――一'' ̄ ̄|:::::| |:::| |::::| |:/ ____ /______ヽ:| /^''Yニ -=ニ・ニ>卅彡ナナナ ニY''ヘ | 久|ニ ー'´| `ー ニ|/ヘ| v V v V v V v V v V v !.イ| ニ l| ニ|ヽ | > 二〃 フ | < ヽ_|彡/ l|、_l 〕 ヽミ|_ノ > ノ へ |ヽ < |`<// v======v ヽヾ>| < _ / < |:::::`<// ヽ___/ ヾ>'::::| > |_| ー―― /| < | :l:::::::`< `――‐'′>'::::|:: | > < | l ::::::::::\__/::::::: l | ハ 八 ハ 八 ハ 八 ハ 八 ハ / l ::::::::::::::::::::::::::::::: l \
問題なく起動してたのに、ビデオドライバをqxlにしたくてspice導入とか
色々やっていたら、KVMそのものが起動しなくなってしまった。
必要なファイルは一通り入れてるんだけどなぜか、QEMU/KVMのカーネルが
組み込まれてないとか、ハイパーバイザーのオプションがありません
やらのエラーが出るんだけど、どうすればいいんだろうか。
一回全部アンインストールしてみても駄目だったし、どうすればいいか分からない
関係あるか分からないけど、下のURLを参考にした後起動できなくなりました。
ttp://www.kkaneko.com/rinkou/cloudcomputing/spice.html
残念だが、これでわかったらエスパー。 KVMそのものが起動しないってのがまず判らない。 特定のゲストマシンが一つだけ起動しなくなったのか、 それとも、ホスト上の仮想マシンがすべて起動しなくなったのか。 エラーが出るなら、エラーメッセージと、それがどこで 出力されてるのかを書いてもらったほうが良いかも。 > QEMU/KVMのカーネルが組み込まれてないとか これは、ホスト側の話だとすれば、 lsmod | grep kvm やってみて。
KVMそのものがって意味不明でしたね。新しい仮想マシンを作成しようとしても できなくなった。その前に入れてたゲストOSも起動しなくなった。 ログにエラーの内容は書かれていないし、そのコマンドでも きちんとカーネルは組み込まれてるんですよね。 操作はvirt-manager上でやっています。
virt-manager使ってるとしたら、libvirtdはちゃんと動いてるのでしょうか。 virt-manager起動後に仮想マシンリストが表示されてるなら 多分そのへんは問題ないのだろうと思うけど。 CentOS6ベースでしか分からないけど、、 libvirtを使ってる場合は、 /vav/log/libvirt の下に いくつかログを吐くから、そのへんで何かでてないですかね。
>393のURLを見てみましたけど、 「Ubuntu で SPICE 対応の QEMU+KVM のインストール 」てのを やってるとすると、Qemuのバイナリを入れ替えてるぽいから これが原因かも。 運が良ければ、ここでインストールしたqemuを削除とか、 出来れば綺麗にアンインストールすればなんとかなるのかもしれない。 /usr/local/bin/qemuにSPICE対応が入ってて、 /usr/bin/qemuに、元々動いてたqemuが入ってたりしないでしょうか。
両方のフォルダにたくさんのqemu系ファイルがありましたね。 競合してるということなんでしょうかね。 とりあえず削除して様子見します
KVMなんて使うからこんな残念なことになるんだよ。 あほだろ
あほには使いこなせないことが証明された
俺でも使えるんだからアホでも使える筈
CentOS5から6に乗り換えたのを契機にvirshを使うようにしたんだけど、 ゲストのCPU定義の仕方がよくわからん…。 qemu-kvm直接実行の時の-cpu=hostは、virshのXMLではどう書けばいい? Windows8 32bit版のインストールDVDが起動できなくて困っている…。
>>404 <cpu mode='host-passthrough'/> にしたら、-cpu hostで起動できた!
けど、起動できないのは相変わらず…。64bit版のインストールDVDは起動できるからさらに謎。
よくわからん…。
困っている…。
相変わらず…。
さらに謎。
>>404 ,406
お前ら、優しいなw
>>407 KVMは意味不明なバグがまだ数千以上
存在するから使うの辞めたほうがいいよ
開発者自身もわかってないし
ビデオドライバによって、画面の描写の一部分が変になるんだけど (ゲストOSがWindowsなんだけど、チェックボックスで設定を変更するタイプの メニューがうまく表示されない。一部のアプリケーションのメニューの操作が出来ない) これは自分のPC構成による相性の問題なのかな。それともKVM自体の設定でどうにかできる ものなんですかね?ドライバ形式を変えたらなくなるけど、重くなったりするからな。
ゲストのwindowsのドライバがちゃんと当たってないとか?
KVMの深刻なバグなだけかと
画面の描写はKVMと関係ないんじゃ? VNCやspiceなんかの仕事でしょ
んな部分にKVMが関係あってたまるか
居着いちゃったんだろ、スルーしとけ
PCIパススルーについて質問です。 B75チップセットのマザーで、libvirtを使ったPT1&PT2のパススルーがうまくいきません。 PT2の一枚だけPCに挿した状態であれば virsh start hostname で問題なく起動できるのですが PT1とPT2の二枚を挿した状態で同じことをしようとすると、以下のようにエラーで起動できません。 # virsh start hostname エラー: ドメイン hostname の起動に失敗しました エラー: 内部エラー PCI デバイス 0000:06:01.0 をリセットできません: 内部エラー 0000:06:02.0 を持つバス上のアクティブな 0000:06:01.0 デバイス、バスのリセットをしていません 事前に nondev-dettach をすれば起動できるのですが、ゲストPC(Win7)上でパススルーされたデバイスを 使おうとするとデバイスマネージャー上で認識されているにも関わらず、オープンに失敗します。 # virsh nodedev-dettach pci_0000_06_01_0 # virsh nodedev-dettach pci_0000_06_02_0 # virsh start hostname ドメイン hostname が起動されました
ホストはCentOS 6.3で、公式リポジトリに登録されているlibvirt 0.9.10以外にも 本家最新版の1.0.1ソースからコンパイルた物も試してみましたが、変わりませんでした。 libvirtを使わず、qemu-kvmのオプション指定で直接起動した場合はPT1&PT2の二枚構成でも 問題なく起動できているので、構成的にはクリアできていると思います。 # /usr/libexec/qemu-kvm -version QEMU PC emulator version 0.12.1 (qemu-kvm-0.12.1.2), Copyright (c) 2003-2008 Fabrice Bellard # lspci 00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev a4) 06:01.0 Multimedia controller: Xilinx Corporation Device 211a (rev 01) 06:02.0 Multimedia controller: Xilinx Corporation Device 222a (rev 01) # lspci -t -[0000:00]-+-00.0 +-1e.0-[06]--+-01.0 \-02.0 どうにかしてlibvirtで管理したいのですが、この問題を解決する方法はありますでしょうか? libvirtでPT1やPT2の二枚挿しを正常に起動できているという方もいらっしゃいましたら教えてください。
B75ってVT-d使えないんじゃなかったっけ CPUもK付きやi3以下は使えない筈だし下手したら全取っ替えかな?
ASRockのマザーではB75でVT-d使えてるよ
VT-dはノースブリッジの機能だからCPUに内蔵された現在はチップセットは関係ない CPUとBIOSが対応してるかどうかだけが問題になる Intelのサイトを見るとQ77以外はVT-d ×とか書いてあって混乱させられるけどな
>>420 PCIなんかはサウス管轄になってるからチップセットにも関係してくる
しかもBIOSによっては両方対応してないとどっちも使えないとかが
あるからかなりややこしい
>421 いずれにせよB75チップセットで問題になることはない。Q77マザー並に安牌。
>>420 その辺のレジスタもデータシートを見ればわかるけど、ノースブリッジ側にあるよ
が、デバイス自体にも対応が必要らしいんで若干不正確だった
Intel(R) 7 Series / C216 Chipset Family Platform Controller Hub (PCH) Datasheetより
> 5.29.2 Intel(R) VT-d Features Supported
> ・ The following devices and functions support FLR in the PCH:
> - High Definition Audio (Device 27: Function 0)
> - SATA Host Controller 1 (Device 31: Function 2)
> - SATA Host Controller 2 (Device 31: Function 5)
> - USB2 (EHCI) Host Controller 1 (Device 29: Function 0)
> - USB2 (EHCI) Host Controller 2 (Device 26: Function 0)
> - GbE Lan Host Controller (Device 25: Function 0)
> ・ Interrupt virtualization support for IOxAPIC
> ・ Virtualization support for HPETs
SKUごとの差異があるとは記述されてないのでどちらにしろどれでも問題はないようだ
若干どころかPCIバスの向こう側にも対応が必要だったらノースブリッジだけが 対応すればいいなんて到底言えないと思うんだが
425 :
416 :2013/01/09(水) 08:04:41.56 ID:KRvPAtXZ
>>416-417 にも書いてますが、今回ハマってる組み合わせ(PTx二枚挿し+libvirt)以外では
パススルーも普通に使えています。
ということは PT1枚+libvirt や PT2枚 libvirtなし だと動いてる?
ここの人はvt-dでPCI透過させて、ゲストOSでTV見たりしてるの? すごいね
428 :
416 :2013/01/09(水) 11:53:59.52 ID:KRvPAtXZ
>>426 そういうことになります。
PTxとは書いていますが、PT2+PT3+libvirtの組み合わせであれば
パススルーでゲストが認識できるところまでは確認しています。
またPT1&PT2が挿さっていると、libvirtで片方だけアタッチして起動しようとしても同じく失敗します。
以上のことから思うに、レガシーPCI配下に複数デバイスがぶら下がってると
libvirtがそれらのデバイスの割り当てに失敗するようです。
429 :
416 :2013/01/14(月) 21:53:37.59 ID:6+s7zXaj
新しいカーネルならもしや、と思ってUbuntu 12.10で試してみたけどダメだった・・・ # uname -a Linux hostname 3.5.0-17-generic #28-Ubuntu SMP Tue Oct 9 19:32:08 UTC 2012 i686 i686 i686 GNU/Linux # kvm --version QEMU emulator version 1.2.0 (qemu-kvm-1.2.0+noroms-0ubuntu2, Debian), Copyright (c) 2003-2008 Fabrice Bellard # virsh --version 0.9.13 皆さんレガシーPCIに二枚以上デバイスぶら下げて、あまつさえlibvirt使ってみたりしないんですか???
3.5.0は新しいカーネルと言えるのか
libvirtにレガシーPCI1枚なら使ってる
win7 が2枚挿しに対応してなかったらウケる
libvirtが同一デバイスを上手くハンドルできないんじゃ疑惑
でした libvirt が起動している qemu のコマンドライン引数と 素でうまくいくときの qemu のコマンドライン引数を くらべてみたいお
435 :
416 :2013/01/16(水) 01:04:31.44 ID:qAaJHAuV
>>433 PT2+SAA7130キャプチャボード+libvirtという組み合わせも試してみてダメだったので、PT1やPT2がというより
レガシーPCIに複数のデバイスがぶら下がってること自体が原因のような気がします(PCIeと違って共有バスだから?)。
本当に上記が理由だとしたら比較的簡単に再現できると思います。しかしその割に、他で報告を聞かないのも変な気はしますが・・
私は最初PCIe→PCIブリッジチップを介しているのがいけないのかと思って、H67からB75に乗り換えたのですが
再現の仕方が同じなので、問題はそこではなさそうです。他にはZ68でも同じ状況でした。
残念ながらソースは読めない人なので、qemuに直接渡す場合とlibvirtで実行する場合とで
設定晒してみます。流石にUUIDとゲストの名前は(厨二過ぎる設定な為)書き換えてますが、ご容赦ください。
qemu-kvmを直接起動する場合
ttp://www1.axfc.net/uploader/so/2756620.txt libvirt経由で実行する場合
ttp://www1.axfc.net/uploader/so/2756615.txt
>>435 /var/log/ の下に libvirt のログない?
debian なら /var/log/libvirt/qemu/<仮想マシン名>.log とかなんだけど...
>>435 お前さ、何故libvirtdのデバッグログをうpしないの?
何で初心者ですみたいに、ソース読めない人なので
なんでも聞いていいですよね?解決してくださいって
調子に乗ってるの?
お前ってさ、qemu:commandlineに利用しているなら、直接引数
渡せば起動できるのわかってて、嫌がらせとか本当に
たちの悪い糞野郎だよな。
spice-guest-tools-0.3.exe 来てた
kvm のホストマシンで ZFS on Linux を使って作った zpool に, kvm のゲストマシンからアクセスすることってできる?
そもそもzpoolって、他のホストがアクセスできるような代物じゃないと おもうんですが、違うの?
ホストで /dev/sdb を zpool に追加して,/dev/sdb をゲストに接続しておいて, ゲスト上で $ mount -t zfs /dev/sdb1 /mnt みたいないことできないかなと思って質問しました. (ほんとはゲスト上では /dev/sdb1 っていう名前じゃなくて違う名前だと思うけど便宜上こう書いてます)
ZFSはFreeBSDで使ってて、ZFS on Linuxは使ってないけど・・・ zpoolは、一つか複数のディスクを一つのpoolにまとめる。 zpoolに参加してるディスクをダイレクトにいじろうとするのは そもそもZFSの使い方としておかしいんじゃないかと。 例えば、ホスト上でtankというプールを作ってみる。 zpool create tank /dev/sdb ←tankというpoolを作ってsdbを参加させる こんなふうにやった後は、/tankにディスクがマウントされている。 この後に/dev/sdbへ直接アクセスするような真似をしたら、 KVMとか関係なく、ZFSを壊すだけでは。 ブロックアクセスしたいならzvolを作るべきだと思う。
>>442 なるほど,zvol でブロックデバイスが作れるんだ.いいこと聞いた.
実は試しに,ゲストマシンに ZFS on Linux を導入してみた.
インストールは簡単にできて zpool も作れた.しかし
ホストとか他のゲストと共有するために sharenfs とか sharesmb を
使おうとしたら,未実装らしい.これだと ZFS on Linux を入れたあんま意味ない気もする.
ホストに導入するのが自分の用途によさそうだが,あんまりホストの
機能が肥大化するのも好きじゃない.悩ましいな.
KVMを本運用で使ってる所ってあるの? 安定度が気になる
山ほどあると思うが。 まあチューニングはガンガンにしてるだろうけどね。
使ってるけど、運用がキツい。俺しかいじれない
チューニング、ガンガンですか そのあたりのおすすめ本とかありますか
運用が厳しいということは、大規模ってことかね。 うちは殆ど吊るしで使ってるけど、チューニングって例えば何がある?
そんなノウハウ企業秘密に決まってんだろバカか
450 :
446 :2013/02/01(金) 18:44:24.42 ID:1UY1399o
うちもほぼ吊るしだよ。 VMイメージをNFS上に置いてるけど、ちょっとそろそろ限界。 ホストもNFSサーバもNIC帯域も余裕なんだけど、 1つのVMが使えるNFS帯域に何かボトルネックがあるらしく ゲストのうち、アクセスの多いWebサーバの動作が滞りだした。 もうこの環境は厳しいからiSCSIかなんかで立て直して移行する
>1つのVMが使えるNFS帯域に何かボトルネックがあるらしく 自分の環境では1Gbpsまではちゃんと出たので、NFS帯域のボトルネックなんて無いと思うんです。 先にHDDの限界がくるんじゃないかな。 1台のストレージに何台本番が乗ってるの? 単純にHDDのシークタイムがオーバーヘッドになってるように思うのですが。
452 :
446 :2013/02/02(土) 09:22:03.00 ID:OWeSb/8E
>>451 KVMホストは5台、ゲストは20台ぐらい。
ある1ゲストだけ飛び抜けて高負荷なんだけど、
いずれにしてもそんなにストレージへのアクセスが頻繁なものではなくて、
そのゲストが高負荷な時でもNFSサーバ自体の負荷は余裕、
他ゲストからのNFSパフォーマンスも落ちない(常時70MB/s程度)。
ので、KVMonNFSそのものがもうキツいのかな…と思ったんだけど、
確かに載せすぎでシークタイムが厳しいのかも。
NFSサーバーは7本のRAID6。
その構成にゲスト20台ならストレージやNFS自体はまだ余裕あるはず。 ゲスト達がどんな動きしてるか解らんので妄想入ってますが。 最初に思いつくのは、そのゲストに当ててるCPUやメモリが足りないとか、 それ以外のDBとかが足引っ張ってる可能性もあるとおもふ。 そのゲストがWindowsの場合はCPU使用率とかメモリ利用率を見て、足りないなら足せばいいいし、 Linuxの場合はロードアベレージは当てにならんから、CPU使用率を見てCPU負荷が高いのか、 IOウェイトが発生してるのかを見れば、原因がどこにあるかが判るはず。 あとは、ストレージのネットワーク速度すかね。
>>452 NFSサーバが余裕なのは、本当に処理負荷がひくいからなのかな。
NFSサーバがリソースを使いきれるようにチューニングされていなくて、NFSクライアントを待たせながらのんびり動いてからかもよ。
>>454 それだとKVMホストのロードアベレージがやたら上がるはずなのよね。
>>455 あがらないだろ。
ioとかnfsのqueueが長くなるだけだから。
nfs しばらく使ってないのではずしてると思うが、概念的にはworkerが足りないときとは処理要求は多いのにcpuの負荷は低くなると思うが、そんなケースがないかと想像してる。
>456 ううん、NSFサーバがNFSクライアントを待たせると、 クライアント側ではCPUのウェイトのパーセンテージが上がって、 それでロードアベレージがあがるんですよ。 クライアントはデータの読み書きをサーバに依頼するけど、 サーバがモタモタしてると、クライアントは自分のHDDの処理が遅いような認識になって、 ロードアベレージがあがるんです。 ロードアベレージって実行待ちプロセスの平均値でしょ、だからそうなるの。
その「1台だけ高負荷なKVMゲスト」の 何の負荷が高いのかから調査して行かないと厳しそうでは。
459 :
446 :2013/02/02(土) 13:21:45.53 ID:OWeSb/8E
・その高負荷ゲスト(Linux)では、とあるWebグループウェアが稼働。DBも同居。ゲストは8CPU/32GB ・高負荷なので臨時にホストをそのゲスト1台で占有使用させてる。ホストは12コア36GB ・高負荷時、ゲスト上でiowait30〜50、ロードアベレージ7程度 ・高負荷時、ホスト上でiowait20〜40、ロードアベレージ4〜6程度 ・高負荷時でも、他のノードからNFS転送速度を計測すると普通に80MB/sとか出る(無負荷時で90MB/s程度)し、 他ゲストのパフォーマンスにはさほどの低下がみられない ・各物理危機はL2機器で直結 ・NFSサーバーはほぼ吊るし設定。CPUもIOもtopで見る限りまったく余裕 こんな状態です。
NFSのマウントオプションはどうなってる? syncかasyncでかなり違う。 NFSのバージョンも気になるけど、v3以降ならパフォーマンス面の不安はほとんど無いはず。 NFSってかなりオプションあるけど、いくつか押さえておけば基本的に吊るしでおk。 NFSクライアントで nfsstat -m NFSサーバで exportfs -v だったと思う、ステータスが確認できるお。
高負荷な時の、そのゲストに使用してるNFS転送速度ってのは 調べられないのかな。
そのゲスト上で dstat -fd 入ってなければyumかrpmで 許可要るだろうけど、あると便利ですよ
Xeon E3-1270v2 で CentOS 6.3 の KVM で FreeBSD 9.1 amd64 のインストール をしようとすると、カネールのロードのところでフリーズしてしまうのだが、 何が原因だろう…? 別メーカーの Xeon E3-1270v2 でも FreeBSD はダメ Xeon E5-2670 では FreeBSD OK E3-1270v2 でも Linux 系は問題無くブートする。。
464 :
456 :2013/02/04(月) 01:48:38.64 ID:AYy/M0Gd
>>459 すまん。テキトウなこと書いてしまった。ただ、load averageはなんか起きてるってのがわかるくらいで、原因の特定にはならないのでほかの指標見た方がよいですよ。
>>463 ゲストに見せるCPUの設定変えてみてもダメなのかな。ゲストのxmlの<model>xxx</model>のとことか
>>465 Xeon E5 はデフォルトの cpu64-rhel6 でも SandyBridge でもどっちでもいけるんだけど、
Xeon E3 はどっちもダメです。
>>466 GPUまわりかな。いずれにしてもFreeBSD側でカーネルデバッグをしてみるといいだろう。
>>467 Xeon E3-1270v2 なので、GPU 無しです。
Host で top とか sar でみると、CPU を 100% くってるので、どこかでループしてそうな感じです。
何が原因か分からんね。物理に直接インストールしてみたり、仮想デバイス変えてみたりして地道に切り分けて行くしかないのかな
>>469 物理だと問題無いんですよね。あと、KVM 無しの QEMU でも問題無かったです。
Xeon E3-1200v2 の仮想化支援機能に何か問題があるんじゃないかなーと思ってます。。
ひとまず、E5 を使うことで切り抜けたのですが、
他の方々は E3 で問題無く、FreeBSD 9.1 amd64 disk1 の起動できます?
>>470 BIOSで何らかのオプションが無効になってるとか?
vなしのE3-1245にSL6.3の環境ですが
怪しい感じも無くインストール、ログインまでいけましたよ
473 :
446 :2013/02/08(金) 09:29:49.76 ID:s+XsNCZ6
ちょっとなかなか高負荷にならず、間空いちゃってすいません。
>>460 rw,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=56,retrans=2,sec=sys,
mountaddr=**,mountvers=3,mountport=58074,mountproto=udp,local_lock=none,addr=**
asyncは指定してません。デフォなのでおそらくsyncですね。
>>461 ddで100MBのファイルを5回書き込み、1MBのファイルを500回書き込みとやってみましたが
いずれもキャッシュに載ってしまって200MB/sとかです。
それ以上のサイズは、本稼働中なんでちょっと厳しいw
>>462 readが0〜8000kで平均1000k、writeが0〜5000kで平均1500kといった感じでした。
>473 乙です。 NFSの引数はあまりわかってないですが、 今のところ、見せてもらった情報からは、 NFSがボトルネックのような内容見えてない気がします。 iowaitは気になりますが、コア8つでロードアベレージが 7ってことは、コア単位で言えば、待ちは1つ以下になるし。 使ってるグループウェアの仕様上のボトルネックみたいな ものはないんでしょうか。同時接続数がいくつまで・・とか、 無駄にiowaitを生じさせるような動作をしてるとか・・・
>>473 NFSのオプションにいくつかイケてない内容があるです
それはクライアント側のマウントオプションだけど、
rsize=8192,wsize=8192 これもっと大きい数字にできる。
うちはrsize=1048576,wsize=1048576
mountproto=udp これ事故る元。
tcpに変えた方がいいです。
syncかasyncかはサーバ側で exportfs -v しないと解らないです。
そこに必ず表記が出ます。
476 :
474 :2013/02/08(金) 10:26:33.85 ID:sq66tPlr
NFSの引数について判らなかったために 随分適当なことを言ってしまったみたいですね、 すみません。 rsize, wsizeは昔は8192にするのは定石だったと思いますが、 今はもっとずっと大きいんですね・・・
NFSは枯れててあまり最新のネタって無いですからね、仕方ないと思います。 適当でも普通に動いちゃうし。 dstatの結果を見る限り、かなりディスクに負荷かかってるんじゃないかと思います。 ランダムアクセスで常時Read/Writeが1〜2MB/sって、そこそこリソース食ってると思う。 ストレージの無負荷のDiskMark値がないとなんとも言えんけど、 HDD2台のRAID1構成のNFSサーバに、KVMゲストからDiskMarkしたときは、 4kランダムで1〜4MB/sくらいでした。 RAID6遅いし、使ってるディスクの仕様が解らんけど、ストレージもある程度酷使されてると予想。
>>475 proto=でなくmountproto=だからあまり問題ないんでは?
479 :
446 :2013/02/08(金) 10:57:16.80 ID:s+XsNCZ6
何度もありがとう、参考になります。
>>474 メーカーにさんざん調べさせた結果、もうどう叩いてもこちら側の問題ではなく
サーバー側ディスクIOパフォーマンスの問題である、というのが最終回答でした。
実際、仮想化物理ホストのローカルHDDに載せてしまえば、現スペックでも
こんな程度のユーザー数、アクセス数は余裕で裁ける程度なんですよね。
>>475 なるほど、rwsizeは拡大方向で、計測しながら変更してみます。
mountprotoは無指定なのでデフォ値ですね。これもtcpに変えたら
どれくらいパフォーマンスが落ちるかを計測しつつ検討してみます。
ちなみにfstabのマウントオプションは rsize=8192,wsize=8192,timeo=56,hard,nointr です。
で、nfsサーバー側でexportfs -v をしたところ、asyncでした。
<world>(rw,async,wdelay,insecure,no_root_squash,no_subtree_check)
実際nfsサーバー側で見てる限り、iowaitなんか全くないし
その他負荷もさっぱりなんですよね。
深夜の無負荷時にhdparmでも実行してみます。
これは確かにネタが少なくて調べるの大変なんですが、 NFS マウントオプション tcp これでぐぐったら出てくるよ。(修行中とか言われてリンク貼れなかったorz) この辺りに書いてあるです。
さくらとかの、VPSってKVMつかっているんでしょ 仮想マシンイメージファイルのダウンロード、バックアップって、許可されていないんだろうか
自分でバックアップとったのをダウンロードして 手元のkvmで動かしたけど、許可必要だったのかー
>>482 仮想マシンイメージファイルのレベルで、ダウンロードできるんだ?
仮想マシンイメージのダウンロード、アップロード機能提供したら、 -ちょっとでも価格の安い事業者へユーザーが引っ越しちゃう -繁忙期以外にも無駄に契約させておく事が出来なくなる なので、余程自信のあるところ以外はやらないでしょ 一応、Amazonが(Xenだけど)提供してたはず。他は聞いたこと無い
さくらのクラウドは対応してるよ。
>>485 じゃ、自宅のKVMで仮想マシンをつくったのを、
さくらVPSでそのままアップロードしてつかえるのかな?
○さくらのクラウド ×さくらのVPS 同じものだと思っていました。 ちがうってことですね?
クラウドの定義ってあるんですか VPSのことがクラウドだと思っていた
ぐぐればすぐわかることをいちいち聞くキチガイは 死んだほうがいいと思うよ。
K O W A I !
KVM使ってて、たまにVirtual Machine Manager越しに This usually means that QEMU or KVM is not installed on your machine, or the KVM kernel modules are not loaded. って出て新規ゲストが作れなかったり、マイグレーション出来なくなることってない? 調べてもわかんねーんだが。 ログにもたいした内容出てないし。
ホストとゲストに同じディスクの同じパーティションをマウントしてます. 片方でそのパーティションを変更しても,もう片方ではその変更が 同期されないんですけど,同期させるにはなにかオプションとか 必要ですか?
何がどうなってんのか詳しく書かないと解らんです。 どうやってマウントしてるのか、ゲストのOSは何なのか、 何をマウントしてるのか。
>>494 どうも,詳しく書かせてもらいます.
OSはホスト,ゲスト共に Debian squeeze です.
「ホストの /dev/sdf というディスクをホスト,ゲスト両方で使いたい」というのが目的です.
/dev/sdf は3TBのHDDでパーティションは1つのみ,ファイルシステムはext4でフォーマットしてます.
ホストでは普通に
host# mount /dev/sdf1 /mnt
でマウントしていて,中身がきちんと見れます.
ゲストの方は,libvirt で /dev/sdf を disk device として接続しており,
ゲストでは /dev/vdd として認識されています.これで
guest# mount /dev/vdd1 /mnt
とやると普通にマウントができて,最初にマウントした時は両者とも
/mnt 内のファイルは一致していました.
しかし,片方で新しいファイルを作ったり削除しても,もう片方のほうでは
それが反映されません.というのが問題点です.
mount のオプションかなー,とおもって どちらのマウントも sync にして見ましたが,
結果変わらずでした.なにかご意見お願いします.
また,/dev/sdf のディスク以外もゲストに接続しているので, そのディスクでもホスト,ゲスト両方でマウントして, 同様に内容を編集してみましたが,やはり内容の編集は 反映されませんでした.特定のディスクの問題という わけではないようです. 今までは各ディスクはゲストのみで使うようにしていて, ゲスト,ホスト両方で使う用途がなかったので気づきませんでした.
連レスすいません. 詳しいバージョンを書いておきます. デフォルトの sueeze の kvm と libvirt が古かったので, backports の新しいものをインストールしています. カーネル: 2.6.32-5-amd64 kvm: QEMU emulator version 1.1.2 (qemu-kvm-1.1.2+dfsg-5~bpo60+1, Debian) libvirt: 0.9.12
共有想定してないファイルシステムを複数箇所からマウントすると壊れないか?
クラスタファイルシステム使わないとダメかと。でもNFS使った方がお手軽かも
>>498-499 なるほど,同時マウントってやってはダメなんですね.
やりたいのは,ホストで録画したファイルがあるディスクを
ゲストの SAMBA サーバで共有したいんですよね.
ホストにはできれば,SAMBA 入れたくなくて.
とすると,
ホストで NFS 共有 -> ゲストで NFS マウント -> ゲストで SAMBA で公開
になるのかな.ややこしや.
KVMでvirtualbox用のかそーディスクの.OVAを インポートして使えたりできないんですかね?
>>502 え,だめだった?
NFS 共有できない Windows マシンとかもあるから SAMBA で
公開したいんだけど.あとユーザ認証したいし.
sambaで共有したいけど、ホストにsamba入れたくないならそれでおkなような
505 :
503 :2013/02/23(土) 01:34:08.38 ID:VIKqv7zQ
ちょっと考えなおして, ゲストでディスクをマウント -> ゲストで SAMBA 公開 -> ホストで smbmount してそこに録画 のほうがいいかと思い始めた. で,ちょっと聞きたいんだけど, SAMBA 公開するゲストが起動したタイミングで, 自動的にホストに smbmount させることってできるかな? ゲストからホストの操作って可能?
>>505 そうそう
ゲストからホストを操作するのも色々やりようはある気がする。例えば、ssh使う方法。
1. ゲストでssh-keygenして空パスフレーズで鍵ペア作る
2. ホストのrootのauthorized_keysにゲストの公開鍵を追記
3. ゲスト起動時に下のようなスクリプトが走るようにする
# ssh -l root ホスト mount XXX
これで一応できるはず。もちろんsambaの認証が自動でされるようにホストの/etc/fstabなりに予め設定しておくのは前提ね。
>>506 うむ,やっぱり ssh か.まあそれが楽か.
ホストの fstab に書いちゃうとホスト起動時にマウントしようとして,
ゲストの SAMBA サーバが起動していないからマウントに失敗すると思うんだが.
fstab でマウントはせずに認証だけすることってできるの?
mountオプションにnoautoでいけるんじゃないかな
>>508 おー,なるほどー.そんなオプションがあったのか.
ごめんなさい,mount のオプション多すぎてよく覚えとらん.
アドバイスありがとう.その方針でやってみます.
ここにあんま書かれないけど、KVMもかなり新機能出てきてるっぽいね。
>>510 例えば?
それにしても、企業がqemu-KVMなんて使うとは思えない。
無知を自慢されても困りますぅ
516 :
511 :2013/02/24(日) 13:04:25.61 ID:TrfgiyV9
さくらVPSってのは、qemuっぽいみたいですね。失礼いたしました。
いやいや、思うのは勝手だからいいですよ だたあんま偉そうにすんな
一台のサーバーにkvmでホストOSとしてdebianとWindowsServerを入れて、 両方Webサーバを動かそうとしてるんだけど 2つのホストOSそれぞれに違うドメインを割り当てたいんだけどそういう 事できる? ホストでapache動かしてバーチャルドメイン使えば手っ取り 早いんだろうけど サイトをまとめて運用したくないし、一つはIISじゃないと困った事になるの で・・・
きっとマルチブート環境
kvmなんか使わなくても、iisでよくね? なんで1台のwebサーバで2サイトやりたくないのか解らんけど、 ホストヘッダー設定したら目的は達成できるでしょ。 全然問題ないからやってみ。
2つのゲストOSの間違いだったしにたい。 素直にiisでやります。
523 :
login:Penguin :2013/03/11(月) 23:24:25.85 ID:G6kbvRfs
qemu-kvmを-no-kvmオプションでVBOX上のCentOS6で動かしたいのですが可能ですか? virshや、virt-managerからはkvm-intel or kvm-amdがないのでエラーとなっているようです。 長いオプションを指定して起動するしか方法がないでしょうか?
vmのネストをやりたいんだと思うけど、 条件をぶった切って、 ホスト機→vmware player→fedora17以上→kvm なら実現できるはず。 バーチャルボックスが仮想化支援を引き継げるなら、バーチャルボックスでもおk Cent6でもネストは可能だけど、マンドクセので勧めません 上記はできるはずってだけで、自分もこれから実施予定
ごめん、ボケてました。 ホスト機→VMWwarePlayer→Cent6→KVM これでOKだね。 VMWwarePlayerなら仮想化支援引き継げます。
526 :
login:Penguin :2013/03/14(木) 01:35:34.78 ID:1pgF5NI7
>>525 VMPlayerでできました。ありがとうございます。
527 :
login:Penguin :2013/03/28(木) 11:24:35.73 ID:0oUKlWo6
CentOS6.3 x86_64にyumでKVM入れたんだけど qemu-nbdはどこにあるんでしょ? リポジトリあれば教えてください
"qemu-nbd centos"はぐぐってみたの?
529 :
login:Penguin :2013/03/29(金) 12:03:55.21 ID:xPDMNO1O
ググっても出てこないですねぇ # yum list | grep qemu gpxe-roms-qemu.noarch 0.9.7-6.9.el6 @anaconda-CentOS-201207061011.x86_64/6.3 qemu-guest-agent.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2 qemu-img.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2 qemu-kvm.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2 qemu-kvm-tools.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2 qemu-guest-agent-win32.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2 EPELにもないみたいです
qemu-nbdなさそうなのでソースからコンパイルしました お騒がせしました
なんか殺伐
>>529 パッケージの名前に「nbd」が入っていると思い込んでるから見つからないんじゃ
今5分くらい探したらRHEL6用のこーゆーのは見つかったよ
Content of RPM :
(中略)
/usr/bin/qemu-mips
/usr/bin/qemu-mipsel
/usr/bin/qemu-nbd
/usr/bin/qemu-ppc
/usr/bin/qemu-ppc64
ググって単語さえヒットすれば存在するという・・・ なんというかとてもメルヘンで幻想的な・・・
つか 普通に RPM Search で検索したら 10秒で見つかるじゃねーかw
すんません質問です KVMで稼働中のゲストイメージファイル(raw)を停止させずにバックアップ取りたいんですが 普通にcpしても壊れますよね LVMとかFS側でスナップショット撮ってコピーする手段が適当でしょうか? もし他に方法があれば教えてください
VMレベルでIOをサスペンドして、スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいいよ。 理想的にはVM上のOSにもちゃんとフラッシュしてもらうか、書き込みをordered writeでしてるようにしとくべし。
すみません >>スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいい がよくわからないんですが、つまりどういうことでしょうか?
流れとしては 1. VMが例えばイメージファイルfoo.img上で動いている 2. スナップショット分岐させ、foo-snap.img(backing store: foo.img) 上で稼動する状態にする 3. 書き込みはfoo-snap.imgにしか反映しないので、foo.imgは(ゲスト側の問題を別にして)安全にコピーできる 4. コピーが終わったら、foo.imgにfoo-snap.imgの内容を書き戻す 5. foo-snap.imgの内容をfoo.imgに書き戻す形で再統合し、VMもfoo.img上で動くように構成を戻す ということ。 昔やったときは結構面倒だったけど、いまだとsnapshot_blkdevとblock_streamで1-5に近いことはできると思う。あと、もっと簡単かつ柔軟にする方法も今後出てくる予定だったはず。
Rawってスナップショットとれるん? Qcow2だけかと思ってた。 LVMでスナップショットとるのが良いような気がする。
そりゃゲストOSかホストOSの中でそういう操作ができるのなら、 アプリのスナップショット機能使う理由はあんまりない。
ありがとうございます rawはqemuではスナップショット撮れないって認識あったんですが(実際試したことはないです) スナップショットとれるFSなりLVMなり低い層でのバックアップをしたほうがよいってことですね マイグレーションついでにデュプリケートもしてくれるような機能あったら大歓迎なんですけどね
長文失礼します。 当方KVMでiscsiを使って共有ストレージを組もうとしています。 多分一般的だと思っているのですが、例えばKVMホスト2台、ストレージ1台の構成で、 ストレージはiscsiターゲット、KVM2台はイニシエータとします。 OSは全てCentOS6.4 64bitで、ゲストのイメージはストレージに置きます。 1台のKVMから新規ゲストを作って、それをライブマイグレーションすると、 マイグレーションは完走するんですが、ゲストのディスクが見えなくなってしまい、 ゲストがIOエラーを吐きます。 iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。 原因は他方のKVMホスト上のストレージプールにデータが認識されていないためかと思います。 (それなのに、なんでマイグレーションが完走するのか謎) iscsiは多対一の構成を推奨していないようですが、KVMではどうやって導入したらよいでしょうか。 現在は共有ストレージでNFSを使っていますので、NFSのような挙動を望むのですが、 中々上手いこといかずに悩んでおります。
>>542 > iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
こわれるのあたりまえ。
ブロックデバイスそのままつかいな。
エスパーありがとうございます。 その辺りの手順をきちんと書いてなくてすみませんでした。 ターゲットホスト上でscsiターゲットの設定 ↓ イニシエータからターゲットを参照 ↓ イニシエータからターゲットにログイン(fdisk -l で認識OK&パーティション切り) ↓ イニシエータホスト上で、認識したブロックデバイスをフォーマット 例:mkfs -t ext4 /dev/sda1 ↓ イニシエータホスト上で、ファイルシステムにマウント(df -h で確認できるようになる) 例:mount /dev/sda1 /mnt ↓ virt-managerを使ってローカルディレクトリとしてプールに追加 という手順で行っていました。 今度はブロックデバイスでそのままプールに追加という手順でやってみます。 また結果報告しますmm
こんにちは、542です。 >> 543 > ブロックデバイスそのままつかいな。 これはつまり、ストレージ側でVMのイメージをddやqemu-imgなんかで予め作成し、 そのイメージファイルをscsiターゲットとして共有するという理解でOKでしょうか。 /etc/tgt/targets.confの内容を書くと、 <target iqn.2013-04.com.iscsi-tgt:tgt> backing-store /mnt/test.img backing-store /mnt/foo.img backing-store /mnt/hoge.img ・・・ ・・ ・ write-cache off </target> というように、新しいVMを作るたびに書き連ねて行くと。 なんかかなり面倒な感じですが、誤解してますか?
>> 545 アドバイスありがとうございます。 取り合えず上のやり方でイメージを作って、 それにインストールしたゲスト上で設定変更やマイグレーション、再起動、シャットダウンなんかは上手く動いたっぽいんですが、 新しいVMのイメージ追加なんかが上手くいかない状態です。 (これはiscsiの使い方判ってないだけだと思います) VM起動したままtgtdのリスタートや、イニシエータでログアウトなんかをしてたら、VMのイメージが壊れたっぽいですが。 どこかに設定を持ってるのか、今までの情報を保持してるような挙動で、 VMのイメージファイルパスをtargets.confに書き足したら、元からあったのが表示されなくなってしまったり。 ここら辺はスレチですが。 なんか、かなり斜め上いってる予感。
こんばんは、542です。 なんとか形になった(?)ので、ご報告いたします。 まずiSCSIターゲット(ストレージ)での作業 /mntにゲスト用イメージ作成 # dd if=/dev/zero of=test0.img bs=1M count=10000 /etc/tgt/targets.confに以下を追記 <target iqn.2013-04.com.iscsi-tgt:lun-0> backing-store /mnt/test0.img write-cache off </target> # /etc/init.d/tgtd start 次にイニシエータ(KVMホスト)での作業 # iscsiadm --mode discovery --type sendtargets --portal ターゲットのIP 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-0 virt-managerからiscsiストレージをプールに追加 ターゲットパス:/dev/disk/by-path ホスト:ターゲットのIPアドレス ソースパス:iqn.2013-04.com.iscsi-tgt:lun-0 これで追加が完了するはず。
続いてゲストイメージの追加方法。 ターゲットで新しいイメージファイルを作る。 # dd if=/dev/zero of=test1.img bs=1M count=10000 /etc/tgt/targets.confに新しいターゲット分を追記 <target iqn.2013-04.com.iscsi-tgt:lun-0> backing-store /mnt/test0.img write-cache off </target> <target iqn.2013-04.com.iscsi-tgt:lun-1> backing-store /mnt/test1.img write-cache off </target> confのアップデート # tgt-admin -update ALL イニシエータでの作業 # iscsiadm --mode discovery --type sendtargets --portal ターゲットのIPアドレス 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-1 上と同じ要領で、virt-managerからiscsiをストレージプールに追加。 こんな結論に至ったんですが、もっと良い方法ないですか・・・。
どうしてもiSCSIにこだわるならclvm使うかな でもNFSのが楽だよ
おはようございます。542です。 ゲストのディスクIOの帯域制限をしたくて、 cgroup→iscsiと行き着いたんです。 NFSだと、ホストから見るとネットワークIO扱いですよね。
>>549 ターゲットも LVM 使ったほうがいいよ。
こんにちは、542です。
>>552 ありがとうございます。
お恥ずかしながらLVMをほぼ使ったことがなくて、
virt-managerでどう使えばよいのか全くイメージが湧かないのです。。。
LVMスナップショットなんかが便利そうなので、目下勉強中なのですが、
具体的にどういう手順になるんでしょうか?
自分が書いたような、ファイルを作ってそれをiSCSIターゲットにするのは模範解答じゃないと思うので、
LVMで倫理パーティションを切って、ファイルを作らずにその領域をそのままターゲットとして共有するという認識になりますか?
/etc/tgt/targets.confの書き方で言うと、
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img <-- ext4ファイルシステム上の1ファイル
write-cache off
</target>
↓
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /dev/vg_target00/lv_target00 <-- 論理ボリューム
write-cache off
</target>
みたいな書き方になると。
>>554 大きなヒントをありがとうございます。
リトライして、また結果報告しますmm
kvm上にXP入れてqxlドライバ入れてspiceで動かしてみたがやっぱ windows使うならvmwareの方がいいな
WindowsならRDP使えばいいじゃん VMwareでも普通そうするだろ
KVMでVMwareのvCenter Server+Clientみたいに、複数のKVMホストをまとめて管理できるツールはまだないの? OpenStackとかCloudStackは違うっぽいし・・・。 oVirtというのにあたったけど、現状Fedora限定みたいなので、そういうツールがあったら教えて欲しい。 できればUbuntuで動作するもの。
558です。
>>559 >>560 ありがとう。
皆詳しいな。VMwareのスレとは雰囲気が違う。
探すと結構あるから色々試して自分に合ったの使うといいよ
Xでドライバ持ってるからGNOME関係ないんじゃ
ん!どういうこと?
えーっと、RDP……
568 :
login:Penguin :2013/05/09(木) 15:04:13.10 ID:t1+IozcG
こんばんは、542です。 おかげさまで、LVM+DRBD+iSCSI+KVMの組み合わせが上手くいきそうです。 ところでDRBDのソースデバイスとしてLVMを使い、セカンダリノードでスナップショットのバックアップを取ってやろうと目論んでみたのですが、 そのLVMをどう扱えば中身が見えるのか首を傾げている状態です。 やっていることはこうです。 /dev/sda4からLVを切り出します。 仮に/dev/test/drbdとします。 で、その切り出したLVをソースのブロックデバイスとして、DRBDを構築します。 仮に/dev/drbd0とします。 さらにそのDRBDをブロックデバイスとして、VM用のLVを切り出して生のままVMに使わせます。 ちょうどDRBDがLVでサンドイッチされているような状態ですが、この状態で/dev/test/drbdのスナップショットを撮れば、 セカンダリノード側で/dev/drbd0のバックアップが取れると思うのですが、どのようにして良いか考えあぐねております。 /dev/sda4や/dev/test/drbdはフォーマットされていないので、そのままマウントできるはずもないですよね? ddでそのまま書き出して、擬似環境に戻すくらいしか思いつかないんですが、やられてる方、どうやってやってますか?
kvmホストをCentOSから入れ替えようと思うんだが ubuntu serverとfedoraどっちがいいかな。
CentOSになんか不満があるの?
>>571 Kernelを入れ替えないと、Intel nestedが使えないのと、
Openvswitchが標準でないところが不満。
>>569 セカンダリでそれやるには、プライマリとセカンダリの接続を切らねばならない。
プライマリでやっとけ。
>>568 ありがとう。vSphere Web Clientっぽいですね。試してみます。
576 :
login:Penguin :2013/06/02(日) 21:28:34.99 ID:/QpfH3F2
KVMでwin2003やwin xp を動かすと、 Win側で何もしてなくても(通信やデスクトップ表示)、 ホストのCPU使用率がかなり上がってしまうんですが、 これってゲストOSの問題なんですかね? CentOS6やUbuntu12を動かしてもこういう現象は起きません。
ブリッジ(物理NIC無し)に2ノード以上の仮想マシン追加すると うまくルーティングできなくなるのですが原因解る人いますかね。 br0(eth0) ----+---- br1(eth1) .| +---br2----+ | .| tap0(VMA) tap1(VMB) こんな感じで br0(eth1)をWANと想定してしてbr0/br2からのトラフィックをSNATしようとしてるのですが、 br0->br1 は問題無くとも tap0/1 -> br1 をルーティングする場合に iptables でログを取ると PHYSOUT=tap0/1 になってしまいパケットがSNATされずにbr1(eth1)に出ていってしまうという状況です。 ちなみにVMA/VMB何れかをシャットダウンすると PHYSOUT=br1 となり想定した通りにルーティング されるようになります、br0->br1 については問題ありません。 (br0にも何台かVMをぶら下げていますが、こちらはbr2の様な挙動をする事はありませんでした) KVMではなく物理NICの有り・無しに起因するブリッジの問題だと思うのですけど質問させてください。
KVMのVGAパススルー、苦労したけど動いたぜ。 苦労したのはVT-dが動くハードの調達だけだったがな。
ASRockにしたの?
HWとSWの構成も書き記してくれると嬉しいんだよ
kvmスレッド、盛り上がってきたな ユーザーがだんだん増えてきたのかな
VGAパススルーならML110 G7(C204)+XeonE3(1235)+HD7750でWin8動いたぞ HD5850は駄目だった拡張ROM読めんのが原因っぽいXもWinもダメ
578はML110 G6 + Core i7 870 + HD5450 + Win7 全部古いな。
584 :
login:Penguin :2013/06/21(金) 09:31:15.30 ID:i1WVXxHC
H87のマザボにPCIブリッジがついていて、vt-dを有効にすると、dmesgにこんなん出るんだけど、なんですかね? [ 0.336527] PCI-DMA: Intel(R) Virtualization Technology for Directed I/O [ 0.336563] ------------[ cut here ]------------ [ 0.336569] WARNING: at /build/buildd/linux-3.8.0/drivers/pci/search.c:46 pci_find_upstream_pcie_bridge+0x55/0x80() [ 0.336572] Hardware name: To Be Filled By O.E.M. [ 0.336573] Modules linked in: [ 0.336576] Pid: 1, comm: swapper/0 Not tainted 3.8.0-25-generic #37-Ubuntu [ 0.336578] Call Trace: [ 0.336582] [<ffffffff810587ef>] warn_slowpath_common+0x7f/0xc0 [ 0.336584] [<ffffffff8105884a>] warn_slowpath_null+0x1a/0x20 [ 0.336587] [<ffffffff8137c345>] pci_find_upstream_pcie_bridge+0x55/0x80 [ 0.336592] [<ffffffff815a25eb>] intel_iommu_add_device+0x4b/0x1f0 [ 0.336594] [<ffffffff81599ff0>] ? bus_set_iommu+0x60/0x60 [ 0.336596] [<ffffffff8159a023>] add_iommu_group+0x33/0x60 [ 0.336600] [<ffffffff8145403d>] bus_for_each_dev+0x5d/0xa0 [ 0.336602] [<ffffffff81599fdb>] bus_set_iommu+0x4b/0x60 [ 0.336606] [<ffffffff81d474b5>] intel_iommu_init+0x34f/0x41d [ 0.336610] [<ffffffff81d0e3f3>] ? memblock_find_dma_reserve+0x13d/0x13d [ 0.336613] [<ffffffff81d0e405>] pci_iommu_init+0x12/0x3c [ 0.336616] [<ffffffff8100215a>] do_one_initcall+0x12a/0x180 [ 0.336619] [<ffffffff81d05d32>] kernel_init_freeable+0x13e/0x1c6 [ 0.336621] [<ffffffff81d05582>] ? loglevel+0x31/0x31 [ 0.336625] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80 [ 0.336627] [<ffffffff816a9cce>] kernel_init+0xe/0xf0 [ 0.336631] [<ffffffff816d3fac>] ret_from_fork+0x7c/0xb0 [ 0.336634] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80 [ 0.336638] ---[ end trace 34a1982ad5ee97a4 ]---
585 :
login:Penguin :2013/06/21(金) 09:33:55.38 ID:i1WVXxHC
> 584 vt-dを有効にした状態でPCIデバイス(FXSボード)のドライバをホストで読み込むと、こんなエラーが出力して、使えないのです。。 dahdi: Version: 2.7.0 dahdi: Telephony Interface Registered on major 196 dmar: DRHD: handling fault status reg 3 dmar: DMAR:[DMA Read] Request device [04:00.0] fault addr ffffe000 DMAR:[fault reason 06] PTE Read access is not set ちなみに、vt-dを有効にしなければ問題なく使えます。 OSはUbuntu 13.04 x86_64です。
pci_find_upstream_pcie_bridge なんて関数名での失敗はPCIツリーが正しく認識できていないような気がするけど
lspci -vv の結果をpastebin辺りに貼っておけば解る人が居るかもしれない(俺はたぶん解らん)
後H87はIntel公式にはVT-dサポートしてないみたいだけどそこの所どうなん?
Z/Qシリーズかサーバ向けのCシリーズ以外は基本VT-dを提供しないがIntel公式発表だったよーな
http://ark.intel.com/ja/products/75004/Intel-DH82H87-PCH VT系のデータシート見てるとVT-d自体はCPU側のみ有効化出荷されている事が重要で
マザーでのFW対応次第にも見えるけどね
587 :
login:Penguin :2013/06/21(金) 13:59:38.25 ID:i1WVXxHC
>> 586
lspci -vv貼り付けました。
http://pastebin.com/pXCTEY5d PCIツリーは、lspci -tvでツリーをみる限り、認識してそうなのですが。。
# lspci -tv
-[0000:00]-+-00.0 Intel Corporation Haswell DRAM Controller
+-01.0-[01]----00.0 Device 188b:5220
+-02.0 Intel Corporation Haswell Integrated Graphics Controller
+-16.0 Intel Corporation Lynx Point MEI Controller #1
+-19.0 Intel Corporation Ethernet Connection I217-V
+-1a.0 Intel Corporation Lynx Point USB Enhanced Host Controller #2
+-1c.0-[02]--
+-1c.3-[03-04]----00.0-[04]--+-00.0 Digium, Inc. Wildcard TDM410 4-port analog card
| \-01.0 Intel Corporation 82545GM Gigabit Ethernet Controller
+-1d.0 Intel Corporation Lynx Point USB Enhanced Host Controller #1
+-1f.0 Intel Corporation Lynx Point LPC Controller
+-1f.2 Intel Corporation Lynx Point 6-port SATA Controller 1 [AHCI mode]
\-1f.3 Intel Corporation Lynx Point SMBus Controller
VT-dサポートは、
http://wiki.xen.org/wiki/VTd_HowTo をみて、AsrockのH87なのですが対応してそうだったので試したみてるとこです。
588 :
login:Penguin :2013/06/21(金) 14:01:47.14 ID:i1WVXxHC
問題のデバイスは、これです。 04:00.0 Ethernet controller: Digium, Inc. Wildcard TDM410 4-port analog card (rev 11) ちなみに、xenのDom0でやってみたら、問題なく使えました。。 同じカーネルオプションなんですけどね。
intel_iommu=onとか?
590 :
login:Penguin :2013/06/24(月) 06:07:05.36 ID:IxMYVUF7
ASM1083ならXonerDSXってカードの先のAV66で ホストでもゲストのパススルー動作でも問題なかった つか吹っ飛び不浄test
591 :
login:Penguin :2013/06/24(月) 09:37:59.91 ID:da2O6Lp4
588 です。 ACPI無効でとりあえず、dmesgにエラーはなくなった。 ACPIを無効にすると、電源管理(バッテリーとかシャットダウンとか)の問題くらいですかね?自宅サーバだったら、いらない? ちなみに、現在のKernelパラメータです。 /boot/vmlinuz-3.8.0-25-generic root=UUID=d2910c49-1af4-483c-914c-f25ff64a02fc ro intel_iommu=on apparmor=0 mtrr_gran_size=2M mtrr_chunk_size=256M acpi=off
592 :
login:Penguin :2013/06/24(月) 09:43:41.33 ID:da2O6Lp4
>>591 書き忘れた。
デバイスも問題なく使えた。
593 :
login:Penguin :2013/06/24(月) 10:01:47.35 ID:da2O6Lp4
VT-dのDMAリマッピングレポートレジスタのアドレスががAPCI情報に乗ってくるとかどーのこーのと 参考 Intel® Virtualization Technology for Directed I/O 8.1 DMA Remapping Reporting Structure
596 :
login:Penguin :2013/06/26(水) 08:25:26.64 ID:etyBsEKx
vgaパススルーしようとするとブルースクリーンorz
VGAパススルーはなかなか成功しないよな。 2〜3年すれば普通に使えるようになるかも、と期待しつつ、あきらめてる。
そのうち、VGAとかもSR-IOVできるようになるんだろうか
GPGPU向けではSR-IOVが来るかもっていうか、すでに出てた気もするけど、 表示用はどうかねぇ。。。 そのうちってレベルでは来ない気がする。
>>599 VMとデスクトップが絡むのは産業的にはVDIで、
それだとグラフィクカード関係ないからどこも力入れなさそう。
GPU高速アクセスのための開発はされるだろうけど、
それでデスクトップ環境まで改善するのかというと、微妙?
602 :
login:Penguin :2013/09/06(金) 13:57:54.85 ID:Hgj1h/xK
vcpu ってコア数とか同時スレッド数とか指定できないですよね ゲストのwindows8がvcpu2個までしか認識してくれなくて困ってるのですが、回避方法ってあるのでしょうか
CPUの設定のトポロジでソケット数1にしてコア数増やすか スレッド数ふやしたらどう?
認識してないって、タスクマネージャーのパフォーマンスタブで2個(ソケット1、仮想プロセッサ2に見えている)しか見えてないだけでしょ KVMだと例えば3つわり当てても上では2しか見えない(恐らく仕様) ・リソースモニター(3CPUグラフが見える ・パフォーマンス(プロセッサカウンタで3CPU見える ・タスクマネージャーの詳細タブ(プロセス右クリックして関係の設定で3CPU見える くらいは見てるのか?
606 :
603 :2013/09/19(木) 00:41:03.96 ID:z8RYKSjI
>>604 を実施してもダメだったのですが、さらにバージョンを最新にしたらできました
cpuのトポロジの設定がCentOS標準のqemu-kvm 0.12では対応していなかったようです
ありがとうございました
CentOS6.1のホスト上に2つのゲストを乗せているんですが(ゲスト1はWindowsServer2008 R2、ゲスト2はCentOS6.1)、 ゲスト1からゲスト2、また、その逆でも、普通のping(データ長が32バイトか56バイト)は普通に通るのですが、 データ長を指定して50000バイトとかにすると通信できないばかりか、しばらく普通のpingも通らなくなるのです。 (30秒くらい放っておくとまた普通のpingは通るようになりますが) こういう事例って聞いたことありますか? ゲストの仮想NICの設定が標準のままrtl8139であるのが若干気になるのですが。
>>607 止められない環境じゃなければアップデートしたら?
ただ6.1→6.2以降は予め起動させとくサービスが増えてるからminimumで動かしてる場合は注意
>>608 ありがとうざいます。
でも、今はサービスが動いているので止められないんですよね。。。。保守環境では50000バイトのpingもちゃんと通るしわけわからんです。
設定を比べてもどちらも同じだし。
専スレの需要あるの?
一度インスコして以来使ってないな・・・
>>611 KVMとはまた使い勝手がだいぶ違うし、一つの独立したソリューションなので、分けた方が良いと思いまして。
超過疎ってるな。
KVMでvt-dしたいんだけど、MSIに対応してなくて、irqが他のと共有しちゃってできないんだけど、なんとかする方法ないかな?
ゲストへPCI-Passthroughでリアルデバイス割り当ててる状態で、当該のゲストを libvirtからsaveしようとすると、以下のようなエラーが出て弾かれてしまいます。 > エラー: 内部エラー QEMU コマンド 'migrate' を実行できません: An undefined error has ocurred まぁこの現象自体は仕方がないと思っていますが、ホストを再起動すると 上記エラーのせいで当該ゲストが毎回強制シャットダウンされてしまうのは困ります。 なので代わりにACPIでシャットダウンシグナルを送りたいのですが、ホスト停止時に 発行されるコマンドを、設定で変更することってできますか?
/etc/sysconfig/libvirt-guestsのON_SHUTDOWNの設定とか?
619 :
login:Penguin :2013/12/21(土) 20:33:13.10 ID:id4UT1hx
Windows 8.1のQXL Driverってまだ出てないの?
kvmからLibgfapiを使ってGlusterFSに繋ぎたいんですが、 どこかいいサイト知りませんか。 やり方が全く判らなくて困ってます。
cpu, memoryのオーバーコミットの運用基準とかって示されてる? workload依存だとは思うけど、イントラでどの程度まで無茶していいのか基準がほしい。amazonとかのパブリッククラウドもオーバーコミットしてるのかな?
>>621 ちなみにamazonはxenな
RHELの仮想化ガイドで見た気がする
正月休みで職場じゃないからソース出せんですまんが
623 :
login:Penguin :2014/01/08(水) 20:47:38.32 ID:NpGf2iv+
qemu-kvmで動かしているWindowsXPに物理CPUコアを 4つ割り当てたいのですが、2コア4スレッドの CPUとして割り当てることは可能ですか? リモートデスクトップの制限でWindowsが2コアまでしか使ってくれません。 しかしホストOSのCPUは余ってるのでXPに4コア使って欲しいです。
624 :
login:Penguin :2014/01/08(水) 21:16:48.29 ID:NpGf2iv+
>>623 すんません、すぐ上に書いてありました。
具具ってやってみます。
625 :
login:Penguin :2014/01/11(土) 14:52:14.02 ID:hiNmv+CW
libvirtとqemu-kvmのバージョンって相性ありますか? yumデフォルトが古かったので、最新のqemu1.7.0入れたらデフォルトのlibvirt(ver0.8.)が 「libvir: エラー : バイナリ /usr/bin/qemu-system-x86_64 を実行できません: 許可がありません」 みたいなエラーだしてVM起動ができなくなった。 virsh uriではqmeu:///system見えてるし、sysinfoも取れてるのに何故か起動だけができない。 ちなみにqemu-system-x86_64のパーミションは777。 virsh通さずにqemu-system〜コマンド直接実行すればVM起動するので、エラーログの通り libvirtdがVM起動するのに失敗してるだけだと思うんだが原因が不明。 libvirtdの実行者もrootにしてるし、qmeu:///systemへのコマンドに失敗してるならvirsh uriも通らないはず。 qemuはroot権限で起動するようにしてるからqemu-system-x86_64の依存先で権限エラーになってるとしか思えない。 ログも上のエラーしか出ないから対処ができない。 そんでlibvirtを1.2.0に上げたら上手く起動できるようになった。 qemuのバージョンを1.0、1.2、1.7で試してみたけど、libvirt1.2+qemu1.7だけ動いて デフォルトlibvirt+新しめのqemuだと上記エラーになる。 libvirt1.2+qemu1.7使うと上手く動くが、virsh define xmlやったときに何故かXMLの <qemu:commandline> <qemu:arg value='-k'/> <qemu:arg value='ja'/> </qemu:commandline> の部分が消えてしまってパススルー設定が使えなくなってしまう。これも原因不明でよくわからない。 古いqemu-kvmだとusb音源使ったときに「husb: out of buffers for iso stream」エラー頻発して 音にノイズ入るので、バグフィックスされたqemu1.5以上にしたいんだけど、1.7にすると 上記XMLが消える現象でUSB自体が使えなくなる。 とりあえず2日色々やった結果メモ
前の部分は俺がapparmorでハマったときと似てる
畳とlibvirtは新しいほどよい。
628 :
login:Penguin :2014/01/13(月) 13:29:31.49 ID:ObEbUnRv
じゃぁlibvirtだけ1.2インストールしてみようかな。
629 :
login:Penguin :2014/01/13(月) 13:54:49.70 ID:ObEbUnRv
libvirt1.2.0とyum最新のqemu-kvm-0.12.1.2で動作できました。 USBについても正常に動いてるので、あとはqemuのバージョンを1.5以上にして 安定すれば良いのですが・・・ <qemu:commandline> <qemu:arg value='-k'/> <qemu:arg value='ja'/> </qemu:commandline> も消えてないのでvirsh defineで上記XMLが消えるのはqemuの問題みたいですね。
630 :
login:Penguin :2014/01/13(月) 15:04:58.33 ID:ObEbUnRv
libvirt1.2.0と最新のqemu1.7.0で試した結果 [root@www qemu]# lsusb Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 001 Device 002: ID 8087:07db Intel Corp. Bus 001 Device 003: ID 041e:3015 Creative Technology, Ltd Sound Blaster Digital Music LX Bus 001 Device 004: ID 0511:0025 N'Able (DataBook) Technologies, Inc. Bus 001 Device 005: ID 046b:ff01 American Megatrends, Inc. Bus 001 Device 006: ID 046b:ff10 American Megatrends, Inc. virsh defineしても <qemu:commandline> タグは消えなくなったけど、winxp.xmlファイルから <hostdev mode='subsystem' type='usb' managed='no'> <source> <vendor id='0x041e'/> <product id='0x3015'/> </source> </hostdev> の記述が消えてしまい、やはりUSBが使えなくなってる。 ちなみにwinxp.xmlを <qemu:commandline> <qemu:arg value='-k'/> <qemu:arg value='ja'/> <qemu:arg value='-device'/> <qemu:arg value='usb-host,bus=usb.0,hostbus=1,hostport=1.1,id=usbaud'/> </qemu:commandline> こんな感じにすると、
631 :
login:Penguin :2014/01/13(月) 15:05:44.94 ID:ObEbUnRv
>>630 続き
2014-01-13 05:45:16.830+0000: starting up
LC_ALL=C PATH=/sbin:/usr/sbin:/bin:/usr/bin QEMU_AUDIO_DRV=none /usr/bin/qemu-system-x86_64
-name winxp -S -machine pc-i440fx-1.7,accel=kvm,usb=off -m 2048 -realtime mlock=off
-smp 4,sockets=1,cores=4,threads=1 -uuid 0686ff50-19ea-ebd7-f04f-5825a5a944fc
-no-user-config -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/winxp.monitor,server,nowait
-mon chardev=charmonitor,id=monitor,mode=control -rtc base=localtime
-global kvm-pit.lost_tick_policy=discard -no-shutdown
-device piix3-usb-uhci,id=usb,bus=pci.0,addr=0x1.0x2
-drive file=/data/windows_xp.img,if=none,id=drive-ide0-0-0,format=raw
-device ide-hd,bus=ide.0,unit=0,drive=drive-ide0-0-0,id=ide0-0-0,bootindex=1 -netdev tap,fd=17,id=hostnet0
-device rtl8139,netdev=hostnet0,id=net0,mac=。。。。。。。。,bus=pci.0,addr=0x3 -chardev pty,id=charserial0
-device isa-serial,chardev=charserial0,id=serial0 -device usb-tablet,id=input0 -vnc 0.0.0.0:1 -k ja
-device cirrus-vga,id=video0,bus=pci.0,addr=0x2 -device usb-host,hostbus=1,hostaddr=3,id=hostdev0
-device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x4 -k ja
-device usb-host,bus=usb.0,hostbus=1,hostport=1.1,id=usbaud
Domain id=2 is tainted: custom-argv
char device redirected to /dev/pts/1 (label charserial0)
qemu-system-x86_64: -device usb-host,hostbus=1,hostaddr=3,id=hostdev0: Parameter 'driver' expects device type
2014-01-13 05:45:17.131+0000: shutting down
なエラーになる。
上のqemu-kvm-0.12.1.2では、これらの設定でUSB1.1動いてたのですが、アドバイスお願いします。
632 :
login:Penguin :2014/01/13(月) 15:16:12.87 ID:ObEbUnRv
すみません。よく確認したら上記 <hostdev mode='subsystem' type='usb' managed='no'> <source> <vendor id='0x041e'/> <product id='0x3015'/> </source> </hostdev> が消えるとの記述は間違っていました。virsh defineやってもUSB定義は消えていませんでした。 USB定義を <hostdev mode='subsystem' type='usb' managed='no'> <source> <vendor id='0x041e'/> <product id='0x3015'/> </source> </hostdev> で指定しても、もしくは <qemu:arg value='-device'/> <qemu:arg value='usb-host,bus=usb.0,hostbus=1,hostport=1.1,id=usbaud'/> で指定しても 「qemu-system-x86_64: -device usb-host,hostbus=1,hostaddr=3,id=hostdev0: Parameter 'driver' expects device type」 エラーになってしまうのが現状の問題です。
633 :
login:Penguin :2014/01/13(月) 15:38:30.87 ID:ObEbUnRv
qemu-system-x86_64 -S -machine pc-i440fx-1.7,accel=kvm,usb=on -nographic -monitor stdio -usb info usb とかやってもUSB一覧が表示されないのが原因なのかな?
ここの人はどんなMB使ってるんですか?
635 :
login:Penguin :2014/01/13(月) 16:08:46.38 ID:ObEbUnRv
qemu-system-x86_64 -S -machine pc-i440fx-1.7,accel=kvm,usb=on -nographic -monitor stdio -usb
QEMU 1.7.0 monitor - type 'help' for more information
(qemu) info usbhost
USB host devices not supported
駄目だなぁ。
>>634 自分はAsrock c2750D4I使ってます
636 :
login:Penguin :2014/01/15(水) 06:05:35.49 ID:ok4VZMQh
qcow2のイメージファイルが壊れたようなんですが どなたか復旧方法知りませんか?
637 :
login:Penguin :2014/01/16(木) 00:31:26.34 ID:7kBQTINv
CentOS6.5でQUMOを動かして仮想ホストにCentOSを入れてみました。 仮想ホストの起動がやたら遅くて数10分かかります。 CPUも100%使いきってます。 しばらくするとloginできるのですが。起動するたび、毎度時間がかかります。 画面も真っ黒のままなので何がおきているのかまったくわかりません。 原因のあたりがつく方、いますか?
QUMOって何だ? KVM有効になってないとか?
639 :
login:Penguin :2014/01/16(木) 00:58:44.24 ID:7kBQTINv
QUMOじゃなくてQEMUでした。 たしかに、新規作成するときに注意で「KVMが動いてない」とか出てますね。 kvm関係のパッケージはこれらが入ってますが、これじゃだめなのかな? libvirt-daemon-kvm-1.0.3-1.el6.x86_64 qemu-kvm-tools-0.12.1.2-2.415.el6_5.3.x86_64 qemu-kvm-0.12.1.2-2.415.el6_5.3.x86_64
640 :
login:Penguin :2014/01/16(木) 01:34:18.49 ID:7kBQTINv
kvmのモジュールも入ってるようですし、パッケージもOKみたい。 modprobe -l | grep kvm kernel/arch/x86/kvm/kvm.ko kernel/arch/x86/kvm/kvm-intel.ko kernel/arch/x86/kvm/kvm-amd.ko なんで新規作成でkvm.koがないっていわれるんだろう?
641 :
login:Penguin :2014/01/16(木) 02:02:55.94 ID:7kBQTINv
続けざまで申し訳ないですが。 仮想ホスト(ゲスト)が起動すると、 モニタ上ではCPUは100%、HDDアクセスもずっと。これが30分くらい続きます。画面も真っ暗なまま。 そして、それがおわるとOSが起動するみたい。起動自体は4分くらいで終わります。 /var/log/messagesをみたら、起動自体はそんな感じでした。 なぜ毎回ハードディスクのチェックをするのだろう?
断片的な作業ログを日記帳のように書き綴るならチラシの裏でも書けばいいだろう エラーメッセージとか出てるなら正確に記述しろよ 行き当たりばったりで調べても意味がねぇんだよ
>>640 CentOSは良く知らんけどintel用とamd用が一緒に入ってるのはおかしいような
>>641 >>仮想ホスト(ゲスト)が起動すると、
ホストかゲストかどっちが起動する時なんだ?
>>643 modprobeで出てくるのは問題ない
lsmodで出てきたら変だが
>>641 30分もディスクチェックするのは、異常だよ
ファイルシステムの先頭にある、
管理情報が壊れているのでは?
それとも、ファイルシステムはext2ですか?
ext2はジャーナル機能がないから、
ディスクを全部調べるから、
チェックに時間がかかる
647 :
login:Penguin :2014/01/18(土) 00:23:22.56 ID:4oUj5v5R
>>635 です。
libvirt1.2.0とqemu1.6.2でUSB音源が安定動作しましたのでメモしておきます。
>>625 で書いた「husb: out of buffers for iso stream」のエラーも改善しており
音源のノイズも以前よりマシになりました。
未だUSB2.0の地デジボードは動いていませんが、USB1.1の音源が安定したので
暫くはこのバージョンで使いたいと思います。
ゲストのUbuntuのQXLが固まりまくる… ドライバ入れたり消したり入れたり消したり日曜日中やってた けど解決出来ず結局QXL諦めた デュアルディスプレイにしたかったのに
649 :
login:Penguin :2014/01/28(火) 08:55:27.88 ID:ZExyjeIS
>>647 です。
>>647 の環境でWindows7が動作することを確認しました。
ただしOSインストールした後にCPUコア数やMACアドレスなどを変更すると、復旧インストール画面になりますので注意が必要です。
VNCなどを起動しないと復旧インストールが始まってしまうのが判らないので、リモートデスクトップ画面しか使ってない場合は要注意です。
OS1個しか使ってないから、仮想化とか縁がない
はいはい、それがどうした
OSの数と関係ないやん
653 :
login:Penguin :2014/04/14(月) 18:22:39.49 ID:LbPEe71k
CentでWS2008入れてる人いますかぁ
Ubuntuで2012なら
ウブの方が安定してるんかなぁ。 Centもkvmで走らせる方が無難かも。
Ubuntuスレから誘導されて来ました。 新たにkvmを導入して使おうと考えています、想定OSはUbuntu14.04LTSです。 仮想マシン同士をv2v(KVM⇔VMware player)したり、あるいは別のUbuntuの同VM(ハードウェア1ブートのUbuntuのkvm→ハードウェア2ブートUbuntuのkvm)したときのゲストから見たハードウェア構成って原則変わるものなのでしょうか? メインのUbuntu+サブの仮想winをUSBドライブで室内運搬しつつ使おうかと思ってるものの、窓には例のハードウェア構成変わると認証云々が来てしまうのでUbuntuのほうごと運搬してハードウェア構成は仮想マシンで固定に見せられないかなとか思ってます
657 :
login:Penguin :2014/04/22(火) 12:48:09.70 ID:0bAeodvM
KVM⇔VMware player ハード構成全く別物。起動させることすら難しいかもね。 ハードウェア1ブートのUbuntuのkvm→ハードウェア2ブートUbuntuのkvm こっちは、変なことしてなければ平気。
KVM→VMware playerはやったことあるよ、その時ハードディスクの容量も ついでに増やせたよ。
>>657 >>658 返答遅くなりました、kvm間では行けそうだけど他vm経由するとゲストから見て別のハードに見えると言う解釈でよさそうですね。
環境構築ためしてみます!
Windowsゲストだとレジストリ書き換えないと他種VM間の 移動は無理だった
VMware Server→KVMなら前にやったな
centOSでqemuがyumから入らないです。
教えてください。 RedHat に KVM で RedHat の VM をいくつか作成しています。 VNC でこの VM の GUI 画面を表示しているのですが、標準の解像度だと少し狭いです。 対策として VM のディスプレイの設定を vmvga に変えてみたのですが、 変えると VNC でも仮想マシンマネージャでも画面が黒いままで何も表示されず起動もしていないようです。 vmvga に変えるにあたって、他にも設定を変更したりドライバ?を追加したりする必要があるのでしょうか。
665 :
663 :2014/07/05(土) 16:11:36.58 ID:H3+YR+S7
どうしてもyumからqemu関係が入れられないのですが、リポジトリとかを追加しないとダメなのでしょうか? CentOS6.5です。
>>665 32bit 環境だったりしないか?
64bit 環境が必要
667 :
663 :2014/07/07(月) 16:57:48.93 ID:5nYOdTLh
ありがとう。 32です。 ホスト入れ直します。
超初心者質問で申し訳無いですけど KVMでマルチOS環境を作ろうとPC自作画策中なのですが、 スペック的に以下のスペックで快適に動きますでしょうか? CPU:Core i5-4590S メモリ:8GB ホストOS:Ubuntu14.04 ゲストOS:Fedora20,WinXP,Android-X86 今までは環境にVirtualBoxでやっていたのですが重くて重くて… CPU:Core i3-2100T メモリ:8GB ホストOS:Win7 ゲストOS:Ubuntu12.04,WinXP 宜しくお願い致します
すみません脱字訂正します。 ×:今までは環境にVirtualBoxでやっていたのですが重くて重くて… ○:今までは「以下の」環境にVirtualBoxでやっていたのですが重くて重くて… 宜しくお願い致します
670 :
login:Penguin :2014/07/09(水) 23:27:29.31 ID:miyD/2yo
おまえの言う快適がどれだけの快適を求めているか、誰も知らないし、 おまえがどんなOSをどういう使い方をするかも、誰も知らないし、 おまえ、他人を検索エンジンかなんかとしか考えていないんだな。 死ねよ人間のクズ。
>>668 何をしたいかによって答えが変わってくる
メモリとかcpuよりはストレージ強化した方がいいよ
>>668 今までの環境がそこまで重そうにはみえないが何が不満だったのかが大事
KVMはグラフィックス以外では優秀なはずけどグラフィックス面では3Dサポートがないなど
デスクトップのみを飼うケースではVBOXに比べそこまでメリットあるわけじゃない
http://www.cpubenchmark.net/調べでi5-4590Sは2100Tの処理能力2倍以上だがコア毎でいえば約1.2倍 + vt-dが使える
CPU処理面での改善はそこまで期待出来ない
メモリは常時稼働を想定すると最低限の(Fedora 2G) + (XP 2G) + (Android 1G)でも半分以上食い潰す
常時稼働で快適にしたいならもっとドンと確保するべき
Android x86はAndroid Open Source Projectのx86ビルドのはずだけど
少し前までの知識が今も変わってないならAOSPのx86ビルドは基本VirtualBox向け
>>671-673 皆さんレスありがとうございます。
今までの環境で特段重い処理はしてなくて、ただ個人的興味でいじってるだけなのですが、
なんというか起動が遅かったりキーボードやマウスのレスポンスがワンテンポツーテンポ遅かったり
ウィンドウの描写が遅れたりと、何かとストレスが溜まるんです…
なのでKVMならハードエミュなのでなんとかしてくれると期待したんですが
>VBOXに比べそこまでメリットあるわけじゃない
>改善はそこまで期待出来ない
このセリフだいぶショックですね…
色んなサイトでKVM絶賛してただけに残念
>メモリは常時稼働を想定すると〜ドンと確保するべき
(Fedora 4G) + (XP 2G) + (Android 1G) = 7GBとして
最低16GBぐらいは必要かもですね
>>674 i5 3.2Ghzにメモリ16GB積んだESXiでXP・XP・7・Ubuntuの計4ゲストを常時起動で使ってるけど
そんなにめっちゃくちゃ重いとも思わんが・・・
グラフィック弱いのはKVMもESXiも基本かわらんだろうから結局何に使うか次第だな
グラフィックバリバリのゲームとかしない限りデスクトップでもそんなに気にならないんだが・・まぁ人それぞれ感覚違うしな
結局重要なのはストレージの構成
ストレージをネットワークに置くならネットワークのレスポンスが一番大事
CPUパワーは殆ど気にしなくていい
メモリは予算の許す範囲で最大限搭載
>>675-676 またまた皆さんレスありがとうございます。
お二人共ストレージを重要視されてますね
SSDにすることで起動を速くすることは理解できますが
その他も速くなるのか正直自分には疑問なのですが、、、
あとESXiちょっとググってみました
こいつを初めて知りましたが、なかなか凄いヤツですね
ホストOSを必要としないで、こいつ自体がホストOSのように動作するとは。。。
VirtualBoxやVMwareはホストOS上のユーザ空間で動作するのに比べ
ESXiはホストOSを必要とせずKVMのようにハードに近いカーネル空間で動作するので
近い分オーバーヘッドが少なく、その分速いのかなと想像できます。きっと。
なのでKVMも
>>676 ぐらいの速さは出るかなと想像します。
少し安心できました。ありがとうございます。
かなり古い書き込みにレスするけど、
>>20 ホストを pulseaudio にして、qemu から QEMU_AUDIO_DRV=pa で直叩き
すると綺麗に鳴った。
>>677 Windowsはかなりディスクアクセスが多いから一つでもゲストにいると他が迷惑被る
あとESXiはカスタムLinuxだけど最小限の機能だからホストでなんかしたいって要求があると困る。小規模な運用ならあんまりメリットないと思う
>>679 アレはLinuxではないだろうw LINUXベースのカスタムだったら、ソース公開しなきゃならん。
カーネル自体VMwareのスクラッチだよ。
APIである程度互換とって、ドライバを使い回しやすくしてるけど。
>>677 esxiはハード要件厳しいよ
esxi kvm. virtualboxどれも一定期間使ってたことあるけど、クライアント機目的ならvirtualboxで構築、運用が1番楽だよ
>>677 ググったみたいだからわかってると思うけど
ESXiはホストとは別にリモートするPC必要だから最低2台のPC必要になるよ
ストレージは速度重視しなければネットワークに置いた方が色々便利だからそれも含めると最低3台1セット構成になる
まぁちょっと仮想環境を試す程度なら結局VirtualBoxとかVMwareプレイヤーとかのが楽だろうね
あ〜ESXiちょっと勘違いしたかも いわゆるシンクライアントってやつですねコレ 結局クライアント側にもOSが必要なんですね
てかVirtualboxでゲストのドライバ入れてないだけなんじゃ?
いや、シンクライアントとHypervisorのホスト(ESXiのこと)とは全く全く全くの別物だぞ。
>>685 既存の環境で、VirtualBox使いつつホストOSのリソースモニタ等で
状態を確認して、ボトルネックを探してみれば?
SSD化で改善しそうだけどね
>>687 レスありがとうございます
SSD化ですか。。。
う〜んどうも飲み込めないんですよね、、、
でもありがとうございます
今とりあえずKVMで画策中
なにか進展あればまた書き込みます
仮想化を快適にするならintel VT-dが使えるCPUとマザボでやってみたら
690 :
login:Penguin :2014/07/27(日) 10:25:42.05 ID:ld7KaOff
NECのwindowsVISTAの入ったPCに、Linux,KVMを入れたのですが、このKVM上で元々入っていたOEMのVistaを動かすのは、ライセンス的には大丈夫なのでしょうか?
規約読んでないけどプリインのはアウトだったと思うが というかその前にインストできるの?最近メーカー製買ってないから知らないがハードウェアチェックとかで引っかからないのかな?
消費者の一般的と思われる感覚からすると理解し難いと思うけど多分アウト
HTTPDの仮想化を考えてるんですが、 パフォーマンス改善のために 1.システムはイメージ化 2.htdocs以下のみを実パーティション直通3.読み書きが多い使い捨て系ログはramdisk上に置き2からシンボリックリンクで繋げる という複合は有効でしょうか? 環境は A10 7800 RAM 16G(HTTP周りしか入れないので仮装マシンには1か2G) WD Re(SATA) 7200回転 500G*2 RAID1 となってます 今仮措置でWindows上のVMWarePlayerで全イメージ化として動かしてるのですが、 妙に引っかかってまして…
694 :
login:Penguin :2014/07/27(日) 18:47:24.74 ID:ld7KaOff
>>691 ,692
だめなのかぁ。
プリインストールです。
まだやってないですが、linux入れる前にimageXでパーティションごと保存してるので、それを展開できるかなと。
BIOSの認証に関する部分をパススルーなんてできないだろうし、動かないかなともオモたけど。
ケースにプロダクトキー貼ってあればそれで認証すればいい ちなみに認証できるかとライセンスに適合してるかは別なのでやぶ蛇踏まないでね
>>695 違法を勧めるな。どう見ても真っ黒だろ。
個人が趣味とか私用でやってるなら こんなとこでいちいち質問しないで好きにやればいいのになとは思う。 別に割れてるわけでもないし。 仕事上で(デプロイとかの)検証してるんならそうもいかないだろうけど。
駄目なんだっけ? 仮想化禁止の条項、しばらく前に無くなってた気がするが気のせい? いずれにせよ、インストール時に表示されるEULA読めばいい
>>698 仮想化が禁止されていなくても今回は駄目だろ
700 :
login:Penguin :2014/08/08(金) 14:06:50.02 ID:u4H7VoyW
Archにqemuとlibvirtとvirt-manager入れたら、どうもデフォでspice使うようになってるらしいんだけど、音が鳴らない。 サウンドデバイス全部試したけど全部鳴らない。画面送られてきてんのに音声ないってどういうこと?
よく知らんが自分もvirt-managerのだと音鳴らんのでspicec使ってる
>>701 やってみたらfluxboxだとバグでspicecが起動しないらしい
うっそーんどんなバグだよって検索したら Error: x error on display :0.0 error BadMatch (invalid parameter attributes) minor 0 request X_SetInputFocus みたいなエラー出ますよって記事みて alias spicec='XMODIFIERS= spicec' してるの思い出した。これでいけるはずガンバ
>>703 急にデフォのspicecで起動できた!音も出た!
と思って閉じてみたら二度目の起動ができない……。
あ、どうもvirt-managerと別のWorkspaceから起動させるといけるっぽいです。 おかしな解決法だけどとりあえず音も出たしthx
よくみたら見当違いなレスしてたわ、XMODIFIERSは忘れて Error: unhandled exception: create IC failedみたいなエラーの時の対処法だからまるで関係なかった エラーメッセージとかはないの?
もう解決してた二重に恥かしい
-fオプションつけてフルスクリーンモードで起動はできないらしい。
>>706 エラーメッセージは
>>703 に出てるやつしか出てこない。
正常に起動したときは
Warning: no factory for 9
って4つ出てくる。
709 :
707 :2014/08/09(土) 01:11:35.95 ID:cT3siBDs
>>708 あんがと。そういうエラーに当ったら参考にさせてもらう
710 :
login:Penguin :2014/08/21(木) 15:45:07.20 ID:yUwFt5ib
ホストのcentosのsmb共有に、ゲストのwindowsから繋いでるんだけど、間の通信があんまり早くない。 仮想のネットワーク内だから、物理的な制約がない分普通のLANよりもっと速度が出るのかと思ってたんだけど。 オレの設定が良くない? VMwareみたいに、ホスト=ゲストやゲスト=ゲスト間はLAN内の通信とは別のNICでネットワークを作ったりすれば、高速に出来るんでしょうか? やり方しらんけどw
virtio使ってるの?
712 :
login:Penguin :2014/08/21(木) 16:42:15.70 ID:yUwFt5ib
>>711 使ってないです。
ネットワークの設定はホストのブリッジに、カードのデバイスはe1000にしてます。
virtioで設定するとwindowsがなぜか10BASEで固定してしまうので。
virtioでもうチョット調べてみます。
ありがとう。
リンク貼ってあげるなら説明くらい書いてやれよw
715 :
login:Penguin :2014/08/21(木) 20:58:37.32 ID:yUwFt5ib
3D対応マダー?
そういうのはパススルーでどうぞ
CentOS6か7をホストにしてWindows7か8.1を1つだけゲストにするつもりです CPUは値段が高いものが必要ですか? Pentium G3420を使おうと思っているのですが Win7は24時間録画サーバにしてCentOSはWebサーバにするつもりです ゲストを実用として使うにはCore-i5以上が必要かな?
719 :
login:Penguin :2014/08/23(土) 18:55:14.63 ID:sDBGfZ0z
うちはC2Dで動いてるぜw リアルタイムでエンコしない、TS録画するだけなら余裕。
windowsホストするときは足回りだけ気を付けとけばいいよ アホみたいにディスクにアクセスするからシステムはSSDに乗っけた方がいい
723 :
login:Penguin :2014/10/06(月) 22:22:05.48 ID:5PN9iWJA
724 :
login:Penguin :2014/10/07(火) 01:57:07.67 ID:omO01YPH
Xの設定でキーボードを日本語にすると繋がらなくなるのがわかんねぇ。 ユーザーでキーボード変更した時点で落ちる→root以外の全一般ユーザーが繋がらなくなる→rootでキーボード変更→rootでも繋がらなくなる。 ここでわからんのが、ユーザー別の設定で不具合が起こってるなら、キーボードを変更したユーザーだけが繋がらなくなると思うんだが、他のユーザーも繋がらなくなるんだよなぁ。 だからと言ってrootは繋がるから、システム全体に不具合が起こってるわけでもなさそうだし。 キーマップのファイルはちゃんと置いてあると思う。
725 :
login:Penguin :2014/10/07(火) 01:58:44.30 ID:omO01YPH
ごめん、↑はスレ間違えた。
726 :
login:Penguin :2014/12/03(水) 22:37:50.25 ID:GjkEAOVr
ホストCentOS7でゲストのOSをCentOS6.6にするとアイドル状態でqemu-kvmのCPU使用率が25-30%くらいになった ググったらなんか割り込みが増えてるらしいけど解決方法はないのだろうか
>>727 エスパーしてみるが kvm のカーネルモジュールが使われていなくて
qemu になっちゃってるということはないかなー
729 :
727 :2014/12/27(土) 22:14:35.58 ID:pxWAEqme
>>728 ありがとう
ゲストはCentOS6.5から6.6にアップデートしたんだけど、
GRUBで6.5のときのカーネルを選ぶとCPU使用率は0-1%くらいに下がる
同じホストで動かしてるArch LinuxのゲストもCPU使用率は低い
ゲストの動作速度は6.5のときと変わらないくらいだと思う
何か見落としてるかな?
powertop様にお伺いをたててみるのはどうだろう
732 :
727 :2014/12/28(日) 11:50:47.22 ID:eDkgavdG
>>730 powertopで状況を見たらUSB device: UHCI Host Controllerの使用率が6.5(0%)→6.6(100%)だった
USBがあやしいということでゲストのデバイスからUSBタブレットを削除したらCPU使用率が下がった
結局USB device: UHCI Host Controllerの使用率は100%のままだけど、とりあえずはこのまま使ってみるつもり
>>731 とくに何か変えた覚えはないかな
相談に乗ってもらってありがとう
今後のアップデートで改善したらまた報告するかも
ホストの /proc/cmdline は?
734 :
727 :2014/12/28(日) 15:45:06.95 ID:eDkgavdG
>>733 こんな感じ
BOOT_IMAGE=/vmlinuz-3.10.0-123.13.2.el7.centos.plus.x86_64 root=UUID=... ro vconsole.keymap=us crashkernel=auto vconsole.font=latarcyrheb-sun16 rhgb quiet LANG=en_US.UTF-8
divider=10
↑で思ったけど、1000Hz割り込み止めたカーネルっていつからだっけ?
737 :
EXACLAMP :2015/01/06(火) 23:11:20.42 ID:os8cpMJY
はじめまして。 最近CentOSやkvmを始めた者です。 どうしてもわからないので、教えてください。 なんとかkvmをインストールしてゲストOSまではセットしたのですが そのゲストOSにログイン(virsh console centos66)して、 ping 192.168.0.1 と入力すると 「ネットワークに届きません」とメッセージがでます。 主な環境は以下の通りです。 Linuxサーバー:CentOS6.6+kvm CUI ゲストOS :CentOS6.6 端末 :windows7上のTeraterm ネットワーク :br0は動いています 以上です。 やりたいことは、 端末からゲストOSに直接アクセスする MySQLをインストールしてwindowsよりODBC接続する PHPをインストール、アプリ作成してほかの端末よりアクセスする などです。 根本的な考えが方が間違っているのかすらわかりません。 何卒、ご教授ください。m_ _m
738 :
EXACLAMP :2015/01/07(水) 01:03:08.79 ID:lIF43pTu
737です。 解決しました。 ゲストOSに入った状態で、/etc/〜/ifcfg.eth0のIPADDRをほかの値(例 192.168.0.99)に 設定して、restartすれば正常に動作しました。 どうも、失礼しました。m_ _m
クリップボードが共有できないのが嫌
>>740 SPICEにクリップボードの共有機能あるみたいだね知らなかった
どうやればできるようになるかはわからなかったけど…
因みにホスト/ゲスト間のシームレスなマウスカーソル移動も
SPICEで出来たりしますか?
>>741 ホスト/ゲスト間のシームレスなマウスカーソル移動をしたいなら
ゲストにUSBタブレットデバイスをつければできたはず
SPICEは必要なかったと思う
ネストKVMをしたいです。 業者のVPSサービス(KVM)では、vmx が/proc/cpuinfoにのっていませんでした。 (似た名前でvmeならあるんですけど。intelのcpuのようです。) /proc/cpuinfo にこの文字があれば大丈夫だというのがあれば教えてください。 もし、ホストcpuが非対応で駄目なら、virtual boxを使うと良いのでしょうか。 よろしくお願いします。
OpenStackとかOpenNebulaの話題はどこですればよい? またはどの板に立てればよい? Linux板もソフトウェア板もOS板も微妙に違う気がする Xenと親和性が高いしユーザも多そうなのはLinux板だと思うけど
>>743 conohaは出来る、ってOSCでデモしてたが実際どうかは知らん
>>742 ゲストがWinXPなんですけど、その場合その方法ではできなかったです…
>>745 cloud coreならできるという情報がネットにあがっていたんですが、
自分でcv02のcpuinfoしらべたら、vmx が載ってなかったんです。
748 :
login:Penguin :2015/01/14(水) 15:01:05.57 ID:kXP6bD2d
KVMとVirtualBoxって、同じホストで動作させられるんでしょうか。 KVMとVirtualBoxのゲストイメージを、同じホストで動作させたいです。
試しにやってみ。
750 :
login:Penguin :2015/01/16(金) 16:40:12.13 ID:bBqqisOc
仮想マシン上に構成できる話ではないので、 物理マシンを用意しなけりゃ試せない。
ググってもよくわかんないんだけど、vhost-net とか、x-data-plane とかの パフォーマンスに影響する新機能って他にどんなのがあるの? あ、カーネル 3.18の話。パフォーマンスじゃないけど、VirtIO-serial てのは見つけた。
PCIパススルーって、GPUをVMに割り当てちゃったり出来る訳? ホストの画面消えそうだけど。 質問の動機はゲストOSで3Dゲームをがっつり動かせないかって言う不純な物です。すみません。
>>753 お勉強がてら調べてやってみます。ありがとう。
>>752 ホストの表示消して、SSH経由で外部から操作に徹するっていう荒業をやる人もいる
ホストの時刻は全く問題ないのに、ゲストOSの時計がどんどん未来日付に ずれていく問題にぶち当たったんですけど、原因に何か心当たりある方はいらっしゃいますか? クロックソースはkvm-clockでもHPETでも症状変わらず。 当該のゲストを別ホストに移動させると問題ないので、おそらくホストに使用している マザーの問題だろうと思ってBIOSから可変クロックやら省電力設定の項目全部Disableに してみたものの、改善しませんでした。 ホスト:CentOS 6.6 ゲスト:NetBSD マザー:C1037U+HM70 以上、よろしくお願いします。
>>756 何年も前の話だし参考になるかわからないけど
時刻を取得しようとする処理が他のゲストとのCPUの取り合いの影響で上手くいかないとかで時刻がズレるってのはあった
>>757 ゲストOSに特定のCPUを専属にする(CPUピニング設定で固定割り当て、かつホストOSのカーネルパラメータにisolcpus追加してそのCPUをスケジューリング対象から外す、centosなら使えるかな)ことで時刻ズレは緩和されるのではないかな。
ただ、kvm-clock使ってもダメ、というのが気になるけど。
>>752 Intel HD Graphics が使える環境に AMD と nVidia の VGA 1枚づつ挿して、
Intel : kvm host
AMD : メインの Linux Desktop guest
nVidia : Windows guest
って環境で使ってるよ。Windows Guest のほうはほとんど使って無いけれど、
AMD のほうは fglrx 使って、ハードウェアアクセラレーションも効いている。
PCI パススルーは USB パススルーとかと違って安定してて良いね。
>759 その構成で hd graphics はパススルーできる?
>>759 そういう構成にあこがれるんだけど、HID はどうなるの?
USB PCIe カードも挿してゲストに割り当ててそっちにつなぐとか?