1 :
名無しさん@お腹いっぱい。 :
2012/11/27(火) 05:23:58.61 ID:Lmv59voK0
3 :
名無しさん@お腹いっぱい。 :2012/11/27(火) 11:26:52.61 ID:iqgE/GNE0
リブートしたらLoading...state.tgzで止まって起動しなくなりました 色々試すとUSBキーボードをつなぐと(つないだ瞬間)state.tgzを抜けて通常起動します あきらかにキーボードを探しに行って止まってるのですが ESXiにキーボード必須とか言う設定ありますか? 知らない間にそのオプションを有効にしたとしか考えられません
みんなESXiの設定バックアップってどうしてる? 簡単に取れる方法無いかな? クリーンインストール後それを喰わせたら元のESXiに戻るみたいな。
バックアップ必要なほど設定がない
>>5 仮想スイッチゴテゴテと作ってVLANグループ大量に
作ったりしたら結構復元まで時間かからない?
ごめん。 おれ個人使用だからnicの設定してdatasotre作るだけだから・・・
vicfg-cfgbackup.pl
俺も同じ。 ディスクレスのブレードで前世の記憶を埋め込んで PxE ブート。
12 :
名無しさん@お腹いっぱい。 :2012/11/27(火) 21:55:51.14 ID:LDr+IhXn0
E S X i 関係の日本語版まとめサイトってないのかな www12.atwiki.jp/linux2ch/ ↑こういう感じのやつ まだそこまで需要ないのかな でもこれからはpcの性能があがっているし省エネと効率化の時代だから一般化して必要になってくるんではないか? ただ、カーネルに統合されているKVMのほうが一般的になってくるから、 KVMのまとめサイトなら作られそうだな。
>>12 >ただ、カーネルに統合されているKVMのほうが一般的になってくるから、
小規模SIer勤めの俺の知識不足かだと思うけど・・
こういう時代ってくんの?
来ないだろうな。 KVMはビジネス用途では永久に浮上しないと思うよ。 前スレでボロクソにけなされてるHyper-Vでも、KVMとは比較にならんほど上だからなあ。 自前で作り込める体力を持ってる会社が自社の仮想化インフラをKVMにしている 例はあるし、格安VPSをKVMで作ってたりとかはあるけどね。でも全くのニッチ。
ボロ糞って言っても、遅いって言ってるのは風説の流布みたいなもんだからな。 4.1の上で5.1動かして、5.1は64bitゲストが動かないから使えないとかいうようなもの。 ほかは使い勝手の話とかばかりだったし、 逆に言えば使い勝手さえ我慢できれば大丈夫なところまでは来ていると。 個人的にはWorkstationと同じような感覚で管理できるから、 別に不便だとは思わないんだけどね。 WorkgroupでのHyper-V Serverがカスなことには激しく同意する。
vicfg-cfgbackup.plって知らなかった。 ありがとう。試してみる。
Hyper-Vは5nine Manager使えばそこそこ使えるんじゃないの KVMもlibvirtのおかげで管理ツール結構あるし
手放しでいいと言えるようなものがあれば、RedHatがKVMを買収してから 4年以上経つのに仮想化ビジネスは一向に立ち上げられず存在感ゼロの 状態に留まる、なんてことにはなっていないだろう
個人で使う、中小企業で社内のみで使うならそんなの関係ないだろ? パススルーの話が盛り上がるところを見ると、そういうユーザーもいっぱいいるでしょ。 どうしてこの手の話になったら急に規模感デカくなるんかね。
小規模なら何でもいいからじゃね
ビジネス用途だとKVMはこないだろうし、個人用途だとHyper-Vが来そうな気がするわ。 そこそこの大きなSIerがKVMをサポートしてくれれば変わるかもしれんが。
KVM気になるけどなぁ vSphere Web Clientが無償版でも使えるのならESXiで問題無いんだが・・・
VPSの大半はKVMベースなわけだが。
>>14 は個人の推論。それを決定稿と看做しループとかww
ゲーム用途でグラボのパススルーをしたいって言うのはたまに聞くけど、 仮想PCでグラボ使うレベルのゲームなんて出来るもんなのかね…
>>26 前スレの頭の方でやってる人がいた。
PSO2程度なら快適だってさ。
まぁモノによってはWorkstationとかの仮想GPUでもいけるしな。
28 :
名無しさん@お腹いっぱい。 :2012/11/29(木) 16:02:57.68 ID:mqebfRrF0
KVMだと安心するんだよな 無償のLINUXのようなもの でもVMだと、いつ奪われるか心配 KVMにがんばってほしい WINDOWS用のデバイスの専用ドライバなんかもたくさん作ってほしい ね?
>>28 専用というか準仮想化ドライバは欲しいね。
>>23 >>30 2年くらい前にはOpenVZ系やjailが多く、ハイパーバイザ型は少ないと言われていた。
KVMを使ったサービスは、カーネルが独立してることをウリにしてたりしたが。
そんなに短期間で乗り換えるものかしらん。
まあどれもこれもまともに調査してなさそうだけどw
>>28 ,29
KVMはWindows用の準仮想化ドライバってあるよ。
64bit版でもちゃんと署名入ってるから普通インストールして使える。
Hyper-VもLinux/Windowsを動かすなら準仮想化ドライバあるからなー。
うちだとFreeBSDに準仮想化ドライバが標準で入るようになると候補になるけど。
ただ、ESXiですでに環境作ってるから移行するのが億劫なのよね。
InfiniBand+SRPで環境つくってるからESXi 5.xへ移行できないので、
次の環境はXen ServerかKVMかHyper-Vしか選択肢がないという orz
>KVMはWindows用の準仮想化ドライバってあるよ。 >64bit版でもちゃんと署名入ってる ああ、入っているんだ。 この前に読んだ記事だと、署名がないから、 面倒くさいことをしなければならないということだった。 進化しているんだね。うれしいね。
何年前の記事読んだんだw
いやーほんと、オープンソースのお世話になっているわ
マジキチ
みなさんfedora18 betaが着てますよw Playerのゲストに入れてみましたが、これいいですよ旦那さんw ESXiにも入れようかな?というか実機にいれたい程の出来w 前スレでESXi on Playerでお世話になったんですが、新たなサマリ として、Ubuntu10.04.4xi386 on ESXi5.1 on ESXi5.1 on Player5.0.1 on openSUSE12.2 もできましたw 通信速度もディスクアクセス速度も極端に落ちた感じですw UbuntuはインストールするよりもLive CDのほうが速いと感じるほどディスク アクセスが極悪ですw 当然といえば当然ですけど、超非力なハードを使ってる感は否めません。 あ、2重目のESXiではVT-xが有効にならず、64bitなOSはインスコできませんでした。 以上ご報告しますw
>Ubuntu10.04.4xi386 on ESXi5.1 on ESXi5.1 on Player5.0.1 on openSUSE12.2 なんのために
メガ盛り丼を作ってみた、程度の好奇心だろ。
>>39 VMotion、DRS、HAの準備と表向きはみてくださいねw
>>38 仮想化ソフトスレ全般でリリース、インストール、ベンチを晒して
スレに貢献してるつもりでいる中級者気取りの初心者が張り付いてる。
たぶんそいつ
いいから触るな
ESXiの管理端末が異様にメモリ消費する。平常時+1.2Gbyteぐらい 調べてみると、java-JRE(64bit)が喰ってる。 どうやら中途半端にインスコした WebClientが JREを勝手に起動してる。 WebClientの実体は、javaアプリっぽいな。しかしメモリ食い過ぎ orz アンインスコで解消するかな?
>>43 何かのサービスかプロセスが自動起動になってるんだろうから、手動起動にすればいいのでは。
アンインストールしてその後どうすんのさ?
>>43 アンインスコでメモリ馬鹿食いは解消した。
>>44 vCenter無いから WebClientは使って無い。
今回、あらためて調べてみて、C:にバージョン違いの JREが6種類ほど
重複して存在するのに気づいた。これって、集約できないのかな?
>>45 アップデートそのままでインストールしたら、前のは残ってたね。開発で使っているとか、
特定のリビジョンに依存するアプリがあるとかじゃなければ、旧いのはさっくりアンインストールしたら
いいんじゃないか。
>>46 スレチでスマソが、例えば AdobeCS4だけでも 2つの JREが入ってる。
一束70Mbyte程だから、たいした事は無いんだけど、javaアプリってこういうモノ?
>>47 皆好き勝手にJRE使うからね。
JREどころかJDK要求するものもあるし、デフォなインストールPATHがマイナーバージョンアップ毎に異なるから、カオスだな。
>>42 I don't understand what you said. www
テンプレ見ろや、各種ハードでの動作報告って書いてるだろ?
トリプル仮想だって立派な仮想ハードじゃないのw
>>37 見て参考になる人もいるはず。
あなたはESXi環境勉強するのに新規ハードを購入する必要があると考えて、
買って勉強用環境を構築したw
でも、PlayerのゲストとしてのESXi環境も構築できる事に気がつかなかった。
そういうあなたの寂しい遠吠えに聞こえるのは俺だけ?
>>50 追記 まさか各種ハード=実PC とか言わないよなw
そんな発想の奴がESXi使えるわけないよな、どう考えてもw
ハード といえば、ハードウェアだから、ハード=物理マシン(実PC)でいいんでは
HDDをハードって略す人がたまに居るからきっとそういう人なんだろう。
各種(仮想)ハード(ウェア)に脳内妄想で付け加えてるのかw ネスト仮想化動作検証はそれなりに意義のあることだが、 Playerを親にした環境でのネスト仮想化の情報を喜ぶ奴はここにはいないだろうな 素直にブログ書いてよろこんでればいいのに・・・・
ESXiそのもののお勉強として、Windows1台あればできるっていうのはいいことだと思う。 ここに聞きに来る前に「試せよ、ゴラ」て言えるからねw 仮想環境の多階層もネタとしてはアリだと思う。どうせならギネスブック目指すぐらい派手にやって欲しい。
常識的に考えればソフトウェアだろうな。 わざわざKBも出しててコミュニティもあるし、検索すれば山ほど出てくる。 VMwareが出してる本ですら2ページくらいにわたって紹介してるし、 伊藤忠で出してる2冊は1章使って詳しく方法を紹介してる。 最近の書籍なら触れてる場合が多い。 そんな方法を知らなかったと思えるセンスがすごいな。 そんな状況を知らないくらい自分で調べないから、暴れちゃったんだろうけどさ。
検証環境としてのお遊びとしては勝手にしろって話だけど、実行環境で仮想鯖を使うときは ホスト型の下にハイパーバイザ型をぶら下げるメリットなんてこれっぽっちもない 砂浜にでっかい砂城作りました的な話だから、本当にどうでもいいんだよね
58 :
名無しさん@お腹いっぱい。 :2012/12/01(土) 23:28:06.31 ID:LzIbhUgn0
esxの機能評価するにはネストもありだけど、スレ的に親はesxiだろ playerはないw ここの住人は機能評価情報よりも実機でのパフォーマンスや設定の情報が欲しいだろうに 例えばbroadcomのBCM57781でドライバを入れたら動いたよとか、ASUSのP8Z77-MでIGPU Multi-MonitorとOnboard HD AudioをBIOSでDisableにするとGPUパススルーできたよ!でもCCCインストールするとマウスカーソルが消えるから使えねーよwwwとか 実機での情報が欲しいんだよね 仮装環境でのesxiの情報は、ここでなくても・・・・
Workstation/Playerで作ると便利よ VCP取るとWorkstationのライセンスが貰えるのも、そのへんがあるんだろうし まープリセールスでもやってないとあんま便利さを実感する機会が無いかもしれんが
むしろプリセールスレベルだからじゃね? ガチSEなら検証機建ててるだろ
プリもポストも両方やるが、PoCだったら当然普通に物理マシン使う デモにはWorkstationが適している
みなさんのようなプロSEの方はESXi on Playerは必要ない事はわかりました。 でも私含めて素人の人間にとっては、ESXiを手軽に試せる貴重な環境ですw Playerの提供する仮想環境としては、物理マシンのCPUがCore i5もあれば 必要十分です。Win8もサクサク動くし…仮想ESxiもしかりですねw 今回仮想の多重化をしたのは、仮想ESXiのゲストの環境がとても信じられ ないくらい軽くESXiのハイパーバイザの実力を実感したので、ちまたで よくやられているESXi on ESXiはどうかな?ってのが一つの理由ですw 他の理由は上に書いた通りです。 仮想の多重化に興味があるわけではなく、一台のPCしかないので、こういう 帰結になっていますw
みんな相手するなよ
まあ、ある程度の運用経験などが無いと、自分が何やってるか分からんのかもな−。
需要の有無とか関係ねーよ 「esx一度も使ったことないけどパススルー使った変態環境が組めないんです助けてください!!」 が冷たくあしらわれるのと同様に、まずはスタンダードな構成で動作把握してからやれと言われてるだけ。 需要によって初っぱなからplayer上に入れる奴も居るだろうが普通2chに張り付いて質問する前に実機で確認するわ
何段も重ねるとどの層でトラブってるのか以前にすべての層が正しく動いているか確認するのがメンドイ。
仮想化無しでスーパーπ3355万桁が、10分切る性能のCPUが、1時間以上かかるには何段目には興味があるな あとVt-dのオーバーヘッドはどのくらいあるのか調べてみたりとかは興味がある が、わかったところで役にはたたないな
あ、ごめん 分かり難いね 実ハードに、ホストOSとしてWindows7をインストールしてスーパーπを3355万桁計算した時、10分かかるPC-Aがある。 そのPC-Aに、ホストOSとしてESXiをインストールして(1段目)更にゲストOSとしてESXiをインストール(2段目)して、更にESXiをインストールして(3段目)・・・ と繰り返しネスト(入子)インストールしていき、最後にゲストOSとしてWindows7(n段目)をインストールしたゲストPCーBに スーパーπの3355万桁計算時間が、1時間以上かかるようになるのは何段目くらいなんだろうかと 要は、ESXiのVTオーバーヘッドがどの位なのかと興味があるだけ。 解ったところで役にはたたないチラ裏でした。
結局IOがネックになるからCPU負荷なんてみても仕方が無いんだよなぁ。 CPUがネックになる環境がゼロとは言わないが、一般的な環境なら先にIO側だよねぇ。
>>71 someting(OS) on ESXi on ESXi on Player on Linux
ではてきめんにIOにきてるなw
someting(OS) on ESXi on Player on Linux
ではそんなにIOにきてないww
someting ww
>>73 ばれちゃったw
somethingねww
サムティン
datastoreをRAMディスクにしたら、何段目でHDDより遅くなるか。 最早測定結果が何を意味するかわからんな。
だがそれが良い 測定目的なんて、結果に合わせる形でつk(ry
78 :
名無しさん@お腹いっぱい。 :2012/12/04(火) 10:28:21.65 ID:YAXLcio+0
DirectPath I/O が使用できる格安サーバーって何があるんですかね? MX-130 S2で esxi5.1 動かしてるんだけどどうも対応してなくて。 AMD-Vは有効なんだけどチップセットが対応してなさそう・・・
79 :
名無しさん@お腹いっぱい。 :2012/12/04(火) 20:50:23.60 ID:sjQZTE/C0
ステキなsometing(OS)
素敵なsometingのスクショ見たい方います?ww
現在ESXi 5.1を私的に使ってるんだけど、別の物理マシンにも 5.1をインストールして2台同時に動かしたい場合、無償ライセンスは同じものを使える? 取り直さないとダメ?
83 :
名無しさん@お腹いっぱい。 :2012/12/05(水) 22:30:48.37 ID:bEh39CeV0
esxi 5.0.0で、ゲストにCentOS6.3を入れています。 VMware Toolsも動作していることがvscから確認できていました。 で、なのですが、さっき、仮想マシンの設定で、CPUのコア数を2から3に変えたのです。 そうすと、VMware Toolsのステータスが、「実行していません(現在)」になってしまいました。 再起動しても駄目です。 やっちまったんでしょうか。(とりあえず、VMware Toolsを入れなおしてみます)
84 :
名無しさん@お腹いっぱい。 :2012/12/05(水) 22:56:31.75 ID:bEh39CeV0
復活できるか心配していました。 旧バージョンは色々と問題が残っていそうなので、あたら しいesxi 5.1へ移行していきたいと思ってい ます。 しかし、vmwareはライセンスの変更などがどたばたと行われ たので、注意が必要ですね。
KVMがやはり魅力だなあ 一番には、ホストマシンのメモリ制限がないことだ 最近のマザボは64GBもの物理メモリを積むことができるし、 CPUも多コア化しているから、これらを活かしたいんだなあ KVMで、WINDOWS7マシンをすべて仮想化したい
KVMとESXi両方使ってるけど、Windows動かすなら ESXiのほうがマシだと思うよ。
ESXのスレで聞かれもしないのにKVMを語る子は相手にしないほうがいいと思うよ
もうWindowsだけであれば、Hyper-V2012でいいわ
LINUXみたいに、無償で、ヘビーにつかっていけるのがいい < KVM KVMの進化にマジで期待している。 HYPER-Vも、WINDOWS SERVERが必要なんでしょ。 ゲストosを増やせば、アクセスに必要なcalが必要になってくる。 KVMそろそろ使ってみようと思うわけ。
>>86 KVMの仮想マシンではやっぱり動作が遅くなるんでしょうか。
WIN7は、RDPでリモートアクセスさせようと思っているのですが。
KVM使おうがESX使おうが、ゲストOSにWindows使ってアクセスするならCALは必要なわけで Hyper-Vにしたからといって必要なCALが増えるわけでもない。
CALで済めばいいんだが、本当に必要なのは笑うくらいに高価なVDAだからなー それにしても、「Hyper-VにすればゲストWindowsのライセンスが安くなる」 という迷信はしばしば見かけるが、その逆とは珍しいなw
VMwareだったら、ゲストWindowsのライセンスの他に、 vSphereのソフト費用とサポート費用がHyper-Vのときより余分に必要だし Hyper-Vにすれば、結果的にライセンスは安いでしょ
VDAが必要なのはESXだろうがHyper-Vだろうが同じだし
>>94 有償版vSphere前提で比較するならMSで対象となるのはSystem Center製品群で、
そいつらを揃えるとvSphereよかライセンス高いよ
ESXiスレでKVMの話をあまりするのは良くないかも知れませんが、、 >91 KVMでも実用的な速度で動きますが、ESXiのほうがより快適です。 専用ドライバ(VMWareでいうところのVMWare-tools)の品質にも差があります。
Hyper-V 上で動作しているゲストOSにアクセスする場合って、ゲストOSのCALだけでいいんだ。知らなかった。
msのことだから、ホストのHyper-Vのレベル(すなわち、WIN 2012 SERVER)でもアクセス料金を徴収してくれるのかと思っていた。
Hyper-V に搭載可能なゲストOSが無制限なら、管理画面も提供されるし、良いかもしれないですね。
安価であれば、ESXiよりもいいかなあって。
>>97 レスありがとうございました。
ホント、すみません。
>>93 Hyper-Vだと、ライセンスややこしそうですね。
それから高そうですね。
うーむ。ライセンスと、価格が気になるので、
KVM + WIN8(特定のハードウェアにライセンスされていない)がいいのかもしれないですね。
Windowsをたくさん使うのやめれば良いんじゃね? 必要最小限だけ残して、鯖用途ならCentOSとか使った方が 軽いし自由度も自動処理も便利だよ ちょっと前に出ていたKVMもLinuxゲストはかなり良いよ 標準でカーネルレベルで準仮想化に対応している
Linuxのが進んでるって思うのは幻想。 例えばSMBはWin7の方が2.0になっててファイル共有が速い。
>>101 Winに比べてLinuxの方が進んでいるなんて書いてないんだけど・・・・??
鯖=ファイル鯖とも書いてないよね?
最小限残すって書いてあるのも読めないの?
それとも、ファイル鯖たくさん作って仮想化してまとめるのが一般的だとでも思ってる?
勝手に妄想で相手の意見でっち上げて いちゃもん付けないでくれないかな
普通に大きなお世話って感じじゃねw 可能であればCALがかからないOS使うだろうし 単純にWindowsやめればいいって話にはならんでしょ
延々とスレ違いの話題を繰り返す相手にわざわざ逐一丁寧に答えた挙句、 ケンカ始めるとかもうね
webクライアント使うにはライセンス購入必要で vCenterが条件ですよね?
>>100 もちろん、WINDOWS SERVERなんて使ってません。もちろんファイル共有もCentOSで提供できるSMBサービスを使いますね。
しかし、デスクトップ用途だと、やっぱりWINDOWSをゲストに使うのはやめられないことになります。
とくに最近では、iPADやiPHONEなんかが良く使われているので、
そこで用いられるクラウドアプリと連携するために、PCにも専用アプリを入れる要求が出てきています。
そういうアプリのためにはGNOMEでは厳しくなってくるわけです。
つづき 管理の一元化のために、必要悪のWINデスクトップ環境を仮想化したいという話になるわけですが、 とすると、ライセンス料を本当に安く上げるために、たとえばKVMかなあとも思います。 無償のESXiではホストメモリに制限があるので、効率よくゲストを収容できなくなってしまう。 今、無償のVMWARE HYPERVISOR 5.1って、まだ32GB制限残っていますよね。 KVMに大きい可能性を感じる・・・垂涎
www.vmware.com/files/jp/pdf/support/vsphere-51-configuration-maximums_JA.pdf この「VMware vSphere 5.1 構成の上限」ってところに 「ホスト 1 台あたりの RAM 上限2TB」 「仮想マシン 1 台あたりの RAM 上限1TB」 って書いてあるけど、これとは別の話ですか? そんなにメモリを積んだことがないので、意識したことはない。
>105 確かそう。前スレでそんな話題があったような気がする。
>>105 試してないけどWorkstation9経由で行けないかな。
>>108 >ESXi ホストのメモリに関する構成の上限
>ホスト 1 台あたりの RAM 2TB
ということでしたけど、これって、無償版(hypervisor)もそうなったの?
5.0だと、32GBだったけど。
112 :
名無しさん@お腹いっぱい。 :2012/12/10(月) 02:02:02.19 ID:wmLUQy390
vmからテープデバイスを見せるには どうしたら良い? ホストにscsiカードを乗っけたんだけど パススルーするとパープルするよ hba一覧ではちゃんと見えてるんだけどなあ
ホストにつながっているテープドライブを仮想マシンで使うには SCSI HBAを直接仮想マシンに見せるか、仮想SCSI HBA経由でテープドライブを見せるか。 どっちもパープリンならあきらめれ。 iSCSIとかに変換してネットワークで繋ぐって手もあるけど。
114 :
名無しさん@お腹いっぱい。 :2012/12/10(月) 12:35:06.55 ID:fpNmgH/A0
112です。 SCSI HBAを直接仮想マシンに見せるっていうのは、パススルーのことですか 仮想SCSI HBA経由は散々調べたけれど理解できず iSCSIに変換は想像がつきました 物理サーバーをiSCSIターゲットにするのかな 113さん。もう少しヒントを教えて下さい。
直接見せるのはパススルー。 仮想ホストが物理SCSI HBAを認識していて接続されているデバイスがホストの構成のストレージアダプタのデバイス一覧から見えているなら そのデバイスは仮想マシンの仮想デバイスのSCSIコントローラー経由でアクセス可能。仮想マシンの構成からデバイス追加を見てみるとおk iSCSI変換はその機能があるiSCSI鯖とかSCSI・iSCSIブリッジ箱とかそんなの。
相変わらず無料サポートセンターと勘違いしているキチガイばっかだな。 ちゃんと金払えよ屑野郎。
質問も良いんじゃない。 親切な人が気まぐれで答えてくれる限りは。 ハイパーバイザ型のツールの中じゃ敷居が低い方だし、 初心者な人も多いでしょ。
5.0の無償版はバグがあって32GBのリミッターが外れてたはず
>>118 ええ
それって、ホストの物理メモリのことですよね
5.0.0のディスク持っていてよかったー
でもアップデートしたら駄目?
5.1系になれば、ホストメモリ制限がクリアされたということですけど、
5.1系の無償版は、やっぱり32GBが制限なんですよね
120 :
名無しさん@お腹いっぱい。 :2012/12/11(火) 01:00:05.89 ID:/uAG+qlu0
〉〉113 〉〉115 無事に、設定の編集〉仮想マシンのプロパティ〉scsiデバイス〉接続 テープCERTANCで LTO2がVMが見えました。 つまずいたのはHBA一覧で全てをスキャンを押下していなくて、デバイスが見えていないためでした。 ここを自動でリフレッシュするようにできないものですかね。 今ではおかげさまでBackupExecがしっかり動いています。 テンプレで動作報告を揚げているので協力させてもらいます ADサーバ 2008 サブAD 2008R2 web.mailサーバ centOS6 トレンドマイクロサーバ linux sip交換サーバ linux xp x2 vista x1 FreeNAS8 fax配信サーバ 2008 ubuntu x1 計11vm 小さな会社ですが、この1台のホストで全ての主幹サーバはなくなりました。(コールドスタンバイあり) 電気代1/4です。 RAM32G超え検証しましたが、ウチの環境では5.0も5.1もvmが起動できませんでした
>>119 君はしつこいな
業務で使ってるなら買えよ
>業務で使ってるなら買えよ それ契約のどこに書いてる?
↓パススルー
ドリームスカムスルー
32GB越え出来るマザーは買える癖にその上で走らせるソフトにはビタ一文払えない業務ってのが想像つかん。
126 :
名無しさん@お腹いっぱい。 :2012/12/11(火) 20:16:11.63 ID:Ut0iA+ZW0
FM2ソケットマザーなら、合計64GBものメモリを積めるものが当たり前のようにアルネ
まー本番サーバだったら32GB以上積んだホストに集約するゲスト数を考えても 無償版というのは通常まず無い選択だが、テストor開発用途ならあるんじゃない? 無理して大量にメモリ積まなくても2台にすりゃあいいんじゃねえの、とは思うけど
大本の本番鯖は物理鯖だけどバックアップ鯖や予備系統や副系統のために物理鯖何台も追加したくないからiSCSI起動の仮想ホスト一台だけ追加して済ませたって言う人もここにいるんですよorz
上の話題と、何の関係が?
で、結局、無償ライセンスにおける5.1.では、 ホストのメモリ容量は32GBを超えて認識されるのか否か どっちなの
ライセンスの話は2chで訊いてないでVMWareに問い合わせればいいんじゃねーの。仕事なら尚更。
てか、そんな環境に数GBメモリ割り当てなきゃ32GBだって足りるだろ。問い合わせできないなら自分で試せばいいじゃない。ここはVMwareサポートではない。 回答があっても保証はない。できないって言われてできたら暴れまわるんだろ?
133 :
名無しさん@お腹いっぱい。 :2012/12/12(水) 07:37:08.45 ID:onTQYo9o0
ホストキャッシュ100Gで全vmのスワップをホストキャッシュに振るとメモリー不要になると思うよ。動きが変わる
なんだか前スレから質問に対して無条件にキレる基地外が混じってるな WindowsスレならMSに、Linuxスレなら赤帽買えとか逐一反応してるんだろうか。 質問と比べて遙かに読む価値がないからチラシの裏にでも書いてほしいな
メモリ制限とかどーでもいいからWeb Clientを無料で使えるようにしてほしい
136 :
名無しさん@お腹いっぱい。 :2012/12/12(水) 20:52:39.42 ID:1xXprUbi0
そうだねー。 5.1から接続の待ち時間ながくなったし
137 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 02:21:17.52 ID:z0LZ+qvd0
多様な使い方があると思いますので、 ノウハウをじゃんじゃん出し合って盛り上げていきましょうね。 しかしネットの情報は3.5から5.1まで錯綜してますな。
138 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 05:28:10.48 ID:bCFNellG0
ちょっと疑問が。 ESXi5の仮想マシン(ver8)に、ゲストOSとしてWINDOWS7なんかを入れたとします。 すると仮想マシンではありますが、なんと「ホストの物理CPU」が認識されています。 ここで問題なのですが、 このゲストOSをovfテンプレートなんかでエクスポートして、別のESXiホストにインポートし稼動させた場合、 ゲストOSのWINDOWS7は、異なるハードウェアで動作していると認識して、再アクティベートを要求してくるのでしょうか。
windows7のアクティベーション要素に CPUって入ってるか? 入ってたとしても、3〜5要素ぐらい一気に変わらないと再アクチにはならないんじゃね?
それ以前に異なるCPUの仮想ホストへの移動ってトラブることあるよな
141 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 15:01:57.80 ID:bCFNellG0
INTEL 系から、AMD系とか ですか? あんまり考えたことなかったな。 仮想マシンなんだから、CPUも抽象化しておいてほしかったよ。 ESXiだけでなく、VM PLAYERとか、HYPER-Vとか、KVMなんかはどうなんだろう。
142 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 15:04:06.13 ID:bCFNellG0
>>139 NICの物理アドレスが変わったら、確か、駄目だったと思う。
世の中にはCPUの型番とか見て挙動を変えるコードが少なくないから変に抽象化したらトラブルの元になると思うよ。 ライセンスの愚痴はVMWare本スレのテンプレに準拠して程々にしてほしいな。
>>142 同種のNICでも交換しただけで、再アクチって事が本当なら、
寛容だったXPに比べて、凄〜く面倒なOSってことか?Win7は。
145 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 15:18:07.62 ID:bCFNellG0
>>143 なんか、肝心なところで、仮想化ができていないんだなーって印象だな
世の中のすべてのCPUをシミュレートするような仕組みでもあったらいいのに。
146 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 15:20:37.43 ID:bCFNellG0
>>144 ごめん、あんまり、自信なくなってきた。
しかし、NICを取り付けたら、MS24時間受付に電話しなければならないことになったことは覚えている。
バージョンは忘れた。XPだったかな?
電話再アクチは一定期間内に数回ハード構成が代わった時だけだろ。 1回だけならまずシステム画面からポチるだけだぞ。
148 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 17:11:04.50 ID:bCFNellG0
再アクチしなければならなくなるのも怖いけど、電話も勇気出してするけど、 ESXiホストマシンの交替でCPUの種類が替わった場合に、正常にゲストOSが動作するかが心配だ。 WINDOWS 7の場合って、INTEL系とAMD系とで、インストールされるコードが切り替えられていたらどうしよう。 CPUによって異なるコードを、動的に切り替えているロジックを採用しているならいいんだけど。 ふいに、NECのWIN2Kと、DOS/VのWIN2KとでCDパッケージが違っていたのを思い出した。
149 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 17:13:42.79 ID:bCFNellG0
どっちもdos/Vや386モードまで遡れば互換あるから、そこから動的に命令を切り替えてもおかしくないんじゃない。
OSだけでみたら ゲストが電源OFF状態で移行するならCPUの違いなんてほとんど支障無いし vMotionでもEVC有効にしてれば同じメーカー同士ならほぼ問題ないぞ
ovfテンプレートで移動させた場合はMACアドレスが違うから再アクティベーションになる
153 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 17:57:16.04 ID:bCFNellG0
>>151 >同じメーカー同士ならほぼ問題ない
異なるメーカーのcpuだとやっぱり問題発生するかもしれないですか。
>>152 それも困った!再アクチベートするしかないか。
(windows 2008 serverだと、最悪地ベートすらできないってことないよね。)
<うまい具合に漢字変換できたな。>
154 :
教えて君 :2012/12/13(木) 17:58:49.49 ID:s1MAxcUk0
ESXi5.1+vCSAでweb client経由でメンテしています。 vCSAのIPアドレスを変更したら、同時にSSO ServerのIP変更されないみたい。 SSO ServerのIP変更ってどこでやるのでしょうか? 色々見たんだけど、項目が見当たりません。 web clientでログインしようとしたら、IP変更前のSSO鯖にアクセスしようとしています。
155 :
名無しさん@お腹いっぱい。 :2012/12/13(木) 18:02:01.44 ID:bCFNellG0
>>151 ごめんなさい、よく読めていませんでした。
vMotionの場合だと、cpuのメーカーが異なれば、支障があるかもという話ですね。
電源off状態での移行なら、大丈夫と聞いて安心しました。
すみません。
IntelとAMDのホスト同士でEVCって命令セットが違いすぎるから組めなく無かったか? あとvMotionもオフラインもゲストからすれば見えるCPUが僅かでも変わるのは一緒だから それがトリガーで再アクチになる可能性はどっちも変わらない
そんなあなたにVMware Mirage。
CPUがちょこっと変わったくらいじゃアクティベーションはまず要らないだろ。 あと、EVC使わなくても互換のCPUならvMotion出来るが、失敗したくなけりゃEVC使え、という話。 EVCに関してはKB1003212を検索して見れ。
XPの場合、CPUとメモリ変えただけなら再アクチの対象外だった希ガス この2点は環境変更のもっとも多いパターンだろうからね HDDも破損した場合のバックアップからのリストアを想定していておkだったはず NGなのはマザボとNICじゃなかった? 7もそう大きくは変わってないんじゃない?
>>145 CPUも仮想化したいなら、QEMUやBochsを使えばいい。
どっちかっていうと、エミュレータの部類。
VMwareはじめ最近流行の仮想化は、ホストとゲストのアーキテクチャが一緒なら、
ゲストの実行コードをホストのCPUで直接実行すれば効率的じゃん、というアプローチ。
なので、ゲストにほぼ生身のCPUが見えてることが重要で、それが売りでもある。
マザボで思い出したけど intelCPUの場合、ゲストからみえるチップセットもintelだった希ガス AMDのCPUだったらどうなんだっけな? 後で確認してみるわ
今ここに書き込むのに使ってるのがintelなESXiホストのゲストWin7だが、チップセットは440BXに見えてるな
163 :
教えて君 :2012/12/13(木) 23:53:20.04 ID:s1MAxcUk0
>>154 自己レスですが、解決しました。
まさにコレでした。↓
「vCenter Virtual ApplianceのvSphere web clientでのログイン失敗」
1.vCenter VA Configurationにログイン。
2.[Admin]タブを選択。
3.[Toggle certificate setting]をクリックして、[Certificate regeneration enabled]が[Yes]になるのを確認。
4.Virtual Applianceを再起動。
AMDのCPUでもゲストのチップセットは440BXだったよ デュアルコアCPUのデバイス名はそのまま見えてる 但し、割り当てているcpu数は1なんで 仮想化じゃなかったら色々とあり得茄子な環境
165 :
名無しさん@お腹いっぱい。 :2012/12/14(金) 01:22:45.26 ID:GlLk5eU60
>>160 最近話題の、KVMは、たしかそのQEMUを使っているんですよね。
ということは、VMWAREのとは思想が若干異なっているわけか。
>>161 ゲスト作成時のホストCPUで、仮想マザーの種類が違ってくるってことですか。
>>165 >164だったから、CPU以外の違いはないみたい
intelCPUでの話だけどwin2k8r2で何回かCPU交換してるけどアクチは要求されたことないよ
167 :
名無しさん@お腹いっぱい。 :2012/12/14(金) 02:03:00.01 ID:GlLk5eU60
>>166 ありがとうございます。
とても参考になります。
>>164 物理マシンだったら考えられないCPUとマザーの組み合わせになっているんですね。
ESXI5.1にiphoneのview clientからアクセスする方法を紹介していて 参考になりそうな物ご紹介頂けないでしょうか?
169 :
名無しさん@お腹いっぱい。 :2012/12/14(金) 03:04:16.78 ID:GlLk5eU60
ゲストWINDOWS 7 PRO 64bitの、デバイスマネージャーで見ると、 82443BX PENTIUM II PROCESSOR TO PCI BRIDGE というデバイスが見えました。古そうですね。 CPUは、ホストでつかっている、AMDのPHENOMEが見えています。 おかしな具合ですね。 CPUなんてどうでも良さそうな・・
>>161 CPUがAMDだろうとゲストから見たチップセットは440BX。Pentium II時代の定評があるチップセットだね。
あひゃ、すでにレスあったか。ごめん。
>>168 View Clientって、そのまんまViewのClientだろ? ESXiにアクセスするようなものじゃなかろうもん。
View Clientは試したことないが、citrixのXenApp / Xem Desktopに iPhone / iPadから
アクセスするのは別段どうということもなかったし、多分それと似たようなものだろ。
>>138 CPUだけでは言われないことが多いが、vNICその他構成を変えてると起きる。
試しに大量にコピーしてみたらわかるが、vNICのMAC値によって引っかかるアドレスとそうでないものがあったりとか。
View Clientは、シンクラ用のソフトだね。 Virw Serverに接続詞に行って、その後に仮想デスクトップを使うアプリ。
ESXにつなぐのに使うのは、vsphere client
i7 3770 Q77M vPro 8Gx4 =32GB 512GB SSD x2 RAID1 このぐらいのスペック揃えればESXi5環境で仮想化は捗りますかね? 社員教育用にあまりお金をかけず LinuxやSolarisを触れる環境を作りたく、Solaris11 x86やCentOSあたりのVMを10個ぐらい作ろうと思っていますが...
教育用ならRAID0でもよくね?
高い信頼性は求めないんですが、環境が壊れたときの復旧作業や 部品買出しが厄介なんで保険をかけてRAID1にしておこうかなーと。 転送速度と4KのIOが高い奴(某キムチ製の新型とか)選んでおけばRAID0じゃ無くても 性能的には十分なはず。。。?
何人が何台使って何するかによるわな。 起動するだけなら複数台(OSによる)起動できるけど使い物になるかは別。 社員教育ケチるとかやめとけ
FreeVPS使う
181 :
名無しさん@お腹いっぱい。 :2012/12/15(土) 00:17:25.46 ID:XsaBD/0J0
>>173 最悪地させるかどうか判断する複雑なアルゴリズム体操がありそうだ
>>165 んにゃ、ややこしい所ではあるんだが、KVMのQEMUは周辺デバイス(マザボとかI/O)
の仮想化に使われるだけなので、アプローチ的にはVMwareとかと一緒。
完全スレチなので、これ以上は適当に調べておくれw
点数制じゃなかったっけ?まぁスレチなのでやりたいなら他所でやるべき
184 :
168 :2012/12/15(土) 02:50:51.06 ID:8Vx+atrxP
みなさんありがとうございます。 てっきりESXIに使えるものだと勘違いしてました。
>>176 その構成でRAID1は要らんだろ。一応バックアップはとるんだろ?
そもそもECCすら付いてないマシンじゃないか。データ破損に気づかずに使い続けるような用途にRAID?
SSDよりM/Bか電源が先に死ぬんじゃないのか。
ダウンタイムで損害が大きいならサーバハードで組むべき。
代替機があり直近のデータ損失が許せない場合はRAIDにすればいいが
復旧やなんやらを重視するなら半額構成のマシンを2台組むべき
>>181 vNIC10枚積んでアクティベート→使わないvNIC切断→vm大量コピー→MAC変えたいvNICのみ変更して接続
>>176 教育用なら問題にならないかもしれないけど、VM沢山作ってコア数以上に
CPUを割り当てると重くなるかもね。
単純に書くと、1コアに、二つのVMから1CPUずつ割り当てると、順番にしか
CPUが使えないから倍の処理時間かかる。
普通はCPUなんざ要らないだろ いまどきは大部分のサーバでCPU使用率10%未満とか1%未満とかでCPUが 余りまくってて無駄だ、ってのが仮想化が台頭してきた背景で、基本の基本だろ
どういう使い方するか書かない奴の相手続けても不毛だぞ
vCPU数 < pCPU数が普通だみたいに誤解するなよというだけでしょ 普通≒一般≒世間でよくあるシチュや構成≒中央値 そこから外れた話があれば「それは一般的ではない」と突っ込んでるだけかと 個々の事例はそれを見て当人が判断すればいいこと
まぁ、CPUよりDISKのがボトルネックというのは言うまでもない
ストレージ遅すぎだよなぁ。
インスコ済み RAIDドライバーのバージョンって何処みたら判りますか?
194 :
名無しさん@お腹いっぱい。 :2012/12/16(日) 04:56:24.11 ID:BMhs9LTO0
INTEL の NIC PT VT MT いろいろあるけど、ちがいがわからない。
ググってわかる内容を聞いてる時点でESXi使うとか無理。 ・製品に載ってるチップで性能違う ・チップによってドライバも違う PT Desktop 82572gl Server 82571gl MT 82545gl VT 82575gb これ以上はすれ違い
4.1使用中です。 vCenter Serverを冗長化したのですが、もう1台立ててリンクモードにすればよろしいのでしょうか? 新しく立てる方は最初からリンクモードでインストールすればよいと思うのですが、 現在あるのはスタンドアロンなので、再セットアップが必要なのでしょうか?
>>196 どの程度の可用性が欲しいかによるが、普通は仮想で立ててHA Clusterに入れる
VMwareが「vCenter Serverは仮想で立てるのを推奨」と言ってるのも上記の理由による
vCenter Serverが落ちててもHAは動くし、あんま高可用性は要らないからな
それじゃ足りないケースとしては、相当な大企業でVDIのインフラにしている場合なんかが思いつくが、
そんなんだったらこんなところで質問しなくても直接問い合わせられるだろうし
VSAでvMotionとかHAやりて〜! でもEssentials Plus高杉て買う勇気がない・・・orz
199 :
196 :2012/12/17(月) 10:34:44.58 ID:ms5d1Du+0
>>197 vCenter Server同士でHAということでしょうか?
現在は物理サーバでvCenter Serverがあり
2台のESXを制御してます。
先日物理サーバが動作不良になり仮想OSをどうにも制御できなくなったので
vCenter Serverを複数にしたいと考えました。
>>199 VMware HAの構成が完了していればvCenter Serverが停止しててもクラスタは稼働するって事らしいから
仮想ホストをVMware HAにしてそのクラスタ上でvCenter Serverを動かせば仮想ホストがすべて落ちない限りvCenter Serverは安泰ってことじゃね?
リンクモードってスレーブやセカンダリみたいな感じないんじゃないの?
>>199 >>200 の通り。
どうしても物理で高可用性をやるというならvCenter Server Heartbeatという製品があるが、値段が張る。
MSFC(MSCS)はvSphere 4.1以降ではサポートされない。
あとは、物理でコールドスタンバイ機を用意しておいて、障害時には手動で切り替える手だが…
仮想でHAにするのがやっぱ順当じゃないかい?
>>200 vCenterは死すともHAは死なずって初めて聞いたときちょっとびっくりした。
HAって、ある特定の監視鯖で、ホストまたはゲストの死活監視して、
vCenterから切り替え命令出すものかと思ってた。
アレだアレ、HPだとVCEM、IBMだとBOFMみたいな奴。
204 :
名無しさん@お腹いっぱい。 :2012/12/18(火) 01:28:01.16 ID:aorI5aJq0
物理マシンが壊れないことを祈って、単体運用
vCenter自体はたまに落ちてもたいして問題ないんだよな
206 :
名無しさん@お腹いっぱい。 :2012/12/18(火) 08:06:33.69 ID:aorI5aJq0
ESXiが落ちたらその上の仮想マシンも落ちる vCenterか落ちてもESXiが落ちるわけじゃない
単にvCenter落ちても管理できるようにしたいってだけなら、 ロックダウンモードをオフにして、 管理者のマシンにvSphere Client入れておけば良いような。
ホスト単体でゲストの操作をすることってできない? ホストにつないだ画面にゲストの画面を出し、ホストにつないだキーボードやらマウスやらでゲストを操作する感じ。 グラボと USB のパススルーでできたりすするのかもしれないけど、オンボードグラフィックスしか無い環境でなんとかなるかな。
>>209 過去スレでやってた気がする
最終的には可能だが手間考えるとメリット無いって結論だったかな?
グラボはUSB出力で可能だか不可能だかだったと思うが・・・
うろ覚えですまん
>>210 こないだ買ったRock Vision 3Dで、
USBコントローラをパススルーした
WindowsXPのゲストをミラー表示できてるよ。
800x480だからまともに使うには厳しいけどw
USB-VGAアダプタを使えれば普通に使えるかもね。
ちなみにWindows7で同じことやろうとしたら、
Rock Vision 3Dで全く映らない上に
vSphere Clientでのコンソール表示も
真っ暗になって使えそうになかった。
キーボード・マウスがUSBであってもパススルーできないんじゃなかったっけ?
ESXi5.1では、VMware Data Recoveryがサポート落ちなので、良いの探しています。 vmProtect 7 or 8のクラって落ちていないねぇ... 7はあるけど、露版でダメだったorz
214 :
名無しさん@お腹いっぱい。 :2012/12/19(水) 00:18:17.29 ID:/Sw2oetG0
>>213 vSphere Data Protectionじゃだめなの? 馬鹿?
クラック版なんかダウンロードして、告白してんじゃねーよ。
>vSphere Data Protectionじゃだめなの? スペックが4CPUに8GBだぜぇ〜
ESXi5リモート管理はどうやってる? ┣¨┣¨┣¨┣¨┣¨┣¨┣¨┣¨ 1、自宅(Xp+vSphere Client)から会社(ESXi5 vCenter Server)へログイン 2、自宅(Xp+vSphere Web Client)から会社(ESXi5 vCenter Server)へログイン 3、自宅(Xpリモート・アシスタンス)から会社(ESXi5上の仮想マシンXp)へ接続 4、自宅(Xp+遠隔操作用ソフトVNC or TeamViewer等)から会社(ESXi5上の仮想マシンXP)へ接続 速度的には、4がサクサク動作しそう。 会社と自宅を結ぶのに、どの構成がいいのかな?
>>216 遠隔管理なら
VPN繋いで目の前のクライアントから直接アクセス
番号で言えば1・2かな
3・4は別途会社にクライアント必要だろう?
vCenter Serverをクライアント代わりにする事は可能だろうけど
218 :
教えて君 :2012/12/20(木) 12:57:05.78 ID:r8ZI3FTs0
>>217 >VPN繋いで
vSphereクライアントやvSphere Webクライアントて、暗号化してデータ通信してるの?
圧縮はどうよ?
219 :
教えて君 :2012/12/20(木) 13:01:55.63 ID:r8ZI3FTs0
ごめん vSphere Webクライアントは、httpsだったわ
え〜 Web Client 使用するには Single Sign On が必要なの? せっかく vCenter がアプライアンスになったと思ったのに、 結局買わないかんサーバー機器が減らんやんけ。 ずっと小規模なところでも使われるんだってことを、 もっと考えてほしいわ。
221 :
教えて君 :2012/12/20(木) 16:45:22.36 ID:r8ZI3FTs0
まとめるよ〜 Web Client 使用するには、 Single Sign On vCenter Inventory Service vCenter Server または vCenter Serverアプライアンス が同一マシンにインストールが必要
222 :
教えて君 :2012/12/20(木) 18:21:40.66 ID:r8ZI3FTs0
あっ1つ抜けていた vSphere Web Client(server)を上記に追加してね
>>221-222 まとめありがとう。
助かります。
なんか、もうちょっとシンプルに出来んもんかね
こりゃ完全に Hyper-V に喰われるよ。
Hyper-Vをまともにリモート管理するにはそれなりにMS漬けにならんといかんがな。
>>223 一度まともにHyper-Vを管理してから言え。
SCVMMサーバと、SCOMサーバと、SCCMサーバを立てて、
当然ぜんぶ別々のクライアントをそれぞれ使って管理するんだぞ。
SCCMは、ほぼ被らないだろ。シンクラ使うとき以外。
SCVMMしか使ってないわ
SCVMMは機能がショボショボな割に、無駄に操作が煩雑だからなー。 vSphereしか使ってないと苛立つこともあるDatastoreがいかに秀逸か、教えてくれるw
2012のHyper-Vもそこら変は変わらないかな?
それぞれ、パッチでましたぜ! ┣¨┣¨┣¨┣¨┣¨┣¨┣¨┣¨ ESXi5.0 update-from-esxi5.0-5.0_update02 ESXi5.1 ESXi510-201212001 VMware vCenter Server関連もアップしてるな...急げ〜
>>230 リリースノート三行でまとめてくれさいです。
>>230 >>231 My VMwareログインが必要なVMware vSphere 評価センターのサイトからは、まだ更新されていないわ
もう2、3日かな?
VMware vCenter Server Appliance Ver5.1 デフォルトがCPU 2個 / MEM 8GBのハイスペックなんだけど、 メモリー4GBに落としたら、危ない?
なんか、VMが新しいバックアップソリューションだすよとかみたけど、 いまだに続報がないねぇ。。
出すなら安価なのを期待したいな iscsiだと面倒なんだが、NFSだと 1.vmのsnapshotつくる 2.nfsストレージのスナップショットつくる 3.vm構成ファイルコピー 4.snapshot類削除 でいいので簡単に自作自動化できちゃうんだよね。(2に関しては無くても可能)
236 :
名無しさん@お腹いっぱい。 :2012/12/24(月) 22:15:25.26 ID:8ZbGaq8S0
ESXi 5.1のゲストからUSB3.0は使えている方はいますか? 外付けのUSB3.0接続のHDDをゲストで使いたいんですが、 色々調べてもUSBメモリブートと情報がごっちゃになってていまいちはっきりしません。 使えている方居ますか?
237 :
236 :2012/12/24(月) 22:17:55.55 ID:8ZbGaq8S0
ちなみにもちろんUSB3.0の速度でアクセスがしたいんです。 可能であれば5.1にアップデートをしてみようと思っています。
>>234 動作させながらバックアップ取る仕組みを出して欲しいね
スクリプト組めばそれなりに動くの分ってるけど
設定ファイル(ホストの設定)の解析とか色々しないと行けないし
一度作れば良いけど、バージョンアップなどの時に
ファイル仕様が変わって無いか確認するのちょっと面倒
それに・・・他人に管理してとも言えない orz
それと・・・早くタイムゾーン実装してくれ 時間が時間が・・・合わない
ところでマザボに直付いてる、e-SATAで外付けで使ってる人いる?
基本内部SATAと同じだから行くとは思うがどうなんだろう?
内部SATAをe-SATA変換使ってで利用してるのは見るんだけど
>>236 確か昔のスレで
USB3.0のPCIをパススルーして内部に割り当て
ゲストでUSB3.0で使ってると言うの無かったかな?
それではダメ?
しかし、何でホストの外部接続でUSB切り離したんだか
アクセス速度やドライバの問題かね?
USB3.0ならe-sataと良い勝負するのに
>>239 USBメディアからブートさせてる時、うっかりその USBコントローラをパススルー設定しちゃって再インストールするハメになったよ。
ESXi は起動時に必要ファイルを全部読み込んじゃうみたいで動作に問題は無かったんだけど、構成情報なんかの設定を書き込めなくなるんだよね。
あとはUSB接続キーボードが使えなくなるとか、そういうくだらない問い合わせが頻発してイヤになったとかね。
>>238 freeならghettoVCB.sh 有償ならacronis vmProtect 8やStarWind VMware Backup
ghettoVCB.shの設定ってvidと保存先だけで運用開始出来ると思うのだが、純正品が良いって事?
バックアップを差分でやりたいのよねえ と何度も書いてごめんなさい
>>242 zfsなんかのデータストアの機能でやってもいいしvmwareのsnapshotでやってもいいし
まぁちょっとは工夫しろよ
CBT解析して自作したいとかなら応援するが無料でワンクリックでできるソフトがほしいんですレベルならしらん
>>239 情報サンクスです。
ゲストからUSB3.0は無理なんですかね。
はっきりと使ってるって報告例もないみたいですし。
1000円ぐらいのUSB3.0のボード買ってパススルー試してみるかな。
ESXi5.0でだめなら5.1でやってみます。
5.1のほうがダメかも
>>230 ESXi510-201212001アップデータしたので、vCSも一緒にアップしようとしたら、
2012-12-20リリース日の「VMware vCenter Server 5.1.0b」が、権限ありませんでダウンロード出来ない...
my.vmware.com/jp/web/vmware/details?downloadGroup=VCL-VSP510-VC-510B-EN&productId=285&rPId=3379
みんなどうしてる?
VMware-VIMSetup-all-5.1.0-947939.isoならログインして普通に落とせたが
>>248 評価用IDでログインしてもダメです。
2012-10-25の5.1.0a のページに飛ばされる。
正規購入者IDでないとダメなの?
今までずーっと評価用でアップデート出来ていたのに??
>>249 vCenter使うほど無いから特に気にした事無いね
vCenter自体有償だしね
vCenter製品を持ってるならそのアカウント登録して入ったら?
ずっと無償で使ってると言う訳でもあるまい?
それに少し上にあるが評価版の更新はまだ来て無いと言ってるし
ESXi5.1インストールしようとしたら紫(?)みたいな色が出てインストール出来なかった orz
色々調べたらBIOSのメモリ設定変えないといけない事が分った
(ついでにメモリ一枚死んでる事も気が付いた orz)
WEBって便利だね 昔だったら間違いなく途方にくれてた
(て 昔って何十年前の話しかと)
さて 玩具で遊ぶかな
5.1インストールしたがインストール時から遊ばれてる orz 最初インストールできずに(ハードウェア要項エラー)調べ BIOSのメモリ設定変更(この際関係ないがメモリ1枚壊れてるの判明) ストレージ追加でなぜか内部エラー発生で追加できず(言語を英語で起動で回避) データ移すと起動しない、ゲスト仮想環境設定要項がおかしいとなり 処理中断してキャンセルも出来ず再起動(FDの設定がおかしかったらしいので削除) 新しい物に移す時はきちんと事前の検証と対応・予定が必要だね orz 遅いがコンバーターでシコシコ移行中・・・眠いし寒い(エアコンが変) ちなみにショップブランドのRAID5対応HDDケース(外付けe-sata)DP-9153 使ったが RAID5を普通に認識してくれた(当然と言えば当然か) 今までマザーのRAID使おうとして上手く行かなかったんだよね ただ、無償版だからかパーティション1個しか作れないから 全てを割り当てる事になったが これでやっとディスク故障時の心配が少し減った どれくらいの性能出るか調べたいがまだゲストどれも作業終らない orz
>>251 頑張るのはいいことだよ、精進しなはれ。
ただできることならWin以外のOSを仮想じゃない環境で勉強してからESXiに進んだらいいよ。
>>251 追記
ゲストOS上でCrystalDiskMark走らせたら
5回1000MB(読み込み,書き込み)
シーケンス:114MB/s,103MB/s
512K:31MB/s,20MB/s
一応vSphere Clientのディスクパフォーマンスで見てもほぼ同じだった
他のサイトとのHDD結果見ても似てるし
HDDの限界速度なのかね?
やはりゲストOSが増え同時アクセスが増えれば速度下がるんだろうな
暴れ馬で楽しいぜという話なら楽しく読める。 安定して動いてほしいのにうまくいかない!という話ならちょっとなんでそんなハード使おうとしてるのか理解できない
ベンチ取るならIometer使おうぜ
椅子取りゲームッ
257 :
名無しさん@お腹いっぱい。 :2012/12/29(土) 11:00:09.58 ID:Jo/dRg3f0
5.0 でパススルーデバイスを使ってるんだけど、そういう VM ではデバイスのホットアドができないんだね。 USB3.0コントローラをパススルーで、USB2.0 はホスト経由で使おうと思ってたんだけど、 VM稼動中に USB2.0 デバイスを接続しようとしたら拒否されたよ。 パフォーマンスがほしいデバイスは USB3.0側に繋いで、そうでもないデバイスはホスト経由の USB2.0 で抜き差ししようと思ってたのに それができなくて当てが外れた感じ。 ホスト経由の USB がもうちょっとパフォーマンス良ければいいんだけどね。 パラバーチャル USBコントローラとか作ってくれないかしら。
インプレスから出た、「VMware vSphere 構築・運用レシピ」ってどんなもんかね。 5.1まで対応してるみたいだけど。
価格コムのMicrosoft-IIS/6.0鯖ダウンしてるねw
>>258 Amazonの内容紹介ではさっぱり分からんな。実物を見てみないことには
261 :
名無しさん@お腹いっぱい。 :2012/12/29(土) 20:32:33.20 ID:Jo/dRg3f0
ESXi 5.0 を使用中、vSphere Client を入れた PC にリモートデスクトップで接続して使ってみたんだけど、 ゲストXP に VMWare Tools を入れるとマウスがおかしな動作になって全く使えないね。 これはなんともならないのかな? ゲストに直接リモートデスクトップ接続すりゃいいんだけど、ネットワーク構成によってはそうできないこともあるし。
>>261 仮想サーバ個別に接続するより、vSphere に繋げることを許す方がよほど問題な気がするが。
263 :
261 :2012/12/29(土) 21:24:17.21 ID:Jo/dRg3f0
>>262 セキュリティ的な制約ではなく、実験ネットワーク構成の都合というか。
まあ vSphere Client を必要なマシン全部に入れりゃいいじゃんって話でもあるんだけどさ。
>>261 XPからWin7にしたら直ったりとか、割と細かいところで発生してる
幸いWin用のRDP相当ソフトはフリーでいくつもあるので、発症しないリモートソフトに変えることでたぶん解決できる
>>258 店頭でパラパラ眺めてみた。
以前ちらっと話題が出ていたNested ESXiでFTを設定する話が出ている。
あとは全般的に濃ゆい話は少ない。
パートナー限定ドキュメントにアクセスできる人だと要らないんじゃないかな。
研修とか受けたことがない人だと、知らない話が出てるかもしれん。
266 :
名無しさん@お腹いっぱい。 :2013/01/06(日) 00:33:57.25 ID:zF5zTgPG0
USBハブをパススルーできないかな? そうすりゃ USBデバイスの抜き差しが簡単にできていいんだけど。
つUSB デバイスサーバー
268 :
名無しさん@お腹いっぱい。 :2013/01/07(月) 11:57:35.74 ID:fG3Bu/JO0
USBカードをさしてパススルー 昔のスレでできたと報告あったと思う
269 :
266 :2013/01/07(月) 14:59:51.29 ID:YxVRZ+IK0
>>268 5.0 でそれはやってる。
でももうちょっとお手軽にできたらな、って感じ。
つか、5.1 だとそれもできなくなってるよね。なんでだろ。
>>267 そういう方法もあるとは思うけど、かえって面倒な気がする。
ESXi ホストがデバイスサーバを USBコントローラとして認識してくれればまた違いそうだけど。
270 :
名無しさん@お腹いっぱい。 :2013/01/08(火) 00:25:56.93 ID:hPlNgQPb0
ググっても情報が出てこないので、こちらにいらっしゃる詳しい方教えてください。 vCenter Server(vShere5)についての質問です。 vSphere HAの検証をしようと思っていますが条件としてvCenerServerからホスト(ESXi5.1)の名前解決ができることとあります。 名前解決ができたかどうかというのはどうやって知ることが出ますか? windowsのコマンドプロンプトのような画面でコマンドを実行して確認とかできるのでしょうか? また正引きだけで良いのでしょうか?
>>270 名前解決できたかどうかは、実際に名前解決してみればわかる。
どんな探し方してるのか知らんけど、「windows 名前解決 コマンド」でググりなさい。
今までUSBメモリからBootしてたんだけど、SSDあまってたからBootにしてみたが体感でEsxiの操作性が大分かわるのね
>>270 SSH接続で直接サーバーに入っては?
pingも出来るし名前解決されてるかの確認は出来るかと
ちなみに、hostsも定置に有るので利用する事も可能でしょう
コマンドラインツール入れればそっちから方法が有るかも知れないがやった事無い
>>272 ホスト起動やESXiクライアントの操作性は幾分上がるだろうな
個人的には実用的にUSBでも問題にならないけど
SSD有ったらキャッシュ用に全部割当てたい
iSCSIで使ってるからキャッシュ使い始めたら使い物にならん
ゲストの動きも大幅に変わるなら考えるんだが
と 言っても最近はメモリ積んでて
普通に使う分にはキャッシュなど使わないけど
vmdk以外はSSDに置いてる。
vMAってESXiホスト2台あったら、それぞれで立てなきゃだめですか?
みんなに聞きたい。ESXi5.1をどういれようか考えてるんだけど、 ESXi5.0とESXi5.1の混在環境を使う上での制限事項って、何かあります? クライアントは、各バージョンそれぞれ別途用意 しなければならないとか、いろいろありそうだから、 ここの経験者たちに聞きたい。 お願いします。
>>276 余りアドバイスにはならないが
現在共存してるがクライアントはESXi5.1で両方にアクセス可能
(クライアント5.0で5.1にアクセスするとアップデートするか聞かれる)
一部文字入力が上手く行かない場合がある
(私の場合ストレージ追加でストレージ名が指定したのが使えなかったがUSモード起動で回避)
5.1で良く分らないホストダウン(OSハング)が発生
(ちょっと無理やり動かしてたゲストイメージが問題だと思う)
普通にゲストOS入れて使う分には良いけど
パススルーなど利用する予定なら使えるか確認した方が良いと思う
>>273 「vCenerServerからホスト(ESXi5.1)の名前解決ができること」だから
>>271 の通り。
279 :
名無しさん@お腹いっぱい。 :2013/01/08(火) 21:06:02.24 ID:/Ch3E0QN0
環境はx64 Windows7 + i7 3770T + GA-H77N-WIFI + Mem16GB 5.1のsimple Installでインストしても vCenter Single Sign Onはこのプラットフォームではサポートされていません云々のエラーで インスト出来ない。 個別にSingle Sign Onからインストしても同様のエラー。 Clientの環境は、Core2&3GB以上は兎も角 Penrynとかある程度枯れた環境の方が良いのだろうか?
280 :
名無しさん@お腹いっぱい。 :2013/01/08(火) 21:57:56.88 ID:hPlNgQPb0
vshpere5 HAについての質問です。 DRSグループで仮想マシンDRSグループやホストDRSグループを作成しようと していますが、[追加]ボタンを押してもメンバとしてなにも出てきません。 vSphereDRSは有効で2つのESXiの間でvMotionもできます。 何か他に設定が必要なのでしょうか?
5はあんまり触ってないが、4の頃ならクラスタ作って そこにホストをドラッグ&ドロップするだけの簡単な仕事だったが
>>278 vCenerServerの機能かあれは
ごめんなさい ホストの機能と思ってた
ESXiってWindows標準の名前解決機能って持ってるのか?
持ってるなら特に問題無く名前解決行けると思うが
無いならDNS立てるかhostsに書かないと行けないと思うけどどうなんだろう?
>>281 4のほうは結構情報が公開されているのですが、5はそれがないので困っています。
本を見てもそこまで書いていないし・・自己学習でやっていくにはかなり大変です。
基本は変わらなくね?
設計が変わって内部の挙動は変わったはずだが、操作はあんま変わってなさそうだなあ Mastering VMware vSphere 5を見ても All hosts in a vSphere HA-enabled cluster must have access to the same shared storage(後略) All hosts in a vSphere HA cluster should have an identical virtual networking configuration (後略) という2条件しか書いてないし、そこは4と変わらんな
>>282 つ kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1033033
なぜか 5.1ホストが良く落ちると思ってたら 特定のゲストOSシャットダウンしたら落ちてた orz 他バージョンから持って来て動いたから良いと思ってらこれだよ 他バージョンから移行する時は時間掛かるがコンバーター使う方が安全なのかね?
>>597 Workstationでバージョンだけ変換してESXiにドラッグでいいんじゃね?
しゅごい遠投だな。 というか、HW バージョンとかいろいろ変わってるんだろうし、そのまま使うのは予期しない動作とかあっても仕方が無い気もする。
ESXi上で仮想H/Wのバージョン上げれば?
ESXi5.1に付いて来る Windows版64bitのVMware Tools インストールの種類が 標準・完了・カスタムになってるな 昔からこうだったけ? 標準・完全・カスタムだった気がするけど
292 :
名無しさん@お腹いっぱい。 :2013/01/11(金) 09:46:12.96 ID:ttB5veSK0
>>289 予期しないったって、ホストが落ちるってのはどうかと思うけどな
ゲストがどうなろうとホストには生きていてもらわないと
自分も5.1でホストが落ちる現象に悩んでいるんだよな。パープルスクリーンにもならずに ハングアップでキーボードも効かなくなる。なんでだろ。
294 :
292 :2013/01/11(金) 11:23:25.69 ID:ttB5veSK0
そういや 5.1 で i7 の内蔵GPU をパススルーしたらホストが落ちたな。 画面が写らないだけって話じゃなく。 それ以外にもなんとなく不安定さを感じて、今は 5.0 使ってる。 こっちは USBコントローラのパススルーも出来るしね。
内蔵GPUのパススルーなんて出来るんだ ゲストからQSV使えるの?
>>295 パススルーの設定はできるけどまともに動作しないよ(それどころかホストごと落ちた)
vmwareはどちらかというとパススルー周りは苦手らしい。 そっちを使いたいなら、別の仮想化ツールを試した方がいいかも
内蔵GPUのパススルーはダメらしい ビデオカード2つつければ片方スルーできるとか
299 :
☆☆☆☆☆ :2013/01/11(金) 18:42:32.46 ID:nGTpTfxc0
VMware vCenter Server Appliance ギガ単位の大きなパッチファイル半日かけて落としたんだけど、 5.1.0a → 5.1.0b どうやってアップデートするの? Webブラウザーで HTTPS://(vCenter ServerのIP):5480/ にログインして update画面からアップデートしたけど、これでいいのかな? 数秒で完了したよ??不安 DLした巨大なパッチファイルは、ゴミ?
300 :
名無しさん@お腹いっぱい。 :2013/01/12(土) 13:47:31.50 ID:VDdQNGAg0
ゲストOSにFreeNASをインストールして使っている人いますか? 物理PC上で書き込み100MB/Sぐらいのシステム(HDDx3,SSDx1)を仮想環境に持ってくると 書き込みが1/10の10MB/Sぐらいに激減しました。 HDDはRDMマッピングで直接FreeNASからアクセスしています。 どうも仮想SCSIアダプターのLSI Logicパラレルの性能が全然出ていません。 これが限界な気がするのですが、ちゃんと性能出ている人いますか? Xeon 1230v2, メモリ16GB, Sil3132でeSATA(ポートマルチプライヤ)でHDDx4+SSDx1を接続
ESXi5.0にFreeNAS入れてるけど、10MB/Sってことはないなw i7-3770s+メモリ16GBに core4個+メモリ4GB割り当てて WD20EFRX 2TB×2(Datastoreからゼロプロビジョニングで1TB切り出し) MQ01ABD100 1TB×2(Datastoreからゼロプロビジョニングで1TB切り出し) でRDMなしの構成でも50MB/S位は出てた気がする。 もう忘れた。 同じESXiには、Win7(別のDATASTOREから利用:SSDをRDM)が入っていてItunesサーバしてるくらいだけど そのWin7からCIFSで計測だったかな?
302 :
300 :2013/01/12(土) 15:28:01.98 ID:VDdQNGAg0
>>301 を参考にRDMマッピングではなくデータストアから仮想ディスクを作って割り当ててみたら
書き込み5MB/Sに落ち込んだ。あかん
ゲストOSがWindows7の時は単体HDDで100MB/Sとか出たからFreeNASの問題で間違えないのだが・・・
FreeBSDのSCSIドライバーとSil3132あたりの問題のはずなだが正直お手上げ
ちなみに直接Sil3132カードをパススルーするとFreeNASがクラッシュする
いろいろあかん
Sil3132だからじゃね? おれは、I/FCard使わないでCPUのSATAに6本つないでる。 eSATAのマルチポートやめて、CPUのSATAにつないでみたら? ほら、Sil3132はそのごにょごにょ・・・ ごめん、なんでもない
304 :
300 :2013/01/12(土) 16:35:55.98 ID:VDdQNGAg0
スリム鯖だからHDD2つしか積めない(1つはESXiが使うし) 外付けHDDx4ケースをeSATAかUSB3.0でつなぐ計画で USB3.0は5.1のバグでパススルーできないからeSATAと思ったけど こっちはこっちでトラブってる。うまくいかんね ってかESXiはUSB3.0のサポートはよ・・・
>HDDはRDMマッピングで直接FreeNASからアクセスしています。 だったら、仮想SCSI-HBAは関係ないんじゃね?
素朴な疑問なんだが、 物理PCの時は、FreeNAS側のSil3132ドライバでHDDを制御してるんだよね? で、ESXiのゲスト時は、ESXi側のSil3132ドライバでHDD認識後に ポートマルチプライヤーで各HDDを個別にパススルー(RDM)してる状態で FreeNASに認識させてるわけだよね? つまり、FreeNAS側ではSil3132は利用せずに仮想CPUがhddを制御している状態 でパフォーマンスがでないんなら、Sil3132はPCIeカードだと思うからSil3132カード 自体をパススルーして、FreeNAS側でSil3132ドライバを読み込ませて認識させれば いんじゃないの? RDMでESXiを経由している意味がよくわからないんだけど
>>300 マルチすんな。
>>306 Sil3132 はマルチプライアの基板だぜぃ。
てかさ、別スレで言われてるマルチプライアの基板外せよ。
スリムPCかなんだか知らねーけど環境依存の問題かまってられるか。撒き散らすな。
>>306 Sil3726 と間違えたーy
Sil3132 はSATAのコントローラーですた。
309 :
300 :2013/01/12(土) 20:00:50.56 ID:VDdQNGAg0
>>306 それは最初にやってみた
Sil3132をパススルーしてHDDは4台とも見えるが
RaidZボリュームを作ろうとするとESXi丸ごとクラッシュする
ESXiを介さないと問題なく動作するので、ESXi+FreeNASでなにか問題があるのだろう
どうもFreeBSDのSil3132ドライバーはイマイチ。
問題はカードを買い直すかあるいはFreeNASを捨ててLinuxベースのNASを試すか・・・
もしくは10MB/Sで我慢するか(極端に悪い数字でもない・・・)
えーっと推奨されないハード構成で如何にしてesx動かすかみたいな話だよな? やってることは構わないんだが、そういうエクストリームインストールを嗜むスレはそろそろ分けないか。 Windowsをスマホに入れて動かしてみたら運良く動いたけどすごく遅いがどうしよう、ってWindowsServerスレに書くようなもん
自作板に作りゃいいんかな。 カオス化しそうだけど。
312 :
名無しさん@お腹いっぱい。 :2013/01/12(土) 23:09:47.82 ID:nWlQ+5GQ0
>>310 >えーっと
からはじめるのはやめてくれ
以前そういうやつとマジ喧嘩になってトラウマになっている
そういう個人的な事を人に指示する 君の性格に問題がある気がしてならない
>>301 Core-i5 2500Tに16GBのESXi機にMQ01ABD100積んでこれをファイル置き場で
使ってるけど、Read 40MB/sのWrite 20MB/s位(Windows7とSMB)
録画データと、ノートとメインの共有場所として使えればいいやって程度で
作ってみたけどこれで十分だった
ESXiって物理NICを単純に重ねて回線増強出来なかったのか… 折角デュアルポートNICを買ったというのにorz ESXi5.0U1から5.1に更新して、更に先日出たパッチを当てたら、 素の5.1では紫画面だった内蔵SATAのパススルーが正常に動いた。
>>315 1セッションのスピードはあがらんが多セッションは口多い分処理は上がるでしょ
>>316 その通りなんだけどさ、1セッションのスピードを上げたかったもので。
(調べてみると散々既出の事柄なのね。)
負荷分散されるのは確認出来たので、勉強にはなったよ。
仮想マシン側でも仮想NIC複数差してbondingすりゃいいのでわ?
>>315 物理ポート数増強して1セッションの帯域増強できるのってLinuxとiscsiの一部くらい?
大概は多セッション時に確率的に負荷分散されますよ程度のが多い
Esxはもうちょっとがんばってもいいと思うが。4本使って400MB/sくらい出てくれりゃなぁ
どうしてもって場合は
>>319 だがCPU食われるしレイテンシ悪くなるし複雑化して障害発生率あがる
vmではなくEsxカーネルの通信帯域なら無理
>>312 >>318 どんだけフルぼっこにされたんだよw
321 :
名無しさん@お腹いっぱい。 :2013/01/15(火) 06:31:56.49 ID:tWlm/nPV0
ワザとらしく「えーっと」から話を始めるやつにろくなヤツはいない それは「えーっと」って言ってオトボケを偽装しながら、 たいていその後で相手をギャフンと言わせることを狙って何か鋭いことを言おうとするからだ。 ずっと最後までオトボケキャラだったためしがない。 オトボケを前置することで相対的に後に言うことの鋭さを増している。 こうして自分を高めようと狙っている。 こういうタイプは相対的に自分が高まることを狙っているので、相手を破壊する傾向にあるからだ。 また、「えーっと」と言うことで、相手との関係を上下関係に収めようとしている。 いかにも、あなたのためにエスパーしなきゃならなくなって巻き込まれていますよ感をかもし出している。 そのうえで、鋭いことを言って、自分を上位におこうとしている。 エンジニアとして自戒すべき言葉
オッサン顔が真っ赤だぜ
またゲストOSのWindows 8 Enterprise操作したらホストハングアップしやがった。vSPhere 5.1。
>>312 えーっとからはじめるのはやめてくれって言うのやめてくれ
以前そういうやつとマジ喧嘩になってトラウマになっている
. ∧_∧ ===,=(´・ω・`) ||___|_゚し-J゚||_ ∧_∧/ //.___|^∧_∧ (´・ω・`) /|| |口|(´・ω・`) ./(^(^//|| || |口|⊂ _) ∧_∧ /./ || || |口| || ∧_∧ ∧_∧ (´・ω・`)/ ...|| || |口| || (´・ω・`) (´・ω・`) /(^(^/ / .|| || |口| || ゚し-J゚ "" ゚し-J゚:::'' |/ |/ '' " :: ":::::⌒ :: ⌒⌒⌒ :: "" ` :: ,, ::::: ,, " ̄ ̄ "、 :::: " ,, , ::: " :: " :::: ぼくたちは、なかよくつかってるよ
>>323 うちもvSphere 5.1でWindows 8 Enterpriseだが、全く問題ないな。
インストールしてから三ヶ月ほど毎日使ってるけどなんもない
>>321 えーっと、あー。あれなひと?いや何でもない、気にする必要ないない。
>>326 毎日vSphereから使ってるの?
RD使わずに。
「えーと・・・」は間を置くためのものであって、 「えーと・・・」=おとぼけキャラではないな 前半の「おとぼけキャラ」と後半が矛盾していることに気づかないから えーと・・・(苦笑)って言われるんだろw
今年は蛇だろう? 干支 ゲストOSを4台ぐらい動かすと 極端にディスクアクセスが落ちるのは仕方ないのかな? 待ちが2000msとか行くんだが メモリやCPUは余力あるし、ディスクが原因で遅くなってると思うのだが SATAのコントローラーの問題なのか、外付けのディスクの問題なのか分らな〜い 動けば良いやぐらいで買うと大変だね 専用機器で組まれているのはこの辺も早いんだろうな
仮想化でいちばん問題になるのがディスク性能だからなあ ハードウェア・ソフトウェアの全費用のうちでストレージが6割を占める、などと言われていた 今はストレージが安くなってるからもっと低いかもしれんが HDDをSSDにしてしまうのも手だな
iSCSIのNAS上にOSイメージ置いてあるんだけど、 SSDキャッシュ使うようにしたらレスポンスとかかわる? メモリのスワップ時にだけ使われて、ディスクキャッシュみたいな使い方はされない?
>>321 はきっと江藤姓の真性
SATAのIOPSは徹底して低いのでアクセス集中したらそのくらいは行く気がするが断言はできない。
素のRAIDによる負荷分散でもあまりオーダが変わることはなく、BBWCのカードでかなり改善される。
SAS使えば基本となるレイテンシの悪化が緩やか。容量許せるならSSDでいろいろ解決
よくあるサーバならBBWC+SASなので割と耐えるがそれでも仮想化環境の最大のボトルネック。
高速ストレージ買えという話になって急激にコストアップ
>>332 esxのSSDキャッシュは関係ない。NASにSSDキャッシュつけるならそれなりに高速化。
>>334 thx
esxマシンに余ったSSDをキャッシュ用に付けようと思ったけどやめとく。
>>332 改善の方向性が間違ってる。
その方法はESXiとは何も関係ない。はっきり言ってスレチ板チ。
えーとね
>>330 もゲストのメモリ全部予約したか?ゲストが使ってるI/O量見たか?H/Wの問題にするのはそういったことを調査・対処した後だ。
5.0からの機能のホストキャッシュの事言ってるのかな? スワップ起きる状態ならローカルにあるSSDつかうほうが速いと思う
スワップさせてしまった時点で根本的に負けだろ HDDをSSDに変えたところで、致命的大敗北を(致命的がつかない)大敗北に変えられる程度だ
>>336 メモリは全予約でHDDにアクセスいかないようにしている
あと、おまじないの言葉も(メモリの断片とかしないやつ、ESXiで効果あるか知らないけど)
ゲストが使ってるIOはそんなに多くは無いんだが、なぜか待ちが極端に増えてる
近いうちにもう一台似た構成組めるチャンスあるから、他のOS入れて調べるか
>>332 メモリスワップってゲストOSのスワップなのかホストのスワップなのか?
個人的な見解だが、スワップするぐらいならメモリをホストに積んだ方が良い
ゲストならゲストのメモリ上げる
最近はメモリ安いしね
過去スワップが原因でホスト再起動した事あるし(かなり昔のVMだけど)
今更使っている人も少なそうな Dell PowerEdge T105 ですが、 VMware ESXi 5.1 をUSBメモリにインストールして動きました。 Compatibility Guide にはなくて、ググったけど 5.1 動きました という報告は見当たらないようだったので、一応報告です。 NIC も含め問題なくハードウェアを認識出来ています。 ストレージは Netgear ReadyNAS Ultra6 の iSCSI を使いましたが、 内蔵している SATA もストレージデバイスとして見えてました。 CPU は Phenom II X4 965BE に交換してありますけど、元の Opteron でも動くのだろうと思います。 内蔵しているSATA HDD で Linux 版の VMware Server 2.0 を 動かしていたために VMのファイルが SATA HDD に入ったまま なのですけど、ESXi からSATA HDD 上の ext3 をマウントとか できないから、NASに移して VMware Converter でコンバートする しかなさそうですね。 あとで iSCSI 用に NIC を追加しないといけないかな。 趣味で各種 Linux ディストリビューションや Solaris などを動かしている サーバなのでそんなに速い必要はないですけれど。
>>320 複数口のNIC+専用ドライバ使えばWindowsでも出来る
>>300 hpのMicroServer(メモリ8GB)でEsxi5.1にFreeNAS7(メモリ2GB割り当て)入れてるよ
書込みは5MB/sぐらいかなw
(読込みは30MB/sぐらいだったと思う)
FreeNAS8でも同じくらいの遅さ
HDDは4kセクタのWDの2TBと3TB
300GBのHDD使ってたときは読み書き共30MB/sぐらいだったはず・・・
ゲストOSをWHS2011にすると50MB/sぐらいでるから、今はこっちを使ってる
>>342 まぁ、こいつ毎度重要なこと書かないからレスするだけもったいないz
後出しで「80GBなのでAFT関係ない。長文御苦労。」ってくるから。
344 :
名無しさん@お腹いっぱい。 :2013/01/17(木) 02:59:41.34 ID:w9EMajSu0
シンプロビジョニングってパフォーマンス的にどう思う? 原理的にイメージファイルそのものの断片化とかイメージ内のセクタの物理的配置の非リニア化は避けられず、 使い込んでいくとシークの発生がかなり頻繁になるように思うんだけど、VMWare はシンプロビジョニングによる 性能低下はわずかだって見解なんだよね。 ディスクのシークってかなりのパフォーマンス低下要因だから、性能低下がわずかで済むはずが無いと思ってるんだけど、 これをうまいこと回避する仕組みになってるってことかな? この辺の仕組みについての情報って無い?
ちょっとアホに教えてください 現在Win7にRAID6環境(データ有)の状態のマシンがあり 新規でEsxiにCentOSとWin7を入れようとしてるのだけど、 RAIDカードとHDDをそのままEsxiにもっていってもRAID6のデータって残ったままになるのですか?
>>345 RAIDカードをゲストにパススルーすればそのまま使えるんだろうけど、お前さんのやりたいことが明確にわからないのでなんとも。
RAIDカードは抜きにしてとりあえずゲストとして Win7 と CentOS を新たに作って、その上でそのゲストに RAIDカードを認識させる
ってことで合ってるのかな。
それなら↑で合ってると思う。
ただし同時にRAIDカードを利用できるのは 1ゲストだけだけど。
あるいは RAIDカード(とRAIDボリューム)をESXi に認識させて、データストアとして使いたいって話なのかな。
だったら ESXi用のRAIDカードドライバの問題もあるしファイルシステムの問題もあるんで、多分無理。
>>346 まさにその上の事例の事をいっておりました
アザーッス!
>>344 えーとっ。情報ってほどでもないが、どういう前提を想定してるのか確認しておきたい。例えば
1byte新規に書かれたらvmdkが末尾に1byteずつ追記されて、論理的にファイルが1byte単位で断片化するので問題ではないかという話なのか、
1byte新規に書かれたらvmdkが末尾に8Mbyteずつ追記されて論理的にファイルが8Mbyte単位で断片化するので問題ではないかという話なのか、
nfs接続では自動的にthinになるのでストレージ側の一般論としてsparse fileのパフォーマンスがvmのIO性能にどの程度影響するかという話なのか、
どっちみち稼働vm数分は同時ランダムアクセスになるのでそもそも性能の悪いストレージは使われないという前提でもうちょっと詳しく。
ブロックサイズ増やしてシーケンシャルリードがブロック境界をまたぐ確率を減らすとかストレージ各社のSSDその他キャッシュ技術で云々が
問題のうまい回避になってるかどうかは程度次第ってやつなのでvm上でのdefragも程度次第で効果はある。
vmdk拡張時のvmfsロックが全体のパフォーマンスに悪影響を及ぼすという話とかsnapshot同様テーブル引きでホストCPU消費の話は別途ある。
349 :
名無しさん@お腹いっぱい。 :2013/01/17(木) 05:02:51.81 ID:DRQVrTsk0
>>348 キミ、「えーっと」の後で、謙遜しているじゃないかっ
やっぱり、人って言葉に表れるね
>>344 シン・プロビジョニングだろうが何だろうが、どうせアクセスパターンは
スーパーランダムだからエレベータシークみたいなことは考えないな。
たった1台のHDD 1だけで組んでるわけもあるまいし。
つーか、結構昔からリニアブロックアドレスとプラッタ上の物理的な位置関係って
OS側からは分からんようになってるよなあ。
シンでもシックでも時間がかかるのはゼロ埋めするところなので、
速度が欲しけりゃeager zeroedで作っておくのがよい。
>>347 IOデバイスのパススルーするなら VT-d みたいな支援機能が必要だからそこ注意ね。
>>348 どちらかといえば、性能低下がわずかと言う根拠というか前提としてそういった情報が欲しい感じ。
懸念してるのはテーブル引きのコストよりもやっぱりミリ秒単位でかかるシークの方。
「どうせ複数VM上げればスーパーランダムなんだからシックだろうがシンだろうが変わりゃしない」って意味の
「性能低下はわずか」って話なら、それはそれでいいんだけどね。
まあ、複数VMは置いておいても実運用でのディスク使用パターンはシーケンシャルなんてほとんど無さそうなんで、
シンもシックもシークの数自体はそう変わらない気もするけどね(シークの距離は差が出そうだけど)。
>>350 プラッタ上のレイアウトが多少不連続だろうと、前のセクタは前へ、後ろのセクタは後ろへって前後関係が保たれてるなら
1台の HDD で構成しようとそれほどの性能低下は無いんじゃないかと思う。
でもシンプロビジョニングって使った順に、恐らく前の方へ割り当てていくのだろうから、(だとすれば)論理セクタの
物理的な前後関係は極端にぐちゃぐちゃになるよね。
そうならないようなうまい仕組みでもあるのか、あるいはストレージの性能に頼ってるのか、どちらかと言えば知識として
知っておきたいなと。
ところでさ、スーパーランダムの場合にディスクの性能を上げるなら、RAID1+0 より RAID1+JBOD とかの方が
よさそうだよね?
>>351 >「どうせ複数VM上げればスーパーランダムなんだからシックだろうがシンだろうが変わりゃしない」って意味の
>「性能低下はわずか」って話なら、それはそれでいいんだけどね。
ちゃうちゃう
>まあ、複数VMは置いておいても実運用でのディスク使用パターンはシーケンシャルなんてほとんど無さそうなんで、
そう。
だからそれなりのストレージ製品(ミッドレンジ以上なら確実)はチマチマとした
ランダムアクセスが同時並列的に大量に発生してもちゃんと性能が出るように作られている。
シーケンシャルでアクセスしてくれるなどという甘い期待はハナからしてないんだよ。
あと
>>348 が指摘している通り、VMDKのブロックサイズがデカいので
境界またぎはそんなに頻繁に発生するものじゃあないからシンであっても
領域を準備するコストはたいしてかからない、ということもある。
>>352 readはどのストレージ製品でも、極端な話ローカルHDDでも変わらんよ。
write用キャッシュのお化けってだけだろうが。
あんまステマすんな。
そんなわけねー 単純化すればread性能はHDD台数で決まるが、ホストのローカルに100台も200台も並べるとか出来ねーじゃんw
>>352 前半については、ようするにストレージ製品の性能に頼ってるってことだね。
後半についてはブロックサイズをデカくして、(ゲストが行う)通常のディスクアクセスにおいては問題無い程度の
断片化に抑えてるってことかな。
とどのつまりVMWare独自の画期的な技術があるってわけではないってことか。
>>354 ストライピングでの read性能の向上はシーケンシャルの場合に効いてくるんだよね。
ランダムの性能を上げるにはスパニングみたいに、ボリュームの複数の箇所に独立してアクセスできる構成じゃないといけないよね。
だから RAID1+0 だと、同時に独立した位置にreadアクセスできるのは RAID1 の構成台数分(2台かせいぜい 3台?)だけになるし、
RAID1+JBOD だったら同時に独立した位置にreadアクセスできるのは最大で全HDD構成台数分になるよね。
それなりのストレージ製品てどんな構成になってるんだろ?
>>355 頼るとか頼らないとかいう話とは思わんがなあ。これはサーバ集約をする上での大前提だ。
>通常のディスクアクセスにおいては問題無い程度の断片化に抑えてる
だから断片化はかなりどうでもいいんだってば。
あと、これは別に狙ってやったというわけでもなく、いざシンプロビジョニング
機能をつけて蓋を開けてみるとパフォーマンスへの影響は小さかったというだけの話。
VMWare独自のもので関連するのはVAAIだな。
>>356 自分は PCの延長でしか想像できないんで知りたいことが的外れだったかもしれないけど、大よそのことはわかったよ
ストレージの技術についてはこれ以上掘り下げても取り止めがなくなるだろうし、その前にもっと勉強が必要だね
ひとまずありがとう
>>353 単にキャッシュを積んだだけじゃあwriteは瞬間最大風速しか速くならん
継続的に負荷をかけると、HDDへの書き込みが追いつかなきゃいずれキャッシュが満杯になるからな
writeのIOPSを上げるにはキャッシュだけでは不足
>>355 > ストライピングでの read性能の向上はシーケンシャルの場合に効いてくるんだよね。
シークが減るからランダムでも有効だ。
ZFSならライトキャッシュからHDDへの非同期書き込みはシーケンシャルに書き込むので速いらしい ストレージ製品によっては色々高速化の仕組みはあるだろうな
>>359 ストライピングは言ってみればシリンダ内のトラックを増やすようなイメージだよね。
全ディスクのヘッドは同じような位置に居るから、複数のI/Oを同時にさばくのは得意ではないんじゃない?
複数のI/Oは結局はランダムアクセスに繋がるから、その意味でストライピングはシーケンシャルに効いてくるんじゃないのかな。
元々ストライピングは帯域増強を期待した方式でしょ?
なんでそんなふうに思ってるのか分からんが、HDDはそれぞれバラバラにに動くから台数が多けりゃランダムアクセス性能は伸びる 以前Microsoftのサイトで、HDDの台数とRAIDレベルからおおざっぱに性能を見積もる方法を解説した記事を見たんだが、今みつからん 英語の書籍でもよけりゃあMastering VMware vSphere 5のChapter 6を読むよろし
ESXiからは外れるが、Hadoopでの検証結果だと、同じHDD台数なら
Raid0より、JBOD使った方がちょこっと早いって出てるね。
>>362 ストライプサイズ以下のデータなら性能は伸びるだろうけど、それ以上のサイズの
データの場合は、ディスク間の同期が発生するだろうし性能は伸びないんじゃ無い?
>>362 仮に A〜D の 4台のディスクでストライピングした場合、RAIDボリュームのセクタ(ブロック)配置は
A: 0 4 8
B: 1 5 9
C: 2 6 10
D: 3 7 11
てな具合になるよね。
ここで例えば 0-2 の read と 10-11 の read が同時に発生した場合、C のディスクが競合するでしょ。
ストライピングは連続するセクタ(ブロック)が各ディスクに分散するから、複数の IO リクエストが発生した場合には
競合を起こすディスクが簡単に発生するよね。
仮にこれがスパニングだと、
A: 0 1 2
B: 3 4 5
C: 6 7 8
D: 9 10 11
だから、0-2 の read と 10-11 の read は(大きな)シーク無しに同時に実行することができる。
コンピューターの利用場面はスーパー?ランダムじゃないから、あんまり確率で話をされてもって気はするが、確率で考えればストライピングサイズとアクセスサイズが同等な条件でのランダムなら何台ストライピングしようが速くならんわな。 それよりも1台のディスクで複数台数のゲスト稼働が遅いって言ってる人が多くなってる気がする。ここ数ヶ月で住民構成が変わってる気すらするよ。
チャンクが256KBでディスクが16台の構成に対して、アクセス単位が 常に4MB以上で行われるような想定か?でもって、ディスクが64台の 構成に対しては常に16MB以上の単位でアクセスする、と そりゃあ台数増やしたってIOPSは上がらんわなw 普通の業務用ストレージだったら毎秒1000回アクセスしてくるOracleの 1度の読み書きサイズが4KBとか8KBとかになってる状況を想定するし、 考えてることが違い過ぎる
>>364 >>366 も書いているけど、ストライプのブロックサイズ(チャンクサイズ)を考慮していないんじゃないの?
その例だと0-2の時点でそれなりのサイズになるからシーケンシャルアクセスとランダムアクセスの混合
扱いだな。
>>366 チャンクサイズ x 台数 なんてサイズのアクセスのことを言ってるわけじゃないよ。
チャンクをまたぐアクセスは競合を引き起こしやすいって話。
連続する複数セクタアクセスはザラにあるわけで、ストライピングは連続するセクタが複数ディスクに分散されてるんだもの。
369 :
368 :2013/01/18(金) 23:29:24.36 ID:iaIdqv080
>>368 △ ストライピングは連続するセクタが複数ディスクに分散されてるんだもの。
○ ストライピングは連続するチャンクが複数ディスクに分散されてるんだもの。
>>367 0-2 は確かにそれなりのサイズになっちゃうね。
でも 0-1 とか 5-6 とか 10-11 みたいなアクセスはザラなんじゃないのかな。
ゲストOS は物理ストレージのチャンクなんて気にしてないだろうし、ファイルシステムの IO が 4KB 単位だったとして、
連続する 8KB ほどアクセスすればストレージのチャンクをまたいでる可能性があるわけだから。
って、VMWare の話と全く関係無いね。
>>369 そこはストライピングブロックサイズ(チャンクサイズ)やバウンダリのチューニングの範囲で、
> でも 0-1 とか 5-6 とか 10-11 みたいなアクセスはザラなんじゃないのかな。
そうならないようにするんだよ。
> 連続する 8KB ほどアクセスすれば
ストライピングブロックサイズもっと大きいサイズだよ。
どっちにしてもFSの構造やアクセスパターンから考えて一般的にJBODはRAID0ほど
アクセスが分散しない。その時点で性能的には不利だ。
>>370 > > 連続する 8KB ほどアクセスすれば
> ストライピングブロックサイズもっと大きいサイズだよ。
チャンクサイズ 256KB だったとして、8KB のアクセスでも あるチャンクの最後の 4KB と次のチャンクの最初の 4KB に分散することが
あるでしょって話。
>一般的にJBODはRAID0ほどアクセスが分散しない。
だから同じディスクに対する同時アクセスが減って、ランダムアクセス性能は高いんじゃないの?って話だよ。
異なる VM のディスクイメージはある程度は離れた位置に配置されることが多いだろうから、ストレージのどの位置に
アクセスしてもディスク全体に均等に分散されるより、ストレージのアクセス位置によって特定のディスクに偏る方が
有利だと思わない?
>>371 > チャンクサイズ 256KB だったとして、8KB のアクセスでも あるチャンクの最後の 4KB と次のチャンクの最初の 4KB に分散することが
あるでしょって話。
いや、OSによってバッファリングされるのであんまり変なアクセスパターンは発生しにくいんだよ。
> 異なる VM のディスクイメージはある程度は離れた位置に配置されることが多いだろうから
これも勝手な仮定の話で実際はそれほどでもない。
373 :
名無しさん@お腹いっぱい。 :2013/01/19(土) 03:34:37.63 ID:TX+HZDuN0
自分で作成した仮想マシンを、代わって安全に動作させてくれるサービスってないですか? 物理マシンの保守作業をせずに済むから。
遅レスだけど
>>355 シーケンシャルなアクセスなんて例外なので考えなくていい。
ストライピングでもRAID1でも(ランダム)read性能はHDD1台あたりのIOが減るので全体として向上する。
少なくともvmwareが想定してそうなWindows、Linux、SolarisによるRAID1、サーバ用BBWC付RAIDカード、
サーバストレージ製品等のRAID1では同時Readでパフォーマンスが上がる。
極端な例を出せば、HDD10台でRAID1@ZFSした場合は同時10本readに楽々耐える。HDD1台では無理。
>>361 おおざっぱに言えばRAID1は同時ランダムに効くが、ストライプはシーケンシャルに"も"効く。
ただし同時1本のシーケンシャルアクセスが発生する場面は通常無い。あるとすれば同時数本シーケンシャル。
全部ランダムと見なした方が近い。
それからストレージ製品やZFSその他ではRAID1で2本のHDDの同じ位置に同じデータは書かれていない。
よってヘッドが同じ位置に居るわけではない。
>>371 例えば4台JBODで作ったVMFS空間があるとしてexiはどうやって4台構成って判別して1/4ずつvm配置するの?
64台JBODとか作って全HDD効率よく使用されるの? 偶然IO負荷高いvmが1HDDに集中したらどうやって解消するの?
負荷分散の恩恵を溝に捨ててる感が強い
>>374 > それからストレージ製品やZFSその他ではRAID1で2本のHDDの同じ位置に同じデータは書かれていない。
これ本当?
少なくとも俺の知っているRAID1製品は全て同じLBAで書いているよ。
暇ができたらZFSのコード読んでみるかな・・・
>>371 > チャンクサイズ 256KB だったとして、8KB のアクセスでも あるチャンクの最後の 4KB と次のチャンクの最初の 4KB に分散することがあるでしょって話。
あるでしょつったって、普通に考えて発生率は低いよなあ。
どう考えてもゲストOSからのアクセスが100%全て境界またぎになってるなんてことがあるはずもない。
でもって、たまに1ヶ所でまたいだところでHDDの台数が多ければその影響は微々たるものでしょ。
まあ仮に無理やり100%またぐようなアクセスパターンを発生させたとしても
HDD台数が多ければ当然恩恵はあるわけだが。
>>374 RAID1部分じゃなくて、RAID0部分もしくはJBOD部分の話だよ。
RAID1部分の構成台数分同時アクセス(少なくともreadについて)ができるなんて当たり前じゃない。
それにシーケンシャルの話でもない。
>>375 そんなの意識しなくていい(意識できりゃ有効活用のヒントになるだろうけど)。
単に確率の問題で、同じディスクイメージの連続するセクタはストレージ上でも物理的に連続していることが
(別のディスクイメージのいずれかのセクタと連続するより)多いでしょ。
シックで作ればイメージ全体が 1塊になることだってあるだろうし、シンで作ってもセクタサイズよりもずっと大きな
ブロック単位で領域確保されるんだから。
で、RAID0 ではあるVMのディスクアクセスと別のVMのディスクアクセスが、あるストレージ構成ディスクで競合する確率は
(データが均等分散されているため)常に一定になるけど、JBODだとディスクイメージが近い位置にあるものの同時アクセスでしか
競合が起きない。
しかもRAID0でVMが2セクタ(クラスタ)以上まとまったアクセスを行ったら (クラスタ数 - 1)/(チャンクサイズ/クラスタサイズ) の確率で
チャンクまたぎになるから、よりディスクの競合が発生しやすくなる。
>>364 みたいな状況で 0-2 のアクセスはシーケンシャルでしか発生しなくても、0-1 みたいなアクセスはランダムでもよくあるってこと。
OSってバッファリングしてまとめてフラッシュしてるし。
>偶然IO負荷高いvmが1HDDに集中したらどうやって解消するの?
シーケンシャルの帯域について言えばRAID0が絶対的に有利だろうし、ランダムについてはreadなら RAID1要素で解消するのかな。
少なくともランダムについては、ディスク競合を減らせる方が有利だと思う。
複数のHDDに分散させるか、1台のHDDに集中させるか ・RDBMS 1度に読み書きするサイズは小さいので、HDD分散での競合のペナルティは小さい 1台に集中させると負荷が偏り、問題が発生しやすい また、1台に集中させると性能の上限は1台で出せる性能を超えない ・ストリーミング動画再生 実はHDDに重い動画再生だが、数百kbpsの動画を再生しているときに毎秒20回ほど 書き込みが発生している点からみて1度に書き込みするサイズは小さい RDBMSと同様、HDD分散でのペナルティが小さい一方で、集中させると 同じHDDに同居している他の仮想マシンへの影響が大きい ・アンチウィルス 分散させるとスキャン時の影響が全体に薄くばら撒かれる 集中させると同居している他の仮想マシンへの影響が甚大
>>378 HDDは負荷が集中すると急激にパフォーマンス下がるので、そういうドライブを生じさせないことにまず全力で取り組むべきだと思うがー
チャンクまたぎは絶対に許さないみたいなバイアスがよくわからん。デメリットどうするんだ……
総合判断で使い物にならないが、部分的にはRAID0より勝っている点がある、という結論でOKなのか、もうちょっと踏み込んで
その勝ってる点がどの程度のメリットなのか、vm用ストレージとして定量的に議論してみたいとかなのか。
ひとまずいくつかシンプルなシチュエーションを規定してはどうか。
例えばHDD4台、vm6台で一斉にvm起動したとすると、RAID0とJBOD比べたらRAID0の方が起動完了速いよね?
(vm起動じゃIO負荷小さいのでwinでchkdskとかの方がいいか)
仕事でやってる奴に聞いた方が早いと思うけどなぁ。 まあ聞いたら聞いたで、かけられる手間と金はどれだけあるか?を先に聞かれるとは思うけど。
>>381 それはつまらんな。
間違った結論になるのは避けたいが、正常な盛り上がりじゃん。
1台のHDDで複数ゲストが遅いのを安易にH/Wのせいにするよりよほどマシ。
>>379 ,380
小さなアクセスでも必ず一定の確率で競合を起こすことと、特定のアクセス(同じディスクへのIO)でだけ競合を起こすことと、
実運用ではどっちの方式がいいのかってことだよね。
おれの考えは競合せずに同時にアクセスを行える機会が多い方式が有利だろうってことで、じゃあどういうケースで
ディスクアクセスが競合するのかって視点で見てる。
>>379 の話は、ひとつのVMでストレージを占有している場合ならアクセスが均等に分散される方式の方が高負荷時に
高い性能を期待できるけど、逆に複数のVMがストレージを使う場合においては均等に競合を起こすことになっちゃう。
つまり、特定の高負荷アクセスがストレージ全体の性能を低下させるってこと。
逆にひとつのVMのストレージへのアクセスが少数のディスクへのアクセスに偏る方式は、高負荷時の性能が上げづらくなるけど
逆に他のVMとの競合を引き起こしづらいと言える。
つまり特定の高負荷アクセスはストレージの局所的な性能を低下させるってこと。
で、局所的に性能低下してるところに相乗りするVMはたまったものじゃないってのは同意なんだけど、全体が均等に性能低下するのと
どっちがトータルで性能が高いか、ってことを考えたかった。
なんでかって言うと、jbodで性能低下する局所的な位置はイメージ配置のチューニングである程度設計することができそうだけど、
raid0では均等に性能低下するわけだからチューニングの余地は小さいという違いがあると考えたから。
この中でチャンクまたぎについて言及してるのは、ストレージへのIO要求が何台のディスクへ波及するかが重要で
2台のディスクのIO完了が必要なストレージへのIO要求は 1台のディスクIOの完了でよい場合に比べて
競合の確率が 2倍(の同時発行要求数乗?)になるから、raid0 でのディスクのアクセス競合を考える上で無視できない
ことだと思ったから。
だから
>>363 の検証内容はよく知らないけど結果だけはこんな感じだろうと腑に落ちてる。
384 :
383 :2013/01/20(日) 02:43:26.93 ID:n3pRrEUv0
続けます
>>381 >例えばHDD4台、vm6台で一斉にvm起動したとすると、RAID0とJBOD比べたらRAID0の方が起動完了速いよね?
うーん、どうだろう。
ストレージ容量全体を 6等分したvmdkの同時アクセスってことについて考えると、raid0 について 1VM 1IO を同時に
発行した場合に、競合せずに処理できる確率は 972/4096、2競合する確率は 1620/4096、3競合なら 1080/4096、
4競合なら 360/4096、5競合なら 60/4096、6競合なら 4/4096 の確率になり、
一方でjbodだと、競合せずに処理できる確率は 1/2、2競合する確率は 1/2、それ以上はゼロになる。
raid0 でのチャンクまたぎは無いものとして計算したけど、チャンク跨ぎを考えると競合率は飛躍的に増える。
この条件で負荷をかけた時にどっちが速いかは jbod に見えるけど、前提条件が限定的だからなんとも。
特にきっかりディスクイメージレイアウトが6等分てのがjbod有利の条件だからね。
実際に測ってみたいもんだね。
385 :
383 :2013/01/20(日) 02:49:33.30 ID:n3pRrEUv0
ごめん、
>>384 の jbod の確率計算に間違いがあった。
6VM のうち 2VM については、競合せずに処理できる確率はゼロ、2競合する確率は1、それ以上はゼロ、
残り 4VM については競合せずに処理できる確率は 1/2、2競合する確率は 1/2、それ以上はゼロだね。
くだらん。 HDD 2つ追加して1VM 1HDDが正解だな。
>>383 小さなアクセスなら確率ゼロだ。
ストレージ製品のブロックサイズが4KBの場合、アクセスが4KB以下であれば当然確率ゼロ。
ついでにチャンクとアラインメントが合っていればチャンクサイズ以下のアクセスについてはやはり確率ゼロだ。
つーか、アラインメントがズレていても256KBのチャンクに8KBのアクセスを行う場合、チャンクをまたぐ確率は1/64しかない。
これが他のアラインメントがズレているアクセスと同じHDDで競合する確率は更に低い。
現実に多い4KB、8KBのアクセスに関しては影響を考慮する必要の無いレベル。
競合、競合と騒いでいるのは、台所で火事になってるのに庭先でやってる線香花火のために
水をくんだバケツをとっておかなきゃならんから使えない、と言ってるような話だな。
>>387 >ついでにチャンクとアラインメントが合っていればチャンクサイズ以下のアクセスについてはやはり確率ゼロだ。
チャンクサイズを知らないゲストが好き勝手にアクセスすればアライメントもへったくれもないからゼロにはならないし、チャンクサイズを意識してるゲストなんて無いんじゃないのかな。
普通のHDDでも4KBセクタであることを知らない512B時代のOSは4KB以下のアクセスでもアライメントずらしてセクタまたぎするようなもんで。
vmfsもバッファリングしているからゲストのI/Oだだ漏れにはならんのだよ。
数学的にゼロじゃないからと言っても、この例だと2個のアクセスが両方とも またいでいる確率は1/64 * 1/64だから1/4096で、そこにまたHDDが被る確率を 掛けるんだろ 1/10000以下になるような確率の事象について心配するよか、 残り9999/10000のことを考えたほうがいいだろ、常識的に考えて
きっと彼はクィックソートはダメソートだと言い切るタイプなんだろう。 これ以上相手にするのは無意味だ。
>>389 だよな。多数のVMが同時に多数のアクセスを起こすランダムアクセスに近い状況なんだから、
バッファやNCQやリオーダーを考慮したら、
「競合」だの「チャンク跨ぎ」だの起きればstripe系RAIDのほうが有利になるうるのに、
そこのところを一律に「不利」と思い込んでるからなあ。
樹を見て森を見ない典型的な駄目パターンでしょこれ。
>>383 hadoop jbod raid0 何かでうググればいろいろ文献は出てくるが、
hadoopは、JBODで負荷分散を有効的に使うようなオプション設定がある。
ESXiは、VMを違うディスクに配置するようなオプションは無いからJBODの方がいいとは限らんのじゃないかな。
JBODだとストレージの先頭から使用されから、1台のストレージに複数のVMが載ってしまい
IO負荷の高VMがあると他のVMは遅くなりそう。
>>390 2個のアクセスの一方でも競合すれば競合になるんだから、その計算は違うんじゃ?
n台のアレイに2個のアクセスが来た場合には、どっちもまたいでない場合には1/nの確率で競合するが、一方がまたいでいる場合は2/n、どっちもまたいでいれば3/nの確率で競合する。
計算合ってるのか知らんが
>>384 についてはどう考えたらいい?
395 :
394 :2013/01/20(日) 13:03:58.84 ID:HKhwJhwx0
>>394 を掘り下げて考えてみた。
チャンクまたぎの確率が1/64だったとすると、2個のアクセスがどちらもまたがない確率は 63/64 x 63/64 = 3969/4096、一方がまたぐ確率は 63/64 x 1/64 = 63/4096、両方がまたぐ確率は 1/64 x 1/64 = 1/4096 になるかな。
総括すると、2個の8KBアクセスが競合する確率は (3969/4096) x (1/n) + (63/4096) x (2/n) + (1/4096) x (3/n) = 4098/4096n になるのかな?
4098/4096 は大体 1 だから、要するに 1/n になるのかな。
でもこれ、サイズが 8KBが12KBに、16KBに、と大きくなったり、同時アクセスが2個から3個に、4個にと増えると指数関数的に競合率が増えそうな雰囲気だね。
396 :
394 :2013/01/20(日) 13:08:53.34 ID:HKhwJhwx0
すまん、多分
>>395 の計算間違ってるな。
またぎ率(?)の計算の合計が1にならないや。
普段使わない頭使うと駄目だな。
1ヶ所でのまたぎなんてどうでもよかろう
8台のアレイでまたいでいるアクセスが発生している2台のHDDのどちらかに
別のアクセスが発生して競合する確率は1/256だよな
これが256,000回のアクセスとなったとき、なおも1000回の不利が発生
するかというと、
>>392 でも指摘されている通りスケジューリングで
隠蔽されて来るはずだ が、仮にその効果が全くないものとしよう
それでも、JBODだと256,000回のランダムアクセス待ち時間がかかるのに
対し、ストライプされていれば高々40,000回の待ち時間もあれば充分だろう
>>397 >8台のアレイでまたいでいるアクセスが発生している2台のHDDのどちらかに
>別のアクセスが発生して競合する確率は1/256だよな
さすがにその計算はおかしいって(
>>395 で計算間違ってるらしいおれでも断言できる)。
8台のうち2台が使用中の時、8台のうちの1台を必要とするアクセスは2/8の確率で使用中のディスクに当たるじゃん。
またぐ確率1/64に、ディスクが当たる確率2/8を掛ける
>>399 またぐ場合の競合だけを考えればいいの?
またがない場合も8台のうち1台が使用中になるから、ほかのアクセスがそれと当たる確率も1/8あるわけだろ。
2/8当たる確率が1/64あれば、1/8当たる確立も63/64あるよね。
という計算を
>>395 でやったつもりだったんだけど、よければ考え方の間違いとか指摘してください。
合計が1にならなくて困ってるんです。
またがない場合は双方に有利・不利は無い 後は自分で勉強してくれ 普通の本には書いてないだろうけど ストレージのサイジングをする際に考慮するのは全く別のことだからな
>>401 食い下がるようで悪いけど、もともとはjbodとraid0の性能比較の話で、それをアレイが性能低下を起こす要因(=競合?)の確率論で考えてるんでしょ、
>>384 は。
だからraid0でどんな競合が起こるかは、チャンクをまたぐまたがないによらず考えないといけないんじゃない?
またいだ場合はまたがない場合に比べてどの程度悪いことなのかという視点はraid0の中での比較でしかないというか。
403 :
名無しさん@お腹いっぱい。 :2013/01/20(日) 14:21:14.23 ID:CWrsQpST0
win8 の hyper-v 上に ESXi 入れたいんだが、 ESXi インストール時に no network adapters でエラーになる。 誰か回避できた人いる?
Hyper-VのVNICはDEC21140のエミュレーションだったはず。 そんな古いNICはESXiでサポートいていない。 PCIパススルーでも使うしかないだろう。2012は使えるがWin8はしらんけど…
406 :
名無しさん@お腹いっぱい。 :2013/01/20(日) 20:58:03.25 ID:6L6BsN1z0
>>405 料金表に料金が載っていない
お高そうな気配
WINDOWSなど、最近はISOからインストールできるらしいし、VPSもありかも
>>400 2個のアクセスがどちらもまたがない確率は 63/64 x 63/64 = 3969/4096
一方がまたぐ確率は 63/64 x 1/64 + 63/64 x 1/64 = 126/4096 ←このケースが間違ってた
両方がまたぐ確率は 1/64 x 1/64 = 1/4096
2つのアクセスをA、Bとすると、一方が跨ぐ確率は A が跨いで B が跨いでない場合とその逆の 2パターンあるから。
ついでにその後の計算も書き直すと、
(3969/4096) x (1/n) + (126/4096) x (2/n) + (1/4096) x (3/n) = 4224/4096n ≒ 1.03/n
チャンクをまったく跨がないアクセスが同時にあった場合よりも競合率が 3% 高いね。
>>393 あぁ、JBOD用の設定ができるんだ。
なおさら納得だ。
>>403 適当だけど仮想スイッチとEthernetをブリッジしないとダメでは?
Hyper-Λなんて使うよりVMware Playerにインストールした方がいいよ。
Win8ホストでは知らないが、LinuxホストのPlayerでは、
ESXi on Playerは当然として、ESXi on ESXi on Playerまで出来ちゃうよw
もうちょいがんばってみろよ。組体操みたいに。
>>383 IO負荷が高く別のvmに悪影響が大きいvmがあれば、JBODで構造的に確率的にだが隔離はできるだろうという話か。
全体をRAID0にせずに隔離する形で何台かそのvm用にHDD割り振ればいいとは思うが全体RAID0かJBODの比較とすると、
各vmのIO負荷と求める性能によるんじゃないの?
A. すべてのvmに対して最低IO速度を維持(極端に遅いvmが生じない)したい→RAID0
B. 一部のvmが極端に遅くなってもよいがそれ以外のvmは速度低下しない→JBOD
→Bで生じる速度低下はAの比ではない苛烈な物になる(操作を受け付けない/disk timeoutが生じる)
C. ディスク1台では処理しきれない高IO負荷が生じることがある→RAID0
D. 一部のvmは応答時間10秒超等の低IO速度に晒されても問題ない→JBOD
→vmから大量IOが短時間のみ発生した場合、Aの場合は短時間で処理終了するがBの場合は長時間高負荷が続く。
F. 長時間のIO速度低下は許せないが短時間なら許容できる→RAID0
G. 一部のvmは長時間のIO速度低下が生じてもよい→JBOD
→Bで巻き込まれて極端なIO速度低下を食らうvmは配置上確率的に生じ判別や制御はできない。
H. どのvmも極端なIO速度低下が起きて問題ないがそのvm数は一部である→JBOD
おおざっぱにまとめると
I. 高IO負荷を捌きたい→RAID0
J. 全vmのIO速度が多少低下しても各vmのIOを高速に処理したい→RAID0
K. 全合計IOに対する完了時間を短くしたい→RAID0
と、こういうことになると思うが、JBOD選択したい状況はレアじゃないかな。レアなだけで無いことはないと思うが。
# raid0ってのはよろしくないな。raid5,6,10も含んだ話だからストライプとした方がよいが今更か。
JBODはともかく、高IO負荷のvmが1台でもあるといろいろ影響でかいよねどうすんの? って話は身近にあるな。 ディスク台数多ければ数台専用に割り当てればいいだけだが、共有してる場合は回避が難しい。 SANならディスク本数は問題にならないだろうが転送帯域が困ったことに。 今のところホストローカルストレージと組み合わせるとかvmが自力でSANと通信するとか場当たり的対処しか無いのかね DAS最強か。
>>410 RAID0でいいよ、話通じてるから。
まだ話を続けて正確さを求めるなら、IO負荷じゃなくて読込負荷に限定して欲しい。
JBODもRAIDも使わない場合との比較も欲しいけど。
理屈はいいからベンチとれよ
帯域が問題になるようならVMでコンソリすんな、で終了だろ。 本質的にはESXiと関係ない話になってんだから他でやれよ。
外部ストレージがどういう構成だとゲスト数十起動しててもサクサク動くとかは聞きたいが 理屈こねるだけでベンチも無しなら意味ねぇな。
環境持ってなくてベンチはできないんで、簡易的なシミュレータを作ってみた。
所定の時間にトータルでどの程度の小I/Oをこなせるか。
http://takepost999.homeip.net/tmp/simstorage.html リードライトの区別やキャッシュ、リオーダーなんかは想定してない。
vmdk はストレージ全体を VM数で均等に分割してる想定。
処理時間=シーク時間として作ってるから、データ転送レートは無限大。
シーク時間はヘッドの移動量によって変化する。
RAID0のチャンクまたぎは考慮してるけど、JBODのディスクまたぎは考慮してない。
これで試してみると、VMの数がディスク数の整数倍になるとRAID0の方がパフォーマンスよく、
それ以外はJBODの方がいい感じだね。
ちょっと想像してない結果だった。
>>416 それはESXiをOS、VMをファイルI/Oプロセス、vmdkをファイルに変えても同じ話だよな。
ちなみに実際のHDDではシーク時間より回転待ち時間の影響がデカいし、
> vmdk はストレージ全体を VM数で均等に分割してる想定。
は笑うところだな。冗長性の考慮されていないJBODとRAID0比較とか無駄だから
他でやってくれ。
ここで続けるかはさておき、ベンチがないとサイジングできない奴はSEやめれ。 検証必要て言うならその通りだが。 まあいずれにせよ、ESXiに限らない話になっちまってるな。
シーク時間に回転待ち時間も含めてるつもりだったけど、計算間違ってたよ。 10000rpm で 0.1ms とか勘違い(rps換算)したけど、6msもあるね。 だったらシーク時間を加味した値に直せばより適当になるのかな。 これが結果を逆転させる要因になるかはよくわかんないけど。 >冗長性の考慮されていないJBODとRAID0比較とか無駄だから 条件面の無理やりさを笑ってくれるのは構わないけど、もともと RAID1+0 と RAID1+JBOD の比較の話で、 このうちの RAID0部分と JBOD部分について考えてるんだよ。 RAID1 と組み合わせれば少なくともリードは RAID1 構成台数分の並列性を兼ね備えるから、 パフォーマンスは良くなるけど、これを想定するとリードとライトの区別を無視することはできなくて シミュレーションがめんどくさかったんだよ。 >それはESXiをOS、VMをファイルI/Oプロセス、vmdkをファイルに変えても同じ話だよな。 これの言わんとしてることがよくわからない。 VMとかじゃなく物理ホストでストレージを占有した場合、ストレージ構成によってどう性能が 変わるかって話と同じだと言ってるのであれば、それはその通りだと思うよ。
キャッシュやリオーダーを考慮しない非現実的な空論で数値だして なんか意味あるの? ていうか何が言いたいの? 定性的な議論じゃなくて定量的な議論やりました俺いい感じ って言ってるだけで、それ現実のRAID0やJBODとなんの関係もないし、 それでなにか性能について語ってるつもりならアホだし、 語ってないつもりならチラ裏いけばいいんじゃないの?
>>420 絶対的なI/O性能の話ではなくRAID0とJBODの相対的な性能(というか特性?)の話で、キャッシュもリオーダーも両者に恩恵をもたらすものだから、考慮しないのもアリじゃないのかな。
とりあえず妄想垂れ流してるやつはコテつけてくれ
いや、なんつーか・・・
もう色々あれ過ぎて、これじゃ机上論だぞ・・・
>>416 これにしたって、まぁ計算してるのは分かるけど、
じゃー実際どうなのよ?って結果が付いてなきゃ、
あぁそうですか。で?以外に何が言えるかっつーの。
ここまで来ると、スレ違だな。
ここでやる必要ねーよ。
>>419 > 変わるかって話と同じだと言ってるのであれば、それはその通りだと思うよ。
じゃあ他でやってね。
>>416 これ結構面白いな。
VM数を適当に1000まで試したが、数が少ない場合の一部以外JBODの勝ちだな。
この規模になるとvmdk配置が均等割なことによるJBOD有利の程度も小さそうなのに、はっきり差がついてて意外だ。
>>425 RAID0は1 I/Oで2 disk占有する不利なケースを実装して、有利に動作するケースは実装しない。
一方JBODに対する不利なケースは実装していない。
やる意味ないんだよ。
>>426 JBODのディスクまたぎは各ディスクの最終セクタ位置の複数セクタアクセス時にしか発生しないんだからすげーレアなんじゃないの?
250GBのディスクですら1/64000だから無視してもいいんじゃない?
しかし、なんでみんなここまで否定的なの。一連の流れの中で確率計算もしてシミュレーションまでして根拠を示してて、単純に面白いと思うけど。
実運用でどうかはやってみなけりゃ分からないし自分の運用に取り入れるかも別にして、ひとつの物の見方として有意義でしょ。
実運用でなくてもいいから 試験環境で動かしてどうなんよ 理屈だけでハイ終わりじゃ意味ないでしょ
> これで試してみると、VMの数がディスク数の整数倍になるとRAID0の方がパフォーマンスよく、それ以外はJBODの方がいい感じだね。 直感的には納得しかねる結果だなぁ なんでそうなるのかの考察はあるのかな? 真っ先に計算ロジックが間違ってるんじゃね?とか思っちゃったけどw
>>427 基本的な事がわかっていない奴の情報が有意義なわけがないだろう。
1. そもそもESXiは関係ない話。
2. 現実とかけ離れたモデルでやっても害にしかならん。
OS上のシングルスレッドアプリじゃあるまいし、VMから常にI/O 1個とかありえないから。
少しでも待ち行列知っているならわかるだろうけどDISK負荷が常に100%ってシステムとして
終わっているんだよ。空き時間がある程度あって、VMからのI/Oを並列に処理できる可能性
がある場合にRAID0は生きる。
431 :
416 :2013/01/22(火) 18:33:25.14 ID:QZ6vCiWQ0
>>426 実装されてない RAID0 が有利に動作するケースってなんだろう?
ディスクまたぎを省いたのは
>>427 の言う通りレアだからなのと実装の手間が
面倒だったからだけど、意図的にJBODを有利にしたりはしてないつもり。
>>429 そうなんだよ。
ただね、回転待ち分シーク時間を増やして試したらそういう傾向は無くなった。
理由は考え中なんだけど、ロジックに間違いがあるなら指摘はほしい。
>>430 DISK負荷100%が終わってるってのは同意だけど、VMからのI/Oを並列に処理できる
可能性がある場合は RAID0 にしか有利に働かないの?
VMから常にI/O 1個の件は、これを100個にしたところでRAID0とJBODの有利不利が
逆転するような話でも無くない?
ま、机上で何やっても実際にやってみなけりゃしょうがないってことは分かってるけど、
待ち行列が云々とかの物言いも机上な上に具体的な論理も無いんだから、50歩100歩じゃないかね。
もはや壮大なスレ違いということについては返す言葉もありません。
なので自分はもう見てるだけにします(
>>416 で終わりにしようと思ってたんだけど、
>>426 がどうしても気になって書いちゃいました)。
>>414 P2V等でIO負荷が問題になるのは他のvmのIOとの合計が実際の負荷になるわけで、そう簡単に事前見積で問題になるかどうか判断できないんだよ。
そこまで知ってて絶対問題起きない程度にマージンとれって意味で書いてるのかどうか分からんが。
>>415 基本的にはDisk本数。12本以上のSANやDAS製品なら当然問題ないが手軽な金額で自作するPCストレージでやるなら
SATA 6本以上でBBWC付RAIDカード相当で適度なOSからiscsi/nfs共有すればそれなりのIOpsは出ると思う。
writeは完全に隠蔽されるしSASでなくてもRAIDカード側で制御してくれて割と同時負荷に耐える。
Disk前半後半で分けるとかSSDキャッシュだとかはそれなりには有効。zfsのはメモリ馬鹿食いなので要計算だが。
レスポンス速度がさほど必要なく並列IOps上げたい場合は条件にもよるがストレージPC側で圧縮かけると性能向上したことがある。
server2013にもdedup付いたがよほど同一vmのcloneが大量にないと速度面の恩恵はなさそう(clone初期はいいが次第に遅くなる)
でも一番手短なのはSSDに投資して大半をSSD上に置くことだなw RAIDだのなんだの考えずにシンプルで確実だよほんと
>>416 おもしろいね。
ソース読んでないんでちょっとどこまで計算に入ってるか分からんけど、
RAID0のストライプサイズを8KB〜2MB程度に可変可能に(大きくすれば速くなる傾向)、
発生させるIO確率をIOブロックサイズ1, 4, 8, 16, 32, 64, 128, 512, 1024KB毎に確率指定可能に、
各IOの応答時間の分布とかが分かるとそれっぽくなるな。アクセスパターンによって随分左右されると思うよ。
que時にSATAのNCQやSAS、RAIDカードによる最適化と、先読みが関係してくるがさすがにこんがらがりそうだw
ストライプのReadペナルティが可視化できるなら割と正確かもしれん
あと重要なところで、vm数1 Disk数台でJBODベンチしたらdisk1台だけがBusyになるべきかな。
体感と違うのもたぶんそのあたりの簡略化が理想的すぎるんじゃないかね。
つまりvm100台あるがそのうち1〜2台が大変Busyであるといったよくあるシチュの再現ができると、現実に近くなってくるかと。
いろいろ議論してるけど、ESXじゃ、JBODを有効に使えないから実環境じゃ意味無しでOK? JBODでアレイ組んだ場合ラウンドロビンに各ディスクにアクセスするような仕組みってあるの? ESXでもストレージ側でもどっちでもいいけど、その機能が無けりゃJBODだと最初のディスクにしか VMは配置されないよね。(ディスク容量とVMの数によるけど) それともストレージの容量がぎりぎりでVMが全体に配置されるような状況が普通なの?
>>411 「思いて学ばざればすなわちあやうし」とはこのことだな
> ディスク台数多ければ数台専用に割り当てればいいだけだが、共有してる場合は回避が難しい
トウシロが余計なことを考えるよか、素直に全部ストライプするのが速いし
もろもろメリットがある、つーのがストレージ設計の常識
常識を疑うのも結構だが、最低限その常識を支えている背景まで理解してからだ
> SANならディスク本数は問題にならないだろうが転送帯域が困ったことに
寝言は寝て言え
仮に、SSDで RAM-DISK並に超速くて高価な製品(例えば、4Gbyteで1万円)なんてのが あった場合、安価で大容量なHDDと JBODで組んで、SSD側に MFTみたいな管理領域が 格納される様にできれば、それなりに意味はあるかも?
>>433 「disk1台だけがBusy」って何だ?1アクセス中に他からアクセスが無いのか?
そんなスッカスカならディスクアレイなんざ無くともHDD 1台で足りる。
>>434 そもそもJBODが論外でOK
>>436 MFTはキャッシュされてる率が高いと考えられるから、その使い方はあまり有効では無いと思う。
そもそもそれならJBODなんかにしないで別LUNにして、ディスクアクセスのパターンに応じて適切に選択した方がいい。
さらにアレイを全部SSDで構成するなら、JBODにするメリットが無いからRAID0一択だな。
JBODとRAID0どちらがいいかって話が出てくる、円盤特有のシーク時間やら回転待ち時間が大きいから。
フラッシュでメインメモリと比較に足るほど低レイテンシのデバイスは実在するし、 ESXiでも利用されてるんだからそいつがどう使われてるか見りゃあいい話だ。
>>435 その常識がわかるスレに誘導してくれないか?
それがこのスレにとって幸せだろうと思う。
いつの間にかバージョン2になってたw
>>436 vmfsは期待できないが、fsによってはdirや管理領域を別デバイスに置けるので膨大なファイル数を処理したい場合には有効かもしれない。
vm用ストレージの場合はボリュームや巨大ファイルの一部が高負荷ってことになるので、どの領域を高速なデバイス上に配置するかは難しいね。
例えばzfsのアプローチだと大雑把にはランダムアクセスされたデータはキャッシュされ、シーケンシャルはキャッシュされない。
あとはそのキャッシュをSSDにはき出して再利用って感じになってるが、他のストレージ製品もそれぞれの手法でがんばってるね。
逆に言えばvm用ストレージって結構がんばらないとパフォーマンス出すのは難しいってことでもあるかも。(zfsは元が遅いが)
とりあえずvmかストレージにキャッシュ積みまくる方向か、データ自体をSSD上に置いちゃえってアプローチが多いかも。
>>435 わーすごいストレージ設計のプロが来てくれたよ!
DBだろうがバックアップだろうが全部同一プールにするのが設計の常識かー
最近のストレージは設計する必要もないくらい進化してるんだなぁ
ところでSANの帯域が足りないんだが安価に増強するには何がおすすめなのかな?
>>437 ちょっと何言ってるのかわからないが
>vm数1 Disk数台でJBODベンチしたらdisk1台だけがBusyになるべき
だとおもわんかね? シミュの挙動の話なんだが。
>>442 >例えばzfsのアプローチだと大雑把にはランダムアクセスされたデータはキャッシュされ、シーケンシャルはキャッシュされない。
あれ?
l2arcに割り当てたディスクがシーケンシャルベンチであっという間に埋まったことがあったんだけど
その話の元ネタはどこ?
>>442 >DBだろうがバックアップだろうが全部同一プールにするのが設計の常識かー
JBODかストライプかという話をしているところにそんな例を出すからには、
JBODならそれでいいんだな。そいつはスゲーな。
>ところでSANの帯域が足りないんだが安価に増強するには何がおすすめなのかな?
空きポートにFCケーブル繋いでゾーニング設定追加して、Active-Activeでパスを増やす。
まあ今どきのFCは8Gbpsあるからたとえ1パスであっても、6Gbps SASのDASより広帯域だが。
他の場所にスレ立てろ。
>>442 vm数1Disk数台のJBODでBusyは1になってない?
447 :
名無しさん@お腹いっぱい。 :2013/01/23(水) 00:25:02.88 ID:cOsNyjmM0
いいぞお前らwww もっと暴れてこんな糞スレ二度と使い物にならないようにしてやれwwwwwww
>>443 すまんzfsはARCだった。randomとかに関係なく上書きされる。頻繁に参照された一部データは消えない。
L2へは書き込み速度制限があるので条件によっては大量readの影響は軽減できるかもだが微妙
PT3パススルーしてる人に聞きたいのだけど、録画ドロップない? 単におれの受信環境が悪いだけなのかな
>>411 例えばサイズ8KBのアクセスで10,000IOPSといえば相当な高負荷だが
それでも帯域は単純計算で640Mbpsしか使わないから1本でも8GbpsあるFCは余りまくる
100IOPSのMS SQLサーバ(MS SQLとしてはかなり高いほう)を100台集約してもスカスカ
そこに1000IOPSのOracleを混ぜても帯域には全く問題ない
つーか、SANでは帯域が足りなくて6GbpsのDASでは帯域が足りるってどんな状態だ??
>>449 俺はPT3はネイティブ環境でしか使っていないが…
ドロップが起きているPIDや、ドロップするタイミングは?
番組の先頭や尻尾ならわかさトラップとかでドロップカウント上がっているだけかもしれない。
これはネイティブ環境でも起こる現象。
もし番組放送中のド真ん中とかでドロップ出てるならそっちの環境の問題だと思う。
>>449 まったくなし、安定そのもの。
仕組み的な点では大丈夫だと思われるので、環境やら設定なんじゃない?
PT3じゃなくFriioだが15分番組録画したら、エラーボロボロ出まくりでさすがにムリかと思っていたが、 やはり3ゲストOSで1つのHDD使ってて、そこに録画は無理があったということか。 #と、話題になっていることにつなげて見るテスト ちなみに番組情報取得は問題なくできている。
>>453 録画ゲストでディスクベンチしてみたら?
>>454 ん、まあFriioで録画の予定はないからいいよ。やるとしてもせめて録画用のストレージは分けるつもりだし。
FXで8コア8スレッドとi7で4コア8スレッドを使った事ある人いない? 昔はFXのワットが高かったから避けてたが 最近95W版が出てるの知ってちょっと揺れてる 昔、AMDだと別途パッチ当てないと上手く動かない事が有ったからな 相性が・・・ 同じ5.0系でも5.1と5.0は微妙なところで違うよね 5.1で作ったイメージ5.0に持って行ったら動かなかったり 個人的には現状5.0で問題が無いなら、5.1使う必要性も無いかな〜と思う 何となくコピーなども遅く感じるし
>>456 FX 8350 ESXi5.1で使ってる。ただゲストOSでいちばん割り当てているのは6つだけど。
ただ上がるかどうかだけ確認するだけなら、いま止めているゲストOSのCPU割り当て変更
すればすぐ試せるけど。
458 :
457 :2013/01/23(水) 12:15:55.80 ID:VTFMTbxp0
Windowns 8 Enterprose x64 1ソケット8コアを割り当てて、ただ起動するだけならできました。
Phenom X6でcore1つなゲストを6つ同時に負荷かけたら、さぞかし同クロックの4core i5より速かろうと思ったが、 全然そんなことはなかった。 残念ながらIPCの差はデカい。
Phenom II X6 1090T (3.2GHz)のマシンとCore2Quad 9650(3.0GHz)のマシンで 尺24分の動画エンコード(FreeMakeVideo)やったら、速度ほとんど変わらんかったな。 3世代以上前のインテルプロセッサにも勝てない…(まあこれだけで評価するのは何だが)
昔は、intelは速い時は速いが、処理で輻輳するとクソ遅くなる。AMDはそれがない。っていう印象だった。 VMの母艦に使う際にはピーク性能だけでなくワースト性能も考慮したいけど、最近の製品ではどうなんだろうな。
ご存知の方がもしいらっしゃいましたら、教えて下さい。 VMware vSphere Hypervisor 5.1を利用していますが、 UPSと連動した緊急時のシャットダウン命令等での電源管理を考えています。 無償版でホストOSとUPSで直接連動することは可能でしょうか? また、不可能な場合ゲストOSからホストOSへ シャットダウン命令を送る等の別方法はあるのでしょうか? UPSはAPC社のSmartUPSの利用を想定しています。
>>462 オムロンのPowerActProのESXi4.0用のSlaveAgentではOKだった。
>>462 二つ方法があります。
(1)vMAにapcupsdを入れる
詳細は"apcupsd vma"でググってください。UPSとホストマシンが
シリアルかUSBで接続してあるのであればこれしかないはずです。
(2) vMA に APC Power Chute Network Shutdown(PCNS) を入れる
これはUPSにNICが付いていることが前提です。
PCNSは日本のAPC社では有償で販売していますが、
北米では無償で配布しています。直リンは避けますが、
北米APC社のサイトをブラウズすれば簡単に見つけられると
思います。
なお、日本で有償で販売しているPCNSも英語版なので、
製品自体に違いはありません。設定方法は日本のAPC社の
サポートページに日本語で丁寧に解説してありますので
難しくはないでしょう。
466 :
464 :2013/01/23(水) 20:58:05.73 ID:4ElrenmkP
>>465 おっと!無償版ESXiにはそんな制限があったんですね。知りませんでした。
となると、
>>462 はいずれにせよapcupsdしか無いですね。
記憶があやふやですけど、apcupsdはシリアルやUSB直結じゃない
ネットワーク経由(APC純正NIC)のUPSでも制御できたような…。
それともネットワーク経由はapcupsd同士だけだったかな…。
>>466 できるよ。
SNMPでUPSの情報を取得して他のapcupsdに対して情報提供してる。
>>466 PowerChuteNetworkShutdown自体は、スクリプトで shutdownコマンド
走らせてるだけだから、vMAから 管理CLIにトリガさえ渡せれば
動きそな気がするんだけど、難しいのかな?
>>467 apcupsdも、vMA必須?管理CLIで動くならずっとスマートですね。
vSphereClientおよびシェル以外からの命令は、 無償版だと参照専用だよ。 要するに自動で実行できるコマンドを使って更新をかけたい場合は、 有償版を買えっていうスタンス。 自動処理がどうしても重要なら ・金を払う ・GUIを自動操作する ・5.0RTMを使う ・シェルで何とかする ・vSphereClientの通信を解析して、ツールを作成する(ホスト上に秘密鍵がそのまま置いてあるから、間に入って通信内容を解析できる)
>>470 解析せんでもスクリプト組めるくらいのライブラリ公開されてるでよ
>>450 SANってiscsiも含むんじゃ?
>>470 シェルでっていうかapcupsdやPCNSのvMA上スクリプトにssh ホスト名 shutdownほげ
って書くだけなのでapcupsdやPCNSの導入のおまけ作業でできるよ。
あと英語で検索すれば無償版でもweb経由で確実に落とせますってスクリプトと設定例hitする
>>472 たまにある勘違い、SAN=FC(確実に同世代のSASより速い)
という勘違い。
SAN=iSCSIで、接続はGbE限定で、マルチパスを使ってはならん、などと勝手に 条件を付けて行けば帯域が足りなくなることもあるかもしれんがw つーか、実務上問題になるIOPSを度外視して帯域を最優先で語っちゃってるのがまずどうかしてるわけで。 iSCSIを考えるのも結構だけどさあ。 vSphereに載せるサーバの業務を想定して、EqualLogicでもLeftHandでもXIVでも何でも使って、構成組んでみ。 変だってのがすぐ分かるだろう。 そういや、HPは妙な所でDAS使ってるサンプル構成もあったなw あれはどうしてああなってるんだ、と考えてみるのはいいかもしれんが。
パススルーを使わずにゲストwindows7で音を出す方法ありますか? リモートデスクトップでログオンしたら音出るけどYouTubeすらカクカクになるぐらいビデオドライバーがダメ リモートデスクトップでログオンせずにリモートすると動画はサクサクだけどサウンドデバイスが無くて音が出ない 設定見ても仮想サウンドデバイスて無さそうだし ホストはESXi4.1無印 リモートソフトはTeamViewerです
>>473 あぁやっぱりか。FCだから帯域が帯域がって話のつながりがわからんかったw
そりゃFCじゃないと帯域たらんもんなぁ。ibも10gもまだ高いし
>>477 せめてなぁ、10ギガ銅が、NIC1枚、スイッチ16ポート5万ぐらいまで落ちないと
家に導入するのは厳しいナァ。
仮想化でそんな広帯域を必要とするようなストレージなんて個人じゃ買えないだろw それ以前にまずサーバ数が無い。何百サーバ集約するんだよw 映像編集の仕事をSOHOでやってるとかいうなら帯域が欲しいだろうけど、 それはそもそもの話題である「仮想マシンを複数同時に動作させた際に 遅くなるのをどう避けるか」というのとは全然別の問題だな。
以前から思ってるが このスレって金の無い個人SOHOか、エンタープライズに近いやつの両極端なやつが多いよな 話がどっち目線で考えてるの?ってのが多い
自分の考えてる前提を言わないで煽り始める奴が居るからな
>>479 SSD4〜8台束ねてiSCSIターゲット作ったらかなりのvm数収容できるしGbE程度の速度は出るんじゃね
会社ではVM200台クラスの本番統合サーバと 余り物と無償ESXでこさえたVM20台クラスの開発用サーバを扱い 自宅のESXは趣味の世界ですが
>>481 それも具体性が乏しいな
SSDはMLC? 最近はどのくらい性能出るのかな?
「束ねる」ってのをとりあえずRAID10と想定するか
8台 RAID10でざっくり4KB書き込みIOPSは40,000くらいか?
160MB/sだから1.25Gbpsで、GbEでもマルチパスすりゃあまだ足りるな
40,000IOPSも書くとなると、平均6IOPSの仮想マシンだと6000台以上だな
平均10IOPSで4000台
8台 RAID10だから1台のSSDの容量に1000VMひしめき合うことになるが、
これでは現実的な想定ではなかろう
vmfsはIB接続かeather接続か、頂上決戦がなかなか始まらないな。
>>480 小規模だったら、上のほうで書かれていたと思ったが15krpm SASでBBWC使って
RAID組めばI/O性能もOKだろう。可用性が課題になるが、打つ手はあることだし。
>>484 eatherってFCoEのこと?
流行ってないよね。
SSDって書き損じとか蒸発をちゃんと検出できるのかな? USBフラッシュとかSDカードだと後で読んだときに(人が)気づくらしいけど。
>>483 ESXiのVMDKへのアクセスは、IOサイズ64KiB固定な、VM、ストレージシステムに関係なく。
そして、ESXi標準のMPIOに期待してもダメ。
奴は経路2重化程度の仕事しかしねぇ、いやそれもMPIOの
仕事だから良いんだけど、自動で複数経路に振り分けて、
帯域本数倍ヒャッフー!を期待しても無駄だからな。
64KBだとIOPSが下がるから帯域の変化を計算する上でそのぶんの補正が入るな。 つーか、相変わらず非現実的な設定になる点は同じだから、100倍くらい違って こなければ続ける意味も無いわなあ。 サードパーティのMPIOだと帯域増えないっけ? NFSかiSCSIかの選択で、そこがポイントのひとつだったような気がしたが。
高負荷時の事を語るのもいいけど、そういう場合はデバイスエミュレーションの ペナルティが大きくなるからPCIパススルーやSR-IOVと差が広がる。 結局、「ちゃんと設計しろ。」になるだけだ。
iscsiじゃなくてnfs接続で使ってるけどちょっとバックアップかけただけで簡単に100MB/s強出て溢れるので マルチパス?とかでどんどん増やせるならNIC買ってこようと思う
492 :
名無しさん@お腹いっぱい。 :2013/01/27(日) 19:56:38.77 ID:qU3BAhTm0
そりゃバックアップなら読み書きが追いつく限り帯域使うだろw それが嫌ならQoSかけりゃいいんじゃねーの つーか、複数サーバ同時起動すると遅くなる云々とはこれまた関係無い話だな
>>489 サードパーティのMPIOなら負荷分散とか機能もったのは有るね。
だから、
>>488 では、ESXi標準のMPIOと書いた、一応。
まぁ、NetAppとかEqualLogicとか、でっかいストレージ用しか見たこと無いけど。
個人から小規模の構成だと、まず外れる構成だから、
マルチパスでの帯域増加は考えるな、単線の速度上げろって方向で
良いと思うけどねー。
MSのMPIOも負荷分散あるしょ Win2008R2 から標準
あ、出す側か
target側が幾ら対応してても、initiatorである、ESXiが要求しなきゃ動かない訳でw ESXi標準のMPIOだとActive-Activeの場合、 ラウンドロビン・固定・動的割り当てしか使えないからねー。 SAN構成でストレージの帯域がーで困ってるなら、 さっさとFC or 10GbE行っちゃった方が楽なんじゃないかな、直結なら特に。 ストレージ側の構成にもよるけどさ。
FC or 10GbE 共にまだ高いね 10GbEあればSATA6Gよりも転送速度の方が速くなるんだったけ? そうなると・・・やってみたいな 何処まで速度が上がるのか、ESXiとは関係無いが ディスクレスが作れる
>>486 ストレージもIBで繋げるほうは流行ってる気がするが、
さくらとか東工大とかトラブルも聞くんだよなあ
>>476 自分はwondershare streaming audio recorderというのを入れてる。売り物だが、Free Tria入れれば、ドライバ部分は生き残る。
これでsplashtop streamerを入れると、splashtopを動かした端末に音が出るようになる。なおWindows8では、これがインストール
できないので、NETDUETTOβを入れたら、同じように音が出るようになった。
実際SSDでRAID6なり10なりで構成した場合でも エラーも出さずに知らない間にデータの一部がロストしてる事ってありえるの?
>>500 基本無い・・・と言うのが大前提
その前提が崩れると色々大変な事に
昔昔、あるディスクにデータ保存すると
知らない間にデータが消えていくと言う現象は有ったけど
ありがとう 仮にSSDの書込み寿命が来てエラーが同時に多数のディスク出る可能性ってあるのかな? RAIDの場合書込み寿命も均一に来そうな気がしてしまう
HDDの障害には幾度となく遭遇してるから何が起こるかは分かるんだけど、 SSDの障害を経験したことが無いんで何が起こるかも分からず、なかなか導入できずにいる。 SSDって書いた後にべリファイしてるの?
>>500 定期的に整合性チェックしてるなら基本的にない
整合性チェックしてないならある
サイレントクラッシュでググるといいよ
>>496 ESXiのデフォルト設定では2本でMPIO構成しても瞬時で
交互にNICを使わないだけで設定変更すれば交互に使わ
うようにはなる。
esxi mpio iops 1 でぐぐれ。
intelなり Broadcomなりが LACP対応してくれれば、一番イイんだけどね。
>>497 どういう観点で高いと言ってるのか分からんが
企業でFC使うような場面だったら、割高感はあるがそんな激しく高いわけでもない
個人で使うのだったら、eBayあたりで中古のSilkworm買うと安い
>>498 HPC方面では昔からIBが良く使われているが、企業ではさっぱりだな
ストレージ製品のバックエンドで使われてるくらいじゃないか?
FCoEを使ってる話だったらたまに聞くが
>>493 小規模だとHDDでは帯域以前にIOPSが出ない。
少数のSSDだとIOPSは出るが容量が全然足りない。
multi tieredにすればバランスを取れるが、それが出来るのは
それなりの値段がするストレージ製品しかないからこれも外れる。
大規模な環境でiSCSIでの構成に無理が出てくるくらいだったら
当然FCが最有力の選択肢として上がってくる。
何にしても、SANは駄目だDAS最強、なんて話にはならんでしょ、常識的に考えて。
MS的に今のおすすめは 2012ServerのiSCSI使えって感じかも プラス重複排除使えて結構おいしいかも?
ただでさえvmfsっていうファイルシステムが間に入ってるのに、iSCSIだとさらにターゲット側のファイルシステムが入ることになるのが、 なんだかコレジャナイ感が。 IB,FC系と10GbEは住み分けされくと思う。
>>512 ターゲット側に直接パーティション割当とかではダメ?
個人的にはどうもiSCSIターゲットにファイルと言うのが怖いんだよね
1Tとかの大きな用量になればなるほど
個人で10G使ってみたいよな〜資金を貯めないと
vMotion使わないならSANは無駄
MSのiSCSIターゲットはvhdファイル経由だけど LinuxのietやFrerNASならファイルでもデバイスでもターゲットにできるわな
NTFS上のvhdファイルを重複排除できるならメリットある気がするけどな
>>505 ほぉ、こんな設定がって、非公式設定かい。
1iopsごとに切り替えか。チューニングパラメーターとして公開してないって事は、
どこかに罠か地雷があるのか・・・その辺の挙動も見てみたかったが、
残念ながら今うちにESXiの環境がねぇ、Hyper-Vに乗り換えちまった。
>>510 MS的には2012 ServerでHyper-V+SMB Directかと思われ。
一応iSCSIとNFSも付けておくから、vSphereでも使えるよ!って位。
ただ、MSの標準iSCSI targetは遅いって話しをちらほらと。
>>516 2012 Serverの重複排除の事を言っていると思うけど、
スナップショットやバックアップのデータ削減には良いとして、
稼働中のVMイメージ置くのは、ちょっときついんじゃないかなぁ、あれ。
・MSのiSCSIターゲットはキャッシュ無しで同期書き込みっぽいので、 同一ハードなら一番性能が低くなる。 ・2012の重複排除はスケジュール実行型。 指定したスケジュールに排除処理を行う。
Window ServerのNFSをESXiのデータストアにしたらシンプロビジョニングできずに泣いたのは俺です NTFSのスパースファイル機能があってないようなもんだから当然なんだけど
Thin Provisioningとスパースファイル? 何か勘違いしてない?
519じゃないけど、シンプロビジョニングで作ったイメージはスパースファイルとして保存されてるんじゃないの? ext4ボリュームをデータストアにしたときはそうだったけど。
リモートファイルシステムとローカルファイルシステムの関係もわかってねぇし。 話にならねぇ。
>>517 非公式じゃなくストレージベンダ側の資料で推奨設定として
載ってるものもある。
日本語のサイトにはほとんど情報がない。見たこと無いw
>>521 Thin形式はESXiが必要なデータ量分のデータファイルを作ることで、
スパースファイルは中身が空のファイルの場合、実データが来るまで
ファイルシステムが領域を確保しない仕組みなんだが・・・
この違い分かってる?
まぁ、分かってないから、ちんぷんかんぷんな話してるんだろうけど。
>>524 ESXi の他には VirtualPC を使ったことがあるけど、それで言うところの可変容量ディスクに相当するのが
シンプロビジョニングと言ってるんかな。
ファイルフォーマットとして使用中のブロックのみを含むような構造を持つ。
そういうものならそれでいいんだけど、ext4ボリュームをNFSマウントした領域をデータストアにした時には
作成するディスクのタイプがシンプロビジョニングしか選べなくて、出来上がったイメージファイルは
スパースファイルだったんだけど、ESXi が相手先ストレージに合わせてシンプロビジョニングの実現方法を
変えてるってこと?
526 :
525 :2013/01/29(火) 18:53:33.55 ID:nnsGt+M50
ファイルサーバ側でコマンド叩くとこんなかんじ # ls -lh react32-flat.vmdk -rw------- 1 nobody nogroup 4.0G 2013-01-10 21:11 react32-flat.vmdk # du -h react32-flat.vmdk 188M react32-flat.vmdk サイズ 4GB なフラットなディスクイメージだけど、188MB だけ使ってるスパースファイルになってる。
>>500 ある。サイレントクラッシュに対抗するには例えばZFSとかMSのなんだっけか、ともかくチェックサムを取ってるFSにした上で冗長化構成にしておく必要がある。
安鯖+RAIDカードでRAID5したものをZFS公開してvm置いてたときに急にエラー出たと思ったらZFSがチェックサムエラーでファイル破損報告挙げてた。
ZFS側で冗長性無かったのでvmdkごと捨てるしかなかった。ZFSじゃなけりゃ気づいてないだろうけどw
SSDもHDDもコントローラが狂ったら涼しい顔して異常なデータを吐いてくることはあるよ。
記録メディア以外にも転送時やメモリ上でビット化け起きるよ。ECCだいじ。
>>505 これおもしろそうだな。実際どの程度帯域増えるんだろ? ESXって3本以上のmpできるんだっけ?
>>517 2012 Serverの重複排除がアクティブな(openされてる)vhdファイルにも効くのかどうか気になってるので誰か試してみてほしい
スケジュール実行型だがCLIで即実行かけられたはず。
>>519 ntfsはスパースちゃんと対応してるよ。
nfsならESX側はfpすっ飛ばして書いてるだけだろうからntfs側とやりとりする際にwinのnfsサービスがヘタしてたとかそういうことか?
もう圧縮ONにしちゃえw
ESXi上でシンプロのvmdkファイルを作りたくても、NFSデータストアの場合は実装がNFSサーバ任せなのでできるとは限らない ext4+NFSの場合はシンプロがスパースファイルで実装されるが NTFS+NFSではダメ(シックしか選べない)
いい加減な書き方で失礼しました NTFSがというよりその上位層(NFSサーバ)がvmdkをスパースにしないだけですね
>>529 おれはむしろシックで作りたい時にシンしか選べなくて微妙にストレス感じてる。
いくら NFS任せとは言え、シックの Eager くらいできても良さそうなのに。
遅すぎるので自粛してるのかもしれないけど。
あえてシックにしたいと思ったことはないなあ
Express5800 GT110eでESXi5.1aをUSBメモリから起動して、vSphere clientで 空き容量がある500GBのHDD(うち100GBはWindows Server 2012で使用済み)に データストアを作成しようとしたところ、空き容量を使用するオプションが表示されません。 空き容量があることは認識しているので、これをデータストアとして使いたいのですが、 解決策を知っている人いませんか? この状態でも処理を進めていけば、HDD全体をデータストアにすることはできるようです。
>>528 Windowsはスパースファイルを作るときには DeviceIoControl でスパースファイル化を明示してやらないといけないんだよね。
NFS経由だとこのフラグを立てる機会が無いんじゃないかな。
>>535 NTFSにスパースの機能はあっても、アプリ・ミドル・各種ツールから気軽に利用できる形にたぶんなってないんだよね
なんか隠し機能みたいでMSも積極的に推進してる気がしないし
Linuxでスパースファイルをtar.gzしたファイルをWinRARとかのアーカイバで解凍すると実サイズになってうわあ(エラーだったかも)だけど、アーカイバがうまくやればNTFSスパースにしてくれるんだろうか
以前そういうアーカイバを探して挫折した覚えがある
>>534 パーティションを切ってないというオチはないよね?
>>536 XP だと大きなホールを一度で空けようとするとそのアクセスが失敗するバグがあったりして使いづらいんだよね。
スパースファイルコピーツール作ってるときにハマったのを思い出した。
NFSのプロトコルでスパースファイルが規定されたのはv4.2だぞ。 一方ESXiは5.0でもNFSv3までしかサポートしていない。 5.1の情報は見つかってないけどおそらく5.0と同じだと思う。 ESXiが明示的にNFSサーバ上にスパースファイルを作成する方法は 存在しないはず。
>>528 調べたらopenしてるファイルは無視されるっぽい
vhdのスナップ作ったらいけるかもしれんが
安心して使うならバックアップぐらいだな
長時間にわたって開いていて絶えず変更されるファイルや I/O 要件の高いファイル (実行中の仮想マシン、ライブ SQL データベース、
アクティブな VDI セッションなど) に対する重複除去は推奨されません。
重複除去は、経過日数が 0 日のファイルを処理対象とするように設定することができます。そのようにしてもシステムは正常に動作しますが、
開いたままのファイルの最適化はスキップされます。絶えず書き換えられるファイルや近い将来書き換えられるファイルの重複を除去するためにサーバー リソースを使うことはお勧めできません。
データの変更で重複除去が完了しないケースが生じます。ファイルの最小経過期間の設定を既定値から 0 に調整する場合は、そのようなケースが頻繁に発生しないことを必ずテストしてください。
書き込み操作のために絶えず開いているファイルは処理されません。
つまり、選択した重複除去ポリシー設定を満たしたファイルの処理を最適化ジョブが試みたときに、そのファイルが閉じていなければ、重複除去の削減効果は得られません。
>>537 空き容量としては認識されているのでパーティションは切れているはず。
だと思いますが、間違ってますかね?
今日は2回落ちた。1回はパープル画面でて、PCPU 2 locked up. Fail to ack TLB invalidate (total of 2 locked up, PCPU(s): 1,2). なんでだろ(ESXi 5.1.0)。
nfsでroundrobinする方法とかないのかなぁ
>>540 MSはいったいvhdの重複排除をする気があるのか無いのかw
どういう場面で活躍するんだよその仕様
>>543 Fail to ack TLB invalidateつーとハードウェア不良に見えるが、
ハードウェア構成ミスやソフトウェアのバグでも出るからそれだけではなんとも
547 :
名無しさん@お腹いっぱい。 :2013/01/30(水) 23:50:32.59 ID:+PitcZ4w0
パープル画面いままで見たこと無いんだが。 HWによるのだろうか。 ちなみにHP製サーバでローカルディスクのみ。
>>547 ハードがぶっ壊れなどの原因で出ることもあるし、
F/WのとBIOSの設定で出たことも。
ドライバが原因で出るってこともある。
>>545 >>548 そうなんですよね。公式KBでもハードウェアまたはソフトウェアが原因とあって、何から手をつけていいやら…
Phenom X6 1090TからFX 8350に替えたのが原因かなあ…
ハードの故障の可能性はかなり低い ソフトが原因だと思うけどそれだけでも幅広いな
>>547 5.0で作ったイメージをそのまま5.1で動かしたら
ゲストOSシャットダウン時にパープル画面が出た orz
5.0の時は一度も見たこと無かったのに
間単にパープル画面が出るような気がする
運が悪かっただけだろうと作り直したけど
ゲストが何やってもホストは落ちないで欲しいところだけどな そういうのを期待しての仮想環境と言ってもいいくらいで
提供可能であればVMware社に提供してみたら? 5.1のバグのような気もするし
esxi上でzfsを運用してる人が多そうなのでちょっと聞くけどどれくらいCPUとかメモリ振ってる?
esxの下に使おうとしてますが
上で運用より下で運用する方が多いと思うけど。 ちょっと前のOIをP4の頃のXeonとメモリ8GBで。iSCSIのみでたっぷり負荷かかってもただ遅くなるだけのド安定。 複数の仮想マシンでベンチを同時に回してもどれも止まったりしないしベンチの動いてない仮想マシンも普通に動いている点はすごいと思った。
OIってOpenIndiannaか うちは今i3-530とメモリ8GBのFreeNASで作ろうとしている
とんがった性能より負荷耐性が一番だよね。 予算が出来たら仮想ホストを新調して今の仮想ホストをストレージ鯖にするんだ…メモリたっぷりだからさぞかし堅いだろう。
Solaris, OpenIndiana, FreeNAS, FreeBSD, ZFS on Linux(CentOS)で、 1, 2, 4, 8, 12, 16, 20, 24GBとメモリサイズを変えてながらベンチマークテストしたら、 どれも8GBでほとんど数値が変わらなくなった。 iSCSIターゲットでもだいぶ数値が異なるけど、 Solaris,OpenIndianaにのってるCOMSTARを使うのが一番数値が良かった。 それで、自分はOpenIndianaでメモリ8GBの設定にしてる。
FreeNAS8のistgtはログにwrite errorとかボロボロ出まくったので怖くなって使うのやめたわ
ESX5って、ホストに積むメモリに制限ってありますか? エディション見ると、スタンダードとか、エッセンシャルとかあるのですが、 エッセンシャルは、ホストのメモリが32GBまでとか制限あるのでしょうか。
>>561 無償版は 32GB制限、有償版はどのライセンスも制限無しだったような。
しかも、32GBを超えて搭載済みのマシンには ESXi を導入しようとしても有償ライセンスを求められて、使えない。
>>562 一般が使うには32Gあれば十分だよな
と言うか ESXiは他社と違って無償で使える機能が
十分すぎる気がする
製品版買わなくても結構使えるし
使い手増やして大規模な場所で導入してもらうのが狙いなのだろうか?
俺も十分だと思うが、Motionして遊びたいだけの人向けの 安価なライセンスが正直欲しかったりしてる・・・
無償版に関しては、なんも考えてなさそうに見える 無償版とEssentials Plusとの間に横たわる巨大なギャップを 「無償版触ってみましたあ」で飛び越えられるとも思えんしなあ
今後の無償版の扱いがどうなるか不安ではある。 HypervisorとWebClientが使える売り切りパッケージ出してくれないかなぁ。 2万までなら出す。
567 :
名無しさん@お腹いっぱい。 :2013/02/02(土) 11:32:24.01 ID:BISbyYjg0
esxiをusbメモリにインストールするとして そのusbメモリがとんでもなく糞だったら 全体のパフォーマンスに影響する?
>>567 必要なコンポーネントは起動時に全部読み込まれてたと思うので、
起動出来れば問題ないハズ・・・
400円位の怪しいUSBメモリ使ってるけど、特に問題は出てない。
>>568 そそ、全部読み込まれてオンメモリで動いてるみたいだね。
間違ってそのUSBメモリが刺さってる USBコントローラをパススルーしちゃって大変な目に遭った。
起動して一見ちゃんと使えるんだけど、その頃にはUSBコントローラがホストのものじゃなくなってて、設定類が一切書き込めなくなる。
だからパススルーの解除もできなくて、結局再インストールした。
>>569 バッファロとかの書き込み禁止機能のついた USBメモリから
起動できるなら使い途によっては凄い便利かも?
>>567 vm毎の設定とか含めて全部USBに書き込まれる。
よって管理操作時の動作速度が異常に遅くなる。vm自体の速度には影響しない。
ついでにヘタなエラーで読み書きできないとか、読み込んだデータが異常だと紫画面
普通のメモリならまず問題ない。
とんでもなく糞ならばとんでもない遅さになりとんでもない確率で不安定化する
>>571 とんでもない遅さを感じたことは無いなぁ
まあ安物ではあったけどとんでもく糞ってわけじゃなかったのかもしれんが、
そんなに頻繁に設定なんていじらないし設定ファイルもデカいものじゃないでしょ
データ化けのリスクを覚悟しておけば割と実用だと感じたけどな
swapとかバッファとかでusbに書き込むなんてことは無いかね。 実メモリ以上を仮想に割り当てたときなんかも。
syslogはどう扱ってるんだっけ
>>573 USBストレージ上にはデータストアが取れないから別途ストレージが必要なわけで、
そういったファイルはそっちへ書かれるんじゃないのかな。
>>574 それは USB に書かれてそうだな。
確認はしてないけど、データストアを登録する前からsyslog動いてるよね。
>>573 スワップって、ゲストが所属するデータストアに描かれるんじゃなかったっけ。
swapとかでUSBメモリに書かれることはないよー(設定して使わせることはできるかも)
syslogかどうか調べてないけど定期的にアクセスしてるよー
糞メモリで運用中に原因不明の強制リセット食らったことなら何度かあるよー
>>572 小さなデータがさくさく書き込めて正常に読み書き出来てるならそれは普通に正常なメモリじゃー
スワップは ・デフォルトデータストア(ESXiホストで設定) ・または仮想マシンのvmxのあるフォルダ のどちらかに設定できるね syslogくらいかね不安は
esxi5.1でNTPのシンクロ成功可否ってどこでわかる?vCenterでログでなくて。
コンソールに入ってntpdate通ればOKじゃね
サンクス。やっぱコンソールか。 vCenterのいみないばい(震え声)
ntpd動いてる状態で ntpdateは拒否されるだろ 普通は ntpq -p で同期状態を確認する
ntpdateがあれば-uでいけるだろ あれば、の話だがw udp 123をキャプチャすればバッチリ
ローカルHDD×2をSATA接続してるんだけど 使ってないHDDスピンダウンしてくれないのかな
試してみたが、ntpqはあるが、ntpdateは入ってない
syslogはデフォルトだと記録しないようになってるような。5.0だけど。 うちは、ローカルディスク無しでPXE BootでESXi使ってるから何も書込みされない。 設定先行したら、純正のPerlスクリプトで抜き出して、bootファイルちょっと修正する感じ。
4のころからそうだけど、ESXiはsyslogは設定しないとリブートで消えちゃうから マウント済みのデータストアなり外部のsyslogサーバーを指定する必要がある。
USBではないが、起動兼データストア1のHDDが死んでしまったとき そのデータストアへのアクセスができなくなっただけで 他のデータストアにあるVMはピンピン動いてたよ だから起動したらもう起動メディアにはアクセスしてないものだと思ってた
それ設定どこに保存されるのさw
>>590 設定ファイルは最初にメモリーに展開され、書き込み再読み込みなど無ければ
ディスクにアクセスしないからでは?
新規にゲスト追加や設定変更しなければデータアクセスしないかも
ゲストOSの情報は保存先で壊れたストレージと別なら問題は無いだろう
しかし、STATの速度が予想以上に出ないな
何か早くする方法は無い物か
パフォーマンス見るとディスク書き込みが100MBsぐらいなんだよね・・・
で ディスクの性能見たら STATの性能よりディスクの性能的が問題だった orz
ちなみにパフォーマンスに出てくるKBはキロバイトで良いんだよな?キロビットでは無いよな?
パフォーマンスのネットワークの方はKBと書いてるが、ネットワークアダプタの速度はMbと
大文字小文字は分けているみたいだし
esxi5.0、5.1でWD赤3TBのHDDをゲストのWindowsServer2012EssentialsへRDMで渡したら 認識はするんだけど記憶域プールには追加出来なかった WD赤2TBのHDDなら問題無く追加出来る 単体なら使えそうだけど、このOSは記憶域作ってなんぼのもんだし こんな所に2TBの壁があるとは
>>595 サーバーOSで使える機能じゃねーな
8専用にすればよかったのに
SSDでRaid組んでデータストアにしようと思ってるんだけど、 たとえば、500GB*3でRaid5組んで1TBのデータストアを作ってた場合に、 1台故障して同じSSDが用意できず、1台が490GBになった場合って 980GBでリビルドってされる? ちゃんとしたストレージ筐体買っとけば、部品が無いって心配はあまりしなくても いいんだけど、検証用に安価に構築したいんだよね。
Raidコントローラの仕様によるけど 減る方向だとまず無理だと思う
壊れるころにはもっと大容量になってるだろうけど リビルドじゃ無理だろうね 検証用ならデータ逃がして再構築すればOK
HPAでSSDの見かけの総容量を450GB位にしてRAID組めばおk
>>597 RAIDを組んだディスクよりちっこい容量で、リビルド走るコントローラは聞いたことない。
リビルド対象の接続IFを無視する事ならあるけど。(SASの600GBで組んだRAID、
GHSとして1TBのSATA玉設定して置くとリビルド走る)
>>597 Drobo B1200iだったらそういう挙動になるんじゃないかという期待はあるが
試したことは無いので分からん
>>597 ZFS の RAID Z とか Win 2012 の記憶域スペースなら出来るんじゃないかな
>>603 ZFSでも元HDDより小さい玉へのリビルドは無理無理。
一般的なRAIDでは、ハード・ソフト関係無く。
小さい容量のHDDへのリビルドなんて出来る物無い。(はず)
記憶域スペースはどうだっけ、出来たような気もしたけど、
条件とか調べてない。
ただ、記憶域スペースはVMのストレージとして使うには
性能的に微妙じゃね?って気が・・・
>>600 発想は面白いけど、実容量を超えて HPA設定できる HDDなんて存在しないよw
最初にRAIDを組むときにあらかじめHPAで容量を削っとけって話だろ
607 :
597 :2013/02/07(木) 20:41:30.13 ID:pqMw6PZX0
やっぱ、減る方向は基本的には無理か。 けど、たしかに壊れる頃には大容量のディスクでてるからあまり気にしなくてもいいのか。 こんな感じで考えてみるわ。 500GBのSSDを450GBくらいにしてRaid5か6を構築。(可能であれば) 予備筐体をHDDで用意。(コールドスタンバイ) SSD故障時は、予備筐体にStorage vMotionさせる。 新しいSSD差してデータストア再構築。 予備機からStorage vMotionで戻す。
RAID構築するならhot swapでいいじゃないか。
というかMax取らない方が予備領域が増えていいと思うし運用上安心できると思う。 てことで、500GBの買って450GBとかにすることをお勧めしますん。 予め用意された領域が使い果たされてSSDがお亡くなりになるより、50GBの予備領域のアドバンテージがあるのでデフォルトより長生きするかと。 SSDはサイズ異なるものが多いので、それに対して対処できる利点も大きいですし。
>>609 さんの説明は素晴らしい
でも「しますん」とかミスリードしそうになるからやめて欲しい。前後の文脈でわかるけど。
技術屋として誤解されるような言葉を使うのは失格だな 本人かっこいいと思ってやってるんだろうけど頭の程度がしれる
いくらなんでも「しますん」って書いて 「俺って格好いい」とか思うやつはいないだろう。
すみません、VMware playerからvSphereに移行しようと思っているのですが、 ゲストのWindowsXP pro上でWORKGROUPが見えません。 ゲストのWindows8proではWORKGROUP上のマシンが表示され、他マシンの共有フォルダにアクセスできます。 player上では特に何も問題なくつながったのですが、vSphereにしてから見えなくなりました。 だれか詳しい人教えてください。。。
エスパーたすけてー
ゲストXPのセグメントが違うとか 異なるvSwitchに設定していて繋がってないとか
ping 送って帰ってくるかどうか arpでMACアドレス表示されてるかどうか winsは利用してるかどうか \\IPアドレス\共有名 で直接IPアドレスでアクセスできるかどうか せめて通信できないのか名前が引けないのかぐらいは調べたほうがよい
みんな。エスパーかよ?
>>618 この手は皆経験している事が少なからずあるからな
それらの経験から予測しているのだろう
OSによって違うと言う事はネットワークの設定だろう
確かE1000とかフレクシブ(何か違うな)とかの設定があったし
あそこ変えると上手く行くと言うこともある
とりあえず、もう少し状況を詳しく書くべきだろうね
ネットワークの割り当て方法やホストから見たネットワークの設定
ドライバーは認識されている事の確認だろう
まずは、ゲストOSの状況確認 問題が無ければホストの設定見直しかな
Windows XPとVista以降との共有は物理マシン同士で普通によく躓くところだし、 あれだけの情報では可能性が広すぎてなんとも言えん
VMware Playerって標準状態ではNATになるのか? もしそうならXPはDHCPでIPが取得できなくなった事が原因。 Win8はIPv6でつながっているから使えている。 と予想。
>>618 三連休でやること無いから答えてるんだろ。
質問の難易度も低いから答えやすいし。
「みんな!エスパーだよ!」 に引っ掛けてたりして
XPの共有をはずして再度共有するといけるはず 俺もそれでつまいずいたことあるからw
現在、HP Proliant ML110 G7にESXiをインストールしています。 2TB超のRAID1+0を使いたいのですが、どのRAIDカードが対応しているか分かりません。 安いのでHighPoint RocketRAID 640Lを使いたいのですが、動作確認も探したところないようですし。 RAID1をしたいだけなのでオンボードでRAID1を2つ作ってdatastoreを2つ使おうかとも思いましたができれば一緒になっているほうがいいです。 datastoreを2つのドライブにまたがって作ることはできませんよね? またどのメーカのRAIDカードならだいたい動くとかドライバ組み込めるとかありましたら教えて下さい。 よろしくお願いします。
ESXiでのRAIDはねぇ・・・それもG7か。 標準のHDDケージ使うの? 奴のHDDバックプレーンは、確かSFF-8087で出てたよーな。 LSI辺りのHBA使うのが手っ取り早いんじゃないんかねー。 つか、自分ならそうする。新品だと2,3万かかるかもだけど。 >RocketRAID 640Lを使いたい SoftRAIDは無理なんで諦めてー、オンボード含めて。
>>626 ここ見て探してみます。ありがとうございました。
>>627 標準のHDDケージを使う予定です。
2TB*4のHDDで4TBのボリュームを作りたいです。で、冗長性は確保したいです。
オンボードで4つ認識させてESXi側でミラーリングってことはできないんでしょうか。
RAID5.6を使いたいわけではないので、ハードウェアRAIDを買うまででもないと思ってます。
HBAってただ接続できるドライブの数を増やすだけですよね?
オンボードでインターフェースの数は足りると思うんです。
HBAを買ったとしたらどういう構成になるんですか?
>>628 ESXi自体にRAIDを組む能力は無い。
ディスク毎VMDK作って、VM上のOSでソフトRAIDって方法もあるっちゃあるが、
俺はやりたくねーw
HBAつーても、LSI SAS 9211-4iとかね。
RAID10までならこの辺りで使えるし、内部コネクタSFF8087だから、
G7のオンボコネクタから外してつなぎ替えるだけだし。
MegaRAIDの場合カードのBIOSが立ち上がってくれるかどうかって問題が残ってるけど。。。
そこさえクリア出来れば、ESXi用メーカードライバ有るし、安心して使えると思うんだがなー。
ま、安さ優先の場合だが。
パフォーマンスはRAID10使うにしてもキャッシュのったRAIDカードの方が
恐らく良い、その分高いけど。
>>629 そういえばML110 G7のコネクタはそうでしたね、すっかり忘れていました。
お金に余裕はないので、HBA購入の方向で検討してみたいと思います。
パフォーマンス下がるのはちと嫌ですが、単独1ドライブよりきっと速度出ますよね!
相談に乗っていただきありがとうございました。
一番安く済ますなら普通のSATAカード買ってきて ゲストOSとしてFreeNASをインストールしてそれにパススルーして iSCSIターゲットをESXiで読み込むことだけど まあ慣れてないと難しいかも
ゲストでRAID組んでそれをホストで使うって、確かに安いけど猛烈に気持ち悪い感じ
>>631 構築時の手間やトラブルシュートにかかる時間もコストと考えた場合、
>>629 にあるようにHCLに載っているエントリークラスのHBAを
使うの方が最終的に安いと思われる。
構築の苦労やトラブルシュート自体を楽しみたいなら別だろうけど。
構築はそこまで大変じゃないけど、運用がめんどくさいな。 ゲスト動いたままストレージを落とそうとすると固まってどうしようもなくなるとか、 起動してないストレージにアクセスしようとして起動時に30分くらいまたされるとか。 自動起動も上手く設定しないとハマるし。
635 :
625 :2013/02/14(木) 14:48:27.37 ID:JBVj/WbK0
>>634 その起動時の30分の待ちって解決できないんですかね。
datastoreに接続するのを遅延させるとかできないんでしょうか。
RAIDカードに合うエンタープライズ向けのHDDを購入する資金がないので、デスクトップ用のHDD+FreeNASもいいかなあと思い始めました。
できるよ。FreeNASが起動したらスクリプトでESXiにsshでログインしてストレージのリフレッシュ(ここまで全部自動)。残りのゲストOSの起動はESXi開始5分後に固定してある。 問題はシャットダウンの方。iSCSIを使ってるゲストOSを全部手動で落としてからでないと FreeNASが落とせない。めんどくさい うちは貧乏なのでそういう構成で動かしてる。今のところ特に問題はない。 運用ノウハウが溜まるまで大変なので、手間や苦労も楽しみの一つと思えなければ ハードウェアRAIDカードを買ってきた方が良いと思う。 上記の構成は半分趣味が入っている
>>636 なるほど!ちょっと大変ですが、コストかなり落とせますね。
仕事でこいつを使う気ではなく個人的に技術向上のためにやりたいだけなので、その案も検討してみたいと思います。
つまり、
ESXi起動
↓
0秒後FreeNAS起動
↓
iSCSI有効化スクリプトをFreeNASのスタートアップに追加
↓
ゲストOSの起動
ということですね!
あとはパフォーマンスの違いですかねえ...
仮想マシン間に変な依存性ができたりレイヤが上下ゴチャゴチャだったりで気持ち悪いけど、純技術的には面白そうなのも確か ローカルデータストアにzfsスナップショットが使えるからsend/recvで差分バックアップもできそうだ ただいろいろ挟まりすぎて遅そう
いや全然遅くないよ。FreeNASとの通信がネットワーク通信ではなくただのmemcpyになるし。 家庭用サーバーなのでゲストOSが多くても5個だから本当のところは良くわからないけど 一応HDDx3のRaid-Zで冗長性と容量を確保してSSDをL2ARCに置いて速度を確保している(つもり)だけど正直良くわからん。 体感で不自由しなければOKと思ってる
ESXi起動 ↓ FreeNAS起動 ↓ ESXi on ESXi 起動 ↓ 以下略 で実験中。
メモリ32GB以上積めばスタンドアロンのESXi上に共有ストレージを含むミニマムなvSphere環境は作れる。あくまでトレーニング目的としてだが、、
FreeNASに割り当てるCPU時間を減らしてみればわかるけど、ZFSと仮想NICの 処理でCPUを使うので他のゲストでCPUを使うと性能が極端に落ちる。 後者はvmxnet3とかで少し軽減できるけど、賢い選択とは思えない。
それはCPUがしょぼいだけだw 今時のCPUならzfsの負荷なんてたかがしれている
>>643 Xeon E3だよ。
FreeNASに割り当てるCPU時間を制限してみると性能ガタ落ちになるよ。
どうしてもというならGuestのOSを直接iSCSIブートにしてゲスト->ホスト
依存を切って運用制限を減らすべきだな。
Xeon E3ならCPU1個割り当てれば十分だろ。2個割り当てれば完璧。 どこがボトルネックになってるかもっとちゃんと調べた方が良い
重複排除しなきゃ平気でしょ。 というか、他のゲストに食われて性能落ちるというなら、予約すれば良いのでは。
>>645 ちゃんと性能測定した上で話をしている。
うちではFreeNASをGuestで動作させているけどNICはPCIパススルーにしている。
仮想NICと違ってCPUが他に食われても性能劣化が最小限で済む。
>>646 性能を確保しようと思ったらZFSパリティ計算と仮想NICでThread 2を
それなりの割合で必要になる。NASにはもったいなくね?
dedupすると大変な事になる
仮想ホストのCPUを優先して割り当てるのはもったいないが、 別マシンを追加してそのCPUを使うのはもったいなくないという理屈が意味不明
> 別マシンを追加してそのCPUを使うのはもったいなくないという理屈が意味不明 そう読んだ思考が意味不明
もともとハードRAID(HBA購入)の代替案として出た話なのに いつの間にか別マシン別CPUにfreeNas立てるのとの比較になってる人がいるのか そもそも技術的には面白そうでも、そんな気持ち悪い構成常用したくない
ハードウェアRAID買えない貧乏人とか NASは欲しいけど常時起動PCを増やしたくない人とかいろいろ居るだろ
どうしてもハードウェアRAIDを買いたくなけりゃあ、俺ならQNAPあたりの安物NASにするな
readynas ultra2あたりから始めれば良いと思うよ VMWAREReadyだし
>>654 俺としてはQNAPの方が…。
いや、なんでもない。
VMさんも公式にやってるし、 アプライアンスもいくつか出ててVMさんの認証取ってるし。 そういう構成のものを気持ち悪いとかで否定されましても。 ちなみに、Readynasで認証取ってるのはビジネス向けだけだよ。
>>650 >>651 え、そういう話なのか?って流れ追ってみたんだが、
オンボか安いHBA追加でおすすめは〜
↓
一応、ゲストFreeNASから領域取ってホストで使える
↓
他ゲストでCPU使われると性能が極端に落ちるから賢い選択じゃない
>>642 この
>>642 の行間に、
「賢い選択じゃないからFreeNASを同じホストに置かないほうがいい」
zfs処理は他のCPUにやらせるべき=他PC使え」
って読めるんだが・・・
>>656 気持ち悪いってのは、ゲストで組んだzfs(ってかソフトRAID)をホストで利用する構成のこと
>>657 誰もそんなこと言ってないし
HBA代替の文脈を勝手に飛び越えてどうするの
>>659 じゃあ、
>>642 の
>ZFSと仮想NICの処理でCPUを使うので
>他のゲストでCPUを使うと性能が極端に落ちる。
>(略)賢い選択とは思えない。
なんだけどさ、彼は「同一ホスト上にFreeNAS置くとCPU負荷が〜」
は、どうすれば解決するって言いたいのかね?
>>660 当人じゃないけど
「FreeNASを使わなければいい」んじゃないの
どう見ても耐障害性も運用性もRTOも安定性も度外視した話をしてるんだし、 それならお手軽な製品使うのが楽チンでいいわなあ
ESXi5+freeNAS8で1年以上それなりに安定して動いてたんだけど、急にISCSIを見失うようになってしまいました。 ESXを再起動すると再度認識するのですが、しばらく稼働するとまた見失うの繰返しです。 freeNASのステータスではISCSIはhealthyとなっています。 助けて下さいm(__)m
面倒くさいから、 「ESXi の HCL 掲載 HBA 持っていない貧乏人は Hyper-V 使っとけ」 ってことでいいだろ。 これなら Intel オンボードのソフトウェア RAID でも使える。 Intel ソフト RAID0 + HyperV 2012 + ゲストWin8 で Crystal DiskMark を 走らせたが、けっこう速かった (数字は失念したが理論値に近い値が出た)。
FreeNASが極端に重いってことが言いたかったの?
>>642 が考えてる賢い選択とやらがどういうものなのか聞いてみたいわ
>>661 別に当人とは言ってないだろ
>ZFSと仮想NICの処理でCPUを使う
とあるので、FreeNASでなくて本家やopenindianaでもzfsなら変わらんでしょ
そしてFreeNASやzfsを使おうとするかどうかが彼の論点ではなくて
CPUが取られたら性能劣化するような方法・NASを同一ホストに置くな、
そういうやり方は賢くない、ってことじゃないの?
>>666 そこまではそれでいいんじゃないの。
ゲストの領域をホストで使うようなことは(彼にとって)賢くない。
だからって別マシンを持ち出せなんて誰も言ってないんだから
デメリットを我慢して使うのでなければ、
当初の文脈通りHBA買えばってことじゃないの。
それが普通の推測だと思うけど。
自分でも書いてるけどさ >ゲストの領域をホストで使うようなことは(彼にとって)賢くない。 これ、「別のを使え、別にしろ」ってことじゃん まあ、これ以上第三者同士で言ってても平行線っぽいから 彼の「賢いやり方」を待つわ
なんでそんなに文脈無視して別マシン持ち出したがるのかね
>>668 ゲストのFreeNASからホストのESXiにデータストア領域をサービスさせるときの問題点を2つ挙げた。
1. ホストをゲストに依存させると色々面倒
2. ZFS、仮想NICが他のゲスト負荷に依存して性能が不安定になる事
1はホストのESXiデータストアは小さくても良いから別に準備して他のゲストをFreeNASから
iSCSI直ブートさせれば、ゲスト間の依存のみにする事ができる。
2は少しでもCPU負荷を下げる努力(ESXi内はvmxnet3、外はVT-d利用)やゲストCPU割り当てに
よる最低性能確保等を考えるしかない。
と言いたいだけ。HBAがあれば1は解決できるからあった方がよいだろう。
>>625 が元レスで
>>638 から今の展開になったんじゃないの?
元々常用する環境じゃないけど面白いんじゃないの?程度のニュアンスで読んでたんだけど
いつの間にか常用前提の話にかわっちゃってるといういつものパターンでしょ
VSA ホストのハードウェアRAIDで作成された論理ディスク上の仮想ディスクと、 別のホストのハードウェアRAIDOで作成された論理ディスク上の仮想ディスクをソフトウェアRAIDでミラーリング。 それを自分自身と別のホストでマウント。
>>671 仮定の話を常用前提と思い込むのはどうかと思うが
>663 freeNASはESXiのゲストかそれとも別PCなのかはっきりしとい方が。 あと、NICは何を使って、どういうネットワークになっているかもついでに書いておいたらどうでしょう。 運がよければ親切な誰かの目にとまるかも。
>>674 2台構成で、ESXもNASもUSBにインストールしてます
nicはオンボードのカニです
安物のギガビットイーサのハブ経由で接続してます
>>669 自分でも書いてるように、ホストでNASの処理したらCPU負荷が重いから賢くないって主張なんだろ?
文脈としてそのようにしかよめなかったが。
>>670 これ
>>642 の賢い選択? 1はどこに書いてあったの?
> 仕事でこいつを使う気ではなく個人的に技術向上のためにやりたいだけ (
>>637 )
に対して2の性能面だけを理由にHBA買えって勧めてたわけ?
HBA買っても解決するのは1だけで、主張してた2は改善されないわけ?
>>676 >自分でも書いてるように、ホストでNASの処理したらCPU負荷が重いから賢くないって主張なんだろ?
>文脈としてそのようにしかよめなかったが。
そこまではいいんだって
そこから別マシン持ち出したらHBAの低コスト代替じゃなくなって意味がなくなるでしょ
だから誰も別マシンでNAS立てるって言ってないのに突如
>>649 が頓珍漢な突っ込み入れたのが発端
るでしょ。
だから誰も
676はお花畑の住人なの?
ESXiどういうソフトなのかピンと来てないが メインのPCにWindows7インスコしてその上に仮想PCのXP起動させておくってのを しょっぱなのメインのWindows7インスコの時点で仮想化して運用させるってことでしょうか スナップショット撮っていざいう時に戻せたら再インスコしなくて便利そうだなと思ったが そういう用途は出来ない?
この質問はほんと定期的に出てくるなw 気合いと努力で、出来ないことはない。 このスレでもその使い方をやれる事を理解してる奴は多いけど、 実際やってる奴は非常に少ない、ESXiの使い方としてズレてるから。 ESXiがどーいう物か理解した上で、必要な物をそろえれば出来るが、 情報は少ない。 人柱覚悟で壁にぶち当たっても自分で何とか出来るなら、 やってみればいいんじゃね?って所かな。
別にそんな質問をしてるんじゃなくて、
>>679 はベアメタルとかType 1とかの
言葉・概念を知らないだけのことだと思うが
>>679 スナップショット取っておいて戻すのは楽だし便利だが、まずはESXiってのは
どうやって操作するものか調べるほうがいいだろうな
>>679 メインのPCにESXiインスコしてその上でWin7やXPを動かすって事です
普通は更にリモート用のPCが必要です
>>679 ESXiがOS
しかし、ESXiはOS単体ではほとんど何もできないただの器
ESXiの上に他のOS(XPやWin7)をインストールする
ここにも一癖あって、他のOSをインストールするのに別端末が必須
別の端末はWindows系でなくても問題ないが、Windows系をお勧めはする
なので、ESXiを動かすには最低実機が2台は必要となります
スナップショットは戻せるよ
ただ、その間のデータは全て消えますけど
>>679 そういう用途ならバックアップ系のソフトの方が楽だよ
acronisのノンストップバックアップなら5分おきにバックアップとってるから好きなところに戻せる
VMWare Clientを放っておくとタイムアウトして切断してるんだけど あれタイムアウト無しにできないの? いちいちつなぎ直すのめんどくさい
>>686 それ、多分OSの省電設定です。
Win8なら設定変えないと、省電設定になってVmware Playerが休止します。
どこ設定すればいいのか、知りたければ教えるよ?
>>663 理由はわからないけど回復しました。
ゲストOS上のファイルをCIFS経由で別のESX以外のクライアントにコピーするとfreeNASのISCSIを見失うような症状だったのでそのファイルをゲストOS上で削除したら、他のファイルを同様にCIFS経由でコピー、移動しても問題なくなりました。
この場合仮想ディスク作り直したほうがいいですかね?
689 :
686 :2013/02/19(火) 19:09:25.36 ID:oIrr2XwS0
>>687 Win8じゃないしPlayerでもないし、全く関係ないので近寄らないでください
もうこいつには近寄らない方がいいな
Windows系OSはデフォルトの省電設定ではvSphere Client でも休止するんじゃない?Playerの類推だけどねw
Winでは「コンピュータをスリープ状態にする」がデフォでは分指定で 設定されています。これを「適用しない」にするとOKですよ。 実際Playerの仮想マシンはWinのスリープ指示で休止します。 ESXiの作成する仮想マシンもおそらく同じでしょうね。 私はESXiのゲストにLinuxしか入れてないのでわかりませんがね。 何故、正当な回答してるのに近づかないの?w
vCenterにつないでるがタイムアウトした事は無いぞ
vSphere Clientの話なんでしょ?おそらくは… それはただ単なるRDPでしょ?ESXiの仮想マシンがWinの指示で休止するんでしょ?
Win8以外の他のWindowsは知らないが、Win8はデフォでスリープが設定されてます。w
ちなみにVirtualBoxの作成する仮想マシンはWinからの指示で休止しないはずです。
ClientをインストールしたマシンとESXiホストの接続の話であって、 ゲストOSのことなんてこれっぽっちもカスってさえいないと思うぞ。
698 :
686 :2013/02/19(火) 22:50:49.57 ID:oIrr2XwS0
えっと
>>697 が正解です
ClientそのものがESXiから切断されるのでゲストOSは全く関係ありません
従って
>>692 みたいに親切から教えてくれてるのは分かるけど
全く見当違いなので正直レスの無駄使いなので帰ってください
Clientを常時ログイン状態でキープしたいんだけど切断されるよね?
>>698 スリープしたらどうなるかわからんけど立ち上げっぱなしの管理端末では切れてないよ。
自動切断設定とかあったっけ…
されない
>>698 勘違いごめんなさい。
vSphere ClientのESXiへのログイン状態はESXiがシャットダウンされない
限り続くと思われますが…
それが途切れるとは…
でもESXiのゲストはRDPの仮想コンソールが切れても稼働はしてるんですよね?
ESXiとCliant間のネットワークが切断されたということじゃないのかな そのへんで調べてみたらいいのでは ちなみにCliantは自動で切れるようにはなっていません
ESXiとClientの間のfirewallとかがセッション監視して切断してんじゃね? 直接接続でも切れるならログに何か出力されると思うけど
>>702 clientくらいちゃんと綴れないとあとで恥かくぞ。
すまんすまん 寝起きだったもんで
編集→クライアント設定→全般 にタイムアウトの設定があるね。 カスタム値にして長めにしてみるとか。
こんな傲慢な質問者に対して終始丁寧に回答する卑屈さに驚いた
まったくだ。 用語も正しく使えない。状況も正しく説明できない。態度も悪い。 無視すればいいのに。
709 :
名無しさん@お腹いっぱい。 :2013/02/20(水) 15:17:18.72 ID:vlXMEp+w0
低脳はこの世に不要 今すぐ全頭殺処分しろ
>>706 設定できるのは1-600秒だから10分でタイムアウトだね
Clientは基本的に操作してなければ切断されるのが仕様
autoHotKeyで3分毎にマウスを動かすスクリプトでも書いとけ
>>710 設定変更してなければ自動切断されないよ。
>vSphere Client のタイムアウト間隔の変更 >デフォルトでは、vSphere Client のアクションは、ホストまたは vCenter Server からの応答がない場合、 >30 秒後にタイムアウトします。クライアント設定ダイアログ ボックスを使用して、デフォルトのタイムアウト間隔を変更できます。 何らか操作を行ったときにサーバーが反応しなかったらどうするかって設定かな。無操作時の自動切断では無いね。 というか負荷状況見るためにモニタ立ち上げといたら30秒で強制切断なんてあり得ないだろ。
vSphere Clientを起動して1時間ほど放置してみたけど切断されないよ。 切れるって言ってる人のネットワークの問題じゃないの?
一定時間操作がないと切断されるよ。 自分でWebServicesを使うアプリ作れば確認できる。 vSphereClientが一定間隔でコマンド発行してるから、 ユーザからは何もしなくても切断されないように見えるだけで。 あとは、vCenterへの接続やWeb Clientだと、 デフォルトのタイムアウト値があるみたいだね。 まあ、何にせよ、バージョンとかわからないまま、 なるならない言い合っても仕方ないんではないかと。
vSphereClientの話してるのに・・・ タイムアウト値は通信不可になった時のどのぐらい待つかの値でしょ
常時起動してるゲストにvSphereClient常駐させて放置してるけど切断されたことはないな
>>714 >>716 Web ClientやvCの話はしていないだろ。
vSphere Client inactivity timeoutでググれよ。
切断されますん
デフォルトで切れないよん
Esxi5.0.0の一部の物理NICにLANケーブルを接続せずに、運用していて、 途中で新しいネットワークのLAN接続が必要になったので、 そのNICにLANケーブルをハブにつなぎました。 NICとハブはリンク状態になり、vSphereのEsxiステータスを確認しても、このNICは1000BASEでリンク中になりました。 しかしこの物理NICとつないだ仮想ハブに仮想マシンをつないでも、 OS上でDHCPでアドレスを取得できないとか、静的にIPアドレスを設定しても、同じネットワーク上の別マシンにPINGできないとか、 うまく動作しないようです。 長期間運用した後なので、何かEsxiが内部的におかしくなっているのでしょうか、 それとも、再起動(あるいはnetworkサービスのrestart)をかけなければ、駄目なんでしょうか。
>>722 セグメントが違うとか物理NICが外に出てないってオチじゃないよね?
すこし説明が長くなってしまうのですが、お力をお借りできればと。(ESXiの問題ではない可能性もあります。) ・概要 特定のゲストからのみ、NASのフォルダが見えない。同じく、Webサーバのページが正常に表示されない。 ・環境 ホスト:ESXi 5.0(update02まで適用済み) 問題となっているゲスト:Windows7 Professional 64bit(SP1) それ以外のゲスト:WindowsXP Pro、Windows Server 2008 R2、2003 R2 Syslogサーバとして稼働しているLinuxを除けば、物理・仮想ともに一つの AD配下にあります。また、LAN内に関しては、特にネットワーク的な制限は行っていません。 ・詳細な現象 現環境には、ESXiと同じセグメントに設置された2つの共有リソースがあります。 A.Windows Server 2008 R2で構築したファイルサーバ(物理) B.NAS(QNAP 非Windows) この二つのリソースに、通常のPCやサーバ、前述の「それ以外のゲスト」から アクセスすると、特に問題なくファイルの閲覧や追加、削除が可能です。 しかし、「問題となっているゲスト(ESXi上のWindows7)」からアクセスすると、Bの 一定階層まで開いて、それ以下を開こうとすると、ネットワーク名は利用できないとい った旨のダイアログが表示され、アクセスできません。 ※ここまでの操作はすべて同一のユーザで行っています。 また、これに関係あるかどうかは不明ですが、当該のゲストで、LAN内にあるWebサーバ (QNAPの管理画面、L3SWの管理画面)にアクセスしても、ログイン画面が表示されなか ったり、ページの内容の一部が欠落します。同タイミングで、他の環境からアクセスしても正常に動作します。 (ゲストのWindows7のログをみても、特にエラーはありません。) このような状況なのですが、どんな原因が考えられますでしょうか? 非常に基本的なミスをしているようにも思うのですが、なにか情報を頂けると助かります。
>>723 そういうのではないです。
それを疑って、いろいろ試したので。
>>725 構成をキャプってみ
エスパー的な答えしかできんよ
>>724 NICがmarvellとエスパーレス
MTUを丸めると良いかもと妄想レス
仮想NICをe1000にすればと適当レス
LMCompatibilityLevel で解決したらぶん殴る
vSphere Web Clientが有償版でしか使えない vSphere Clientのリリースは 5.1.0 まで ってことは、今後バージョン上がった時は無償版ユーザは どうすればいいの?ずっと 5.1.0 の vSphere Clientを 使い続けるってこと?
そんなもん、その時になってみなきゃ分からんだろ VMwareに無償版を続ける気があるなら、Web Clientを使えるようにするんじゃねえの 新機能が限定された構成のみ対応で出てくるのは、この会社のいつものやり方だし 無償版は打ち切るのかもしれんがw
つーか、有償版でも(vCenterではなく)ESXiホストに繋ぐクライアントは 使用頻度は少ないとはいえやはり必要なんだし、何かしら出してくるはずだわなあ
>>727 INTEL PT 1000です。
>>728 そうなっております。
>>729 そもそも、CentOS6.3なんです。
ああ、ESXI5.0.0を再起動してみようか。
ずっと立ち上げっぱなしなので、起動しなくなるのが怖い・・・
せめて、バックアップをすべてとってからにしよう。
あと、時間がたっぷりあるときに。
ADにL3SWとか会社の環境っぽいな。 金出してサポートしてもらえよ。 とりあえず、仮想NICのMACが重複したに1票
ジャンボフレーム使ってるとか?
>>734 >仮想NICのMACが重複した
仮想マシンファイルのコピーもしていないし、
MACは自動割り当てなので、まず重なることはないと思っています。
それにそのネットワークには、そもそも仮想マシンは一台だけで、あとルーターがある程度なんです。
L3スイッチはつかってないです。
普通のハブです。
また再起動やってみたいと思います。
初歩的になぜpingでは通る通らないとか試してないかね?
全マシンでarpを消去したら治ったり。 なんとなくアドレス重複っぽい症状なんだけどな。
なんで再起動しないの・・・
仕事で使ってるなら、原因を突き止めないまま「再起動したら直りましたあ」では負けだろ …まあ、仕事で使っていてここで質問するのもどうかと思うがw
パススルーって難しいのね PCIのNICだから簡単に出来るだろうと思ってたら 設定してゲスト起動したらパープル orz USBは簡単に行ったから行くとばかり思ってたよ しかし・・・パープルは色々困るよな 他のゲストも巻き込むし
5.1ならパッチ当てた? パススルーでパープル直るパッチ出てるよ 該当するかどうかは知らん
>>743 マジで!!
来週試してみる
教えてくれてありがとう
plugin-###.logの最初に、 起動したクライアントのパスと、 そこから呼び出すリモートコンソールのDLLのパスが書いてある。 DLLと同じフォルダに、 起動したクライアントに対応するバージョンのvmware-vmrcがある。 ちなみに、Windows8だとダメな気がする。
>>736 >>736 \Program Files\Common Files\VMware\VMware VMRC Plug-in\Internet Explorer\
Windows 7 / ESXi 5.0
-M vmid でも接続できます。
電源は付けられません。
748 :
724 :2013/02/25(月) 10:47:34.79 ID:rXRa3JQn0
>>727 レスありがとうございます。
NICはIntelのPRO/1000でしたが、ゲストのJumbo Frameの設定を
無効にしたところ正常にアクセスできました。
他のゲストに比べて、大きなデータを扱うことがあったので、設定
しておいたのですが、それが裏目に出てしまいました。
初歩的なことですみません。
他のレスをいただいた方々もお礼を申し上げたいのですが、どこまでが
自分あてなのか、わからなかったので、まとめてで失礼します。
ありがとうございました。
727が出た時点でジャンボフレームぐらい確認していると思ったのに・・・頭痛い
751 :
724 :2013/02/25(月) 11:57:53.22 ID:rXRa3JQn0
>>749 初歩的なことですみません。
後出しになってしまうのですが、このゲストはXPで構築していた別のゲストの
リプレースで、OSやらOfficeやらを新しくしつつ、基本的な設定値(IPアドレスなど)
は、XPのものを引き継ぐ形で新しく構築したものなんです。
XPのときは、Jumbo Frameの設定をしていて、特に問題なく動作していたため
そこが問題だと気づけませんでした。
別のレスにもありますが、LMCompatibilityLevelの件などもあるので、XP→7と
なる場合の検証をもっと深くやっておくべきだったと反省しています。
ありがとうございました。
>>747 情報ありがとうございます!
できました!
>>747 電源はWake On LAN利用しては?
確かWake On LANに対応してたよね
>>750 てめえがこの手の資料を生まれて初めて見たということは分かった
つーか、こんなのよか各社のcounter talk指南を読んでみろ
756 :
735 :2013/02/26(火) 00:38:24.82 ID:m4fyP1um0
>>747 すみません、ESXi 5.0 + Windows7 で動作したとのことですが
ESXi 5.1 + Windows7 ではどうでしょうか?
手元の環境が ESXi 5.1 + Windows7 なのですが
動作しません・・・・・。やり方が悪い、どこか間違っているのかもしれませんが・・・・。
757 :
736 :2013/02/26(火) 00:39:36.49 ID:m4fyP1um0
すみません。
>>756 の書き込みは 736の人です。番号間違えた・・・・・
>>757 ESXi 5.1 は運用していないので分かりません…
これで繋いでユーザ/パスワードを入力して使ってます。
vmware-vmrc -h (ipaddr) -M (vmid)
player4.x以前なら vmplayer.exe -h (hostname) -u (username) -p (passwd) -M (vmid) な感じでショートカット作るとクリックすれば2秒で操作可能になるよ vmware-vmrcはWindows8からは実行してもプロセス汚しになるだけみたいだった(俺だけかも)
760 :
736 :2013/02/28(木) 21:00:55.40 ID:7Z1R2Gg80
調べてみたんですが、 vmware-vmrc.exe は ESXi 5.0 をインストールした時に 作られるようで、これを使う場合はショートカットとして機能するのですが ESXi 5.1 のみをインストールした場合は違うパスにインストールされ、 このパスにインストールされたvmware-vmrc.exeでは接続に失敗します。 ESXi 5.0 C:\Program Files\Common Files\VMware\VMware VMRC Plug-in\Internet Explorer ESXi 5.1 C:\Program Files\Common Files\VMware\VMware Remote Console Plug-in 5.1\Internet Explorer 上記フォルダの vmware-vmrc.exe、ESXi5.0側のしか動きません。 また、ESXi 5.0 の.exeで ESXi 5.1への接続は可能です。 現状を整理すると、ESXi 5.1へデスクトップショートカットを作りたいなら ショートカットの為だけにESXi 5.0のクライアントをインストールしないと いけないということになります・・・・・・。大変不便でよろしくない・・・。 何か方法ないものですかねぇ〜?ESXi 5.1ユーザの方何かありましたら・・・。
USBカードをパススルーできない問題はよ直せや(怒
>>762 エンタープライズ領域では重要度が極端に低いので3年待ってください
ホスト上でUSB3を認識してそれなりのスピードをゲストに提供できるならいいのよ
>>765 思いついた方法を3つぐらい書いておく、
1. 引数調査用のダミーexeを作って置き換え、調査
2. デバッガ(windbg)でプロセスにアタッチもしくはプロセスダンプ(タスクマネージャ、プロセスタブの
右クリックで取得可能)を開いて!pebコマンドで見る
3. ツール(process explorer等)で見る
>>743 パッチ当てたら直ったよ
でも・・・失敗 ゲストOSに対応ドライバーが無かったorz
>>764 ゲストにパススルーしても3.0の速度で無いのかな?
メジャーバージョンアップ毎に、 データストアブラウザから、DLする速度が遅くなっている気がする。 そして、ver6では、scp機能が削られれそうな気がする。
>>767 ゲストにパススルーすれば3.0の速度でるよ
770 :
社長 :2013/03/09(土) 10:29:48.01 ID:NbNKAMpD0
∧∧ パッチキタ━━━\( ゚∀゚)/━━━!!!!! VMware ESXi 5.1, Patch ESXi510-201303401-BG 〜(O ) U Product: : ESXi (Embedded and Installable) 5.1.0 Download Size: 306.9 MB Build Number: 1021289 KB 2043967 Release Date: : 03/07/2013
なんのパッチ?w ESXi on ESXiを無限に多重化してもPF落ちないとか?ww
772 :
社長 :2013/03/09(土) 12:58:44.35 ID:NbNKAMpD0
VMware ESXi 5.1, Patch Release ESXi510-201303001 ESXi510-201303001.zip Build:1021289 Download Size: 306.9 MB http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2043967 ∧∧ ┃ ┏━┃ (,,゚∀゚) ┃┃ ━┏┛ ┏━┃ ━━/ つ━━┛ .┃┃ ━┏┛ ┛ ┃ 〜( ,ノつ ┛┛ ┛ ┛ (/ .┛┛
おい、このパッチでUSBコントローラーがパススルー出来なかった問題が直ってるぞ リリースノートに書いてないけどな!!
いやいやここは俺が
俺が
仕方が無い俺が
WUD & nLiteの事は、ここで聞いていいんだろうか。
自動起動の問題は
一方無償で96GB積んでる俺は5.0をつかった
>>780 どゆこと?
無償ライセンスだと32GB制限じゃない?
ライセンス的には制限があるけど、ソフトウェア的な制限がない。 CLI使って仮想マシンの操作をしたり、CBTで差分取ったりもできる。 期間制限のない評価版のようなもの。
vMotionとかも使えんの?
寝言は…
32Gより多く必要か? 何動かしてるんだろう? 複数動かすにも今度はCPU/IOネックになるしと思うが i7や8コアをさらに複数乗せて ディスクも変えてるならまだしも
>>787 まさに今現在、Office365導入の検証でこんなことやってる。
マシン1、2(クラスタ):Win2008R2 +ADFS 2.0
マシン3、4(クラスタ):Win2008R2 +ADFS 2.0 Proxy
マシン5:Win2008R2 +Azure Active Directory 同期サービス
マシン6:Win2008R2 +ドメコン
マシン7:Win7+Office2010
実際の構築を考えるとこれ全部要るんだわ。
ストレージは10Gb iSCSI でPCサーバ+targetにつないでるから
悪くはないけど、やっぱりメモリはたくさん欲しいね。
HDD周りが追いつかないと思うわ
評価機で沢山のマシンを起動する場合には、 ディスクやCPUよりもメモリの方が大事だと思うけどね。 ほとんど起動してるだけなので、 ディスクやCPUは使わないし。
>>788 どのサーバも上限4GB予約2GBじゃ駄目なもん?
俺の場合はAPサーバ3台、DBサーバ3台どれも4GBで、DBだけ4GB予約してる。
そりゃ全ゲストに上限までメモリ割り当てるに越したことないけどさぁ。
32Gを4Gで割っても8台行けるんだよね(実質は7台だろうけど) 8コアや4コアHTで、1台1個割当とかも行けるんだよね 昔4コアHTで起動して、CPU稼働率が1個当たり60%越えてたのには驚いた ターボは他のCPUが暇にしている時にだけ、動くのではなかったのか〜と思った
ぱっと見では32GBで足りそうだなあ 要件調べてないけど View環境ひとそろいを8GBで構築したときは結構きつかったが
使用するメモリ4G設定するのと 8G設定してリソース設定で4Gで制限するのとで違いやメリットデメリットってある?
>>790 まさにそのとおりだと思う。
ところで、32GB超えOKのマザボって、もう今のは珍しくないのかな。
ATHRLON AM3+ソケットのであればいいんだけど、ないね。(多コアのCPUがある。8コアとか。)
FM2+ソケットのならあるけど、CPUが多コアなものがないんだな。(せいぜい4コアほど)
>>796 鯖用なら普通に32GB over行けるっしょ。
IntelならLGA1366/2011、AMDは・・・1CPUで2ch超えるのなんか有ったっけ?
無きゃDual ScoketマザーにCPU二つだな。
MAXは構成によりけりなんでなんとも。
コンシューマー向けはスロット4本しかないし、16GBモジュールでも
出てこない限り32GB以上はムリポ。
16GB DDR3モジュールはあるね でも、たとえコンシューマー向けの4スロットに挿したとしても、 そのマザボが32GBまでと謳っているものは無理でしょ サーバー用マザボは一度も買ったことないな INTELのも使ったこと無い
>>796 勘違いしてたらすまんけど、AM3+ならうちで使ってる
ASRockのFatal1ty 990FX Professionalは
4スロット最大64GB、BroadcomNIC*2本だし、
年末に出たASUSのCROSSHAIR V FORMULA-Zは
最大32GBだけどIntelNIC搭載、こういうのじゃダメなの?
>>799 その、ASROCKのはぜんぜん知らなかったです
とてもいいと思います。
いまはうちのは、esxi5.0の土台として、ASUSのSABERTOOTH 990FXを使ってます
もちろん、32GBフルにつんでいますよ
しかし、64GBに対応しているなら、ASROCKのそれはいいかもしれない
買い換えようか
これって、esxi5は動作していますか?
>>800 ただ、問題があるとすれば、
non-ECCメモリに対応していることかも
ECCメモリに越したことはないしな
その前に、そもそもDDR3 non-regのnon-ECC 16GBモジュールって有ったっけ・・・? reg/ECCなら普通にあるんだけど。。。
>>802 あったら飛びついてる。
itxで32GB実現できちゃうからね。
>>802 大容量モジュールは、いまのところはサーバー用途(要ECC)で使われることが多いってことですね
ECCかどうかは直接の問題じゃあないな registeredかunbufferedか まあ、registeredはたいがいECC付なんだがw
>>805 ECCだと、宇宙線なんかで生じたエラーが訂正されるでしょ
それとも、registeredだと、仕組み上、そもそもECCなんて不要ってこと?
ちゃうちゃう、そういう話じゃあない registeredだとちょっと複雑になるしレイテンシも大きくなるが大容量にしやすい unbufferedだと単純で低レイテンシだが大容量に出来ない どれだけ大容量のモジュールを作れるかってことはregisteredかunbufferedかが大きく関係する 信頼性は、それとは別の軸の話
>>807 non-reg(= unbuffered)は大容量にできないので、
そういう16GBメモリモジュールが今のところ無いってことなのか
うーん、じゃあ、
non-ECC、un-bufferedメモリ対応を要件としているFatal1ty 990FX Professionalで、
64GBまでメモリ積むことはできないってことになるか
なるほど、勉強になりました。
丁寧にありがとうございました。
BIOS上ではECCコレクトエラー出てたが使ってる上ではそれに気づかなかった たしか自動的にその近辺は隔離してくれるような話は見たことがあるが esxのメモリエラー対処はどっかのlogに出てるのかな
使っててわかるエラーだったらPSODにでもならーな。 コレクタブルとアンコレクタブルがわかってないのがすごいっすね。 見習いたいです >_<)b
PSODなったことある?
PTSDならある
PDドライブを買ったらすぐDVDの時代が来てEDに
使ってて気づくような致命的なエラー(アンコレクタブル)なら、紫画面になるだろってことじゃ?
>>811 2回経験ある。
1回は、メモリぶっ壊れで、2回目はHPの鯖でF/.Wのバグで出た。
>>772 HPの鯖にこのパッチ当てたら、NICのドライバが吹っ飛んでえらいめにあったわ。
いまは再インスコしてなおってます。
一応報告まで。
アンコレは気づくような致命的なエラーだけど気づくような致命的なエラーはアンコレとは限らない。
>>818 これが噂のPSODか
3.1の頃からESXを使っているが、自分で実際にお目にかかったことはないな
非対応のハードウェアで無理やり使ってたときにはガンガン見まくったw
眠ってくださいです。
アップデート後もパープル出るなあ… やはり自作ハードのせいかな。BIOSベータ版入れてみるか。チラウラスマソ
ハードを自作してるとかすげえなあ
自作PCだよね
自作ハード
「ハード」の意味は広いよ 自作パーツとは言ってないんだし ケーブル繋いでネジ止めてを「自作」と呼ぶかは別の問題として
自ハード
>>828 1999年からずっとそう。
AMDのK6IIIを使ってマシン組んだな。(ソケット7の競合品が多かった。AMDを選んだのはパーツショップのお勧めだったか)
メモリはPC-100の64MBで、WINDOWS98を動かした。
PCIスロットになんとかロックのチップの載ったモデムを差し込んだね。
確かマザボは、エポック社?とかというヤツだったと思う。
そのときにつかったATXケースはアマチュア無線機屋で買った。
まだ家のどこかにあるはず。
頭が硬いのもハードだ
目玉焼きのハードは糞だ
マハポーシャ製の自作ハード
USBのHDDをデータストアにはできないの?
無理
>>834 USBを直接データストアにすることはできないけど、
あとは力技で、ゲストにUSBHDDをマウントして、nfsでESXにマウントという七面倒な方法ぐらいしか思いつかない・・
>>834 ちっさいPCとかノートPCをホストにしようって考えてるなら、やめとき。
大人しくPlayerにしておけ。
とエスパーしてみる。
ちと愚痴りたくなったんで書き込んでみる。 ESXi 5.1だと、DataStoreを削除したり、オフラインにしようとするとdevice busyでエラーがでる。 仕方がないんで、shutdownして物理的に抜いて起動して 今度は刺し直してから起動したらなぜかオフラインになってたんで削除した。 それを再度登録しようとしたら、内部エラーで登録できない。 色々やっても無理っぽいから、明日、ESXi 5.0に戻すわ。
改悪なの?
理由なくバージョンアップするのはやめた方がいい。何の特もない。
理由無くバージョンアップすること自体は別にどうでもいい。だが直接本番環境に当てるな。だろ。
vSphere Clientを日本語のままで使ってたってだけなんじゃないだろうか。
Build:786111のバグか
ECCコレクタブルはlogに出る。といってもESXはしらんが、少なくともWindowsならイベントログにあがってくるよ エラーアドレスによっては無害だったり、特定vmのみ殺せばよかったりするから、ハードやESXが賢ければ事前に除外したりvm単位で落としたりするだろうね ECCアンコレが即PSODと思ってるなら見当違い
アンカつけたれや
>>844 ESXスレでESXはしらんって…
つか、WindowsでもIPMIかなんかの機能で出てるだけでしょうよ。
コレクタブルエラーで気づかなかったってことが最初のお話であって、アンコレクタブル位にならないと気づきゃしないって話題なわけだったんだろぅ (えらい遠投だが
>>838 データストア当たる時は英語で当たった方が良いよ
日本語だと動きが少しおかしい時がある
機能的に問題ないなら5.0で良いかと
5.1にすると設定ファイルのバージョンも上がるし
>>838 その状況は、出る場合と出ない場合があって
4のころからあるよ
ぐぐると色々出てくるけど
決定的な解決方法はないみたい
>>846 メモリエラーは普通NMIになる
Windowsはそれ拾ってイベントログに書いとる
ESXもログに警告残ったような気がするが、そうそう確認できないからなあ
おまえら個人でこれ使ってんの?それとも自営業?
自分のように個人で使っているのもいれば、会社のSEもいるだろ。
個人といえば、個人だけど、フリーのエンジニア的な立場なので、検証環境として 使ってます。ゲストとしては、ADやらターミナルサーバやらSyslogやらが稼働してますが。
でたらめばっかり。
>>844 短時間に同じアドレスで出る場合は切り離しする場合はあるけどコレクタブルは無害なのでVM殺す必要はない。
>>846 IPMIは関係ない。CPUの機能だ。知りたければMachine Checkで調べろ。
>>849 NMIとは割り込みベクタが違う。
Windows上のドライバがあれば読める/なければ読めない(ESXもしかり てのでは間違いある?
失礼。みてきまs
>>853 esxでコレクタブルは切り離しだとおもってたが。何回以上とかの条件あるのか?
宇宙線による1bitエラーで毎回切り離ししないだろ。
858 :
名無しさん@お腹いっぱい。 :2013/03/20(水) 23:55:50.44 ID:evbSUDNu0
VMkernelってiSCSI用、vMotion用・・と個々に作っておくのが当たり前ですか?
ストレージ用はまず分ける vMotion用も普通分ける
ESXi build 1021289(ESXi510-201303001.zip)をTX100S3pで使用していますが、 パススルーしたPCIeデバイスのリンクがgen1に落ちてしまいます。 Marvell 88E9123やASMedia ASM1061をパススルーし、SSDを接続しても200MB/s程度で頭打ちに。 パススルーでgen2の速度が出ている環境の方いますかね?
Link Status Registerの値確認した? それとも単なる予想?
862 :
860 :2013/03/21(木) 14:09:19.16 ID:hr8lFe1A0
freenasやWin7で試してみてなんか遅いんのでubuntuいれてlspciすると2.5GT/sで接続されていた。 > LnkSta: Speed 5GT/s, Width x32, TrErr- Train- SlotClk- DLActive- BWMgmt- ABWMgmt- x32はおかしいし > LnkCtl2: Target Link Speed: 2.5GT/s, EnterCompliance- SpeedDis-, Selectable De-emphasis: -6dB ESXiを使わないとここも5GT/sリンクします。 SATA3.0のカードつけてもTX100S3pのC202のSATA2.0までの内蔵をパススルーしたほうがSSDは速度がでちゃうという。
VT-dの場合はホストからじゃないと正しいステータス見れないような気がするよ。
調べたらRPごとホストから見えなくなっているね。 一般的にはExpress NativeじゃないOSの為にF/Wが設定するはずなんだけど…誰が悪いんだろうねぇ
865 :
860 :2013/03/21(木) 15:55:16.48 ID:hr8lFe1A0
構成くずしてるんですぐには確認できないんですが C202内蔵のSATA2.0をパススルーで240MB/s出るのでこっちはgen2の速度がでていそう。(SATA2.0の3Gbpsの80%で妥当な速度) ちなみにESXi5.0 build-768111@鼻毛にUSB3.0カードuPD720200のパススルー環境でも >LnkSta: Speed 5GT/s, Width x32, >LnkCtl2: Target Link Speed: 2.5GT/s, となってた。 ESXiのlspciは-vvが効かないのでリンク速度はレジスタを自分で確認しないとだめか。
ツールのデコードは信用できないのでdumpを直読みは基本。
そもそもPCH内蔵SATAは物理的にPCIe接続じゃないからPCIeのLinkに関係するconfigが存在しない。
ネットワークネタで暴れてた人か。 お前超痛かった奴って印象しかねぇ。 出した切り分けやんねーし、後だしするわ、結果変なレポート出すわ…
>>869 その節はありがとうございました。
あまりやる人もいない事だと思いまして、
ふとしたきっかけで、件のスレに動画のリンクを上げる
運びとなりました。是非、ご賞味下されば幸いですw
アップロード先ははMediaFireの無料アカウントです。
ダウンロードの際、広告がうるさい事はご容赦下さい。
自ブログのアフェ稼ぎではありませんのでよろしくお願いします。
うざいから消えろ
>>870 貴様が来ると荒れるから二度と来るんじゃねぇ
>>870 てめぇの糞動画なんぞ何の役にもたたねぇよ。
ストレージの無駄遣いだからさっさと削除しとけ。
874 :
名無しさん@お腹いっぱい。 :2013/03/25(月) 00:41:44.19 ID:8MkYMfgZ0
NVIDIA死ねや
>>874 インストールしてみたけど ESXi 5.1 with vSGA が動かない。
配布されたzipをインストールして、
# esxcli software vib install -d ファイル名.zip
モジュールをロードすると、
# esxcli system module load --module=nvidia
Unable to load module /usr/lib/vmware/vmkmod/nvidia: Failure
エラーが出る。一緒にインストールされたツールで見ても、ドライバーがロードできてない。
# nvidia-smi
NVIDIA: could not open the device file /dev/nvidiactl (No such file or directory).
NVIDIA-SMI has failed because it couldn't communicate with NVIDIA driver. Make sure that latest NVIDIA driver is installed and running.
環境はNECのタイプhf (Xeon E3-1230v2)でGPUはGT640 ESX 5.1で3月までのパッチ全部当て。 vSGAの対応ハードウェアがQuadroやTeslaしかなかったり VMWare Horizontal Viewだったりするけど、多分GeForceとVMWare Clientでも動くはず 何でドライバーのロードに失敗するか指摘可能なエスパー様いらっしゃいませんか。
>>877 エスパーも何も、対応ハード無いから、ドライバロード出来て無いだけじゃ?
>VMWare Horizontal Viewだったりするけど、多分GeForceとVMWare Clientでも動くはず
この根拠もよく分からんし。
/usr/share/hwdata/driver.pciids.d/nvidia.ids の中にGT640の記述はあるのか?
>>879 ある、というか歴代nvチップ全部ある
やっぱIDチェックしてQuadroしか起動しないようにしてるのか
フォーラム見てもQuadroでしか成功例ないしな
Quadro持ってる人間がvSGAなんて使うかっての
どう考えてもゲーマーの為の機能だろ・・・
>>880 ゲームの為にパススルーしてる訳じゃねー、
使い方間違ってんぞって
VMware & NVに言われるだけじゃないかね。。。
1FSPでも!ってゲーマーがESXiなんて使うとは思えんし、
仮想化前提のゲーマーなんて、ニッチ中のニッチじゃないのか・・・
世間間隔とはちょっとズレてる気がする。
>>880 そこに記述があってドライバが動かないのはまずいんだが・・・
本当にdev idがちゃんと書いてあるのか?
UnixとかLinuxとかだとそういう類のところにIDが載ってることと ドライバが動くこととは別問題だけど ESXiだと載せるからには動かさなきゃならんという決まりがあるのかな?
まずいのはdriver.mapだったな。
管理ネットワークの出入口にしていたハード内蔵のNICが死んでしまっている。 想定していないわけじゃなかったけれど、冗長化には手をつけていなかったから、事態が深刻だなあ。 クライアントには別途に物理NICを割り当てているから、生存して動作していることを確認できたが、 復旧は厳しいな。ハードの総取り替えと再インストールしかないのかね。 ちょっと頭を冷やすか。
NIC増設して、ローカルのコンソールから何とかできないかな?
headlessじゃないならF2
ハードの構成もネットワークの構成も分からんから、何とも言えないが、 NIC追加して、コンソールから、再設定だけで済むんでない? NICの口を増やしようが無いとかなら、とりあえず暫定で VM用の口にVMKernel追加して、今を凌いで、ゆっくり考えるか。 個人利用のトラブルとしては、別に深刻って物では無いと思うが。。。 業務だったら、まぁ乙としか。
>>887 俺もそう思うんだが、ダメなのか?
再起動は必要だけど、起動しちまえばnic選択してnwの設定するだけって違うのか?
インテルNICの在庫がなかったので買ってきた。 クライアントが生きているから、あらためて手をつけるのは夜ということに。 本体の交換〜廃棄の手配は済んだから、気分としてはあまり手をつけたくない。 とはいえ仕方ないので、あらためてesxcfgの勉強をします。 resいただいて、ありがとうございました。
クライアントじゃなくてゲストだよな?
ESXiって、Intel系かAMD系のどっちが相性がいいとか、パフォーマンスが変わってくる とかあるの?
>>893 そこはインテルだAMDだ、の問題ではないと思う。
>>893 CPUの演算能力は足りてる事が多いので、ボトルネックに
なりがちなのはI/O、特にストレージじゃないかな。
このへんから個人用途と業務用途で変わってくるんだけど、
業務用途で使う場合はvMotionやHAなどの可用性を
高める機能が必須要件であることが多い。
そうなってくるとストレージはiSCSIやFCを使う必要が出てくるから、
個人向けとは違う世界に入ってくる。
個人向けでストレージのI/Oを稼ごうと思ったらローカルのHBAで
RAID組んだのをデータストアに設定して、SSDキャッシュも使えば
終了だけどね。
純粋な興味としてなら 1C2T(intel)と1M2C(AMD)のどっちが2ゲスト稼働時に性能いいんだ?ってのは気になるが、 なにぶんbulldozerはIPC重視じゃないから単純な比較はできんな。
初期のVTはパフォーマンスが悪かったのでESX/iでは敢えて使わないようにしていたりとか いうことがあるし差異はあるだろうけど、普通は気にしないな つーか、サイジングの話もXeonを前提にしてるのばかりで、他でどうなのか分からん
レスありがとうございました。 PCレベルの話だけど、動画のエンコードはこっちが強いみたいな話があるので、 ESXiを稼働させる環境で、AMD系のCPUとintel系のCPU(もっと言えばチップセットとか までからんでくるんだろうけど)で、相性が良し悪しや、パフォーマンスに違いがあるの かなと思い聞いてみました。 おっしゃる通り、あまり気になるほどではないのかもしれませんね。 実務で、いくつかの仮想環境とハードを組み合わせてきたけど、特に問題はなかったけど 初期のころは、多少の差があったから、今はどうなんだろうかと。 あと、自宅の環境が、AMD系で特に大きな問題がないけど、若干パフォーマンスに問題 が出てきたので、新しくするとしたら、どっちがいいかとかも悩んでました。 いろいろとありがとうございました。
>>898 動画のエンコするんなら昔も今もIntel一択だろ。それに仮想化かませる必要性もないし。
Core i7 3770Kは定格3.5GHzだが、電圧とかいじらずとも4.2GHzとか、らくらくオーバクロックできたよ。
エンコードでAMDの出る幕は無い
エンコ"だけ"なら同価格帯のIntelと良い勝負出来るってだけで、 それ以外があれだからな。 あえてAMDを選ぶ理由は無いなぁ。
今のAMDは安かろう悪かろう
904 :
名無しさん@お腹いっぱい。 :2013/03/29(金) 01:03:45.74 ID:QIA2yjZT0
アムドは産廃 使ってるカス共は例外なく糞チョンまたは完全同類ヒトモドキ 今すぐ地上から一掃しろ
AMDがあるからIntelのCPUを手頃な価格で購入できてるんだよ? AMDが潰れたら、Intelが市場を独占状態になって値段あげ放題(そう簡単ではないだろうけど)、AMDは大事なんだよ。AMDがいよいよってなったら、Intelが救済するだろうけど。
AMDなんて誰も買いたくないし、使いたくもないけど、いなくなってもらっちゃ困る。
ご存知の方いらっしゃいましたら教えて下さい。 ホストOS:ESXi5.1 サーバ機:HP ProLiant/ML110 G7 RAIDカード:Adaptec RAID 6405E(RAID1を構築) 上記の環境で利用していますが、 ESXiホスト上からRAIDのディスク障害を検知することは可能でしょうか? ドライバは導入済みでESXiホスト上からデータストアとして認識されています。 可用性自体は向上していますが、監視ユーティリティが存在しないため RAIDのディスク障害を検知することができません。
>>907 "Adaptec CIM Provider for VMware" ってのがあるようですけど。
>>908 ありがとうございます。
検索してみます。
もうやめて!アムドちゃんのライフはゼロよ! こないだA10-5800Kで組んだ俺も涙目。 まぁ性能は承知の上で組んだんだけど。 とか言いつつ、ESXi機はIntelだったり。
>>868 この投稿で私のimgurの件の動画へのアクセスが200も増えましたw
口ではキツイこと言っても、みなさん興味持たれていてうれしいです。
ありがとうございますw
私のサマリに批判があったようですが、
Linuxホストであれをやろうとしたら、
# chmod a+rw /dev/vmnet0
が必須ですから、必ずしもあのサマリで非難対象にはならないかと…
動画のアクセスはどのくらいあったかわかりませんです…w
見た方はご存知だと思いますが、これからESXiを始めよう、
もしくはESXiとは?に一定の解答を与えていると自負していますw
指摘に反応がなかった時点でそれ以降は住人の対応が間違ってたとしか言いようがない 構った奴反省しろ馬鹿
居着かれたな 終わりだ
>>912 がやっているのが構うってことの例だ
スルーしてりゃあいいのに、いちいち過剰反応するから
「自分がやってることはそれだけの反応を引き起こす価値あるものなのだ」
という妄想を強化する
912と914の違いが分からない件
ESXマシンに、8TB位のデータが入ってる。 これを、ファイル単位でなく、仮想HDDごとごっそり抜きたい。 金もかからず、速度も速い方法あったらお教えください。 ESXは5の、エッセンシャルです。 scpやデータストアブラウザから抜く方法以外の 何か、早い方法あったらお教えください。
>>916 HDD増設してdatastore作り、そこにcpして増設HDD引っこ抜く。
vmkfstoolsだろうなあ それかConverterで複製するか
ESXi5の仮想マシンバージョン8に、WINDOWS7pro64bitをインストールし、 リモートアクセスができるようにしています。 不具合があったので、VMtoolsのうちビデオドライバは入れていません。 WINDOWS標準ドライバで動作しているようです。 クライアントのWINDOWSからリモートアクセスで画面を開き、 CTRL + ALT + PauseBreak で、全画面表示にするのですが、 一部のPC(専用ビデオドライバが動作している)で、全画面に広がらずに、画面に余白を作って中央付近に表示されてしまいます。 ほかのPC(専用ビデオドライバが動作している)では全画面に広がってくれます。 どういう対策をとるとよいでしょうか。 あるいは、クライアント側のビデオとの相性とかあるんでしょうか。
>>919 どう見ても「一部のPC」の問題なんじゃあ。その「一部のPC」からESXiの仮想マシン以外にリモートアクセスして切り分けては?
>>919 リモートデスクトップクライアントの接続時の解像度の指定が、接続もとの解像度に無いとか?
>>920 なるほど!
普通のPCで動作しているwindowsにリモートアクセスして、
正常に表示されるか試してみたいと思います。
>>921 なるほど。
解像度を弄ってみるとなにか変化に現れるかもしれないですよね。
さっそくひらめきをいただきまして、
どうもありがとうございます。
また後日になりますが現地に出向いて実験してみて
レポートしたいと思います。
CPU Readyが高いとVM上で稼働するOSにどんな影響があるんだろうか? 4C8TのESXiホストでFreeBSD(NAS用途)とWindows(色々)に4CPUずつ割り当て、 Windows側を負荷100%にすると、FreeBSD側のCPU Readyが最悪値で12000msを 記録するが、NASとして使っている分には特に問題なく動いてる。 CPU Readyの「物理CPUでの実行がスケジュールできなかった時間の割合」という 説明からは、12秒もスケジュール出来ないとOSの動作にかなり影響出そうな印象 を受けるんだが、実はそうでもない? リアルタイム性を求められるような処理(キャプチャとか)で問題が出たりする?
12秒連続じゃなくて、単位時間内に合計で12秒まったってことなんじゃないの?
すみません質問なのですが、 ESXiをUSBメモリにインストール出来るみたいですが、 USBメモリをデータストアとして使用は出来ますか?
できない
あ、ゲストにパススルーしてそのゲストから iSCSIやNFSでホストに見せるって特殊なのは別
>>927 ありがとうございます
できればESXi自身にHDDは持たせたくないので、
別のファイルサーバにNFSを持たせたいと思います。
あるゲストが持ってる、仮想HDD_A→スナップショットAをとる。 仮想HDD_Aをscpでローカルに引っ張ってくる。 スナップショットBをとる→スナップショットAをscpで(以下同じ) あるゲストから、仮想HDD、スナップショットを全部削除。 ローカルに引っ張ってきてた、仮想HDD_AとスナップショットAを、データストアに上げる。 んで、あるゲストに、仮想HDDを再度あてがう。 スナップショットマネージャーで結合的操作を行って、スナップショットBをとった時点位まで復元。 っていうことってできますか?
ゲストを止めていいならConverter使う方が速いと思うけど 差分バックアップみたいなことがしたいのかな?「ローカル」の役割もよくわからない 詳しい人が以前いて、差分バックアップの自作スクリプトを紹介したりしてたけど 俺は自信ないので流して聞いてほしい 仮想HDDはデータストアブラウザで見るとA.vmdkファイルだけに見えても 裏にA.flat-vmdkとかA.delta.vmdkも隠れていて 前者はHDDの定義情報だけで実データは後者が持ってたりする SCPで実データの方をうまく抜けるかはやってみないとわからない 抜けたとしても差分のつもりがシック扱いになって無駄に時間・容量を使うかも また、ゲストの設定ファイル(*.vmx)だけでなくて スナップショットの定義ファイル(*.vmsd)ファイルってのもあって これも正しくコピーされてないと「vmdkがそのゲストのスナップショットである」 ことをホストが認識しないんじゃないかな
もしも目的が差分バックアップならばの話 自分も考えたことあるけどESXiのスナップショットに頼るのは自信がない 2点間の差分をうまく取れるか、バックアップ側とプライマリ側の最終同期点を きちんと管理できるか(誰かが手動でスナップショット取得/削除しただけで破綻しないか) ゲストの仮想HDDを増設/削除したときにバックアップ側を同期させられるか など、俺の力量では難しすぎたため。 よく使われてる(と思われる)ghettovcbもフルバックアップだし、Web上をかなり探したけど これってのは見つかっていない 差分バックアップするなら ・ストレージ側で頑張る(ZFSとか)→ローカルデータストアに使えない ・Acronisとかの有償ツールを買う→ゲスト台数に応じて課金される ・差分管理できるVMwareのAPIがあるはずなので勉強して自作 ってとこではないだろうか
バックアップっていうならvdrで重複排除したほうが効率よくね?
vdr調べたがすげえな ESXi有償版なら全エディションで使えるっぽいが、無償版は駄目だよなあ
>>929 PXEブートさせてデータストアには適当なiSCSIを立てて仮想マシンはそこへ置く。
おれは会社でディスクレスの中古ブレードをそうしてるよ。
(SASのHDなんか高くて買うお金がない...なんてことは一言も...ry)
>>932 自力で作っても大差なかったぞ。構成ファイルがそろってりゃ問題ない。
snap取れば変更のあったファイルはtimestamp変わるので、更新されたファイルだけコピーすればいい。
常時1つ以上のsnapがあるvmならコピー量は差分のみとなる。ローカルならロックされてるので2回snap。
書き込み量少ないvmはこれで数分でバックアップ完了してる。-flat.vmdkに反映させちまったら全コピーするしかない。
diskではなくnetwork帯域を気にするならrsync的なもので変更部分のみ転送コピーは可能。
昔ブロック毎にハッシュ吐いておく方法で組んだのでそのまま使ってるがCBT使いたいなら是非がんばってくれ。無償版でも何とかなるはず。
>>930 原理が知りたいのか手順の可否が知りたいのか分からん。なんで結合が出てくるんだ?
CBTは無償版だと使えない。5.0RTMなら使えるけど。 Hyper-Vの場合だと全部結合しないとディスク接続できないので、 同じように、スナップショットの差分を書き込んでいるディスクは、 そのままでは接続できないと思ってるんじゃないのかな? ディスクのパスを見ればすぐ確認できる話ではあると思うけどね。
>>929 >ESXi自身にHDDは持たせたくない
どうして?
SSDとかでも駄目?
うちもホストには光学ドライブとプロセッサとメモリのみ データはストレージサーバに置いてNFS接続 あとスワップ用にSSDくらいはホストに積んでもいいかも 次にホストのスペックを上げるときに余ったマザーボードをストレージ側に回せるのが魅力
ESXi5.1でUSBコントローラのパススルーうまくできている人いる? >773 にあるようにESXi510-201303001.zipのパッチを当てたけどうまくいかずこんな状況。 1.ホストの構成よりパススルー対象としてUSBコントローラを追加 2.ホストを再起動 3.ゲストにPCIパススルーデバイスとしてUSBの追加は可能。ただしホストの構成を見ると再起動マークがついたまま。 4.ホストを再起動 5.ゲストの設定を見るとUSBが使用できないとの表示。ホストの構成からは追加したUSBが消えている。
誰もいないヨカン…… USB機器のドライバがWindows7以降に対応していなくて、レガシーOS残すのにESXiを使おうと思ったんだが。 5.0に戻すかぁ。他ゲストのVM toolsを全部戻して、vSphere Client戻して、ESXi戻して、ナニこの拷問。 いっそやめてもう1台組むか。
全てのUSB機器がパススルーできるわけじゃない
>>942 USBパススルー機能の話しじゃなくて、USBコントローラのPCIパススルーの話だよ
>>941 俺はあきらめて対応してくれるまでusbデバイスサーバーを使うことにしたよ
>>944 なるほどその手もあるか。
ネットワークの帯域を確保してればUSBストレージでも十分速度でそうだね。
まあでも繋ぎたいのは古いオーディオインターフェイスなんで、ちょっと躊躇してしまう。
>>945 これって、ESX自体に、エージェントを仕込んだ時の話でしょ。
3.5の時は知らんけど、今はvMAにパワーチュートネットワーク仕込むし。
ESX5 + apcupsd + vMAでシャットダウンって、ぽちっと検索してみると
既に動いたよー的な記載は、個人ブログレベルでは見当たるが、たぶん問題は無いんじゃないかと。
会社で動かすようなシステムじゃないよね、万が一バツーン逝っても保証は出来んよ。
「ESXi 3.5 Update 4ならびにそれ以降のバージョン」が、 3.5系列のみに限定されるという解釈ですね。ありがとです。 >会社で動かすようなシステムじゃないよね、万が一バツーン逝っても保証は出来んよ。 apcupsdがダメってこと? シリアル接続のPowerChuteもUPS認識しなくなったことあるけどな…
仕事の相談を匿名掲示板なんかでするな、ってことだろ ここはプロもいるようだが素人も混ざってるし、 プロだって自分の仕事のときとは真剣さが違うだろうし、 そもそもまず誰も保証なんかしてくれない
なんだか毎度毎度その話になるが鬱陶しいな 規模や構成で勝手な推測してそんな質問はするなと言う奴が現れて荒れることが多い気がする。 2chに書いた回答に過剰な責任を背負い込むのは自由だが、オレオレルール押しつけんなよ 高信頼性が求められる場面に関しては知らんと宣言すればいいだけだろ。 そもそも万一が起きてはいけない用途をここでしか質問しない奴が本当にいたのか? 勝手に仮想敵作ってんじゃねえの
あー・・てか仕事かどうかってのも関係ないな。
学生が研究室で数百万のマシン設定する場合も業務扱いだろうし、
R&Dで短期間使う実験機ならクライアントPC並の信頼性でいい。
中小で無償版使ってるところもある(無償版に自作管理ツールつけてサポートしてる業者もある)。
自営業は幅広すぎてどんな用途があるのかすら分からん。
少なくとも仕事==信頼性命とは限らんだろ
そもそも家庭用ソフトじゃねぇんだから個人で自作PCに放り込んでるようなのが外様なんだよ。どうしても排斥したいならそっち。
本家フォーラムもコテハン相当だが匿名掲示板だろ。個人用途とは到底思えん構成にサクサク無責任なレス付いてるぞw
>>945 はシングルホストシングル電源シングルUPS構成なんだからハード死んで全滅してもOKな用途だし
>>947 は手法全体として確実性のあるものではないので慎重に検証しろという意味だろ(たぶん
主にapcupsdだがPCNSなら100%確実かというとそうでもない(実話@有償版)
うっとうしいと言いつつ 一番うっとしい反応してるね君
>>943 そっちか。
ESXiの仕様としてどこまでサポートされているかわからないけど、EHCI/OHCI/UHCIは
Legacy INTしかサポートしていないからPCIパススルーは制限が入るはず。
最低でも他のデバイスとINT共有していない事は確認。
INT共有してなくてもIRQ共有していたらダメかもね。
>>940 一部制限はあるものの、何とか動かせるようになった。
環境は以下。
M/B : ASUS Rampage III GENE (REV 1.01G)
ESXi : 5.1.0, 1021289
構成タブの詳細設定で、パススルーするデバイスを設定。マニュアルのデバイスの順番とESXiが認識している順番が違うようで、使いたい口と合わせるところで戸惑った。ここで一度再起動。
再起動後、パススルーの設定を見ると、再起動必要のままになっているが、とりあえずパススルーとしては構成できている。この状態でさらに再起動すると設定が消えるので、チェックし直す。
最後に、仮想マシンのPCIデバイスにパススルーする機器を追加。
955 :
945 :2013/04/07(日) 12:00:13.11 ID:G3BeIsf50
記憶を頼りに書いたので一部怪しいけど、これで行けるはず。 制限としては、再起動ごとにパススルーの再設定をすること。 パススルーがうまくいかないUSBポートがあったので、いろいろなUSBポートで試してみると良いかも。
956 :
940 :2013/04/07(日) 12:51:56.76 ID:aTTI5hGl0
>>955 ありがとう。こっちも試してみた。同じく動くけどホスト起動の度に設定しなおさないとダメってコトね。
今更だけどこちらの環境も晒しておく。
M/B : ASRock Z68 Extreme4 Gen3(BIOS Ver 1.20)
CPU : Core i7 2600
ESXi: 5.1.0, 1021289
しかしESXi 5.0.0, 623860じゃ問題なかったのにデグレードするなんてなぁ。
uptime打ってみたら、 もう一年連続運転していることがわかった。 これってどうなんですか。?
その信頼性、秀でてるねー
おし!
>>960 5.0.0 の 515841になっています。
運用前に一度だけ当てたと思う。
あとは、怖くて触れなかったよ。
サーバで1年程度の連続稼働は珍しくないと思う
セキュリティパッチさえ気にしなければハードウェアが壊れるまでは動くの多いしょ
ESXi5.1がパープルスクリーンで死んでたんだけど、 その時は時間が無くって電源リセットしたんだけど、 後で/var/log/syslog見ても何もエラーらしきものが 残ってないんだけど、調べる方法は無いのだろうか・・?
>>957 winserver2008/r2やwin7は497日問題があったりするから注意な
>>966 システム起動時から497日後にTCPポートが枯渇
駄目駄目ー
たいていは497日来る前に動作おかしくて再起動してると思うw
WindowsUpdateで再起動入るだろうしね。
サーバーもほとんどのところで法定点検で落とすだろうしね。
一切アップデートしないおっそろしい会社もあるからなー
VMwareが公開している事例で、アメリカのどっかの会社のサーバで uptimeが数年間になってるのがあるやん
>>967 オラクルDBとか機器のFWとかなどなどで色々おこすから1年おきに再起動した方が。
どれも該当しない(修正適用済)ならいいが。
初めてvmwareつかったけどネットワークの遅延って結構ある?俺がミスってるだけなんかな? 同一データセンターで、別ホストからvmwareゲストに対してpingがこんな感じ 301 packets transmitted, 298 received, 0% packet loss, time 304635ms rtt min/avg/max/mdev = 0.503/4.438/168.758/15.615 ms vmware実機に対してはもちろん遅延しない
>>974 個人的にはそこまで遅延は無い
ファイルサーバーとして使っても特に問題とは思わないくらい
と 言うかmax・avg共に高いね
lossは無いみたいだし
minはそこそこ良いから何か別の要因では?
301 packets transmitted, 298 received ロスしてるじゃんw OSやネットワークドライバの種類も書いてないし ドライバー替えたり 同ホスト別ゲスト間とかいろんなパターンで検証していくしかないんじゃないの?
ネットワーク関連がしょうもないんじゃね 蟹とか
蟹でも酷くないぞ。ケーブルとか疑った方がいいんじゃないかね。
蟹は酷いよ 仮想化に使えたモンジャナイ
非Windows環境だとまともに使えないと思ったほうがいい
netperf使ってCentos on esxi with 蟹をサーバ側で4時間のテストを何回かやってみたが、普通にエラーなしで動いたぞ。 だからって人に勧めないし、何かあったら疑うのも蟹で次はアフォなハブだけど。