859 : [―{}@{}@{}-] 名無しさん@お腹いっぱい。:2011/02/03(木) 14:47:01 ID:Jp7sc25QP
VIClient の Config -> Storage で,データストアを delete してしまいました.
これは iscsi のストレージで,delete は接続を切るだけだと思っていて,
再度 add storage で接続しようとしたら,フォーマットしないといけないと出ます.
以前の状態のままで再マウントすることは可能でしょうか?
863 :名無しさん@お腹いっぱい。:2011/02/03(木) 16:38:38 ID:28zIIOdv0
>>859 ESXi のシェルから手で fdisk ぶっこけばリペアできるぞ。
fdisk -l で該当ディスクを特定
fdisk <デバイス> で該当ディスクの fdisk 操作を開始
n で新規の fdisk パーティションを作成。1 で作成
t でタイプを設定。ここで fb を指定して VMFS にする
x でエキスパートモードに入る
b で開始ブロックを指定
パーティション 1 を選択
開始ブロックを 128 に設定 (default は 32)
w でこれまでの操作を実際に disk にフラッシュ
その後GUIから「更新」を実行。
これで見えなけりゃ諦めろ。
864 :名無しさん@お腹いっぱい。:2011/02/03(木) 20:31:13 ID:Jp7sc25QP
>>863 あなたが神か,いや,あなたは神だ
復活したああああああああああああああ
ありがとおおおおおおおおおおおおおお
869 :名無しさん@お腹いっぱい。:2011/02/04(金) 08:21:32 ID:a6KB8fGT0
神の降臨を見た
テンプレと前スレからの引継ぎは、これでいいかな?
7 :
1:2011/02/13(日) 00:58:36 ID:6qVeyAi40
4.1updata1のチェンジログ何処ある?
>1
乙。
>8
更新履歴の所にあるべw
11 :
名無しさん@お腹いっぱい。:2011/02/13(日) 19:57:04 ID:EX8x1Vql0
ESX4.1UP1のバージョンアップ方法ってどこ見たらいい?
>>1乙
それと次スレ建ってもいないのに前スレ埋めたID:3LM0S2qY0は出入り禁止な
13 :
名無しさん@お腹いっぱい。:2011/02/13(日) 22:29:54 ID:X0yPQqsX0
うっせーハゲ
>11
4.0 -> 4.1と同じ方法でいけたよ。
但し、フォルダ構成が若干違うが、それは(゚ε゚)キニシナイ!!
差分のzip解凍して、そのままデータストアにうpして、ESXi側でメンテモードに入って、SSHでログイン。
うpしたフォルダに入って、
esxupdate update --m metadata.zip
を実行。
1分程でうpでとが完了するから、完了したらESXiを再起動、正常に再起動したらメンテモードから脱出して終了。
この手順でいけるはず。
vSphere Host Update Utility というものを知らんのか?
>>11 >>14
会社でサーバ買う事になってesxiにしようと思いたったのは良いけど
初心者でよくわかりません
バックアップはsshでログインしてcronで設定してやればいいんだよね?
で、バックアップする媒体は、テープは遅そうなので
ホットスワップのディスクを考えています。
問題なのは3〜4枚くらいのブレード(又はラック)のそれぞれにesxiを
動作させる構成とした場合に、それぞれのホストOS(=esx/esxi)から見える
共有ディスクを用意したいんだけどこれって何を買えばいいの?
ゲストを動かすブレードを切り替える事もあるので共有のディスクがいいです
こういう質問してる時点でwindos server2008 +HyperVにしといた方がいいんだろうか
NFSかiSCSIの選択肢があるけど、のせるゲストOSの台数次第じゃ
中途半端なストレージにするとあとあと後悔しそう。
文面からだと一時的or一部ゲストに共有ストレージ構成が必要なのか
常時必要なのか不明なのでなんとも。
>>17 レスありがとう
だいたい全部で8個くらいのゲストをそれぞれのサーバで2〜3個づつ動作させたいです
なのでサーバは3枚か4枚必要かな、という感じです。
で、それぞれのサーバにローカルのストレージを持たせて
共有のストレージにコピーしてバックアップしたり、試験環境用のサーバのローカルにコピーしたり
することを考えてます。
で、NFSやiSCSIにする場合って
iSCSIがよくわからないので、NFSにするとして
ファイルサーバ専用にサーバを1枚を用意して
それに大きめのストレージを接続してNFSサーバにして、他のサーバからマウントする感じですか
そうだとして、このサーバ内で閉じた構成にしたいんですが
共有したいサーバそれぞれにLANのIFを増設して閉じたネットワークを
別に作るって事ができるんでしょうか?
>>16 > こういう質問してる時点でwindos server2008 +HyperVにしといた方がいいんだろうか
「会社で買う」のならば、どっちにしろ問題じゃないか?
金出してちゃんとした技術者に相談するか
研究して何が出来て何が必要なのか理解するまで待つべきでは。
一番楽なのは別のサーバーでNFSサービスを稼働させて、それをesxiからマウントさせる
これはWindowsでもLinuxでも可能
最悪USBの外付けでも使えば容量はいくらでも確保出来る
TerastationのNFSは遅すぎるからダメだね
>>18 たぶんその要件なら
>>21の通りでNFSなら基本的になんでもokだと思います。
ストレージというかデータストアの追加操作も結構簡単。
>>そうだとして、このサーバ内で閉じた構成にしたいんですが
>>共有したいサーバそれぞれにLANのIFを増設して閉じたネットワークを
>>別に作るって事ができるんでしょうか?
できますよ。アダプタ増設しなくてもVLAN使えばやりたいことができそう。
>>19 まったくだ こわすぎるわ・・
問題や障害は発生したときに自力で解決できるのかい?
>>19 同感。
どうして業務用の鯖でそんないいかげんな対応ができるのか不思議に思う。
仮にベンダに入ってもらっても、質問主のような投げ方だったら、おそらく使い物にならないってオチになりそうで怖い。
ブレード入れるだの言える会社なら、ブレード並べて物理鯖だけで組む方がトラブルにならずに済みそうな気が…
>>16 取り敢えず余ってるマシン
なければ学習用に1.5万くらいで買える安鯖を3台買ってもらって
実際に2台ESXi、1台ストレージ鯖という構成で勉強してみなさいな。
他人に聞くにしてももっとマトモで具体的な質問ができるはず。
業務で使うのに「初心者でよくわかりません」ってのはナシだ。
せめてやるべきことをやってから聞きなさいって。
普通の業務用PCでもとりあず動く程度にはできるし、まずはミニチュアで試すといいよ
>>24 同感。企業が業務で利用するのなら、設計や構築も含めてまともな業者に
委託すべき。自身で構築するのであれば、必要な技術スキルを適切な方法
で習得すべき。その後であれば
>>16 のような質問はそもそも出ないはず。
ブレードサーバを購入する予算があるのであれば、そのサーバベンダに
VMware のライセンスも含めた設計・構築の見積もりを依頼した方がいいよ。
28 :
名無しさん@お腹いっぱい。:2011/02/14(月) 23:53:34 ID:aM3KeGJl0
>>27 同感。でもたぶん金がないとかなんじゃない?
うちも内製化しろってうるさい。
>>28 でも、少なくともブレードサーバを購入できる程度の予算はあるっぽいよ。
ハードにはそれだけ金かけられるのに、ハイパーバイザには金を出せず、
また必要となる教育サービスなどの受講費用も出せないってのはあまりに
バランスが悪いよ。最終的にソフトウェアは全て無償のものを使うという
結論に至るとしても、それを適切に設計して運用できるだけのスキルを得る
ための投資をしなくては、何もできないと思うよ。
ブレードがどういうものか勘違いしてんじゃないの?
ブレードじゃなくてラックマウントと勘違いしてる気がしてならない……
しかしそれでも予算は結構多いな
今の時期は各社キャンペーンやってるからなぁ・・・
よーしブレード買っちゃうぞっ!なんて会話をしているのかもしれない
その検証環境一式はきっと
>>16がずっと面倒見ていくんだろうからちゃんと勉強しておけ
後で困るぞ
余り物の鯖とかPCとかでまずは作ってみなよ
必要なら研修行ってこい
その上で必要なH/W・S/Wを考えなさい
メーカーによっては仮想化用のセットをあらかじめ用意しているところもあるよ
とりあえずブレード鯖は爆音だと言っておくw
そもそもブレードは5台以上でも購入しないとメリットが出ない気がする
あと8個ゲストならESXiホストは2個でも回ると思うなぁ、ただ片方死んでもOKとするなら3台構成で、うち2台分で回せるプロビジョニングに出来ることが条件かもしれないけど
NFSとかiSCSIの前に金あるならFCだろ?
3台構成でFCならブレード使わなくていいと思う
ブレード間のネットワークの速度は気持ちいいけどなー。
金があるならぜひ。
お助けくださいませ。
ESXi 4.1=>Update1に更新したいんですが…、どうすればいいんでしょう?
評価版で使用している環境なのでvCenterからUpdateすることもできず、
CLIを試してみたいけど4.1=>4.1 Update1のドキュメントは見当たらず、
4.1な環境に4.1 Update1を上書きでインストールして吹っ飛んだら目も当てられず…
成功体験募集中です。
>>37 とりあえず、眠いので今日はもう寝るわ。 おやすみなさい。
あ、37です
>>14にありましたね。大変失礼いたしました。
vSphere Client Host Update Utilityは、
VMware-viclient-all-4.0.0-208111.exe
に入っている
これまでのパッチ、4.1update1に必要なファイルを自動的に落としてアップロードしてくれるので世話無し
>>40 できました。ありがとうございます。
つか、なぜ4.1のvSCにはHost Update Utilityは、入ってないんでしょうねぇ。
我が家では3.5から4.1に更新したので、4.0の情報はノーチェックでしたよ。
SSHログインが正式にサポートされたから?
>40
今DLして入れてみた。
これ便利だねぇw
何故にvSphere4.1パッケで削除されたのかが不思議。
vmwareお得意の、
便 利 機 能 を 使 い た い な ら \ 出 し て ね
って戦略なのかもねw
有償エディションでもこのツールは消えてる。
VMwareお得意の、「すんません忘れてました」ではないかと。
>>44 そのあたり、開発部隊主導の新興会社な香りが強いように感じますな。
「俺たちはおまえらが使いたくなるものを作る!使いたいやつはついてこい!」的な。
正直なところ、IBMのサポート費用には費用対効果を実感できるが、
VMwareのサポート費用には、一切の効果は見いだせないなぁ…。
>45
今の職場で入れようとしてる、既存実機PCから目蜂Mのブレード鯖と仮想環境への対しての移行作業で、
こ の ま ま で は ど う 考 え て も 移 行 出 来 な い
って状況になってるよw
ラック自体を新設してからこの3週間程で、新規目蜂Mのブレードで、ブレード自体がfailする事2回。
冗長構成で入れている、ブレードのI/Oカードがコケると、ブレード自体がfailして、failoverするという動作をするらしい事が確認出来たのが、
本 日
wwwwwwwwww
草生やすな、と言われても、無理wwwww
すまん、何を言ってるかサッパリわからん
そんなゴミハード返品すれば
>41
>つか、なぜ4.1のvSCにはHost Update Utilityは、入ってないんでしょうねぇ。
vCenter Serverとセットで使うのが基本だからだと思う。
で、vCSは4.1から64bit専用になって、Host Update Utilityが
64bit化対応が遅れている… と勝手に判断してた。
>49
無い。
だから、4.0のvSphereをわざわざ落として、Utilityを入れて、4.1を入れ直すという手間が掛かる。
何かあるから省いているのだろうけど・・・。
非常に基本的な質問で申し訳ないのだが・・・
ESXi を使って、VMのデータストア間の移動をしようとしているのだけど、どうやったらいいの?
今までvSphere 使ってきたからこんなところで引っかかると思わなかった。
remove from inventory して、VMのディレクトリごとmvして add to inventory しかないのかしら。
Storage VMotion したいわけじゃないし、VMがシャットダウンされてたらこのくらい
vSphere client からクリッククリックで出来てもよさそうなんだけど、
ESXiだとそうもいかないのね。
>>51 データストアブラウザに「移動」ってあるでしょ
>>51 コンバーター使ったほうが楽かも
アクティベーションあるかもしれんけどw
>>51 ほら、色々欲しくなってきたでしょ? by 某社
Host Update Utilityって、ESXi4.1でも使えるのか・・・知らなかった。
4.0の方はHost Update Utilityで、4.1の方はCLIでと、わざわざ使い分けしてたよ。
このスレは勉強になるなぁ。
>55
実は使える。
けど、わざわざvmware側が削除してリリースしてるのだから、
何 か あ る 可 能 性 が あ る
事を忘れてはいけないと思うよ。
だから、漏れはdjになると困る方のESXiのうp(4.1 -> 4.1 update1)は、CLIでした。
で、テスト環境で、djになっても問題ないESXiの方は、update utilityを使ってみて、問題がない事を確認した。
楽なのはutilityを使う方だけど、気分的にはCLIでうpした方がスッキリするw
移動はあるが、これで動かした後、
結局インベントリに追加しなおさないとだめだよね?
そんなの微妙過ぎ。
コンバーターならインベントリ追加まで自動だ
>>57 いいじゃんいいじゃん、それくらいさぁ。
金出せばいろいろ楽になるのは理解してるけど、
無料で使えるのなら俺はこのくらいの手間は全然許容範囲だぜ。
ほんとにな、無料でなんでもできると思ったら大間違いだよ
いろいろ試してみたけど、windowsのNFSサービスは結構優秀だね、かなりの速度が出る
そうそう。本当に無料でも便利にしたいなら、その手段はきちんと用意されてるしね。
CLIでもsshでもコマンドラインで実行できるんだから、そのGUIを作るのは簡単だよね?
似非vmotion(stop/pauseして別のESXホストへ移動)くらいなら一撃だよ。
>>60 OSなに? 前スレでWinのnfsdはこけるとかいう報告もあったきがす。あと速度の比較対象か数字よろ。
ドライバ揃ってるからデータストアにWin鯖ってのも便利な場面多いと思うんだ。
スナップショットが残念な出来だけどNTFS圧縮はそう悪くないしね。
>>60 win2003で使ったことあるけど
バグあるっぽいけどね
>>62 2008R2のNFSサーバ機能も高負荷かけると無反応になる不具合がある
そういえばパッチ出たのかなぁ?
60だけど、多数のVMから負荷をかけたわけじゃなかった
ただいろいろ試してこんな感じ
■環境
ホストOS:Windows 2008 64bit
■稼働VMのvmdkバックアップ
仮想HDDの容量130GB、実使用38GBぐらいのバックアップが25分ぐらいで完了。
Create Snapshot:
Destination disk format: VMFS thin-provisioned
Cloning disk 'xxxx.vmdk'...
Clone: 100% done.
Remove All Snapshots:
バックアップしたNFS上の仮想マシンを、別H/Wで起動して書き込みテストするとこのぐらい。
dd if=/dev/zero of=/tmp/test,tmp bs=100M count=10;
⇒100MB/s〜130MB/s
ただこれは1000BASE-Tで接続してるのに理論限界を超えているので、あんまりあてにならんね……。
本気で複数VMからのマウントをやったらどうなるかわからないけど、一時的な利用とかバックアップなら普通にいけるっぽいってことで。
VMware-VIMSetup-all-4.1.0-345042.isoに入ってる
VMware vCenter Update Managerは
>>40のと同じものなの?
おお、レポ乙。2k8 x64かー。単純計算で26MB/s・・・か? 速いのかどうかよくわからんなぁ。
一応手元のジャンクなopensolaris+zfs+compressなnfsdでwrite 25MB/s以上は出てる。
ddはあちこちのバッファが効いてるんだろうね。
10GBくらいの量にしてESXのパフォーマンスグラフでスループット見るといいんじゃないかな
なるほどスループットか
実はまだいろいろと構築途中で、最終的にESXiもこのWindowsサーバもバックアップセグメント内で繋ぐようにするつもりなんだ
その辺の設定が終わったらいろいろ計測してみる、今はユーザも混じったTrust側でつなげてた
68 :
名無しさん@お腹いっぱい。:2011/02/19(土) 16:19:07 ID:ixW9jfIG0
質問させてください。
管理コンソールのセグメントとゲストOSを配置しているセグメントが
ことなっている環境において、Vshereクライアントで管理コンソール
へ接続した場合、VshereクライアントからゲストOSを参照することは
できますでしょうか? 宜しくお願いいたします。
>68
VshereってvSphereの事?
ホストとvSphereは通信出来ないと接続出来ないけど。
使った事ないの?
>>68 ゲストというかホストにIP接続できるならセグメント違っても大丈夫
71 :
名無しさん@お腹いっぱい。:2011/02/19(土) 17:08:49 ID:ixW9jfIG0
Vsphereのことです。
ありがとうございます。
・管理コンソールとゲストOSのセグメントが異なっている場合の動作について
ホストとVsphereクライアント間は通信ができるという前提で
VsphereクライアントとゲストOS間も通信もできなければ
Vsphere管理コンソールから制御(PowerOnとか Power off etc)など
はできないのでしょうか?
72 :
名無しさん@お腹いっぱい。:2011/02/19(土) 17:10:51 ID:ixW9jfIG0
すみません まちがえました。
・管理コンソールとゲストOSのセグメントが異なっている場合の動作について
ホストとVsphereクライアント間は通信ができるという前提で
管理コンソールとゲストOS間も通信もできなければ
Vsphere管理コンソールから制御(PowerOnとか Power off etc)など
はできないのでしょうか?
ゲストosと通信できる必要はないよ、管理コンソールとつながればいい
できるよ。
管理コンソールというかサービスコンソール用のネットワークを介して
vSphereクライアントとESXi/ESXの通信が行われる。
んで、仮想マシンの制御もこの通信を介する。
>71-72
逆にそれが出来なかったら管理出来ないヂャンw
それこそ、ネットワーク無し(仮想NIC無し)なんていう仮想マシンを作ることも
できるし、そのコンソールを操作することもできる。これが出来なかったら、
ゲスト OS のインストール操作もできなくなっちゃうしね。
ESXi には管理用ネットワークインターフェイスというものを構成するのだけど、
ここと vSphere Client がネットワーク的に到達可能であれば、仮想マシンの
コンソール操作を行うことが可能。
ところで vSphere を Vsphere と書くのはやめてほしいな。明らかに間違いだし
すごく違和感がある。
77 :
名無しさん@お腹いっぱい。:2011/02/19(土) 17:40:19 ID:ixW9jfIG0
73、74、75様
ご回答ありがとうございました。
・V-Centerについて
V-Centerは「管理コンソール」と「V-Center間」で通信ができなければ
だめですよね。
たとえば、ゲストOSにV-Centerを入れてその中でv-centerを動作させる
場合は、V-Center⇔ホスト間の通信が必要となる為、管理コンソールと
そのゲストOSを同一セグメント(通信可)に置く必要がありますよね?
そもそもゲストOSにV-Centerなどいれないのですか?
以上 宜しくお願いいたします。
>>V-Centerは「管理コンソール」と「V-Center間」で通信ができなければ
>>だめですよね。
そうです。
マニュアルにはvCenter Serverを仮想マシン上で動かせまっせと書いてあるので
そういう運用もありなようです。
あとV-Ceneterの違和感もすごい
>>77 スペリングは置いとくとして、
同一セグメントに置くとか置かないとか、そもそもセグメントを自由に作れる上にVLAN使える状態で何を検討してるのか分からん
一度使ってみた方がいいんじゃないの? 当たり前に付いてる機能で需要が満たせる可能性は十分あるぞ。
IP的につながってれば同一セグメントじゃなくても
ルーティング可能であればアクセスできる
81 :
名無しさん@お腹いっぱい。:2011/02/19(土) 23:01:35.62 ID:/WEJvPot0
HS22(XeonX5570)とHS22(XeonX5670)でESX4.0UP1環境なのですが、
ゲストOS起動しながらVmotionしようとしたところ、エラーがでました。
もしかして違うCPUだとゲストOS落とさないと移行できない??
しかしなぁ、ちょっとググればすぐ出てくるようなことを聞くなよ…
>>1 >>2 を読めばこんな質問そもそも出ないはず。
vCenter Server を仮想マシン上で動かしてしまうという構成は俺はよくやるよ。
そいつで、自身が動いているESXも含め管理下に置いてしまうという再起的な
構成もよくやる。別に難しくないし、慣れりゃかえって楽だよ。
あと頼むから vCenter Server のことを V-Center なんて書くのはやめてくれや。
周囲を嫌な気持ちにさせるのが目的なら、確かに成功してるけど。
85 :
名無しさん@お腹いっぱい。:2011/02/19(土) 23:23:41.00 ID:/WEJvPot0
>>84 ありがとうございますです。
英語あまり得意ではないんですが、4.0なら55xxと56xxなら
大丈夫っぽいように読めるんですが、だめなんでしょうか。。。
87 :
名無しさん@お腹いっぱい。:2011/02/19(土) 23:49:35.90 ID:/WEJvPot0
>>86 なるほど、EVCを有効にしておかないといかんのですな。
明日確認してみます。クラスタにホストがいても設定変えられるのかな??
>>86 87じゃないが参考になった。vCenter便利そうだな、ぐぬぬ
うちは無料版使ってるのでvCenterとかEVCとか無理なんだが、
suspendした仮想マシンを別のESXホストで起動しようとすると、CPUがあわねーってエラー出して失敗するのは何とかしたい。
vmware serverの時は強行できたんだけど、最初からcpu maskしまくるとかの手段以外に、方法無いかな?
仮想マシンの古いバックアップがsuspend状態で保存されてて、今のESXホストで起動させようとするとこけるので、
一瞬博打でいいので復帰させてすぐ再起動とか、諦めてsuspend状態破棄して新規起動とかしたいんだけど。
>>88 俺の理解では、結局Enhanced VMotion は、CPUマスクのセットを定義しているだけなので、
「他に方法はない」が正解だと思う。
suspend 強制破棄の方法は、正直知らん・・・
>>36 亀頭だがシステム要件満たしてないんじゃねーの?
vCenter Server に接続してるか?
うちはすんなり認識したけどな。
ESX 3.5上の仮想マシンをESXi 4.1のホストへ移そうと考えています。
データストア内のフォルダ毎コピーしようと思っていますが、
バージョン違いによる変換などは必要になるのでしょうか?
vmfsのバージョン互換があるんで無変換でいけるよ。
仮想マシン自体のバージョンは違うけどバージョンアップはしなくても使える。
>91
むしろ下位互換性がなかったら大騒ぎだろうねw
>>91 互換はあるからコピーはできるけど、断片化回避のために、cpじゃなくてvmkfstoolsを使うのがよい。
ついでに両方稼働するならコンバーター使った方がいい
>91
引越し元と引越し先で、CPUとかホストの構成が違うとファイルコピーしても動かないことがあるので
VMware vCenter Converterを使った方がいいのでは?と進言してみる。
97 :
91:2011/02/21(月) 00:41:36.66 ID:71Kf/X4x0
皆様ありがとうございます。
念のためConverterの使用を考えてみます。
>>91 俺ならシンプルにVI Client/vSphere Clientでエクスポート/インポートだな。速いし。
移行後、仮想ハードウェアのアップグレード、VMware Toolsのアップデートを
忘れずに。
エクスポート/インポートなんてある?
無償じゃできない気がする
vSphereEssentials Plusにはないのかな?
102 :
名無しさん@お腹いっぱい。:2011/02/21(月) 10:46:35.60 ID:ScbqX2uw0
仮想マシンをパワーオフすると、
ファイル→エクスポート→OVFテンプレートのエクスポート
というのが選べる。
おれはここで .ova にしてる。
インポートは同様に「OVFテンプレートのデプロイ」でできる。
あぁ、これか
使ったことなかったな、単一ファイルに固めることもできるんだね
なるほど
今度試してみる
105 :
名無しさん@お腹いっぱい。:2011/02/21(月) 14:39:35.17 ID:yO9F6cHh0
ESXiで動作するPCI-EなハードウェアRAIDカードで
安価な定番製品とかってある?
>>105 中古でいいならDELL PERC 5/iか6/i
PCIブラケットとバッテリがついてる奴が望ましい
>106
PERC5はオヌヌメ出来ない。
理由 : HDDがfailした時にforce系のコマンドがあるにも関わらずグレーアウトしてて使えないから
>>107 理由付きで説明してくれるのはありがたい
そういう観点でピックアップしてなかったんで
110 :
名無しさん@お腹いっぱい。:2011/02/21(月) 23:06:08.98 ID:C3+jpxoy0
こんばんは。
ESXIで作成したゲストOSをVMDKファイルに変換する方法をおしえてください。
ゲストOSをvmdkに変換って意味がわからん
113 :
名無しさん@お腹いっぱい。:2011/02/21(月) 23:35:43.47 ID:C3+jpxoy0
>110様
どうもありがとうございました。
esxi4.0で作成したというvmdkファイルをもらったんですよ。
これって、どうやったら別のesxi(4.1)で動かせるようになりますか?
>>113 vmdkをデータストアの適当なところに配置
仮想マシンを作って、HDDを既存のvmdkうんたら これで起動できるんじゃないか
>>114 多分ID:C3+jpxoy0のレベルでは、言うだけ無駄だと思う
4ベイのRAID-BOX使ってる人っている?
RAID10で運用したいんだけど、NFSやiSCSIみたいに柔軟なことは出来なくていいから
ローカルで高速に使いたいなー、と思って。
括りが広すぎて分からんw>RAID-BOX
ESXから単体HDDに見える、という物体なら大概普通に使えるのでは?
エラー発生時の通知はBOXの機能に依るし。
寺駅みたいな外付けをESATA接続してもいいだろうね。
M/BによってESATAポートに認識不具合があってESXから見えないとかは有るかもしれないけど本質とは無関係だしな。
あぁ、うん、なので、ESXから単体HDDとして見えるなら2ベイでも4ベイでも同じだと思うんだ。
どちらかというとそこが問題じゃなくて、各種OSで動作確認してあるサーバ向けBOXと、
コンシューマWin/Mac向けBOXを比べると、後者の方がESX環境でトラブる可能性はあるだろうけど、という。
想像で言ってるだけなので悪いが、まぁ大概動くんじゃないか、と個人的には思うよ
>>102 Windowsならアクティベーション来ない?
>>120 Windowsが何をトリガにして再アクティベートを要求してくるのか
によるな。少なくとも仮想マシンのMACアドレスは変わる。
Windowsのアクティベーションの仕組みも年々変わるのでついて行けん…
アクティベーション求められても、普通にそのままアクティベートすればいい。
今は電話認証もほとんど機械応答になって、移行前のデータを消したかとか訊かれなくなったんだっけ?
いい加減、ストレージくらい冗長化しようと思ってるのだけど
色々と候補があって迷ってる。
1.ハードウェアRAIDカードを買う
メリット:高速、構成がシンプル、1つの筐体内で収まるのでコンパクト
デメリット:HDDのステータス見られない、障害検知困難
2.RAID-BOXを買う
メリット:比較的高速、製品によっては障害検知やホットスワップが可能
デメリット:1.に加え、1ポートに繋ぐのでそこがボトルネックになる可能性有り
(コントローラが3Gbps以上対応なら概ね問題無しか)
3.適当なマシンをストレージサーバに仕立て上げる
メリット:HDD監視可、バックアップ等も柔軟に出来る、余ってるマシンで組める
デメリット:ネットワーク越しなので遅い、物理マシン増える(消費電力up、場所取る)、構成が複雑になる
ツッコミどころ満載だろうけど、自分が思いつくのはこれくらい。
「コレがオススメ!」というのある?
順当にいったら、やっぱりiSCSIやNFSなのかなぁ...
ちなみにHDD4つでRAID10にするつもりです(3.ならRAID-Zもアリかな)
>>123 HCLに記載されてるRAIDカードなら,一応カード,BBU、HDDの状態は見れますよ
(少なくとも手元のカードはそうでした)
>>124 レスありがとうございます。
ちなみに、RAIDカードは何を使用されてますか?
126 :
名無しさん@お腹いっぱい。:2011/02/22(火) 18:18:27.07 ID:NEnh22wf0
81です。
EVC設定(intel)してゲストSO起動したままVmotionできる環境になったんですが
一般エラーが出て10%で失敗してしまいます。
だれか経験値高い方よくありがちな失敗パターンわかる猛者
ヒントいただけないでしょうか!!?
エスパー求むって感じだなw
一般エラーてなんだよ・・
>>123 別マシンにFreeNASとか入れてiSCSIで接続するのをお勧めするよ
>>126 そのVMwareのライセンスを購入したところに聞くべき。
vSphereは保守契約無しだと買えないはずだが。
保守契約期間が切れてるのなら、契約を更新ししろ。
未購入で評価モードで使ってるのなら、購入を想定してる販売店の営業にでも泣きつけ。
>>123 用途によるので、まずその要件を確定させないと意味がない。現状だと場合によってどれもがお奨め。
(小さなvm数個ならIntelSSDでも挿しておけば当分壊れない、とか含め)
ストレージの冗長化が目的ってことだけど、vm上で2つのデータストアにまたがってRAID1しても一応冗長化なわけで、
もうちょっと他の要件も入れないと決まらないと思うよ。
例えばバックアップ手段はどうしてる? 内部データストアと外部データストアでは使える手段が全然違うと思うんだけど。
速度についてもいくらの投資が可能でどの程度の速度が必要なのかわからんし。
132 :
名無しさん@お腹いっぱい。:2011/02/22(火) 20:20:35.86 ID:NEnh22wf0
>>130 保守はあと2年残ってます。
ただこっちで聞いたほうが早いこともあるので・・・
正論はわかりますが、だったら専用スレの必要性あんまりないので。
133 :
107:2011/02/22(火) 20:41:26.22 ID:0dxowY5v0
>108
うん。自衛隊だねw
>109
確たる理由がないと、意見が意味を持たないじゃないかw
生 理 的 に 嫌 い で す
ってのは、全く以て合理的理由ではないからね。
>132
そのH/W構成で、vMotionの要件は満たしてるの?
vMotionの要件って、かなり高いハードルがあるけど・・・。
134 :
名無しさん@お腹いっぱい。:2011/02/22(火) 21:09:52.89 ID:NEnh22wf0
>>133 GUIで「検証に成功した」とでたら要件を満たしている認識ですた。
このメッセージはもしかして虚言でしょうか?
SATAチップによっては必ずWriteThruになるって仕様がありませんでしたっけ。
>>134 もちろん設定してるだろうけどvmotion用のネットワークは構成してますよね?
138 :
81:2011/02/22(火) 22:59:22.76 ID:NEnh22wf0
VMkernel の設定はやってるんだけどなあ。。。
データストアは何?
iscsi?FC?
CPUを換えても仮想イメージはそのまま使えますか?
例えば、X4からCore i7なんですが…。
143 :
名無しさん@お腹いっぱい。:2011/02/23(水) 03:08:01.58 ID:1UYvpy7Q0
アラートメールで流す設定してる?
どうやるの?
RAIDカードのことでしたら、snmptrapd とやらでできそうな気がしていますが試してません
ESXi自体がSATAのディスクをロストすることが最近頻繁にあるんだ。
再起動すりゃまた認識する。最初はディスクがおかしいのかなと思って
いたけど8本有るディスクでランダムに事象が発生する。
そうなると疑うべきはSAS/SATAコントローラかな?
>>146 SAS5/E に SATAドライブを8台接続しています。
内部ではASC-29160にSCSI320の玉2台繋げているけどそっちは問題なしです。
>>145 疑うならまず電源かな。HBAはそのあとかも。
>>148 なるほど。SAS5/Eで外に出しているHDD8台は他のATX電源から
パワーを取っているん(裸族のマンションと地下発電所にその辺の
ATX電源補織り込んでる)ですが一度他のに変えることも考えてみ
ます。
アドバイスありがとうございます。
vCenterのhardware statusにUPS認識させる事できますか?
>>150 具体的に何をしたいのかがわからん。
UPSと何らかの連携をしたいのであれば、UPSの製造ベンダに
御社のUPS管理ソフトはvSphereとの連係機能を保有していますか?
と質問するとことでは?
vSphere Client で見えるヘルスステータスの画面は、本質的に
ESX/ESXi側に実装されているものなので、vCenterは関係無いよ。
あれはSMBIOSやBMC/IPMIで情報を吸い出しているので、
外付けされてるUPS機器のステータスを取得させるのは
無理のような気がする。
vSphere Client をmacで使うとすれば
boot campかパラレルデスクトップなどで
windowsを立ち上げないと無理?
思ったよりも遅いね
スループットよりも応答速度とかが気になるな……実際どんなもんなんだろう
NICのチーミングだけじゃなくてトランキングもきちんとした規格にならんかな
157 :
名無しさん@お腹いっぱい。:2011/02/23(水) 20:36:39.54 ID:IDWxTOC70
/vmimages/floppiesにpvscsi-WindowsXP.flpというファイルがありますが
XPでもPVSCSIで準仮想化できるってことでしょうか? 実際にやってる方っていますか?
158 :
名無しさん@お腹いっぱい。:2011/02/23(水) 23:14:25.75 ID:RmT936c30
P7P55D-E DeluxeにHDDを2個搭載してWindows7とESXiデュアルブート環境を
構築したいと考えています。
HDD1にWindows7を、HDD2にESXiをインストールしようとしていますがBIOSでHDD
を無効化してもESXiが律儀に無効化したHDDまで認識してしまいます。
BIOSでHDDを切り換えるデュアルブート環境は構築できないのでしょうか?
>>158 ESXiがWindows 7側のHDDを認識したとしてもDatastoreを作らなければ無問題では?
USBメモリからESXiブートじゃだめなの?
BIOSの起動設定でUSBを優先にしておけばWin起動時はUSBを抜くだけでOKだと思うんだけど
>>158 BIOSからだと起動の選択ぐらいだと思う
それでもほぼ問題無いけど
どうしても相手起動してる時に非表示にしたいならブートローダー使うと非表示にできるよ
まぁそっちのほうがBIOS起動しなくてもいいから楽だと思うけど
USBメモリーブートいいなぁ…
ストレージ導入したら物理マシンは完全ディスクレスにできるわけか
出来るよ、ESXiはむしろそうすべき
理想はESXiのOS部分をUSBメモリに格納、ローカルストレージは持たず、iSCSIでデータストアに直結
データストア側はRAID構成を組んで、障害発生時に検知できるようにするのがいいかなと思う
>>163 成程。ちょっと試してみます。
ところで皆さんストレージってどうしてます?
実験なら適当なマシンをストレージに仕立ててもいいけど、商用だとそこがトラブったらエラいことになるわけですよね。
かといって本格的なの買おうとしたら一気に数百万、物理マシン2〜3台程度の小規模環境だと荷が重い…。
>>164 個人やSOHOなら、安鯖買ってFreeNAS辺りでRAIDZが無難じゃない?
勿論、サポートは望めないけどね。
あと個人的にはiSCSIよりNFSの方がいいと思うな。
パフォーマンス変わらないどころか上回ることもままなるし、何より柔軟性が違う。
同じ安鯖を3台買って、1つはCPUとRAMを増強してESXiに、
1つはHDD満載してFreeNASでRAID-Zなストレージサーバに、
残り1つは上記のM/Bや電源が逝ったときの予備に…というのを妄想してるけど中々実行に至っていない。
質問です。
ESXi 4.1を使っています。
ローカルでは速度が出るのですが
hdparm -ft
で140MB/s出てます。
FTP接続をすると
最高でも15MB/s程度しかでません
どうしたら速度をあげることかできますか?
エスパーを所望か。
ESXiだけの人は、イメージのバックアップどうやってるの?
HDDを別に装着してそっちにとってもいいし、いくらでも出来ると思うよ
余ってたHDD(HDP725050GLA360)で、仮想ディスクとして使うのと、RAWで使うのとを比較してみた
環境
ESXi 4.1U1
ML115 G1
ゲストOS:WinXP 32bit
システムドライブではなくデータドライブとして繋げて、500GB全領域をNTFSで確保
IDE → PVSCSI@RDMの順
CrystalDiskMark 3.0.1
Sequential Read : 76.740 → 93.723 MB/s
Sequential Write : 65.774 → 92.959 MB/s
Random Read 512KB : 23.797 → 44.058 MB/s
Random Write 512KB : 31.790 → 54.953 MB/s
Random Read 4KB (QD=1) : 0.261 → 0.647 MB/s
Random Write 4KB (QD=1) : 0.648 → 1.507 MB/s
Random Read 4KB (QD=32) : 0.488 → 0.670 MB/s
Random Write 4KB (QD=32) : 0.662 → 1.501 MB/s
Test : 1000 MB [E: 76.3% (354.0/464.0 GB)] (x5)
仮想マシン上でのI/Oベンチがどれほど参考になるかはアレだけど、
RAWの方は実機と遜色無い速度でてるみたい。
ファイルサーバ用途やtemporaryとして使用するならいい感じだね。
ちなみに、仮想ディスクのままでのLSI Logic→PVSCSIだと速度は全く変わらなかった。
負荷の方は見てないので分からん。
173 :
名無しさん@お腹いっぱい。:2011/02/24(木) 20:52:01.01 ID:cY8yF4Ah0
>>159 ご指摘の通り、単純に考えればそれでいけそうです。
ありがとうございます。
174 :
名無しさん@お腹いっぱい。:2011/02/24(木) 20:54:35.75 ID:cY8yF4Ah0
>>160 USBブートの手も選択肢の一つですね。
みなさんのアドバイスを参考にして再検討してみます。
175 :
名無しさん@お腹いっぱい。:2011/02/24(木) 20:57:32.38 ID:cY8yF4Ah0
>>161 ブートマネージャ(株式会社ジャングル:マルチブートマネージャ5)を
利用してみましたが、ESXiのブートが上手くできなかったのであきらめてます。
実績のあるブートローダーとかあるのでしょうか?
>>175 フツーに考えてESXiをマルチブートにしてる人は少ないと思うよ?
ESXi起動中は操作用に別のPCが必要だし、それならWin7でやりたいことをその操作用PCでやるか
ESXi上の仮想マシンとしてWin7を動かせば良いんだから。
逆にWin7を優先したいなら、Win7の上でVMware PlayerとかVMware Server動かせば良いし・・・
なぜESXiを選んだの?
そもそもESXiはマルチブートとかやるものじゃないし、常時稼働が基本だから
サーバー運用って感じじゃないから
テストとかじゃないの?
あるいは個人の趣味とかw
がちゃぽんでHDD入れ替えればいいんでない?
マルチブートとは言わないけど・・・
頭わるすぎて実にどうでもいい。成功報告も失敗報告もいらね。
>>164 安鯖を使ったNASを2台作って、分散&相互バックアップに使うと良いよ。
簡単な運用でも「昨日の状態のvmを3分で復帰」程度はできる。
DANで2つのHDDに別々に仮想ディスク作って、ゲストOSのレベルでそれらをソフトウェアRAID。
さすがにこのレイヤでの冗長化は、実用的に難ありかな? やってる人いる?
DANってなんだ。DASですね。
DAN DAN 心
やってないけど悪くはないんじゃないかな、ただvmdk以外をどうするかが問題な気がするけど
>>185 OSから見ればディスクが2個のRAID1構成
なので片方のHDDが物理的に死んでもゲストOSは稼働し続けられるってこと
>>185 ストレージサーバや、高価なRAIDカードを用意しなくても
手軽にHDDの冗長化ができるかな、と思いまして。
>>183さんの言うように*.vmx等の設定ファイルの問題があるので
いざHDDがクラッシュするとダウンタイムが発生して、正確には冗長化とは言えませんけど。
また間違えたorz
× 183さんの言うように
○ 184さんの言うように
そういうやり方なら設定ファイルはUSBメモリで仮想ディスクのデータストアはDASでいいんじゃないの?
>>187 ダウンタイムどころかvmxやvswpとかロストするねぇ・・・
ゲストOSがvswpに退避されたメモリデータにアクセスしようとして・・・さぁ大変
再起動するにしてもvmxがないw
バックアップから復旧が必要
作り直すにしてもMACアドレス変わっちゃう
素直にRAID BOXかRAID Cardにしたら?
まぁiSCSI鯖建てるのがお勧めだけどw
ゲストでフロッピーの使い方がわからんのだが
ゲストにIPnuts入れて仮想ルータを試験的に入れようとしたんだけど
起動はしたが設定をFDに保存してくれない・・・なんで?
>>190 その辺りは、予め両方のHDDのデータストアにvmx等を複製しとけばいいでしょ。
クラッシュしたら、一旦ゲスト停止させて、いちいちイベントリに追加し直すという手間はあるけど。
若しくは
>>189の言うように、設定ファイルはブートさせてるUSBメモリ自体に置くとか。
>>191 そのものずばり、VMware用のファイル配布されてるし
分からないなら、そっちを使っては。
>>181 なるほど NAS2台でDRBD組むってのもアリですね!
ちょっと検討します
Openfiler が初期でDRBD+Heartbeat対応で結構面白そう
>>192 それだとvswpは冗長化出来ないよ
disk1つ死んだときにvm落ちるなら冗長化じゃない
それとUSBフラッシュメモリ上にDataStore作れないよね?
むしろ作る方法あるなら教えてくれ
アップデート当てても大丈夫なようにあまりトリッキーじゃない方法でヨロ
>>196 >disk1つ死んだときにvm落ちるなら冗長化じゃない
それは
>>187自身が認めてるじゃない。
あくまでも、HDD逝ったときに出来るだけ早く直近の環境を復元できる手段、というくらいの意味でしょ。
追加投資無しに。
199 :
名無しさん@お腹いっぱい。:2011/02/25(金) 18:15:59.02 ID:qNr1sfZ20
流れに便乗して訊きたいのですが
RAIDカードやRAID BOXで束ねたアレイをゲストOSからRDMで直接使うことって出来ますか?
ESXiにファイルサーバも統合したいと思っています。
>>199 対応RAIDカードなら出来る、最終的にESXiから見たらディスクがアレイになっているのか、単体なのかはわからないから
後結構前に書いたんだけど、対応してないRAIDカードでもパススルーによって使用できることもある、うちでは快適そのもの
>176
漏れESXiをマルチブートで使ってるw
HDDを2台積んで、片方はWin7、もう片方をESXiにしてる。
Win7の方では片方のHDDを無効にして、ESXiではWin7HDDをデータストアに組み込まない様にして使ってるよ。
つまり、相互のHDDは干渉しない様にしてる。
何もしなければWin7、起動HDDを指定してESXiでブートしてる。
エンコ用PCだから、そういう使い方で問題ないのさw
>>200 レスありがとうございます。
ESXi上でファイルサーバも問題無くいけそうですね。
ちなみに
>対応してないRAIDカード
は何を使ってますか? 前スレでRocketRaid2302を報告されていた方でしょうか?
>>202 うん、それ
この前HDDが1個エラー出たけど、予備のHDD突っ込んでリビルドかけて無事修復できた
>>197 >それは
>>187自身が認めてるじゃない。
(゜Д゜)え?
>>192へのレスだぞ?
以下のコメにつっこんだんだけど・・・?
>その辺りは、予め両方のHDDのデータストアにvmx等を複製しとけばいいでしょ。
@ESXにLinuxをインストール
↓
ANFSで領域をシェア
↓
BESXのデータストアとして領域をマウント
↓
CそのデータストアにLinuxをインストール
↓
@に戻る
これを無限に繰り返していくと、どうなるだろう…
話題のThunderbolt、eSATAやGbE、Fibre Channelまで繋がるんだってね。
そのうちESXでもサポートされたりするのかな。
>>171 ベンチ乙 結構変わるもんだなぁ
どっかのCPU処理がさちってるんじゃないかと思うんだが。
>>195 おお、知らんかった。やってみた記事もあるようだな。これは良さそう
・・・あーでもファイルシステムがLinuxだからsnapshotに難があるのか。ぐぬぬ
btrfsどうなんよ
>>203 RAID利用するのがvm1つだけなら、ESXから認識させるよりRAID管理ソフトも使えるので有利だよね。
あ、今一瞬「ESX上からRAID管理するために一時的にパススルーして(ry」というのを思いついたが
データ入ったドライブでやってみる勇気はないww ていうかどうせESX側のマウント解除できんか。
>>198 下手に安物の2.5インチHDDでミラーリングするより、
SSD単発の方が信頼性上なんじゃないかなー、と思ったり。
\1万あったらC300とか買えるしさ。
RAID1にしてても、HDDより先にRAID-BOX側のコントローラが逝く可能性もあるわけだしね。
特に、挙げてるケースはFANも何も無しで熱籠もりそうなので。
>>208 パススルー設定するとESXiの再起動が必要だよ
んでその後はゲストOSが専有するからESXiからは見えなくなるはず
やっぱりかーw 残念
ESXホストにRAIDカードな構成にもいろりろメリットはあるんだけどアレイ管理出来ないのが最大の難点だからなぁ
>>175 俺も
>>201とほぼ同じやり方で1台のPE T105安鯖にWin7 x64とESXi 4.1を同居させているよ。
但し俺の場合はESXi 4.1を内部ポートに挿したUSBメモリからブートにしている。
起動切り替えは電源ON時に<F11>キーでブートメニュー表示して選択する方法だが俺的にはこれで無問題。
OS選択操作しないときどっちを起動するかはBIOSで設定しておくんだが、普段はWin7 x64が起動するようにしている。
検証環境構築用 + 予行演習兼自習用の自腹マシンだがずいぶん重宝しているよ。
213 :
81:2011/02/26(土) 19:59:37.03 ID:9iWBKrEr0
vmkarnel上でvmkping疎通が取れない場合の原因エスパーさんわかりますか?
同一セグメントで双方デフォゲには届く。
設定はあってるっぽいのに届かない・・・
FreeNAS入れてみたのだけど、あまりパフォーマンス良くないなー。
SMB/CIFSやNFS、iSCSI全てLinux(lenny)の方が上だ。
この辺りは、VMIやその他ドライバの準仮想化が影響してるのかな。
測定方法は
>>215 Win7とXPのクライアントからマウントしてCrystalDiskMark。
217 :
81:2011/02/27(日) 19:25:22.76 ID:3pxmc+ip0
自己解決。
NICのチーミング設定でなぜかスタンバイから本番に変更しESX再起動、
またスタンバイにして再起動したら疎通が通るようになった。
ESXiに使うUSBメモリ、SLCのにしといた方が気休め程度にはいいかな?
>>218 好きにしたらいいんじゃね?
書き込みは、構成いじった時位しか、発生しないだろうけど。
SATAをRDMしてゲストに見せているんだけど、データが化けることがあって困っています。
ハードは
G45M-S(ICH10R) + HDD x 4
で、そのうち1本はゲストOS本体用にdatastoreとして、OpenIndianaをインストール
残り3本はRawでマッピングして、zfsでRAID-Zを組んでいます。
1Tほどのデータを書き込んだあと、参照するとzfsが大量のchecksumエラーを返してきます。
まったく同じハード構成で、ESXiを使用しない場合とRDMを使用しない場合では問題が
ないので、RDMに起因する現象だと思うんですが、こんなトラブルに遭遇したことありますか?
ゲストOSが本来はサポートしてないNICでE1000として認識させていれば全く問題ないかな?
>>221 ゲストじゃなくてホストだよね?
ドライバの入れ方乗ってるサイトあった気がする
うーんと、元々はCentOSをそのまま入れて使おうと思ったんだけどオンボの蟹さんを認識してくれなくて、
IntelのNIC買うのもなんだしドライバ入れるのも面倒だしESXiで仮想化してみるかと興味がわいてきた。
で、今は本来認識しなかったNICをESXi経由で使ってるんだけど全く問題ないよねって事かな・・・、大丈夫だとは思うけど一応。
ESXiに標準で収録されてるドライバでは蟹は動かないし、oem.tgz にファイル
ぶち込む方法で無理やり蟹を使うくらいなら Amazon で Intel CT アダプタ買った方が
幸せになれるような気がする。
拙者もそう思うでござる
やはり24・365で稼働させるのに蟹は信頼できないでござるよ
vmの認証が通ってないNICはヤメトケ。
漏れも、oem.tgzを弄って、蟹NICを無理矢理認識させた事あるけど、
ど う 頑 張 っ て も D H C P で I P が 取 れ な い
って現象が出たよ。
手動でIPを振ると正常に通信出来る。
で、CTを入れたら、一発で何も問題なく使える様になった。
多分そういう事だろうね。
ま、Intel CT Desktop アダプタも認証取得済みデバイスではないんだけどね。
ESXiに標準で入ってる e1000e ドライバがそのまま当たって動くというだけの話。
ただ、恐らく Sourerforge で公開されてる Intel の e1000e ドライバのコードを
ポーティングしたものだと思うので、内容的には問題なさそう。
準仮想化SCSIコントローラをシステムドライブにするのは推奨されてないけど、何か理由があるのだろうか?
不安定とかだったら そもそもデータ用のドライブにするのもアレだし……。
単に、OS側がデフォでドライバ持ってないから?
USBメモリーにVMwareいれてディスクレス、iSCSIを使うって構成ですが、
エンタープライスクラス?の場合はどうしてるんでしょうか。
データセンターのラックに並んでるサーバーにUSBメモリーさすなんて運用してるんでしょうか。
普通にRAIDじゃないの?
もしくはSSD
マトモな所なら失笑するレベル
マジレスするとブレードサーバだからローカルのストレージはもたずSANの領域を割り当てる
ブートのメディアどうしてるか、という話なのに
なんでことごとく見当違いなツッコミしてるんだろ
>>228 比較的サイズの大きな I/O に最適化されているので、
起動ディスクではあまりメリットが無い、というのを
vmware.com のどこかの英語ブログで読んだような
記憶がある。
>>229 サーバメーカーの一部は、あらかじめ ESXi Embedded を
工場で組み込んだモデルを販売しているよ。
データセンターのような重要なシステムで USB Memory Boot で
使いたい場合は、このような機種を選定することになると思う。
USB メモリの品質や保守も含めてサーバベンダから買うと
いう形態。
USB メモリの品質や速度もピンキリなので、さすがに
at your own risk でなんとなく USB メモリを選択して、それを
データセンターで使うってケースは無いだろうね。
うむ。要求仕様に合致すればUSBメモリブートあり。
一応USBメモリにもそれなりに信頼性とかの付いた物体があってだな。
(当然あらゆる用途で100%信頼できるだとかいう話ではない)
しかし考えてみるとブート時に読むのと、conf書き換え時にアクセスする以外は
何もアクセス無いのかな? 稼働中に引っこ抜いてみたらどうなるか実験しといたほうがいいかこれ。
信頼性の高いUSBメモリーってたとえばどれですかね
むかし業者が持ってきたのは見かけ何の変哲もない物体だったが(HPロゴだがどっかのOEM)
マージン広く取ってあるのか、選別品なのかはしらん。そもそもまず壊れませんが、とのこと。
スペックシートがあれば書き換え回数とか載ってたかもな。
今なら中身SSDで接続がUSBってのがごろごろ売ってるのでその辺でいいんじゃないか?
ま、ブート用とかドングルの話であって何かシビアなアクセスしまくるなら違う話だと思うぜ
USBメモリの話が出たので、障害の話を。
数週間稼動させていると各VMがハング、vSphere Clientからはログインするも延々砂時計
という現象に見舞われた。(過去スレで相談しますた)
ESXi 4.0 から Dell Customized にしたら直ったんだが、
ESXi 4.1 にしたらまた同じ症状に。
よく考えたら、入れ替えのたびに2個のUSBメモリを交互に使っていたから、
実はUSBメモリが原因なんでは? と思って、また交換したら直った。
不調のUSBメモリは、WindowsのReadyBoostで使っていたんだが、不意に無効になっていることがあって、
なんか相性が悪そうだから別の用途に・・・と思った俺が馬鹿でした。
おおー、実際にはそんな症状になるのか>ESXiのメディア障害
そいつぁある程度信頼性のあるメディアにしておきたい感じだな。
ということは、
ディスクレスの360G5をPXEブートさせるようにしたのは結構、正解に近いのかな。
SASのHD買う金ない貧乏会社というのはおいといて...。 www
それがいいと思う、ローカルストレージには極力入れないほうがいいかな
バックアップめんどくさいし、もったいないし
一応、こちらでも報告。
自分の環境だとESXi上のWinXPにCOMODO Internet Securityをインストールすると
100%ブルースクリーンになってしまう。
■環境
VMware ESXi4.1u1
ゲストOS:WinXP pro SP3
FW:CIS5(Firewall&Defenxe+)
NIC:vmxnet3
ハードはML115 G1、Athlon X2 5050e
■詳細
ESXiでXPにコアを2つ割り当てた状態でCISをインストールすると、
OS起動時にtcpip.sysがエラー吐いて100%BSODに。
ttp://petite-soeur.dyndns.org/cgi-bin/up2/src/ps24851.png コアを1つにするか、CISをアンインストールすると正常に起動。
ちなみに実機のデュアルコアでXPなマシンでは何も問題無し。
信頼性の高いメディアって意味なら仕事で工業用CFを使うんだけど,工業用のハードに組み込んで各種の耐久試験を行った際に他が壊れてもCFだけはしぶとく生き残るのを見てきたから個人的に崇拝してる。
ただ値段高いしそこまでの過酷な環境って個人使用じゃ人が死ぬレベルだし、コンシューマ品でもちゃんとした物を普通に使う限り周りのハードより対物理、電気、温度、寿命で優ってるから、
プライベート使用で容量や速度はそれほどいらないけど信頼性が欲しいみたいな用件にはIDEがあるなら個人的には、コンシューマ用CFが現時点では一番かなと思ってる。
最近は工業用のSATASSDとか対環境性が高くて多ビットエラー訂正がついてるのもあるけど書き込みの信頼性と長時間のデータ保持(電源投入なしで10年単位)のために
SSDなのにWRITEがすごい遅いこともあっていまいちSSDとしての利点を感じないし個人での入手性や値段的に選択肢に入りにくい。
USBメモリはメディアとしての信頼性は物によるんだろうけど、そもそもUSBでの接続自体が静電気とかのノイズの類にメチャ弱い
これはUSBの規格レベルの話だし何より規格自体が一般用途での環境での使いやすさを求めたものだからしょうがないけど。
コンシューマでもちゃんとしたメーカーの製品についてる外部USBポートなんかはポート自体が筐体に少しめり込んでで物理的に外部からの静電気が飛び込みにくいようになってたり
ガスケットとかでUSBのアースと筐体のアースの接続を強くしてたりとメーカーがノイズ対策を色々苦労してるのがわかるよ。
実際、俺もUSBメモリを挿したシステムで環境試験をしたときUSBメモリがぶっ壊れたってのは何度か経験した。
業務用途でESXとかをいれてブートに使ってる場合があるとかの話だけど高信頼なUSBメモリを使ってる上にUSBのメス側ハードにも何かしらの対策をしてたり
基本的に一度環境を作ったらメンテのときくらいにしか触れないように物理的に人間の手が触れられないようになってると思うよ。(ソースはない)
信頼性への考えってその人の考えや使用用途によるし話出すと際限ないんでとやかく言う気はないし、このスレの住人のレベルからするとこんなことは蛇足かと思うけど
個人でESXiをUSBで使ってて連続稼動させてるって人は外部ポートではなく内部ポートで接続して筐体内部にしまって触れないように位はしといた方がいいと思う。 長文スマソ
そもそも中古のUSBメモリ使うこと自体が間違い
HDDと違ってSSDやUSBメモリ等のフラッシュメモリは自分を破壊しながら書き込みをする
せっかくESXiが出来るだけ書き込みしないようにしているのに
ボロボロになった中古を使うなんて・・・!!
どこに中古のUSBメモリなんて話が?
ノートPCにESXi入れるならともかく
普通にミラーの内蔵HDDもしくはSSDでええやんw
スワップもローカルに持った方がいいだろうし・・・
ESXにUSBメモリ使うかどうかはSIerによって見解異なる。
最近のサーバはどこのベンダも一つ内部ポート持ってるね
後HPなんかだと、自社の認証済みUSBメモリとかも売ってる
>>244 筐体内部のUSBポート使うのが主流だと思うんで話としては合致してる。
まぁ当然と言えば当然かも。
>>250 用途によるだろうけどUSB使うソリューションも売れるレベルにはあるわけか
内蔵ミラーの方が冗長性と信頼性高いと思うのは俺だけ?
>>252 家庭で使う分にはいいけど、業務となるとストレージサーバに集約した方が管理が楽でしょ。
255 :
名無しさん@お腹いっぱい。:2011/03/02(水) 17:01:34.14 ID:/ZmXxfHZ0
すみません、質問させてください。
ESXi4.1使ってるんですが、
公開鍵を作ろうと思ってSSHでログインしてssh-keygenを叩いても
-ash: ssh-keygen: not found
と出てきてしまい使えません。
やりたいことは別のPCへパスワードなしでログインしたいです。
何かわかることがありましたらご教授願いたいです。
業務用途ならUSBメモリかHDDか関係なくメーカー純正オプション+保守契約
量販店に売っているようなのをつけちゃいけない
それにUSBメモリの故障に限らず落ちるときは落ちるんだから
落ちて困るなら初めから複数台構成+FC-SANにする
壊れたら交換するだけだよ
USBメモリだろうが他の部品だろうが変わらないよ
258 :
名無しさん@お腹いっぱい。:2011/03/02(水) 18:23:25.49 ID:vhZWeqTA0
>>258 ましかどうか分からんが、eSATAの場合、
コートローラーがintel以外の可能性高くね?
場合によっては見えないかもよ?
>>258 それを選択する合理的理由を明確にしとかないと、なんでまたそんなイロモノを?って米ばっかつくと思う
(人柱したいんだ、とかでももちろんOK)
>>259 IntelってハードウェアRAIDのコントローラ作ってるんだっけ?
>>260 いや、単に安価に冗長化できたらいいな、と思って。
>>261 >>259 eSATAでつなぐからOSからは外付けRAIDのコントローラは見えないだろ。
>>259がインテルがどうとか訳の分からないこと言うのが悪い
>>261 うーん、冗長化ってことはたぶん全体の可用性を高める方向での話しだと思うんだけど、
例えば信頼性の低いRAIDカードとか刺しても可用性上がらないよね、ってことで、
これに2.5インチSASは乗せないだろうし、note用2.5インチSATAを連続稼働させて使うとかだと、
果たして冗長化するメリットが生かせるかなぁという心配は出てくるんじゃないかな。
(もちろん障害の内容が変わってくるのでアリと言えばアリ)
で、そもそもまともに動くのかという心配に対してだが、これは微妙ではないだろうか。
WDの3.5SATAをM/B直結という環境でも不具合が生じたり、同じく特定RAIDカードに繋げるとエラー頻発
という事例があるように、SATA2.5自体が相性的問題を抱える可能性があるのと、
同じ問題がRAIDユニットのチップにも言える、といったところか。
可能性でしかないのでいざ買ってみたら極めて安定動作するかもなんだけど。
個人的には是非やってみて欲しいがIntelのSSD単体のほうが障害発生率は下がるんじゃないかと思う。
>>263 ちょっと言葉足らずだが、マザーのSATAコントローラーの事じゃね?
普通に考えると。
ICHの6chの中からeSATA作ってれば良いけど、
大抵のマザーってMarvellやJM使ってたりするじゃん。
それにしても、別にオンボードのSATAがintelしか認識しないというわけではないから
見当外れもいいとこでしょ
プロとタコが交差するときスレッドは荒れ始める
>>257 概ね同意だが、ストレージとの接続方式が FC-SAN でなけれなならない
という論調には賛同しかねるな。iSCSIでもNFSでも、まともな製品でまともに
設計すれば現実的な可用性は確保できる。
個人的にはFC好きなので、予算さえ許されるのならFCが一番いいと思うけどね。
ただFCはHBAやSFPが高くってなぁ。何年経っても値段が下がらない…
EmulexやQlogicって、ボロ儲けな会社なのかな。
ぼろ儲けだろうね
よくわからないけど金がそこそこあって、仮想化でまとめてみたい、なんて会社相手にクソ高いFC-SAN構成を売りつけたりしてるのが現状
実際そういう構成にすると安くならないどころか……なんてのはよくある話
>>198,258
こういうのの、ケース無しで二股ケーブルみたいなRAIDコントローラ欲しいな。
PCの筐体内でスマートに使える様なやつ。
でもよく考えたら10GbEってコワイよな。
この世で最高速の光でさえ、1bit送る時間に真空中を3cmしか進めないんだぜ。
1mあたり最低でも33bitが列をなしてフェース・トゥ・ノーズでぶっ飛んでるわけだ。怖ぇ〜。
ファイバや銅線の中では光速はもっと遅いから、どんだけ...。
光速が遅くなるって表現はちょっと……
Thunderboltでマシン直結とか出来ないのかね。FireWireみたいに。
普及して10Gbpsが低価格してくれると嬉しい。
InfiniBandでいいんじゃね
10GbEより安いし
SATAってのはPCがホスト(target)に出来んのかね。周辺機器でSATA出力?があるからチップはあるんだろうけど。
伝送距離は限定されるけど、今の使い方ならeSATAでいいやーとか思ってしまう。
eSATA接続のRAID-NASって安価ESX構成には結構いいポジションなんだよな。PC+iSCSIより速い。
言ってる意味よくわからないが
SATAもeSATAもケーブル形状違うだけで同じだろ?
eSATAだったらNASじゃなくてDASじゃね
用途目的が違う
DASだな、ネットワーク関係ないし
うわおう
すまん、NASじゃなくてDASね
PC使ったeSATA接続のDASって作れんのかねーという話
>>269 FC-SAN限定だなんて書いてないわけだが、なぜわざわざ難癖つけるんだ?
業務用途ならと最初に書いておいただろう?
拡張性やパフォーマンスの観点から採用例の多い構成で例示しただけなんだが
イチイチiSCSIやnfsに言及しないといけないのかい?
特定環境下以外でそんなに普及してるか?
適材適所で使い分けろよ
視野狭いぞ
話を最後まで聞かないトカ周りに思われてないかい?
>>281 eSATA対応のRAIDケースとか売ってるよ
ポートマルチプライヤに対応してないとダメだけど
あとeSATAついたRAIDはバッファローとかでも出してるし
iSCSIのレプリケーションができたら万全体制だけどできないよね
ESXiの機能では。
それってiSCSIサーバー側に求める機能じゃね
iSCSIクライアントでしかないESXiに求めてもしゃーない
>>283 む??
それはどんなソフト使えばいいわけ?
ESXiでゲスト-ゲストの通信が、ゲスト-外部に比べてかなり遅いんだけど、こういうもの?
ゲスト-ゲストはVMNET3を使って、外向きと別セグメントの仮想ネットワークで
繋がっているんだけど、外向きのネットワークで繋げたのと結果は同じ。
それともやり方間違っている?
>>285 iSCSIターゲット側で実装するものでしょ
もしくはやるなら、iSCSIターゲットを2つ接続して、vmdkを2つ作ってソフトウェアRAIDとか
OpenfilerだとiSCSI+Heartbeat+DRBDがパッケージで出来るみたいだからレポよろ
ID:k1vgCHZbはID:nd4gBoU80のやりたいことがまるで理解できてないっぽいね。
>>277 >>281 >>287 なんだがどう説明したらいいんだ
NASを買うかわりにPCで作るように、DASをPCで手軽につくれたらいいな、みたいな?
GbEのiSCSIが遅いって話の流れなので、FCやInfiniBandもいいけど高いので、eSATA使えると嬉しいのに、という。
>>291 既存の専用RAID-BOXではなく、PCをソフトウェアでRAID-BOXに仕立て上げる手段はないか、
という話でしょ。
PC1とPC2をeSATAで直結すると、あたかもPC2が一つのHDDに見えるような方法。
まぁ無い思うけど。
そういう特殊なチップをeSATAカードがあれば別だが。
もはやVMwareスレで語る内容ではないな。
>>276 Infinibandは安くて速いけどESXでしか対応してないからな…
>>294 うむすまん こうなるとは思わなかった
eSATA出力するカードがあればニッチに需要有りそうだけどESXで使えるようになる頃には終わってそうねw
素直にeth束ねてiSCSI/nfs っすかねー
要するに足回りがSATAな共有ストレージが欲しいって事?
PC-DASか。
このスレ的には出来たら面白そうではあるが、ニッチ過ぎるな。
専用のアダプタ要る時点で、結局 高コストになりそうだし。
なんだかんだで、結局DASなら、SAS RAIDカード+EXPANDERで良いんじゃね?
って話になるかもなぁ。
PC-DASの考え自体はおもしろそうだけど。
ディスクIO使いまくりな処理でもさせない限り
GbEのiSCSIでも不都合無いし、
そうするとDASがいらなくなるという・・・
でもなー、DASになると結局アプライアンスが一番確実なんだよね
故にあんまり需要がないんじゃないかね
iSCSIにしてしまえば実質DASになるからそれで良いと思われ
>>288 とりあえず、
ethtool -K eth0 tso off
かな。
share SATA
商品を見たことはないが
>>308 意味ないというか RAIDコントローラは当然別に必要だね
購入検討したことあるけど、XENONの壱号機はいいよね
>>308 こういうのって、実用を考えると実質使えるRAIDレベルは1か10なんだよなー
で、上の方で言われているPC-DAS組めないかという話は
RAID-Zや、WebGUIでの柔軟な操作(S.M.A.R.T.等の各種ステータス取得や障害監視)をしたい、
というところにあるのだと思う。
そうなると結局、iSCSIやNFSといったTCP/IP越しなものになってボトルネックが発生する、と。
高速化しようとしたら高価なHBAやらが必要になってアウアウで堂々巡り。
業務ならともかく、個人利用なら、
GbEのNFS or iSCSIで我慢って所だよね。
10GbEさえ安くなってくれれば解決なんだが、
まだ当分安くなりそうにも無いしなぁ。
そうなりますねー
→GbE nfs, iSCSI構成ではI/O不足になるvmが出てきてしまったどうしよう
→ESXホストでRAIDカード+EXPANDERで外出しで解決だ(
>>301) もっと安いのもあるぞ(
>>304)
→ESXが動いてるが為にRAID/diskの管理が出来ない/不便、バックアップやりづらい、何とかならんか
→そこでFC-SANなアプライアンスの出番ですね→高価すぎるので全力で回避したい
→だったらアプライアンスのDASで解決だ(
>>302) →それもまだ高価すぎるので回避したい
→ストレージは別途マシンで組んだ方が安いしいろいろ捗るよね→でもFC結構高いんだよ
→だったら安価なGbEをつかえば・・・→
金がない。贅沢は敵、ということで、ええ
>>311 10GbEは消費電力と熱がどうしてもねぇ...
家庭用のスイッチがこなれるには、プロセスルールの微細化を気長に待つ必要があるので
もう数年はかかりそう。
現実的で無難なのはGbEでチーミングかな。
2,3本束ねればSSDはともかく、HDD*4くらいのRAID10なら耐えられる。
チーミングなら2点間のスピードはあがらないしょ
ストレージの話が出ているので便乗して質問なのだけど
SATAカード(非ハードウェアRAID)を追加する場合、
ゲストOSからRawで用いるのと、カード毎パススルーして使うのとでは、パフォーマンスって変わってくる?
試してみた方とかいますか?
生憎 自分の手元にはパススルーできるデバイスがないもので……。
>>316 おぉ、そのものズバリなレスありがと。
安価なHCAあったら検討してみようかなぁ。
初心者質問ですが
iSCSIターゲットをファイルで作るとエクステントファイルが出来るんだけど
このエクステントファイルをコピーする事でバックアップになりませんか?
さっき試しにゲストFreeNASに5GBのiSCSIターゲットを作ってゲストXPにイニシエータ入れてマウント
NTFSでフォーマット後適当なテキストファイルを作成して保存
そのままマイネットワークからマウントされてるエクステントファイルを名前を変えてコピーして
複製されたエクステントファイルも新たにiSCSIターゲットにして更にマウントしてみた
しっかりと中身のテキストファイルもろとも複製されてた
ゲストXPにマウントされた状態のまま複製に成功したんだけど
この方法なら仮想マシンの保存されているデータストアも稼働中のままバックアップできないかな?
そんなに甘くないですかね
EqualLogic買ってもらえることになった!うひょー
むう、いいな
もし可能であればベンチマーク的なものが見てみたい……
NICの数が3本だから最大3Gbpsまでいけるんかな
>>316読むと、InfiniBand使うにはにはSubnet Managerというの必要らしいけど
スイッチ無しにマシン同士を直結はできない?
>>323 できる。
コンピュータをSubnet ManagerにするためのOpenSMってソフトがOpenFabricsから提供されているので、
相手側のマシンで実行すればいい。
>>324 ありがとう、調べてみる。
ZFS使えるOSで動くと良いなぁ...
ESXiでファイルサーバも組みたいと思ってるのだけど
FreeNASとかのVMware Tools入らないOSだと、パフォーマンス厳しいかな?
>326
厳しいのはコンソールの操作だけ。
リモートで操作する分には問題ない。
>>327 HDDやLANのスループット、CPU負荷等もLinux辺りと比べて遜色無い?
上の方で、準仮想化云々とか言われているので気になってまして……。
RAIDZ使いたいのですけど、Solarisや素のBSDは触ったことないもので。
>328
同一ホストで複数ゲストを立ち上げる場合は、I/O負荷によるスループット低下の方が気になると思うよ。
CPU負荷はそれ程気にならないかな。
>>328 VMWare Toolsの有無で差が出るのはLANかな。
でもSolarisならTools入るし、大丈夫。
>326
FreeNASの公式でVMware Imageを落とせば、
Open-VMware-Tools入ってるよ。
フリーのiSCSIターゲットでお勧めなのありますか?
Openfilerがきになってる
335 :
332:2011/03/06(日) 02:38:32.14 ID:fERyju820
乙
しかしテストするゲスト同士で物理HDDを同じものを使ってるってことでいいのかな?
RAWデバイスとかにしたらどうなるかな…
>>336 はい、同じ物理HDD上の同じ仮想ディスクに対して、です。
RAWは余ってるHDDがないのでちょっと試せません。
あと、言い忘れましたがSambaは同期書き込みです。
同仮想ディスクをゲストOS(XP@PVSCSI)に繋げて
直接ベンチしたら以下な感じでした(スクショ撮り忘れ)
Sequential Read : 66.938 MB/s
Sequential Write : 63.965 MB/s
Random Read 512KB : 31.182 MB/s
Random Write 512KB : 40.082 MB/s
Random Read 4KB (QD=1) : 0.546 MB/s [ 133.4 IOPS]
Random Write 4KB (QD=1) : 1.172 MB/s [ 286.0 IOPS]
Random Read 4KB (QD=32) : 0.712 MB/s [ 173.9 IOPS]
Random Write 4KB (QD=32) : 1.162 MB/s [ 283.6 IOPS]
Linuxはなんかキャッシュが効いてるっぽいですね。
338 :
名無しさん@お腹いっぱい。:2011/03/06(日) 19:53:47.22 ID:otRvONT+0
esx(i) 4.1update1
ってはじめからjavaインストールされてますか?
それともはいってなく、自分でインストール必要がありますか?
釣りだとしてもつまらん
釣りではありません。
そうですか、では20万年ROMっててください
そんな冷たいなぁ。
javaがesxiの何にインストールされてるとうれしいんですか?
345 :
338:2011/03/06(日) 22:31:47.54 ID:an+bml3oP
>>345 もしかしてesxiが何かわかってないのですか?
>>345 ESXiの何にJAVAが必要なのか明確にしてください
349 :
338:2011/03/06(日) 22:46:25.69 ID:an+bml3oP
なんか無知な人の集まりに来てしまったみたいですね。
350 :
名無しさん@お腹いっぱい。:2011/03/06(日) 22:47:01.54 ID:92fG8eZR0
いいぞお前らwww もっと暴れてこんな糞スレ二度と使い物にならないようにしてやれwwwwwww
351 :
338:2011/03/06(日) 22:47:30.33 ID:an+bml3oP
>>346 あなたよりよっぽど僕のほうが詳しいですよ。
聞いてあげますから、あなたのesxiってのが何なのかいってみてください。
採点してあげましょう。
353 :
338:2011/03/06(日) 22:50:06.14 ID:an+bml3oP
>>348 僕が何をするかは、あなたには関係のないことです。
ただesxiにjavaが入っているのか自分でいれるのかだけを答えればいいのです。
無知なくせに余計な質問をして混乱させないでください。
あまりに邪魔するようなら荒らし報告してアクセス規制してもらいますよ。
354 :
338:2011/03/06(日) 22:51:13.15 ID:an+bml3oP
>>352 理解できないけどグーグルのおかげでポインタだけは示せる、
さすがゆとりwww
355 :
338:2011/03/06(日) 22:52:05.73 ID:an+bml3oP
くやしければ自分の言葉で説明してみましょうw>ID:XEfsPC9HP
真正かと思ったけど馬鹿になりきれなかったか……つまらないからもう帰っていいよ
esxiでrocketraid2310(nonraidbios)がパススルーで使えるってどっかで見たんで
4.1u1ホスト、freebsd8.2rゲストでパススルーで乗っけてzfsファイル鯖の統合に挑戦してみた。
パススルーには成功してHDDも見えるし,実環境frebsd8.1rからパススルーのrr2310のポートにディスクを繋いで
そのままzfsのインポートも出来た。
んでこれまでの作業をsshから行なってたんだけどesxiのコンソールからデスクトップを見たら
interrupt storm detected on "irq18:"; throttling interrupt source
が1秒おき位に出てる。 orz
ぐぐっても具体的な解決方法が見当たらない ボ ス ケ テ ください
>360
かまってほしかったんじゃね?
毎度毎度コミュ力の重要さを思い知らされるスレだなwww
nfsやら何やらで別の物理マシン数台と大量通信するvmがあるのだが、
NICをteamingすることでこのvmの帯域幅を1Gb以上にできる?
ちょっとオプション見てみたところ単体vmの速度上限は上がらないのかもって感触なのだが、
IP/MACのハッシュ云々の意味を理解できてないかも。ハブの設定でLAGとかじゃないんだよねこれ?
要件としてはNICが100MB/sで張り付いてるvmがあるんだが増速できね?
相手は外部物理PC複数、物理NICは増やせる、vmはLinux、VMXNET3、てとこか。
1対1の最高速度はあがらないけど
他のPCと共有してる帯域を分散する意味では効果あると思う
ふーむ、見てみたけど無理っぽいね
10Gbイーサにするとかしかなさそうだ
>>366-367 どっちすかww いや、ありがと。
ESXホスト全体としてはロードバランシングの名の通り、帯域を分散出来るんだと思うんだけど、
だったら10Gb接続のVMXNET3接続されてるvmも恩恵に・・・いやバランシング手法的に可能なのかそれ?
ってあたりがよく分からんとです。手持ちの構成でいい加減な実験したところは変化無し(運の要素もある)
vmにvNIC複数付けてvm上でもBondingという話は無いわけではないですがどうなんですかね。事例とか。
>>365 NIC Teaming を構成し、そのときのロードバランシングアルゴリズムを
IP Hash にすると、フレーム送出時に IP アドレスの Source/Destination ペアを
用いてハッシュ値を計算し、使用する物理 NIC を選定するようになる。
このモードを使うには物理スイッチ側が IEEE 802.3ad Link Aggregation 機能を
保有していて、有効化されていなければならない。
使用中の物理スイッチが LAG 対応機種ということなら、検討してみては?
IPハッシュベースのロードバランシング以外でもLAG 対応スイッチ必要なの?
>>369 おお、詳細助かる! IPハッシュってハブ側のLAG設定必要だったのか・・・
そのまま繋げて実験してたヤバスww 実験しやすいハブ探してくるわサンクス
>>370 不要。というか有効にしてはいけない。
物理スイッチ側で LAG 有効にするのは IP Hash 利用時のみ。
IPハッシュと発信元の仮想ポートIDに基づいたルートをくらべて
IPハッシュの利点て何?
>>373 Port Based ではその名の通り仮想ポート単位で物理NICの割り当てが行われる。
従って、負荷分散の粒度は実質的にVM単位になる。
IP Hashにすると、送信元、送信先両方のIPアドレス値を要素としてハッシュ値を
計算し、使用する物理NICを決める動きになるので、ある1つのVMが複数の相手と
通信しているような状況では、通村相手ごとに利用されるNICが異なる状況を
期待することができる。ただし物理スイッチがLAGに対応している必要がある。
なるほど
ちなみに発信元MACハッシュに基づいたルートはIP Hashと同じ感じなの?
>>375 違いまっす。Source MACでは送信元の仮想NICのMACアドレス値だけを使用して
使用する物理NICを決定する。Port Basedとあまり変わらない。
なるほど
LAG対応のスイッチもってるならIP Hashがベストチョイスって事ね
>>377 必ずしもそうとは言い切れない。
IP Hashはフレームごとにハッシュ値を計算する。
当然その分CPUサイクルを使用する。
デフォルトのPort Basedにしておくのが一番無難かも。
>>365のように、状況が見えている場合にのみデフォルト以外のアルゴリズム
にするといい。
同じESXi上のゲストOS間の通信って、物理NICやスイッチまで出て行かず、
ESXi内で完結する?
例えばLANの構成が1Gbpsだとしても
仮想マシン間ならそれ以上の速度出たりするのかな〜、と気になったのだけども。
>>379 同じ仮想スイッチに繋がっていれば、
物理ポートの速度に縛られることは無いはず。
が、特にテストしたことは無いw
HPCやなんかで、オンメモリの情報でのやりとりなら
効果はあるかもだけど、ディスク系のIOが入った時点で
そっちに引っ張られちゃうから、
個人利用だと、あんま関係ないかも?
381 :
358:2011/03/08(火) 00:00:15.47 ID:BS5pk7As0
>>359 サンキュです
仮想e1000とIRQぶつかってるみたいっすね
PCIパススルーじゃなく普通にESXIで認識できるカード買っちゃおうかと思ってきました。
んでも公式のページの対応リストのは入手性やらお値段やらできびしいっす。
本来ESXIにはあんまりローカルストレージを置くなって意見もあると思うんですが
常時起動鯖(ESXI機)には普段の使用率が高いデータだけ置いて
大容量のデータなどは別の非常時稼動機に保存してWOLで運用するつもりです。
定期的に非常時稼動機にバックアップをとって常時稼動機の実数を減らしたいと思っています。
以上の理由で
日本での入手性に問題がなくて
PCIe接続
sata2以上対応
ポートは4あれば十分
ZFSでの使用を前提としてるのでRAID機能はいらない
の条件で使用実績のあるものって何がありますかね?
megaraid
Ipad2っていつ発売?
>>381 ESXiやめてFreeBSD上にVBOXとかで仮想環境つくれば?
386 :
358:2011/03/08(火) 03:00:13.32 ID:qETM/i8W0
>>385 おっしゃるとおりな所がある
今現在も鯖のいくつかはlinuxホストのvmware上で仮想化してる。
この仮想化部分をfreebsdのファイル鯖上に仮想化すれば大体事足りちゃうんだ。
でもね
もうすでに 「ESXIを使うことが目的」 になってしまっているのです。
試しに使ったらちょっと面白いんですもの。
んなわけで
LSI Logic SAS3041E-R
辺りを買おうかと
ゲスト上でソフトウェアRAIDを動かすの?
動くのかなぁ?
技術的には動くような気はするけど。。。。
仕組みを知らない奴ほど声がでかい
仕組みを知らない奴ほど声がでかい
ほほぉ〜 確かに
>>386 linuxホストにDRBD入れて2点間で同期とか試してみてw
>>381 仮想NICを他のに変えるのは、ダメなの?
調べたら影響あるらしかったのでEARSシリーズは避けたよ
ESXiマシンにNIC2枚さして、物理的に違うスイッチにそれぞれ繋いでも問題ない? 冗長化的な意味で
すくなくともLAGは使えないだろうけど
違うスイッチに繋ぐこと自体は全く問題ないと思うけど、それで冗長化ってどうするん?
更にその先のコアスイッチでL2フラットに繋がってるとかかな。
それならやったことあるよ。
LAG使わない構成なら問題無く動いた。
てか、これがNGだと世の中の大半のブレードサーバはどうすりゃいいのか…
398 :
名無しさん@お腹いっぱい。:2011/03/08(火) 19:07:54.44 ID:2iKUCOop0
例えば物理マシンが2台あって、それぞれNIC2枚さし、線をそれぞれ違うスイッチにさす
で、物理マシンをまたぐVM間で通信してて、どっちかのスイッチの電源落ちても
問題ないように(多少のダウンタイムはあっても)したいんだけど、できるんかな
できるよ、うちのサービスではそうやってる
ケーブルを合計10本ブレードに引いて、冗長化の上5Gbps確保
STP
>>386 RDMで認識させればそのままFreeBSDでHDD読めると思うんだけど
どうでしょ
vSphere(ESXi)でSATAディスクをRDMで使う
で検索すれば出てくると思う
ダウンタイムがどうだいう環境じゃなくなってくると思うけどね
>>398 その場合、普通はその 2 個の物理スイッチ間をカスケード接続しておくのでは?
カスケード無しでやりたい場合 (つまり物理スイッチ間のリンク無しという構成
にしたい場合) は、仮想スイッチのNIC Teaming の構成を明示的に Active/Stanby にして、
片方の物理スイッチを稼動系、もう一方の物理スイッチを待機系とすることも、できると
言えばできるが、普通はこんな設計しないでしょ。ケーブル断とかで片方の ESX のみが
パス切り替えしたら VM 間は通信できなくなっちゃう。
403 :
358:2011/03/09(水) 21:02:08.18 ID:IuPl22eL0
>>391 DRBDって恥ずかしながら今知りました。
知識も経験もまだまだ青二才なんですが、一応ハード関係の仕事についています。
ハード的な回路うんぬん、設計うんぬんの知識は少しずつ身に着けていったものの
自分が設計に携わった機器が実際どのように運用されているかなどに対して酷く無知な事に気づき
勉強もかねて個人でできる範囲で色々試して行く内に、自分で気に入った環境を構築しては作り返す事が趣味になってました。
自分の利用目的で意味があるなしは後回しで興味を持ったことをとりあえずやってみようと思っていますので
今構築している環境が整ったら挑戦してみたいと思います。
>>392 VMXNETはFREEBSDはまだ対応していないとかで諦めました。
>>401 RDMってvSphereから設定できなかったんですね
私の場合はPCIパススルーのrr2310に繋いだSATADISKがそのまま見えていたのと
HDD追加の所にRawデバイスマッピングの欄があったのでそこで選べばできるのかと思っていました。
>>403 NICの所だけ反応。
VMXNET2はBSDでも普通に使えると思ったが。
405 :
名無しさん@お腹いっぱい。:2011/03/09(水) 22:37:58.71 ID:npG5zoOa0
VMIって、64bitなLinuxでは有効にならないのでしょうか?
自分もその辺りは気になってたのだけど
メモリ多く要るような用途でなければ、32bitの方がパフォーマンス良いのかね。
ゲストのLinuxでそういうの検証してるブログとかないだろうか。
見当外れなレスだな
関係無いけどVMCIって使ってる?
効果ある?
電力節約の時こそ、VMotionで最低限リソースで運用しましょう!
皆、自宅サーバは、落とそうぜ。
コンセントも抜こうな。
コンセント抜くの面倒なのでブレーカー落とした
ESXiは、さすがにユニティモードには対応してないよね?
VMwareホストとしてのESXiの話だよね。
ESXiがそもそもウィンドウシステムで動いてないから。
ESXi4ってRS-232C経由で繋いだUPSに対応してる?
ESXi自体が出た当初に試してみてUPSがダメだったんでVMware Server使ってたんだけど
もう完全に見捨てられてるからESXiが対応してるなら乗り換えたいんだけど
>416
正確にはRS232Cじゃないが、APCの940-0024なら使ってる。
vMAに仮想シリアルポート追加してホストの物理シリアルポートに
割り当て、apcupsdで監視させてる。
ホストESXiにsshで入ってVMシャットダウンさせて、ホストシャットダウン
ってな事例はググればいくらでも出てくるよ。
>>417 thx、やっぱり仮想マシン経由のその方法になっちゃうのね
いい加減、ホスト自体にそれぐらいは組み込まれたんじゃないかと思ってたが
>>418 そうするとカーネルが肥大化するからやらないんじゃ
421 :
名無しさん@お腹いっぱい。:2011/03/16(水) 00:12:15.96 ID:Q4LgRqd50
仮想OSの電源を切るときにパワーオフ・シャットダウン・サスペント
どれを選択すれば正常にOSが終了したことになるのでしょうか?
パワーオフだとOSやアプリのプログラムが停止しないまま
OSが終了となるよなイメージで、(物理PCでたとえたら起動中の
OSに対して、電源ボタンを押して強制的に切るイメージなのですが)
正常終了となるには、シャットダウン? でしょうか?
ちなみに、計画停電時の停止(上のマニュアル)は、パワーオフ
となっております。
その考えでOk
シャットダウン
OSの機能つかって終了させる
障害時の通知機能やらに難があるし、やめた方がいい
VMware ESXi 4.1 update 1 に SSDを搭載して仮想マシン(Linux)に接続して
# hdparm -t <ssdデバイス>
で速度を測っています。
普通に作成した場合は割と高速な速度が得られる(180MB/s 等)んですが
共有ディスクとして作成可能にする eagerzeroedthick で作成すると 70MB/s 程度に
落ち込みます。
※ 参考
ESXi に ssh で入って
# cd <SSDの領域>
# vmkfstools -c 5g(容量指定) -d eagerzeroedthick test.vmdk
で作成する、あるいは GUIから仮想ディスクを作成する画面で
"フォールトトレランス等のクラスタリング機能をサポート"にチェックを入れて作成する
※ 参考ここまで
これはなぜでしょう?こういう仕様なのでしょうか?2つの仮想マシンからそのSSDを共有して
使いたい(同時には使えませんが・・・。)ので、共有ディスクを作成したいのに
これだと速度が遅くて・・・。何か情報お持ちの方ご教示よろしくお願い致します。
そもそもhdparmでの速度計測自体あてにならないよ
>>426 え、なぜでしょう?仮想マシンだからですか?物理マシンだとあてになります?
仮想マシンだから hdparm がアテにならないとすれば、どう計測するのが正しいんでしょう?
>>425 デフォルト (zeroedthick) で作成すると、領域のアロケーションは行うものの、
ディスク上の各ブロックを実際に 0 で埋めるということは行なわない。
該当ブロックに「最初のWriteが発生したとき」に、都度 0 で埋めてからゲスト
OSからのI/Oを実行する。「まだ一度もWriteが実行されていないブロック」に対して
Read I/Oが発行された場合は、実際にはディスクにアクセスせずに、仮想化
レイヤで即座に 0 というデータを仮想マシンに返す。
eagerzeroedthick で作成すると、作成時の領域のアロケーションのときに、
各ブロックに 0 を書き込むという処理も併せて実行する。
従って、「まだ一度もWriteが実行されていないブロック」というのは存在しない
状態でゲスト OS は仮想ディスクを利用することになる。結果として、全ての
Read I/Oは実際にディスクにアクセスして読み取った値がゲスト OS 側に戻
されている。
まとめ
zeroedthick
- 未 Write 領域への Read は高速
- 未 Write 領域への最初の Write は 0 で埋める処理を行なった後に実際
のデータの書き込みを行なうので若干低速
- Write 済領域への Read はディスクまでアクセス
- Write 済領域への Write はディスクまでアクセス
eagerzeroedthick
- 仮想ディスク作成の段階で 0 埋めを実行
- ゲスト OS からの全ての I/O は実際にディスクまでアクセス
430 :
425:2011/03/17(木) 17:44:51.84 ID:DrorhDVx0
>>428 大変分かりやすく、かつ貴重な技術情報をありがとうございます。
確かに、その理論でいくなら大差があって当然で、実際の速度はeagerzeroedthickで
測った速度が正解ということになりますね・・・。
あれ、、とすればSSDは高速といわれているのに、普通のSATAディスクより遅いことに
なるのですが?
また、貴方を疑っているわけではありませんが、
--
Read I/Oが発行された場合は、実際にはディスクにアクセスせずに、仮想化
レイヤで即座に 0 というデータを仮想マシンに返す。
--
という部分の、zeroedthickに関する特質のソース等示して頂けますと幸いです。
お手数ですがよろしくお願い致します。
>>430 Deploy, Secure, Analize という VMware の上級者向け有償教育コース
を受講したときに講師の人が言ってたよ。
433 :
425:2011/03/18(金) 12:51:30.97 ID:IRdMSO8J0
>>431 タイトルでググった・・・。全部読んで完全に信じ込んでいて、
読み終わった頃にはいつの間にか自分も原発反対派になっていた
のですが、さっき見ると虚偽だとかトンデモ文章とか色々ありますね・・・。
何が本当の事なのかわからなくなりました。自分は騙されやすいのか・・・。
>>432 おお、ソースの情報までありがとうございます。なるほど・・・
それはその講師の方からの直々の生の声なのでネットで調べても
出てくる情報ではありませんね。非常に貴重な情報ありがとうございます。
じゃあなぜSSDが遅いのだろうか、、、これだけが疑問です。
eagerzeroedthickでフォーマットしたSATAが 90MB/s
eagerzeroedthickでフォーマットしたSSDが 70MB/s
です。うーん・・・・。分からない・・・
434 :
425:2011/03/18(金) 13:07:02.28 ID:IRdMSO8J0
すみません、もう一回計測しなおすと
/dev/sdb:
Timing buffered disk reads: 248 MB in 3.00 seconds = 82.60 MB/sec
/dev/sdc:
Timing buffered disk reads: 218 MB in 3.02 seconds = 72.08 MB/sec
という結果になり、 /dev/sdb が SSD /dev/sdc が SATA でわずかに
SSDの方が速いです。とはいえ物理マシンで使うとSSDの5倍ほど高速化
するはずですが、あんまり差がないのは、やはりvmdkの仕様上の問題なのでしょうか・・・・
>>434 SATAコントローラがAHCIモードになってないとか。
BIOSのセッティングを見直してみたら?
436 :
名無しさん@お腹いっぱい。:2011/03/18(金) 22:28:08.51 ID:Mn95c7px0
コンソールに以下のエラー(メッセージ)が出るようになりました。
kernel module vfile was loaded,but has noignature attached
このメッセージは何を示しているのでしょうか?
>>436 何をしたらそのメッセージが出るようになったんだ?
noignature という単語は見たことがない。
辞書にも載ってないし
どうやら英語ではなさそうだ。
>438
no signatureの間違いでは?
440 :
名無しさん@お腹いっぱい。:2011/03/20(日) 12:08:32.36 ID:7BAqFtdx0
vswithをインストールしたらこのような状態になりました。
ALERT: Elf: 3028: Kernel module vfile was loaded,
but has no signature attached"
esxiのコンソール画面に赤文字で表示されております。
http://communities.vmware.com/message/1709099に同様 の事象がかいてありますが・・・
vfileをロードしたが、それに対する署名がなかった? という
いみでしょうか?
>>440 不勉強で申し訳ないのだが、「vswithをインストール」って具体的にどういう行為なのか
教えてくれないか?
仮想PCにiTunesを入れてると、仮想PCにオーディオデバイスがないから上手い事動作しないかもよ、みたいなメッセージが表示される場合の回避方法。
・データストア -> iTunesが入ってる仮想PCのvmxを編集出来る様にどっかにコピー
・コピったvmxをエディターで開いて、どっかに以下の定義を追加
sound.present = "TRUE"
sound.fileName = "-1"
sound.autodetect = "TRUE"
・編集済みのvmxを書き戻し
・仮想PCを起動すると、オーディオデバイスがないけど定義があるよ? 起動時に毎回探しに行くかい? と聞かれるのでNoを選択して起動する。
・すると起動した仮想PCのPnP機能で、
"Creative AudioPCI (ES1371,ES1373)(WDM)"
"Game Port for Creative"
の二つのデバイスが引っ掛かる筈。
多分実際に音は出ないだろうけど、少なくともiTunesに文句は言われない状態になってると思われ。
上手く行かなかったらゴメンチャイ
そんな機能用意されてたのか・・・。
サウンドカードがないとなぜかWin用のFFmpegで音声のデコードに失敗するんで、
VirtualAudioCableとかいうソフト/ドライバ入れてた。
次にWindowsを入れるときには試します。
おまいらの使い方、ずいぶんと激しいな
うちは業務(開発)向けにLinux位しか使ってない
>444
まぁそういう使い方をしている所が普通だね。
開発環境を無限に作成出来るから便利だし。
HDDも2TBとか3TBのデータストアを使えば、10GB程度で入るOSなら、もの凄い数が入れられる訳で。
VMwareの中の人じゃないなら普通を自分で定義しない方が良いと思う。
中の人ならよけい定義しないだろうけど。使い方はユーザーが決める。
使い方というか向き・不向きは確実にあるでしょう
マルチメディア関係ならWorkstationの方がトラブルも少ないだろうし
エクステントすればいけたかな?
エクステントしようがなにしようが、
1ボリューム辺り、MAX 2TiBってのが
限界じゃないっけ?
そうだっけ?エクステントで最大32×2TBまでいけたきがする。
1ファイルあたりの上限2TBはかわらないけど
FCで接続した共有のストレージを追加しようとすると、フォーマットしか選べないんだけどなんかロックされたりしてんのかしら?
LUN自体は見えるんですが…
ストレージの製品名は何?
対応製品って書かれてても上手く動かないストレージあるよ。
俺はHP製ストレージで嵌ったことがある。
あ、マイナーなメーカーですがJCSのストレージです。
LUNは見えるので、ゾーニングやらは問題内容に見えるのですが。
これ非対応か…?
>>453 フォーマットしないと使えないと思うけど。。。そもそもどういう質問これ?
>449
やった事ないから分からない(汗
>455
FC製品って、基本的に同一メーカーの製品しか接続性を保証してないよ。
規格は同じだから、別メーカー同士の機材でも繋がるかもしれないし、繋がらないかもしれない。
だから、役所とかでの資材調達要件には、既存の機器との接続を保証出来る物、という記載がされる場合が多い。
従って、一度ネジ込めば、追加資材は全て同一メーカーの製品となる。
所で、ESXiでPCIパススルー(VT-dかIOMMU)が使えてる人居ます?
石とママンとの組み合わせを教えてホスィ。
>>458 結構前に報告したけど使えてるよ
Asrockの890FX Deluxe4にへのむX6 1055T上でESXi4.1が稼働中
ただBIOS上でIOMMUを有効にするとメモリとの相性が厳しくなるのか、
ビデオカードによってはメモリチェックエラーで起動しなくなる
6600GTはOKで、9600GTとRADEON SE300はNGだった
起動してしまえば対応外のRAIDカードをLinuxゲストに直結させて、そこでRAID組めた
そういえばIntel製のH67マザボでVT-d非対応だったって行ってた人がいたが
最新版でもやっぱり非対応?
>>460 VT-d対応のCPU使ってる?
使ってるならBIOSに項目が表示されると思うが。
Intelの場合CPUに実装されてたはず
2600-KとかのKシリーズはVT-d非対応だったような
>>460 VT-dが使えるためには、CPUがVT-d対応という条件に加えて
マザーのチップセットが対応していて、BIOSなどでそれが有効になっていないと
いけない。現行のP67とかH67などはBIOSにVT-dの設定項目がなく、機能自体が
オミットされているものがほとんど。
俺が調べた限りではASUSのH67、ASRockのP67、H67だけが対応してた
>>457 一台目で使ってるストレージを二台目からスキャンかけてマウントしようとしてるんですね
署名を保持したままマウントしたいのにフォーマットしか選べないっていう
別環境だとうまく行ったので手順はあってると思うからやっぱりハードかな…
466 :
名無しさん@お腹いっぱい。:2011/03/25(金) 15:23:32.49 ID:WHn1hrvX0
>>465 そもそもスキャンして引っかかっていれば
登録しなくても勝手に出てくる・・・・・
見えてるってあるけど
同じ領域が見えてないってことじゃないのかな?
LUNが複数切ってあるとか?
パスが違っても同じディスクが見えていれば
自動でデータストアに出てくる(マウントされる)し
>459
レスthx!
今日M4A89TD PROが安かったので買ってきた。
明日にでも早速テストして見るよ。
目標はビデオカードとオンボ1394のパススルー。
>>466 もう一つすっからかんのLUNを作ったら認識されました・・・
原因追跡中ですがわかったらまたご報告します。
ありがとうございます。
あと私、前スレでホストAでサスペンド→ホストBでレジュームとして
AとBのCPUが違ったらどうなんの?と質問したんですが、こちらも
試してみたところ非常に分かりやすいメッセージが表示されました。
「このマシンのプロセッサのベンダーは、チェックポイントが保存された
マシンのプロセッサのベンダーとは異なります。同じベンダーのプロセッサが
使用されているマシンで、チェックポイントのレジュームを試みてください。」
だそーで。一応。
>>468 iSCSIだと、同じターゲットを同時に見ようとすると、後から認識させようとした方がフォーマットしか選べない。
先に接続している方を切り離すと、後から認識させた方も中身が見れる。
FCだと違うのかもしれないけど、参考まで。
それだとvMotionとかつかえねーじゃん
>>469 中途半端にエスパーするけど、同時接続数弄ってない(1のまま)んじゃないの?
バッキャローの奴使ったときに、これで凄く躓いた
因みにopenfilerとかFreeNASではこの項目が探せなかったけど、そもそも出来ないのかね?
>>473 FreeNASは特に設定せずとも共有ストレージとして機能した記憶があるや。
どっちかっていうとバッキャローの方が異端な気がする。
見える見えないってのはLUNマスキングやゾーニングで対応するものじゃない?
>>474 MaxConnection数、増やすも減らすも自由自在?
或いは、設定項目はないけどデフォルトで幾つかに定まってるのかな?
性能に影響出るか判らんが、無駄に増やさずvMotionに支障がない範囲にしたい(一桁で十分)
476 :
469:2011/03/27(日) 22:42:12.46 ID:Y7j0gwqO0
>>437 あんたは、エスパーか!
たしかに、「MaxConnections」は設定してない。
Target iqn.2011-02.local:storage.disk1
IncomingUser hoge fuga
Lun 0 Path=/dev/md3,Type=fileio
Ubuntu64でVMXNET2使おうとおもったらtoolsに入ってないらしくドライバがありません状態なのだが、
最近のupdateで削られたりした? そもそもtoolsに入ってなくね?
本家webによると64bit versions of Ubuntu Linuxでサポートされてるような書かれようなのだが。
478 :
名無しさん@お腹いっぱい。:2011/03/28(月) 10:52:09.38 ID:zFeZtMgM0
今一番おすすめのFreeのNASソフトってなんでしょ?
おすすめのポイント含めて皆さんの意見を聞きたいです
私の試した範囲内では
Openfiler:速度的には良いと思うが、ZFSが使えないのでストレージの管理がちょっと面倒
USBBootで利用したら、増設の度にHDDのパスが変わってRAIDが壊れた・・・(これは私の構成のせいですね)
FreeNAS8:速度的にちょっと遅い、シンプロビジョニングが出来るからESXの再起動せずに物理HDDの容量を増やせる
運用的には一番やりたいことができそう
NexentaStor:環境を構築するのにSASのカード探しが大変
ESX内で作った分には、便利そう、ZFSのくせにシンプロビジョニング出来ない
多分早いはず ← 現在格闘中
無償版だとiSCSI領域のバックアップが出来ないAutoCDPかな?
>>477 Debian squeeze amd64でさえVMXNET3使えてるから、
ドライバが無いということはないと思うけど@4.1u1
Ubuntu側に問題があるんでないの?
>>479 VMXNET3は使えてる。VMXNET2なvNICを追加してifconfig -aで出てくる?
>>480 ごめん意味がよく分からない
実際にはサポートされてないという話??
VMXNET3が使えて、敢えてVMXNET2を選ぶ理由ってなに。
自環境だと不安定だったりするの?
3で不安定になる事象があったのでCPU負荷や安定度の比較をするつもり。
vmwareのやることだから密かに削ってあっても驚きに値しないw
>>478 大体そんな感じ。
freenasは7が安定で8はまだ正式じゃなかったような?
8で遅いなら7はもっと遅いはず。特にnfs遅い遅すぎる。
NexentaStorはレジストがうざい、一応容量制限がある、freenasよりは絶対に速い。
ZFSなのにSASのカードってなんじゃ? まぁドライバの少なさという点では同意
nfsで一応使えてる。iscsiはしらん。そんな落とせない用途に使うには3つとも不合格。
他にもないことはないけどその3つくらいが標準的というか、人柱が少なすぎてしんどい気味
個人的感触ではバグの少なさでは上から順w(freenasは7で)
>>484 > ZFSなのにSASのカードってなんじゃ? まぁドライバの少なさという点では同意
ふつうに考えてHBAのことだろ
ドライバが少なくて、対応HBAがSASのものぐらいしかないと読み取れた
余裕があればOpenfilerを試してみたいけど
AM3ソケ的には880Gチプセトを認識してくれるのか…
ちょいと凸ってみるかな
488 :
名無しさん@お腹いっぱい。:2011/03/29(火) 12:21:01.28 ID:R0xO0bs50
>>484 なるほどね〜
Openfilerを捨てたのは不味かったかな・・・・
(構成変更したら壊れちゃうかもってドキドキ環境に戻りたくは無いかな)
FreeNASは8RC1〜3でどれもiSCSI接続するだけなら問題無く使えているので
よしとしました(FreeNAS7も試したけど、ただ新しい物好きなので)
本当に落とせない用途で、OpenSourceで使えそうな物って他にありますか?
宅サーバなので、お金掛けるのもばからしいし
ん?それなら内蔵ディスクで良いじゃんってのは無しでw
ってかみんなテラステーション的な物買ってるのかな?
同じ値段なら、ML110のCPU交換したり、
2THDD積んで、GigaNIC追加が良いと考えるちゃうんだけど(適度な苦労は好き^^)
話が、まとまらないけど、フリートーク的なのりで、情報交換お願いします
>>485 >>486 うーん、promiseのなんとか、とかそんなのは確かにドライバ無いけど、
ありがちな鯖についてくるHBAのドライバは揃ってるので困らないよ??
SASどころかSATA用のでも結構認識するというか・・・あとZFSだからポートさえあればOKという考え方も。
>>488 こっちも個人的な狭い実験結果なので鵜呑みにはしないでねー
"爆音で構わない"宅サーバならいろいろある。C2D初期世代のXeonのせた中古1U2U鯖で
Dual電源、ESXから認識するRAID、ESXから認識するsystem status他、一通り揃ってる。
データストア分離するのも同じ方向。ハードは同様。あとスイッチも二重化。十分安価に仕上がるよ。
ソフトも宅サーバなら動作確認徹底すれば前出の3つで十分動くよ。特にopenfilerはDRBDがすぐに使えるので冗長化できる。
ダウンタイム減少を目指すならESX2台データストア2台にしとくとせいぜいvmを移動する時間程度には短縮できるはず。
データストア1台でとなると似たり寄ったりというか・・・iscsiはいいんだけどバックアップはzfs sendするわけ?
あ、全然ちがう話なんだけど、"仮想マシンの起動/シャットダウン"で有効にして、
シャットダウンアクションをゲストシャットダウンにしてるんだけど、
これってESXホストをシャットダウンすると先にゲストをシャットダウンしてくれる機能、じゃないの?
なんか今ホスト落としたら動いてたゲストがパワーオフされまくったのだがww
HPのML110G6(X3430, 8GB)にESXi4.1build348481を入れて、ゲストにWindows
Server2003(32bit)を8つ立ち上げてます。ストレージはiSCSIで、NICは内蔵
のBroadcomです。
ゲストは全部mem768KB, VMNET2です。
この運用で、タイミングは不定ですが今のところ100%パープルスクリーンに
なってしまいます。Failed to ack TLB invalidateとかいうやつ。
Server1.xやESXi4.0は極めて安定していて一度も落ちたことは無いんですが、
BIOSの設定でこの障害を回避出来るもんでしょうか?
>>490 vmware tools入れてないとダメだった気がする
493 :
名無しさん@お腹いっぱい。:2011/03/29(火) 14:44:12.73 ID:R0xO0bs50
>>489 一応爆音はまずいかもw
今はP180を2つと、ML115で宅サーバやってます
P180-1(中身はP5BV)にESX-1、
P180-2(中身はP5B-寺 wifi)にOpenfiler、
ML115にESX-2で、運用していたのですが、飽きたので
ML115をESX-2から、FreeNAS8に変えて、仮想マシンイメージ退避
P180-2を潰して、ESXへ、仮運用再開
で今P180-1(せっかくPCI-Xが使えるからストレージに使おうかと思って)
を何を使ってiSCSIにするかで悩んでます
スレ違いかもですが
NexentaStorがSil3124やSATA300 TX4が使えなかったので、
色々検討中(今の候補は、AOC-SAT2-MV8です)
バックアップは、NexentaStor上でスナップショット取得して、別なストレージとして
ESXに接続して、OVFテンプレートのデプロイで良いかな?ってくらいに考えてました
NFSにすれば時間設定でRsyncも使えるんですけど、
やっぱり気分的にiSCSIにしたいって事で、何故かバックアップよりiSCSI優先になってまね・・・
移行が終わったらML110の起動USBをESXに戻して、バックアップ中以外は
ESXとして使うつもりです
ってことで、バックアップは気が向いたときだけって事です。
止めないでバックアップが出来るだけで、十分かな
>>490が492の通りだったら、ですw
Toolsいれないで普段ゲストシャットダウン出来ないのに、
なぜ、ホストパワーオフの時だけ出来ると思ったのか不思議
ひょっとして「シャットダウンアクション」が「パワーオフ」って事は無いか
デフォルトは「ゲストシャットダウン」だったよね?
デフォはゲストシャットダウン、だね
昨日1台ESXi構成したから間違いない
tools入れなくてもsshコンソールやらで接続は出来ちゃうし、と
495 :
名無しさん@お腹いっぱい。:2011/03/29(火) 15:10:16.43 ID:R0xO0bs50
>>494 それはVMwareを過信しすぎですね^^
HAと言いつつ、ソフトウェアのHAも出来てないのに
>>492 なるほど。でもそれは一応入ってたつもり。
デフォはパワーオフなので一通り設定してあるつもりなんだがなんかぬけてるんかね
>>493 P180が分からなかったがケース名なのか。自作用M/Bは全般的にESXとかNexentaとかしんどげ。
linux/bsdベースの方がドライバやカーネルの妙な挙動に踊らされなくて良いと思う。
毎日の定期バックアップ的なものを考えなくていいなら結構自由度は高いね。
実験要素を強くして良いなら、ZFS+SSDキャッシュでかなりの高速化ができるです(元のZFSが遅いともいう)。
あとNICが余っていればチーミングして帯域伸ばせます。そのあたりの付加要素も取り入れてみてはー
バックアップはスナップショット取得⇒vmdkコピー⇒スナップショット削除、の定番のでいいと思うよ
cronに登録するのがめんどくさいけど、手動でいいなら適当な時にSSHログインして実行すればいいだけなので
自宅サーバで絶対に落としたくないというのはアレな気もするけど、そこまでするならOpenfilerを安物に突っ込んで2台作って、
Heartbeat+DRBDでいいんじゃないのかな
ストレージを頻繁に増設するとはあんまり思えないし
DRBDって実際どうなの?
実用的なの?
ありゃ?デフォがゲストシャットダウンだっけ? まぁ現状そうなってるのでおk。
もっかい確認したら起動順序の自動から外れてたw vm登録時に自動で手動以外に入れてくれこれは忘れるぅ
>>497 同、手軽で落ちないとなるとその辺しか思いつかない。>DRBD
リアルタイムレプリケーションでぱっと使えてそれなりに世間で動いてそうなオープンソースが他にない。
iscsiだとバックアップが、
ESXでスナップショット→データストアでスナップショット→ESXでスナップショット解除
であとはなんとかしてデータストアのiscsiボリュームを公開して云々みたいな話で面倒。
そこでzfs sendしちゃうという話でもある。
すべてサービスコンソール上でやるほうが楽。でも遅い。ぐぬぬ、と。
500 :
名無しさん@お腹いっぱい。:2011/03/29(火) 15:39:39.68 ID:R0xO0bs50
>>496 しんどいのは、確かにその通りですね
簡単に行くなら、このスレ的にはFreeNASで決まりですかね
NexentaStorやれるところまでやってみて
最終的に面倒になったら、FreeNASにNIC 8ポートとかで作ってみます
作成できたら仮想マシンのベンチレポしますね
ってか チラシの裏過ぎか・・・・やめとこ
501 :
名無しさん@お腹いっぱい。:2011/03/29(火) 15:47:31.20 ID:R0xO0bs50
ちなみに、
試したこと有る人が入れば教えてほしいんだけど
ストレージのパス管理でラウンドロビン設定しても
vSwitchのNICチーミングの「発信元の仮想ポートIDに基づいたルート」
を指定していた場合は、常時利用される受け側は、1つのNICだよね?
VMkernelのipが一つならそうかと思ったんだけど
ってことは、iSCSIを受けるVMkernelを複数作れば
複数NICに分散されるのかな?
考え方合ってます?、自分でも実験するつもりだったのですが、
試している人が居ればと思い聞いてみました
>>499 スナップショットの作成、削除、バックアップまで全部1つのスクリプトで実装できるよ
こんな感じ
VMID=`vim-cmd vmsvc/getallvms | awk '{print $1,$2}' | grep $VMNAME | awk '{print $1}'`
SCRIPT_DIR="`dirname $0`"
cd "$VMDIR"
mv "$DEST" "$DEST.old"
mkdir -p "$DEST"
cp *.nvram *.vmsd *.vmx *.vmxf "$DEST"
vim-cmd vmsvc/snapshot.create "$VMID" backup
vmkfstools -i "$VMDK" -d thin "$DEST/`basename $VMDK`"
vim-cmd vmsvc/snapshot.removeall "$VMID"
分岐処理とかは適当に、ってかぐぐればすぐ出てくるよ
でもこれはESXi4.1で運用してるスクリプトなので、ESXでどうなるかはわかんない
iSCSIはわからないや。でもどのNICを使うかを明示的に指定することができた気がするので、
それで2系統iSCSIで繋げば手っ取り早いんじゃないかね。
ethレベルのチーミングとかで負荷分散は結構頭悪い状況なのであまり期待しない方が。
>>502 似たようなものは作って動いてるんだけど、snapshot保持したいvmが結構あって、
vmkfstools良いんだけどちょっと使いづらいんでせこせこ差分とってコピーしてる。
505 :
名無しさん@お腹いっぱい。:2011/03/29(火) 17:25:32.07 ID:R0xO0bs50
>>503 確かに明示的にKernelのセグメント分けちゃうって手もありますね
頭いい〜
まさに自分がESX過信し過ぎでした
まぁ試して上手く分散しなかったら、その方向にします
>>499 デフォはパワーオフだよね。インストール後いじらないとガツンとguestが落ちちゃう
508 :
名無しさん@お腹いっぱい。:2011/03/30(水) 08:54:02.62 ID:Twr67tqk0
>>506 GUIから、NICチーミングタグを設定後
~ # esxcli swiscsi nic list -d vmhba35
Errors:
No nics found for this adapter.
~ # esxcli swiscsi nic add --nic vmk1 --adapter vmhba35
Errors:
Failed to add nic.
ん〜ちゃんと調べないとダメっぽいです
>>507 今見たらパワーオフがデフォだった。インスト時に忘れず設定変えないといかんな
510 :
名無しさん@お腹いっぱい。:2011/03/31(木) 00:41:24.45 ID:yaX09Hvr0
初めてESXi4.1入れてCentOS動かしたら、ポート転送がうまくいかない。
ESXiでポート転送って初期設定とかっているの?
511 :
名無しさん@お腹いっぱい。:2011/03/31(木) 08:37:05.20 ID:2DZu1+gV0
>>510 何をしたいのか分からないけど、普通にLinux側の設定だけで
出来ますよ(実際Linuxルータとして可動させていました)
でも、ルータ用途ならvyattaとかpfsenseの方が楽なので、
今はそっち使ってます
ちょっと脱線で悪いけど
インターネット接続が2系統あってLANのPCや宛先なんかの条件でどちらの側から出て行く、
みたいないわゆるMulti WANが簡単にできるソフトルータってある?
vyatta/pfsenseは昔やってみたらすごい裏技的な設定しないと無理だったんだけど。
513 :
名無しさん@お腹いっぱい。:2011/03/31(木) 12:48:39.36 ID:2DZu1+gV0
ESX上なら
素直に2つvyattaの仮想マシン作ったほうが楽なんじゃないかな?
宛先条件で振り分けるには、
結局ルータの設定か端末側で設定が必要だと思うけど
PC条件ならセグメント分けすれば出来そう
あー、ESXと絡めるとそう来ますよねー
ESX上にweb鯖が1つあるとして、2系統の回線からリクエストを受ける、とかになると、
ルータ/端末の設定ではちょっと難しくなってきて、ポリシールーティング的な話がでると思うんだけどどうだろ
ヤマハのルーター使えば楽かな
うん、ハードルータ使えば大概出来るんだけどね。そこはESX上のvmで実現したいなーという
517 :
名無しさん@お腹いっぱい。:2011/03/31(木) 15:04:54.99 ID:2DZu1+gV0
公開したいサーバを各セグメントにNIC作ってあげれば?
ってのはダメなのかな
デフォルトGWの設定によって出来ないこととか出来ちゃうのかな?
私も今は、ヤマハのRTX1100使ってるけど、
光ネクストハイスピードに回線変えたので、
ポートが100MbpsなRTXを諦めて、vyattaに替えるか悩んでる
1200買っちゃいなよ
>>517 "NIC1から受けたリクエストはdefault gatewayではなくNIC1へ返す"というポリシールーティングが必要っす。
まLinuxでipとかiptablesとか叩いてテーブル切り替えりゃできる、という話なんだが、
各サーバでそのようなことをするよりかはNAT的ルータで一括して受け持った方が良いよね、ってことになります。
や、ほんと今時のBBルータに普通に付いてる機能なんだけどね。今更それ用にハード買うくらいならdebianなvmでも作って設定書く。
520 :
名無しさん@お腹いっぱい。:2011/03/31(木) 16:03:32.95 ID:2DZu1+gV0
>>518 ん〜 買えれば買ってるね NVR500当たりでも十分だし
RTX1100予備が3台あるから、それを捌けばNVR500なら買えるかな?
>>519 だと、ダメっぽいですかね? 他詳しい方どうぞ
スレ違いとまでは言わないけど、別スレの方が良い回答がもらえそうだ
ソフトウェアルータ?は興味有るなぁ
フレッツ回線とかのpppoeやファイヤウォールもESX上で行ってる方居ますか?
>>512 ip ruleとか、ip routeとか使えば、Linuxひとつで、送信元ごとにゲートウェイを変えられる。
いやいや上に出てたフリーのソフトでも簡単に作れるから機能制限版使う理由が見あたらん
526 :
名無しさん@お腹いっぱい。:2011/04/01(金) 08:36:58.99 ID:PVUQBh3Y0
すごい早かったら話は別かも
ちょっと使ってみよう
527 :
名無しさん@お腹いっぱい。:2011/04/01(金) 10:31:55.51 ID:PVUQBh3Y0
>>524 open-eだけど、ESX上に構築してESXから接続しようとしてるんだけど
iSCSIターゲットに接続出来ても、ストレージの追加で一覧に出てこない
VMware Readyって書いてあるの二
マニュアルのサポートクライアントにESXは書いてないし
NFSで接続しろってことかな?
ZFS信者じゃなくて、Openfiler当たり使っている人なら良いかと思ったけど
機能確認する気にもならないから
とりあえず放置
>>527 牛のiSCSIと同じで同時接続数がデフォだと1つとか?
529 :
名無しさん@お腹いっぱい。:2011/04/01(金) 10:58:04.91 ID:PVUQBh3Y0
>> 528
いやそもそも1台も繋がらない(見えない)w
そういえば昔ThecusN7700PROでも同じような事が
有って、結局NFSで使ってた事あったな
最近は、何使ってもiSCSIに接続(パスが見えれば)さえ出来れば、上手く出来てたのに
久しぶりに問題児引いた
ESXi4.1(無償版)利用しています。
ストレージはローカル(約1.6TB)で、VM作る際、HDD作成できる最大値であった256GBをシンプロビジョニングで作成しました。
OSインストールして何事もなく動いているのですが、スナップショットを取ろうとしたら
「仮想マシンのスナップショットの作成 testvm ファイル <unspecifi-ed filename> はデータストア「<unsp-ecified datastore>」がサポートする最大サイズを超えています」
というエラーがでてできませんでした。
スナップショットとることを考えた場合にはVMのHDDは小さくしないとだめなのでしょうか?(だとするとどのくらい・・?)
もしご存知の方おりましたらよろしくお願いします。
>>530 VMFSを作る時にブロックサイズを指定できるんだけど、デフォルトは1MBで
その場合の1ファイルあたりの上限が256GB。
なので、最大ファイルサイズを考慮したブロックサイズ指定が必要です、、ってことかな
結果報告。
BIOSのIOMMUは有効にしてても起動に問題なし。
使用ビデオカードは5770と4350。
オンボの1394はパススルー出来なかった。
パススルーの設定自体はESXi側で出来るのだけど、仮想XP側で"!"が出て正常認識せず。
仮想7(x64)でも同様の症状。
ビデオカードは標準ビデオとして認識されるので、ドライバー適用が出来ず。
で、PCIスロットにカードを挿すと、PCIスロットのデバイスが2つ同時にパススルーされる事が判明。
PCIにRATOCの1394のカードと3wareのRAIDコントローラーを挿して、この2つはパススルー成功、
ドライバーも仮想XPで正常に適用、動作確認まで出来た。
報告乙
報告続き。
入れてる石は屁2x3 720で、memは8GB。
一時間程前から1394経由でビデオのキャプテストをしてるけど、パススルーのHDDに対しての書き込みテストで特に問題はなさそう。
結局一時間キャプって、ドロップフレームは0だった。
仮想XP機を、キャプテスト中に2台程起動してみたけど、パススルーのHDDに対しての書き込みの遅延や失敗はなかった。
明日、もっと長尺のキャプテストをしてみるつもり。
CPUの負荷率は、テスト途中で仮想機を起動する時には100%近い所まで振り切ったけど、それ以外は軒並み50%程度を維持してた。
これでビデオカードがパススルー出来れば、限りなく実機に近い仮想PCの環境が出来るのに・・・。 orz
それにしても、この試験結果を鑑みる限り、
6 c o r e の 石 が 欲 し く な っ て き た ( ム ラ ム ラ ) w w w
guest OS落とさずにESXi4.1をshutdow しました。この場合guest OSは
連動してshutdownしますか?とりあえず再起動してfsckが走ってない
しmessage logでもsystem errorはでていないのですが、ちょっと心配。
構成から設定を見るべし
システムでの仮想マシンの開始と停止が「無効」だったのでちょっと心配。
さっそくメンテナンスモードで「有効」にしました。
御教示ありがとうございました。
>>534 ビデオカードをパススルーしたいのは、GPGPUでもしたいから?
>538
仮想PCで、ビデオのアクセラレーションがどの程度使えるのかが知りたかったのです。
そして、限りなく実機に近い仮想PCと言うのも面白いかな、と。
>>539 GPUをパススルーさせるのって、ハイパーバイザの場合は技術的にも難しそうなので、
そう簡単には実現されないんじゃないですかね。特に ESX はサーバの仮想化が主だっ
たという経緯もあるので、今後もそういう機能強化がされる可能性は、あまり期待でき
ないような気がしますが。
オープンソースな仮想化ソフトウェアなどを含めて考えたとしても、グラフィクス性能を
求める場合は物理マシンを直で使う以外に現実的な解は無いように思えます。
541 :
sage:2011/04/03(日) 14:14:11.03 ID:ZpYW8v6l0
ESXi 4.1 update 1 を使っていますが、24時間と持たずに "Machine Check
Exception" とかいうエラーになってピンク画面になる。。。ナニコレ
ESXiってMCEは無効に出来ないんですか?
>>541 マシンに全く問題がなくてもMCEエラー出ることはある。
メーカ製サーバだとBIOSの問題とか、拡張カードのROMの相性とか。
あと、多コアのCPUだとMCEが出易い気がする。
拡張カードとか全部はずして、memtestも全く問題ないのにMCEが出るような
らESXiの不具合かマシンとの相性なので諦めるしかない。
ちなみにMCEは無効化出来ない。
544 :
530:2011/04/04(月) 15:53:23.71 ID:rIl5mNCx0
>>531 返信どうもです。
1MBのブロックなので、256Gのディスクはできてます。
問題はスナップショットがなぜだめなのかというところで・・・
HDDサイズ250Gにしてみたらスナップショット取れました。
このままで大丈夫なのか実サイズが増えるなどでまたエラーになったりしないかちょっと心配です・・
>>544 update当ててる?
それらしき事が書いてあった気がした
547 :
530:2011/04/04(月) 21:55:40.85 ID:rIl5mNCx0
情報ありがとうございます!
恥ずかしながら自力では見つけられませんでした・・・
これによると1MBブロックのときはスナップショットのオーバーヘッドは2GBくらいで
おさまるようですね。254GBまでは大丈夫なようです。
おかげでスッキリしました。どうもありがとうございました。
ESXi4.1に別端末からvSphereでWindws2008R2評価版のインストールを
しようしているのですがうまく出来ません
「今すぐインストール」の次まではいけるのですが
「必要な、CD/DVDのデバイスドライバーがありません」
とメッセージが出てドライバを探しに行くのですが、ドライバが見つからないため
インストールできない状態です
ドライブは仮想ドライブを使用しデータストアからISOを読み込んでいます
もし対処法等あれば教えていただけないでしょうか
HDDの種類を変えなさい
>>549 返事が遅くなってすみません
HDDは下の二つです(両方ともインストール試したが失敗)
日立DeskStar HDT722525DLAT80 (250G U133 7200)
日立DeskStar HDS722525VLSA80 (250G SATA150 7200)
あんまり関係ないかもしれないけどWindows7はインストールできました
>>550 いや、物理HDDではなく、仮想の方でしょ。
IDEかSCSIか、コントローラは何か。
>>548 仮想マシンの CD/DVD ドライブの構成方法は 3 通りあったような気がするけど、
ここで「クライアントデバイス」もしくは「データストアISO」を用いた場合はどうなる?
>>552 それは、ホストでの違いだよね。
ゲストで問題が起きてるので、ゲストからの見え方を変えないといけないのでは?
>>550 Windows Server2008のインストールの画面でUSBメモリかメディアに必要なドライバを入れて、
ドライバのインストールをすれば、いけるはずです。
ESX/ESXiをいれるサーバーのドライバを探してみましょう。
ハードディスクがかなり古いから、CPUも古くて64bitを扱えないとかいうオチじゃないよね?
556 :
sage:2011/04/12(火) 20:36:44.58 ID:rjA1OxGU0
質問です。
現在Win7で稼動しているPCにUSBブートを利用したESXiとのデュアル環境を作りたいんですが
一つのHDDニパーティションなりを使って、win7のCドライブとESXiをデータストアを混在させることは可能でしょうか?
Linuxと違ってGRUBとかLILOとかのブートローダーが搭載されているわけではないし
Win7は言わずもがな
無理じゃないかねぇ
InfiniBand使ってる人居ます?
確かに10GbEより安そうだけど輸入めんどくさそうで悩んでるんだが
ESXiってSYSLINUXでブートしてるでしょ?
syslinux.cfgにchain.c32書き足せばいけるんじゃない?
ESXi入れるのに、どのくらいの容量のUSBメモリが必要?
少しはググれ
>560
2GBあれば十分。
うちはSLCの2GBのやつで本番環境運用してる。
安物はやめた方が良いぞ!!
ぐぐれば1GBでOKって出てくるよ、実際には980MB消費位になるから
564 :
562:2011/04/13(水) 13:41:02.94 ID:AMtvHc2+0
>563
そうなんだけど、今時1GBって入手しづらいんだよね。
SLCで評判良さそうなやつで一番容量小さいやつって選択したら
2GBになった。
Updateを重ねて、そろそろ1GBに収まらなくなるんじゃね。
>>564 最新版は1GBでは無理。
素直に2GB以上をオススメします。
1GBに入れようとすると赤いESXiの画面が見られますよ。
あれって日頃どのくらいの書き込みされてる? あんまりアクセスしてないみたいだけど
基本的にほとんど書き込みされなかった気がする
起動中は全部オンメモリで動くみたいだし
それ故にcronの設定書いたりしても初期化されちゃうんだったかな
560ですが、4GBの高めなUSBメモリを購入しました。
アドバイス、ありがとうございました。
>556
実HDDを複数個積んで、起動時のBIOSのboot seq選択で、起動する環境を変更してるよ。
でも、同一HDD上にデータストアと窓のパーティションを持つのはオヌヌメ出来ないな・・・。
理由 : パーティション誤操作の可能性があるから
絶対に間違えない自信があるならそういう構成もアリなんだろうけど、ヒューマンエラーが最もエラーを起こし易い訳で。
思い込み、勘違いの部類のエラーは、人間だもの、起こす可能性があるよ。
で、今日は99で特売してた、USB接続のビデオアダプターを買って来た。
これをESXiでパヌヌルー出来るかと、パヌヌルーした時の描画の遅延時間の計測を、週末に行う予定。
これで遅延が許容範囲内だったら・・・(ゴクリ)
>>570 USBのキャプデバイスなんかESX上で動かすとどんなとこがいいだい?
もしかしてデスクトップ兼用なのか?
>>570 あ、すまん。
ディスプレイアダプタか。
キャプデバイスなんてどこに書いてあるんだ?
>>566 4.1update1のDDイメージが900MBなんだけど
それでも2GB以上はあったほうが良い?
足りないと困るが
多すぎて困る事は無い
SSDもそうだが、フラッシュメモリはある程度 残量に余裕があった方がいい。
でないと、パフォーマンスや寿命に悪影響がでる。
ちょっと聞きたいんだけど
ゲストにvShereClient入れて使う事できる?
さすがに自分自身の削除とかはダメだろうけど。
今ノートPCをリモート端末として使ってるんだけど
vShereClientが結構重くて、特に起動にかなり時間かかって面倒なので
常時起動してるゲストXPに入れておいたら楽かなと。
それとゲストとリモート端末のPCの両方で同時にclient起動しても問題ないでしょうか?
出来る、vCenter入れて使うこともできるらしい
後微妙にスペルが違う
同時接続問題なし
579 :
577:2011/04/15(金) 17:49:29.28 ID:r5pLYIMe0
>>578 レスありがとうございます
帰ったら早速試してみたいと思います
スペルvSphereでしたね
>>579 そのゲストのコンソール表示させてみ。面白いから。
なお、壊れることはないから安心して。
581 :
577:2011/04/15(金) 18:18:02.38 ID:r5pLYIMe0
>>580 もしかして合わせ鏡みたいになりますか?
>>581 残念ながら、そうはならないよ。同じマシンのコンソールだそうとしていますってエラーがでるだけ。
よくチェックしていると思う。
583 :
577:2011/04/15(金) 18:43:43.87 ID:r5pLYIMe0
>>582 へぇたいしたもんですね
以前ZeroRemoteやTrueRemoteで自分自身をリモートした時は合わせ鏡になってたw
vSphereClientでもしそれやったら激重になりそうだ
報告。
システム構成は
>>532,
>>534を確認してくだしあ。
とりあえず仮想PCは1仮想CPUで、メモリーは1GBでOSはxp(32bit)で構成。
以前、PCIパススルーで、PCI-EXのビデオカードの画面出力をパススルーしようとして失敗。
なので、USB接続のビデオアダプターで、USBパススルーで実モニターに仮想PCの画面表示を出力、動画再生が出来るかどうかのテスト。
音声の再生には、同じくUSBパススルーでBluetoothアダプターを仮想PCに接続、ヘッドフォンと紐付けした。
ビデオアダプターは
ttp://www.iodata.jp/product/av/ga/usb-rgb_d/を使用。
・まず、仮想PC起動前にビデオアダプターのUSBパススルーOKを確認
・仮想PCを起動。仮想xp上でデバイスの正常認識、ドライバーの正常適用を確認
・実モニターに対し表示(USBビデオアダプターの画面のメインとする項目にチェックを入れる)を確認
・画面の解像度は1280x1024を指定
この状態で、USBパススルーで仮想PCから実モニターへの画面出力が正常に行える事を確認。
次に、
・仮想XPにCCCPとMPC-HCを導入。
・動画再生テストを実施。
この状態で、
・SD画質の動画(DivX等)は全く問題なく再生可能
・HD画質の動画(mp4等)は多少画面がカクつく場合がある
・音声の遅延は発生しない模様
という事が判明。
当然ビデオカードのH/Wアクセラレーションがない状態なので、CPUの負荷率を見てみると、
SD画質の時は〜25%程度なのに対し、HD画質の時は100%張り付き。
と言う訳で、仮想CPUを2つに増やしてみた。
すると、HD画質の時のカクつきが解消されて、CPUの負荷率は75%程度で収まった。
当然音声の遅延もなし。
想定していたよりも、相当良い試験結果となった。
で、手持ちの機材の関係上、フルHD解像度での動作確認が出来ない為、
明 日 新 型 を 買 っ て 来 て 追 試 の 予 定 ! ! !
新型アダプターは更に高速モデルらしいので、かなり胸熱状態w
乙。
そこまでやるなら実機でいいんじゃね?という気もするけど、
単純に技術的な試みとしては面白いね。
>586
多分使い物にならないんじゃ・・・という所からの試験だから、
想 定 を 遙 か に 上 回 る 良 好 な 結 果 に 胸 熱 状 態
です。はいw
今は、技術的にどこまで仮想PCを実機に近づけられるか、って事で色々と弄ってる。
で、同時に起動したい仮想PCが数台あるので、Bulldozerにwktkして待ってるw
1090Tでも良いのだけど、どうせなら・・・って感じ。
弄り甲斐がある新しい技術は楽しいなぁ〜///
これはマジ期待
こっちまで旨圧だわ
589 :
名無しさん@お腹いっぱい。:2011/04/17(日) 18:01:12.89 ID:DVi7IaT90
こんにちは。
Vmotionでホストを移行しようとすると、ゲージ80%ぐらいのところで、
「source detected that destination failed to resume」と表示され
ます。 ライセンスいれてないからでしょうか?
今評価版で行っているのですが、これってVmotionのライセンス
が別途必要になるのでしょうか?
評価版でできるよ。
cpuリソースが足りてない、cpu互換がない、あとなんだろう
591 :
名無しさん@お腹いっぱい。:2011/04/17(日) 19:00:59.15 ID:DVi7IaT90
ありがとうございます。
CPUはAMDのPhenome ×3 と Phenome ×4
phenomeは無理でしょうか?
>>591 phenome2 x6 1090Tの3サーバーで相互にv-motionできている。
できそうな気がしますが。x3に移動しようとしているguestが4CPU使ってるとか?
書き間違えた
phenome2 x6 1090Tの3サーバーとphenome x4 955の2サーバーの5台で相互にv-motionできている。
594 :
名無しさん@お腹いっぱい。:2011/04/17(日) 23:35:24.63 ID:q1Hwadce0
uu
595 :
名無しさん@お腹いっぱい。:2011/04/17(日) 23:39:01.34 ID:q1Hwadce0
phenome2 x6 1090Tを搭載しているマザーボードのメーカ名・型番など
を教えてください。esxが動いているということで参考にさせて頂ければ
と思いまして。
596 :
名無しさん@お腹いっぱい。:2011/04/18(月) 16:46:40.35 ID:BGtM9Odo0
内蔵Diskで稼働しているゲストOSを外部ディスク装置へ
移動させる方法ってあります?
仮想ディスクや設定ファイル毎、コピーすればいい。
598 :
名無しさん@お腹いっぱい。:2011/04/18(月) 16:54:12.00 ID:BGtM9Odo0
どうもです。
稼働しているOSをそのまま移動させることができないかなぁ
とか考えております。
Vmotionのような術はないのですか?
>598
それはStrage VMotionってやつだな。
600 :
名無しさん@お腹いっぱい。:2011/04/18(月) 17:22:33.64 ID:BGtM9Odo0
> 599
ありがとうです。
この術で移行出来そうです。
スナップショットは保持されないから注意かな
602 :
名無しさん@お腹いっぱい。:2011/04/20(水) 12:37:35.59 ID:iXP169tD0
>>602 ASUSの公式フォーラムだかで…
VT-dの要件は実はQ67から。P67とH67でVT-dが使えるというのは誤りでIntelも
これを認めている。実装次第ではPとかHでも有効にできるけど、Intelの出して
いるテストはクリアできない。
ってなやりとりを見たような気がする
Intel Q67EP にESXi4.1u1試してみた。
予想はしてたけど、オンボードNICは認識せず、
Intel1000CT挿して起動はOKだけど、VT-dもダメ。
oem.tgz探してみるか。
>>602 ASRockのH61M/U3S3だけど、BIOSにはVT-dの設定があったな。
このマシンではESXi使ってないから本当に使えるのかどうかはわからんが。
606 :
604:2011/04/21(木) 09:45:07.89 ID:cy4Cx9U30
冷静に考えたらi3 2100Tにしたから
VT-d対応してないや…
BIOSのバージョンあげたらVT関係の項目増えたから、対応CPUだと違うかも。
ちょっと気になるねぇ
ただこれだけ対応が怪しいとなると、サーバ系以外で期待しない方がよさそうだね
素直にAMD系で組んだ方が良さげ、6コア安いしね・・
890GXにしちゃったから、みんなの話題についていけない。
>>602-603 手持ちのマシンで2600無印もあるけど、その情報があったから、敢えて屁2でVT-dが出来るマシンを一台構築したよ。
情報を提供頂いた
>>459氏には感謝。
ちなみに
>>587のテストは未だ着手してない。
(正直1280x1024でも十分かな〜とか思わなくも(ゲフンゲフン))
>>606=604
ちょw ビールフイタwww
>>607 各種テストの結果が良好だから、6Cが欲しくなって来た。
だけど、もうちょっと待つだけで8Cが来るかと思うと考え中考え中・・・。
>>608 話題に追従出来る様に、IYH!して下さいw
>>609 今のところだけど、ESXiの無償版ライセンスだと6コア1CPUまでだよ
>>609 Fxだとグラフィックボードなくちやいけないのがなぁ
>>610 4コア2CPUでは普通に使えてたけど、どういう制限なんだろ。
#自分で調べろって?そーでつね。
>>612 1ソケットあたりの制限が6コアまでって意味だと思うよ
>>612 1CPUあたり8coreまでというライセンスがないんだよね。6coreを超えるには12coreサポートのadvancedライセンスになつちやうはず。もっとも年中評価版を入れ直ししてるなら関係ないが。
ESXi用に1台組もうと思うんだが、
ASUS P8P67 WS Revolutionってマザボどうおもう?
Intel NIC x2積んでてマニュアルにVirtualization Technologyの設定が・・・
好きにしろ
>>615 NICのドライバがあるかどうか、
>>5のサイトで情報を集めておいた方がいい。
買った後から「インストールが途中で止まってしまいます!」とか泣きつかれても困る。
618 :
615:2011/04/24(日) 02:14:09.43 ID:b4xXKtvQ0
調べてみたら、CPUから直接出てるPCIe x16(x8)レーンに
NF200ってPCIeバススイッチはさんでx32レーンにしてるらしい。
NF200はVT-d対応してないからx16スロットではVT-d使えなさそう。
残るのはx1スロットだけどP67チップセット直結だから使えないだろうな。
619 :
615:2011/04/24(日) 02:27:28.77 ID:b4xXKtvQ0
>>617 d 別途Intel NIC挿す予定なので大丈夫かな
P67でVT-d動くか気になるので是非是非
後はZ68がどうなるかなぁ、5月に入ったらi7+Z68で組むし、一回ESXi入れてみるか
>>610 全部をCPUを一つの仮想PCに割り当てたい訳じゃないので、多分問題ないです。
>>611 GXだとVT-d自体が使えないかと。 iii orz iii
>>619-615,620
少なくとも、手持ちの淫照純正H67+2600無印では、出来ない模様。
これからBIOSをうpって見る。
結果報告。
BIOSを最新にうpしても、BIOS上にはVT-dの項目は出てきませんでした。
vSphereのHW詳細でも、PCIパススルーは非サポートとなってました。 iii orz iii
VT-dを使いたいならQ67
PとかHは経緯からしてあれだから、実装も怪しい
>623
どう考えてもQチプセトが要るらしい。 iii orz iii
まぁ、新しいママソに換える契機にはなるからね。
とりあえず、屁2の6coreを買って来ようw
>>621 ん?バーチャルマシンに割り当てる数は関係ないんじゃね?
6コアを越えるCPUを使う場合はライセンスが必要なんでしょ
>>621 勘違いしてる。
>>625のいう通りで、無料ESXiホストのCPU制限が6coreまでなんだよ。
内蔵グラフィックが使えてVT-も使えるチップがあると良いんだがねぇ
次期チップ待ちか?
それはそうとついでにHW詳細見たらバススルーがサポートされてないっぽい
i5-650はVT-dもVT-Xも対応してたと思うんだけど
USBバススルーは使えてるんだけどこれはVTと関係ないの?
USBパススルーはVTとは関係無い。
VT-dが要るのはPCIパススルーの方。
でもさ、ESXiでPCIパススルーって何に使うの?
一部のRAIDカードぐらいしか動かないみたいだけど
スルーしたら中のOSがサポートしてれば動くでしょ
>>629 パフォーマンスをあげるには直接制御できることが必要なんだろうね。
インテルなんかはヤル気満々だけど、VMwareとしてはV-motionやDRSがやりにくくなるからヤル気無いように見えるんだが。
>>629 元々は通信とかを激烈に使う仮想マシンがホストのCPUリソースを食いつぶすので
デバイスを直接使ってもらう事でそれを解決しようというそんな話だったと思う。
>>629 キャプチャカードなり、いろいろ用途はあるよ
>>628 なるほど
レスありです
しかしCPUはi5-650なんだけどVT対応してたはずなんだが・・・
Intelの場合チップセットとCPUが両方対応してないとダメっぽい、Q67オンリーじゃないかって話
>>629 業務利用だと、特定macアドレスしか許さないネットワークにつなげるために
物理nic-pciパススルーのゲストOSにしたりだとか、ライセンス認識がpci経由のデバイス
のアプリがあったりだとかってのもあるかなぁ
picじゃないけどCAD系とかはUSBでライセンス認証させるアプリあるよね。
>>637 MACアドレス云々はあったが、その場合は手でどうとでも設定出来るからそれで回避したな。
デバイスそのものが何らかの処理をするか特定パターンを返すような通信する場合は厳しいな。
USBライセンスの場合は4.1とかだとそのまま使えるね。
USB-Serialの奴でゲストから通信出来たし。
640 :
名無しさん@お腹いっぱい。:2011/04/25(月) 02:16:01.01 ID:0DVB9EMR0
ESXi使う際にハードの制限がいまいちわかりません。
Xeonじゃないとだめなのでしょうか。
メーカのBTOでintelのi7 2600を考えています。
>>640 VMWareのページにリストがあるから自分で調べなさい
わからないならDELLの安物でも買え
643 :
627,634:2011/04/25(月) 09:55:35.98 ID:Ik5loMqK0
>>635 一応CPUはVT両対応みたい
>>636 なるほど、マザボはDH55TCなのでチップセットはH55なんだけど
コイツ対応してなかったのかな?
いまどきのマシンは、VT-x は使えるものがほとんどだけど、
VT-d も使えるものとなるとサーバ系のマザボが大多数なんだよね。
チップセットとしては VT-d 機能を持ってるのに、BIOS にそれを有効化するメ
ニューがなくて使えない、なんてパターンもあったりするとか。
>>643 ちょっとひどいな
DH55TCとVT-dでググれ
その最初のページに何て書いてある?
2番目でも3番目のページでもいい
>>643 VT-dはio関係だからチップセットも対応してる必要がある。CPUだけ対応しててもだめだよ。
647 :
名無しさん@お腹いっぱい。:2011/04/25(月) 17:02:27.87 ID:ZlAyKkmV0
ESXiで物理NICにチーミング設定をした場合
対抗機器(Switchなど)にも何かしらの設定が必要ですか?
648 :
643:2011/04/25(月) 18:07:01.21 ID:jWzOxti/0
>>625-626 Ω ΩΩ<ナ、ナンダッテー!
>>629 ウチでは、PCIパススルーは1394とRAIDカードをパススルーして使ってるよ。
USBパススルーでは、ビデオ出力アダプターとBluetoothを使ってる。
週末にでも、サウンドアダプターを付けてみようかと思ってる今日この頃。
色んな意味でかなり面白い使い方が出来る事が分かったから、wktkの技術かと。
技術的な話じゃなくて申し訳ないんだけど、
ESXがなんの略かはググったら一応わかったんですが、
ESXiの「i」って何の略なんですか?
愛よ、愛。
integrated
なるほど。サービスコンソールが統合されて無くなってる
ってイメージですか。
統合されてなくなってるっておかしくないか
もともとESXはESXi+Redhat AS3.0の構成だったということ
>>655 面白いけど相当強力なCPUを積んでおかないと仮想ハブの負荷が馬鹿にならないような気がする。
>>656 仮想HUBの負荷は、おそらくIntel ET ServerAdapter辺りを
積めば何とかなりそう。
確か、仮想HUBの処理までオフロードしてくれるはず・・・
スペックシート読んだだけで、テストまではしてないがw
658 :
604:2011/04/26(火) 22:13:24.17 ID:+w6giL230
>>658 LANポートは何個あっても無駄にならんでしよ。
質問です
ホストのCPUを交換した場合ゲストWindowsは再アクティベーションかかるのでしょうか?
>660
ゲストは仮想環境になってるので、再アクチは掛からないよ。
HP ML110G6 X3430からDQ67EP i3 2100Tに移したWindows XPと
Windows Server2008R2はアクティベーション無しでそのまま動いてます。
663 :
660:2011/04/28(木) 20:06:49.15 ID:TcxdaRi40
>>661 そうですか。
ゲストのシステムのプロパティを見るとホストのCPU名とクロックが表示されていたので
ホストのCPU変わるとアクチかかるかと思いました。
ありがとうございました。
>>663 実マシンでもCPU“だけ”替えたくらいでは再アクチ要求されないよ。
665 :
名無しさん@お腹いっぱい。:2011/04/29(金) 12:25:53.79 ID:L4RyPY7k0
アクチって何?
ググレカス
HDDにインストールしたESXiのNICドライバを差し替えたい(バージョンダウン)
んだけど、どうしたらいいですか?経験者語ってください。
……は?
典型的な目的と手段を取り違えている質問だな。どうせ、なんとかというNICは
ESXiバージョンうんちゃら、だったらなんたらだから、NICドライバだけ替えたい
とかだろう。
どうやってインストールしたかも書かずに・・・。
vihostupdate.pl使ったならremoveすれば良いだけだし、oem.tgzコピーしたなら
再インストールすれば?
intel PRO/1000MT をヤフオクで買うのが結局は安上がりだと気づいた
672 :
名無しさん@お腹いっぱい。:2011/04/30(土) 16:49:50.17 ID:MelQ0dPn0
intel PRO/1000MTってESXIで認識しますか?
>>671 PCIのNICを使う場合はそうだと思う。
>>672 PRO/1000MTのデスクトップと鯖を挿して使ってた事があるから大丈夫かと。
674 :
名無しさん@お腹いっぱい。:2011/04/30(土) 21:31:57.30 ID:3t2B8GJZ0
>>674 ( オ ン ホ ゙ と 合 わ せ て ) N I C 3 つ に し て や ん よ 〜 ♪
って歌いながら、SandyタソママソにPRO/1000MTのDesktopとServerのNICを増設してた記憶が甦るwww
ちなみに、淫照のPCI-ExのNIC(1000CT)も標準で認識するよ。
今ESXiが稼働している環境で、1000CTを2枚挿して動かしてるから間違いない。
まぁIntelのNICが実質推奨カードになってるしね、認識しないわけがないとも言える
しかし100sは認識しなかったけどな
678 :
667:2011/04/30(土) 23:23:55.19 ID:275pKbkk0
前にSDカードから起動させようとして調べたんだけど
esxi4の標準で認識するカーネルドライバってどこにあんの?
/usr/lib/vmware/vmkmod/の下。
SATAカードをパススルーしてるのですが、カードのBIOS設定はゲストからじゃ出来ないのでしょうか。
できないねぇ
>>680 あー、やっぱりダメですか…
BIOS設定するときはホスト止めないとダメかぁ
コレができると、いちいち再起動いらんなぁ、とか思ったんですけどね
↑馬鹿としか
ESXiの場合仕組み上グラフィック関係が弱いのは仕方ないですがホストのCPUパワーで表示速度をカバーできるでしょうか?
今のところi5-650で使用してますがブラウジングでのスクロールでも画面が波打つレベルなのでもう少しなんとかならないのかな?と思った次第です
ゲストOSが何か知らないけど、VMware Toolsちゃんと入れてる?
685 :
683:2011/05/05(木) 21:17:29.71 ID:Oskv+X800
ゲストはWindows7-64とXPSP3です
ブラウザは7はIE8+プニル2
XPはIE6+プニル2またはクローム
VMwareToolsは勿論入れています
リモート端末は無線LAN(802.11g)接続のLetsNote-R5(XP-SP3)でリモートデスクトップにて操作
あと書き方が悪かったかもしれませんが
波打つと言ってもスクロールバーをスライドしてのスクロールで表示が追い付かないレベルで
マウスのスクロールボタンでのスクロール等ではリアルPCよりやや遅い程度です
>>683 CPUパワーが100%に振り切れてなければCPUパワーでは解決できないかな。
たとえば、リモートデスクトップの設定を変えてみたらどうだろう。
画面サイズ小さくしたり、色を16bitに落としたり、
LANの帯域を使わない設定にしたら改善したりするかも。
>>685 RDPで遅いのはクライアントの問題かLANのレイテンシの問題じゃないか?
688 :
683:2011/05/06(金) 10:13:04.79 ID:1bOZ3giF0
>>686 CPUパワーは振り切ってないです。
>>687 クライアントの問題の可能性ありますね
RDP端末なんて処理能力どうでも良いと思ってたけどちょっと考えた方が良いかもです
頭からESXiではグラフィック関係仕方ないと思い込んでいたので皆こんなものと思ってたんだけど
どうやらみなさんはそんな事ないみたいですね
今度旧メインデスクトップPCから試してみます
ありがとうございました
参考までにうちでは
ホストにX2 5050e、ゲストにXP、
クライアント(RDC6.1)にAtom N270なXPマシンでブラウジングしてるけど
まぁ、ストレスにならない程度には見られるよ。動画はさすがにちょいキビしいが。
ちなみに接続は11nで、ping打ったら1〜3ms、解像度はWSVGA 24bit。
あ、言い忘れたけどブラウザはOpera11.10。
あと余計なお世話かもしれないけど、XPとはいえIE6はさすがにもう止めた方がいいと思う。
セキュリティの面でも、WEB標準の面でも。
691 :
683:2011/05/06(金) 12:39:16.80 ID:1bOZ3giF0
>>689-690 レスありがとうございます
クライアントRDP7.0
接続11gでping打つと1〜2msですね
1024*768で32bitなのでこの辺かも
ブラウザはメイン使用はWin7でIE8+Sleipnir2です
XPの方は雑用や特定用途なので基本的にブラウジングはしませんし
リモートデスクトップの接続オプションは変えた?
エクスペリエンスタブのところにいろいろあるよ
CPU占有時間は大して長くなくても信号変換や転送の処理が挟まれるから
処理全体での待ち時間が長くなってパフォーマンスに影響してるんじゃないかと思うんだが
>>683どこかがボトルネックになっている気がするな
694 :
683:2011/05/07(土) 01:01:04.70 ID:tQwZjC1J0
少なくとも今までESXiの特性と思っていたのが自分の環境の問題だというこがよ〜くわかりましたw
幸い今のところゲストの処理速度自体は不満なく
それまで普段使用していたノートPCよりも
圧倒的に速く唯一描画速度だけが若干の不満程度で
描画速度も特に気になるのはブラウジングだけで
窓の移動とかはリアルPCより若干遅いかな?程度で普段使用にも影響ないので
気長に原因の切り分けしていきます
ディスク全体を利用ってできないの?
他のPCで使ってたSATAディスクつけて読み込ませたいんだけど。
パーティション全部削除すればできるとおもうよ
「vmware esxi ディスク全体」とかでググったけど出てこなかった。
「Rawデバイスのマッピング」選択肢はグレーアウトしてるし、これ駄目じゃね?
RDM使いたいのなら別の話だ
SATAはRDM非対応、ゴニョゴニョするならともかく
ESXi 4.0 Update 3 が出てるよ
702 :
683:2011/05/07(土) 22:52:33.44 ID:tQwZjC1J0
なぁ・・・700を見て思ったんだけど
695ってもしかしてVMFS以外でフォーマットされたディスクを直接ホストに読ませようとしてないか?
703 :
700:2011/05/07(土) 23:09:58.57 ID:lTw5tAZ60
RDMならできるよ
>>695 の書き方じゃ正確に伝わらなかったのは仕方あるまい
706 :
700:2011/05/08(日) 14:40:35.41 ID:1HLqSmtM0
すんまそん
RDMでFreeNASとかのZFSは普通に使えるのかな?
入れ替えたりするときちょっと面倒そうだし
パフォでなさそうで試してないや
>>707 普通に使える
入れ替えはちょっと面倒
パフォーマンスは実環境と同じ
物理互換で作ると地獄を見るので、仮想互換推奨
ESXi4でストレージとして ArecaのARC-5040(Raid6)をiScsiで繋いでやろうとしてるんだけど、
仮想のOSインスコとか書き込み負荷がかかる処理するとESXiが死んで5040が暴走してしまう。
普通にSASとかSATAでつないだ内臓ストレージだと問題ないから5040の問題なんだろうけど
何かヒントないかな。
firewire800とかUSB3.0でもつなげれるらしいけどESXi側が対応してないよね?
NFSもってるraidboxにすればよかったか・・今までiscsiでトラブッタこと無かったんだけどなぁ
ターゲット側のType=blockioと
esxのDelayedAckのチェックオフ
709です。
>esxのDelayedAckのチェックオフ
は既に試していたのですが効果無しでした。
>ターゲット側のType=blockio
試してみます。
ARC-5040側にType=blockioに相当するような設定ない模様。。。
あと出来そうなのは仮想OS側で何かしらの設定することくらいか?
>>712 ファーム開発元に苦情を入れる
VM Kernelのトラフィックって仮想スイッチで絞れなかったっけ?
>>709 手持ちのEscalade8500-4に、複数のHDDを単発(RAID構成なし)で繋げた場合には、
I/O処理の問題からか、単発であるにも関わらずビデオキャプチャーでドロップフレームが出た。
具体的には、HDD#0にキャプチャー(ライト)してる時に、HDD#1にリードに行った時。
実機だと余裕の作業だから、PCIパススルーの限界なんだと思う。
PCIの帯域の問題の可能性もあるし。
ちなみにfirewire400のカードはパススルー出来る。
USB3.0は手持ちでカードがない。
>>713 トラフィックシェービング出来る。
質問です
ホストのUSBに接続したDVDドライブをゲストで使おうと思ったのですが認識できません
コンソールからホストデバイスの接続を選んでもデバイスが表示されず
ゲストの設定でCD/DVDドライブにホストデバイスを選んでも同様
USBバススルーで接続しようとしても使用できるデバイスがありませんとなります
ホストのデバイスを確認するとDVDドライブを認識しています
なにか他に手順が必要なのでしょうか?
>>715 仮想PCのプロパティで、USBコントローラーは認識してる?
それを確認した上で、USBデバイスの追加で出てこない?
USBコントローラーは認識しています
その上でUSBデバイスをマウントしようとしてもグレーアウトで使用不可でした
あと他のゲストですがディスクタイトルプリンタはUSBバススルーで使用出来ています
安鯖の富士通TX100S1(E5400)を購入してメモリを4G挿して
ESXi4.1update1をインストールしようとしたところ
インストール終わってESXiのロード画面になった瞬間パープルスクリーンになり
no place on disk to dump data
と出て先に進めません。
対処法をご伝授頂きたいです。
719 :
718:2011/05/12(木) 10:20:38.91 ID:LnJx+PAm0
事故解決しました(*´σー`)
USBインストールはできるけどブートは出来ないのな
物理ディスクとして設定すればいけるけど
USBバススルーで、ゲストOSをUSBの実デバイスからBootってこと?
物理ディスクを使用(P)(VMware 上級者用)←でUSBデバイスを指定したらおkだった
ようはゲストから見てUSBデバイスじゃなくてHDDならブートできる
ググったらエミュレートしてるBIOSが古いからUSBブートに対応してないらしいね
ESXi4.1U1初めてインストールして、vmdkコピーしてるんだけど
約20Gbyte のvmdkファイルのコピーに3時間以上って、何この遅さ。
ギガbitLANなのに4MB/sしか出ない。無償版だからなのかな。
無償関係無いです。
>>723 そりゃー何かおかしいような。以前 Seagate のドライブのファームウェアバグ引いて酷い性能に
参った…といったやりとりをこのスレで見たような記憶はあるけど…。過去スレのどの辺りだった
かは忘れてしまった。
USBブートも魅力だけど、
HDDで起動して、スワップファイルの場所として使うのも魅力じゃないかと思ってる。
ベンチマーク取ってないけど・・・
727 :
723:2011/05/14(土) 12:43:46.24 ID:nN9OLn0m0
レスありがとうございます。LAN環境の問題でした。
HUB交換で、60MB/sまで速度が上がりました。
調子の悪いHUBが原因でした。
ソースコード探してるんだがメンテ中なのだろうか
ドライバビルドしたかったのに・・・
ESXiでRTL8187は現在使えないと思いますが
どなたか使えている人はいますでしょうか
使えないからいない
>>731 oem.tgzを弄れば使える可能性があるけど、正直オススメしない。
以前、蟹のNICをoem.tgzを弄って認識させた事があるけど、その時にはDHCPでIPが取れない、という不思議な現象に見舞われた。
勿論、IP決め打ちにすれば疎通は正常に取れる、という状態。
HUBの口を換えても、LAN線を換えても現象変わらず。
そこのPCI-Exの口に淫照のNICを挿して起動したら、一発でDHCPでIPが取れたから、まず間違いなくNICのドライバーの問題かと。
>>733 やはり実用的ではないですか
USBバスで接続されているWifiで、
oem.tgzを作り直した事例等は無かったんですよね
.oのファイルを作るところから始まりそうですが
>>734 もしかして、USB接続の無線LANデバイス?
>>735 ホストにsshで入りlsusbすると見つかるデバイスです
外付けしているわけではなくオンボードです
Bus 01 Device 05: ID 0bda:8187 Realtek Semiconductor Corp. RTL8187 Wireless Adapter
外付けならゲストOSでスルー接続できると思いますが
もしかしてコレもできるのだろうか、まだ試してないからやってみようかな
ホストに使っているママソが特殊なのかなぁ?
仮想OSの設定の編集でUSBコントローラーを追加して、その後にUSBデバイス追加で出てこない?
>>737 ありました・・・
USBコントローラの追加までは行っていたのですが、
その後にUSBデバイスがあることを知りませんでした
どうもご迷惑をおかけしました・・・
>>739 ゲストOSに入れたUbuntuで認識されることを確認しました。
どうもありがとうございました。
>>731 8187じゃないけど、蟹もMarvellも使えてる
仕事用じゃなくて自宅用だけどね
>>741 ASUSのP5W DH Deluxです
744 :
名無しさん@お腹いっぱい。:2011/05/16(月) 14:51:03.76 ID:drbC1cng0
VMで物理シリアルポートが上手く見えないんだが...
●環境
ML110 G6 Core i3-530/8GB/SATA160GB + APC Smart-UPS 700 SU700J
黒ケーブル 940-0024D で、シリアルポート接続
●ESXi 4.1 update 1 無償版の、VM 上でテスト
ESXi は、USB メモリーから boot
他の VM はこのホスト上に無し
VM はメモリ 2G/HDD 8GB
シリアル ポート 1 物理シリアルポートを使用 /dev/char/serial/uart0
CentOS 5.6 i386
VMware Tools インストール
apcupsd-std-3.12.4-1.el4.i386
acpupsd.conf は、UPSCABLE smart、UPSTYPE smartups、DEVICE ttyS0
apcupsd 起動したかに見えるが、エラーで停止
その時の syslog
------------------------------------------------------------
apcupsd[3269]: apcupsd FATAL ERROR in smartsetup.c at line 174 PANIC! Cannot communicate with UPS via serial port.
Please make sure the port specified on the DEVICE directive is correct, and that your cable specification on the UPSCABLE directive is correct.
apcupsd[3269]: apcupsd error shutdown completed
------------------------------------------------------------
apcaccess すると
------------------------------------------------------------
FATAL ERROR in apcaccess.c at line 252
tcp_open: cannot connect to server localhost on port 3551.
ERR=Connection refused
------------------------------------------------------------
何か間違っているか、設定が足りないところってある?
745 :
名無しさん@お腹いっぱい。:2011/05/16(月) 14:53:03.48 ID:drbC1cng0
>>744 の続き
●ちなみに、同一環境で直接テスト(VM ではなく ML110 G6 を物理サーバーとして)
CentOS 5.6 i386
apcupsd-std-3.12.4-1.el4.i386
acpupsd.conf は、UPSCABLE smart、UPSTYPE smartups、DEVICE ttyS0
apcupsd 起動後、apcaccess にて UPS の情報取得も成功
停電も感知した
このテストで、「ハードウェアに絡む問題はない、そして apcupsd の
設定も問題ない」と判断したんだけど、どうだろう。
ESXi にはホストの物理シリアルポートを VM にアサインする機能が
無かったような記憶が。
ESX ではできた記憶がある。
4.1 から、serial over IP みたいな機能が提供開始されたけど、
有償板ライセンスが必要なはず。
>>729 おおっと、気付いてなかったwスマンw
TX100S1のBIOS入って
Advanced→Advanced Proceccor Optionsに入って
Enhanced Idle Power StateをDisabledにすれば回避できますよ。
只今TX100S1のESXiにMacOSX10.6snowleopardをインストールしてますが上手くいかない
誰かわかる方いたら教えて頂きたい
上手くいくわけないだろ……アホかいな
ちなみに上手くいってもライセンス違反
WorkStationになら入れたことはあるが、専用の起動ディスクイメージが必要
749 :
729:2011/05/16(月) 21:35:53.51 ID:9DZ0lV4C0
>>744 シリアルダメだから
USBでやっとるわ
751 :
名無しさん@お腹いっぱい。:2011/05/18(水) 09:25:51.35 ID:72ckzrEG0
レス、どぉも
>>746 仮想マシンのプロパティ - ハードウェア - シリアルポート - 接続 で、「物理シリアルポート」が指定できるので、いけるのかと思ったんだけどなぁ
>>417 では出来ている、と読めるんだけど
>>750 SU700J には USB インターフェースがない...
USBシリアル変換ケーブルって使える?
752 :
750:2011/05/18(水) 09:44:38.32 ID:fy2kDIW40
>>751 USBシリアルか、その発想は無かった。試してみる
手持ち機材はML110G6,SUA500JBでESXi4.1U1
754 :
750:2011/05/18(水) 11:16:38.59 ID:fy2kDIW40
今試す事出来ないんだけど
KB Article: 1030667
なんてのも邪魔してんのかなと
デフォルトで有効らしいし
SmartUPS700で、USBシリアル変換とUSBバススルーでvMAにいれたapcupsdと通信できてる。
特に問題なかったから、変換アダプタのドライバが汎用でいけるなら大丈夫なんじゃない?
何をいまさら?
かなーりいまさら
>>756が痛い子だと思ったら日付見てコーヒー噴いたわ
せめて最新版のコンバータ…
True Imageで作ったイメージをインポートできないっていう不具合は直ったのかな?
761 :
750:2011/05/18(水) 23:15:14.16 ID:7h5ZpI1s0
>>755 RS232Cでやってみませんか?
USBデバイスって抜き指しするUSBポート場所変えると
デバイス毎消えるんだけど家だけ?
VIclientで治すのメンドクサイ
>>751 あまり関係ない気はするが仮想マシンのBIOS設定のUARTまわりいじってみたら?
764 :
名無しさん@お腹いっぱい。:2011/05/19(木) 08:36:32.35 ID:5RbQ412q0
まとめてレスで失礼
>>753 あぁ、これは「ESXiでは無理」の決定打かな?対象の Product Version にも含まれているしね
あと、実績ありのUSBシリアルの製品教えて
>>755 レポありがと
こちらも、USBシリアルの製品教えて
USBシリアルはvMAつまりCentOS 5.3(x86_64)で認識できれば使えるってことかな
>>750 情報ども
Misc.LogToSerialはデフォ有効だけど、VMKernel.boot.logPortがデフォ空で結局無効、と理解したけど
LogToSerialを0にしてやってみたけどだめだった
>>763 Advanced - I/O Device Configuration - Serial port A: ならやってみたことある
Auto を Enabled にして、Base I/O address を選択することしかできないけど、他にもいじれるとこある?
753 で結構諦めモードだけどね
なんだかわからんが、APCとその他のUPSをESXiホストにRS232Cで接続して、vmにシリアルデバイス追加して、普通にUPSの状況モニタできてるが。
そういう話じゃない?まぁ動かない→あきらめて別の方法という判断は正しいが。
766 :
名無しさん@お腹いっぱい。:2011/05/19(木) 13:12:56.33 ID:5RbQ412q0
>>765 そういう話なんだが...
となると 753 の KB は間違ってる?
よければ、ESXiのバージョン、有償/無償、ホストサーバーの型式等晒して
>>766 765ぢゃないけど、私もホストの
シリアルポートをvm から使えて
ます。
esxi 410 260247
primergy rx 300s4
win nt ( vm )
サポートしてないってだけでは?
昔聞いたけどAPCのUPSはRS232と仕様が違うと聞いたことがある
ケーブルも専用のじゃないとダメとかなんとか
769 :
750:2011/05/19(木) 17:24:10.13 ID:5a4JRC+m0
ダメなの共通はML110G6だからiLOのせい?
Serial over LANなんて機能もあるですよね(設定してないけど
>>768 当然、UPS添付の黒ケーブルが必要
770 :
名無しさん@お腹いっぱい。:2011/05/19(木) 19:16:05.78 ID:5RbQ412q0
>>766 4.1u1 無償 SC840 SC1435 ML115G1 RX200S3ほかhp,sun,ibm調べるのめどい
ホストのBIOS工場出荷にもどしてWinのVMいれてダメならそのマシン以外つかえば
>>764 >>755だが、使ったのは「ELECOM UC-SGT USB to シリアルケーブル」
実際には「PL2303」ってチップが使われているものならほぼ標準で認識するから、
安価に済ませたいなら秋月とかにもあったような
ESXな自作機の背面端子にシリアルが無かったからパススルーで対応してる
vt-d対応じゃないとダメじゃなかったっけか
774 :
名無しさん@お腹いっぱい。:2011/05/19(木) 20:44:36.93 ID:5RbQ412q0
>>771 おぉたくさん、ありがと
ホスト向けの手持ちのマシンは他にない状態...
>>772 ありがと
USBシリアル、どうにか試してレポするね
776 :
名無しさん@お腹いっぱい。:2011/05/20(金) 12:44:24.69 ID:MGYfL43K0
>>774 IO の USB-RSAQ2 でできた
vMA の仮想マシンのバージョンを7に上げてテストした
PL2303 で認識されていた
他に USB-RSAQ5 もテストできたんだけど、こちらは vMA でシリアルポートとして認識されなかった
ちなみに USB-RSAQ2 だが、USBケーブル - アダプター部 - ジェンダーチェンジャー とつながなければならないので、抜ける心配が有る部分がたくさんあってちょっと嫌な感じ
772 でレポしてもらった UC-SGT を入手して進めることにする
ということで、VMから物理シリアルポートを使うのは諦める
いろいろレスもらって助かった、ありがと
意外とつかえないもんなんだな
そういうのにあたったことがないので実感がわかないが、見てて参考になった
DiskIOに負荷がかかるとホストがフリーズして、
仮想マシンをシャットダウンさせようとすると95%で固まるんだけど
これってハード側の問題?
>>778 環境も判らんのに答えようもないな
GbE環境で数百GB単位をコピーしてるけどホストのフリーズは経験無し
ちなみにホストがフリーズしてゲストが95%で固まる現象は、自分のある環境で発生して解消もしてる(はず
但しこれはDisk I/Oの問題じゃ無かったので違うとは思う
いちいちコテ付けんでいいよ
いちいち仕切らなくて良いよ
一般にコテが鼻につくというのは事実。
わかれ。
コテつけて、こてんぱん。
x58でありVTーd項目がBIOSにあれば仮想化したさいもPCIを使うことができると思っていますが
現状それを行うことができないので構成に問題がある際は教えてください
MB VTーd対応
ホストOS WinXP Pro32bit
ESXiのためPlayerを使用しています
ゲストOS WinXP Pro32bit
使えために構造→ハードデバイス→詳細設定
のところまではわかりますがヘルプにかかれてある通りの色のついた文字が
出て来ない状態です
使うために構成状態に問題がありましたら教えてください
何点か構成に問題があるとは承知しているものの
検討を付けようにもわからないので聞いたしだいです
そのへんの説明に書いてある構成と比較しませう
違っている所があるはずなので、それが問題点です
釣りだとしてもつまらんな…
そんなんばっか。
>>785 >ホストOS WinXP Pro32bit
>ESXiのためPlayerを使用しています
ダメです
791 :
名無しさん@お腹いっぱい。:2011/05/23(月) 18:08:26.52 ID:QC+87sD30
RHEL6.1をNFSサーバにして
ESXi4.1からマウントしてゲストOS作成してるんだけど
途中でNFSセッションがきれたり、遅くなったりするんだよね
原因わかる人いない?
NFSのチューニング設定してる?書き込みの処理とか
exportsの設定はasyncにしたりチューニングしてみたけど
変わらないです。
Gigabitの接続なのに1Mbpsも出ない
そいつはおかしいな
ESXi以外からのNFSマウントでは正常?まずはその辺から見た方が良いかと
あーそれは確認してなかった。。
CIFSアクセスでは結構なスピード出てたんだよね。
OS依存の問題なのかなと思って今suse入れて試してる
>>785 >使うために構成状態に問題がありましたら教えてください
最大の問題はここ
>ホストOS WinXP Pro32bit
>ESXiのためPlayerを使用しています
ESXiの使い方をググればわかると思うよ
それかハイパーバイザでググってみれば?
797 :
793:2011/05/24(火) 08:46:52.24 ID:pLqWwnKI0
なぜかわかりませんが、物理的にNICを新たに追加したところ
改善されました。。
798 :
名無しさん@お腹いっぱい。:2011/05/28(土) 19:13:01.17 ID:YgatQP2a0
ノートPCでも使えたよage
ExpressじゃないPCIスロットなんですが、安くて対応しているNICって何かいいのありますか?
とりあえずIntelの1000Mbpsカードの中古探そうと思いますが
ググれば、腐る程 動作実績でてくるよ
>>799 淫照のNICなら大抵一発で認識する。
PRO1000の鯖とデスクトップは普通に認識した。
100baseで十分な用途だったんでガチ鉄板のPRO/100Sを挿したら認識しなかった。
>>803 PCI-Xのカードって、PCIスロットに刺さるんですか?
>>804 32bitPCIと64bitPCIとPCI-Xは変態スロットじゃなければ互換性があるから刺さればたいてい動く。
でもまともなパフォーマンスで動くかは物次第。
>>804 PRO/1000GT Desktop Adapter なら刺さるし動く
でも、PCI-Express が無いようなマザボで ESX が動くのかな。
あるけど単に埋まってるってだけ?
シンプロビジョニングで割り当てたvmdkの中のデータが減った時に、
空き領域を開放してvmdkのサイズを縮小させるにはどうすればいいんだろうか。
シンディスクを指定してストレージvMotionすれば良いのかな?
>>806 FoxconのAtom D525マザーです。
一応ESXiの動作報告はありますが、
IntelのNIC刺すか、蟹のドライバー組み込む必要があります。
>>808 AtomのD510に、Virtualboxを入れた時には使い物にならなかったのだけど、
D525とESXiとの組み合わせ、使い心地はどう?
>>807 圧縮 Thin Thick vmdk Tools
といったキーワードでググれ
自作PCでESXiを導入しようとおもうのですが、
チップセットの対応はどこにのってますか?
>>1-
>>2はみてみた。
ドキュメント読んで下さい
>>813ありがとう。
ICH9のマザー見つかるかな自作はむりそう
815 :
名無しさん@お腹いっぱい。:2011/06/01(水) 22:02:50.98 ID:DHQ8Icfr0
評価版使ってみようと考えているのですが、
VMware vSpere4.1に対応している(サポートされているか、別途ドライバ無しで
稼働実績有り)
安鯖 or ノートPCってないでしょうか?
性能は求めていません。価格重視です。
なんでこうもググらないかね……
>>814 ICH10 も使えたよ。Ibex Peak も使えた。Cougar Point SATA も使えたという
書き込みを海外のサイトで見たことはある。ネットワークは EXPI9301CT を
Amazon などで買って装着するというのが最も楽でかつ安く上がる方法。
ただ、自作に拘らないのなら NEC GT110b を NTT-X ストアなどで買って、
メモリを足すってのが楽だし結局は安いと思う。
>>815 上に同じ。ただメモリは多い方がいろいろと幸せになれるとおもわれる。
>>817 すみません、ICH10の件貴方のとおりでした。
マニュアルと、Compatibility Guideが
食い違ってるようにみえるが。。。
>>815 鼻毛鯖なら格安じゃないかね
自分はそこらに落ちてた安マザーにC2D載せてNICだけドライバ入れ替えで使ってるけど
>>818 ESXiってそもそも、パーツでの動作保証なんてしてないかと。
なので、公式情報としては、メーカー・機種決めうちの
情報しかないはず。
サポートリストに書かれていないハードは、
すべてサポート・保証外なので、
独自に確認・テストするしか無いぞ。
自分で構築するわけではないのですが教えてください
同じIPAddressを持つ仮想マシンを複数台用意して自動/手動で一台だけを
活性化しておくことができますか?
要するに冗長化なのですがどこまで可能なのかググりまくってもよくわからず
VMware HAとか?
HAやFTなら自動化できる
手動で上げるなら別に無償版でも出来る
ESXiにWHS2011をインストールした方いますか?
>>827 WHS2011 on ESXi on 鼻毛 で運用中だよ。
録画サーバーも兼ねさせようと思ってたけど、USBパススルーのパフォーマンス
が良くなくて断念したこと以外は至って快調。
ちなみにWHS2011のデータドライブはRDMで使用中。
>>829 レスありがとうございます。
SMB2.0が使えるWindowsとしては安価で魅力的なんですよねぇ >WHS2011
購入の方、検討してみます。
…DSP版って、仮想マシンの場合はホストに対象ハード繋げとけばOKなのかな。
よくわかんないや。
>>828 VSSを使えないゲストOSを使用中ということ?
Linux だとそもそもクラッシュコンシステントなリカバリしかできないしな…
> スナップショット作るときに ロックされ、消すときもロックされ、I/Oエラーで
> 止まってしまうんよ。
SYNCドライバ自体を無効にしちまうという手もあるけどね。
VMをスナップショットへ切り戻しした場合は、OracleのREDOログによるロールフォワード処理に任せる。
少なくともVMスナップショットの取得やなんかのときに起こる、SYNCドライバ由来のI/Oの糞詰まり現象は無くなる。
こっちの方が結果的に幸せだった、という経験がある。
>>831 レスありがとうございます。
>VSSを使えないゲストOSを使用中ということ?
Windows 2000 Server です。
> SYNCドライバ自体を無効にしちまうという手もあるけどね。
これは気づきませんでした。ありがとうございます。
普段VMware Tools のオプションなんて気にしていなかったので、SYNCドライバが
切り離せるなんて思っていませんでした。
早速、切り離した上でテストしています。
バックアップ時(Acronis B&R 10 Adv. Virtual Editionを使用)は、どうせORACLEを
止めるので、時間差による各種不整合は、Oracle に関しては無い筈です。
833 :
名無しさん@お腹いっぱい。:2011/06/03(金) 12:24:17.82 ID:gp0eQ/2V0
>>833 VMware Tools のインストーラを再実行し、変更オプションで SYNCドライバを
外しました。
ところで、Acronis のマニュアルを見ていたら、仮想マシン上に直接インストー
ルできるエージェントプログラムがあることを知りました。即刻SYNCドライバ絡みの
テストを中止し、それをインストールしました(エージェント for Windows)。
エージェント for Windowsは、Acronis ネイティブの方法でバックアップが取れるので、
安定したバックアップを望んでいた私には朗報となりました。
Acronisが無駄な買い物にならなくてすみました。
VMware esxiでVT-dがあることによって何ができるようになるかがまとめられているサイトとかないですか
その程度も自分で調べられない人には、正直向いてないぜ。
ずいぶん前(2009年)に、VMFSをLinux機でmountするドライバの話題があったのだけど、
その後どうなったのかググってみた。
提供元のところでも「readonly」のままだし、writeの需要がないのだろう、と思った。
万一の時のサルベージ用途ということじゃね?
839 :
名無しさん@お腹いっぱい。:2011/06/07(火) 08:01:07.98 ID:AMKb5uJi0
vSphere Client 345043 で仮想マシンの一覧を開いた時点で五十音順にソートされてないのだが之は仕様???
五十音てのが気になるが一覧ってどこのことだ
以前のVerでソートされていたが345043でソートされなくなった、という意味だよな?
あいうえお順に並ぶのか。
目眩がするな。
842 :
名無しさん@お腹いっぱい。:2011/06/07(火) 19:44:09.91 ID:AMKb5uJi0
>> 840 左ペインのホストを選択すると、右ペイン表示される「仮想マシン」タブにある一覧のことだ。
>以前のVerでソートされていたが345043でソートされなくなった、という意味だよな?
そのとおり、ESXi は 348481 に入れ替えたとたんに発生。
同画面で明示的に名前でソートすることはできるのだが、初期表示時にソートされてないと気持ち悪い。
どうやったら、「いろはにほへと」順に並びますか?
助けて下さい。
ESX 4.1で仮想マシンのディスクをRDMして作成し、その後 VMware vCenter Converter Standalone 4.3 でコンバートしようとしても途中でエラーになってしまいます。
「選択したマシンのハードウェア情報を取得できません。」というメッセージが出てしまいます。
iSCSIの接続状況は問題ありません。
ゲストOSも Converter のサポート対象だし、何がいけないのかわかりません。
お願いします。
RDMだとディスクの中に仮想ディスクの情報しかないよ
仮想マシンの他の設定ファイルはちゃんとある?
>>842 こっちでは以前のVerからずっとソートされてなかった気がするがな
なんか調べ方が悪いのか結局調べ切れなかったんだけど
インテルの6シリーズのチップセットでVT-d対応してるのてどれ?
H61とかはなんか非対応っぽいんだけど
HかQのみ
正式にはQ67とサーバー用のC20*だけじゃなかったっけ
なるほど
まだ細かい仕様は詰めてないんだけど
どのみちインテルマザーにすると思うのである程度型番絞れてきたら調べてみます
とりあえずHかQぐらいにあたりつけて探してみます
ありがとうございました
でもHも対象となるとH61も対応してる可能性あるのかな?
まぁメモリスロット2個しかないからESXi用としては選ばないだろうけど
>>852 ち・な・み・に。
DQ67SW で試したけど、ESXi 4.1u1 はインストールできなかったよ☆
KVM はうまく動いたけど。
>> 853
DQ67SWでESXi動かないのか。
LANは対応してないのは解ってたんだけど、XenClient 2.0 TechPreviewが動いたから油断してた。
次のバージョンいつ出るの?
DQ67SWで、確かにオンボードNICは使えませんでしたが、
対応NICさえ挿せば、マザーボード自体はESXiで使えますよ。
我が家はDQ67SW(B3) + Intel ET Dual Port Server Adapterで無事使えていて、
i5 2400SでVT-dがあるので、USBコントローラのVMDirectPathもできました。
>>857 ΩΩΩなんですってー!
ということは、マザーが原因じゃないのかぁ。
ちょっと再挑戦してみるる。情報ありがとー。
KVM でパススルーして PT2 で録画できたけど、
ESXi でできればうれしいなぁ。
>>858 多分ESXiのインスコ中に白い文字列の画面で止まったかと。
何回インスコしても同じ画面で止まる、と。
それ、NICが対応してない場合に表示される画面。
使えないってその程度のレベルの話だったのかよ
ちょっと調べればオンボNICの使い方なんて見つかるのに
861 :
853:2011/06/12(日) 18:11:11.54 ID:7OZX5fwy0
穴がなかったら、掘ってでも入りたいです。
勉強になりました!(^_^)b
862 :
名無しさん@お腹いっぱい。:2011/06/13(月) 23:22:15.87 ID:BebqeOPq0
以前、InfiniBandの話題が少し出ていたけど
実際に家庭で使ってる人っている? 使用感とかどうだろ。
自宅内に張り巡らすのはともかく、
ESXiのマシンとストレージサーバを直結するくらいなら導入しても良いかな〜、と検討してるんだが。
>>862 ESXiでInfiniBand使用しSRPで接続ですが、以前の1GbEのiSCSIで使用してるときより
レイテンシ上がったのと転送速度が上がったのでかなり速くなった気がする。
vm上からddで簡易測定してみたけど、このくらいでてた。
# dd if=/dev/zero of=/var/tmp/test.dd bs=128k count=200000
200000+0 records in
200000+0 records out
26214400000 bytes (26 GB) copied, 94.8833 s, 276 MB/s
>>863 おぉ、さすがに早いね。
速度もそうだけど、やっぱりEthernetと違って低レイテンシなのも大きいのだろうな。
ちなみにHCAは何を使用されてます?
>>864 何回か測定したら200MB/s〜300MB/sくらいでふらついてますね。
SRP Target側HCAがMHGH29-XTC、InitiatorがMHEA28-XTCです。
インフィニバンドってもう個人で手が出る範囲になってきたの??
まだ相当効果だと思うんだが…。
>>866 うちは、スイッチとカード3枚セットで中古で4万くらいでした。
>>866 eBay覗いてると、安いのは数十$であるよ。
しかし、InfiniBandの実測値がスレで出るのって初めてかな?
自分も興味湧いてきた。
低レイテンシってことで、ESXiのデータストアにするには最適っぽいし。
VMware vSphere4 を入れて使用できるノートPCってないでしょうか?
タワー型ですと、設置場所がなくて難しいです。。。
あるけど確実にどれが動くかは知らない
とりあえずCore i系で、NICがIntelのものを選ぶべし
ただひとつ言っておくけど、例え動いても検証程度にしか使えないよ
Workstation入れてそのゲストにすればCPU以外気にしなくて
いいんでないかい
ものすげー無駄な努力だが
874 :
名無しさん@お腹いっぱい。:2011/06/17(金) 11:57:58.76 ID:u/EMcieM0
ESXiのブート領域もミラーリング等で冗長化しようと思った場合って、
ハードウェアRAIDのカードにインストールするしかないのでしょうか?
現在はUSBメモリからブートさせているのですが、
これではそのUSBメモリが逝ったらアウトですよね?
データストアが無事なら、復旧自体はあまり難しくはないですが……
冗長構成にしたいならNFSやiSCSIターゲット側でやった方が良いよ
PXEを使用してネットワークブートにしろ、ってことですかね?
うん
NFSは無理かも。iSCSIブートはIntelのNICとかでいけるらしい
USBメモリが逝くのと、RAIDボード死亡or全HDD死亡を比べたら
故障率に大差ない気がする。
>>877 レスありがとうございます。ID変わってますが874です。
やはりそうなりますか。
Solaris辺りでRAIDZにて巨大なストレージ作って、ブートもデータストアもそこから、
ESXiにはCPUとメモリだけでストレージは無し、というのがスマートなんですかねぇ。
あとはNICをチーミングでもすれば、家庭用としては充分でしょうか。
……先は長いです。
家庭用ではむしろオーバースペックだと思うけど
でも気になるから作ったらレポよろ
>>879 そんなとこだろうね
M/Bや電源が逝くとこまで配慮すると、それはもvMotionとかの話になるし、
家庭でやるには少々過剰かも
USBメモリを常時ミラーリングできたりしたらいいんだけどね
>>874 俺は vicfg-cfgbackup.pl でときどきバックアップするだけで十分に感じてるけど、
あまり使ってる人いないのかな。
ミラーするHDDケースにSSDぶち込んでUSB接続でよくね?
頻繁にESXiの設定を変更するのでもなければ、
DDで定期的にイメージバックアップ取っとけばいいじゃない
と言うか、自分はそうしてる。
ESXi停止→別のUSBメモリからboot→Linux起動→DDでsambaにバックアップ
という具合。bootデバイス変更はSoLでやるので、実際にハードを弄ることはない。
そう簡単にESXiを止めるわけにはいかん、という人には向いてないが。
>>884 ソレって結局 元々の質問主が言ってるハードウェアRAIDだし、
そもそもUSB接続にする必要も無いような。
>>258,308みたいな製品もあるし。
ブートイメージは1回取って、個々の仮想マシン情報はバックアップスクリプトでvmdkと一緒にコピー取ってるかな
完全な冗長性があるわけじゃないが、家庭用マシンぐらいならこれで十分
>>883 自分も同じ。多少のダウンタイムが痛くない家庭用ならそれが無難だよね。
問題起きても、予めddで複製しておいたUSBメモリを差し替えて、リストアするだけ。数分で終わる。
バックアップの話題が出てるので、ついでに質問させて下さい。
データストアをDASにしてる場合、vmdk他のバックアップはどうするのするが適切でしょうか?(速度等)
scpやvSphere Clientからなど、いくつか方法がありますよね。
ちなみに自環境ではホットバックアップである必要はありません。
>>882 USBメモリを複数本挿して、それらをストライピングやミラーリングする機器があった筈
普通に単発で使うより、却って不安定になりそうな気がしないでもないが……
たしかそれスナップショット未対応
>>890 scpが遅くて仕方無かったけど、NFSをマウントしてそっちにコピーすればいいのか、
今度やってみよう
893 :
名無しさん@お腹いっぱい。:2011/06/18(土) 14:13:50.03 ID:FO+CLfdO0
ESXiのゲストOSで、HDDをRDMで繋げてソフウェアRAIDを組んでる方っていますか?
負荷や速度等、実用になるのか気になっています。
良好なようでしたら、WHS2011辺りでファイルサーバを立てたいところなのですけど…。
>>894 レスありがとうございます。
Solaris系のRAID-Zで30〜50MB/sですか。
一見遅そうに見えますが、逆に言えばCPUが非力なAthlonII Neoでこれだけ出るってことですよね。
自分の場合はバックアップ先のファイル倉庫として使うつもりなので充分かもしれません。
WHS2011ならSMB2.0で更なる速度upも望めるかもしれませんし。
>>895 実際にESXi上でWHS2011を動かし、データドライブはRDMで運用中。
私見だけど、倉庫をRAIDで構築するよりWHS2011のServerBackupを
使って日々バックアップを取るような運用をした方が実用的だと思う。
常に同時にアクセスをするRAIDと違い、倉庫用ドライブとバックアップ
ドライブが同時期に損傷するというケースも発生しにくいし、任意の
時点のバックアップから復元することも可能。
ダウンタイムを最小限にすることが最大目的であるならばRAIDは有用
だから、目的を明確にして手段を選ぶことをお勧めしたい。
既出かもしれないが、ぐぐってもあまり報告がないので、一応レポ。
ESXi4.1.0u1でGPUパススルーできた。
ML110 G6, i7-870, Radeon HD5570の組み合わせ。
3wareの8500-8認識しない。。。9シリーズならドライバあるのになんてこった
>>897 しっつもーん!
それって、OpenCL とかでけーさんにも使用できますか?
こちらでもGT110b,i870,Radeon HD5570の組み合わせで問題なく動いてる。
ATI StreamもHDMI Audioも使えるし、動画再生支援もOK。
ただVIDEO BIOSの違いか、安定動作するボードとしないボードがあったのでご注意を。
以前、ESXにそんなことを求めるのは間違っている的なことをいわれたことがあるのでこの辺で。
>>897 遅レスすまん
もともとGPGPU目当てで導入したので、先ほどからテスト計算させているが、十分な速度で動いてる。
あと、同じくML110 G6にAdaptecのASR 2405入れてみたがこちらも動く。
BDをRAWで扱いたかったので、持ってるカードで(RAIDだけど)試してみた。
ただし、Windowsの標準のドライバだとうまくドライブを認識しなかったので、Adaptecから最新のドライバをダウンロードすると問題なかった。
追加
玄人志向のSATA3I2-PCIeは無理でした。OSは起動するが、ドライバを更新しようとするとこける。
Marvellの88SE9128チップだが、ESXiが対応してないものはやっぱりパススルーしても無理っぽい。
>>900-901 すっごい!できるんだ。
Xen だったかでできるようにしようとしてる人がいたのは見たけど。
情報ありがとう!
手っ取り早く冗長化するために、安価なRAID BOXを勧める人いるが
それらの製品で、実際に障害起きたときどうすんの?って問題があるよね。
そもそもディスクがfailしたときにアラート飛ぶどころか、検知さるかも怪しいの多いし。
ESXi 4.1u1で、MellanoxのInfiniBand アダプタ(ConnectX系)を使おうとしてトラブったので簡単にレポ。
ドライバとパッチの適用順間違えると、ドライバのインストールが失敗する。
新規インストールでESXi410-201104001のパッチ適用後に、ドライバのインストールしたらインストール出来なかった。
(エラーメッセージが出てインストールされない)
新規インストール -> MellanoxのIB ドライバ -> ESXiパッチ の順で適用すると動作した。
ドライバインストール後のデフォルト設定がetherになってる。
最初、vSphere Clientのネットワークでvmnicに表示されてたので、IP設定して他のIBホストにping打ってみたけど
返事が返ってこない。IB スイッチを挟んでたのでリンクのチェックしたら繋がってなかった。
Windowsで使用したときにドライバの初期設定がetherだったので、esxcfg-module で設定確認。
設定値が2 (ether) だった為 1 (IB)へ変更。マニュアルでは connectx_port_config 使って変更しろって書いてあるが、
設定するとモジュールのオプションが足らなくて起動時にドライバ読み込めなくなり認識しなくなるので注意。
確実に設定するには、コンソールがvSphere CLIでモジュールオプションの設定しましょう。
自分はsshでログインして「esxcfg-module -s 'port_type_default=1' mlx4_en」で設定しました。
>>904 障害がおきたらRS232C等経由で通知されてアラートメールが来るから
ホットスワップで引っこ抜いて交換すればいいと思うが、
どの辺に問題を感じてるの? ていうかESXとどう関係が?
>>908 ちゃんとしたストレージエンクロージャー ではなく、
上の方で挙がってる怪しいニコイチなデバイスのこと言ってるんではないかと
む、そうか、読めてなかったスマソ
安価でアラート飛ばせるのを選びましょうということで。
ReadyNASとQNAPどちらがお勧め?
>911
EMCかNetApp
>>915 これって、LEDは自分で付けなきゃいかんのか。メンドいな。
しかし、2TBの壁はどうにかならんのかね。
VMwareとしては、VMFSに置くのはあくまでシステムだけで
データ領域等は各ゲストが他のマシンからNFSやiSCSIで分けて貰え、ってことなのかな。
ファイルサーバを仮想化するんかい。ファイルサーバのような帯域を使う
サーバは仮想化に向かない気がするんだがな。
GPL! GPL!
個人利用なんかだと、ファイルサーバも統合して物理マシン1台に出来るならメリット大きいよね。
VMwareは端からそんな輩は相手にしてないだろうが。
923 :
名無しさん@お腹いっぱい。:2011/06/21(火) 22:51:25.34 ID:tJisBSfS0
しかしファイルサーバまで統合してしまうとアクセス集中した時全部巻き添えで低下しない?
ファイルサーバと一言で言っても
実際にどの程度の帯域が必要かは
現場によってまったく違う
全部ひとまとめに語れるもんじゃないだろう
帯域はそれこそNICを分けたっていいしな
CPUは近年のマルチコア化を考えたら使い切る方が難しいし、メモリも劇的に安くなってる
仮想化はもはや使って当たり前のレベルかと
強いて言えばUSBパススルーの性能が低すぎるから、市販の外付けとかが気軽に使えないのはネックだな
ESXiでサーバー仮想化しようと思ってるんだけど、ちょっと質問というか、
アドバイスして欲しくてカキコ。
ESXiホストに2つNICをつんで、1つはファイルサーバーとのアクセス用にする予定。
ファイルサーバーにはユーザーのホームディレクトリとかが保管されてる。
ゲストマシンは複数あって、それら全てはファイルサーバーの中を参照できるようにしたい。
ファイルサーバーとホスト間の通信はNFS使う予定なんだけど、
ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。
>>926 わからん。
Q1.ファイルサーバというハードはあるのか?
Q1がYESなら各ゲストがファイルーサーバをmountするだけだが?
Q1がNoで、ESXi上の仮想マシンの一つをファイルサーバにすうるなら、各ゲストが
それぞれmountすればすむ。
Q2/ESXiホストって何だ?マネジメント用コンソール用のシェルのことか?
各々のゲストから共有領域としてファイルサーバーを見たいなら前者じゃないと要求が満たせないぞ
>>926 >>928も言ってる様に、ESXi側でNFSをマウントしても、
そこにvmdkやらを作れるだけで、ゲストからはその真っ新な仮想HDDの中身が見えるだけだよ。
物理マシンは何台あってどういう編成で
どのようなネットワーク構成(トポロジ)で
どのようなユーザがどのような形態で利用したくて
結局のところ一体何がやりたいのか
が全然分からない質問になってるね
多分本人も何を聞いてんだかよく分かってないんだろう
>>926 ESXiホストの動作を理解していない、としか思えない訳だが・・・。
というより単語がよくわかっとらんのかね
セグメント違うのか帯域食らいたくないのかNIC2枚の理由はよーわからんのだけど
ゲストマシンってのはESXi上に作成した仮想マシンだろう、たぶん。
ファイルサーバーとホスト間ってのは、たぶん別途何かのサーバが立ってて
ESXiのデータストアにNFSマウントするのと、仮想マシンがNFS mountするのどっちがいい?って質問だと思う。
でもデータストアにNFSマウントした所で意味ないというか
>>928 >>929の通り
なんで素直に各仮想マシンからファイルサーバとやらをNFSマウントしとき
単純にhypervisorと分かってないとか?
ゲストOSからもESXからもアクセスできるファイルサーバがあれば
いいってことかな?
ならESXからNFSアクセスで、ゲストOSからはNFS、CIFSアクセスできるように
ファイルサーバを設定すればいいんじゃないか
最後の一行がおかしいだけ
>ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。
ESXiホストでマウントしたからといってその領域を各ホストにシェアする訳ではない
SANの共有ディスクを二台目からマウントしようとする時、フォーマットしないと次に進めないんだけどなんでやろか…?
中にデータ入っとるんに
前にも出たけどSAN側で共有できる数の制限とか変更してないんじゃね
上の話題と少し被るけど、ESXiとは別にデータストア用のサーバを立てる場合、
iSCSIとNFSのどちらを選ぶかは、利便性は別として、速度を重視するなら
実際に環境を構築して比較するしかない?
製品やチューニングによって全然違うし、その辺はもう実際に検証するしかないかと
後は軽い時の負荷よりも、アクセスが多くなってきたときの耐負荷性を見た方が良い
>>939-940 レスあんがと。
やっぱりそうか。
家庭内利用だから勿論 専用品を買うお金なんてなく、
安鯖に3TB*6くらいでRAID-Z2にするつもりなんだけど、OSをどうしたもんかなーと。
定番はFreeNAS? でも仕切り直しされた新verが出たばかりでまだ機能少なく、
パフォーマンスもイマイチ、という話も。
ならZFS本家のSolarisか? となるが、こちらもOpenSolarisが死んで、
後継も分派しまくりでワケワケメ……。
Openfilerは?
FreeNASよりはiSCSIのパフォーマンスが良いと聞いた。
ESXiってSATAの2TBオーバーのHDDって普通に使えるのかな。
使えるけどいわゆるアラインをしないとダメとかどっかで聞いた
アラインの前に、3TiB一つvolumeは作れなかったかと。
2TiB以下二つに切って、くっつければ使えると思った。
でも2TB越えるvmdk作れないから、あまり意味なくね。
なんにしろ、DASなハードウェアRAIDで大きなディスクを有効に使うのは困難だね。
それぞれゲストからRawで使うというなら別だけど。
障害時の復旧も考えると、データドライブはそっちの方がいいか。
>>941 っOpenIndiana
OpenSolarisの後継プロジェクトだよ
FreeNASスレではNexentaStorとかも名前挙がってたな。
ストレージ特化で、FreeNASのOpenSolaris版みたいなもんらしい。
OpenIndianaはstableがまだ出てないからな
もう少しで出そうな感じだけど
>>942 OpenfilerじゃZFS使えんでしょ
正確には、ver古いのとパフォーマンス振るわないので使い道にならない、か
952 :
936:2011/06/24(金) 01:27:34.58 ID:R+H/EW6HP
>>937 レスしてくれてたのか。見落としてすまん。確認してみるね。
・・・でもSAN側にそんな高度な機能ないんだなw たぶん。
>>952 ESX側でできることは特にないと思うけどな。
ストレージが腐ってるんじゃね? としか。
Vmware ESXi4.1u1同士でsshでVMDKファイルをコピーしているのですが、
非常に遅いのですが、どうにかならんですかね。
Core2Duo同士のサーバでコピーしているのですが、瞬間最大風速では
13MByte/s出る事がありますが、平均しては7MByte/s程度しか出ません。
ちなみに仮想マシンは全部止めてコピーしてます。
>>954 コマンドは?
LAN環境は?
何で測定したの?
追記すると、速度が非常に不安定でして、1MByte/s 〜 13MByte/sで揺れてます。
仮想マシンが動いているなら揺れるのは納得出来るのですが、全部止めているので
ふにおちません。
>>955 Vmware ESXi同士でのコピーです。
sshでESXiサーバに直接ログインして、他のVmware ESXiサーバに
scpで直接コピーしています。
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # ls
ISO freebsd6.0-base mint-nfs2 proxy
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # cd mint-nfs2/
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx/mint-nfs2 # scp mint-nfs2*.vmdk dell08:/vmfs/volumes/datastore1/
root@dell08's password:
mint-nfs2_1-flat.vmdk 47% 24GB 8.6MB/s 51:39 ETA
環境は良く覚えてないのですが、双方Dell PowerEdge T100(Core2Duo)だったと思います。
一つのGbEスイッチ(HP Procurve,型番失念)で双方繋がっています。
958 :
名無しさん@お腹いっぱい。:2011/06/24(金) 19:25:08.59 ID:/wvm4jHF0
>>957 ESXサーバの書き込み自体で遅いってことはない?
RAID5で構築してるとかでおそいとかじゃなくて?
ddコマンドで自分自身にwriteしたら想定された範囲の値で動作する?
>>957 過去ログによると、ESXiにNFSをマウントして そこにコピーすると比較的速いらしい。
なので、適当なNFSサーバをクッションにしてみては。
>>958 HDDはRAID無しで2本刺さってます。二つあるHDD同士のコピーを
ddで測ってみた所、
4687411200byteのdebian-6.0.1a-i386-amd64-source-DVD-1.isoが
# cd /path/datastore1
# date; dd if=/path/datastore2/debian-6.0.1a-i386-amd64-source-DVD-1.iso of=tmp.iso;date
Fri Jun 24 11:14:17 UTC 2011
9155100+0 records in
9155100+0 records out
Fri Jun 24 11:20:15 UTC 2011
という形で、13MByte/sしか出てませんね。sshのオーバーヘッドを考えると、
平均7MByte/sぐらいというのも悪い数字じゃなかったようです(^^;
しかしHDDがちょっと遅いな。在庫ってた古いのを挿したのですが、ちょっとHDDも
良いのを探してきた方がよさそうですね。。。
一応、こっちにも投下。
ESXi上のWS2008R2にRDMで繋げたHDD(SATA500GB PVSCSI)に対して、
Win7(実機)からそれぞれSMB/NFS/iSCSIでベンチ取ってみた。
ttp://petite-soeur.dyndns.org/cgi-bin/up2/src/ps28771.png 詳細な環境は省くんで、絶対的な数値にあまり意味は無く、
あくまで相対的な比較程度ってことでお願い。
上記見る限り、ESXiでファイルサーバも結構 実用になるのかなー、と。
最近のHDDや複数ディスク束ねたりすれば、GbEがボトルネックになる程度には速度出そうだし、
RDMなら障害時のサルベージも割と容易。
>>957 vmfsならscpよりvmkfstoolsの方が効率がいいってどっかでみた記憶があるけど
VeeemFastSCPじゃ、ローカル環境経由になるから駄目かな?
cp は VMFS の特性と相性悪くてクソ遅いから vmkfstools がベスト
もう何年も前から有名な話だけど
>>962 ディスクI/Oは実機の8割くらいで、SMB経由で更にマイナス1割、ってところか。
RAID5やRAID10するだけで簡単に100MB/s越えそうだな。
ますます高速なFCやIBが欲しくなる。
うちは非対応のRAIDカードパススルーして、CentOSのサーバでsamba稼動させてるよ
ピークで600Mbpsぐらい出るから使いやすい
>>967 Linuxでもそれだけ出るんだ。SMB2、ONにしてる?
あ、クライアントがWindowsとは限らないか。
あと、情報集積のためにもパススルーしてるカードの製品名も書いてくれると助かる。
クライアントはWin7だね
昔報告したけどlspciではこんな感じ
03:00.0 SCSI storage controller: HighPoint Technologies, Inc. RocketRAID 230x 4 Port SATA-II Controller (rev 02)
sambaはこれ
samba-3.5.8-0.61.el5_1.wing
>>968 WD20EARSを2発RAID1でmirrorしてる自宅環境だと、大体320Mbps程度かな
クライアントは Window7 64bit
実験用なんで色々ぶち込んでる
000:000:31.2 Mass storage controller: Intel Corporation 82801HR/HO/HH (ICH8R/DO/DH) 6 port SATA AHCI Controller [vmhba1]
000:004:00.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba2]
000:004:01.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba0]
000:004:04.0 Network controller: Marvell Technologies, Inc. Marvell 88E8001 Gigabit Ethernet Controller (Asus) [vmnic1]
CentOS release 5.6 (Final)
samba-3.0.33-3.29.el5_6.2
自分もファイルサーバを統合すべくOS選定中なんだけど、
如何せん、ZFSが使えるやつはどれもVMwareではパフォーマンス良くないんだよね。
NICやSCSIコントローラの準仮想化辺りが影響してるんだろうが、
DebianやCentOSといったメジャーどころのLinuxと比べると、
どうしても速度が劣る >Solaris&*BSD
972 :
962:2011/06/25(土) 15:35:58.27 ID:qyaOIXi30
ESX使うならストレージは分けろよ
そんなのユーザーの勝手
じゃあそのまま我慢して使えよ
コイツは何にキレてんだ?
小学生の口喧嘩が始まったと聞いて。
俺もESXiにHDD8台繋げてファイルサーバ組んでるけどね
物理マシンを増やしたくないし
ストレージの共有化もESXiのメリットであるのは間違いない
ストレージに強烈に負荷をかける処理を複数回すのでなければ、同じHDDに仮想OSが複数のってても十分処理できるよ
>>978とか
ファイルサーバーにしている人ってデータ用のHDDをVMFSにしてからゲストのファイルシステムでフォーマットしてゲストから使ってるの?
やっぱESXiってVMFSを使わないでゲストから直接SATAのHDDを使えないの?
非公式な手順を踏めばRDMで使えるよ、ググれ
マジかよ!ぐぐってくる!
そろそろ次スレよろ
自分は無理だった
DASのみでの運用に拘ってる人は、Xenとかに行った方がいいんじゃないかなー、と
あっちはハードウェアの面でも色々と融通効くし
985 :
名無しさん@お腹いっぱい。:2011/06/29(水) 01:41:11.98 ID:ijOKX0mF0
ゲストOSにVcenterを導入しESXiを再起動、
その後どのようにvspherからVcenterへアクセスするのですか?
次スレ立ててくる
>>985 ESX起動時にVCenterのゲストが自動起動するように設定。
ESX起動→Vcenterのゲスト起動→しばらく待つ→アクセス可能に