859 : [―{}@{}@{}-] 名無しさん@お腹いっぱい。:2011/02/03(木) 14:47:01 ID:Jp7sc25QP
VIClient の Config -> Storage で,データストアを delete してしまいました.
これは iscsi のストレージで,delete は接続を切るだけだと思っていて,
再度 add storage で接続しようとしたら,フォーマットしないといけないと出ます.
以前の状態のままで再マウントすることは可能でしょうか?
863 :名無しさん@お腹いっぱい。:2011/02/03(木) 16:38:38 ID:28zIIOdv0
>>859 ESXi のシェルから手で fdisk ぶっこけばリペアできるぞ。
fdisk -l で該当ディスクを特定
fdisk <デバイス> で該当ディスクの fdisk 操作を開始
n で新規の fdisk パーティションを作成。1 で作成
t でタイプを設定。ここで fb を指定して VMFS にする
x でエキスパートモードに入る
b で開始ブロックを指定
パーティション 1 を選択
開始ブロックを 128 に設定 (default は 32)
w でこれまでの操作を実際に disk にフラッシュ
その後GUIから「更新」を実行。
これで見えなけりゃ諦めろ。
864 :名無しさん@お腹いっぱい。:2011/02/03(木) 20:31:13 ID:Jp7sc25QP
>>863 あなたが神か,いや,あなたは神だ
復活したああああああああああああああ
ありがとおおおおおおおおおおおおおお
869 :名無しさん@お腹いっぱい。:2011/02/04(金) 08:21:32 ID:a6KB8fGT0
神の降臨を見た
119 :名無しさん@お腹いっぱい。:2011/07/16(土) 10:58:06.99 ID:LIohQ3ba0
PCIパススルーでビデオカード動作キタ━━━━(゚∀゚)━━━━ !!!!!
環境 : ESXi 4.1U1
ゲストOS : XP 32bit
ママソ : ASUS M4A89TD PRO
MEM : 8GB(4GBx2)
ビデオ1 : ラデ1300
ビデオ2 : ラデ6450
パススルー出来たのは6450の方。
ESXiのパススルーではunknownデバイスとして認識。
テスト用仮想PCにビデオ2を接続して、AMDから最新のドライバーを拾ってきてインスコ。
以前報告を出した時には、この時点でデバイスなしとしてドライバーのインスコを蹴られた。
今回は正常に認識して、ドライバーの適用も出来た。
今ゆめりあ廻してるけど、実機とほぼ同じスコアが出てる。
実機 : 18000前後
仮想 : 18000前後
実機のE350PCが減らせるかも。
629 :119:2011/09/18(日) 12:08:04.59 ID:FWpHGjQh0
5に上げたらPCIパススルーでビデオカードが動作しなくなったよ。 iii orz iii
201109001.zipを適用しても現象変わらず。
Win7 Pro の起動時に、ようこそでフリーズ、そのまま仮想PCが落ちる。
エラーはvmware社に送信済み。
次期パッチで直るといいな・・・。
前スレの話だけど、
vicfg-cfgbackup.pl ってvm系の保守ベンダーは対応してるのかな?
ホストプロファイルが使えないエディションの場合の、ホスト復旧ってどうしてのか
知りたいです。
乙
9 :
119:2011/10/23(日) 07:19:46.58 ID:DOHNBL/o0
どうでもいいけどコテハンやめたほうがいいよ
>>4-5は
>>3と並べてテンプレに入れるほど重要な情報か?
書いた本人は残したかったのかもしらんけど
HPがESXiブート用に使ってるUSBメモリやSDカードってSLCモノなのか
一般に売られているUSBメモリやSDカードはやっぱりMLCが多いのかな?
>>6 過去には運用に落とし込むときにそれでやってね、とかddでUSB複製しといて以下略とかは有ったけど今だとどうなんだろうね
ベターなやり方は聞けばいいと思うし、それでやりたいと言えば組んでくれると思うよ。運用者にリストアできるスキルがあるなら十分役にたつだろうし。
ぶっちゃけ顧客の予算次第でエディションは決定されるので、それでも何とかしてxxしたいって言われたら、泥臭い方法で強引に実現しちゃう。
むしろそういう回避手段の提供も仕事なわけで。推奨されませんけどねーとか言いつつちょろっとスクリプト書いて済ませちゃうとかはあるある。
また例によって数億規模の重要インフラでそんな方法はとんでもない!とか状況把握できてないレスが付きそうだがw
>>21 yes
他にもUSBとSAS比較すれば転送時のエラー率も違うし接触不良系の問題もあるのであらゆる点でUSBの信頼性は劣る。
が、運用上問題になるレベルであるかどうかは別。1日1度しかアクセスしないバックアップ用ストレージがSATAでも問題起きてないからね。
ESXi 5.0でディスクを初期化するとGPTディスクになると思うけど、
>>3 の方式って、5.0では違うやり方をする必要があったりするのかな・・・・
>>13 そうやって自分の仕事観やらを余計にひけらかすからケンカになると思うんだけど
ちら裏。オペミスの可能性&再現テストをしていないんで、ビミョー、さらにこんな操作をする機会は少ないと思うが・・
ESX41update1ね。
仮想OS_1にHDDが2個ある(仮にHDD_A、HDD_B)。この時、仮想OS_Aの電源はON。
新しく仮想OS(仮想2)作って、HDD_Bをマウントし、電源ON。HDD_Bがほかの仮想OSで使われています的エラー吐いて起動せず。
仮想2の電源OFF、構成内からHDD_Bを削除。削除っても、仮想HDDの実体は削除しないほう。
再度仮想2の電源ON。上と同じエラー吐いて起動せず。(この時点でおかしいけど・・)
仮想OS_1を電源OFF。仮想HDD_Bのvmdkファイルがあること、仮想2内に、仮想HDD_Bがマウントされていないことを確認して、
仮想OS_2を「ディスクから削除」
以上の操作を行ったところ、仮想HDD_Bがディスクから削除された。
稼働機でやるような操作じゃないが、発生したら死ねるわな。ちら裏すまぬ。
なんかいろいろ間違ってないか 仮想OS_Aとか 随所で表現がブレてたりとか
>>18 すまぬ、表現ブレ直した、これで間違いないと思う。
仮想OS_1に仮想HDDが2個ある(仮にHDD_A、HDD_B)。この時、仮想OS_1の電源はON。
新しく仮想OS(仮想OS_2)作って、HDD_Bをマウントし、電源ON。
仮想OS_2上で、HDD_Bがほかの仮想OSで使われています的エラー吐いて起動せず。
仮想OS_2の電源OFF、構成内からHDD_Bを削除。削除っても、仮想HDDの実体は削除しないほう。
再度、仮想OS_2の電源ON。上と同じエラー吐いて起動せず。(この時点でおかしいけど・・)
仮想OS_1を電源OFF。HDD_Bのvmdkファイルがあること、仮想OS_2内に、HDD_Bがマウントされていないことを確認して、
仮想OS_2を「ディスクから削除」
>>19 なるほど、およそバグの原因も見えるし危険な動作だな 参考になる
そう言ったオペレーションをする直前にストレージ側でsnapshotをとる、とかいう習慣にしておくべきなんだろうが面倒だな
確かにバグっぽい。
VMware Communityで報告してあげたら?
英作文する必要があるけど。
>>17 一応、同一verでやってみたが再現せず。
SCSI コントローラはバス共有無しのSCSI 0、仮想HDDは全て同一データストアで構成。
どっちかというと、仮想OS_2の設定変更が反映されないバグなのかも。
すみません、皆様教えてください
ESX4.1でRHEL5.7を二台組んで、heartbeatなどを使用したクラスタ環境を作ろうとしています。
RHEL2台でクラスタ用共有ディスクの作り方はどうすれば宜しいでしょうか?
すでにRHEL二台はOSインストール済み、VMwareToolインストール済みです。
vmxファイルを弄らないとダメなのでしょうか。
25 :
23:2011/10/25(火) 00:31:35.15 ID:35N1COw30
>>24 ありがとうございます
明日試してみます!
>>23 RHELを使うってことは商用のクラスタを使うのかもしれないけど、おいらはDRBDで2台のディスクを同期させてクラスタ環境を作った。
vpxa.logのローテーション設定はどこにありますか?
はじめてきました。わかりません。
●でDAT落ちしたファイルを見る価値がありますか
えっ
ない
2kかー 試してみようにもisoが手元にないわ
既にサポートが過ぎているOSじゃん
hyper-vで使った方がマシなんじゃないか。
サポート切れのOSでも動くのがESXiのいいところ。
NT4だって動くぞ
その意見には、いつも不思議に思っているんだよね
サポート切れOSは、パッチとウィルス対策ソフトが入らないので
結局、インターネットに接続できないじゃん?
この点、仮想化しても同じなので
「動く」けど「現実的には使えない」と思う
サーバだけどローカルだけで動かせればいいという用途が
現実的に、そんなにあるのかね?
>>36 結構ある
産業用機械とかソフトに多いんだけど
未だに制御がNT3.51/4.0とか2000でないとダメとかね
>>36 多くの企業・組織のサーバはThe Internetには直接繋がらないものが多い。
じゃあイントラならいいのかというとそれもアレだが、現実問題としてNT、
2000の1台や2台は古いまま残っている企業がそこいらじゅうごろごろしている。
なるほど、制御系で閉じたネットワークか了解した。
イントラは、やばそうだなぁ。
40 :
31:2011/10/26(水) 22:38:20.75 ID:khduUTbr0
>>37,
>>38 そんな会社の一つです。
4.1だと問題なく使用できるんでそうしてるけど、
またこういった不具合があるんじゃないかと思うと怖いな。
41 :
119:2011/10/27(木) 06:21:27.55 ID:fW9vDvSx0
>>36 零細〜中小企業では良く聞く話。
OS依存のシステムで鯖と基幹システムが動いてるけど、その基幹システムを作った会社はとっくにアボソ。
仕様書も設計書もなく、システムを弄れる状態ではないのに、H/Wが死亡しそうって状況。
こういう時に、PtoV技術が役に立つよね。
>>37 未だにDOS6で動いてるシステムも知ってるよw
製材所の加工機材を動かすシステムw
>>38 何故外さないのかを情シの中の人に聞くと、昔から有るシステムで外し方が分からない、って言う回答が帰って来るよねw
>>40 実際に4.1U1->5.0で、PCIパススルーが出来なくなったからね。 iii orz iii
DOS3.3ですがなにか。
そういえばうちの会社の鯖がNT3.51だったんだけど流石に基幹システムが古すぎて
更新しようとしてもすでに開発元がなくなってたらしくて
新規に鯖を2008R2に変更する際に親会社のシステムセンターが来て解析しながら移行したようだ
>>38 某大手食品会社の鯖運用やってたけどウィルス対策ソフト一切入れてなくて驚いたぞ
Webページ用の鯖だろうが内部のLinux鯖だろうがウィルス対策ソフトは一切導入されていない
上流のネットワークでウィルス対策アプライアンス入れているとかも一切ない。
鯖には入れず、社内PCだけに入れておくというポリシーなんだとさ
ド底辺の運用部隊に回された俺の給料増えるわけでもないからふーん、で終わらせたが。
インフラ構築部隊が頭おかしいと思った
デカい銀行なんかでもLinuxにはウィルス対策なんざ入れないことが多いな。
つーか、そんなのはかなりどうでもよくて、攻撃されるのは腐った
アプリケーションだとかミドルウェアの脆弱性だとかだし。
そっちの方も対策されているかというと、大いに怪しいところだが。
やっとvSphere5.0のOpen source code来たか・・・
疑問なのだが、vSphere のオープンソースコードで何をするんだい?
自分自身ドライバを組み込む程度にしか使ったことがない
その通りよ?
Intel NICの82579LMがESXi5.0で動かなくてずっと待ってた
そっか。最近蟹もSATAもサポートされてきたから、ドライバ以外なのかと思って聞いてみた。
Intel NICで動かないのもあんだね。
何でソースコード出てないのかと思ったら、遅れてただけか。
ライセンス違反どうなってるの?ってずっと不思議だったわ。
VMware Data RecoveryでのバックアップをWAN越しに行う事は理論的ではなく現実的に可能でしょうか?
回線はBフレッツで対象サーバーは2台、データ容量は500GB位で。
>>51 VMware Data Recoveryはどういう組み方をして、どんな風に使う
製品なのかを理解した上での質問なのかなこれ。
理解した上で書いていると仮定した場合でも、以下のような疑問が出るな。
・Bフレッツ越えでVCとESXを繋いで管理する気なの?本気?
・Hot Addモードで使いたいならBフレッツ超えでESXがストレージにアクセスすることになるけど、本気?
・NBDモードなら動くかも知れないけど、使い物になるのかなぁ?
普通はそういうことはしないと思う。
商用なら専用線が普通()
DA128 でも使ってろ
55 :
名無しさん@お腹いっぱい。:2011/10/30(日) 01:43:50.09 ID:REylwbxt0
1台しかないPCにESXi5入れて、その上でWin7動かしてこいつをメインに使いたいのだがやめといた方がいい?
グラフィックカードとか動くのか気になる。ゲームで遊びつつ、鯖構築の勉強も手軽にしたい。
HOST:Win7でVMwareServer動かした方がいいのかな。
>>55 ビデオカードを PCIパススルーで使ってWindowsはそっちに映すととしてもさ、
ESXi にはサービスコンソールがないのに1台だけでどう設定してどう運用するんだよw
ノートPCでいいからあと1台あった方がいいよね。
パススルーして遊ぶにしろ、別にもう一台ないといろいろ無理が出る。
58 :
119:2011/10/30(日) 08:26:44.14 ID:1SrQSMFz0
>>55 前スレで色々と報告は出してるけど、ESX4.1U1で、PCIパススルーでPCI-exのビデオカードの動作は可能。
ESXi5ではWinXP,Win7共にPCIパススルー不可@890FX。
実際に、ゲーム用PCを仮想化して使ってる。
で、
>>56-57の言うとおり、ESXiだと自身にはコンソールがないから、もう一台PCが絶対に必要になるよ。
59 :
55:2011/10/30(日) 08:46:52.80 ID:REylwbxt0
>>56-87 コンソール用にもう1台いるんですね。
物理マシン2台いるんなら、ゲーム用兼コンソールで1台、仮想鯖構築用に1台
ってした方がスマートですね。
どうしても1台でするならホスト型使うのが普通だわな
最初の勉強は Player や Server でもそこそこできるけど、長時間/常時動かしとくようになると
端末機としての Windows 配下に仮想環境置いとくのが様々な面でかったるくなってくるので、
ステップアップも兼ねて ESXi に移るとよいよ。
もちろん、最初からサブ機をおいて ESXi にジャンプアップするのもよいよ。
>>59 うん、その2台構成が無理なく両方の目的に適う現実的な構成でよいよ。おすすめ。
>>58 前スレからいろいろ情報ありがとう。参考にしてるよ。
ESXi5 のビデオカード周りのPCIパススルーのデグレ、なんとかならんかなー。
ビデオカードをパススルーするのはwktkするけど、キーボード・マウスがパススルーできないとあまり意味なしな気がするのは私だけ?
>>51 現実的かどうかという話であれば、"Bフレッツ"では現実的ではないな。
少なくとも広域イーサネットサービスを使うケースだろうなぁ。
普通の Bフレッツ (ハイパーファミリー等) に普通の ISP契約でインターネット越し
(VPN含む)だと実用的じゃないよ。ISP側も法人向けの契約じゃないと、
いまどきは上り側の転送量制限や帯域制限もかなり厳しいので。
初回の同期にほぼ丸1日(以上)掛かかることを許容できるかどうかと、日々の変動(増分)
データが回線実効帯域に対して実用的な範囲に収まるかどうかちょっとは試算してごらんよ。
どうしても足回りが "Bフレッツ"限定なら ISP側ボトルネックと制約を回避するために
フレッツオフィスあたりを使うべきかな。Bフレッツの種別もベーシック以上、
ビジネスじゃないと収容局によってはフレッツ側で既に帯域が苦しいかもしれんけど。
広域イーサは予算が厳しくて無理だけど少しはがんばれるなら、光ネクスト ビジネスにして
フレッツVPN(or ISPと法人向け帯域制限無し固定IP契約+VPN) とかね。
スレチごめん。
>>62 NATが有ると理論的に出来ないということは無いと思うが
>>52 WAN越しのESX制御なら誰でも簡単に出来るし企業でもやってるつーか
ESXに限らず外部から内部LANにアクセスするのがVPNの目的の1つなんだが。
バックアップするという話でそこのデータ量と通信レイテンシにどの程度律速されるかが問題点でしょ
>>66 この辺はスレチやね
Bフレファミリー系と月額2000程度のISPでVPN使って毎晩10GB程度のバックアップ(ESX関係なし)してるけど、
何をもって現実的かどうかの判断基準がないので何ともね。逆に分かってて利用する分には当然利用できるわけで。
日々の増分がどの程度になるのかに影響されるから、ISPは法人向けプランがいいだろうけど、
回線は大差なかったよ。地域や時間帯にもよるんだろうけど。
ISP無視してv6でフレッツ網内通信しちゃう・・・のは禁じ手かw
また、俺は何でも知ってる系の登場か。
>>67 > NATが有ると理論的に出来ないということは無いと思うが
NAT 越しだと Remote Console が真っ黒という症状に見舞われた
ことがあるぞ。3.0.2 の頃の話なので、最新版だとどうなのかは知らんが。
> WAN越しのESX制御なら誰でも簡単に出来るし企業でもやってるつーか
> ESXに限らず外部から内部LANにアクセスするのがVPNの目的の1つなんだが。
> バックアップするという話でそこのデータ量と通信レイテンシにどの程度律速されるかが問題点でしょ
というレベルで
>>51 が質問しているのであれば、少なくとも
Hot Add モードを前提としているのか、NBD モードを利用予定
なのかくらいは最初から書くのではないかと。
Bフレッツ越えで Hot Add モードってちょっと想像できない感じがするけどね。
Bフレッツ+VPNで、あるESXがどこかの社内LAN にアクセスしてiSCSIもしくは
NFSでデータストアにアクセスするということ?まぁ動くかも知れんけど、
まともな性能が出るのかなぁこれ?
NBDモードでバックアップするとしても、結局はBフレッツ経由で取るんでしょ?
リストアもBフレッツ経由? マジ?
単純なバックアップソフトウェアなら、確かに提供される回線と求める
処理内容の兼ね合いという話になるけど、Data Recovery には WAN 超えで
使うような思想って無いと思うんだけどなぁ。
vDRでのバックアップについて質問した者です。
ご回答いただいた方、ありがとうございます。
k-optとBフレッツ間をRTXで繋いでvCenterで管理する事自体は特に問題無いと思ってます。
vDRでのバックアップがスナップショットをマウントしてのバックアップである事は理解していますので、考えてみたのですが下記方法ではいかがでしょうか?
サイトAにてフルバックアップ、データストア(HDD)をサイトBに移設し、サイトBのvDRにマウント、以後差分コピー。
聞くばかりではなく、実際に検証してみるつもりですので、また報告させて頂きますが、何か留意点や検討しておくべき事項がありましたら、ご指導ください。
報告期待
どこかしらにQoS的なものを挟まないとデータ転送時にコントロールがタイムアウトするかもよ
vpnはオーバーヘッドはあるものの、軽微な通信路エラーを隠蔽してくれる点で正解だろうね
>>69 何か直通信のしばりでもあるのか?
NAT越しで問題有るならその上にL2vpn乗っければいいだけじゃないんかね
それとまともな性能はギガビットWANだか何か使わないと無理でしょう
LAN並の性能求めてる話じゃないと思うよこれ
遅延が大きいとさっぱり転送が進まんのじゃないかねぇ
差分が少なければ平気じゃないのぅ?
74 :
名無しさん@お腹いっぱい。:2011/10/31(月) 22:10:59.38 ID:wQ/1J3fe0
はじめまして。
教えていただきたいのですが、ノートPCにVmware esxiを導入しているのですが
オンボードのNICを認識してもらえません。
Slotがあるので、カードを購入したいと思っています。
動作可能なカードがあれば教えていただけないでしょうか?
ネットで探しているんですが、なかなか見当たりません。
esxi4.1か、5で、raid6を使おうと思っています。
お勧めのハードウェアraidカードを教えてください。
sataのhddか、ssdを使おうと思います。
もし、そのようなカードがあったとして、アレイ構成ディスクの故障時に、
どのように故障したことが分かるのか疑問です。
esxiにはraidカードと連携した通知機能があるのでしょうか。
通知機能がなければ、故障していてもディスクの交換ができないまま放置されることになってしまいます。
よろしくお願いします。
>>75 すみませんraidカードは、動作中に故障ディスクを交換できるものがいいです。
交換すれば、自動的に修復してくれるものです。
アレイのどのディスクが故障しているのかは、esxiではどうやって知るのだろうか。
よろしくお願いします。
>>75 無償のESXi自体にはRAID管理機能は無い
RAIDカード自体にコンソールやLANが付いた物か
別のOSから管理できるRAIDカードが必要です
LEDで状態確認も可能とは思いますが
>>77 ESXi自体では、検知不能です
79 :
119:2011/11/01(火) 04:19:59.71 ID:A/D5G/aQ0
>>63 そう言って貰えると、報告者冥利に尽きるよ。
>>74 ESXi 4.xだと、多分まず無理。
5だと蟹NICも認識するから、5を入れてみてNICが認識するかどうかを確認すると良いと思うよ。
>>75 SIerに相談する方が手っ取り早いかと。
>>78 さっそくのレスありがとうございます。
よくわかりました。情報を得られ大変、助かります。
しかし選定に苦しみます。
無償のesxiでraidを使うために、次のような条件が見えてきました。
外付けラック型でraid6に対応し、動作中に故障ディスクの交換ができること、
sataインターフェイスを持っていてesxiからはシングルsataディスクに見えること、
LANインターフェイスを備えていてメールでイベントの通知ができたり、別のOSから管理ができること、
故障時にはアレイのどのディスクが壊れているのかがLEDでわかること、
あるかなあ。
82 :
119:2011/11/01(火) 05:15:17.79 ID:A/D5G/aQ0
>>81 選定、購入の決定権を持つ立場なのか・・・。
それは大変だねぇ・・・。 iii orz iii
>>81 ESXIって、NASも使えるのですよね。(今までやったことないけど。)
だったら、RAID対応のNASを購入すればいいのでは?
バッファローからも色々と出ているしなあ。
こういうのもあった。iSCSIとNASに対応しているらしい。
http://www.iomega.com/jp/nas/ix12-300r/ ところで、タイの洪水でやっぱりHDDが不足しているらしい。
バッファロのサイトに書いてあった。だったらssdにしよう。
>>82 ちょっと希望がわいてきた。
84 :
119:2011/11/01(火) 05:37:29.43 ID:A/D5G/aQ0
>>83 牛とエロとセンチュリーは全力でヤメトケ。
>>84 それらは駄目なんですか。
esxiでは使えないとか。。
NAS PX4-300r高すぎた。30manを超えた
買えないわ
>>84 エロって、エロデータの方?
それとも、このエロメガの方?
87 :
119:2011/11/01(火) 05:59:47.38 ID:A/D5G/aQ0
>>86-85 牛 : buffalo
エロ : IO
確実に壊れる。
仕事で使うのか?
自作PCレベルのパーツの組み合わせて痛い目にあっても知らんぞ。
>>87 ユニット自体が壊れてしまうっていうことですよね。
だったら、ディスクをraidで保護しても駄目だなあ。
外付けNASの痛いところですよね。
freeNASというのもあるらしいから、信頼の置ける内蔵raidカードを使って、
自分で構築したほうがいいですか?
>>88 もう何年も自作PCレベルでやっています。
最近は良いものも増えてきているので、なんとかやっていけそうかなあと。
楽観的です。
esxi導入も、そういう環境で非常メンテナンスが楽になるからです。
91 :
119:2011/11/01(火) 06:08:24.10 ID:A/D5G/aQ0
>>88 業務用って名前付けてる、〜proって型式の商品も、普通に壊れるからねぇ・・・。 orz
>>89 freenasも絶対ヤメトケ。
未だ不安定。
バージョンを上げるとHDDのインポート出来ない、って事があったよw
>>80-90 freeNASでraid6-NAS構築する方向にしたいと思います。
良い電源、良いraidカード、良いマザボ、良いssdで構築して、
それをesxiにNASとして接続する方向で行きたいと思います。
引き続きアドバイスをいただければ幸いです。
そろそろ外出せねば。
>>91 freeNAS駄目ですか。
それは困ったなあ。
CentOSなんかでもNAS構築できるでしょうか。
94 :
119:2011/11/01(火) 06:16:44.04 ID:A/D5G/aQ0
>>92-93 壊れないが前提ではなく、壊れるを前提に考える方が良いよ。
その上で、より壊れにくいシステムにすると吉。
ノシ いてら〜
>>90 業務用のサーバでも、もちろん壊れることはある。
問題は壊れた後の対応。修理できるのか、また新品買うのか、その間使えなくなる期間はどうするのかとか・・
いくら自作PCの経験があるからといって、それを会社のサーバに適応させてしてしまうのは危険。
すぐに復旧させる必要がある用途なら、それなりのマシン買って保守契約しといた方がいいと思うぞ。
97 :
119:2011/11/01(火) 07:00:42.62 ID:A/D5G/aQ0
>>96 多分ID:rpDCSQ150は、RAID構成や鯖が壊れてイタい目に遭った事がない、幸せな人なんだろうね。
>>75 > もし、そのようなカードがあったとして、アレイ構成ディスクの故障時に、
> どのように故障したことが分かるのか疑問です。
LSIのRAIDカードでの話だけど、構成 -> ハードウェア -> 健全性ステータス
でドライブ故障は確認できる。
> esxiにはraidカードと連携した通知機能があるのでしょうか。
> 通知機能がなければ、故障していてもディスクの交換ができないまま放置されることになってしまいます。
ESXのMIBを見る限り、故障に応じて何か通知する仕組みはあるっぽい。
http://downloads.vmware.com/d/details/snmp_mibs/dHRAYnQlKmhiZHAlJQ== 誰か試してくれ。
>>80 > 外付けラック型でraid6に対応し、動作中に故障ディスクの交換ができること、
> sataインターフェイスを持っていてesxiからはシングルsataディスクに見えること、
> LANインターフェイスを備えていてメールでイベントの通知ができたり、別のOSから管理ができること、
> 故障時にはアレイのどのディスクが壊れているのかがLEDでわかること、
あれ? 内蔵ではなくて外付けストレージって話になったの?
もちろんその方ができることも増えるので、外部装置にできるのなら
その方がずっといい。
不要かも知れんけど、内蔵ディスクの管理っていう話に戻すと、
LSIのRAIDカードについては以下を組み合わせて遠隔からいろいろ管理できる模様。
http://kb.vmware.com/kb/2001549 http://kb.vmware.com/kb/2004166 外部ストレージとは別に、内蔵RAIDについてもそれはそれで管理したいという
ような場合は検討してみては?
内蔵の場合は、例えばディスク1本壊れた後の再構築はどうするんだろう?
100 :
119:2011/11/01(火) 10:33:54.03 ID:A/D5G/aQ0
>>99 普通にHDD交換してRebuildを掛ければ良いのでは?
たかが30万のストレージも買えないって時点で終わってる
多少業務が止まっても勘弁ねって感じで選定するのが吉かと
この予算規模なら外部ストレージにしてiSCSIなりNASで接続すればいいんじゃないかな?
ReadyNASとかNTT-X辺りみれば破格で売られてるし
102 :
119:2011/11/01(火) 10:56:39.85 ID:A/D5G/aQ0
>>101 多分、零細〜小クラスの会社なんだろうね。
OSもfreenasで、って言ってる位だから、予算は限りなく低く、可用性は際限なく高く、って事かと。
そんなシステムの選定、導入をさせられる
>>75は大変だと思うよ・・・。 iii orz iii
だって、
ど ん な 些 細 な ト ラ フ ゙ ル で も 何 か あ れ ば 確 実 に > > 7 5 の 責 任
だもの・・・。
きめぇ
>>75 dellのPERCみたいなLSI系のとか、メジャーな鯖にOMEが乗ってる系かな。
clientの健全性ステータスで不良があれば見えるし。
アラート化したければちょいとsshで入ってなにかせにゃならんだろうが、
とりあえず健全性ステータスは全部吐けるのであとはなんとでも料理してくれ
アレイのどのディスクが〜は、LSIなら少なくともesxのコマンドラインからアレイ操作できるけども、
基本的にはRAID BIOSで操作した方がいいだろうね。
数万の中古鯖にESX入れりゃ全部揃うよ。故障DiskはLED表示されるしhotswapできる。
その次にはバックアップがめんどくさくなるだろうからnasにした方がいいと思うがねw
まぁ細かい情報無しにあれこれ言ってもしょうが無い。せめて予算や信頼性他の要件だすこった
105 :
119:2011/11/01(火) 11:23:27.70 ID:A/D5G/aQ0
>>104 percは4までは良かったけど、5で爆死したからねぇ・・・。
force系のコマンドはあるけど事実上使えない、って状況は痛スギダロ・・・。 iii orz iii
>>102 俺も同情するわ、、、、
俺は同じような立場で、出来ませんが口癖になったw
>>83 Disk I/O が Gigabit 帯域で足りるなら、
QNAP あたりの VMware Ready な NAS にすれば。
ESXi 4.1 Update2パッチ来てるね
>>98 参考になりました。ありがとうございます。
WindowsにMegaRAID Storage Manager(MSM)をインストールしておけば、ネットワーク経由で、
ESXi5のCIMONへアクセスしてハードウェアに関して色々探索できるということですね。
でも、標準のCIMONでは何かと情報取得が制限されているので、
LSI SMI-S CIM Providerをカスタムで導入する必要があるという理解であっていますでしょうか。
カスタムで導入するところが大変そう。
>>104 >LSIなら少なくともesxのコマンドラインからアレイ操作できる
esx(i)のsshコンソールからデフォルトで操作できるようになっているのですか。
http://downloads.vmware.com/jp/d/details/dt_esxi50_lsi_2108_v534/dHRAYnRqZWRiZHBoKg== に組み込みドライバがあるのですが、これを使わなくてもできるのでしょうか。
>>101 redyNAS
>>107 QNAP
NASの情報ありがとうございます。とても助かります。
NASでNFSをつかってesxiのストレージを構成する場合、
市販のNASでなく、NASをCentOSかなにかをつかって自作しようとも考えています。
市販のNASだと電源の信頼性に疑問があり、2wayの電源タイプだとかなり高価になってしまうからです。
自作するなら、そこそこ高品質な電源も用意できるし、2wayの電源もサポートできるかもしれない。
メール通知機能なども実現できそうです。
CentOSで、NFSでアクセス可能なNASを自作するっていうのはどう思われますか。
零細企業ですが、2年間FreeNASでiSCSI安定運用してます ESXi4.1@FreeNAS0.7&ZFS
もちろん、毎日バックアップを別鯖でとるぐらいはしてるけど。
>>109 電源の信頼性気にするくらいなら、もっと大事なところがいくつもあるんじゃないの?
単発電源の単体NAS(とネットワーク)の信頼性 vs 双発電源を積んだ自作サーバ機の信頼性
あなたとあなたの会社の諸スキル・ノウハウにおいて、どちらが障害化要素が多いか、
ハードだけでなくソフトウェアも含めたMTBFがどうなのか、障害対応は適切にできるのか等
よーく考えてみよう。あとはそのシステムの可用性や完全性が事業上どれだけ大事なのかとの天秤。
そうそう、CentOS はそろそろ空中分解するかもよ。
自社利用のシステムであっても、誰が運用・保守するのか、向こう5年〜8年 あなたや
後任が確実に保守しつづけられるかというのもちょっと考えておいたほうがよいね。
自作したらシステムが終了するまで責任もって面倒見るか容易に後任に引き継げるようにしとけよ。
いくらイニシャルコストが安かろうと、5-8年計画で総合的に考えれば相応の体制がないかぎり
事業用途で安易な自作はおすすめしない。
突然失礼します。ご存知の方がいらしたら教えてください。
・メインマシン(レンダリングマシン)
・WEB閲覧用マシン
・実験用マシン
・ファイルサーバ
SOHOで、現在、上記のような環境を用意し、別室からリモートデスクトップ
にて利用しております。
メインマシン以外はCPUが遊んでいることも多いので、昨今の節電ムード等もあり、
仮想化での統合を考えております。(メインマシンを流用)
GPUの機能を使うことはありませんし、メインマシンで使用しているアプリ
ケーションの都合上、再起動が頻繁に発生するため、ハイパーバイザ型で
仮想環境を作りたいと考えております。
【質問事項】
● ESXi上の仮想OS(で動いている書き込みソフト)から、ホストマシンに
SATA接続された光学書き込みドライブでの書き込みはできますか?
ごくたまに、BD-RやDVD-Rでの納品を求められるのですが、その際の書き込み
を仮想OS上から行うことが可能なのか、ご存じの方、教えてくださいまし。
不可能な場合、USB接続の書き込みドライブを購入し、手元にファイルを転送して、
書き込みを行うか、仮想化の構成を再検討します。
よろしくお願いします。
>>110 FreeNASで、2年間動作ですか。
レスありがとうございます。
NASの接続性は問題ないことがわかり、ほっとしました。
>>111 レスありがとうございます。
でも、市販品のが壊れないという保証もないからなあ、どう考えればよいものか。
それならいっそ、高品質部品と冗長性に配慮して自作でNASを組み上げれば、安定するかなあと。
保守の問題は自分でする限り今のところどうにもなりません・・・
114 :
119:2011/11/01(火) 18:05:58.16 ID:A/D5G/aQ0
>>112 ホストの光学ドライブをパススルーする機能は付いてる。
だけど、自分では使った事がないので、書き込み可能ドライブとして認識するかは不明。
その辺が不安なら、それ専用の実機を一台確保しておいた方が確実かと。
逆に、実デバイスを弄る可能性がないPCは、仮想化しても実機と同じ事が出来るよ。
>>113 可用性をどの様な方法で確保するのか、の問題だね。
上の方にもカキコしたけど、壊れない事が前提なのか、壊れる事が前提なのかで、立ち振る舞いが変わってくるかと。
後は
>>113の考え方や予算次第だね。
>>113 高品質部品だろうが何だろうが、SPoFが生じることは避け難い。
同じマシンを2台使って、HAを構成出来るようなソフトウェアを用意する
とかいうなら話は別だけど。
どうせSPoFがあるなら、一部のパーツの冗長性を考えるよか、
もう最初から「壊れるもの」と考えて、壊れた時の対応が容易になるように
作るほうがよいかと思う。
>>114 レスありがとうございます。
壊れることを前提にしてやっていきたいと思います。
しかし、HDDやSSD、電源装置などの壊れやすい部分の障害に限定して、対策を取りたいと思います。
そしてLINUXでRAIDを組み、NASを構築し、nfsでESXIデータストアを構成したいと思います。
ところで次の疑問が生まれました。
このNASと、ESXIは別機で動作させるわけですが、
もし、先にNASをシャットダウンさせてしまった場合、
ESXI側はどのような具合になってしまうのでしょうか。
単純にゲストOSレイヤでディスクにアクセスできないという事態になってしまうのでしょうか。
それとも、何かESXI側で、メモリ上の仮想マシン実体と矛盾が生じないような対策が講じられるのでしょうか。
UPSと連携させる場合、NASとESXIのシャットダウンのタイミングが難しいなあと思いまして。
>>115 おっしゃるとおりだと思います。
部品の何が壊れるかによって、対応も変わってきますよね。
マザボがやられたら、ディスクが「論理的」に破壊されることもあると思います。
対処しやすい場合と、そうでない場合があるように思います。
高信頼性の電源が、長期間故障しないという保証も無いがな。
おとなしく、HPのマシンでも買っておけばいいのに。
>>102 2通りある。すべて担当者の責任にされる会社と、その担当者がすべての判断基準の会社。
後者で有れば、よほど頻繁に致命的な落ち方しない限り、この予算ではこの程度だ、とか
これは自然障害なのでしょうが無い、とかてきとーーな言い訳で納得されるw
>>105 serveraid8が酷すぎたのでPERC5いいじゃんとか思ってた時期もありました。
>>109 megacli拾ってきて好きな場所に置けばOK
>CentOSで、NFSでアクセス可能なNASを自作
だから予算や信頼性の要件がねーと何とも言えんつーの
CentOSで普通に動くし、ちゃんと作り込めば何にでもなるけど
ハイスキルな人がやらんかぎりfreenasその他無料NASソフトの完成度にも届かない。
ハード面もサーバ筐体の方が自己診断機能が充実しているし、そもそものパーツの信頼性が違うので
よほど変態性能が必要なのでなければ自作するメリットなんて無い。
>>118 HPのマシンも壊れますよね。
結局、壊れるんだったら、何でも良いのかなと思えてきました。
できるだけ壊れてほしくないので、「良質らしい」部品を揃えるし、
RAIDなど冗長にできるところはそうする。
大切なのは、
>>115さんの言うことかなと。もちろん対処は難しいけど。
なんか、規模が違う話だろと思える意見が
ごちゃごちゃしてる
>>119 LSIのRAIDコントローラーと対話するには、
esx(i)だけでは駄目で、megacliが必要なんですね。ありがとうございます。
参考にします。
特化して優れているというFreeNASなんかについてもよく調べてみたいと思います。
予算は限りなく出来るだけ低くです。
>>116 NASへのアクセスが出来なくなった場合、ESX側で仮想マシンを一時停止する。
実行中の命令やメモリは保持されたままで、ゲストOSからすれば時が止まった状態。
その状態でNASが復活すれば仮想マシンは再開されるし、
NASが復活せずESXも落ちたら、NASに書き込まれなかったメモリ上のデータは全て消える。
次回起動時には、ゲストOSからすれば急遽電源がOFFされた状態として認識される。
これだけアドバイスしても、自作にこだわるとか失笑ものだな。
まあ、好きにすればいいさ。
>>124 ありがとうございます。よくわかりました。
NASとの通信ができなくなったその瞬間で、ESXI側では処理を進められないので、メモリやレジスタの内容が保持されたまま冷凍される。
ゲストレイヤにしてみれば我を失ったままになるわけですね。時が止まった状態という表現がわかりやすかったです。
そして、ESXIがNASへ再びアクセスができるようになれば、ESXI側で全てが再開され、ゲストは目を覚ますわけですね。
NASが停止した場合には、とにかくNASを再開させる必要があるということになりますね。
NASを再開させないままではESXIは何も出来ずただただ息を止めているしかないので、
そのままESXIをOFFすれば、メモリ内容も実行途中のレジスタの内容も消失してしまう。
つまり、単なる強制電源カット状態ということになってしまうわけですね。
なるほどありがとうございます。
UPSによるシャットダウンでは、必ず先にESXIがシャットダウンするようにして、
それから続いてNASがシャットダウンするようにしなければいけませんね。
>>125 やってみたいという気持ちもあるわけで。
FreeNASはストレージ遅延が大きめ
OpenFilerはFreeNASに比べると遅延が小さめ
動かすものによってはゲストOS上のアプリやサービスがもっさりだの
ハングしたように見えるだのという事象が起きる場合がある
ゲストOSに何を使うか、及び1つのストレージ上に何個OSを動かすか等にもよるが・・・
>>116 実際にやってしまった事がある
うちの場合はFreeNASじゃなくて、openfilerをiSCSI経由で使用してる
ゲストOSがWindows Server 2008 R2の場合はしばらく動き続けた
ゲストOSがRHEL5、CentOS5の場合は数分でI/O errorがコンソールに表示されまくり、
kernel panicになる奴・ならない奴が出た
自作するって事はそのサーバがどうにかなるまでずっと面倒みるハメになるのだけどね
作った人じゃないと判らないって言って
オマケに壊れたら作った人のせいにされるわロクな事が無いと思うけど
だからいつ停止しても皆がニコニコして「直しといてね」ってレベルならいいと思うよ
開発サーバをESXiで稼働してて開発末期に停止したら刺されると思うけど
>>127 とても参考になりました。ありがとうございます。
OpenFilerは、FreeNASよりも遅延が小さいというのは気になりました。
候補に入れて調べたいと思います。
ありがとうございます。
>>128 NASをESXIよりも先に、落としてしまったのですか。
参考になります。
NASとの通信が切れても、ESXIはHART BEATかなにかで検知しているわけでもなく、
安全に停止させてくれるわけでもないということがわかりました。
ゲストがハングアップするのは困りものです。NASとの通信は切っては絶対に駄目ですね。
ESXIでその辺の安全を確保してほしいと思いました。
まさに、凍結状態になってほしいです。
>>129 それはものすごく、よくわかります。
しかし、幸か不幸か管理者は私だけです。
身内の会社ということもあり、これまで私がit関係は全て構築しました。
悪く言えば、ITに関してはワンマンです。
結局、一人でするはめになるわけなんです。
>>126 参考までに教えていただきたいのですがesxi 使わずに
open solaris (今はopen Indiana だっけ?)で
raidz2(raid6相当)ではダメなのでか?
133 :
名無しさん@お腹いっぱい。:2011/11/01(火) 22:21:54.09 ID:BKebzmOh0
クライアント何台でアクセスするの?
あと、必要な容量は?
身内の企業だからという理由で自作PCを採用するとか、意味不明。
ホンとはサーバの知識が無いだけでしょ?
>>132 4万円ほどのハードウェアraidを購入しようと考えています。
raidz2というモードはなかったです。
LSI MegaRAID SAS 9260-8iなのですが、SATAのディスク8個でRAID6が使えるようです。
勘違いしていましたら、ご指摘ください。
raidz2というものははじめてききました。
solarisも触ったことはありません。CentOSだけしかつかったことがありません。
>>133 まあ、プロではないですからね。
もう10年以上そうやって無事やってきています。
似非管理者、似非プログラマ、です。はい。
失敗も経験しないとわからんだろうからなぁ。
先人が己の経験で無謀だと指摘してることもあえてやってみるのも一つの経験だとは思う。
状況から察するに責任はほとんど被されるだろうけど。
ま、その失敗が致命傷にならないことを祈るよ。
自作やオープンソースが駄目だなんて
ケースバイケースだろ
そりゃ押し売りってもんだ
>>134 raidz2というのはopen solaris ファイルシステムのZFS がサポートするソフトウェアレイド です。
raid カード無くても普通のsataポートに繋いだHDD でレイドが組めます。
ディスクの追加とか容易なので、ファイルサーバにはよいかと。
興味あればZFS で検索してみてください
>>134 raidz2はZFSのRAID、freenasでもRAID-Zは作れる
ttp://www.pcserver1.jp/blog/40/20100428/14 たださ、CentOSを使った事があるのと管理した事がある、では偉い差なんだけど
NASを何にするかは判らないけど、自作でトラブル時に対応できます?
そもそも情報小出しじゃなくて
>>133 の情報出してくれれば相談に乗れるのに
>>137 知識の無い人が自作に突っ込む程悲惨なものは無い
話聞いてるとハードウエアの知識も無ければ、ソフトの知識もあるとは思えない
構築はバカでもできるんだよ、問題はトラブった時のトラブルシュートなんだって
>>138 参考になります。
ありがとうございます。
open solarisで使えるソフトウェアraidの一種なのですね。
>>139 esxiのデータストアとしてnfsで利用するつもりです。
データベースサーバーと、文書ファイルだけのsambaファイルサーバーがesxiに乗るくらいなので、
アクセス数はたいしたことはないと思います。
142 :
名無しさん@お腹いっぱい。:2011/11/02(水) 00:09:26.11 ID:xbIhFzy+0
>>79 ご指摘ありがとうございました。
オンボードのNICは82579LMでした。
ESXi5で試してみましたが、だめでした。
ESXi4のoem.tgzでもだめでした。
Express/card slotが空いているのですが、ESXiに対応している
カードないでしょうか?
本当に困っております。
無理。
>>142 oem.tgz使うんだったら、後は手持ちのカードのデバイスのIDが
実際どうなってるか調べて、そいつを認識するようにoem.tgzの
中のファイルを編集すればいいんでねーの
>>134 RAIDカード以外にケーブルも必要ですよ
MegaRAID SAS 9260-8i だと SFF-8087 x2 なので
SFF-8087 - SATA ケーブルが数千円します
8台だと2本必要です
>>146 ありがとうございます。
コントローラーについている1つのsasコネクタを4本のsataへ変換するケーブルですよね。
マルチレーンというのですよね。
これのkitというのがあって、ケーブル付ですそれを購入しようと思っています。
業務等で利用している方々が居られるみたいなので質問していいでしょうか?
ブラウザを利用したクライアントサーバー形式のシステム開発をを開発会社に依頼しようと考えています
機器は自社に管理人が居ない為に開発会社が運営しているデータセンターにホスティングです
こちら側としてはEsxi等で仮想化が十分可能じゃないかと思っていますが
開発会社側は
・セキュリティがー
・パフォーマンスがー
・そもそもWEBサーバーとDATABASEサーバーを同一ハードでの運用は愚策でー
・COMポートの使用がー
等言っています
セキュリティとしてはNICを別にすければ別なハードと同じでそのHOSTを取られた時点でデータセンター側の問題では?
パフォーマンスはシステムの概要が取引先からEDIで受け取ったデータを端末のブラウザを利用したPDF印刷なので
PDF生成の部分の負荷が高い位なのでは?
同一ハードでの運用は問題なら仮想化が広まらないのでは?
Hyper-VはCOMポートの使用が出来ないと聞いていますがVMは問題ないのでは?
と考えています
開発会社は素人達に細かい部分を話しても理解出来ないから解りやすい部分の話をしてきたと思いますが
実際はどうなのでしょう?
ハードとしては
CPU:Xeon E5645 メモリ:12GB HDD:RAID構成 をWEB及びDATABASE用それぞれ提案されています
149 :
119:2011/11/02(水) 10:25:24.19 ID:6WTfB6/P0
>>148 PCの話に限らず営業の仕事は、如何に自社の商品を「高く売り付けるか」だからね。
必要以上のスペックのPCを持ち出してくる事は良くある話。
で、
・セキュリティ : 保守を丸投げするなら開発会社の責任。
・パフォーマンス : どの程度のデータを扱うのか不明だけど、実機での評価試験の結果次第。
・Web鯖とDB鯖 : 上記同様
・COMポート : UPSでも使うの? w
詳細は不明だけど、iDCに鯖を設置するって話なのに、色々と、ん? って所が多いねw
こういう意味不明な要求してくる客が一番困るよな。www
>>148 セキュリティ云々というケチは与太話でしかない。
同一ハードが問題だという話に関しては、運用上・性能上どうまずいのか
具体的な理由を出させる。
パフォーマンスに関してはサイジング根拠を出させる。そこで挙がっている
数字をあなたが納得するかどうか。
その話を聞いた限りの印象では、Oracle RACだって仮想化するご時世に
今更なにグダグダ言ってんだ?と思う。
152 :
119:2011/11/02(水) 11:22:24.45 ID:6WTfB6/P0
>>150 >>148を開発会社が適当に言いくるめる気マソマソに見えて仕方がない。
>>151 根拠のない説得は説得力がない、って分かり易い事例だよねw
vMotion用に2台構成って話なら理解出来るけど、web鯖とdb鯖で2台構成というのは・・・。
>>148 お前の要求も突っ込みどころ満載だな。
まず、COMポートを何に使うのか教えてくれよ。
154 :
119:2011/11/02(水) 11:29:45.68 ID:6WTfB6/P0
>>153 リモメン用にモデム、しか思いつかないw
自社で人雇えないんだったら黙って営業にカモられてろよ。
>>148 丸投げなのにセキュリティ不安?それって自社(開発会社)のIDCは信頼度0ですって意味だw
パフォーマンス? いきなり本番環境作ってそこで開発も運用もするの?サイジングは別でしょ、普通
WEB,DBの同一化は愚策? そんなん規模次第
COMポートを何に使うか知らないけどパススルーでも何でも使えるよ
ウチにこんなふざけた提案したらその場でお引取り願うわw素人騙す気満々じゃん
悪い事は言わないからその開発会社と縁を切るか、開発だけさせといて別の運用会社を探すべき
>>154 ルータ設定用のシリアルかもしれないw
あれかな、仮想化ノウハウないから素人脅して止めさせてサーバ買わせてハウジングさせたいのかなー
どの程度のアクセスがあるか知らないけどPDF生成程度でパフォーマンスだのぐたぐだ言わんよ
想定値とクライアントの要求に合わせてサイジングすればいいだけだし、自社運用なら死んでもセキュリティ不安なんて言わないわ
そもそも運用費って月いくら?
159 :
148:2011/11/02(水) 12:58:16.10 ID:g647+bhu0
>>149-154 レスありがとうございます
レスを参考にしてよりよい方向に進めたいと思います
自分を含めてPCに詳しい人の居ないので色々調べながらな状況です
COMポートは取引先から全銀協手順等を利用するのでTAとの接続の為に必要となります
社内で用でEsxiを使用してDATABASE WEB NFS等6台分を思考錯誤しながら構築はしてみたんですが
DATABASEには700万レコード(月数万レコード増加) WEBではPHPとTCPDFを利用した帳票作成 NFSではVPNを利用して20台程度の接続
その状態で問題無く動いていました
パフォーマンスのログも定期的に印刷を行いそれ以外に最大負荷の状態のパフォーマンスも確認していました
それでパフォーマンスがーと言っていたので素人だと理解できない部分の説明を省いているのかと思った次第です
今回開発会社に出した件は
細かい件を書くとその会社に見られていたらと思ったので
取引先から全銀協手順でデータを受信しそのデータを利用して各PCからブラウザ経由でPDFから必要帳票を出力するです
一取引先の1日の最大データ受信数は300
1日当たりの最大データ受信数は2000
受信する時間は取引先毎に指定を行う
使用したデータは保存用テーブルに格納して基本的には使用しない(トラブル時の復旧用)
あとは主要な必要と思われるテーブルとテーブルのレイアウトや帳票のレイアウト等は提出してあります
開発会社はWeb関係はJAVA データベースはOracle11を使用したいとの事でした
>>155 そうなんですよねー
それで価格面とかはある程度譲歩したりはします
今回のは全部含めると機器と開発費用で700〜800と管理費で年100なのでカモられるとしても多少は下げたいってのが…
160 :
119:2011/11/02(水) 13:09:24.02 ID:6WTfB6/P0
>>155 まぁそう言わないw
>>156 うはっw
その発想はなかったwww
鯖からルーター設定するって聞いた事ないしやった事ないw
.
>>159 全銀協のデータ集信用か。
その部分だけ、COMポートが付いてる実機(只のPC)を設置しても良い様な・・・。
にしても、提案されてる機器、どう見てもオーバースペックだよねぇw
予想以上のナナメ上だったw
その金額でごっそり丸投げできるなら発注しちゃうわ。
EDIのサーバでCOM使うといったらモデム/TAだろうとは思ったが。
自分でやったことは無いからESXiで安心して使えるのかどうかは知らない。
データ受信数を見るに、パフォーマンスに関しては全く問題ないかと。
まあ何にせよ、他の業者にも声かけたほうがいいんでねえ?
たとえ最終的に最初の業者にやらせることになったとしても。
ハウジングサービスは高いぜ。
その管理費じゃどう考えても無理だろ。
164 :
148:2011/11/02(水) 14:11:06.20 ID:g647+bhu0
ID:6WTfB6/P0
前スレでの一連レスをみて心動かされました
現在自宅でEsxi環境の構築をしています。
貴重な情報ありがとうございます。
>>156-158,160-163
レスありがとうございます
レスを参考にしてよりよい方向へ進めていきたいと思います
素人のつたない説明への回答感謝いたします
他業者〜の部分は自分が何度か話を出してみたんですが上が首を縦に振ってくれないんですよね
このスレの住人様に感謝いたします。
次の書き込みは良い事象で行えたらと思っています。
では名無しに戻る事に致します
大変だろうけど幅広く相見積したほうがいいとおもうよー
2倍どころじゃない開きがあるからなぁ
>>149 ID:6WTfB6/P0
すまんわりとどうでもいいが、
>>119書いたの俺
いや、そいつは前スレ
>>119からずーっとコテハン付けてる野郎だよ
スレの初めの方でも加齢臭漂うレスをしてるだろ
GPU パススルーの話はスレあたり1回くらいで十分だよ。
続きは個人ブログででもやってくれ。
>>166 なるほ・・・紛らわしいなおい
”過去スレの119”とかにしてくれw
>>164 >上が首を縦に振ってくれない
出来レース…ゲフンゲフン
>>159 全銀用にESXi上のwin 2008からcom1割当はibmサーバで出来たよ
Vt-dにcpu対応していればok
iSCSIを通すためのNICを探しています。
何かお勧めはないでしょうか。
5000YEN位までのGIGABITのものがいいです。(10GBイーサは高すぎて買えません。)
GIGABITの帯域を最大限に利用できる性能を持つものがいいです。
おねがいします。
やっぱり、最強は、
EXPI9400PTなのでしょうか。
EXPI9402PTという2ポートタイプもあるのですが、
iSCSIターゲットとのピアツーピア通信(同一IP通信)でチーミングはできず、
速度を稼ぐことはできません。
ボンディングなんかが設定できれば、2ポート分合せて3GBPSで通信できるのでしょうが、
ESXIがサポートしているのか分かりません。設定ができるとしても、不安です。
そんなことできるのでしょうか。
ただ、複数ポートを用意してやれば、iSCSIターゲットが、複数のイニシエーターと通信する場合には、
自動的にポートが選択されるので、高速化にはなりますよね。
>>173 EXPI9301CTでも、iSCSI用のファームウェアに替えれるよ。
ってか、NICのiSCSI対応はブートするときだけ意味があるので、ストレージとして使うなら何でも良い。
2ポートついてるNICを買うよりも、NICふたつ買った方が安いね。
>>166-168 酷い言われ様だなw
では酉付けるよ。
>>173 EXPI9400PTが、価格入手性安定性を考えるとベストだと思うよ。
9402は、オークションで時々安く出てるね。
漏れはオークションで9402のNICを購入して使ってる。
>>174 NIC2枚挿すと空きPCI-exが不足する場合もあるからね。
ESXi5になって蟹が認識されるのは、かなり大きい意味がある訳だが・・・。
>NICのiSCSI対応はブートするときだけ意味があるので、ストレージとして使うなら何でも良い
iSCSIは単にストレージとして使おうと思っています。
iSCSIでBOOTまでさせようとは考えていません。usbメモリで、esxiを使えるようにします。
(↑わたし何か勘違いしていませんよね)
>EXPI9301CTでも、iSCSI用のファームウェア
iSCSIでブートさせるためのファームのことですよね。
>2ポートついてるNICを買うよりも、NICふたつ買った方が安い
EXPI9402PTは、EXPI9400PTの二台分ほどの値段だったと思います。
NICも二台用意して使った方が、耐障害性もあがると思いました。
ただ、マザボのPCIEXPRESSのスロットが足りなければ、その限りではないですけども。
EXPI9301CTは、安価ですけど、
その分、CPUに負担がかかったり、1ギガの帯域をフルに使えなかったりしますよね。
そのための、EXPI9400PTなのだと理解しているのですが。ちょっと高いですけど。
iSCSIのターゲットと、イニシエーターは、それぞれのマシンをクロスケーブルをつかって
結びたいと考えています。
いずれは、10ギガイーサを導入したいと思っています。ボトルネックになると思うので。
>>175 >ESXi5になって蟹が認識されるのは、かなり大きい意味がある訳
ゲストOSへのアクセスのためのポートとして使うことができますね。
ゲストOSの通信は100BASE環境なら、言ってみれば、100BASEでも良いくらいですからね。
NICのiSCSI対応はオフロードを利用するのが主たる目的じゃないかと
>>178 iSCSI対応=オフロードっていう等式ですか。
>EXPI9301CTでも、iSCSI用のファームウェアに替えれるよ。
>ってか、NICのiSCSI対応はブートするときだけ意味がある(
>>174)
という意見とはちがって、iSCSI対応がネットブートを意味するものではないということですね。
「iSCSI対応」って、その意味するところはどっちが一般的なんだろう。
ところで、
オフロードに対応しているNICって、EXPI9400PTなどの8000円ほどする高価なものだけですか。
3000円のインテル製のはオフロードできていないのでしょうか。
それが価格の差なんだろう
ESXiでiSCSIのSAN boot対応が表明されている機器の組み合わせって
かなり少なかったと思ったけど、今は増えてるのかな
NICのボンディングって、esxiでもできますか?
普通のLINUXなら、/etc/sysconfig/network-scripts/ifcfg-bondにボンディング定義をして、
各NICの設定ファイル(ifcfg-eth)で定義済みボンディングを指定すれば、
複数のNICがボンディングされて協調動作するようになりますよね。
これと同じことを、esxiでもできるのでしょうか。
できるのなら、どういうボンディングのモードを使うと良いですか。
ピアツーピアで接続しているiSCSIターゲットとイニシエーターで、
それぞれでこのボンディングを用いて、その通信を高速化させたいんです。
リバースLANケーブル2本で互いを接続することになると思います。
1Gの帯域を2チャンネル確保すれば、理論的には速度は倍になるわけですよね。
iSCSIを高速化できんじゃないかと期待しているところです。
>>182 ESXi NIC チーミング
といったキーワードでググるとヨロシ。
ただし、構造上iSCSIの帯域確保という意味ではあまり使えない。
iSCSI Port Bindingを構成してマルチパス化するという手はあるが、
結局はロードバランシングポリシーとしてラウンドロビンが使える
ようになる、という程度のもの。
利用するiSCSIストレージ装置によっては、Port Redirectionといって
スケールアウトさせる機能を持つものもあるけど、これは
Dell EqualLogicみたいなある程度本格的なiSCSIストレージアレイ
が保有する機能。
個人が自宅で構築する環境なら諦めて1Gbpsで使うというのが現実的。
企業が性能を求めて使うなら、それなりのストレージアレイ装置を検討して、
その装置の特性に合った帯域確保の方法をストレージベンダに聞くべき。
>>183 >iSCSI Port Bindingを構成してマルチパス化するという手はあるが、
>結局はロードバランシングポリシーとしてラウンドロビンが使えるようになる、という程度
iSCSI Port BindingでiSCSIターゲットまでの経路をマルチパス化できれば、
一つのNICにトラフィックが偏らないので、高速化することはしますよね。
たとえば、ゲストOSを起動中に大量のファイルを読み込んでいる場合、
もしiSCSIまでの経路をマルチパス化していれば、多くの帯域が使えることになり、
高速化すると思うのですが。
>>184 iSCSI Port Bindingでマルチパス化しても・・・
ESXi標準では1つのiSCSIターゲットに対して、
同時に複数のパスを使うという動作を取る事ができない
ESXi4.1u1で確認したが、ラウンドロビンにしても2秒毎にパスを切り替えて
使うだけで、同時に2ポート使うわけではない。
したがって、iSCSIターゲットがひとつの場合は高速化にはならない。
ESXi5からはサードベンダーがパス制御ソフトを組み込めるようになったので
そちらを使えば、マルチパスで冗長化と帯域増強を同時に行えるように
なるかもしれない。
パス制御ソフト+ストレージが必要なのでそれなりに高価だが・・・
複数の仮想マシンが複数のLUNに並列的にI/Oする状況であれば、
ターゲットとなるLUN単位で優先的に使うパスを指定できるので
ある程度I/Oパスが分散される状況を期待できるかもしれん。
単一の仮想マシンから単一のターゲットLUNへのI/O性能を上げたい場合は、10GbEにするか、Fibre Channelにするかだね。
1GbEをトランキングして太いI/Oパス的に使うことはできない。
>>187 画像をよく見るべし。
パスとしては4つ認識しているが、有効(I/O)なのは1つだけ。
他のパスは生きてるか死んでるかを定期的に見ているだけ。
>>189 レスありがとうございます。
複数のパスが同時に使われるということではないわけなのですか。
納得しました。自分でもその観点をもって記事を理解したいと思います。
>>188 なるほど、複数のLUNと複数の仮想マシンの並列関係についてみれば、
それぞれの通信で選択されるパスを設定することで、
複数のNICに通信が分散され高速化が図られるわけですね。
そして、このそれぞれの通信自体は分散させることはできないということを理解しました。
なるほど。
LUNと仮想マシンの接続単位を、分散させることを目的としたいと思いました。
トラフィックの多くなる仮想マシンとLUNとの接続単位は、それぞれ別のパスを優先するように設定したいと思います。
ありがとうございます。
あっ、当然ながら、
iSCSIターゲット側でも、同じような設定が必要になってくるわけですね。
LUNごとに、使用するNICを選ぶことができれば良いわけですね。
ところで、次のような方法でも実現できるように思いました。
iSCSIターゲットを複数用意し、
それらのiSCSIターゲットが動作しているマシンに、サブネットが異なるNICを用意します。
複数のイニシエーター側で、お互いに異なるサブネットを指定してターゲットを選択することで、
その通信には異なるNICが使われるようになるのではと思いました。
ESXIのデータストアは複数個用意するということになると思いますが。
>>191 > iSCSIターゲット側でも、同じような設定が必要になってくるわけですね。
> LUNごとに、使用するNICを選ぶことができれば良いわけですね。
通常iSCSIストレージ装置側ではそういう設定は行わない。
iSCSIストレージ装置側では、構築したボリュームを、「どのイニシエータからのアクセスを許可するか」という設定を行う。
ESXi側で構成されるiSCSI Software InitiatorはESXi(vmkernel)につき1個。NIC単位で作成されるようなものではない。
> iSCSIターゲットを複数用意し、
> それらのiSCSIターゲットが動作しているマシンに、サブネットが異なるNICを用意します。
> 複数のイニシエーター側で、お互いに異なるサブネットを指定してターゲットを選択することで、
> その通信には異なるNICが使われるようになるのではと思いました。
もう一度言うが1個のESXiにつき1個のiSCSI Software Initiatorが構成される。
ESXi側に装着されているネットワークポートの数は関係しない。
vmknic (vmkernel network interface)は複数個作成することはできる。それぞれ別のサブネットにすることもできる。
iSCSIストレージ側に複数のポートを設けてそれらも別のサブネットにし、vmknic<->iSCSI Target Portのパスを複数個持たせることはできる。
ただ結局、上の@ITの記事で描かれている図本質的に同じ状態になるってだけだよ。
ESX 3.5の頃はiSCSI Port Binding機能が無かったので、こうするしかなかった。
今はPort Binding機能があるので、わざわざサブネットを分けなくても良くなった。
最終的に得られるストレージ的なアクセストポロジは同等。
> ESXIのデータストアは複数個用意するということになると思いますが。
何を意図してこれを書いているのか知らんが、単一LUNに対して複数個の経路を設けたいということであればデータストアは1個。
複数のLUNを構成し、ターゲットLUNごとに違うパスが利用されるように
したいということであればデータストアは複数個。サブネット云々は関係ない。
何をやりたいのかわからんな。
>>192 詳細にありがとうございました。
長くなりますが、以下、理解できたことを書いてみました。
正しいでしょうか。
>ESXi側で構成されるiSCSI Software InitiatorはESXi(vmkernel)につき1個。
>もう一度言うが1個のESXiにつき1個のiSCSI Software Initiatorが構成される。
上の@ITの記事に登場していた、vmhba33のことですね。
# esxcli swiscsi nic add --nic vmk0 --adapter vmhba33というコマンドを使って、
iSCSIイニシエーター(=vmhba33)に、VMkernelインターフェイスを所属させてPort Bindingを行っていました。
>ESX 3.5の頃はiSCSI Port Binding機能が無かったので、こうするしかなかった。
>今はPort Binding機能があるので、わざわざサブネットを分けなくても良くなった。
>最終的に得られるストレージ的なアクセストポロジは同等。
かつてはPort Bindingがないので、複数のVMkernelインターフェイスは互いに無関係でした。
この、互いに無関係で互いにサブネットの異なる複数のVMkernelインターフェイスと、
iSCSI ターゲット側には、それぞれに対応するサブネットに属したNICとを準備します。
異なるサブネットで互いが隔離された、VMkernelインターフェイスとiSCSI ターゲットマシン側のNICができます。
さらにESXi側では、データストア作成でiSCSIターゲットマシンを指定するときに、
ESXiのデータストアごとにわざと、iSCSIターゲットマシン側の、それぞれ異なるサブネットのNICを指定することで、
データストアごとに異なる通信経路が選択するようにして通信の分散化を行っていたという理解をしました。
つまり、サブネットへの通信がそこに所属する1対のNICを経由するというネットワークの基本機能を利用して、
データストアベースでの分散化を行っていたということになると思います。
つづき
>複数のLUNを構成し、ターゲットLUNごとに違うパスが利用されるように
>したいということであればデータストアは複数個。
データストアごとに、iSCSIサーバーを指定することができるので、
iSCSIサーバーにある複数の物理NICから一つを選択することで、LUNへのネットワーク経路を変えることができる。
このようにすることで、iSCSIサーバー側の分散化は実現できる。
これらが全て同じサブネットに属している場合、
iSCSIサーバーの異なる物理NICをあて先としていても、ESXi側ではパケットは常に同一NICを経由してしまうのでまだ分散化にならない。
そこで、VMkernelインターフェイスとNICとの関係付けることで、このVMkernelインターフェイスの選択が物理NICを特定するようにし、
各データストアの定義では特定のVMkernelインターフェイスを使うようにし、データストアベースでの分散化を図れるようになる。
PortBinding機能は、VMkernelインターフェイスを束ねることだと思うのですが、
上の考え方には、どこにもその機能は登場していないと思います。
PortBinding機能は、いったいどう便利なんでしょうか。
>>193 単に2本使いたいだけじゃねーの。
性能や運用の面で、そうしたいという動機があるわけじゃなくて。
>>196 esxiからみてiscsiターゲットが一台一LUNの話なのか
>>198 私がやりたいことは、iSCSIで使われる帯域の分散化です。
esxiデータストアごとにギガビット帯域を占有できるのではないかと考えています。
ISCSIサーバー側、esxi側に、複数のNICを用意します。
しかし「iscsiターゲットが一台一LUN」だとesxiのデータストアはたった一つだけということなので、
port bindingによって経路を複数設定できたとしても実際に使われるiSCSIサーバまでの経路が一つに定まってしまいます。
そこで、esxiのゲストを格納するデータストアを複数準備し、それぞれ異なるLUNに接続するようにします。
各VMkernelインターフェイスと特定の物理NICを関連付けて(
>>187の@ITの記事にその方法)、
esxiデータストアごとに、使用するVMkernelインターフェイス設定し、
各データストア一つ一つに、ゲストマシンを一つ一つ格納しておくと、
一つのゲストマシンが一つの経路を占有することができるようになると思います。
>>199 こういうこと?
ESXiにLANカードを二枚挿し
- LAN A - iscsiA
- LAN B - iscsiB
これでいい?これならできるよ
このスレで、だれもできないといってないよね?
私もOS用とDATA用のNIC、ISCSIターゲットを分けてる。
>各データストア一つ一つに、ゲストマシンを一つ一つ格納しておくと、
>一つのゲストマシンが一つの経路を占有することができるようになると思います。
あなたのお好きなように
私はやりすぎと感じるのでやらない。
>>200 レスありがとうございます。
一度、やってみたいと思います。
たしかに、ゲストに対して一本のギガビットイーサーの帯域を割くのは、
やりすぎかもしれないです。
負荷が大きいのは、起動と終了時くらいなのかもしれません。
ゲストもサーバーなのでほとんど起動中なわけですし。
ありがとうございました。
>>201 わー、綺麗なイラストだ。
わかりやすそうです。
ありがとうございます。
ものすごくがんばってもよいvmなら、vmをraid0にしちゃってNICの数だけ分散させれば帯域としては2Gb以上でるよ
そこまでやるならローカルストレージにするから以下略なんだけど
GbE使った現状のストレージ帯域が非常なネックになっているのは確かだから話題としてはとても適切
LACPもかなり微妙な分散にしかならないからnfsの場合でも複数ip使って分けることがあるね
そんなにボトルネックになる?どういう使い方を想定してるの?
ありがちなDBだのWebだのの場合、上に出ていたEqualLogicも使えないような
低価格構成では帯域以前にまずI/O数でひっかかると思うが。
>>196 > データストアごとに、iSCSIサーバーを指定することができるので、
> iSCSIサーバーにある複数の物理NICから一つを選択することで、LUNへのネットワーク経路を変えることができる。
> このようにすることで、iSCSIサーバー側の分散化は実現できる。
この書き方は、嘘ではないのだけどなんか違和感があるなー。
物理NICを2個iSCSIで使うこととしてみよう。例えばvmnic1とvmnic2。
iSCSIストレージも物理ポートが2個あり、別々のIPアドレスが設定されているとしよう。例えばtarget1とtarget2。
この場合、LUN 100 ( datastore100 )に到達するための経路は4通りできる。
iSCSI Software Initiator -> vmnic1 -> target1 -> LUN 100 (datastore100)
iSCSI Software Initiator -> vmnic1 -> target2 -> LUN 100 (datastore100)
iSCSI Software Initiator -> vmnic2 -> target1 -> LUN 100 (datastore100)
iSCSI Software Initiator -> vmnic2 -> target2 -> LUN 100 (datastore100)
ターゲットとなる LUN ごとに、上記のうちのパスを優先的に利用するかを
設定することができる。
LUN を 200 個構成した場合は、その気になれば 200 個の
LUN それぞれについてこの設定を個別に行うことができる。
親切すぎるのもどうかと思うぜ。
そろそろ話題変えてくれ。飽きた。
ここでやるには冗長な感じがする(悪い意味で)
仮想化環境で複数のVMが同じLUNを使用する場合、各VMからは
シーケンシャルにアクセスしているつもりでも、ストレージから見ると
ランダムアクセスとなる。
いくらLUNを複数に分けたとしても、LUNを構成する要素全てが独立していない
限り、ストレージから見るとランダムアクセス
いくらLUNへのアクセスパスを複数用意しても、実際にはアクセスパス以前の
部分にボトルネックが発生するケースが多い
ランダムの話からボトルネックに何故繋がるのか
全キャッシュOFFした特殊ストレージ想定してるならむしろそれの影響が最大のボトルネックだわ
FreeNASやopenfilerでiSCSIターゲットを自作した場合、キャッシュした
データはストレージに書き込まれて用がなくなってもキャッシュされ続ける
常にキャッシュを100%使えるとは限らない
今メモリが安いといっても気軽に積めるメモリは16GBまでだと思われる(4G×4)
16GB分読み書きしたら、キャッシュを捨てない限りI/O性能ガタ落ち
VMを複数立ててたら16GBなんて結構すぐいってしまう
まぁOSや動かすモノにもよるが
こうなると、キャッシュOFFしたのと近い状況になる
OS1個の場合だと同じデータを読み書きする確率は比較的高いと思うが、
仮想化環境だとVMの数が増えれば増えるほどキャッシュデータを再利用する
確率は下がる
いくらマルチパスでイニシエータ⇔ターゲット間の帯域を太くしても
使い切れない
商用ストレージ製品はしばらくアクセスされなかったデータをキャッシュから
破棄する等の機能を備えているものが多い
こういう製品だとマルチパスによる恩恵をある程度受けることができる
>>204 >ものすごくがんばってもよいvmなら、vmをraid0にしちゃってNICの数だけ分散させれば帯域としては2Gb以上でるよ
>LACPもかなり微妙な分散にしかならないからnfsの場合でも複数ip使って分けることがあるね
レスありがとうございます。
LACPは、それを設定することができるインテリジェントスイッチがいるそうです。
http://atnetwork.info/ccnp5/fec07.html おっしゃることは、そうではなく、「複数のIPを使ってNICの数」だけで分散させることが良いわけですね。
しかしraid0から複数NICでひろってくるとはどういう方法なのかよくわかりません。
複数ある個々のデータストアごとにネットワーク経路を独立させることで分散することはできるのだと、
これまでのレスからわかってきたのですが。
一つのデータストア対して複数経路を定義しても、実際に使われるのは優先される一つの経路だけという理解をしています。
いい加減うざいな。
自分のブログでやれ。
>>206 >嘘ではないのだけどなんか違和感があるなー。
ありがとうございます。
>この場合、LUN 100 ( datastore100 )に到達するための経路は4通りできる
2×2=4ということですね。
この、LUN 100 ( datastore100 )というのは全て同一で、ただ入り口となるiSCSIターゲットが異なっているということでしょうか。
target「1」→ LUN 100 ( datastore100 ) ←target「2」という理解をしています。。
LUN 100 ( datastore100 )は同じでも、それを包むtargetが異なることで、複数の経路を構成できるということだと思っています。
>ターゲットとなる LUN ごとに、上記のうちのパスを優先的に利用するかを設定することができる。
構成した経路のうち一本だけが優先して使われるわけなので冗長化はしているが、分散化には寄与できないわけですね。
ただ、LUNを複数用意しそれぞれを個々の仮想マシンに割り当てることで、
仮想マシンごとに経路は分散化されるようになるという理解をしています。
FreeNASとかあんま知らないけど、そこでキャッシュってのはPCの
メインメモリをキャッシュに使うんよね?
商用ストレージ製品と違って、キャッシュが二重化されていないのは
もちろん、バッテリーバックアップすらなされていないと思うんだが
その点はどう考えてるんだろう。
もちろん、用途によってはそれでもいいだろうけど、VMの置き場として
無差別に勧められるものじゃなさそうな。
>>215 freenasはraidzがあるから別としてraid5で電源断の問題はあるよ
ま、UPSでカバーしてくれ
raidzがどう関係するのか分からない。
キャッシュでパフォーマンスが上がるってことは、ゲストOSからの
書き込み要求に対して、write backで動作するんだよね?
それだとパリティが合わない問題は回避出来ても、障害時には
ゲストOSのアプリケーションが求めるACID特性は得られないと思うけど。
それと、UPSがあったところでOSがコケるのは防げないし。
電源じゃなくても他のパーツに不良が出た際にOSがクラッシュするとか
無反応になるとかあるじゃん。
ASUS E45M1-MPROにesxiをインストールしましたが
GuestOSインストールするとesxiの画面がピンク色になたw
IOエラーらしいが、ほかのHDDでもピンク色になるw
どーなってんの?!
窓から放り投げれば解決する
>>217 ESXi、guestOS、iscsiTarget 障害どれを言ってるの?
FreeNAS以外の障害は話題になってないだろ
ああ、上からの流れなのか
スマン見てなかった
FREENASやOpenfiller使うような人で業務につかうなら、バックアップくらいとってるんじゃない?
でもiSCSItargetのOSがこけるなんて考えたくないねぇ。
そりゃEqualLogicだろうがFREENASだろうが気持ちは同じか...
>>211 なんのこっちゃ
writeでキャッシュされる上に、SSD積めば簡単に容量100G以上になるし、複数vmの共有部分は何度もreadされる
キャッシュが更新されない??という理屈も意味不明。破棄されて困るというならまだしも・・・
>>212 LACP使えるswくらい買えばいいのに
それは別として、raid0の話は半分冗談なんだが、単に
1vmに2vmdkをつけて片方をデータストアA, もう片方をデータストアBに置き同時にアクセスすれば2gb出るよねって話。
データストアABは1台のサーバであっても構わないし複数NIC複数IPだろうが何だろうが経由する物理ケーブルが分かれりゃいいだけ。
もちろんこれを同一HDD上に置いたらボトルネックだろうがね。他にもいろいろ面倒なので実際やる奴は居ないだろ
あと経路云々は実際やってみ。実際やってみてからもう一度そのへんの記事読めばここで聞くより理解が進むから。
>>215 無差別にあらゆる種類のvmの置き場として勧められるようなストレージなんてほとんど無いと思うが・・・
上の方読んでないけど誰か無差別にfreenas勧めてるの?
>>223 >商用ストレージ製品と違って、キャッシュが二重化されていないのは
>もちろん、バッテリーバックアップすらなされていないと思うんだが
>その点はどう考えてるんだろう。
>>223 >データストアABは1台のサーバであっても構わないし複数NIC複数IPだろうが何だろうが経由する物理ケーブルが分かれりゃいいだけ。
了解です。
>もちろんこれを同一HDD上に置いたらボトルネックだろうがね。他にもいろいろ面倒なので実際やる奴は居ないだろ
RAID6を組むので、複数の物理ディスクに分散されることになると思います。
>あと経路云々は実際やってみ。実際やってみてからもう一度そのへんの記事読めばここで聞くより理解が進むから。
ありがとうございます。
RAID6が組めるハードウェアRAIDカードを海外から取り寄せて、
iSCSIのオープンソース(
http://iscsitarget.sourceforge.net/)をインストールし、勉強して、
それから、esxi4か5で、iSCSI経由でデータストアを構築します。
なので、もう少し、準備に時間がかかりそうです。長い道のり・・・
LACPはまた別の機会にかんがえたいと思います。
とりあえず、データストアを仮想マシンごとに分ける方法でiSCSI LUNへの物理ケーブルを分けて高速化を図りたいと思います。
ありがとうございました。
>>225 そもそも満たさなければならない「目標」があるわけじゃないんだよね。
>>223 メモリに書き込んだデータはいつかHDDなりSSDに書き込まないといけない
商用製品ならともかく、自作で簡単に用意できるのはSATAなHDDを8個でRAID5とか
各VMからI/Oリクエスト発行されるデータ>メモリ→HDD読み書きデータと
なった場合ディスクに実データを書くor読むまでI/O待たされるので性能ガタ落ち
1つのストレージを複数VMで共有すればするほどストレージへのアクセスは
ランダムアクセスとなり、この傾向は強まる
帯域が太い事より遅延が少ない方がストレージ的にはよい事が多い
>>複数vmの共有部分は何度もreadされる
これは各VMのメモリの部分であって、仮想ディスクは別だろう
>>227 write back cacheで動作させればメモリに書きこまれた時点で
各VMからのI/Oリクエストには完了が通知されるから性能は上がる。
それと引き換えにリスクも生じるけど。
スーパー・ランダムなアクセスだとreadでキャッシュが効きにくい
という問題は回避しにくいな。
readはさておき。writeのリスクをどう扱うか、というのが
>>215だが、
>>223も妙な揚げ足取りだけで答えが出ねえな。
「例えば日次バックアップを取得していて、障害時にはそいつで
リカバリすればいいような緩いRPOのシステムに対しては、注意した上で
使える」といった答え方が出来るんじゃないかと思うんだが。
言ってることも用語もメチャクチャ
ライトバックも知らんような奴が知ったかでストレージ語るなよ
HDDに書くのが追い付かなくなった時点でどんなストレージも性能ガタ落ち
商用製品はSAS使ったりドライブ数が多いので性能が落ちにくい
メモリに書いた時点で確かにVMにはI/O完了通知となるが、
メモリに書いたデータはいつかHDDに書く必要がある
メモリ→HDDに書くのが追い付かなくなると、メモリ内のデータを上書きするわけに
いかないからライトバック動作のハズがライトスルーっぽくなる
FreeNASやopenfilerで実現できるのはこの程度まで
商用製品だと搭載メモリのうち4GBを特定のLUN専用に確保とか、readに50%
writeに50%とかいう指定ができる
そんな要件なら普通はちゃんと予算を投じてまともなストレージを買うと思うがな。
自作か、それに毛が生えたレベルでパスを分散させたいとかどうとか騒ぐのなら、
まぁ好きなようにやればいいんじゃねえの?
DQ67OWでGPUパススルーが成功しません。
成功されている方いたら、環境教えてもらえませんか。
ESXi5
DQ67OW
i5 2400S
RadeonRH6450
XP32bit
Esxi上ではunknownとして認識されて、ゲストOSでドライバのインストールまでは成功します。
セカンダリとしてRadeonRH6450を有効にするとブルースクリーン(ati2dvag)でクラッシュしてしまいます。
すいません。
共有ディスク時のスナップショットについて質問させてください。
環境は以下ような感じです。
・ESX41update1
・仮想SV_A、HDD_A(OS領域、シン)
・仮想SV_B、HDD_B(OS領域、シン)
・仮想SV_Aと仮想SV_Bの共有ディスクとして、HDD_C(データ領域、シック)
・仮想SV2台でOracleRAC構築
仮想SV_A側でスナップショットを取ると、仮想SV_B側でスナップショット後にできたVMDKを
認識できなくて、元のVMDKファイルに書き込む→エラーとなるのでしょうか?
上手くスナップショットが取れたとしても、削除(マージ)したときに
仮想SV_B側が認識できなくて……といった感じでしょうか。
236 :
233:2011/11/06(日) 17:38:28.80 ID:IIp6bb9z0
>>234 Q67ならばいけるかと考え、マザボ購入しましたが甘かったですね。
もう少し試してみます。
情報ありがとうございます。
>>233 仮想PCのメモリーの割り当てを2.5GB(2,560MB)以上にしてない?
その状態で、ESXiからの起動失敗のエラーメッセージを参照して、メモリーホールを指定してから起動してない?
ウチのESXi4でも同様の症状でBSODが出るよ@XP(32bit),7(64bit)。
メモリーホールの項目を削除して、メモリーの割り当てを2.5GBにしてから仮想PCを起動して見てホスィ。
238 :
233:2011/11/07(月) 03:41:33.73 ID:Eag2mzfp0
>>119 ご返信有難うございます。119さんの書き込みみて、自分もやってみようと思いました。
メモリ3G与えていてメモリホールを指定していました。
メモリホールの指定を削除して2.5Gに落としてみましたけど結果は同様でした。
1Gにしても変わらずです。
ゲストからデバイスまでは見えているのに動作できないのはなんとも悔しいです。
>>238 デバイスまて見えててパススルー出来ないのは悔しいねぇ・・・。
ママンにパススルー成功の報告がない、と上の方で書かれてるから、恐らくはママンの問題なんだろう。
UPSをつかった停電時の自動シャットダウンについて教えてください。
esxi4マシンと、iSCSIマシンはそれぞれ一台あります。
esxi4マシンを先にシャットダウンさせてから、iSCSIマシンをシャットダウンさせたいと思っています。
esxi4マシンのゲストとして、vMAが動作しています。
vMAでAPC-UPSからの非常信号をキャッチして、esxiをシャットダウンさせる仕組みをとっているとします。
esxiがシャットダウンを開始するまえに、ゲストOSはvmware-toolによって自動的にシャットダウンしていきます。
こうして、安全にesxiが全てシャットダウンした後に、ようやく、iSCSIマシンをシャットダウンさせたいのですが、
esxiが「シャットダウンした後に」iSCSIをシャットダウンさせるにはどうすればいいでしょうか。
iSCSIにもups監視デーモンをインストールできます。
iSCSIマシンがesxiホストのネットワークポートを監視して、
pingに失敗したときに、esxiはシャットダウンしたとみなして、
iSCSIマシンが自らをシャットダウンさせる方法を考えましたが、無理があるので、
別の方法を考えています。
皆さんはどうやって、iSCSIマシンとesxiを停電時に安全にシャットダウンさせていますか。
教えてください。
>>240 LANでつながってるだけなら、ネットワークが切れた後のこと(シャットダウンが完了したか)は知りようがないんじゃ・・・。
242 :
名無しさん@お腹いっぱい。:2011/11/09(水) 07:45:02.30 ID:xc6OsOuN0
>>240 UPS監視デーモンのシャットダウン時間を長めに設定するとか、
iscsiのマシンがlinuxとかなら、shutdownコマンドをシェルスクリプト
にしてpingが通らなくなったら実行するように改造すればいいんじゃない。
>>240 vMAをiSCSI非依存で動作するようにしてvMA側からiSCSIを落とした方が良いと思う。
停電時対応という事なので、全てのゲストが正常にシャットダウンできるとは限らないでしょう?
その際でもタイムアウト監視後iSCSIはシャットダウンプロセスを走らせた方が安全だと思うので。
・やりたいこと
vMAがUPSの停電時信号を受けとって、esxiにシャットダウン命令を発行します。
すると、esxiから各ゲストのvmware-toolにシャットダウン命令が出されます。
ゲストのシャットダウン順序は、vMAを最後にしておきます。
vMAではシャットダウンプロセスに入る前に、iSCSIに対してシャットダウン要求を発行します。
iSCSIはそれを受けてしばらくしてからシャットダウンします。
・わからないこと
vMAがシャットダウンプロセスに入るタイミングで、iSCSIサーバーに対してシャットダウン要求を投げる方法
>>243 >vMAをiSCSI非依存で動作するようにしてvMA側からiSCSIを落とした方が良い
これは気づかなかったことなのですが、
vMAをiSCSI非依存で動作させることでどのようなメリットがあるのか、ピンときません。
>停電時対応という事なので、全てのゲストが正常にシャットダウンできるとは限らないでしょう?
>その際でもタイムアウト監視後iSCSIはシャットダウンプロセスを走らせた方が安全だと思うので。
esxiのシャットダウン時に全てのゲストでvmware-toolによって自動的にシャットダウンしないかぎり、
esxi自身はシャットダウンしないのでしたっけ。
>タイムアウト監視後iSCSIはシャットダウンプロセスを走らせた方が安全
はじめに挙げた方法をとる場合は、
esxiシャットダウン時にvmware-toolによってゲストのうち一番最後にvMAがシャットダウンプロセスに入ります。
うまく行っていれば、vMAがシャットダウンに入る段階で、他のゲストのシャットダウンも進んでいると思います。
vMAは自らをシャットダウンさせる前に、iSCSIサーバーに対してシャットダウンを要求します。
シャットダウンプロセスに入ったiSCSIサーバーは、esxiをpingによって監視しながら、
完全に通信が途絶えた段階でesxiは正常にシャットダウンしたとみなして、自らを終了させます。
しかし、esxiがゲストを終了させられずに待機状態になっている場合(上で疑問)も考慮して、
タイムアウトを設定して、これが過ぎれば自らを終了させます。
という理解ができました。
傍で聞いてるだけだが、vMAがiSCSIに依存しなけりゃvMAからiSCSIを落とせる、とメリットは明らかだと思うがなあ。
あと、pingが絶対駄目とは言わないが問題点注意点の存在に気付いてるのか、とか。
自分のやりたいことに固執してしまって全体が見えてないな。落ち着いて考えた方が良い。
>>245 のメリットが見えていない所なんかがその典型だ。
vMAはESXiの各VMの管理ができるんだから、
ESXiのシャットダウンプロセスに頼らずコントロールしたほうが良いんじゃ無いかというあたりから
全体を見直してみる事をすすめる。
>>245 >vMAがiSCSIに依存しなけりゃvMAからiSCSIを落とせる、とメリットは明らかだ
その通りでした。はずかしい。
>>246 そうですね。esxiに関係なく、vMAは動作していた方がいいですよね。
まとめてみます。
vMAは別マシンで動作させておいて、UPSからの非常信号をキャッチできるようにしておいて、
停電時に、シャットダウンプロセスに入る。そのシャットダウンプロセスでは、まず、esxiにシャットダウン命令を送信する。・・・(1)
↓
シャットダウン要求をキャッチしたesxiではシャットダウンプロセスが開始される。
esxiの各ゲストはvmware-toolによって自動シャットダウンし、すべて完了すればesxiもシャットダウンし、電源が落ちる。
↓
シャットダウンプロセスにあるvMAは、その後
esxiに対してpingを送って到達を調べることによって、esxiがシャットダウンできたかを確認する。
pingが通じなくなれば、esxiは安全にシャットダウンしたとみなす。
あるいは、pingが通じている場合でも、設定したタイムアウトになれば、esxiはうまくシャットダウンできなかったとみなす。
いずれの場合でも、結果をログに記載、メールで管理者に連絡し、iSCSIマシンに対して、シャットダウン要求を発行する。・・・(2)
余裕があれば、iSCSIマシンに対してもpingによって安全にシャットダウンできたかを確かめ、ログに記載するかメールで管理者に連絡する。
同様に、タイムアウトの設定もしておく。
その後、vMAは自身をシャットダウンする。
こういう流れになりました。
ご指摘ありがとうございます。
何かおかしなところ、改善点があれば教えてください。
あと、上の流れの中で、次の実現方法が分からない状態です。
アイデアがあれば教えてください。
(1)esxiにシャットダウン命令を送信する。
(2)iSCSIマシンに対して、シャットダウン要求を発行する
要点を自分でまとめられてないから文が長くなる
>>248 まとめというよりも、フローチャートですね。
>>247 えっと、なんか一段と混乱してるようにみえるんだけど、、、
まさか、私の知ってるvMAとは別のvMAの話してる?
http://www.vmware.com/support/developer/vima/ わざわざvMAを導入して管理しようとしてるのに(1)の質問が出てくるのが理解できない。
(2)についても、停電時じゃない時に例えばメンテナンスの時にはシャットダウンはどうやってるの?
それと同じ事をやれば良いだけなんだが、、、
あれもこれも不思議な状態になってるので、質問する前にそれぞれの機器のドキュメントをちゃんと読むか
ちゃんとしたサポートを受けられる体制を整えた方が良いよ。
思い込みだけで突っ走ってもろくな事にならない。
>>250 もちろん、vMAは、VIMA仮想アプライアンスのことです。
>なんか一段と混乱してるようにみえる
>あれもこれも不思議な状態になってる
具体的に、指摘していただけると助かります。
>vMAを導入して管理しようとしてるのに(1)の質問が出てくるのが理解できない
vMA標準コマンドで、esxiのシャットダウンができるのですか。
http://communities.vmware.com/docs/DOC-11623 一応、ここを参考にしました。
perlのスクリプトを実行する必要があるかと思います。
考え方はまともだと思っているのですが。
>(2)についても、停電時じゃない時に例えばメンテナンスの時にはシャットダウンはどうやってるの?
>それと同じ事をやれば良いだけなんだが
iSCSIは普通のLinuxでesxiではないので、(1)と同じようにはできないと思いますが。
>>251 あなたが管理しようとしているvSphereコンポーネントには何があるのか列挙してみてください。
それらの中でvMAで電源管理できるものはどれか上げてください。
もう、具体的に指摘できるほど言葉が通じてないのよ。
253 :
名無しさん@お腹いっぱい。:2011/11/09(水) 23:37:58.65 ID:FH/0+1I40
メンド臭いからPowerChute Network Shutdownでも買えば?
>>252 >あなたが管理しようとしているvSphereコンポーネント
>それらの中でvMAで電源管理できるもの
おっしゃっている意味がわかりません。vSphereコンポーネントって何でしょうか。
単に、ゲストのシャットダウンができればそれでいいのです。
これまで、何の不自由も感じたことはありませんが。
あなたは、私をからかっていますね
>>252 >あなたが管理しようとしているvSphereコンポーネントを挙げてください
>それらの中でvMAで電源管理できるものはどれか挙げてください
vSphereコンポーネントを、vMAから電源管理するの?
言っている意味がわからない・・・
できるものなら、あなたが挙げてみれば?
これは、つり認定されても仕方ないでしょう。
不自由が無いならそれで終わりだ。ご苦労様でした。
>>256 えっ、私がつり認定なのですか?
じゃあ、最後に一言、感想。
教えたくなければ、はじめから黙っていれば良いのに・・・
傲慢で、厭味なzldIAdxQ0につきあって、心がひどく疲れてしまった。
ヒントをくれたのは、
>>246レスのときだけ。
その後、いったい何が気に入らなかったんだろう。その人、急に人格が変わったな。
>>257 そりゃ、
>>250のリンクの先にあるドキュメントぐらいは読んどけと言われてるのに
>vSphereコンポーネントって何でしょうか
とか言うからでしょ?
>>257 傍から見たら、お前も相当うざいけどな。
確かに相当うざいな
>>251 >>257 > >vMAを導入して管理しようとしてるのに(1)の質問が出てくるのが理解できない
> vMA標準コマンドで、esxiのシャットダウンができるのですか。
>
http://communities.vmware.com/docs/DOC-11623 > 一応、ここを参考にしました。
> perlのスクリプトを実行する必要があるかと思います。
>
> 考え方はまともだと思っているのですが。
普通にマニュアル見てみたけど、すぐに vicfg-hostops.pl コマンドが見つかったぞ。
おちょくってるのかお前?
> iSCSIは普通のLinuxでesxiではないので、(1)と同じようにはできないと思いますが。
普通の Linux を遠隔からシャットダウンする仕掛けを作ることが
自力ではできない、と言っている?! 本気ならもう何もかも諦めて
田舎暮らしでも始めた方がいいぞマジで。
うざいとか言ってるわりに親切なおまいらが好き♪
>>260 ありがとうございます。私もこりずにまだ見ていました。
でも2chのコトバキツイのはどうにかならないですかね。
外国みたいに紳士的に振舞ってほしいなあ・・・
vMAを使い慣れていなく、もっぱら、googleで検索するばかりで、マニュアルは読んだことがありませんでした。
vicfg-hostops.pl コマンドって、どこに載っていたのでしょうか。
>普通の Linux を遠隔からシャットダウンする仕掛けを作ること
遠隔PCで実行するスクリプトから、別のPCをシャットダウンするスマートな仕組みが思い当たりません。
rsyncコマンドかなにかで、ネットワーク経由で、簡単にコマンドを飛ばせないんだろうか。
>>256-259 あと、これだけ言わせて。わたしの感じていることを、わかってほしいから。
わたしのことをうざいと言っている人が要るけど、次のような発言をされて腹が立ちませんか。
>えっと、なんか一段と混乱してるようにみえるんだけど、、、
>まさか、私の知ってるvMAとは別のvMAの話してる?
>あれもこれも不思議な状態になってる(
>>250)
>あなたが管理しようとしているvSphereコンポーネントには何があるのか列挙してみてください。
>それらの中でvMAで電源管理できるものはどれか上げてください。
>もう、具体的に指摘できるほど言葉が通じてないのよ。(
>>252)
zldIAdxQ0が、わざとわざと混乱を引き起こそうとして、
わからない質問までして混乱させようとしている魂胆が見えたんです。
これは、嫌がらせじゃないですか。
少なくとも、オープンソースつかったことがないのかと思いました。
わたしだって、別の分野ではちゃんと貢献していますよ。
すみません。とても残念だったので。もうzldIAdxQ0に対する批判はやめます。
>>263 2chは、あなたのブログではありません。
もう消えろ
267 :
名無しさん@お腹いっぱい。:2011/11/10(木) 12:20:35.88 ID:Up8VznU/0
いいぞお前らwww もっと暴れてこんな糞スレ二度と使い物にならないようにしてやれwwwwwww
269 :
名無しさん@お腹いっぱい。:2011/11/10(木) 12:47:06.64 ID:bTB+ONbX0
ESXiのパッチてオリジナルのISOとサイズほとんど同じだけど
全部入れ替えてるの?
典型的なユトリだな、、、、、
もうほっとけよ、、、、、、
いったい、何が起きているのか、さっぱりわからん。
2CH脳とは、日本の恥だな。
2CH脳って、どうでもいいことに反応するのな。
何?子ども時代のトラウマがそうさせているのか?
つまらない。もっとましな大人になれ。
もうレスしないから。
やっと帰ってくれたか
コミュ障はこれだから困る
>>274の新参が便乗して何を言う。
このように、
数レスさかのぼって表面的なコトバを拾い上げて反応するのが、2CH脳だ。
ぶつ切りの、ハードディスク上のデータの一片だけを拾って反応するのだ。
すなわち、シーケンシャルな個人というものが存在しない。
何が言いたいかというと、そんなこともわからない
>>274がコミュニケーション障害だということだ。
>>265 >vMAマニュアルを探して、コマンド一覧のようなものを確かめたいと思います。
あなたの嫌いな人が2番目に答えてくれてる所がマニュアル置き場でを指してるよ。
最初から親切な回答が返っているのにそれをみてないからみんなから攻撃受けるんだよ。
我ながら、親切だな。
しかし、ソフトウエア(というよりはシステムか)はマニュアルを読まずにググって使うって
発想の人がシステム組もうとする時代なんだな。
>>276 冷静な人が一人でもいらしゃって、ほっとしました。
おさわがせしました。
>>277 じゃあ、教えてやろう。
私が ID:zldIAdxQ0 だ。
最初から親切に、マニュアル、それも日本語のドキュメントがある所をさして、
冷静になって共通の用語を用いて会話をしようとしているのに、あなたが勝手に頭に血が上って
>>263 になってかっかしてるだけだ。
週明けまで待って冷静になって自分が書いた事を見直してみろ。自分が
>>250 を冷静に見ないで
>>271-272 や
>>275 になってたことがわかるから。
そして2度と来るな。
こいつ、こないだからこのスレに来ている、業務用に自作PCで組むからRAIDカード教えろって質問してたやつだろ?
iSCSIでNIC分けて負荷分散するだのいってたのも同じやつか?
だらだらと長い文章書きながら、他人のアドバイスには耳を傾けず、ひたすら自分の質問を繰り返すところがそっくりだ。
業務で「ソースは2ch」とか通じる時代になったのかあ。
「サポート体制は2chの親切な匿名の方々がいるので万全」ですね。
>>279 違う人だとしても、この手のモノ使うのにリファレンスもマニュアルも読まないってアホすぎる
傍目で見てても
>>260 でほぼ答えがでてると思うんだけど、これでも判らない?
何に使うかは知らないけど業務で使うならやめた方がいい
スキルが低すぎるから何かあったら取り返しつかない
お客に売るなんてもってのほか、自分で使うのも怖いレベルと思った
マニュアル読めない人に使えるものじゃないよ、だから無料なんだから
もういいじゃない。ここをサポートセンターと勘違いする馬鹿がいた。ただそれだけ。
面白いからもっとやれ
284 :
名無しさん@お腹いっぱい。:2011/11/11(金) 00:49:41.98 ID:R0g7gsNI0
わかんなくなったら
rm -fr /
でOK。問題がクリアになる。
>>280 流石にそれは無いと思う。
>>281 下手に首を突っ込まない方が良いってアドバイスもしたけど、そうもいかない事情があるらしいよ。
今ある複数のPCをコンバートして1台のPCにまとめたいと思っています。ESXiはXenClientのようにESXiをインストールしているPCから複数のOSを切り替えて使うことはできますか?
>>287 できません。
ESXi上で動作する仮想マシンをリモートからアクセスして利用するか、
素直にXenClientを使うかのどちらかにしましょう。
トリッキーな方法がないこともないのですが、それはESXiをみっちり
使い倒し、その世界観や技術的詳細を十分に理解し、スキルをつけ
た後でないと無理でしょう。
>>288 コンバートしての環境がそのまま移せるのが魅力だったのですが残念です。
playerを複数起動することにしてみます。
ようわからんが
コンバートしてホスト上で動いてるんならクライアントからそのゲストを切り替えて使えば良いような
もしかして
複数の物理PCをコンバートして1台の物理PC(ESXiサーバ)上に、複数の仮想PCとしてまとめたい
という話だったりしない?それならESXiのまったく基本的な使い方なんだけど
>>291 そこまではできるだろ。
ただ、ESXiマシン上でそれらを操作したいってのは無理な話。
別途、Clientをいれたマシンが必要と。
>>291 > 複数の物理PCをコンバートして1台の物理PC(ESXiサーバ)上に、複数の仮想PCとしてまとめたい
コンバートの後、物理PC(ESXiサーバ)を直接操作しWin7とWixXPとかを同時に切り替えながら使用したいのです。
>>293 ESXi インストールすればすぐにわかると思うが、ESXiインスコしたマシンは、
マネージメントIPアドレスの変更や、シャットダウン、ログの確認ぐらいしか出来ない。
仮想化されたマシンの操作は、別の物理マシンが必要。
>>294 昨日ESXiとクライアントのインストールはしたんですが本体から直接操作はできないものかと思い質問しました。
>>295 ESXだったら、サービスコンソール内蔵だったから、出来たのだろうけど・・・。
ようはホストマシンをリモートじゃなく直接操作したいって事?
それならホスト型のプラットホームの方が良いよね
>>296 いいえ、できません。
と釣られてみるテスト。
確か以前にその話題あったな
パススルー使ってケーボードやモニターをホストで使うんだっけ?
その辺は自分で辿り着ける人でないときつい
HDD4台積んでる環境で、それぞれdatastore1〜4としたときに
datasotore間のファイルコピーが激しく遅いです。
ClientのGUIで3GB程度のISOファイルコピーするのに10分以上とか・・・。
指示端末(Win7)を経由しているのかと思い、SSHでログインしてCPコマンド使っても同様。
逆に、Clientで指示端末にある同じISOをアップロードするのは数分。
似たような経験された方、確認すべき点や改善方法やがあれば教えていただけないでしょうか。
環境
CPU:Xeon L3426 MEM:16GB HDD:2T×4 LAN:GbE
ESXi 5.0(パッチ適用前後も変わらず)
>>301 vCenter Converterでやってみたらどうなる?
clientのファイル操作はどうだったか覚えてないが、sshのが遅いのは確か。
あれはI/Oが強烈に制限されてる。なんかの嫌がらせ。
ESX 3.0.1 とかその頃、サービスコンソール上で普通に cp とか sftp で置こうとして
異様に遅くて参ったという経験ならある。
そのときは Advanced Settings の Buffer Cache という所の値をいろいろ調整したら結構良くなったけど。
ESXi 5.0 ではこの辺のパラメータ調整は全くやったことないのでどうなるか分からん。
305 :
名無しさん@お腹いっぱい。:2011/11/13(日) 22:14:11.34 ID:jcI6T1x/0
すいません。
先日質問させていただいたものです。
何度も何度もといわれるのを承知で書き込んでいます。
ノートPCでESXiを動かしたいと思っています。
しかしながらESXiを導入するとネットワークカードがないといわれます。
ESXi5にて稼働させることができるネットワークカードがあれば
ご紹介いただけないでしょうか?
なにとぞよろしくお願いします。
ESXiを導入しても使えるNICを搭載しているノートPCを買えばよい
intelやbroadcomのチップを搭載したPCであれば動く可能性が高い
あまり新しいNICだと駄目なものもあると思うが・・・
PCカード等で増設するのは絶望的だろうな
>>305 オンボNICをESXiが認識するノートPCを探すべし。
増設カードの利用は、基本的に不可。
理由は分か・・・分かってないから何度も聞くのか。
P C カ ー ト ゙ ス ロ ッ ト を 動 か す 為 の ト ゙ ラ イ ハ ゙ ー が E S X i に な い か ら
どんなOSでも、何でも全自動PnPで組み込まれる、って勘違いしてないか?
半角カナを使うのはやめて下さい。
読みにくい
ついでにトリップ付けるのもやめてくれ。
そういう形で自己を主張しなくていいから。
314 :
コテ班:2011/11/14(月) 21:21:48.43 ID:k43Qo9BL0
名無しで書き込むのやめてくれ。
ID変わると誰の書き込みかわからないから。
狙って読みづらくしてるとしか思えないよ。
PCIe mini card が載ってるノートPCなら、PCIe mini cardで
Intelのカードを探すとよいかもね〜
動く保証はどこにも無いが、人柱で。
319 :
301:2011/11/14(月) 22:57:59.06 ID:D7GENW3L0
レスありがとうございます。
>>302 Converterが扱えるのものに、ISOファイルは含まれていないようでした。
で、SSHは制約があるとのことで、Buffer Cacheの変更を検討したのですが、
ホストの再起動が必要らしく、長時間止めると困るOSがあったので試せませんでした。すみません。
速度向上の一応の解決策として、
・FreeNAS8.0.2に、HDD4本のdatastoreを割り当ててRAID-Zを構築
・5GBのメモリを割り当て。
・同一ホスト上にiSCSIでdatastoreをマウント。
としたところ、そのdatastoreに対しては3GBのISOファイルコピーが1分以内で終わりました。
欠点は、割り当てメモリが少ないと効果がない点と、
コピー中にdatastore上の仮想OSがパフォーマンスダウンすることですね・・・。
通常時はSSD並のパフォーマンスが出るので、しばらく様子を見てみます。
5.0でついたSSDをスワップにするやつ調子いいかな?
3.5のHDDトレイにSSDが乗らないんだがどうすれば
アダプタ買うなり、転がすなり好きにしろ
>>321 3.5inchHDDに外寸もコネクタ位置も互換に変換するボックスがあるから探せ。
そもそもトレイに乗せる必要があるのか?
そのメリットは?
>>323 おおう、そんなのあるのか。店頭で見たこと無かった。ググってみるわ
>>324 トレイに乗せずにどうやって使うんだよ・・・内部か?
SATAポートなら余ってるかもだが電源どうすんの
と、言う話ではなく
>>322ぽくトレイに乗せずにそのまま奥につっこめという事か。
手が届かないのと抜けそうで怖いんだがマジでか
>>319 内部のdatastore間のファイルコピーは確かに遅いよね。
多分、外部向けのI/Oに、よりリソースを振り向けたいからと言うESXiの設計思想だと思うよ。
>>321 2.5inch IDEの時みたいに、ズレて刺さる事は無いから、刺されば桶かと。
>>324 ホットスワップ可能な状態なストレージなら、HDDはケージに入れる為にトレイに固定出来ないと。
>>325 SSDはHDDと違って、自身で振動しないから、両面テープで止めてても問題ない
発熱もほとんどしないし
今日ツクモで叩き売りされてた東芝の64G SSD買ってきたからホストキャッシュに設定してみよっと
設計思想(笑)で笑わせてもらったので書いとく
vmfs 間のファイルコピーは vmkfstools でやれ、cp は使うな
ちまちまブロックへ書き込む cp と vmfs は相性が悪いんだよ
あー、vmfsはブロックサイズも通常のOSとはまるで違うしなあ
トレイに両面テープではっ付けてSSD突っ込んでみたが位置が割とシビアww
ちゃんと刺さってるのかどうかわからねえw 変換ボックス買ってくるわ。
動いたらESX5のSSDキャッシュ動作報告するね
>>329 cpは実はnfsでも遅いんでsshで入った環境は何かしら制限されてる
vmkfstoolsはsnapshot吹っ飛ぶんでそれでもいい人むけ
ということでpythonで簡単なファイルコピー書くとバッファ量も自分で設定できておすすめ
予めファイルサイズ確保して書き込んでも遅いんだけども
半ざしや斜めざしで、いつかショートして壊れそう
>>332 斜め差しはコネクタの形状で発生しないように工夫して
半差しは端子の長さを変える事で壊れる事が無いように工夫してある
そういう意味ではSATAは頑張ってるよ。それでもいろいろ起きるけどね。
ここっESX ESXiスレだよな。。。よくわからん内容のがスゲーかいてあったからすっ飛ばした
>>332 それが無い様にコネクター側に工夫がしてあるのが、SATAのコネクターな訳だが。
>>333 SATAのコネクターは、垂直方向の力には、とことん弱いからねぇw
今使ってるm4 128GBは、SATAコネクターがもげたJunk品を拾ってきて、直して使ってるよ。
>>335 仕様上の挿抜回数は50回以上だからね。
正直SSDの話なんかは自作PC板行くほうがいい
>>303 ネットワーク越しにデータストア上のファイルをコピーするのは、「ありもの」や「ムリくり」(ようはタダでやりたい)でやると
異常にコピーが遅い。たぶんわざとだろうなぁ、便利で早い速度ほしけりゃ金出せ!金!といわれているようにしか思えん。
バージョンが変わるたびに、締め付けがきつくなってくるような気がする。
>>338 データストアブラウザでアップロードするときの速度には特に不満無いけどね。
あと、仮想マシンをエクスポートするときの速度も十分速い。
それ以外は遅いな確かに。
安鯖にESXi4いれて使ってるけど、PT2認識するよね??
今週末試す予定だけど先人者いたら頼む
安鯖とはNEC 110Ge になります
VT-dの仮想化支援ないとPCIパススルー使えないんじゃないの
鼻毛でPT2て動作報告結構無かった?
XenでのPT2の動作報告は見た事有るけど,ESXiはみたことないなー
USB接続のTVチューナーをUSBパススルーで使うのは簡単だったよ。
もっともUSBパススルーはVT-d使わないので動いて当たり前なんだろうけど。
>>340 PCIのカードはパススルーほぼ無理です
ESXiでは
>>340 どっかでPT2パススルー出来た、って報告が有った希ガス。
>>343 見た記憶がある。
>>346 PCIバス自体のパススルーと、PCIのカード1枚挿しなら、パススルー出来る可能性がある。
ソースはウチの環境。
PCIに1394のカードを挿してパススルーして使ってるよ。
でも、空いてるもう1本のPCIスロットに何かを挿してパススルーしようとすると、バス競合が発生して2本共パススルー不可になる。
どうやら、PCIブリッジ自体を1つのマスターとして掴んでいるらしい。
鼻毛かぁ。
前世代のGe110なんだけど、参考になったよ
ひとまずやってみる。情報サンクス
110GeってチップセットはIntel 3200ではなかったかな。
これってPenryn世代のハードウェアだよね。LGA775の。
ということはVT-d非搭載ということになるので、ESXiのデバイスパススルー機能は使えないはずだよ。
「パススルーを構成」という箇所がグレーアウトされてて押せないはず。
>>349 あれ?そんなはず無かったような?と思って調べてみたが、
3200SeriesでもVt-d行けるよ、BIOS次第だけど。
VT-d自体はICH9から入ってるから。
351 :
名無しさん@お腹いっぱい。:2011/11/20(日) 13:25:39.16 ID:RuS+BfNt0
今まではVMwareESXiをWindowsでclientを使って動かしていたのですが、
メイン樹がcentOS6なのでLinuxで動かしたいと思います
Linuxの場合、WindowsみたいにGUIで動かすことは出来ないのでしょうか?
もし出来るのであれば対応ソフト名を教えていただけないでしょうか?
>>351 ゲストwindowsでclient動かしてリモートという手もあるが
どっちにしろ最初の起動はCLIになっちゃうね
ESXi5はどうだっけ?
353 :
名無しさん@お腹いっぱい。:2011/11/20(日) 14:17:59.43 ID:Q4hCWNWA0
こんにちは
VMware workstation8上にESXi4.1を導入しました。
そのESXi上に64bitOSを導入することができません。
何かしら設定があるのでしょうか?
ESXi4.1をESXi5にすると64bitOSが導入できるのでしょうか?
お教えください。
あまり覚えてないが、設定があった気がする。
VMware PlayerにESXi4.1をインストールして64bitゲストを動かしたことはある。
ESXi5は知らないが、同様じゃねえかな。
nested esxi 64bitとかで検索してみるといいかもしれん。
>>353 仮想マシンの設定から「プロセッサ」→「Intel VT-x/EPT または AMD-V/RVI を仮想化」
にチェックを入れてみてね.
357 :
名無しさん@お腹いっぱい。:2011/11/20(日) 15:53:10.82 ID:Q4hCWNWA0
>>356 導入ができました。
ありがとうございました!
>>351 Linux上でVMware Playerを動かして、そこでWindows & vSphere Clientを動かす
というのはどうじゃ?
Web Clientは現状たいした機能がないので、まともに使おうと思ったらやはり
vSphere Clientは要るよ。
VCBってvSphere50には無いのですか?
vcbMounter.exeを愛用していたのですが。
361 :
名無しさん@お腹いっぱい。:2011/11/23(水) 10:57:41.00 ID:W0J997i10
なんでVCBやめちゃうのかなあ
「API対応してるバックアップソフト買え」て不便でしょうがないよ
無償のソフトにそんなこと言われてもなぁ・・・
こーゆー輩が増えるから、どんどん機能削られてしまうんだよな
ESXi 単体で、SATA-0 と SATA-1 に繋いだ HDD の
ソフトウェア RAID1 ってできるっけ?
>>363 ESXi上ではそれぞれ個別のHDDとして認識され、ソフトウェアRAIDできない
ゲストOS上でやるべし
>>340じゃないけどPT2をゲストOSで使えるようにしたかったのでやってみた。
結果はゲスト起動と同時にホストが死ぬ(vSphere Clientも即切断された)。
PCIバス1個のスロット1個だから問題ないと思ったんだけど・・・。
ESXi5
i5 650
Shuttle SH55J2
VT-d有効
試したゲストはVista 32bit
こんな感じ
過去何人かがESXi+VT-dでPT2にチャレンジしてるが、
撃沈報告しか聞いたことが無い。
仮想鯖でPT2を使いたい人はESXiを諦めて
Xen or KVMに行ってしまってるかな
あっちは動くらしいので。
以前に成功例が報告されてたと思うのでググってみたけど
ESXi関係なく鼻毛でPT2鯖にしてるのしかヒットしなかった
もしかしたらこの辺のを勘違いしてたのかもしれん
16GBのサーバにESXi5を入れたんだが、vSphere Clientのリソース割り当てを見ると
メモリの合計容量が13583MBとなっているんだけど、こういうものなの?
残りの2.5GBは何処へ・・・
32bit Windowsの3.2GBの壁みたいに何だかスッキリしないんだがw
ESX自身が動作するためのリソースとして予約されてるから諦めれ
それ「リソースでvmに予約指定できるメモリ」の合計量でしょ。
ESXが認識してるメモリは16382MBと出てるはず。それに
16Gのマシンでvmに合計16GBきっちり予約割り当てできちゃったらホラーだろ?
>>372 そういえば、ESXi4の頃は1GBぐらいしかシステムは使ってなかった気がしたが
5になったら2GB以上も喰うようになったのか
それとも物理メモリの量に応じて相対的にシステム予約メモリは増えるのかね
32GBの物理メモリを載せてるとシステムは5GBぐらい使っちまうのか
4の時点でESXi用のメモリは2GBを見積もるようになっていた。
実際の使用量は知らないが
>>371 24GのマシンにESXi5を入れてるけど、リソース割り当てのメモリの合計容量は21507MBってある。
BIOSを確認する以外の方法で、Intel-VTまたはAMD-Vが有効に
なっているかどうかを確認する方法って無いでしょうか?
ssh繋いでコンソールからコマンドで確認でも良いですし、
vSphere ClientからGUIで確認する方法でも構いません。
もしあればご教示よろしくお願い致します。
>>377 64bit OSをゲストで動かしてみる
64bit OSをゲストで動かすには仮想化支援機能(Intel-VTまたはAMD-V)が必要
Windows Server 2008 R2のisoイメージを使って仮想マシンを起動して
みればわかるよ
>>377 ESXi のシェルにログインして以下を実行
vsish -e get /hardware/cpu/cpuInfo
わかる方いれば教えてください。
最近WS2008からESXiに乗り換えてきたのですが、環境上物理マシンに1つしかIPが割り当てされないのでNATで運用しようと思ってます。
それで、仮想NICをNAT動作させるようなことはできそうなことが見つけたサイトに書いてあったのですがポートフォワードさせて外部から仮想マシンにアクセスしたい場合はどのような構成にすればいいでしょうか?
WS2008にはNAPTサービスがあったのでそれで実現していました。
>>380 ルータ用に仮想ゲストを作って、物理環境でルータを使うときと
同じようにすれば良いと思うけど…
Vyatta等のソフトウェアルータを使うのが手っ取り早いかと。
httpだけだったらLinuxでリバースプロキシでも。
>>381 やっぱりそうなりますかー。
ちょい面倒ですがそれでやってみます。
ESXi5ってディスクの読み書きがすごく遅い?
ベンチは取ってないけど、前のバージョン(3や4)はあまり感じた事はなかったような。
「遅いな〜」と思ったら、仮想マシン立て過ぎでメモリが溢れてたことならあった。
あと、ドライバが腐ってるのか、ESXi4でも妙にディスクI/Oが遅いマシンがあるな。
5に上げたら急に速くなったり。
>>383 ESXiのI/O処理で一番のボトルネックなのが、HDDのI/Oだからね。
個人利用だと、同一HDDで仮想PCを3台程度動かすと、もの凄い遅くなるよ。
固定容量(flat)の仮想ディスクのサイズを縮小する方法ってあるのかな。
今まで増やすことはあったが減らすことが無かったから凄い壁にぶつかった気分だw
なんらかのHDDバックアップソフトでバックアップ。
HDDを増設して、バックアップを展開。
が一般的?
他の人どうしてる?
基本それだよね。
イメージバックアップソフトが無い時なんかは、
VMware Converter で V2V して仮想ディスクをリサイズしてるよ。遅いけど。
>>387 (1)ゲストOS上でディスク上のパーティションを縮小する
(2)ゲストOSをシャットダウン
(3)ESXi上でディスクを縮小する
こんな感じ
ゲストOSから見たフラグメントが激しい場合はデフラグが必要
>>389 (3)の方法が知りたいんだけど、ヘルプのどこに書いてあるんだろうか…
あ。わかりにくいけど
>>387 は仮想環境上の話ね。実環境じゃない。
SSD上だとデフラグする勇気ないわー
392 :
377:2011/12/01(木) 23:08:40.31 ID:Q1vnwPns0
>>378-379 レスありがとうございます。
おかげ様で分かりました。
特に vsishなんてコマンド知らなかったので知識が増えてよかったです。
393 :
377:2011/12/01(木) 23:20:12.23 ID:Q1vnwPns0
追加で質問させて下さいませ。
ESXi 5.0 を HP ProLiant ML115 G5 にインストールして使用しています。
教えて頂いたコマンドで確認したところ下記の出力でした。
get /hardware/cpu/cpuInfo
CPU global information {
Hyperthreading state:Hyperthreading state: 0 -> not present
HV state:HV state: 1 -> HV not supported
Number of packages:1
Number of cores:2
Number of CPUs (threads):2
Number of licensable cores:2
HV Replay capable:0
First of reasons why replay is disabled on Host:Reason replay is disabled on Host: 1 -> CPU does not support HV Replay
Several reasons why replay is disabled on Host:Reason replay is disabled on Host: 1 -> CPU does not support HV Replay
使用しているCPUは下記です。
get /hardware/cpu/cpuModelName
AMD Athlon(tm) Dual Core Processor 4450B
で、そのCPUの詳細情報は下記です。
http://products.amd.com/pages/DesktopCPUDetail.aspx?id=407 上記サイトに
AMD Virtualization Technology Yes
って書いてありますので、CPU自体はAMD-Vに対応していると思います。
つまり仮想支援機構に対応していると思います。
BIOS画面を確認して、AMD-Vは有効になるように設定しています。
下記サイトを参考にBIOSを設定しました。
http://virtual.cocolog-nifty.com/virtualmachine/2010/05/amd-vml115-2c0b.html なぜでしょうか?完全にこれでAMD-Vが使えると思うのですが。ご教示よろしくお願い致します。
>>390 仮想マシンの「設定の編集」を開く
仮想マシンに接続された「ハードディスク」を選択
右側にプロビジョニング済みサイズが表示されているから、そこを変更
可変容量のブロックデバイスに対応したファイルシステムってあるのかな?
まずオンラインで縮小出来るファイルシステムが思いつかないな。
何かあったっけ?
NTFSは移動出来ないファイルがある最後のセクタ以降、ボリュームの最終セクタまでの間では、
オンラインで縮小は出来たはず。
ただ、移動をしようと思うと、パーティション操作系のツール使って、
再起動も必要になるが。
>>394 それって増やすことはできても減らすことはできなくない?
今試しにやってみたけど数値を減らしてエンター押すと元に戻っちゃうね
環境
ESXi 5
HDD 160GB
プロビジョニング済みサイズ 100GB
パーティション40GBが一つ。残り空き
100GB → 50GB にしてエンター(もしくはOKボタン)を押すと元の100GBに戻ってる
最近使い始めたものなのですがESXiではソフトウェアRAIDの設定は無理でしょうか?
マシンに搭載されてるRAIDコントローラーが対応していないので代用できないかと思いまして。。
>>398 ホントだ、縮小できないね
増やす事しかやった事ないw
後で縮小したくなるくらいなら、最初からシンプロビジョニングで作っておけばいいという話だわな。
パフォーマンスのペナルティはほとんど無いんだし。
もだめぽ
いや、thin だと vmdk 拡張するとき遅いっしょ
1 つの LUN に複数の仮想マシン乗せると特に
>>401 やっぱりないですか…ストレージ側で対応するしかないかなぁ
拡張後も遅いような感じがする。
マシンが多いと断片化するのかな?
安鯖でRAIDつかえなかったらHyper-v入れてそいつの仮想マシンでESXi入れた。なんか気持ち悪いけど貧乏だから我慢する
んで質問なんですがESXiって商用利用してもいいんですよね?公式みたけどその辺書いてなくて…
だめぽ
409 :
名無しさん@お腹いっぱい。:2011/12/03(土) 17:00:46.53 ID:qaU880nt0
まぁ4以前は固定しかなかったはずなんで、継続してる奴だと仕方ないな。
>>408 あれ?だめなんですか?無償なのは個人利用までなのかな。詳細書いてるところ教えてもらえませんか
>>410 http://www.vmware.com/download/eula/esxi50_eula.html EVALUATION LICENSE.
If You are licensing the Software for evaluation purposes,
your use of the Software is only permitted in a non-production environment
and for the period limited by the Software License Key.
Notwithstanding any other provision in this EULA,
an Evaluation License of the Software is provided “AS-IS”
without support or warranty of any kind, expressed or implied.
>>404 thickでも初期状態では場所を確保しているだけでゼロ埋めされていないので
新しい領域に書き込む際にはゼロ埋めが行われて、オーバーヘッドがある。
thinだとそれに領域の拡張が加わるが、ゼロ埋めのほうがだいぶん重いので
thickでもthinでもそれほど変わらない。
アプリのアップデートもいいが、VMはまずサイトをアップデートしてくれ
>>402 >パフォーマンスのペナルティはほとんど無い
詳しく聞かせてもらおうか
>>411,414
ありがとうございます。
411さんの規約を読むと「評価目的なら無償」と書かれていますが…
仕事で使ってるって話はよく聞くんで大丈夫だと思いますが…ライセンス難しい…
>>416 その二つは矛盾しない。無償のESXiも無償ライセンスを入れる前は評価モードだったはず。
>>411 商用で使うのになぜ評価版? 30日だかしか使えんだろうに。
無償版の話じゃないのかね
>>417 あー、なんとなくわかってきました!
評価版はレジストしてない状態で評価期間(30日間)は無償利用が可能で、無償ライセンスでレジストするとこれも無償ライセンスだから無償利用が可能、と。
あんまり深く考えずESXiをダウンロードした際に発行されるライセンスでレジストしとけばOKみたいですね。
有料アプリが記念とかの時に無料でレジストコード配ってる感じなのかなー
よくある、制限機能の多い製品版を0円で購入できますよ、
若しくは、限りなく購入価格の安い製品ラインナップの1つ、
で、購入価格によってライセンスが異なることはない(機能制限はある)、
というものだと勝手に思ってるが違うかも知れないw
おしえてえろいひと(でも無償版を業務に使っちゃってるお話はよく聞くよね)
ESXサービスコンソール上で
パーティション構成の指定した次のサイズを確認するにはどうすればよろしいでしょうか?
/boot
swap
vmkcore
/var/log
lsコマンドで調べればいいですか?どのオプション使えば良いですか?
また、swap と vmkcore のマウントポイントがよくわからないので、
その辺も併せて教えて頂ければ幸いです
先に余所でunixコマンドの基礎を覚えてきた方がいいんじゃないの?
例のiSCSI小僧だろ
>>421 # df
Filesystem 1k-blocks Used Available Use% Mounted on
visorfs 1528016 334752 1193264 22% /
vmfs3 1952186368 688128 1951498240 0% /vmfs/volumes/4e6b5189-619f732f-713e-001b2152d37c
vmfs3 1952186368 3825664 1948360704 0% /vmfs/volumes/4e6b534f-c325fe99-4186-001b2152d37c
vfat 292752 144672 148080 49% /vmfs/volumes/2da668ef-40e5d96b-90bf-855ddb9c5547
vfat 255716 101604 154112 40% /vmfs/volumes/34f290e9-e510916c-438c-17eedaa964c5
vfat 255716 106208 149508 42% /vmfs/volumes/a2f206ec-1ece952b-3ccc-a6dfc62854cc
vmfs3 7322206208 2543165440 4779040768 35% /vmfs/volumes/4e19792b-06bc17cc-aea3-6cf049cb1037
>>422 ロクに回答もできないならレスすんな。スレが汚れるから
ESXi4の単体SATA HDDなデータストア上に2003入れてファイルサーバにすると、
何故か3.5MB/s程度しかreadが出ない。
複数クライアントから同時readしても全体のスループットが3.5MB/sで張り付く。
キャッシュされたファイルはそれ以上の速度出るのでlanは問題ないようです。
どうやらvmかhostのdisk readがこの速度に抑えられてるようなのですが
こういうIO帯域制限ってあります?
IOps制限は無しですし、その他優先度系は全て標準です。
>>426 入れてるHDDの型式に依っては、単純に低速病を発病しているのかもね・・・。
>>426 それうちであったわ。
単純にhddを他に交換すると改善したよ。
Essentials Plus 4から5へバージョンアップした場合
幾らぐらいかかりますか?
>432
普通に購入した代理店で聞けや。
保守契約期間内なら5 Esenntial Plusへは無料。
ただし4→5でライセンス形態に変更があったから使用環境によっては
Essential Plusが利用できないこともある。
なので面倒だから使用環境すべてリストして代理店で聞くほうが良い。
>>420 機能制限あり
サポート窓口は提供されん
その上で
商用利用OKが正しいんじゃないか
上でRAID認識しないからhyper-vの上でESXi動かすって言った者だけど、試したらノーネットワークデバイスって出てだめでした。
しょうがないのでRAID諦めることにします…貧乏辛いわ
>>435 おまえさんはESXiじゃなく
VmwareServerの方がいいんじゃないの?
ESXi上のOSからZFSとか使えるんじゃね
上のってのを読んでないがhyper-vじゃだめなのか?
>>430 何が聞きたいの?
なぜでしょうかって問いにマジレスするとそういう仕様ですとしか答えようがない
何か困っているのかと推測するが、何で困っているのか書いてないのでわからん。
>>435 ESXiでパススルーできる機材なら仮想マシン上で直接構成してiSCSIなりNFSなりでホストマシンに提供するという手も。
まあディスク一個にストア一個を作って仮想マシン側でミラーでも何でもするということもできるが。
なんかすんません。
無理やりにでもESXi使いたかったのは検証のためです。
…って書いたら安いRAIDカード買えって言われそうだな。スレ汚し失礼しました。
ただESXiを動かしてみたいだけなら、Hyper-Vなんかじゃなく
VMware WorkstationかVMware PlayerでESXiをインストールすればいい
>>442 安いRAIDカードだと、ESXiで使えないと思うけど・・・
>>442 安いRAIDカードだったら、某オクに出てるLSI OEMのメーカー取り外し品(富士通・NEC・IBM辺り)の中古で動くんじゃないかな−。
一世代前のカードだったら、5k円切るくらいで大量に放出されてる。
>>442 そら言われるわ、
何が検証したいのか、分からんからな。
ESXi動かしたいだけなら、RAIDなんていらん。
ESXiで使えるRAIDを探してるなら、HCLに載ってるorドライバ配ってる
カードoriSCSIで外出しで。SoftRAIDは×
他に回答のしようがない。
>>445 4.xまでは比較的広範囲で行けるかもだが、
5.0はちゃんと確認しておいた方が良いかも。
切られてるorまだドライバが無いとか有ったりするから。
447 :
393:2011/12/06(火) 13:52:09.32 ID:T5F590j50
>>439 すみません、えっと
やりたいことはハードウェアいじらずに
AMD‐Vを有効にすることです。
なぜか?って書いたのは、AMD‐Vいけるはずの構成、設定なのに有効になってないと思われるので
何が原因か不明だから。
仮想支援機能を有効にしたいだけです。
>>447 どうしても解決したいのなら、VMwareのサポートにでも聞けよ。
えっ
>>447 恐らくAMD-Vが使えるものなら使った方が、何か良いことがある
のではないかと漠然と期待しているという状況なのではなかろうか。
ESXがまともにAMD-Vを使うようになったのはAMDのRVIという機能
が有効になったCPUからで、これってOpteronではBarcelonaという
世代以降だったはず。Athron系だとどの世代からなのかはよく知らん。
このAthron 4450BとやらはRVIを保有していないのではないかな?
RVIを保有していないAMD-Vの場合逆に遅くなるということで
VMwareはあえて対応していなかったはず。同じことはIntelの初期の
VT-xでも発生しており、32-bit仮想マシンではあえてVT-xを無効化
するモードで動作させていた(64-bit仮想マシンの場合、
AMD64とIntel EM64Tの間に差異があり、EM64Tでは対応できない
部分があったため仕方なくVT-xを使っていた)。
その後AMDではRVI、IntelはEPTという第二世代の仮想化支援機構
が提供されるようになり、この結果ハードウェアアシストを活用した
方が性能的にも有利という状況になってきたのでESXはこれらを積極
的に活用するようになった。
なので、盲目的にただただAMD-Vを有効化したいと吠える行為自体
が極めて不適切ということ。
ESXi(free)使っててesxtopをグラフ化したいんだが、
この手のcsvの一部を順次グラフ化していくツールってお奨め有る?
MRTG
VMware-Server2.0.2でWindows7Pro64bitを使っていたのですが、
svgaドライバがうまく動作しませんでした。
ESXIは、まともにWin7は動作しますか。
>>455 ありがとうございます。
移行を考えます。
しかしとりあえずの対策として、
ESXIのvmtoolに含まれるsvgaドライバを抽出してきて、
VMware-Server2.0.2のゲストOSWin7に導入してやるなんてことはできますか。
ESXIのvmtoolって本家サイトからダウンロードできるのでしょうか。
>>456 VMware Workstation の評価版をダウンロードして暫く凌いだ方が賢明だと思うがなあ。
期限が切れてもそのままVMware Playerで使えばいいし。
これ以上はスレチだね。
時にお聞きしたいのですが。
ESXのログってvSPHEREのイベント、およびvar/log/以下、ほか、vmサポート提出用のtgzで固められたログ
以外に何か表示されませんでしょうか。
ESX単体で動いているシステムです。
ESX自体にRAIDステータスを詳細に見れるような
MegaRAID、ASM的ツールってのは提供されているんでしょうか。
なんか、どっかで「ESX自体でRAIDの構成確認できるよ」って話を聞いたような
聞いたことが無いような覚えがあるのですが。気のせいでしょうか。
ともに、ESX4.1です。
そんなものは
ない
おとなしくvCenter Server入れろよ
>>459 前者後者ともに無いよ
vCenter Server導入してもできることはアラームをメールやsnmpで飛ばせることくらい
メーカ独自でvSphereとの連携をするソフトを出してるかもしれないけど
vCenter Serverならハードウェアステータスでアレイやディスクの状態チェックできるんだが
メジャーな奴なら勝手に表示するわけじゃなかったのか
ESXi4.1でDELLのPERC5iという古いカードを入れていますが
vSphere Clientで構成>ストレージを見ると
コントローラー
バッテリー
物理ドライブ
論理ボリューム
コントローラーのポート
についてステータスだけは取得できています
ただ,設定や操作はBIOSからやるしかありませんし、
単純に組んだだけだとドライブ故障してもステータスが変わっているだけで
アラート飛びもしません。カード側で設定してればブザーはなるかな
ESXとESXiとの違いがこの場合には大きいんじゃないかと
>>459 自分で入れれば構成確認も変更も出来るがESX(i)自体には無い。
実例は上の方に書いた。
HP350G6にESX4.1で仮想鯖を運用中です。
最近の鯖にはパラレルポートは無いんですよね。
vmwareのリストにも増設カード(シリアル、パラレル共)が無いし
HPの純正オプションにも増設パラレルは無い。
仮想化したい古い鯖があるんですが、パラレルポート必須なので詰みました。
パラレルポートを仮想鯖に認識させた猛者はいませんか?
是非方法を教えてください。
ちなみにHPのサポートの回答は「ムリポ」でした。
>>467 USB-パラレルの変換器使うんじゃだめなの?
いや、自分は使ってないから、
それで、問題無く動くかどうかは知らないけど。
>>467 USBパススルーで、USB-パラレル変換じゃダメ?
>>467 USBパラレル変換ケーブルじゃダメなの?
あれ・・・
>>468-469の書込みなんて無かったのに書き込んだら出てきた・・・
重複すまん・・・
最近のいわゆるAFTフォーマットのHDDは普通に使えますか?
473 :
467:2011/12/17(土) 11:23:19.20 ID:L0S4H4X40
>>468-470 レスありがと
USBパラレル変換ケーブルだと、仮想鯖ではUSB機器として認識されるの?パラレルポートで認識されるの?
できたらパラレルポートで認識させてLPT1でリソースを予約させたいんですよ。
つなげたいのがプリンタポート形状のハードウェアドングル(認証キー)なんです。
ソフト自体はXPで動くので、XPのドライバが付属する実機を買ったほうが早いのは判ってるんですがね。
>>473 もちろんゲスト側からはUSB機器として見えるが、ゲストにドライバほりこめばパラレルポートに見える。
ドライバさえ入れればUSBシリアルと同様にLPT1とか2とかは設定で弄れるんじゃないの。
>>473 USB機器としてパススルーされるだけだよ。
レガシーデバイスとしては認識させられない。
あとはドングルを制御するドライバの作り次第。
ドングルのような特殊なものだとレガシーLPT前提のものもあるからダメかもしれない。
USB-パラレル変換は安いモノだから、一度検証してみては。
LPT認識のPCIカード買ったほうがいいんでね
VMware ESXiサーバーを構築してもWindowsなければ管理はできない?
クライアントはWindows版だけだよね?
>>473 >>474の言う通り、仮想機に対してはUSBデバイスで見えて、ドライバーを入れる事でLPTにぶら下がる、という動きをする筈。
>>476 PCIのパススルーの方がチャレンジ度としては高いよ。
>>477 Yes.
>>473 475氏が言ってるようにUSBパラレル変換ケーブルだと、物によってはドングル認識しないと思う。
過去に実機でやったことあるけど、うちはメーカがまだあるところだったのでUSBドングルに変更してもらった。
>>477 vSphere5 + vCSAにしてWebで管理していればWindows無しにならなくもないが。
Webで全部の仕事が出来るわけじゃあないから、Windows版のクライアントも構築時には必要だな。
俺は手元のLinux上でVMware Player動かしてその上でXPとvSphere Clientを
動かしてる。こういう人多いのでは?
483 :
477:2011/12/18(日) 12:51:34.77 ID:B3Ybs7uX0
>>481-482 やっぱりWindows機がなくてもLinux、MacなりにゲストにWindows構成してやるしか手はないかー。
真っ先に浮かんだけど、他に方法がないかなと思ったもんで・・・
レスありがとう!!
484 :
名無しさん@お腹いっぱい。:2011/12/18(日) 20:58:10.18 ID:avsnD9Ku0
>>483 ESXi上にWindows立てればよくね?
ただ、vClientをvCenter Serverで使うのはあまりおすすめ
されないらしいが。
485 :
名無しさん@お腹いっぱい。:2011/12/18(日) 21:13:18.70 ID:bnimoiRu0
>ただ、vClientをvCenter Serverで使うのはあまりおすすめ
>されないらしいが。
詳しく
2〜3万の中古NoteにXP入ってるんだからそんなに悩んだり工夫したりするのは労力の無駄に見えるんだけど
そこまでWin機が無い環境というか、置けない環境ってなんかワケありなの?
仮想でXP動かす程度にOSのライセンス保有してるわけで、運用上のポリシーや何かの問題でも無さそうだし。
>>484 ESXi上に立てたwindowsマシンにVNC何なりでアクセスしようという作戦だろうが
それはだめだ。
ESXi上のゲストOS(Windows)から、
vsphereClientによるESXへの接続はできないぜ。
え?
ゲストXPにインストールしたvSphereClientでESXiにアクセスできてるけど・・・
>>488 そのゲストが、「ESXが動いているマシンとは別のマシンにインストール」されているなら可能。
ESX上のゲストOSから、「そのゲストが稼働中のハイパーバイザ環境」に
対するvSphereClientによるアクセスはできないと認識しているけど、違う?
もしかして5から可能になった?
>>484 > ただ、vClientをvCenter Serverで使うのはあまりおすすめ
> されないらしいが。
ここがちょっとわからんかった。詳しく教えて
やって出来ないことは無いだろうと思うが、メチャクチャ使いづらそうだな。
XPのVMを自動起動するようにしておいて、そのXPにVNC等で(RDPじゃあ
ないんだろうから)接続して、そこでクライアントを立ち上げる、と。
その環境を作るまでにはまず外部にWindowsが必要だし、作った後でも
何かの拍子にそのXPが起動しなくなったらまた外部Windowsが必要になるし。
>>489 ウチはハイパーバイザ1台運用だがゲストからアクセスしている
ゲストから自分自身も見えるよ
自分自身のコンソール表示は真っ黒になるけど
因みにESXi4.1無印
うちの場合、リモート端末にしているノートが重くてvSphereの起動が遅くてイライラするので普段は常時起動しているゲストでvSphereを起動しっぱなしでそっちを使用
トラブルとかでそのゲストにアクセス出来ない時はノートでアクセスしている
492 :
467:2011/12/19(月) 09:24:14.29 ID:nE82WGPW0
>>474-480 レスありがとう
PCIパススルーは気になりますが、
既に業務で本格運用中なので鯖の停止やホストへの影響が私では予測不能なので
躊躇してしまいます。USBでできると楽なんですけどね。
USB変換機はプリンターケーブルはあるけど25pin用は少ないです。
でも、980円くらいなら1週間海苔弁でがんばれますね。
個人の趣味なら鼻毛とかのテスト用機材を用意して爆死も有り?ですが
(エッセンシャルなので3台までおk)、本格運用も見据えると躊躇してしまいます。
なんで980円用意するのに一週間海苔弁なんだよw
昼予算(小遣い)\500 - のり弁 \290 = \210、
一日差額 \210×5日間 ってことじゃね (ブワッ
ドングルを使うような大事なアプリを使うサーバの移行に際して、その検証業務で必要なんだろ?
\1,000 しない検証道具くらい消耗品扱いででも買ってもらえよ…
おれも自腹切ることはあるけどさ、食い詰めてまではしないよ。
食い詰めてまで自腹切って奉仕するのが生き甲斐なら止めはしないけど。
外で飯喰って、コーヒー飲んで一服するから普通に2,000円ぐらい使うだろ。
あたしゃ1日3食の諸費の合計が1,500円だな。
そりゃ収入にあった使い方してればいいんじゃね?
>>492 その捻出方法は社会人としては余りに不憫だね・・・。
上の人 or 経理部門に、
検 証 に 必 要 だ か ら 経 費 で 落 と し て く れ る ?
って確認して、ok貰った方が幸せになれるかと。
>>500 今年になって出たみたいですね。
自分が探したときは計測器屋の高いやつか、
海外からしかなかったのでその感覚で書いてしました orz
しかし、そのカード注意書きにドングルとかは動かないってサイトに書いてありますね。
結局人柱にならないと駄目っぽいですねー
USBで追加するパラレルポートはLPT1にならないから駄目かと
以前パラレルポートが無い実機でAcrobat Distillerで嵌まったから
>>500 おお、そのカードなら、パススルー出来る可能性がグッと高まりますね。
>>501 ヒトバシラーの報告も有り難い物ですよ。
>>502 kwsk
みんなストレージなに使ってる?
今までESXi導入してるマシンのハードRAID上にデータストア置いてたんだけど壊れてるのか確認出来ないことに上のレスで気付いたからNASでも導入しようかと思ってるんだけど…
505 :
名無しさん@お腹いっぱい。:2011/12/20(火) 11:21:16.44 ID:+OOXSKls0
仕事で一応なりとも可用性を求められるなら最低でもNetAppかEMCのローエンド。
自宅は非RAID単体ディスク。外部にバックアップを取るだけ。
debianで作ったiscsi
solaris11 11/11インストールして2T×4でraid-zつくってみた
iscsiとfcで接続してみた
しーげとのdisk速攻で1ポン飛んだ
根性なさすぎ
意味不明
>>508 solaris 11でストレージ作ったって話
ファイバーチャネルでesxiと繋げてみた
もちろんiscsiも使えるよ
直接esxに接続できないPCからVMのコンソールに接続したいのですが、
どこをどう設定したらいいんでしょうか?
Niftyクラウドだとできるっぽいのですが、ググッてもよく分からなかったです。
>>503 ごめんAcrobat5.0のPDFWriterだった
こいつがLPT1を要求するんだけど物理的に無い実機だったんで
じゃんあパラレルポートを追加すればいけるべとUSBの幾つか試したけど
全部独自のポートが作れられるだけで肝心のLPT1を作れなかったという
行き詰ってじゃあダミーだろうが!マーク付きでもあればいいんだろと
デバイスはないけど強引にドライバーを突っ込んでデバイスを追加したら
不明な場所で正常に動くLPT1ポートが作れてPDFWriterが動いてしまったという
2000,XP,2003で試して出来た不思議なLPT1だったです
でも変なおかげで助かった
自宅でESX4.1評価版を使ってVMware HAの検証しようと思っています。
AthlonUX2 240e機とPentium G6950機が余ってるんですが、
VMware HAは移動元と移動先のCPUに互換性は必要なのでしょうか?
HA ならいらないよ。
ありがとうございます。
クラスタ組むときにエラー出るかと思ってたんですが、とりあえずやってみます。
いったん停止するから問題無い
ESXi4.1のUSBパススルー機能を使ってゲストOS(CentOS)とUPSを接続していて且つapcupsdで監視してる人っています?
apcaccessを実行するときにSTATUSなどは正常に値を返してくれて実際にShutdown処理を行ってくれるのですが、
負荷率とか入力電圧などの数値が正しく取得できていない気がします。
# 内部温度に関しては常に絶対零度を保ってるという不思議
ちなみにシスログには以下の内容が
kernel: drivers/hid/usbhid/hid-core.c: usb_submit_urb(ctrl) failed
kernel: generic-usb 0003:051D:0002.0001: timeout initializing reports
今の自分には解決方法が分かりません
どなたかご教示ください
環境は
ESXi 4.1
CentOS 6.0
apcupsd 3.14.8
>>518 そうです。正確には-273.1でした
負荷率も常に0になっててありえないと思うんですよ
>>517 UPS何?
モデルによっては、ステータス取得できません
電源状態とかバッテリ状態は取得できますが
USBのデータ転送モードによっては、パススルーに不向きです
アイソクロナス転送モードとか
シリアル接続(USBシリアル変換)とか試してみては如何でしょうか?
>>520 APC Smart-UPS 1500 です
シリアル接続を行うには準備する事や物が多いので、
とりあえずは繋ぐだけでいいUSB接続の方針をとりました
>>521 Smart-UPSなら、ステータス取得可能なはずなので、
>>517 のログにあるように
USBデータ転送失敗(タイムアウト)だと思います
3.14.10に上げると直るかも・・・
USB関係のFIX結構あったと思うので
シリアル接続の際のケーブルは、純正品でなくても
940-0024C互換ケーブルで大丈夫です
Apcupsdのマニュアルの 940-0024C Cable Wiring
>>522 3.14.10に上げてみましたが駄目でした
ついでにCentOSも6.1にあげてみましたが駄目でした
ログを見る限りではapcupsdの問題というよりかはESXiとCentOSの問題ですよね?
シリアルケーブルはあります
もともとはPower Chute Business Editionで運用していたので。
Windows機を潰してESXiをインストールした所、
UPSとの連携をどうしようということになりまして
今回のような事態に陥ったというわけです。
シリアル接続で運用しようと思うとvMAの導入もしくはメディアコンバータでシリアル==>LAN
という手順を行わないといけないため、できれば避けたい道であります
念の為に聞くけど、ESXi下ではないCentOSなら正常動作しているのだよね?
>>524 そういえば試してないです
今から行ってみます
>>524 試したところ正常に値を取得できました # OSはCentOS 6.0
ということは、やはりESXiのUSBパススルーの問題かと思われます
>>523 USB-232C(シリアル)変換はどうでしょうか・・・
確実に動作します と保障できないとこではありますが
>>526 もしVT-Dが使えるのなら、
VM Direct IOでUSBを仮想マシンにつないでみては?
>>517 ハードに密着した情報は、SMBIOSやIPMIなどで取得しているのではなかろうか?
もしそうなら、ゲストOSの情報をいくら参照しても無意味だよね。
ESXiそのものから情報を取得しないと。
このあたりをどう設計・実装するのかというのはAPC次第だと思うので、APCに聞くというのが正攻法かと。
>>529 マザボの型番わかってるし、VMwareのコンパチ情報ページで検索すると良いよ
>>530 UPSの状態をSMBIOSやIPMIで取得出来るとは初耳。
>>528 nicがなにかが重要だね
esxi5はかなりゆるくなったからたいていうごくけどな
>>533 蟹NICですら動作するのだから、逆に動作しなかった報告の方が有り難いかもねw
>>526 CentOSに限らず、Linuxカーネルにおける(主にシリアル通信系の)
USBデバイスの扱い方に起因して発生する問題と思われる。
試してみるとわかるが、同じようにUSBパススルーを使ってもVMが
Windows系OSやFreeBSDとかだと問題なくapcupsdが使えるはず。
経験上、USB接続のUPSをLinuxで制御するのは不安定で、停電時に
本当に本来の動作をしてくれるだろうかと心配になるレベルだと感じた。
うちでは結局、UPS制御のためだけに最低限のリソースを与えてFreeBSD
のVMを動かし、停電時にはESXiにSSH接続してVM及びESXiのシャット
ダウンを行うようにした。
ESXi 5.0 の2台構成で HA クラスターしている環境を構築しています。
APC の PowerChute Network Shutdown をインストするために、
各々のESXi ホストにvMA をインストールしたのですが、HAクラスターの中に
組み込まれてしまって、ホスト間を行ったり来たりしていまいます。
これを固定する方法がありましたらご教示願えないでしょうか?
傍から見ていると参考になったのは
>>538だけで、他はどれもなんだかなー
>>539 アップリンクの無い(Internal Onlyの)仮想スイッチを作成しローカルな名前のポートグループを作る。
vMAに仮想NICを追加し、そのアップリンク無しの仮想スイッチにつなぐ。
うーん、古いノートをUSB起動もしくは格安SSD入れてUPSの管理サーバーにした方が安心できるって事か
>>543 結局仮想化してもハードウェアの数はほとんど減らない。というよくある話。
>543
もしくは538の言うようにBSDかWinのVMを抱き合わせるか。
>>542 そうだった、超基本的な事だった orz
ありがとうございます。
ESXi5 の HA構成と APC UPSで大苦戦中
スクリプトが上手く動かせない。
HA発動による移行後も自動起動・シャットダウンに設定できるように
VMware側で設定できるようにしてくれればいいのに・・・。
HAクラスターは無しにして、落ちたときは、手動でホスト切り替えて使う運用に
したほうがいいかもと思っている。
不意な停電でゲストOSをブチブチ落とされたらかなわん。
最近、金が無いなら仮想化するなと説いてまわってる
ホストが死ぬとすべての仮想OSが死ぬのに予備機が無い構成の提案は潰して回っている
そりゃ元の物理サーバが5台、10台しかないようなケースだろ。
もちっと数がありゃあ仮想化すると安くなる。
>>547 業務で使うなら、安鯖でも良いから確実に動く予備機はホスィ所だよね。
>>548 実機のランニングコストを考えると、仮想化する事に意味は有ると思う訳で。
でもやっぱり、実機が潰れた時の事を考えると、予備機は絶対に必要だよね。
イニシャルコストとランニングコストを秤に掛けて結論を出すと良いかと。
今のところ安鯖でメーカーが動作保障してる&
vmwareのハードウェア互換リストに載ってるのはGT110dぐらいかな
PentiumはともかくXeonモデルが安鯖に入るのかは知らんが
金の有無で仮想化の是非ってのはちょっとこじつけ感があるな
物理サーバ10台の保守メンテ費用考えると1ホストでの仮想化しか出来ないってのは妙な話
ホストスペックその他落としてでも障害時の対応考えた構成で組めという話なら賛成
552 :
547:2011/12/24(土) 12:33:00.93 ID:diNetjCP0
>>548 >>551 最近出てきた仮想化の案件、私は大学の技術職員なのだが、
学科や事務で囲ってた5−6台程度のサーバ室で、何らかの理由で1台サーバを更新
しようという話が出たついでに、全部仮想化しましょうという流れが多いです。なので
サーバ更新の予算が安サーバ1台分しかないのですよね。 ついでにOSライセンスも
WIndows のOEM版をそのまま仮想化しようとか言い出すし。
なので仮想化する場合は、
主サーバ(HW-RAID)+予備サーバ+制御用Windows+Windows鯖のライセンス
が買えないなら、潰して回ってます。
>>552 そりゃ課題解決に繋がらないんじゃという気がする。どうして仮想化という話が現場から上がって
きたのか聞いてみたよね?
外野は知る由もないが、「〜が買えないなら、潰して回ってます。」という答えはよく分からん。
技術に詳しいならば、「学部レベルでは困難だけど、大学全体としてこうすれば実現できるし、
○○の課題も解決できます」みたいな提案して回った方が評価されると思う。
放置しててもサーバ老朽化していいことないし、第一、学生が集まらなくなるだけだよ。
仮想化運用に必要最低限な物すら買おうしないのなら反対も当然だろう。
それなら現状維持のほうが余程マシ。というか「金が無いなら」のレベルが
酷過ぎで例としては不適当だろw
>>552 の言ってることもよく分かる。
>>553 の言うとおり、お金しか見えない人達にも分かるように
提案書作るのは大事だと思うよ。
でも、まともな構成組むと高いのは確かだな。
自分では最低限と思っててもね。
>>552 それは辛いなぁ・・・。
OEM版のWindowsは、鯖を仮想化した状態で動かせばライセンス違反だもんね。
ライセンス? 何それ美味しいの? って人達を説得して\出させるのはなかなか難しいよね。
監視用の端末はシンクラで十分だと思うけどw
>>553 学内全てへの提案とは、これまた恐ろしいですな。
>>555 vMotionが出来る要件だけで(ゲフンゲフン
557 :
547:2011/12/24(土) 14:11:55.50 ID:diNetjCP0
>>553 仮想化と言い出す一番の理由は、本部から来ている節電しろという命令です。
確かに全学的な視点に欠けているといわれても仕方がないな。
全学的となると、本部の節電担当理事が大学計算機センターあたりに命令して
貸しサーバ屋をはじめないと無理じゃなかろうか。
そういう方向性にしたほうが良いと、今後相談が来たら提案してみます。でも
相談してくるのが同じ技術職員だったり、事務寅さんなんですよねぇ。発言権を
持ってない。
あと、加えて、仮想化支援部隊が必要だろうなぁ。仮想化支援部隊が無いと、
貸しサーバ屋を作っても誰も使わないという惨事が起きる。
>>552の要件でハードウェア/ソフトウェアで軽く見積もってもこんなところかな
■ハードウェア
・GT110d 188,370円 x 2台 = 376,740円(NEC特選街価格)
CPU:Xeon E3-1220
MEM:4GB(4GB x 1)
HDD:160GB x 2
■ソフトウェア
・VMware vSphere 5 Essensials(保守1年付) 87,450円(定価)
・Windows Server 2008R2 Std Academic Open(5CAL)付 18,669円
合計 482,859円
実際に数字に出すと仮想化環境だけ(OSとか一切なし)でも46万とか無理だわw
559 :
名無しさん@お腹いっぱい。:2011/12/24(土) 18:32:33.27 ID:IjIEDbdh0
>>510 ベンチとったぞ〜
仮想化したXPからベンチ
XPのイメージはFCでつなげたSolarisのZFSの上に置いてある
-----------------------------------------------------------------------
CrystalDiskMark 3.0.1 (C) 2007-2010 hiyohiyo
Crystal Dew World :
http://crystalmark.info/ -----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 349.292 MB/s
Sequential Write : 342.565 MB/s
Random Read 512KB : 329.862 MB/s
Random Write 512KB : 73.872 MB/s
Random Read 4KB (QD=1) : 22.827 MB/s [ 5573.1 IOPS]
Random Write 4KB (QD=1) : 15.419 MB/s [ 3764.4 IOPS]
Random Read 4KB (QD=32) : 52.975 MB/s [ 12933.4 IOPS]
Random Write 4KB (QD=32) : 39.188 MB/s [ 9567.4 IOPS]
Test : 100 MB [C: 9.6% (9.6/100.0 GB)] (x1)
Date : 2011/12/24 17:42:26
OS : Windows XP Professional SP3 [5.1 Build 2600] (x86)
560 :
名無しさん@お腹いっぱい。:2011/12/24(土) 18:33:13.24 ID:IjIEDbdh0
ちなみにスペックはこんな感じ
ZFSのZILにSSDを使ってます
ZFSのL2ARCはまだSSDにしてないです
MINI ITX好きなんで(^^;
ESXi5
マザー J&W MINIX H61M-USB3
CPU INTEL corei3 2020T 2.60GHz 35W 安くて電気くわなくて4スレッドいけるからいいかなと思った
メモリ 8G * 2 = 16G 最近安くなったDDR3 8G
FCカード Emulex LPe1150 4Gb FiberChannel Host Adapter PCI-Ex4
FCターゲットSolaris11 11/11
マザー ZOTAC H55ITX-A-E SATAが6port INTEL NICなのがgood
CPU INTEL corei3 540 安売りしてた
メモリ 4G * 2 = 8G 本当はもっとほしいとこだが。。。これ以上のらん?
HDD 海門 2T 5900RPM ST2000DL003 * 4 安いうちに買ったんだが。。1本壊れて追加で1本購入高かった
SSD INTEL SSD 311 20G SLCタイプ ZIL用 容量少なくてもSLCがいいはず
FCカード QLogic QLE2462 4G 2port 2portあるんで直結で2台のESXiから使えるよ
>>552 Windowsのライセンスは、プリインストール版でもEnterpriseを買っとけば仮想サーバ4個使えるじゃん。
仮想化するのがHyper-VじゃなくてもESXiでもXen Serverでも。
562 :
559:2011/12/24(土) 18:47:14.39 ID:IjIEDbdh0
そういえばいまデグレってるから
フル性能でてるか微妙(^^;
HDD入れ替えてリビルド中
esxi5って、vmware-serverの次の設定に対応する設定ってありますか。
MemTrimRate = "0"
mainMem.useNamedFile = "FALSE"
ZFSのZIL知らなかったんで調べてみたけどこれいいな。あんま金かけずにパフォーマンス稼げそうだから金無い俺向きだわ
>562
デグレってるかとかはメールで通知がきたりするようにしてるんですか?
うちはユーザー企業なんだけど、SIer に機器構成提案してもらうと
物理鯖なら4千万円で組める構成をVMwareベースで5千万かかる構成にして
「こっちがいいです」って持ってくるから困る。
物理鯖よりコストがかかる構成は論外だって最初っから口酸っぱくして言ってるのに…
よっしゃ、俺がデザインしたる!
…まー、情報が無かったりすると無駄にデカいサイジングになったりしがちだわね。
567 :
名無しさん@お腹いっぱい。:2011/12/24(土) 22:38:51.64 ID:IjIEDbdh0
>564
メールの設定とかしてないです
今回偶然みつけたけど
壊れたの気がつくようにしないといけないなぁ
>>568 ???やっぱり、「シン」指定で良いみたい。
でも、sshでesxi5にログインして、ls -all -hとやってみると、
-rw------- 1 root root 100.0G Dec 24 22:10 guest.vmdk
100GB占有されている。コピーも非常に時間がかかる。
いったいどうなっているのか、教えてください
>>569 わかりました。
esxi5のlsコマンドはグルになっていて、予約されたディスク容量の数値を示すようです。
紛らわしい!
dfコマンドは正確に実際の物理ディスクの様子を見せてくれました。
# df -h
Filesystem Size Used Available Use% Mounted on
VMFS-5 460.8G 11.9G 448.9G 3% /vmfs/volumes/datastore1
11.9GBしか占有されていませんでした。
>>570 単純に、cpコマンドで、シンvmdkファイルを含んだ仮想マシンをコピーすると、
物理的サイズが膨らんでしまうようだ。
# df -h
Filesystem Size Used Available Use% Mounted on
VMFS-5 460.8G 57.6G 403.1G 13% /vmfs/volumes/datastore1
まだcpコマンドの途中経過だが、はじめ11.9GBだったのが、57.6GBになっている。
このまま物理サイズ100GBまで膨らんでしまうようだ。
シンvmdkのままコピーするにはどうしたらいい?
vmkfstool?
>>572 ありがとう。解決したよ。
vmkfstools -i で、thinタイプを指定する必要がありました。
>>567 してないんですね。
Buffaloとかの安いNASにするか、自作で組むかどうするか悩んでるんですけどその辺しっかり出来るなら自作でいいかなあ…
買ってから分かったが牛さん怖すぎw
QNAPにすればよかったと後悔
>>574 牛とエロはオススメ出来ない。
>>575 牛はファームに爆弾がしこたま仕込んであるからねぇ・・・。
>>559 4G FCいいなぁ。スイッチ高くてどうかと思ってたが直結なら割と安価に出来る?
primarycache=noneして測るほどの価値は無いけどreadは全部on cacheの結果だわなこれw
zfsは細かいwriteが貯まった後だとraidzはrrがかなり遅くなると思うよ。仕組み上。
あとNonECCでZIL必要な用途が思いつかないんだがほんとに要るの?sync切ってSSDはL2に回してみては。
ESXのストレージとして使いたければNexentaStorあたりつっこんどくとメールとかしてくれるよ
>>563 たぶんあるけど仕組みが違う。何を意図してそう設定するのか明確じゃないと
>>570-571 各種OSに昔からあるsparsefileと同じだからそれ。なんでlsやdf使えててそんな発想しちゃうかな
>>577 中古のSilkworm 200Eあたりだと安いよ。うちにも買おうかと思ってる
>>577 スイッチ入れるのも良いとは思うが、
接続台数が2台だけなら、直結でも良いと思うけどねー。
ま、スイッチ使いたいなら
>>578も言ってる200E辺りが、
ヤフオクでたまに出るから、それゲットすればOK。
HPからファームもらってくれば、最新までファームUP出来るし。
8portライセンスの物しか出てこないとは思うけど、
家庭内使用なら、足りなくなる事は無いだろうとw
カードはQlogicの4Gbpsのが結構多く出回ってるし、1portカードで1万くらいかな?
直結ならカード2枚+ケーブルで2万ちょいで一式そろうと思う。
580 :
名無しさん@お腹いっぱい。:2011/12/25(日) 11:23:55.07 ID:lkcjoBlZ0
>>577 4Gのカード意外と安いよ〜
1ポート物は結構安くオクで放出されてるEmulexとQlogic両方とも5千〜1万ちょいくらいかな
2ポートものはちょっと値が張るけどね。。2万くらいした
あとSolarisのFC Targetで使うにはQlogicを使ったほうがよさそうだよ
Elogicで動かんという実績しか観つけられんかった。。
スイッチも実は捕獲済みなんだが。。家で使うにはうるさそうなんで
止めてる。。(^^;
581 :
名無しさん@お腹いっぱい。:2011/12/25(日) 13:04:39.16 ID:lkcjoBlZ0
>>577 ZILは書き込みのログなんで。。切ると速くはなるけど。。
なんかあったときにデータ飛ぶ危険がってことだと思ってるけど違うかな?
いろいろ調べてるとZILとL2ARCのどちらかSSDにするならどっち?
ZILをSSDにすべしということらしい。
あとメモリはあればあるだけいいし
CPUも結構ZFSの計算に使うから早いほうがいいよ
582 :
580:2011/12/25(日) 14:48:48.79 ID:mljiKVk30
>>580 寝ぼけてた
ElogicじゃなくてEmulexだ(ーー;)
おお、各種FC価格情報助かる。今度入手してみる。もしかしてInfiniband派も居られるのかな?
>>581 元書き込みの環境がそういうクリティカル性のあるものに見えなかったんで。
数秒前までの書き込み内容を失うと困るが、slogのSSDが壊れた際は失ってもよく、
メモリ故障でデータ破損していても検知する必要は無い用途、ならベストな選択だと思う。
確かにストレージが落ちたときに再度復帰させればvmから見たデータの一貫性が担保される・・・
かもしれないが個人的には信用できないのでvmはpower offしちゃうな。
ストレージだけが落ちてすぐ復帰できるってシチュはレアだと思ってるし。
>>583 IBだとtargetを何で作るかによって、変わってくるかと。
Linux以外をtargetとにしようとすると、
SM積んだスイッチ用意するか、SM無しスイッチに
target鯖 + openSM鯖 + ESXi
と3台構成にしなきゃならない。
ま、一番安い10Gbでもで、実効8Gb確保出来るから、
FCで8G環境作るよりかは、安くて速い環境は作れそうだけど。
後、vsphere 5だと、まだSRPドライバが公開されていないらしいので、
EoIBとしてしか、使えないらしい。
4.xだと、Mellanoxが、SRPドライバ用意してるみたいだけど。
この辺りは、HW版のIBスレに行けば、
色々情報集がある。
10Gイーサーで安いのないの?
>>584 Solaris11だとOpenSM動くようになってるよー。
ただ、Tavor(安いIBカード)の方はOracleの方でEOLなっちゃったから、次のバージョンからは使えないかと。
OpenIndianaでもOpenSM使えるみたいだけど、まだパッチが正規に取り込まれてないはず。
>>584 っと、IBネタで追加。
ESXi5は、EoIBじゃなくて10GbEのドライバは出てるけど、IBネイティブ用のドライバは出てない。
で、10GbEで使おうとするとConnectX以降のカードじゃないと対応してない状態。
>>585 10GbEも安いのあるよ。
ただ、10GbEのiSCSIだとiSCSIアクセラレータ積んだNICじゃないとFCやIBのSRPみたいに速度出ないんじゃないかなー。
>>586-587 そうか、アレはEoIBじゃなく10GbNICとして使うドライバだったか。
Solaris 11でOpenSMが動くらしい情報は見てはいた。
ただ、こっちだとパッチは有償サービスなんで、個人使用だと
OIの対応待ちかなーって所かと。
FreeBSDも9.0辺りからIB対応頑張ってるみたいだけど、
形になるのはもうちょっと先になりそう。
後、Mellanoxは、早くESXi5向けのSRPドライバ作ってくれw
直結2台なら、10GbEでがんばれるけど、
3台以上となると、スイッチがね・・・w
iSCSオフロード無しなカードだと速度はそこそこ出るかもだけど、
CPU負荷がエライ事になりそうな予感w
でも10GbEカードでiSCSIオフロードエンジン積んでないカード今あったっけ?
メジャー所は大抵積んでた気がしたけど。
こう見ると実効 400MB弱だけど、4GbpsFCは中途半端なりに、
そこそこバランスは良いのかもしれん。
理想はフリーのESXiでMPIO対応してくれると、色々助かるんだが・・・
これは無理かw
>>588 Solaris11でOpenSMは自分でコンパイルできる人なら比較的簡単かな。
Oracleが公開してる部分でコンパイルできるので。
OIの方は、それなりにかかるんじゃないかなー。
直結だったら10GbEを個人的にはお勧めするなー。
台数増えると、お勧めしないw
最近の10GbEのカードだとiSCSIのオフロードエンジン積んでないのを探す方が大変かな。
安い10GbEカードってことで型落ちのMyricomとかIntelのつもりで書いたんで。
うちはIBだけど、実効だと400MB/sくらいだからFCでも良かったかも。
あら、ESXiのFCでMPIOって無理なの?
http://docs.oracle.com/cd/E22471_01/html/820-4167/configuration__san__fcmpxio.html を見て行けるのかと思ってたんだけど
>>564 Solaris11系でデグレったときに自動通知してくれるようなソフトはあるよ。
napp-it でぐぐってみるとでてくる。
あんまりESX絡みのネタじゃなくてすまそ
>>589 ESXiの機能としては、MPIO持ってるはずだけど、
無償ライセンスだと、無効化されてる気が。
いや、試したことは無いので、設定さえ出来れば
動いてくれるのかもしれないけど。
年末年始にでも試してみるかな。
4.1U2の評価版ってもう手に入らないですか?
ESXI5.0.0なんですけど、しょっちゅうHDDがガリガリ動いています。
そこはデータストアとしても、使っているんですけど、
ゲストOSのWIN7の操作は何もしていません。
一晩立って、激しくはなくなったもののまだガリっています。
何か良い設定があれば教えてください。
HDDが五月蠅くって気になるなら、素直にshutdownしなよ。
どうせHDDが五月蠅い程度で質問するって事は業務用じゃないだろ。
たしかにSSDなら静かなんですけど、
ESXIは、何のためにディスクにアクセスしているのかなと思って。
ディスクの最適化?
ゲストマシンのメモリ内容の保存?
どんなESXIもそんなもんなんですかね。
ゲストマシン止めたら、HDDのアクセスがほぼなくなった。
やっぱり、ゲストのメモリ内容をHDDに書き込んでいるのかもしれない。
良い設定があれば教えてください。
まずwin7のどのプロセスがディスクアクセスしてるか調べてみたら?
あと実メモリとの兼ね合いかな?
レスありがとうございます。
ゲストマシン(win7)自体がディスクアクセスしているのか調べてみます。
>>563にも挙げたんですけど、ESXIにはゲストのメモリ内容をHDDに保存する仕組みは使っているのでしょうか。
VMWARE SERVERなら、その設定で一時ファイルの生成はなくなりました。
>>598 わかりました。スワップファイルが生成されていました。
vcで無効に設定できました。
内容整理して自分で1日調べてから、何を調べたか付記して質問しろ
しかも563にレス付いてんのにスルーしてんじゃねーか
ああ、例のiSCSI太郎か。
いい加減スレ違いじゃね?<ZFS
いいんじゃねって思ってROMってた俺がいるけど確かにスレ違いだな…
今までわざわざ高いRAIDカード買ってローカルディスクでRAID組んで使ってたけどZFSいいなーと思い始めた
質問
ESXi 5にesxcfg-firewall のコマンドってある?変わったのかな
移行作業真っ最中の人もいるのかな? お疲れさまです。
あけましておめでとうございます。
旧年中は大変お世話になりました。
本年もよろしくお願いします。
ESXi5.0 + ゲストWindowsVista or Windows7なら3Dサポートが有効
ってVMWareサイトに書いてあるのですが
家の環境だとチェックボタンが押せません。
ちなみにESXiにはGeForceのゲーム用がささっているのですが、
これが対応していないって事なのでしょうか?
あと、ESXi5.0でのグラボパススルーについて
このスレの最初のほうにESXi4.0 -> 5.0で出来なくなったって記述があるのですが、
基本的には動かないものなんでしょうか?
複数枚差しして個別にパススルーしたらゲームとかでも動くのかななんて考えていたのですが。
>>607 やってみないと何とも言えない。
というか、その辺りの使い方したい場合、
現状、人柱になるしか無いとおもわれ。
元々そういう使い方してる人がほとんど居ない上、
ESXiの使い方として、VMwareでもまだ力入れてない部分だから。
人柱が嫌なら、誰かがなってくれるまで待つか、諦める。
どーしてもってなら、人柱覚悟で自分で試せ。
今有るのはこの2択。
>>607 そのへんの3Dサポートってのは、GPUじゃあなくCPUでDirectXを動かすというもの
>>607 4.1U1 -> 5.0 で動かなくなったとカキコしてる本人登場w
PCIパススルーが出来るかどうかは、その人の環境次第かと。
只、4.1U1で出来た事が、5.0にして出来なくなった(再現性あり)ので、現状ではESXi側の問題だと思ってるよ。
それから、ウチの環境では、4.1U1 + 仮想窓7 or 仮想XP で、DirectXを使うソフトが正常に走る事を確認してる。
>>609 だから、何か構成変更をする度に、ヒトバシラーレポを出してる訳で。
612 :
名無しさん@お腹いっぱい。:2012/01/03(火) 14:46:56.81 ID:CYTCzYJi0
athreos8151内蔵NICが搭載されたノートPC(BTO)に
ESXi5.0をインストールできますでしょうか
>>612 USBメモリースティックにインスコしてみたら?
それでレポヨロ。
>>613 atherosのドライバーは、窓用のでも結構探す場合があるからなぁ・・・。
ESXiをUSBメモリにインストールしてUSBブートした場合、
USBの書き込み及び読み込み速度はESXiの運用パフォーマンスに影響があるんでしょうか?
もしブート速度が遅くなる程度であれば、転送速度を犠牲にして耐久性の高いUSBメモリを買おうかと思ってます。
>>615 仮想マシンの性能には影響なし。安心してOK
>>615 >>616の言う通り、ESXiホストが起動するまでの時間がちょっと長くなるだけ。
ホストが起動してしまえば、他に影響は一切無し。
ウチでも、ESXiホスト起動用のUSBメモリーは、ホスト機内部に組み込んでブートさせてるよ。
Silicon powerの、安いUSBメモリーだけどね。
ただ接触不良でUSB1.1で動いているとゲストOSが遅くなったことがある
bootは若干遅かったか程度で最初分からなかったよ
>>618 どの程度、仮想機のパフォーマンスに対して影響があった?
さぁ
ところでiscsi or nfs上のvmをデフォのまま、合計がホストメモリ量を大幅には超えすぎないよう設定して使うのと、
メモリ割り当て増やしてswapやpageをなるべく切ったvmで、バルーンも切って、ホストにSSDつっこんでswapさせるのと、
理屈ではどっちがパフォーマンス上がるんだろ?
無論条件によるだろうけど要素としてどの程度効いてくる可能性があるのか知りたい。(ESX5で積んできた機能もあるんで)
vm数増えるとIO負荷がボトルネックになってくるんで各vmのswap動作が減るなら発想としてはありなんかなとか。
ホストメモリ量を無限に増やす、vm全体をローカルSSD上に置くといった方向は無しで。
君んちのSSDがメモリより高速なら検証する価値があるんじゃないの?
そもそも何のパフォーマンスを知りたいのかしらんけど。
>>619 激重
1台だけゲストOS(W2KStd)を動かしている状態ではっきりと分かるレベル
ESXi4.1up1だったかな
ちなみに使用していたUSBメモリはSuperTalentのPICOminiです
>>622 一般的にメモリよりSSDの方が遅いよ?
vmのswapはデータストア上のvmdkに書かれるから、比較するならlan先のhddとローカルのSSDね。
>>624 > 一般的にメモリよりSSDの方が遅いよ?
その通り。
そんなのバカでも分かる。
それを踏まえた上で
>君んちのSSDがメモリより高速なら検証する価値があるんじゃないの?
を解釈すれば。
そんなの検証する価値もねーよヴァーカ
っていってるんだと読み取れると思うんだ。
>>625 んー、そうなのかな? どちらかというと質問が理解できて無さそう。
そこでメモリとSSDの比較になると思っちゃったって事はメモリ周りの仕組みを勘違いしてるのかもだけど。
>>624でも書いたけど、比較を持ち出すならlan先のhddとローカルのSSDになるからね。
ID:fpOzr31T0が、無意味さを理解出来ていないだけ
あーはいはい。
>>621 仮想マシンが内部でスワップを始めるとDiskI/Oが死ぬってことだよね?
仮想マシンの余剰メモリが少ない場合だと一応有利に働く可能性はある。
が、多くの場合仮想マシンが独自に持つDiskCache部分までスワップアウトされるので
たぶん遅くなる。
バルーニングで仮想マシンがスワップアウトしない程度にメモリ返却させればベストなので、
バルーニングは切らないほうがいい。
限界まで仮想マシンにスワップアウトさせるくらいならメモリ余分に与えておいて
ホストで圧縮&スワップしたほうがマシという部分はたぶん正解。緊急時の話になるだろうけどね。
つーか、常時バルーニングさせる前提でサイジングしたらそいつは馬鹿だろ。
腐れHyper-Vじゃあるまいし、vSphereでそれは無いわ。
故にハナから論じるのが無駄。
メモリとSSDの比較になるのは、「バルーンを切る」って君が書いたからだよ。
ゲスト OS のスワップや Hypervisor Swapping の I/O負荷集中を懸念するなら、
sched.swap.dir やら host cache やらを使って対処を検討するべき。
バルーン切るだのゲスト OS のスワップ切るだの、わけわからん方法を使う事柄じゃねーよ。
>>629 >>631 なるほど、バルーン切る発想は間違いなんだな。vm側のキャッシュまでスワップされたら確かに問題だわ。
となるとvm毎にメモリ予約だけして後はバルーンで回収というデフォ状態で、vm側の設定でなるべくswap量制限するのが先決ということか。
各vmがswapするのを抑えてホストでswapさせたいという方向の発想自体は無いわけではないんだね?
まー>631のバルーニングで仮想マシンがスワップアウト始める前に
ホストキャッシュにスワップさせるって割とむずいけどね。
vmwareが優先して載せてくるからにはメモリ不足での運用が非常に多いのだろうが、
ホストキャッシュは大きな改善じゃないわな。今までとほぼ変わらん。
オーバーコミットさせる場合はTPSの効果で考える。
バルーニングは緊急避難。
Cora2Duoみたいな32ビットマシンにインストールする方法ないですか
たとえば
nocheckCPUIDlimitオプションを付けるとか
Core2Duo に32ビット版なんてあったか?…と思ったが Cora2Duo か。それはわからん。
幻のCPUか!?
ESXi って64ビット必須なんだっけ?
気にしたこと無かったな。
すんません
コア2デュオです
インストールガイドみたらESXiは64ビットマシンオンリーで
32ビットマシンでは使用不能と書いてあります
コア2デュオは何ビットなのかとインテルのwebsite見たら32ビットCPUで、簡易的に64ビット互換動作と書いてありました
なのでESXi5は使えないのかなと
5からだっけか
簡易的につか普通に64bit拡張なnで使えるよ
642 :
名無しさん@お腹いっぱい。:2012/01/06(金) 17:02:44.36 ID:pLElAoCz0
ESXi5.0を試そうと思ったんですが
VMware ESXi 5.0.0 (VMware Releace Biuld 469512)
Fujitsu FMV
Core2Duo 2600MHz RAM 1GB
The system has found a ploblem on your machine and cannot continue.
Could not population the file system: Admission check failed for memory resource
でストップしてしまいます
C2Dがダメなのかと思い「nocheckCPUIDLimit」をつけて起動してもだめでした
何か情報あればお願いします
>>642 ESXi5.0 の動作に必要とされるマシン環境を調べてみろ。
>>642 つーか、中学生レベルの英語くらい最後まで読めよ…
Admission check failed for memory resource
ってあるのに
>>642 > The system has found a ploblem on your machine and cannot continue.
> Could not population the file system: Admission check failed for memory resource
エラーメッセージ読めよ。
> C2Dがダメなのかと思い「nocheckCPUIDLimit」をつけて起動してもだめでした
そんなこと書いてないだろ<C2Dがだめ
>>644 problemも正しく綴れない人間にはムリだろw
もしかしてメモリが足りないのでしょうか
でも最低動作スペックは512MBで動くと書いてあります
もしかしてメモリが32ビットで64ビットに対応していない
あるいはFMVのマザーが32ビットで使えないのか
とりあえず他のマシンからメモリを乗せ変えて試してみます
現実問題としてメモリ512MBどうしろというのだろうか?
今時のOSだとゲストだけでも足りないじゃん
英語読めないだけでなく、日本語も読めないのかよ…
512MBはホストではなくゲストの最低割当
652 :
名無しさん@お腹いっぱい。:2012/01/06(金) 17:46:42.24 ID:+T31wZdS0
>もしかしてメモリが32ビットで64ビットに対応していない
えっ!?
そのぐらいのレベルなら
おとなしくvmware workstationかvmware player使ってればよくね?
このスレでID:pLElAoCz0のようなカス相手すんなよ
Playerスレでもあるまいし
後に神と呼ばれる存在になるかもしれないじゃないか
人間を神に見立てたり、神格化するのはいけないことだよ。
>648
メモリーは最低2GB必要。
記憶が確かなら、LGA775のセロリン(1C1T)でも、メモリーが2GBあればESXiは起動出来る筈。
おっと書き忘れ。
×メモリー
○ホストPCのメモリー
フルボッコでわろた
流石にこの程度のリファレンスも読めない人間が扱えるものじゃないだろ…
ESXi のホストに求められる要件は確か
・2GB 以上のメモリ (ただし実装 2GB ぴったりだと一部 VRAM に割り当てを取られて実質 2GB 弱扱いで NG になるので実際は 3GB 以上積む必要がある)
・2コア以上の CPU
・VT-x (または AMD-V)
じゃなかったか?
>>638 VT 対応してて64ビット対応してない石なんてないから64ビット対応してるかどうかなんて気にする必要ない
何のかんの言っておまいら優しいな
けなしつつも全部教えてやってる
もっとも超マイナーなソフトだし新規参入者大歓迎ってところかw
現状ではバーチャルマシンやハイパーVがWIN7や2008に標準搭載みたくなって
VMwareは絶滅の危機なんだよな
その辺りのATOM E6xxシリーズはIntel64が使えないと書いてるけど使えたりする。
もっともメモリが最大2GBしか載らないのでESXiを動かすのは難しいだろうけど。
>>663 エンプラ用途では圧倒的に差がついているので、絶滅を危惧される段階ではない。大規模案件で事例があるのって
他は、Xenくらいでしょ?
Pentium4 1GBにESXi 3.5なら入れたことあるぞ
昔は求められる要件低かたです。
5から2コア縛りとかも出てきたです。
>>666 Citrixは昨年伸びてクラウド分野では強くなったが、
MSは相変わらず安くなかろう悪かろうでショボいままだな
ほとんどVMware社の一人勝ち
Hyper-VもKVMもXenもそれぞれエンタープライズ分野て影響力の大きい企業が推進してるから
表に出てないだけで採用例なんていっぱいあるんじゃないの?
KVMは個人・SOHO向けにVPSを提供している事業者が使っていることは
ちょくちょくあるようだが、それ以外ではまず聞かないな。
管理製品のRHEVは世界で一件も売れていないという噂を以前聞いたが、今はどうなんだろ。
それに比べりゃXenServerのがマシだが、これも少ない。
同じXen派閥のOracleVMはXenServerよりもずっとニッチ。
Hyper-Vつーか、vSphereと比較するならSCVMM、SCCM、SCOMあたりを
ひっくるめて買う場合だが、これはさすがにそこそこある。
MS信者ってのは根強いな。
無論、シェアでは圧倒的にvSphereに負けているが。
>>663 WVPCとESXiは用途が全然被らない
Hyper-VはESXiと被るが、実績少なすぎ、サポートOS少なすぎで安かろう悪かろう、なかなか採用しづらい
Hyper-Vは、業務どころか個人用途ですら使う気にもならないな。
675 :
名無しさん@お腹いっぱい。:2012/01/07(土) 12:24:24.28 ID:hKdBZQPN0
VMwareESXi5でパフォーマンスのモニタリングを停止する方法ってありますか?
できるだけ、ハイパーバイザの機能を停止させたいのです。
もしくは管理系プロセスの優先度を下げたいです。
ホストの方の処理で、ゲストOSの処理を邪魔されたくないのです。
とりあえず、システムリソースの割り当てでCPUに上限を設定しました。
よろしくお願いします。
ではまず、ゲストOSとして稼働させたいOSを、ESXi用の物理マシンにインストールして下さい。
これでハイパーバイザの機能は停止します。
俺もVMware派だけどMSは政治力が強いからなんともいえない
つか抱き合わせ販売するから性質が悪い
ゲストがCPU食いつぶすと管理出来なくなるハイパーバイザーか
意味不明だな
>>671 Xenは、Amazonとか、IaaSのプロバイダがこぞって採用してるってのがでかいかな。DC丸ごとだしね。
KVMはこれからじゃない? Hyper-Vはどうなんだろうね?
>>679 EC2はXenで作ってあるが、他のIaaS業者はVMwareが多い。
vmkperf stop
ESXiの3.5を入手する方法あるかな
公式だと4と5しかなくなってる
公式にあったべ。
ESXi5 のダウンロード画面に 3.5 のダウンロードへのリンクあって
そこを進んだらダウンロードページまではたどり着けた。
なぁなぁ。
ESXiのディスクが足りんようになってきたんだが、
使えるESXiでeSATAディスクってどれ?
それとも、適当につないだら動くもん?
日本語でおk
よっぱらって書くとろくな事がないな。すまそ。
ESXiを入れて使ってるサーバーのディスクの残り容量が心許ないようになってきてしまったんだが、
ESXiで認識されるeSATAポート増設用のカードってどれ?
それとも、市場に出回ってるカードは普通に認識されて、そこにつないだHDDが使えるようになる物ですか?
>>687 乾杯っ
オフィシャルで探してくださいな:
[VMware Compatibility Guide]
http://www.vmware.com/resources/compatibility/search.php What are you looking for: で IO Devices を選択、
Product Release Version: で あなたの使ってる ESXi のバージョンを選択、
I/O Device Type: で SATA を (必要に応じて SAS/SATA-RAID や SAS SATA Combo も) 選択、
Update and View Result を押せばおk。
>>688 トン!
しかし、例えば、玄人指向で扱ってるような安いやつ(サーバー機でメジャーじゃないやつ)はサポートされてないな。
これはVT-d対応のサーバーに買い替えるフラグ!?
>>689 単純に、内部ポートをeSATA化するのはダメなの?
32bit、64bitまったく気にしなかったけど
>>639が気になったので調べたら
CORE2系、COREi系共に32bitCPUで、純正の64bitはItanium系ってのは本当らしい
という事はESXiを本来のスペックで動かすにはAMDのアスロン系の方が良いのか?
>>691 H/W的に色々と弄るのには、自作機だと多分AMDの方が向いてるかと。
*90FX系の板だと、PCIパススルーも割と簡単に出来るし。
お前、ID:uKjTdJeJ0本人だろ。
intel系でもEM64T対応してれば気にする問題でも無いだろ
>>694 普通に使うなら、どっちのプラットフォームでも、そんなに大した問題ではないね。
スイッチと2本以上のケーブルで繋ぐ場合に、スイッチ側でtrunk設定しなければ下りは分散されないと思うんだけど、
LACP使えないスイッチの場合普通のtrunk指定でいいの?
>>696 ESXiのスイッチ設定で、ロードバランシングの設定を
"IPハッシュに〜"を使う場合はtrunkが必要。
それ以外は、trunkすら必要無い=普通のL2スイッチでOK。
大体、ESXi自体LACPはサポしてないっていうか、使えない。
ので、L2スイッチでLACPが使えるかどうかは、
別にどうでもよかったりする。
>>697 スイッチのtrunkが必要ってのがどっちか分からないんだけど、
staticなtrunk設定のことなのか、LACPによるtrunk設定なのか。
普通のL2で良いってのは、普通のL2でも上り下り分散されるって理解でいいんかな?
分散の粒度がVM単位で良ければ、ポートIDベース、ソースMAC、どちらも分散するよ。
上りも下りも同じ物理ポートになる。
単一VM内のトラフィックを更に分散させたい場合は、IPハッシュを選択する。
この場合は物理スイッチ側のLink Aggregationを有効化する。
>>698 staticね。
上でも書いたけど、ESXiはLACPしゃべれないし、
理解もしてくれない。
IPハッシュで分散以外の設定の場合、
設定次第で、MACアドレスか仮想NICのポートで
ESXiが仮想スイッチに繋がってる物理NICに
適当に振り分ける。
負荷を考慮してるかどうかは、何処にも情報が無いので、
分からん。
マニュアルやヘルプを信じると、MACアドレスのハッシュか、
仮想NICの接続ポートのハッシュをキーに割り当てるぽいので、
綺麗に分散はされない気もする。
>>690 > 単純に、内部ポートをeSATA化するのはダメなの?
ポートマルチプライヤーしたいので、内蔵ポートではだめなんです。
ストレージ部分は別出しした方がいいんじゃないかな。
ハードウェアRAIDな箱繋ぐとか、別サーバにして nfs なり iscsi なりで参照するとか。
VT-d 対応のサーバに買い換えようと考えた意図がよく分からんが。
>>701 内蔵ポートで足りない程HDDを繋がなきゃならんのなら、
iSCSIとかNFSでのストレージ外だしをお勧めしたい所。
そっちのが色々楽だから。
つーか、安物増設SATAカードで動く物なんかあったっけ?
少なくとも標準ではドライバ有った気がしない。
有志作成のドライバは有ったかもしれないが、まともに動くかどうかは・・・
>>700 ありがと
負荷分散部分は書いてあるとおりのルールで送信されるだけだと思うので、これは運次第だと思ってる。
特にiscsiやnfsトラフィックがスイッチ側で分けないと1本に集中すると思うんで、そのあたり知りたい。
送信側はESXの設定通りのルールで分散されるとして、受信側はスイッチの設定次第で分散されるんだろうけど、
この場合はESX側の設定に合致するようなスイッチ設定というものが必要だったりとかはしない?
ESX側の設定と無関係に受信側は使用するスイッチの設定に従って分散されて、それで問題はない、ということでいいのかな?
IPハッシュの場合のみスイッチ側の設定が必要って話との繋がりが分からないんだけど。
勉強用にESXi5を使ってみたいんですが60日超えるとESXi自体が使えなくなるのでしょうか?
それともvClientが使えなくなって実質ESXi5が使えなくなるのでしょうか?
USBブートで実験しているのですが60日過ぎるたびにUSBメモリへインストールすれば何度でも使える気がしたので・・・
>>703 動作確認の取れてるマザーに変えた方が楽なのかもな
Intel celeron G530、DDR3 4Gx2枚、asrock Z68M/usb3でも15kぐらいだったし、
Z68Mを、H61シリーズの・・・GA-H61M-USB3-B3にすれば12kすら切れる。上は動いたし、下もたぶん動くだろう。
無償ライセンスをとったら?
それ以上の範囲の機能を使いたいならそういう面倒なことをする必要があるのだろうけど。
>>701 ってことはチップセットが相当古い?
ESXi 5.0だったら野良ドライバがあった気がするけど。
MarvellとかSILあたりの安いヤツ用の
>>709 ふたたびありがと。
iscsiでPort Bindingする場合は、ちょっと例外的というかteamingしなくても分散できるね。例がマズかったすまん
nfsや他のiscsi接続の場合はvmkernelがどの物理nic経由で通信するかって話になって単一vmと同じことになると思うんだけど、
送信に関してはIPハッシュでなければ何れかの物理nic固定となり、IPハッシュであれば運次第で分散されると。
んでIPハッシュならスイッチ側の対応が必要って書いてあることが多いんだけど、ESXはLACP喋ってないのね。
原理的にどういうモードなのかよくわからない。どんなポリシーでもいいからスイッチでstaticなtrunk設定してあればいい??
同一送信元MACで別portへ送信することになるからスイッチ側で何かしなければならないとかそういう話なんだろうか。
それとももしかしてIPハッシュってのは、一般的なスイッチのstatic trunk(policy=ip)と同一の物体?
手元の安ハブではLACP LAG設定してもLACP通信にならないがなんとなく分散されていて意味が分からない。
ポリシー設定とか無いスイッチもあるんだが、送信はIPハッシュ、受信はMACハッシュのstatic trunkみたいな状況でも問題ないのだろうか。
1vmに対して受信帯域分散したければIPハッシュでスイッチ側をstatic trunkの1択なのかな? その際のtrunkポリシーに制限無し?
>>710 > それとももしかしてIPハッシュってのは、一般的なスイッチのstatic trunk(policy=ip)と同一の物体?
まぁ、その認識でOKかと。
> 同一送信元MACで別portへ送信することになるからスイッチ側で何かしなければならないとかそういう話なんだろうか。
L2スイッチ側から見ると、同一MACの通信が複数portへ入って来る訳で、
trunk設定されてないと、portが変わるたびに、スイッチ内のMACアドレス-portテーブルを
書き換える事になる。
実際、設定ミスってESXi側IPハッシュ振り分けの状態でL2スイッチのtrunk設定忘れてた事があったんだが、
なんかパケロスしたり、転送量少ないのにスイッチの反応鈍いと思ってスイッチのロードアベレージ見たら、
負荷80%とかになってたw
> ポリシー設定とか無いスイッチもあるんだが、送信はIPハッシュ、受信はMACハッシュのstatic trunkみたいな状況でも問題ないのだろうか。
> 1vmに対して受信帯域分散したければIPハッシュでスイッチ側をstatic trunkの1択なのかな? その際のtrunkポリシーに制限無し?
trunkって複数のポートを論理的に1portとして扱う物であって、その中でどんな振り分けされているかは、
ぶっちゃけスイッチングの処理からみれば、どうでも良いことだったりする。
なので、trunk設定さえ出来ていれば、どんな振り分けポリシーでも問題無いはず。
>>711 >IPハッシュってのは、一般的なスイッチのstatic trunk(policy=ip)と同一
そんなので良かったのか。なんか目から鱗だわ。それなら理解が捗るというかいろいろ完了した。
他のハッシュと並んでるからもっとESX特有の動作するものかと思いこんでた。
"IPハッシュ"じゃなくて"外部ハブとtrunk(ip hash)"ってな項目名にすべきだw
>設定ミスって
おお、障害例参考になる。非設定portに誤接続してもそうなるわな。やらかしそうだ
>ポリシー
各種スイッチのtrunkポリシーがいろいろ有る割に規格互換的な話はLACPしか見あたらんので疑問だったんだがなるほど
なんかESXスレでネトワクの勉強になってしまった。多謝
USでESXi5.1リリース
機能面では変更なしで、主に新しいハードウェアへの対応らしい
うげ
仕様書書き直すか迷うな…報告だけ挙げとくか
>>713 PCIパススルーのbug fixがされてると良いな・・・。
週末にでも外部USBメモステでテストして見るか・・・。
install successとはなるんだけど
最初の起動で Faild O.E.M で終わるのはなんですかね
実CPUのクロック数を確認する方法ってある?
ESXi 5.0で低電力のポリシーが、本当に有効になっているか確認したいんだが
VMWare vCenter Converter Standaloneを使ってESXi 5.0へP2Vしているんですが
ESXiサーバへ転送する場合、速度が異常に遅い(約1MB/s)のですがこんなものでしょうか?
直接転送するのを諦めていちどUSBのHDDにVM Plauer形式の仮想ファイル(vmdk)へ変換したら
こちらはほぼ想定通りのスピードが出ました。
で、これをESXiにデプロイしようとするとやはり1MBの固定で転送されているようです。
なんか管理用のネットワークだけ帯域固定されているような気がするのですが。
設定する部分ってどこかありますか?
>>718 リアルタイムに実クロック見る手段があるかどうかは知らないが、
とりあえず、esxtopのp見てみ。
CステートとPステートは確認出来るから。
USの公式サイト行ってもみあたらんけどどっかで落とせるん?>5.1
すいませんvCenter Server5って無償評価版はないのでしょうか?
ESXi5と同じようにダウンロードできるかと思ったのですが有料版しかないのでしょうか?
>>722 はい。
vCenter Serverは有償版および試用版ライセンス時にしか使えません。
>>723 レスthx
勉強用にちょっと使えればいいんですけど試用版は本家のどこからダウンロードできるのでしょうか?
おれも見つからん
パッチは12月に出てるようだが
それのこと?
俺も見つからない
もしかして発表されただけって段階なのかな
729 :
名無しさん@お腹いっぱい。:2012/01/13(金) 13:13:41.58 ID:bnT+hp5d0
誰がどこで発表したの?
嘘を嘘とわからない人に掲示板を使う資格は無い
byヒロユキ
>>725 何度もすいません。
アカウント作ってダウンロードしようとしたのですが途中でシリアルナンバーの入力を求められて先に進めません。
別の場所で試用版のシリアルナンバーを取得しないとだめなのでしょうか?
>>731 シリアル入れなければ、体験版になるよ。
>>732 ダウンロードリンクはこれであっているのでしょうか・・・?
違うところを見ているような気がしてきました・・・
ttp://www.vmware.com/download/download.do?downloadGroup=VC50 この後ログインして
---
If you have a valid serial number of VMware vCenter Server 5.0 and modules and you have not registered it, please register it here, so you can get download access.
---
のhereを開いてシリアルナンバー入力画面が出ます。
そこでcontinue押しても入力してくださいで先に進めません・・・
何か勘違いしているのでしょうか?
してます
If you have a valid serial number of VMware vCenter Server 5.0 and modules and you have not registered it, please register it here, so you can get download access.
オレはシリアル聞かれずにダウンロードできたけどな。
まぁ、試用ならファイル名でぐぐれ
そっから先は自己責任な
ファイル名くだちゃください。
5.1
ESXi 5.0.0.0, 515841
>>447 すっ飛ばしてるんですいませんが、890FXや990FX以外は不可能です
えっと とかいらんし
>742
それIOMMUの方では? まあ仮想化支援はややこしくて困る。
Intelもvt-d,vt-xと紛らわしい名前だし、CPUやチップセットが対応してても
BIOSで無効にされていたりで、HCLに載ってないのは半分博打みたいなもの。
あと447はまずWin上のツール等で有効・無効を確認をしてから質問した方がいい。
745 :
名無しさん@お腹いっぱい。:2012/01/17(火) 11:06:27.89 ID:nB3psBSq0
RDMを接続している仮想マシンで、
RDM以外のvmdkを指定しスナップショットを取得することって可能ですか?
できるよ。RDMのvmdkを独立型にすればスナップショットの対象外になる。
747 :
名無しさん@お腹いっぱい。:2012/01/18(水) 18:01:06.11 ID:zPiqF+Y90
>>746 情報ありがとうございます。
でも、1つ重要なことが抜けてました。
物理互換モードなんです・・・
>>747 一度VMからRDMを取り外さないと、無理なんじゃないかなぁ。
試して無いから、間違ってるかもだが。
990FXをIOMMUのテストする為に買ってしまったw
VT-dでは色々てすとしてみたけど、AMD系での情報が少ないので人柱になるぜ
>>749 人ナカーマw
890FXのママソを、3枚も買ってしまったからねぇw
PlayerユーザーですがEsxiデビューしてみようかと思ってるんですけど
インテルH57動作するか情報ありますか
公式HCLには無かったのですが、そもそも更新されてないぽい
>>751 無料なんだから、試してみればいいでしょ。
USBメモリ1本で済むんだし。
753 :
名無しさん@お腹いっぱい。:2012/01/20(金) 04:40:59.28 ID:/MX5f+/s0
Q67なんだけど、PT2はやっぱり駄目だな。PT2を追加したゲストを起動しようとすると
ESXi自体がpanicする。
駄目な理由が
途中で送信してしまった。
駄目な理由が、PCI-PCIeブリッジにぶら下がっている別のデバイスがESXi自体の
起動に必要だからだと思っていたんだが、PCIをネイティブサポートしているQ67
でも駄目だった。
適当なライザーカード経由ならいけるんだろうか。
Q67はESXiだとPCIeデバイスでされ、殆どろくに動かないという話を聞いた気がする。
>>751 レポヨロ。
>>753-754 PCIデバイスのパススルーも、これまた難しいよねぇ・・・。
PCIが2本ある場合でも、パススルー出来るのはどっちか一方のみ、って事もザラだし。
これに関しては、どうやらPCIがブリッジチップ経由で繋がってるとダメ、って事は分かってるんだけどね。
それから報告。
ECS H61 + G620T + MEM 4GB + HDD 120GBにESXi5を入れてみた。
ゲストOSは、
・Debian
・Win7 Pro x64
を走らせてる。
HDDが遅いので、ちょっとモタつく事はあるけど、普通に使う分には何の問題も無い。
仮想Win7の方で、BTトランスミッターをUSBパススルーして、ネトラジを聴いてるよ。
vSphereクライアントは、仮想Win7に入れて、仮想化環境の中からホストにアクセスする様にした。
仮想Win7の電源onは、SSHでホストにログインして、コマンドを叩いてonする様にしてる。
変な事()は何もしてないから、ある意味普通に動いて当然と言えば当然だけど・・・w
>>756 元々、VT-dってPCIeの仮想化機能前提だし、
Intel内蔵にしたって、外付けにしたって
PCIは全部PCIe-PCIブリッジの先の物だからしゃーないな。
PCI自体には元々仮想化の為の機能なんて入ってないし、
今からPCIに仮想化の為の機能追加をするとも思えん。
PCIe-PCIブリッジが独自になんかうまく扱う方法実装すか、ソフト的に対応出来れば
良いんだろうけど、少なくともESXiが考えてる市場でPCIの仮想化の為に
そこまでコストをかけるとも思えない・・・
結果、ESXiではずーっとこのまんまな気がする。
>>758 どうしてもPCIデバイスが使いたい -> 実機を使ってね、と言う流れになりそうだよねぇw
まぁ、PCI-ex用のカードで相当品が出ていれば問題無いのだろうけど、これも動作するかはやってみないと分からない、が実情だからね。
まだまだ発展途上の技術だから、仕方がないさw
何より、タダだから文句は言えないwww
今んとこパススルーに関してはXen優勢なんじゃないかな。あっちはCitrixReceiverなんてのもあってシンクライアントも頑張ってるみたいだしESXiにも頑張って欲しいなー
同じようなソリューションあったらごめん
頑張ってくれるならそれはうれしいことではあるんだが、
PCIをあえて仮想化対応しなきゃいけない理由がVMwareに無いんだよな、
普通に考えて。
今のvSphereを売りたい相手に、PCIの仮想化をしなきゃダメって所は
無い気がする。
そもそも、PCIeのパススルーでさえ、狙いはストレージや10GbE系の
割り込み負荷が高い物程度だし。
このスレで話題になるのだって、PCIに限ればPT2位じゃね?
もし、有償版でならPCIパススルーでPT2が使えるようになったとして、
その為にvSphere買う奴が居るか?と考えると、自ずと答えが。
なので、仮想でどうしても使いたいなら、
VMwareに期待するより、動くXenにさっさと乗り換えた方が、良いんじゃ無いかと・・・
まぁ、結局は、
>>759の
>何より、タダだから文句は言えないwww
これに行き着くんではないかとw
PCIをUSB3に変換するようなアダプタがあればいいのにね。
PT2もそれで対応できるよね。
>>760 シンクライアント方面はVMwareのがシェア高かったんだぞ。
昨年Citrixが逆転して、連中は大喜びしてた
test
BIOS?
767 :
TBS:2012/01/23(月) 12:06:04.22 ID:o4gfVeIz0
SOFTWARE!
DQ67買いました。よろしく。
PCIネイティブサポートとのことですがパススルー報告ってありますか?
すいません
スルーでお願いします。
i7 3930k (6core 3.2GHz) MEM64GB MegaRAID SAS 9265-8i SSD 512GBx4 RAID5
こんな構成だと1台で Socket478 Pen4 3GHz MEM3GB XPの化石PCを20台ぐらい統合できますかね?
同等の性能が出れば十分なのですが...
>>770 同等の性能って何の?
CPUの計算速度?ディスクの読み書き?
XP上で何を動かしていたのかにもよるな。
デスクトップ系アプリは妙に重い奴もあるからな。
じわじわと様子見ながら移行するのがいいんじゃね?
>>770 一般的な事務作業をするぶんにはむしろかなりオーバースペックだな
耐障害性をどう考えてるのかは気になるが
>>770 そこまでそろえてるならなぜXeonにしないん?
>>770 なんだろう、この違和感・・・
Mem64GBって事は自動的に有償版になるよな。
で、話の感じからすると、仕事っぽいけど、それで何で自作?
有償版だったとしても、自作じゃサポート受けられないっしょ。
MEM64GBも積むとなると利用目的や仕事って事考えるとECCはほしい気がするし=Xeonつかえ。
逆にストレージは無駄に金かけ過ぎてる気がする。
MegaRAID使うならHDDでRAID+CacheCadeの構成でも良いんじゃね?
つか、OA用途なら、複数VMのOS同時起動時以外そんな負荷かからんだろ。
SSDでRAID組んだって、ほとんど意味無いと思うぞ。
>>771-772も言ってるが、XPで何やってるかで
全く構成が変わるはず。
そもそも、こいつの一部が壊れて止まる=20台全部止まる訳だが、
仕事としてそれはOKなのか?
その辺含めて、なんつーか、ちぐはぐな気がするんだよな、色々が。
ただ、動くかどうかっつー意味なら、恐らく大丈夫だと思うが。
仮想化による統合って、個人の趣味レベルならともかく、
仕事となると、そんなに簡単な話じゃ無いぞ。
みんな過剰に親切すぎw
「内容如何で統合できるよ、有償版でその構成は難ありじゃないの?」
程度でいいだろ。深読みしたあげく推測でいちゃもん付けちゃダメ
>>775 OA用途でもログインやウィルススキャン時にディスクが重くなる。
とはいえ、あの数ならSSDを使うまでも無いが
>>775 え?メモリ64GBって無料じゃだめなの?
無料でできるのはメモリ何GBまで?
無償版はMAX 32GBまで
あ、追記32GB制限はvSphere 5の場合。
vSphere 4なら256GBまでいけたっけな。
でもvSphere4だと4コアまでじゃなかったっけ?
>>781 ESXi 4.1の無償版ライセンス投入したとき、
1ソケット6コアまでと出ていたような気がする。
vSphere 4だとどうなんだろう。
32GでSSDならスワップ増えても多少は耐えれるんじゃね?
vmfsのブロックサイズを8Mにすると、作成可能なファイルサイズは2Tまでになるのですが、
ブロックサイズを大きくすることでどんなデメリットが生じますか。
仮想マシン内で小さなファイルを複数作成したときに、ディスク容量がファイル総計よりも大きくなったりしますか。
それとも、ブロックサイズ8Mは仮想マシン外の話なので、そういう問題は起きませんか?
家で燻っている Phenom II X6 1090T でesxi5を動かしてみようと思う。
メモリはお安くなっているDDR3で。
ちょっと調べたらチプセトSB850はesxiで認識するようなので、コレが乗っているのを買ってくる予定。
しっかし、いまはPCIパススルなんてものが有るのか…
機能使いこなせるかな…
日記を書くのは余所でお願いします。
動かしてからの動作報告でおk
>>784 VMFS内に小さなファイルを複数作成したときにディスク容量を無駄に食うが、
仮想マシン内は推測通りで別の話
4TB の HDD が出回りだしたけど、ESX で使うには 5 に上げるしかないかな。
SANストレージなんかだと 2TB ずつ切り出してやってESX上でくっつけられるけど、
生ディスクはやっぱ駄目かね。
vCenter ConverterってGPTディスクのP2Vに対応してないんですね。
今物理環境で運用しているLinuxをESXiに載せ替えようと思ったんですが、
RDMでマウントしてやればいけるでしょうか?
Converterよりも、バックアップソフト使うほうが楽なんじゃねーかな
↑直接Convertじゃなくて、バックアップソフト経由って意味ね
P2Vって最低マシン2台ないと体験できない?
1台だけだと限られるのかなやっぱ・・・
ISCSIで、TYPE=FILEIOを指定して領域を提供させようとしているのだけど、
やっぱり、そのファイルあたりの容量はできるだけ小さい方がいいですよね。
あまり大きくしすぎると、ISCSIレベルでバックアップしようとする場合に、
異常なくらい時間がかかるだろうし、バックアップ先の容量もくってしまう。
1仮想マシンごとに1データストアをあてるつもりで、小さなLUNを提供したほうがいいかな。
>>795 ローカルのHDDにでも保存できるだろ
Converter使うよりacronisとかでオフラインでP2Vした方が早い場合もあるね
>>795 1台のPCをP2Vして、ホスト/ゲストタイプのソフトを使えば1台で済むけど、このスレに持って来る話じゃないね。
>>797 PCが止められるなら、イメージとして取得する方が速いね。
vSphere Clientから仮想マシンのエクスポート(OVA形式)して、
そいつをデプロイしたら、設定しておいたIPアドレスとかアクティベーション情報が消えるんですが、
そういうもんですか?
完全なシステムバックアップとしては使えないものでしょうか?
環境はESX4.1U2お試し版で、仮想マシンはWin2008R2お試し版です。
ESXi5.0でDQ67SWB3のオンボードNICが認識しないのですがどうすれば良いでしょうか?
対応してるNICぶっさせばいいじゃん
intel NIC買えばいいじゃん
対応ドライバ作ったら感謝してくれる人が世界中に出てくるでしょう。
予算の都合で増設はできません
あとAMTを使用したいので増設は考えていません
>800
諦める。
自分で組みこむ。
>807
仮に、oem.tgzにドライバーを組み込んでNICを認識させたとしても、碌に動かない可能性もあるからねぇ・・・。
4.1U1 + 蟹NICで痛い目に遭ったし・・・。
>>805 内蔵ポートをAMT専用に使えばいいだけだな。
>>800 インテルなら過去のチップに見せかけるだけで問題なく動くんじゃねーの
昔のtulip系諸派みたくややこしいことも無さそう
インテルNICで外れ引いたことないな。
>>811 寧ろ、ESXi5で蟹チプがcertificate listに入った事自体が驚愕な訳で。
パチモンNICげとはあった
>>812 おかげで俺のCTがもったいない事に。
若干速度が上がるんだが・・・0.1sぐらいだし。ping値で
実際の所、蟹NICでゲスト幾つもを安定運用できるもんなの?
蟹NICを毛嫌いしすぎだろ...
Z68 Pro3-MのRTL8111Eだけど、会社でレガシー環境の検証機として2K XP Vistaが20個ぐらい
キチキチに詰め込まれて動いてるけど問題なし。
蟹が原因というより、負荷が高い時には1Gbpsのトラフィックが頭打ちになってますね。
蟹嫌いな人って100M NICの時にチップが熱暴走でリンク切れしたり CPU負荷が高かった時期を経験した人かな。
蟹って未だに発熱激ヤバだったり、高負荷時ドライバがエラー起こしてシステム落ちしたりするんスか
818 :
815:2012/02/01(水) 00:53:46.24 ID:0RTQbulC0
>>816 いや俺も、最近の蟹チップならクライアントで使う分にはそう悪くないと思ってるよ。
ただ、常時稼働のサーバで使うのにはやっぱな…というのが正直なところ。
>>812 組み込み系のシステムで蟹が、ほぼスタンダード状態になってしまったから
>>816 >>818 promiscuousで動かすんだと、取りこぼしが結構痛い
>>806 すみませんが、諦められないのでこのスレで聞いているのです。
>820
本家のフォーラムで聞きなよ。本国の方のな。
そもそも予算がないだのなんだの言うなら、買う前に動くかどうか確認して買えよ。
82579はドライバ仕込めば動くじゃん。ググると方法書いてくれてるサイトいくつかあるし。
調べもしないであほみたいに人に頼るな。ggrks
解決しました
vmware workstationでおk
824の言う通りでいけたし、wsは結構です
レスまでカスかよ
お前もカス
ぐぐってくださいカスを思い出したなw
esxi5ホストに搭載しているCPUには6コアがあります。
各ゲストOSに、合計で6コアを超えるように、CPUを割り当てても大丈夫でしょうか。
(ホストのCPUを静的にゲストに割り当てないとはどういうことなんでしょうか。)
また、
コアとして割り当てるか、CPUソケットとして割り当てるかの設定があるのですが、
この違いって、ゲストにどういう影響を与えるんでしょう。
>>831 > 各ゲストOSに、合計で6コアを超えるように、CPUを割り当てても大丈夫でしょうか。
問題ありません。
> コアとして割り当てるか、CPUソケットとして割り当てるかの設定があるのですが、
> この違いって、ゲストにどういう影響を与えるんでしょう。
まんまです。
影響があるかどうかはゲストOSしだいです。
さっそくレスいただきありがとうございます。
ホストの暇なcpuコアを集めて、ゲストに仮想cpuコアを提供しているのだと思いました。
windows 2000 serverや、centosだったら、
仮想cpuソケットか、仮想cpuコアか、どちらで提供してやるといいことがあるのでせうか。
>>833 ソケットorコアの違いって、ぶっちゃけ
上に乗っけるOSのライセンスで次第じゃ?
WindowsだとClient系はソケットは2つまで
Server系だとEditionによって4〜って感じだし。
さらに言えば、仮想系のライセンス形態が無い
アプリなんかだと、コア数とソケット数で
ライセンス料が変わったりするし。
お前ら買って家で使ってるの?
>>834 なるほど。ありがとうございます。
windows 2000 serverなんかは、1CPU=1コアの時代なので、
4CPUも4コアも区別してなさそう。
とりあえず最大の4CPUで仮想マシンを設定してみます。
こういう判断正しいですよね。
>>836 6Cを越えて仮想機にCPUを割り当てても、起動は出来る。
だけど、各仮想機に負荷を掛けた時に、無応答になったりする可能性があるよ。
それから、CorePerSockets項目を弄っても、OS上では*CPUsって見えるだけ。
後は
>>834が言う通り、OSで扱えるCPUs次第。
>OSで扱えるCPUs次第。
>各仮想機に負荷を掛けた時に、無応答になったりする可能性がある
わかりました。ありがとうございます。
839 :
名無しさん@お腹いっぱい。:2012/02/02(木) 23:32:33.15 ID:jEtH+Rpk0
一つの仮想マシンに仮想CPUを嬉しそうに増やしてもかえって遅くなるかも
4coreの物理サーバにたとえば1つの仮想CPUだけなら実際にコアが1つあいてれば
使えるが、仮想CPU2つ乗っけると、同時に2coreあいてるタイミングまで待たされることになる
>仮想CPU2つ乗っけると、同時に2coreあいてるタイミングまで待たされる
KWSK
841 :
名無しさん@お腹いっぱい。:2012/02/03(金) 00:56:46.02 ID:Cp+O7t5b0
>840
4coreの物理CPUがあったとして1CPUの仮想マシンを4台立ち上げたとすると
1coreづつ割り当てられるから、喧嘩することはないけど。。
5台立ち上げたら1台はかならづ一瞬ぷちフリして待つわけです。
仮想マシンに2CPU割り当てると、2coreあいてるタイミングになるまでぷちフリ
したままになるわけです。
842 :
名無しさん@お腹いっぱい。:2012/02/03(金) 01:02:24.77 ID:Cp+O7t5b0
1coreだけしかあいてないタイミングで1cpuだけ動かすとゲストからみると1cpu死んだ
と判断してOSが死ぬ可能性があるから2core同時にあかないとつかまないようになってます。
だから、仮想マシンに6cpuとか割り当てたら。。6cpu全部あくまで待ち続けることになって
遅くなるわけです
>>841 5台立ち上げたら1台は云々というのは誤解を招く言い方だな。
ほとんどの場合、現代のマシンではCPUは空きまくってるので仮想CPU1個なら
待ちの影響はほとんど無い。仮想CPU2個、4個、8個と増やすにつれ、
全部空いてるタイミングまで待たされる可能性が急激に高まる。
844 :
名無しさん@お腹いっぱい。:2012/02/03(金) 10:00:45.66 ID:Lgm3n7mwi
>>837 いまどきのAPIC BIOS上で動くOSなら、マルチCPUとマルチコアをそれぞれ
実態に則して認識し、取り扱ってるよ。
だよなぁ。
うちの子はCPUのコア数は4個だけど、6台くらい動かしても普通に動くし。
むしろそういう融通が利きにくいディスクドライブの高速化に金を使ってる。
レスありがとう。
ホストに2コアしかないのに、1ゲストで3コア指定したら、
そのゲストは、永遠に待たされることになる?
空くまで待たされるというニュアンスがよくわからない。
ホストのcpuが100%でなければ、空いているということになりますか?
極端な言い方をしてしまった・・
>ホストのcpuが100%でなければ、空いているということになりますか?
ホスト上のCPUの使用率がたとえ1%でも、そのコアは使用中ということになり、
空いていない状態ということになるのでしょうか。
あるいは、ホスト上のCPUの使用率が高率でないなら、
「プロビジョニング」された空状態CPUがゲストに割り当てられるのでしょうか。
(「プロビジョニング」=実際のコアは使用率0%ではないけれど、100%空いているようにゲストに見せかける)
割り込み制御はハイパーバイザが片棒担いでるんじゃないの?
OSからcpuが見えなくなるとかわからない
なにがもんだいなんだ?
>>848 cpu待ちってもすごい速さで仮想マシンに順番にcpuのリソースを割り当ててるから影響はあまりないんだが
待ってる仮想マシンはぷちフリーズ状態になる
仮想cpu増やすと待つ確率が増えるってこと
「cpu待ち」ってどんな条件のときに発生してしまうんでしょうか
>>845 4コアあれば、OA用のゲストOSなら40台ほど動かすのが当たり前だしな
まーディスクは問題になるが
ネックになるのってほとんどがディスクI/Oなのに、そんなにCPUの心配する必要あるんかね。
ディスクI/Oを行わない計算のみのプログラムが動いてるゲストOSが複数あるのならわかるけど
そんな環境まれじゃないの
ディスクI/OよりCPU処理の方が重要と思っていた時期が私にもありました
やっぱ誰しも一度は通る道なのかな、CPUコア数云々はw
組む前はどのぐらいのパフォーマンス維持できるのかわからないからどうしてもCPUの方を気にしてしまう
でも実際使い出すと
ディスクI/O>ネットワーク>メモリ>CPUって感じかね?
ワークロードによってはCPUが重いこともあるが、
多くの場合は1にディスク、2にメモリだろう。
ネットワークが重くなるのはストレージにIPを使っているケースで、
そうでなければCPUと同様に重要度が低いことが多い。
>>851,845
差し支え無ければ構成を教えてほしい
参考にしたい
>>857 >>851は、単に「今時のXeonなら1 coreにつき仮想PC10台ちょいでサイジングする」
というだけの話。まともに構成を組むとなるとこんなところでちょちょいと話せる
分量じゃないし前提知識も多すぎるので、知りたきゃVMwareのパートナー向け資料でも
読んで勉強してくれ
サンプルだけ見たいなら、検索かけりゃあ業者のサイトで構成例は見つかるだろう
>>844 書き方が悪かったね。
CorePerSockets項目を弄らないで、仮想機のCPU割り当てを2とすると、仮想機内の仮想CPUソケットが"2"となる。
実機で言えば、ママソにCPU Socketが2つ有って、CPUを2つ積んでいる扱い。
CorePerSockets項目の数字を弄ると、1SocketにCoreが幾つ搭載されているかを設定する事になる。
イマドキのマルチコアのCPUが、1Socketに載っているのと同じ扱い。
>>852 HDDのI/Oが間違いなく一番のボトルネックだよねぇ・・・。
そこを如何に高速化出来るかが、カネの有る無しで決まって来ると言う・・・w
>>854 禿同w
CPUの話が出てるので便乗させて下さい。
物理プロセッサは2つでも、ハイパースレッディングで論理プロセッサが4つ。
この場合、仮想CPUの割り当てで、仮想ソケット数とコア数の関係は
仮想マシンの性能に影響があるのでしょうか?
ストレージ周りはねぇ・・・
速く出来る物なら、速くしたいが、ローカルストレージで頑張る or 1GbEでのiSCSIで何とかする
で、何とかなるレベルなら良いけど、それ以上を望むと一気に構成が膨らむと言う罠w
で、結果、何故か自宅鯖にはFC-SANが出来てしまった。
仮想化怖いw
>>847 CPU使用率ってものを勉強するといいよ。
要は、単位時間におけるアイドルプロセスとその他のプロセスの割合
100%なら、その他のプロセスだけが実行されているということになる
つまり、100%でなければ、そのホストのCPUは空いているということになるな
(1%使われているからといって、そのCPUは空いていないなんてことはないということになる)
>>862 実際、I/Oの速度に不満->高速デバイスをpls! って話になるからねぇw
そうすると、SATAでは足りないのでSASやSANを入れたい、って話になるよね。
一気に規模が膨らむ罠w
ストレージ全域で大量高速アクセスするvmなんてのは、本来仮想化すべきじゃないよなぁw
メモリ割り当て増やしてもIO大量発生するDBとかvm化するのはハードル高すぎると思うな。
うちは同時100クライアント程度のファイルサーバをvm化してみたらやっぱり遅かったんで、
SSD cache追加したら割と気にならない速度になった。
>>866 億単位のカネを出せば、そう言う用途向けの仮想化も可能なんだけど、自宅で遊ぶレヴェルじゃないもんねw
>SSD cache追加
それはどういう意味がある?
メモリロックしたら駄目?
>>868 ESXi5の新機能だから、色々と調べて見たら?
>>866 それは単純にストレージがショボ過ぎる。
ミッドレンジ(500万円〜)まで行かずとも、ローエンドでも今は高性能のが手に入る。
SB950、esxi5じゃ認識しないのかなぁ…
コンパチリスト確認してから買いに行けばよかったorz
>>871 オンボNICが認識しないって話かね?
SATAに刺したSSDを認識してくれなくて、オンボLANの確認まで辿り着けなった
USB メモリ2Gくらいのぶさっしてそこにインストすればok
>>850 当然スレッド数しか同時には実行できないわけで
それ以上同時に動かそうとすると待ち行列に並ぶわけだ
わかりやすくいうとファミレスに2人組のカップルとお一人様が待ってたとして
席が1つだけ空いたとする
2人組より先にお一人様がせきにつけるってことだ
ちなみにいっておくが
あるほんの一瞬の出来事をいってるわけで
実際には高速に順番がすこしづつまわってくるので
平等にcpuはわりあてられるから
仮想化がなりたつんだけどな
インスコさえしちゃえば、SB950チプセトに繋いだディスクでもデータストアにできるという事ですか。
情報感謝。やってみます。
>>877 sataが認識するかはしらんがnicが認識すればiscsiなりで外だしすることはできるぞ
>>877 SB950普通に動いてるぞ。AHCIとかその辺じゃないかな。
>>868 solarisでZFSをストレージにしてるんで、そっちに追加って話。
vmホストに入れるような書き方になってるね。すまそ
>>876 結局、ホストで「ゲスト」を構築しているホスト上のプロセスがどう処理されているのかを考えるのが手っ取り早いのかな
ゲストで仮想CPUを2個割り当てていると、そのゲストのプロセス(ホスト上のプロセス)は2倍の頻度で処理されるのかなと思った
醤油うこと?
仮想化だ何だと深く考えすぎなんじゃね?
ホスト→ふつーのOS、ゲスト→ユーザーランドアプリケーション と単純化して考えればいいんじゃねーの?
Q:4コアCPU積んだPCの上で、2スレッド使うアプリが3つ動いていました。さて、アプリはちゃんと動くでしょうか?
A:OSがちゃんとCPUリソースを各アプリに振り分けてくれるので、人が意識する分には問題なく動いているように見えます。
そそ
「CPUが8コア見えてるので、20個のゲストにそれぞれ8vCPUずつ割り振りました。これで最大限効率よく動いてくれるよね!」
→「いいえ、遅くなります」
というだけなので、詳しい理屈やvmwareがいかにしてその現象を軽減しているか的な話は本家のPDF探してくれ。
>>884 NTPは物理マシンを参照せよ、と言ってるのは正しいが、オーバーコミットうんぬんは間違ってるな。
余計なことを考えてるようだが、そのへんは単純に「仮想マシンを増やして行った場合の性能劣化は
どうなるか」というベンチマークを取ればいいわけで、そうやって各ハイパーバイザーを比較すると
VMwareは優れておりHyper-Vは劣っている。
>>885 まぁ単純な話だけど、ホストのC/Tの上限を越えない程度のゲストOS/仮想CPU割り当てにすれば吉、ってだけだよね。
ゲストOSに仮想CPUを複数割り当ててしまったら、これらにプロセスを割り当てて均等に処理させようとしてしまう。
当然、ホストコアにそのまま降りていってそれぞれ処理をさせることになりますが、ホストの各コアは別の仕事をやっているので、同じタイミングで並列処理は行われない。
ゲストOSでは各仮想コア間で処理のズレ(="skew"処理遅れ)が生じる。
でも、ホストCPUの使用率が高くなければ、esxi4.1の場合はうまい具合にこのズレを解消してくれるので、
ゲスト仮想CPUコア間のズレが許容時間内(=、"illution" と表現された CPU 障害を検知するまでの猶予時間)ならよろしいっていう理解でおkかな?
全てのゲストで、ホストの持つ全てのコアを割り当てるようなマネはやめた方がいいと思った。
でも、まあ、ホストのcpuの使用率が高くなければ、ズレも小さいんかなあって思った。
ゲストで仮想シングルコア設定にしておけば、コア間のズレはないので、問題ないということがわかった。
ディスク負荷がない上の話だよな?
892 :
sage:2012/02/05(日) 18:27:34.43 ID:/Ge0zSap0
現在esxi5.0を検証しているのですが、2点問題が発生しています。
誰か助けてください。
M/B E35M1-I(一時検証用)
1.勝手にホストが落ちる。※ゲストが起動していなくても。
2.VMware ConverterでVMPLYERイメージをESXIにしようとすると
info.ownerがでてコンバートできない。
現在手元にマシンがないため詳細が出せません。
>>888-890 何を言ってるのかイマイチ理解できないんだが、
何となく間違ってると思うぞ。
>>887のリンク先で解説されてるのは、
4.0以前だと、vCPUx2のVMが有った場合、
必ず物理CPUコア二つ分セットで確保できないと、確保できるまでVM止めるよ。
4.1からはVM上のOSがCPUコアの障害を検知するまでの時間(skew)分を使って、
vCPU数未満の物理CPUコアしか確保できなくても、とりあえず処理を進めちゃうよ。
skewが制限超えそうになったら、進んでるCPU止めて、遅れてるCPUの処理するよ。
そうすることで、出来るだけVM止めないように頑張るよ。
それでもダメな時はVM止めるけどね。
だから、4.0までに比べて、4.1からは、複数CPU割り当てられてるVMも
止まりにくくなってるよ、って話だと思うんだが。
>>892 1.に関しては、
・E35のH./W不良(ヒートシンクが密着してない等)
・メモリー不良 or メモリーとの相性
・完全ファンレス環境で使ってる(熱暴走)
少なくともESXi自体の問題では無いかと。
2.は分からない。
>>893 わたしも、そういう事がいいたかった。
大丈夫、なんとなく理解できていた。ありがとう。
>>892 1は↑でもいわれているとおり、HW的なエラーだろうな。
良くある要因としては
>>894の他に、電源ユニットがヘタっている(含む商用電源の不安定さ)、
コンデンサが妊娠・破水している、とかじゃねーのかな。
2.は判らん。情報少なさ杉。
今日vmware server2.0.1のイメージをesxi5にコンバートしたが、問題なく動いたし。
コンバータの版数が古いとか、VMイメージファイル自体のユーザー権限関連で何かエラー出ているとか
そのくらいしか思い浮かばん。
以下、チラ裏
----------
ちなみに、M4A79XTD EVO(AMD 790X/SB750)+phenom2 x6 1090T でesxi5は問題なく動いている模様。
と、だれも得をしないだろう動作報告を上げてみる。
本番用ママンはオンボグラボで行きたいから880G/SB850の組み合わせしかないんだろうけど、
この組み合わせも市場から消えつつあって選択肢が殆ど無いのう…
Llanoでesxiが動いてくれればなぁ (´・ω・`)
>>897 DHCPサーバー見つからねーから、管理コンソールつながらねーかもよ。
手動でネットワーク設定しろや。
って書いてあるじゃん。メッセージ読んでるか?
これ、これエラー画面じゃねーぞ。
ESXiは起動してんじゃん。
そのメッセージ、WARNINGであってERRORじゃないよ。
メッセージの内容をちゃんと把握してみ。
つか、そもそもスタンドアローンでどうやってESXi使うつもりなんだろ?
あと、多分typoなんだろうけど、ESXi(小文字のアイ)な。
初心者用のスレがいるのか、テンプレで勉強を促すべきなのか。
win7が広まってXPのライセンスが余ってる人達が手を着け始めたってとこかな。DHCP何それ?って人が触るもんじゃないよね。
なるほどEsx本体はサーバーコアのみで
管理コンソール自体も仮想端末として起動するから
ネットワーク設定がいるのか・・・
Playerやワークステーションとはだいぶ違うみたいですな
Playerでも使ってろ!って感じだな
実際897はESXi使う必要あるのか?
導入にあたってハイパーVとの機能比較目的
もっとも価格や管理面の容易さからハイパーVで確定な気はするんだけど
単に知らないから使わないのと、知ってるけど使わないのは違うので
とりあえず動作を確認しようと思った次第です
ある意味windowsが偉大に感じる瞬間だな
そうですね、Windowsは偉大です
そもそもUNIX(Linux)や汎用機みたいなのが使いにくかったから
Windowsが爆発的なヒットになったわけで、この流れはもう変わることはないでしょうね
5-10年前に「オープンソースでxxx」みたいにLinuxが脚光を浴びた時期もありましたが
結局は管理や運用の複雑さ、そしてなによりも「十分なスキルを持ったエンジニアが少ない」
といったあたりか雲散霧消した事もありますし
一時期、Widowsは糞だ!って思ってた時期が俺にもありました・・・ごめんなさい。
管理者にもゆとり登場か…
ゆとりというか、Windowsが事実上の標準になっちゃってるし
今の40代前半以下は全員がWindowsで育ってる
そして40代後半以上は役職(課長とか部長とか)がついてるから
本業のSI会社に勤めてても自身で実オペする事は無くなるし
システム選定の関与もしなくなってるだろうし
しかーし、だからといってUNIX(LINUX)が捨て去り、消え去って良い技術だとは思わないよ
だからこそ今回もESXをいじってみようと思ったのでふ
909 :
205:2012/02/06(月) 14:36:39.89 ID:6WhX0qO/0
>908
ESXはUNIX系だと思ってるように読めるのだが大丈夫か?
名前の205は間違い。
あと908はこのスレに来るよりも先に市販の解説書を読むべき。
なんかスレタイから脱線してるな
あれ?
ESXiってRHELカスタムカーネル派生でない?
かなり昔のESXは忘れたが
今はコンソールOSがlinuxって感じ
まぁなんつーか、試してみたいから入れてみたって、その行動力は大切だし、
良いことだとは思うんだが、せめてもうちょっと学習してからやってくれとw
DOSインストールして、コマンドプロンプトが表示されたところで、
これWindow開かないしOS動いてないぽいけど、なんで?って言ってるんだぞ?
>>897の内容はw
同じType1のハイパーバイザ型とはいえ、
Hyper-V/KVM/XenとESXiは基本的な考え方に違いがあるんだから、
せめてESXiでググって、どーいうものか知った上で試してくれw
>>912,913
サービスコンソールに関わる部分やドライバ辺りはLinux互換のinterfaceを持ってるけど、
OSのKernelとしては、全くの独自カーネルだよ。
ESXの時に載っけてたサービスコンソールはRHELベースを使っていたから、
目に見える部分ではRHEL派生っちゃ派生かもだけど。
VMkernelでぐぐれ
>>914 別にぶっつけ本番で特攻してもいいとは思うけどな。勢いって大事だと思うのよ。
でもトラブったときに真っ先に2chに質問する姿勢は、どーだろーと思ったw
vmfsをntfsに再フォーマットしたいんだけど、
どうやったら出来る?
さて、どうしたものか。
日中に面白い人が来てたんだねぇ・・・。
>>900 ここって、ある程度のスキルの有る人々の集まりのスレだろうから、勉強してね、の方針で良いんじゃないかな?
>>908 漏れ30代半ばだけど、CP/MやMS-DOS(3.x)時代より以前からマイコン弄ってたw
>>914 最近UNIX系のOSを弄り始めたんだけど、柔軟性があるCUIに驚き。
SSHで繋げてCUIの画面で弄るのには、全く違和感も抵抗も無いよw
理由は↑の通りw
>>916 トラブル以前の問題かと。
>>917 vmfsでフォーマットした実HDDを、ntfsでフォーマットしたいって事?
それとも、vmfs上に作成した仮想HDDを、ntfsでフォーマットしたいの?
>>903 あなたの知識範囲ならHyper-Vを選定しておいていいでしょう。
現に独りじゃ導入できてないんだからESXiは導入の敷居が高いでOK。ただそれは他の人にとっても真とは限らないことは覚えておいて下さい。
>>921 導入は出来たけど、それ以降の具体的な動かし方が分からなかった、のでは?
ESXi5になってから、H/Wの要件の敷居が、もの凄い下がったからね・・・。
なんだかんだ言いながら、このスレの住人ってみんな優しいよねw
まぁ、それでもESXi試してみたいってなら、とりあえずググって、
どうやって使ってるか見てみるだけでも、大分理解出来る気はするが。Hyper-V使ってるみたいだし。
その上で、分からない事があれば、何をやろうとしてて何がダメなのか、出来ないのかをまとめて
カキコすれば、きっと誰かが答えてくれると思う。
元々仮想化っつー事からして、ハイパーバイザを動かすハードからその上で動かすOSまで
幅広く分かってないとダメな事もあるし、
そういう意味で、このスレの住人は仕事にしてるorディープな人が多いはずなんでw
(主観だけどw)
サウンドカードをパススルーして使ったらノイズしかならなかった件
VMWareESXi5の起動後、黄色の画面時にf2ボタンで各種設定画面にいけますが、
”Configure Management Network" -> "DNS Configuration"で、ホスト名とDNSサーバなどを指定できますが、
ここのHostnameは何を入れればいいのでしょうか?
自分の環境ではデフォルトでは上から192.168.3.1、空、localhostになっています。
自分は2台のVMWareESXi5を使用しようと考えております。
で、2台をそれぞれサーバ名としてapple、orangeのように付けようとしました。
しかし192.168.3.1はYahoo!BBのモデムだと思いますが、とすると任意のHostnameを入力するのはまずいのかなと思ってしまいました。
(Yahoo!BBのモデム -> ハブ -> 2台のVMWareESXiという構成になっております)
"DNS Configuration"での設定が自分には良く分かりませんでした。
上から順にどういうものを記述していけばいいのか教えていただけませんでしょうか?
>>924 そのデバイスがパススルー出来る情報自体が貴重かと。
デバイスの型式pls。
>>925 N/Wの勉強からスタートすると良いね。
魚上げるのも手だが。
>>925 グーグルで、「hostname 意味」
あと、YahooBBのモデムはルータータイプなのか、ブリッジタイプなのか。
DNSはYahooBBのモデムのIPか、YahooBBのWEBのヘルプに書かれてるDNSサーバーのipアドレス入れればいいんでね。
後は試行錯誤してくれ。
それにしても、ここのスレの方々は、本当に優しい人々ばかりですね。
漏れもそうありたいです。
「どうしてここでHyper-Vなんか使うかなあ」と思う場面をしばしば見かけるが、
>>903のような思い込みで決めてるんだろうなあ、と思った次第
Hyper-Vの構築案件もやるけど、ホント無駄に工数かかってめんどくさいわ
ただ、Windows 8 ServerのHyper-V 3.0にはちょっと興味が。
ま、VMでFreeBSD使ってる現状、ESXi以外は考えられんのだけど、
機能的には色々とおもしろそうなんで。
よく言われることだけど、MS製品は3.0or3.1から本気出す!って事だしw
今OpenSUSE上でXen動かして、WinXP(HVM)使ってるんだけど
ここ楽しそうだからESXiに移ろうかなと悩み中
ちなみにXenでPCIバススルーすると、
マルチファンクションデバイスが複数のデバイスに分かれちゃうんだけど
ESXiってそういう事ないすか?
>>901を見る限りハイパーバイザーとホスト型の区別がついてないんじゃないか?と思うのだが気のせいだろうか?
933 :
名無しさん@お腹いっぱい。:2012/02/06(月) 23:37:28.36 ID:LR029Iif0
>>896 Llanoであれば、ホントについ最近、HPのs5-1130jpモデルでA8-3800 APU載っけたやつでESXi5を構築したよ。
メモリは自分で16GBに変更したし、ESXiのUSBメモリでブートも問題無かった。
>>931 PCIのパススルーはESXiの場合鬼門なので、
お薦めしかねる部分が。
PCIeなら、問題無いんですけどね。
今の環境を壊さずテスト出来れば、試してみてからの方が良いかと。
>>932 Type1のハイパーバイザの中でも、純粋にハイパーバイザだけで
完結してるのがESXiで、管理ドメインが必須なHyper-V/KVM/Xen
との大きな違いだからね。
Hyper-Vなんて使用感で見たら、Type2に近いから、
所謂同じベアメタルのESXiもそんな感じだと思っちゃってたんじゃ
無いかな?
>>925 自分で調べろ。
今のご時勢、情報なんていくらでもどこにでも転がっている。
つーか、その程度の知識も無い人間が家に鯖なんぞ建てるな。
どーせすぐに乗っ取られて、他人に迷惑ばら撒くだけの存在になるんだから、
おとなしく金を出してさくらインターネットでも使ってろ。
936 :
名無しさん@お腹いっぱい。:2012/02/07(火) 00:08:40.71 ID:2RnZZf830
やっぱESXiのいいところは。。USBメモリーにインストできるんで。。HDD要らないってとこがいいよね
どうせ、HDDはそとだしで。。iscsiかFCで繋げるんだから。。
ローカルストレージはイラン
俺はむしろローカルオンリーで頼む。自鯖なら十分やね。
一応Hyper-V Server 2008 R2もUSBメモリインストールできるんだけど、
VHDブート式ほかでESXi対抗の手前、かなりの付け焼き刃感がある。
パフォーマンス的にも厳しい。
939 :
名無しさん@お腹いっぱい。:2012/02/07(火) 00:13:11.74 ID:2RnZZf830
ローカルオンリーじゃvmotionとかで遊べんじゃん
>>933 5、乗るのか…
つーことはs5-1130jpのチプセトと同じのが乗っているママンでも動くだろうと言う事か。
明日起きたら調べてみます。情報thz。
4コア65wモデル、でねーかなぁ (´・ω・`)
>>934 あざっす
ちなみにxenの場合、PCIでもPCIeでもそうなる
というか、VMWareの場合ってPCIとPCIeで扱いが違うとこあるのね、始めて知った
PVドライバの類があれば尚良いんだけど、それはさすがに金取られそうな気がする
>>939 フリーライセンスってないよね?前に調べた覚えがある。結局60日ならいいやーで終わった
943 :
名無しさん@お腹いっぱい。:2012/02/07(火) 00:32:10.45 ID:2RnZZf830
>>942 簡単に作り直せるから。。またインストすればいいよ。。
2セットESXiを作っておいて。。ライセンスちょっとずらしておけば。。
Vmotionして仮想マシンにがしておいたタイミングでESXiの再インストかける。。
Vcenterは種OSクローンで固めておけば。。すぐインストールできるしな
お試しで、2コアCPUのPCにESXi5をインストールしました。
このCPUを6コアのものに交換したいのですが、ESXiも再インストールした方がいいのでしょうか。
あるいはそのまま交換しても大丈夫ですか。
>>943 インスコするのが趣味ならそれでもいいだろうけど、な・・・
泳げるようになってからプール(海)へ来てください
滑れるようになったらゲレンデへどうぞ
ESXが使えるようになったらBBSへ来てね
>>944 まず再インストールせずに差して動くのかを確認すればいいじゃね?
動かなかったら再インストールと。
>>945 めんどくさすぎるな
>>929 >どうしてここでHyper-Vなんか使うかなあ
これはやっぱりESX使えるエンジニアが少ないので、商売としてはHyper-Vしか選択肢が無いんだと桃鵜
海外ではどうか知らんけど日本では「このスレ住人の数=ESXエンジニアの数」で間違い無いしね
ESXとHyper-Vというよりは
ESXとWindowsと考えた方がよいのでは?
Windowsしか使ったことのないエンジニアが仮想化案件持ちかけられたら
安易にHyper-V選択すると思う
>>933 Llano使えるのかw
型落ちのオンボグラボの買うより、新型に凸るのも有りかなぁ
952 :
名無しさん@お腹いっぱい。:2012/02/07(火) 12:42:14.78 ID:lacLu0mh0
以前から仮想化に興味があって、今サイトを一通りみたんですけど、
これってVPCと同じで実質ネイティブよりかなり重くなるってことですよね?
そうじゃなければ即行入れたい
>>949 さすがにそれは言い過ぎじゃ……
VCP取得者だけでも5000人居るし、VCP持ってなくても
設計/構築経験があるエンジニアを20人は知ってるよ。
「VMware出来ます」でメシ食える時代は2〜3年前がピークだったと思うなぁ
>>950 >Windowsしか使ったことのないエンジニアが仮想化案件持ちかけられたら
>安易にHyper-V選択すると思う
それもあるとは思うけど、やっぱり価格じゃないかな。
vSphere 快適だし実績豊富だけど、まともに業務で使おうとすると高杉。
>>952 >これってVPCと同じで実質ネイティブよりかなり重くなるってことですよね?
ネイティブに肉薄する性能を出せるのがハイパーバイザ型の特長。特にCPUに関してはネイティブ比95%は出る。
ただしディスクI/Oは微妙。
とあるホワイトペーパーではディスクI/Oも90%以上の性能を発揮したという記事を読んだことがあるけど、
自分で CrystalDiskMark してみたらネイティブ比50%ぐらいに落ちた。
仮想化ってどれも大きな差はないと思うよ
ただ、PVドライバがなくてホストOS型でHVMなものだけは実用性に欠けると思うけどね
デスクトップ仮想化の分野になれば、Hyper-VかXen(PVドライバ付き)が抜きん出てるかなぁと思うけど…
触る機会がないのでなんとも
ちゃんとした評価が出来ない
Hyper-Vは儲かるから押してるんじゃ無いの?
最低限ホストと管理専用物理マシンが必要な訳で
実運用となればお察しで・・・
ver3.0出たら使っても良いかもな。
何が言いたいかってESXi5.0調子eeeee!
>>930 MS-DOSの時も、Windowsの時もそうだったよねw
>>931 ヒトバシラー ヨロ。
>>933 レポthx!
実は週末辺りに、APUでESXi5が入るかどうか試して見るつもりだったw
>>934 PCIパススルーには、かなりクセがある事は間違いないねぇ・・・。
ちょっと調べてみたけど、他の仮想プラットフォームって、ESXiとは違う動き(どっちかと言うとホスト/ゲスト型に近い)なんだね。
管理ドメインと呼ばれる管理用PCの内包が必要って、ESXの時と同じか。
>>940 2coreで、一桁台のTDPの石が出てホスィ。
それを搭載したノートが出たら、即買い。
>>952 CPUの速度は、ほぼ実機と同等。
PCIパススルーしたデバイスも、ほぼ実機と同等。
HDDのI/Oは、死ねるレヴェルまで低下するw
>>957 貴方も是非チャレンジして、評価サンプル増加に貢献してくださいませ><b
なお
>>933が買ったA8-3800はネットで調べた限りでは4コア65wらしい。
アキバでは見かけないけど、BTO優先供給なのかな。
俺はどーすっかなー
手持ちの1090Tをオンボードグラボでesxi化するためには880G位しかもう選択肢はないけど、
M2A-VMで5年近く戦い続けてきた戦友に、いまさら880Gをあてがうのもな…
VMWareESXi5をインストールして設定を色々してみようと思ったのですが、今手に入る本は4.1とか対応で、
設定が結構違っているようです
そこでWeb上で学習したいと考えているのですが、ESXi5を体系的に解説してくれているようなサイトとかないでしょうか?
そんなサイトがあれば、このスレのテンプレに入っているだろうな。
>>959 ほとんど変わらんよ。
気にせず使ってみりゃすぐ分かる。
>>958 了解! (ビシッ(AAry))
>>959 基本、4.1に機能追加されてるだけだからね。
だから、ESXi5を入れる -> 弄る -> 疑問が出たらggr の繰り返しで大丈夫かと。
>>961 4.1で出来てた事が出来なくなった、ってのもあるけどね・・・。 iii orz iii
>>954 Hyper-V単体で使うならvSphere Hypervisorのが高性能かつ無償だし、
まともに業務で使おうとするとSCVMMだSCCMだSCOMだと揃えなきゃならなくて
かなりの物入りになるMS製品は安くないつーかむしろ高かったりするが
>>962 5.0でできなくなった事か。
teratermでsshログインするの、えらい時間食ったわ、そういえばw
すいません。linux物理マシンをためしにP2Vしてみようと思っているのですが
ウィザードの最初の画面でマシン情報を入力して次へ押すと次のようなエラーメッセージが出ます。
---
ソースマシンに「/boot」ディレクトリがマウントされていません。起動可能な仮想マシンを作成する必要があります。
ソースマシンに「/boot」ディレクトリをマウントしてください。
---
/bootはマウントしているのになぜかこのようなメッセージが出ますがなぜでしょうか?
linuxマシンはubuntu serverでconverterはvmware converter standalone5です。
P2Vはパソコンや自宅鯖のような環境ではできないものなのでしょうか?
(会社などで使う高いサーバマシンじゃないと動かないような)
>>967 Ubuntu 10.04.3 LTS
です。バージョンによってはできないのでしょうか?
エラーメッセージでぐぐっても関係のないものばかり出てきて・・・
殆ど出ないようなエラーなのでしょうか・・
Debianのディスクのベンチマークで、3.2GB/sが出たな。
ああ、ベンチマーク無駄だとか思った。
>>969 ソフトRAIDだと問題が出るような内容みたいですが自分のところではソフトRAIDは使ってないんですね・・・
vmware converter standalone5をインストールしたWindowsマシンをP2Vしてみても
起動直後にブルースクリーン(0x0000007B)で死ぬしP2Vって難しいですね・・・
>>970 そのベンチは無駄だな。
Iometerを使うよろし。Storage Magazineの設定で。
exsi5のManagement Networkで、iscsiの転送をしようと思います。
MTUをでかくすれば、高速転送できると思うのですが、
どのくらいが適切でしょうか。
途中、ハブはおきません。iscsiとクロスケーブル接続します。
>>973 ケーブルの品質でも変わるだろうから、安定稼動する環境を実験かと。
ジャンボフレームの標準って9000だっけ?とりあえずはこれで。
>>974 ありがとうございます。
仮想スイッチの設定で、9999に設定しようとすると、9000になりました。
そうそうです。ジャンボフレームというのだった。
仮想スイッチの設定で、MTUを9000にすると、通常の1500のフレームも通してくれるのかな。
iscsiタゲットがあるCentOSでもジャンボフレームに対応しているのか、
調べる必要がありますね。それから設定ファイル場所とか。
ありがとうございました。
どうせならMTU値変えて差を測定してくれたら感謝です。
ESXi5でusb3.0使えるようですが実際使ってる方いますか?