【SAN,NAS】ストレージ鯖総合【iSCSI,FC,IB,10GbE】
2 :
不明なデバイスさん:2011/11/12(土) 09:26:44.46 ID:NL7dr0+n
3 :
不明なデバイスさん:2011/11/14(月) 04:10:07.88 ID:A3KUkwg6
>>2 残念ながらストレージ鯖だから録画鯖用にはあんまり使わないと思われ、あと業者乙
と、ネタにマジレス。
>>1 ネタ的にISLONとかNetAppとかEMCのネタも有りなのかな?
自分は個人ユースなので、その辺のことはわからんけどw
4 :
不明なデバイスさん:2011/11/14(月) 08:52:40.38 ID:rVWmq/RO
10GbEでiSCSIな奴って製品ありそうだが、実際のとこ速度は出てるのかな?
5 :
不明なデバイスさん:2011/11/14(月) 18:21:04.44 ID:A3KUkwg6
>>4 自分は専用の製品って触った事ないけど、話を聞く限りではそのままポンとはパフォーマンス出ないって事を聞いた。
結局チューニングでえらく手間がかかるって話ですな。
6 :
不明なデバイスさん:2011/11/14(月) 21:02:47.74 ID:neCXws3K
FCoE や IBoE なんかのCEEに対応したスイッチ高すぎる・・・
7 :
不明なデバイスさん:2011/11/14(月) 21:44:09.32 ID:A3KUkwg6
>>6 スイッチのスタートが100万越えからですからね。
異プロトコルって言い方がいいのかわからんですが、各プロトコル変換する装置が高すぎ。
8 :
不明なデバイスさん:2011/11/15(火) 10:58:59.84 ID:Oz8F4jwP
>>6 もともとetherはパケットロス前提だったのにそこに無理無理に詰め込んでるからねえ、CEE。
そんな無理せずにEoIBとかのほうが筋はいいと思う。
9 :
不明なデバイスさん:2011/11/16(水) 07:17:46.15 ID:I76K3rxL
File System も話題にしておk?
NFS、AFS、GPFS、Lustre、9Pとかとか
>>5 そうかあ、500MB/s以上狙いだと素直にFC/IB系の何かが無難そうっすね。
GPFSってIBMの商用のだっけ。あれって、クライアント100とか1000とかでも耐える?
wdmユニットみたいの刺せるやつないの?
fcで?fcは基本近距離だからWDM刺したりはしないと思うぞ。
14 :
不明なデバイスさん:2011/11/20(日) 07:17:21.69 ID:9ewl3DDw
pNFSって現在実用に耐えるほどの性能を持ってる?
管理がNFSぐらい楽なら導入してみたいんだけど、誰か使ってる人いませんか?
>>14 Linuxで自前でやるのは辛くない? Panasasとか持ってきて使うならありだろうけど。
16 :
不明なデバイスさん:2011/11/22(火) 03:20:25.94 ID:cOevwRaD
予算がないと自前でLinuxになるのは良くある事じゃない?
潤沢な予算で作ってみたいよ
17 :
不明なデバイスさん:2011/11/30(水) 21:09:24.01 ID:Uv+k0u2S
個人で買える範囲にしろや
page22.auctions.yahoo.co.jp/jp/auction/l114194243
メモリ盛りまくりのこーいうマシンでRAMディスク作れば超速なんだろうか。
19 :
不明なデバイスさん:2011/12/05(月) 10:27:40.33 ID:7Wpg+WVN
72GBなんてすぐ埋まってしまう
桁が三桁違うんだよなあ
RAMディスクは別にいらんな、扱いが面倒過ぎる。
それよかZFSストレージとしてなら使いたい。
とりあえずESXi向けのFC-SANは作れたから、次はストレージの強化をしたいが、
今はHDDが高すぎて、延期中。
先に、16GBのメモリーを32GBにするか・・・
>>20 リードが多い環境だとメモリを増やすのはありかと。
22 :
不明なデバイスさん:2011/12/06(火) 19:02:13.37 ID:aggnvktk
Linux の NFS って鯖側しかキャッシュしないの?
クライアント側のメモリを増やしても意味無い?
皆様のストレージ鯖のアイドル時の消費電力はどんな感じ?
24 :
不明なデバイスさん:2011/12/10(土) 14:35:38.21 ID:peV540/F
ちゃんとしたRAIDの箱で16個以上のHDDが入る奴ってどこで売ってる?
qlogicのQLE2462を付けたら起動しねぇ。
BIOS全部読み込めずに、初期化が止まってる感じ。
なぜかQLE2460 2枚だと問題無いから、とりあえずコレで当分しのぐか。
別のマザーに付けると起動するから、
BIOSの相性かな・・・
>>26 相性ってか、M/B側のBIOSの空き領域の問題でしょうね。
HBAのBIOSをマッピング失敗してるパターンですなー。
うちも、LSIのSASのHBAとRAIDのカードの同時刺しすると、RAIDの方の
BIOS読んでくれません。1枚ずつだとちゃんと認識してくれるんですけどね。
拡張カードから起動できるやつは、大体1枚以上そういうカード刺すとこけますね。
UEFIになると、そういうかち合うパターンは減ると思いますが。
>>27 まぁそんな所かなーとは思ってる。
オンボデバイス停止・その他カードぜーんぶ外してもダメだったんで、
とりあえず諦めた。
つか、オンボLAN位しか付いてないDP55WGなんだが、
おまえは、何にそんなに領域食ってるのかとw
SATAもAHCIで使ってるだけだし。
ただ、E3-1260L+C204のXeon機でも、CPUから生えてるPCI-eにこいつ+
別のカード差すと、動きが怪しくなったりする事もあったんで、
カード側のファームももしかしたら、なんか癖があるかもしれん。
2460 2枚差しで動くのは解せないが、とりあえず2portは使えるようなったんで、
その状態で稼働させてる。
1156プラットフォームなんで、今からマザーだけ変えるのもあれだし、
SAS HBA辺りを付ける時にでも一式更新かなぁ、とも考えてる。
インテルマザーかーーーっ!
よくあるよくある。マザボBIOS更新してみた?
>>29 最新から、過去に戻せるバージョン2世代位試したw
が、結果は変わらなかったというorz
P6T寺+4port NIC + 3ware 9660SAの
フル実装PCでは、何も問題無く起動するんだけどねーw
BIOS/UEFI両実装の仕組み辺りで、なんか引っかかるのかなぁ。
Xeonの環境はX9SCM-F。
ま、サンプルが少ないし、確証があるわけじゃないけどね。
>>30 ご苦労様です。
その手の問題は起きなくて良いときに起きるからなー orz
Xeon環境はうちと一緒のマザーだ。
こっちはEmulex LPe11002試してみる予定だけど、その前に色々トラブってて orz
BIOSのバージョンによって使うカードが動いたり動かなかったりで泣きそうっす。
>>31 Sandy系XeonはまだBIOS/UEFI周りがイマイチ
こなれてない感じ、●だけの問題かもしれんけど。
マザー側が悪いのか、デバイス側が対応し切れてないのか・・・
X9SCM-FでIntel ETのDualportNIC使うと、
単体ならCPU側で問題無いけど、そこに追加で
別カード挿すと、ESXiがNIC見失う。
BroadcomのBCM5709Cはどこに挿してもOK、
ETもチップセット側のx4に挿すと、問題ないとか、
色々と細かいところでねぇ・・・w
BIOS/UEFIのアップデートで、そのうち安定するようには
なるだろうけど、今の所はまだ色々とはまる要素はありそうw
SandyのXeonって2P/4Pが登場するまではまる要素だらけでしょ。
まあ、はまってるというより捗ってるのかも知れんが、ある意味w
FCハード以外の所で大ハマリorz
ZFSの使えるフリーのFC-targetっつーことで、
Solarisベースで色々やってるんだが、
Solaris11->パフォいまいち、つーか、メモリー負荷高くなると、
ARCの縮小するのは良いけど、その後制限が解除されずFree14GB、arc_size 150MBとか訳分からん状態に。
OpenIndiana 151a->こっちは、ESXiから負荷かかると、何故かFC Targetがofflineに・・・
場合によっては、いきなり再起動。ならない時もあるから、いまいち問題点を詰め切れず・・・
arc_maxをもうちょい制限すればいいのかな・・・
色々文献ググったりしてるんだが、これと言った情報が無く、様子見状態
36 :
34:2011/12/26(月) 19:02:43.98 ID:KUuufwNN
>>35 おう、がんばる!・・・・じゃねーよ!ww
このまま試行錯誤しても、らちがあきそうに無かったので、
別で動いてた鯖のハードと入れ替えた。
i7-940 24GBって環境にOI 151aをぶち込んで、基本設定だけして
使ってみてる所。
稼働最優先でやってたので、Solaris 11はテストしてないが、
今のところ大丈夫そう。
ESXi上のVMからCDMでベンチかねて負荷かけても、
落ちたりする事は無くなった。
SeqRWで380MB(4GbpsFCの帯域ほぼフル)/4kRRWで35MB前後出てるし、ARCもちゃんと動いてるポイので、
このまま行こうかと。
>>36 無事になんとか動いたみたいで何より。
しかし、M/Bの相性絡みだとどーしようもないときがあるもんなー。
OI系はFCの部分ってNexentaが思いっきり絡んでるから大分枯れてるかと思ってたんだけど、
そうでもなかったんだな。あと、4kRRWの35MB/sってQD=1なの?
ちなみにOIでクラッシュしてたM/BってX9SCM-F?
Solaris11は次の大型パッチまで待てなのかもね。
今のところARC絡みのバグのFix情報はSunsolveだったかには上がってないし。
http://wesunsolve.net/ ストレージの負荷テストツールって皆何使ってるんだろう?
うちは、*nix系はfioでWindowsだとIometerとか使うようにしてるんだけど。
38 :
34:2011/12/26(月) 22:51:18.01 ID:KUuufwNN
>>37 マザーというか、もしかしたらだけど、メモリー周りかも?とちょっと思ってる。
ZFS自体メモリーにかなり負荷かかるFSだし。
ちなみに、はまったマザーはDP55WG、今回取っ替えたのはP6T Deluxe
4kRRWはQD=1の方。QD=32だと300MB超えるw
テストサイズは4000MBだけど、まぁぶっちゃけほとんどキャッシュ
乗っちゃってるし。
ストレージの構成はHGSTの1T(2プラッタの奴)3本RAIDZを2セット1poolにしてる。
それにL2ARCにSSDで90GB位つけて。
Solaris 11でのパフォーマンスは、基本的なチューニングが
結構大規模側に振られてるポイって話も出てるし、
ちょっと様子見かなって所かと。
まぁ、取っ替えた方の鯖もX9SCM-Fを使ってるんだが、
今度はこっちで3ware 9690SAとの相性ぽい問題が
発生しているというorz
こっちはマザー取っ替えただけで、再インストールもしてないから、
一応この年末年始でOSの再セットアップをしてみるけど、
多分、ダメだろうな・・・(遠い目
症状としては、読み書きすると全DISKでランダムにタイムアウトする。
でも、アレイはデグレしない。一応書いてるファイルも正常ぽいし。
ただ、非常に不安な状態ではあるw
ちゃんと冷却取れてないのでは?>DP55WG
CPU直結になってからメモリアクセスをひんぱんにしてるとCPUは温度上がるんで
(デュアル構成で負荷100%でアクセスするメモリを片側に寄せたら温度上昇倍違った、)
冷却が間に合わないとさっくり飛ぶよ。
>>39 元々部屋に入れてないマシンなんで、24時間常時FAN全開だったりする&
今の時期、PCの置かれてる場所の気温は楽に10度切ってるし、
そこまで冷却不足とは思って無いけどね。
逆に冷えすぎるから、冬場はFANの速度絞るw
比較的発熱が多いHGSTの7200rpmHDDがsmart読みで20度切るくらいだからw
DP55WG一式はどっかでテストしてみたいけど、
今こいつをテストする環境が無いんで、放置。
ケースは有るが、テストに回せる電源がねぇ。
>>38 おおー、詳細ありがとう。
zfsは確かにメモリ酷使するFSだわな。
なので個人的にはECC付きのメモリ+CPU+M/Bでストレージサーバ組むようにしてる。
Solaris11は、InfiniBandの絡みで検証してるけどZFSの方までは
細かく検証できてないんだよなー。
うちもRAIDカードで問題が orz
LSIの9260もどきを手に入れたからこっちで構成して正常に動くといいな・・・。
次もX9SCM-Fで行くか悩むw
まぁある程度検証しちゃってるから、Tyanとかにしちゃうと再度検証し直しになりそうだしw
検証してて思うのは、自作だと鉄板の構成探すまでが大変。
メーカー製だとある程度メーカーがその辺の相性問題出した状態で出荷してるし。
あけおめ
正月休みにFC絡みの話を知り合いとしてたんだが、Qlogicのは微妙って話が。
HA組んでて、片側落ちたら全系統落ちたとか洒落にならない話を聞いた。
その後もトラブル続きで結局全部Emulexに変えたらしい。
38氏は無事に運用出来てるのか心配だ・・・。
>>42 HAまでは組んで無いので、分からないが、
今のところ家では、FCが原因で、止まったとかはないなー。。
試しにFC-targetとESXi間2系統のうち、
片側引っこ抜いても、固まる事は無いのは確認した。
同じtargetへWindows鯖からも接続してるけど、そっちも問題なしかな。
target-Brocade 200E-ESXi/Windowsの組み合わせだけど。
まぁ、QlogicのFCカードは癖がありそうっちゃありそうだけど。
BIOS/UEFIでASPMがONになってると、
カードのファームが転けるっつーか、固まって、
起動しないとか。
これやると、カード抜くまでマザーのBIOSすら拝めなくなるから、
カード抜いて再設定しなきゃならんw
Emulexは使ってないので、比較のしようが無いw
ただ、Solaris系のCOMSTARでtarget作る場合は
Qlogicの方が楽ぽい、調べた範囲では。4Gbps以上のカード必須だけど。
Emulexでも行けるはずなんだけど、
うまく行ってる人がなかなか居ないみたいなんだよねー、何故か。
3ware 9690SAのRAID6アレイがサイレントクラッシュしてるぽい・・・orz
週1でverifyかけてたんだがなー。
これはもうこいつもESXiに統合してストレージをZFSに置き換えするしか無いな。
>>43 QlogicとEmulexの両方手にいれたので、テスト出来るのでやってみるよ。
ついでに、QlogicのCNAのアダプタも手に入ったからこっちでもテストしてみる。
>>44 サイレントクラッシュは厳しいね。
zfsだとアクセスした時点で修正勝手にかけようとするんだっけか?
46 :
不明なデバイスさん:2012/01/23(月) 02:01:34.58 ID:5uZ913i2
NFSサーバってファイルを読む時にサーバ上のメモリにキャッシュすると思うけど
4GBとか大きなファイルにアクセスする時にはいきなりファイル全体をメモリに置くの?
それともアクセスの状況を考えてちょっとずつ置くの?
例えばメモリ16GBぐらいのシステムで別の4GBのファイル8つに
クライアントがそれほど速くない速度(4MB/sec)アクセスした場合は
どんな感じでキャッシュされるのだろう?
ottoでFC 8gb品が安価に出てるね。(emulex 2x8gbのOEM)
そろそろFCデビューか。
iscsi ストレージで冗長構成したいのですが、どの様な製品がありますか?
49 :
不明なデバイスさん:2012/06/22(金) 12:40:07.71 ID:d9exVacD
日本音楽著作権協会(JASRAC)など音楽の著作権を扱う6団体2社が、
インターネット上の違法音楽ファイルに対して新たな対策に乗り出した。
権利者団体が設立した「著作権情報集中処理機構(CDC)」が開発した
違法ファイルを検知するプログラムを、プロバイダー側に導入するよう働きかける。
これまで違法ファイルは、権利者団体が見つけ、プロバイダーに削除要請をしてきたが、
削除までの間に、ネット上に拡散してしまうのが実情だった。
今回、CDCが技術開発したプログラムは、プロバイダーのサーバー上で起動し、
違法ファイルを自動的に検知する仕組み。6団体2社は、プロバイダーに
このプログラムを1カ月につき5万円の使用料で提供し、違法ファイルをアップロード
(配信)した人に対して、警告やネットへの接続を拒否する対応を自主的に取って
もらうことを目指すという。
◎一般社団法人日本音楽著作権協会 JASRAC
http://www.jasrac.or.jp/ ◎
http://www.asahi.com/showbiz/music/TKY201206200382.html
NASなんてルーターに外付けハードディスク繋ぐだけで十分だろ
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
そうかタヒね
52 :
不明なデバイスさん:2013/01/06(日) 22:01:39.55 ID:TgZRZXa6
age
EqualLogic一択?
NFSが無いと・・・
>>50 それでもいいんだけどさFAT32にしか対応してないよね
EMCの VNX5300あたりを買おうと思って見積もりとったんだが、
本体価格+保守費5年で1千万とかするんだね。
クライアント50台同時アクセスで、キャッシュヒット状態での SMB2.xで
10GbEが 30%埋まるぐらいの性能が出るなら、買う気なんだけど、
性能出るかな?
>>56 いや、どう考えてもそれはメーカーに聞くべきだろw
少なくとも、ここで聞いて判断するような事じゃ無いと思うぞ。。。w
ただでさえ、Clientからのアクセスは利用パターンや、アクセスしてるファイルの種類/サイズ
によって、スループット変わるもんなのに、
ただ、性能でるかな?って聞かれたってわかんねーよ。。。
>>56 おう、我が家でバリバリ使ってるぜ!
ってなことにはならんわな
あいにく職場でも使ってないので他を当たってくれ
>>56 シーケンシャルならクライアントがwin7で1Gbps余裕で使い切るから、
50台同時にシーケンシャルアクセスされたら10GbEでも不足する計算だよね。
ただしクライアントのHDDが遅けりゃその分余裕は出る。
EMCに聞いても単純には回答もらえないんじゃ?
ファイルサーバーの性能指標って何かないかな?
例えば、GbEな QNAPで 同じファイルを複数端末から読むと、
端末1台だと GbEをフル帯域で埋める
端末4台だと GbEの半分にも届かない
ってなるんで、そういう性能指標が欲しい。
主な用途は、教室からの一斉アクセスw
>>59 Citrixが、Windowsたくさんの環境を想定してNetAppでテストやってるのがあるけど、ああいうのはなかなか無いねえ
つーか、普通は帯域を云々する前にまずIOPSだわな
>>60 そういう用途なら10GのPCサーバーを複数台用意して分散させた方が
金額的にもやさしくね?
てか、そんなにでかいデータ量なの?
増やした機材の運用は誰がやるんだバカ
このぐらいでそんなに運用に困るもんか?
具体的な話がないとアレだが、ぱっと見では特に問題でもなさそうだな
増設したファイルサーバ間で同期をかけておいて、PC側の設定で分散させる
「1個のゴールデンイメージからPXEブートかけててPCは全台同じ設定だよ」
ということかもしれんが、そこをいじるのが面倒ならユーザに指示すればいい
その方式だと完全にきれいに分散することはないだろうが、極端に偏ることもなかろう
ユーザーの善意に期待するのは無理。
分散なんて面倒な事する以前に、端末十台から一斉アクセスで
GbEを 帯域100%で使いたいってだけなんだが。
samba4.0で、SMB3.0だと期待できるかな?
元々CIFSはプロトコルとしては、重いんだよ。
SMB3.0使おうが、数百KB程度のファイルを読み書きするレベルじゃ、
プロトコル処理の方が足ひっぱてんだよ。
おまけに十数万クラスのNASなんて、全部ソフトRAIDで、まともな小サイズのファイル相手じゃ
まともなIOPSすりゃ出やしない。
まともなアレイコントローラだけでも10万前後飛ぶからねぇ。
十数万じゃなくてその10倍の値段出しても、小サイズのファイルをちまちま書き込んでるとスループットは出なかったりするしな
まともなIOPSを出せるだけのHDD本数を揃えるか、SSDを使えば別だが
>>66 教室でのクライアント50台同時アクセスじゃなかったの?
>>69 そうなると階層化ストレージの出番だな。
値段が更にもう1桁上がる可能性もあるけど。
>>66 おまえさんは結局何をどうしたいのかの要件定義からやりなおせ。
性能やら構成はそこから後だ。
>>69 読み込みはともかく書込みでスループット落ちるのは
キャッシュメモリ足りないんじゃね?
キャッシュもだろうけど、結局その先が間に合わないと駄目だからね。
細かいランダムアクセスに付いてきてくれるストレージが必要かと。
GbEの帯域云々と言っている時点で、性能要件としても迷走してんだよな
性能要件以前に、本当にそのファイルサーバアクセスは必須なのか、全然別の
やり方をしたらアクセスせずにすませられないか?ということも検討したほうがいいけど
?
GbEでは足りず10GbEになりつつある映像編集用途のストレージについて話している人ととデータベース用途のストレージ()について話している人では話はかみ合わないだろうね
いきなり訳の分からん事言い出すんじゃね−。
誰もそんな話してねーよ、内容読み直せ。
ま、60が出てこなきゃ、これ以上この話は進まんがな。
教室からの一斉アクセスなんて、何でもいいじゃん。
多少遅くても待てばいいだけだし、クラッシュしても損害は出ない。
教育工学畑ってそんなもんだ。学問以下
こんなロボコン以下の運営しやがって
寒いんじゃコラア
誤爆すみません
たまにヤフオクに出るSunのFCストレージがなんかめっちゃ高額で取引されてる
実際死ぬほど欲しいけど8万とかポン出せんよ
OmniOSの新しく出たr151008f 、ZFSのスケジューラにかなり手が入ってて、なんか良い感じ。
ZFS特有の書き込み時の息つきが、大分少なくなって、安定した速度出るようになってきた。
Hyper-V 2012上のiSCSI RDMでのベンチ、ストレージはConnectX 2 QDR IPoIB先
-----------------------------------------------------------------------
CrystalDiskMark 3.0.3 x64 (C) 2007-2013 hiyohiyo
Crystal Dew World :
http://crystalmark.info/ -----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 1156.275 MB/s
Sequential Write : 589.916 MB/s
Random Read 512KB : 805.656 MB/s
Random Write 512KB : 492.154 MB/s
Random Read 4KB (QD=1) : 26.825 MB/s [ 6549.1 IOPS]
Random Write 4KB (QD=1) : 24.168 MB/s [ 5900.3 IOPS]
Random Read 4KB (QD=32) : 233.865 MB/s [ 57095.9 IOPS]
Random Write 4KB (QD=32) : 135.931 MB/s [ 33186.3 IOPS]
Test : 1000 MB [E: 25.4% (4948.8/19455.9 GB)] (x5) <0Fill>
Date : 2014/01/10 19:45:40
OS : Windows Server 2012 R2 Server Standard (full installation) [6.3 Build 9600] (x64)
せっかくご自慢の構成を組んだのならIometerあたりのちゃんとしたツールを使えばいいのに、
どうしてこの手のいかがわしいツールを使ってるのが主流になっちまったんだろうなあ
まあ、おおまかな傾向は分かるけどさ、なんつーか勿体無い感
>>85 ぶっちゃけ、面倒なんだよ、ログ書き出すのが。
カンマで区切ってんで、コピペしてcsvで見てくれ。
こんなんでいいか?
size,% of size,% reads,% random,delay,burst,align,reply
65536,100,100,0,0,1,0,0
IOps,Read IOps,Write IOps,MBps (Binary),Read MBps (Binary),Write MBps (Binary),MBps (Decimal),Read MBps (Decimal),Write MBps (Decimal),
3669.485581,3669.485581,0,229.342849,229.342849,0,240.483407,240.483407,0,
3669.485581,3669.485581,0,229.342849,229.342849,0,240.483407,240.483407,0,
Transactions per Second,Connections per Second,Average Response Time,Average Read Response Time,Average Write Response Time,Average Transaction Time,Average Connection Time,Maximum Response Time,Maximum Read Response Time
3669.485581,0,0.271989,0.271989,0,0.271989,0,418.4154,418.4154
3669.485581,0,0.271989,0.271989,0,0.271989,0,418.4154,418.4154
size,% of size,% reads,% random,delay,burst,align,reply
65536,100,67,100,0,1,0,0
IOps,Read IOps,Write IOps,MBps (Binary),Read MBps (Binary),Write MBps (Binary),MBps (Decimal),Read MBps (Decimal),Write MBps (Decimal),
2852.524916,1911.496856,941.028061,178.282807,119.468553,58.814254,186.943073,125.271858,61.671215,
2852.524916,1911.496856,941.028061,178.282807,119.468553,58.814254,186.943073,125.271858,61.671215,
Transactions per Second,Connections per Second,Average Response Time,Average Read Response Time,Average Write Response Time,Average Transaction Time,Average Connection Time,Maximum Response Time,Maximum Read Response Time
2852.524916,0,0.349877,0.33433,0.381456,0.349877,0,752.4872,752.4872
2852.524916,0,0.349877,0.33433,0.381456,0.349877,0,752.4872,752.4872
下のほうはデータベース的なアクセスを想定したパターンやね
さすがに64KBになるとIOPSが下がってるな
ターゲットのディスクサイズは
>>84で1000MBとか書いてあるのと同じ?
だとするとキャッシュに収まるサイズだね
# of Outstanding IOsを1にしてるんじゃないかと思うけど、ここはアクセス元のOSのデフォルトのqueue depthか自分で設定してる値にするのがよいかと
>>87 下はDBつか、一般的なファイルサーバーっつー扱いかな。どこのサイト見ても。
woker 1なんでこの値だが、ストレージ側のIOは、まだサチって無いと思う、
woker 2で取った結果、IOpsは伸びてるんで。
ターゲットサイズは3GB弱だったかな。
ストリームリードはsize 256k、ファイルサーバーは設定そのままで
outstanding 8、woker 2でやった結果。
ターゲットサイズは5GB
http://www1.axfc.net/u/3143339.csv
89 :
88:2014/01/13(月) 16:47:53.85 ID:CF6GitrQ
workerは1でいい。
アクセスパターンと、# of Outstanding IOsが重要。
後者を上げて行ってもIOPSが伸びなくなれば、そこが上限だから。
まあ面倒なのは俺もそう思うが、それでもCDMは無いわー
以前、8GBのcache積んだDiskArrayを売り込んできた代理店が
CDMの結果をドヤ顔で出してきたから、さすがに苦笑してお引き取り願った
単純すぎて素人の自己満足目的以外には意味が無いよね>CrystalDiskMark
あれ?FibreChannelの単独スレなかったっけ?
94 :
不明なデバイスさん:2014/08/25(月) 23:10:47.95 ID:I7GQfDyF
FreeBSDのctld、機能的にも大分充実してきたね。
あまり真面目に追ってなかったが、10-stableにSCSI-3 UNMAPとVAAI、MS ODXまでMFCされたみたい。
VAAIは試せる環境が無いから出来ないけど、ODXの方は、テストしてみた。
同一LUN内でのコピーや、別LUNへの移動・コピーで、ちゃんとODX動いてる様だ。
vMotionや、LiveMigrationでもやらなきゃ、あまり目に見える効果は少ないけど、
クライアントがWin8以上なら有効だから、1GbEのiSCSIみたいな構成なら、
ディスク内でのコピーなんかでも、ストレージ内で完結する分、
体感出来る部分はあるかも、利用環境次第な所はあるけど。
UNMAPの方も、当然だけど、普通に動いてる。
illumosのCOMSTAR同様、削除ブロックの回収動き出すと、通常の読み書き止まるけど。
これはZFS側の問題だから、まぁしゃーないのか。改善出来るなら、なんとかしてほしい所だけど。
COMSTARと違って、ctl.confでこの辺は使わないって選択も出来るから、
必要無ければ、使わなきゃ良いんだけど。
後、理想を言えば、FC target機能が付けば、ほぼ完璧な気はするけど、
とりあえず、iSCSI targetとしては、かなり良い感じになってきたね、やっぱスポンサー付くと違うねぇ。
OmniOSで動かしてるストレージサーバー、10.1出たら、BSDに置き換えてみようかなぁ。
お勧めスレがなかったので質問。
QNAP・ts-220を買おうかと思うんだが
新興のASUSTOR・AS-202TEが気になっている。
前者は歴史があるけどCPUがARM系。
トレイがプラスティック。
後者はその逆でCPUがインテルでトレイが金属なんだけど新興でレビューがほぼ皆無。
その他も含め皆はどんな選択をする?
広い視野で意見を聞きたい。
必要なスペックがあればあとは両方買って自分で自分のために比較、
ということでいいんじゃないかな?
ASUSTORってQNAPスピンアウト組が始めた会社だっけ?
しかもQNAP内でも比較的優秀なチームだったような
>>96 それが有意ならいちいち質問しない。
>>97 そうなんだ。
そしてその話を聞いてQNAPにしようと決めた。ありがとう。
体制として不安定さを感じる。
NASの管理体制としてそれは命取りになりかねん。
意味不明
>>99 事業継続性の問題。
壊れてハイそれまでよでは
サーバーとしては困る。
チーム単位で引き抜いた組織が
崩壊するのって何処の業界にもある話。
3万もしない家庭用NASに何を求めてるんだろうこの人
30万程度ですら、壊れたらハイそれまでなのにね