このスレは伸びる!
間違いない!!!
7 :
login:Penguin:2007/09/14(金) 15:43:17 ID:+fo3Eq3t
こんなのもあるよ!
This is Intel's Open Storage Toolkit. It contains reference implementations of Internet SCSI (iSCSI) and Object-based storage devices (OSD).
There is also support for synthetic workload generation, workload characterization, and I/O tracing and replay.
Intel's Open Storage Toolkit
http://sourceforge.net/projects/intel-iscsi
>>6 お、俺もお前のこ(ry
玄箱のiscsi target化の記事があったら欲しいかな
17 :
login:Penguin:2007/09/14(金) 16:48:18 ID:IhmkqERC
自演するならもう少し時間を空けてカキコしないとすぐわかっちゃうよ
ID:+fo3Eq3t ID:+4/lbP11タソ
とりあえず晒しage
自演ってわけ分からないんですが
とりあえずフシアナ
出来れば煽りじゃなく構築に参加してくれると嬉しいんだが
>>17 人手が足りないもんで
メル欄か…俺アホスwww
コンドコソ
名前欄に、fusianasan
スペルが違うんじゃないのか?
汚しすぎだよ俺…市ね
24 :
login:Penguin:2007/09/14(金) 17:11:11 ID:/PcgD9s6
安全性の問題はどうなるんでしょうね
>>24 興味深いね
自分も調べてみますが
調査をお願いしてもいいですか?
IPv6との相互運用性についてもどなたお願いします
【あいすかじー】
アイスかじってる感じ?
まぁともかく余ってるPCで遊んでみっかな
OSとプロトコル比べてる辺りがなんとも
OSによってドライバ無かったりするので
闇鍋感覚で煮込みながらいきましょうや
どうでもいいがUNIX系ならカーネルにドライバが組み込まれてる
WindowsやMacでは当然対応してるはず
ドライバ無いOSって他に何があるんだ?
全然闇鍋で行く必要がないのだがその点どうよ?
iSCSIはそうね
お、タイムリーなスレだね。
自分も今これで遊んでます。
Server(amd64+Intel PCI-e GBI) + client(amd64 + Intel 82566DC-2)で 83mb/s
までは確認しました。raidじゃないんでこれ以上は出ません。
windows xpのiscsi bootは出来ないのか?
initrdみたいな仕組みがないWindowsでiSCSI BOOTはOSより前にiSCSIが動いてないといけないから
iSCSI HBAが必要になる
iSCSI HBAが必要になってしまうのか。
たしかintelのサーバー用nicはiscsi HBAになれるようなんだが。
なんとか出来ないものかね。
PXE + iSCSIでいいじゃん
linuxは別にそれでかまわないが、Windows XPはどうするのよ?
Microsoft connectに入らないと入手できないがMicrosoft iSCSI Software
Initiator Boot Versionで2003は動く。
XPは知らね。
2003はiscsi bootできるのか。情報ありがと。
けど、disklessがありがたいのはクライアントだから、
xpにも出来てほしいところ。
流行追いかけでサーバ仮想化+iSCSIなら2003では実現できて欲しいな
vmwareもpxeエミュレーションできたような気が
xpでできちゃうとファットクライアント排除の流れに繋がりそうw
M$にとってはマズイことかも
xpでpxeブートそのものがM$製品のみでは実現できなかったような気がする
お、なんとタイムリーなスレだ
遠距離ディスクマウントとしてsshfsの類を使ってみたのだが、良くも悪くも微妙なレイヤで、
やはり可能であればiSCSIの方が・・・と思ったものの、これ、遅延特性どうなんでしょ? 安物100Mラインじゃダメかな。
ググったら実験結果はあるんだけどそれぞれ前提環境が違うー。使って居られる方いかがでしょうか?
良スレアージュ
43 :
名無しの:2007/09/24(月) 17:05:57 ID:t4XqrrcW
で、SLES10の愛SCSIはIET由来なのかい?
44 :
login:Penguin:2007/09/27(木) 16:47:37 ID:gIMkiJyy
iscsitargetとsstorageどっちがいいかな?
iscsitargetのほうが安定してるんだろうか
45 :
login:Penguin:2007/09/27(木) 16:48:24 ID:USGyDoO2
うん
Windowsには手軽なイニシエターとターゲットのツールがあるようですが
Linuxの場合はカーネルコンパイルが必要なのでしょうか?
47 :
login:Penguin:2007/09/29(土) 15:31:28 ID:2FwLn5NK
リア厨
ハ,,ハ
( ゚ω゚ ) お断りします
/ \
((⊂ ) ノ\つ))
(_⌒ヽ
ヽ ヘ }
ε≡Ξ ノノ `J
コンシューマ向けネタとしてPS3 LinuxのBlu-rayドライブをiSCSIターゲットとして
他のマシンから使うっていう話があるね。
とはいっても読み込みしかできないドライブなのであまり使い道が無いんだけど
>>49 まさに/dev/sdaの様に、SCSI機器みたいにみえます。
iSCSI Initiatorを提供しているバージョンのRHELやCentOSなら
カーネルの再コンパイル等は無しでいけます。
(Dellの推奨がどうなっているかはさておき)
DASの様に使うのであれば、iSCSIで全然問題ないと思いますが
NFSと比較している前提が複数ノードからの共有目的なのであれば、
iSCSIを選択するとクラスタファイルシステムにも慣れる必要が
あるのでNFSにしておいた方が無難かも。
51 :
login:Penguin:2007/09/30(日) 16:10:56 ID:PQHTr1Vy
.__
((|ノ・∀|ノプルルン ハーッハッハッハー!
プルルン|__|)) 今日は特別サービス!
) ) このようかんマン様がプルルンしながら登場だ!
iSCSIってレイテンシとかスループットで普通のディスク的に考えていいの?
直接アタッチされるDASならドライブ毎、バス毎に両方とも帯域保証というか
最初から分離して確保できるけど、iSCSIで多数台が接続利用する形になったら
ウン十[ms]のレイテンシとか、数[MB/s]のスループットとか単品ディスクに
比べて1/10位に簡単に激減しそうで不安・・・
スペックや環境にも依るが80%ぐらいは出る
ランダムreadは単独より高かったりしてわけわからん
Targetのメモリをキャッシュとして使うからじゃないの?
GbEはBondingして、メモリ8Gとかで使ったら速そう。
>>52 パフォーマンスが気になるならハードウェアのiSCSI使えばいいと思うんだけど。
55 :
login:Penguin:2007/10/05(金) 16:09:33 ID:pykN/FFt
iSCSIを最近本格的に利用しているが、超快適だ。
nfs/sambaなんて比較にならないほど早いし快適。
ファイルサーバーに全てのHDD(10台w)を割り当てて3TBの環境を実現してるが、
使いやすい。
windowsも稀に必要になって使うが、
linux server(lvm -> iscsi-target) + linux client(iscsi-initiator + vmware + windows(physical drive認識))がとても快適。
linux clientはdiskless構成で、リビングに置いてHTPCとして活躍しています。
56 :
login:Penguin:2007/10/05(金) 16:10:44 ID:pykN/FFt
windows xpのiscsi bootはうまくいかないのが残念。
58 :
login:Penguin:2007/10/05(金) 16:36:27 ID:pykN/FFt
target/initiator共にlinuxです。
失礼、よろしければディストリビューションとバージョンを教えてくださいませ。
60 :
login:Penguin:2007/10/05(金) 16:48:55 ID:pykN/FFt
デストリはserver/client共にUbuntu 7.04-amd64-desktopです。
serverのカーネルは2.6.23-rc9で、clientは2.6.22-12としてます。
サーバーは高負荷時のパフォーマンスを意識して野良ビルドの最新版、
クライアントはrestrictedパッケージ等のコミュニテイのサポートのある
カーネルを利用しています。
>>55 ファイルシステムは何にしてます?
まあ、一人暮らしで使う分にはクラスタファイルシステムなんていらないんだよね。
>>61 今のところはext3とjfs。
そのうちocfs2に移行しようかと。
nfsのもっさりはもういやだ。
63 :
login:Penguin:2007/10/06(土) 21:34:27 ID:qakXpc18
みんな、やっぱりTargetとGbEで直結してんのかな?
インターネット向けとは分けたいよね。
11gでiSCSIを使おうとするのは無謀ですか?
求めている速度による。40MB/sとかの性能を求めているなら無謀。
使い物になるかという意味なら・・・11gでNFSとかだって使えるのだから
人間の我慢できる範囲内じゃないかな?
66 :
login:Penguin:2007/10/14(日) 11:42:06 ID:lo4pre2m
それはiSCSIに限らない問題じゃないのか
ケーブルが引っこ抜けたときのリカバリはうまくいきますか?
以前試したときはリカバリできずリセットするしかなかったので。
無線LANでiSCSIの速度我慢できる人は6時間待ちぼうけくらっても深層意識から怒らない人だけ
iSCSIで40Mb/sは問題ないレベルだと思うが。
10GbNICで450Mb/secという記録もあるし。
FCより将来性のある技術だろう。
>>69 おれも確実にFCは廃れると思う
インフラがばらばらにあるのは投資と管理の両面でコストがかかり過ぎる
十分10GbEで性能的問題が無ければインフラ統合の流れは必ず起きると思うよーん
5MB/sかよ
72 :
login:Penguin:2007/10/15(月) 09:20:44 ID:moW9R6rN
Windowsだと、LinuxのBondingみたいなことできないのかな?
出来るけど板違いだな
74 :
login:Penguin:2007/10/15(月) 11:10:00 ID:moW9R6rN
>>73 意地悪しないで教えてくださいよ〜。
ググる時のヒントだけでもいいので。
75 :
login:Penguin:2007/10/15(月) 12:50:39 ID:ZV+AcWcX
>>60 Ubuntuかぁ・・・おいらも真似してみよう
>>71 11gにしては頑張った数字の気はしますが
汚なすぎるだろ、内藤。グローブで頭抑えていいのかよ。とてもじゃないが
祝福できないな。審判も酷すぎだった。内藤の反則をもっと取れよ。まじ、いい
加減なジャッジだったな。明らかに、内容的には大毅が勝っていたよな。先月の
メキシコでの合宿でかなり成長したな。次は長男が内藤に挑戦だな。大毅から内藤攻
略を伝授してもらえば楽に勝てるだろ。俺はいつまでも、亀田一家を応援するぞ
頂上決戦に相応しい豪華なカードでしたね、特に亀田は人気もありましたし。
防御はあまりしないので、点数を取られすぎたのが今回の敗因でしょうか。
攻撃面は本当に素晴らしいものがありますね、終始KO狙いの戦い方でしたし後半の
スパートは思わず歓声を挙げてしまいました、それに引き換え内藤は逃げてばかりで
汚いですね、あれがチャンピオンの戦い方なんでしょうか。
祝福をあげるべきなのは最後まで正々堂々闘った亀田選手だと思います。
加減の解らん奴らだな、いい加減にしろよな、このオタクども
刈り上げるぞ。大毅はな、雨の日も、台風の日も、雪の日も
畦道を一生懸命、走りこんで練習してんだよ。反則があった、無かったって
キリがないだろ。大毅のしゃがみ姿勢からの
攻撃は、反則じゃないんだよ。解ったか?
咬みつくことしかできない、アホどもめ。
チャンピオンの風格があるのは断然、亀田大毅だよね。
次は絶対勝つと思う、と言うか今回も内容では勝ってたからね。
チャンピオンの反則に押されて力を出し切れなかった所が残念です。
冷静に見れば亀田の勝ちなのに、内藤の反則と逃げてばかりの戦法、
加えてチャンピオン贔屓の審判団、すべてが不利に働いてました。
メールで講義したけど無視されました、亀田も相当落ち込んでると思います。
町でもしあったら皆さん励ましてあげましょうね
凄い力作の縦ですね
>>79 長城のあたりがよくわからんからネタバレ頼む
TBエスシネ
うぉぉぉぉぉーーーーナルホド!力作だ。
>>83 別にいいんじゃない?
俺はXやらデスクトップが使いたいからUbuntu使っている。
85 :
login:Penguin:2007/10/19(金) 13:30:26 ID:fUhvTNKm
| |
| |■ヽ
|_|,・∀-、そ〜
|鮭|o(,,■)o.
| ̄|ωJ
| |
| |/■ヽ
|_|(,,・∀・)
|鮭|o .ヾ ,.-、
| ̄|ωJ' (,,■) <コトッ
| |
| |
|_| ピャッ!
|鮭| ミ ,.-、
| ̄| (,,■)
86 :
login:Penguin:2007/10/23(火) 13:59:25 ID:71SEcPzz
終了
すごいプロトコルなのにいまいち注目度低いよな。
バッファローやアイオーのNASで対応製品とか出て良さそうなもんだが。
USBなんかより速いだろ?
ケーブル一本で接続すればすぐ使えるってもんでないしトラブル起きたらバッドノウハウの倉庫になりそうだから
N5200PROとか有るけどな
89 :
login:Penguin:2007/10/24(水) 10:31:37 ID:U7K/pdxr
ケーブル一本で使えるようになるとは思うが、そこから先が結構難しい。
ocfs2が使えるlinuxなら今のNAS(cifs,samba,nfs)程度の使い勝手は簡単に実現できると思うが、
Windowsで使うとローカルHDDの変わりにしかならない。
WindowsはiSCSIでbootするにはお金がかかるし・・・。
色々やったがいまだにWindows XP iSCSI bootできてませーん
XPはダメだろ?
91 :
login:Penguin:2007/10/24(水) 10:33:54 ID:ANDz/2KE
ノーマルのはiSCSIブート無理だよ
WindowsではiSCSIのターゲットをNASのように使うのは不可能ってこと?
93 :
login:Penguin:2007/10/24(水) 10:49:29 ID:ANDz/2KE
意味がとりにくい
94 :
login:Penguin:2007/10/24(水) 17:41:44 ID:U7K/pdxr
windows XPでもイニシエーターとして使うのは問題がないが、SAN(iscsi target)から直接bootするのは 難しい。。っていうか出来ないの?やっぱり。
>>92 無理じゃないかな。アクセスできるとは思うが、ファイルシステムの整合性が壊れて
ぶっとぶでしょ。NTFSじゃ。
でも、お金を出せばクラスターファイルシステムがwindowsでも買えたりするかもしれん。
つまり複数台から同時にアクセスするにはクラスタファイルシステムが必須だが、
Windowsに対応したものがない。だからWindowsからはNASのように使えないということですか。
単体で使うにもNTFSでフォーマットしなきゃダメなんですよね。やっぱ
NASのように使えないって表現はおかしくないか?
共有ディスクじゃ?
>>97 たしかに表現がおかしかった。その通りだね。
99 :
login:Penguin:2007/10/28(日) 13:47:29 ID:pSTTjAnA
<自作前>
____
/_ノ ' ヽ_\
/(≡) (≡)\ 新しいパーツが沢山出てきたおw
/::::::⌒(__人__)⌒::::: \ どれがいいかネットで色々調べるおw
| |r┬-| | 今度買ってきて組むおw
\ `ー'´ / もうwktkが止まらないおwww
<組んだ後>
/ ̄ ̄ ̄\
/ ─ ─ \
/ (●) (●) \. なんかもう自作とかどうでもいいわ
| (__人__) |
\ ` ⌒´ /
/ \
<数ヵ月後>
一番上に戻る
困ったことになんとなく気分で組んでしまってからwktkモードに、
を繰り返している俺orz
FreeNASってiSCSIのtargetもってるのね。
Linuxじゃないけど・・・
FreeNASにZFSとか入った日には無敵だな。
てst
104 :
login:Penguin:2007/11/07(水) 23:23:39 ID:qH6LpmUG
Virtual PC 2007 に CentOS + iscsi-target 入れて
Vistaからつないでっみた。
1MB/sec
USBより遅いかも・・・
Vistaがinitiatorとして読み出す
host-guest通信発生
CentOSがtargetとして反応→(仮想)ブロックデバイスにアクセス
guest-host通信発生
Vistaが実ファイルなりブロックデバイスにアクセス
host-guest通信発生
CentOSがiSCSI target応答を生成して返す
guest-host通信発生
VistaがiSCSI応答を受け取る
都合4回も同じ通信パス上で行き戻りがあったら、そりゃ遅いわな。
さらにVistaでファイル共有サーバを立ち上げて、それをCentOSで
smbfsマウントしてhttpd立ち上げで、そのhttpdをVista側のIEで
アクセスとかすれば完璧。
106 :
login:Penguin:2007/11/08(木) 19:35:04 ID:IZN1X0G5
>>105 httpdってなんでいるの?
mount -t cifs 〜 /mnt/win 〜
ごにょごにょ
# /etc/init.d/iscsi-target start
ごにょごにょ
open_path(118) Can't open /mnt/win -21
fileio_attach(268) -21
だめっぽい。
>>106 いやhost<->guestを死ぬほどピンポンする往復ビンタ構成を更に
強化するにはCIFSで更に通信して、その上でhttpd動かして・・・とやれば、
VMにたとえればxenの上でvmware動かして、その上でvirtualpc動かして、
その上でbochs動かして、その上で・・・ていう無限亀構成遊びみたいで
面白いね、というだけ。なので意味はないです。
108 :
login:Penguin:2007/11/20(火) 14:33:32 ID:bs4kmhcb
Alcohol 120%って、Windowsの共有フォルダをiSCSIデバイスとして動かせるらしいんだが…。
これ試してLinux上のイニシエータから接続できた人います?
ベンダーサイトにはそんな事見当たらないけど、どうやって設定するの?
ヘルプみてみたら?
ファイルをiSCSIデバイス上のディスクイメージとして見せるなら分かるけど。
フォルダをiSCSIデバイスとして動かすって…どゆこと?
112 :
login:Penguin:2007/11/26(月) 21:28:35 ID:1FR55kBS
GbEをボンディング(チーミング)してiSCSIの速度を高速化してる方いらっしゃいますか?
> ディスクはIDEに対応。
>>108-112 おそらく、「ローカルPC上で、ネットワーク共有を有効にした光学ドライブ(Alcohol120%の仮想CD/DVDドライブも含む)を
Alcohol iSCSIサーバ経由でiSCSIターゲットにできる」ってことじゃない?
#ようは1スピンドルPCとかでCD/DVDを使用する際、何らかの事情によりLAN内別PCのドライブをLAN経由で使う場合に
#おいて「SMB経由でのアクセスでは出来ないことを行う」時に"別PC側"でtargetとして使い、1スピンドル側でinitiatorを
#使ってゴニョ、なのでは?
117 :
login:Penguin:2007/12/05(水) 18:51:34 ID:ZDVontc0
えらくニッチな用途だな。
クライアントがWindowsの場合だとあんまり意味なさそうだけど・・・。
WindowsXPでiSCSIブートできないですね。
白いバーは見えたのでブートローダは読めてるんですが,その先でつまづきます。
FedoraやCentOSならたやすくiSCSIブートできるのに。
残念ですね。
非対応だからね。
いまいち理解しきれないんで教えてください
iscsiターゲット4台
クライアント側2台
全部linux
この状態でクライアント2台ともからiscsiを同時利用するにはocfsやgfsを使えば良いってのは把握
このiscsi4つを使って負荷分散とか冗長構成とるのはどうすればいい?mdadmでraid?lvm -mとか?
>>120 冗長構成という意味でいうと、iscsiバス上でのソフトウエアRAIDは意味ないよ。
ハードウエア側に障害があった場合にターゲットが無反応になってしまい、
クライアントからディスク全体が見えなくなってしまう。
ターゲット内部でハードウエアRAIDを組めるものを使う必要がある。
>>120 iscsiをmdadmで冗長化するにはもう一台コントローラとなるPCが必要。
そいつが4台のiscsiターゲットをRaidでまとめて1台のiscsiターゲットにすればいいと思う。
でもやったことない。
LVMミラーは使ったことないのでよくわからん。
ミラーリングするならDRBDを使うって手もあるけど,無償版で2台まで,有償版で3台まで。
2台でprimary/secondary+HeartBeatでHA構成ならわりかし簡単にできる。
DRBD+LVSで負荷分散できなくもないけど,複雑でオーバーヘッドが大きいからやめたほうがいい。
たぶんRaidのほうがマシで簡単。
>>121 どういうこと?
iscsiは伝送路としていまいち信頼ならんってこと?
それとも、ソフトウェアRAIDが信頼ならんのか?
iSCSIのプロトコルしゃべるところがクリティカルパスになってるから
iSCSI経由で2つの「ブロックデバイス」を出してもらう形のSW-RAIDは
役に立たないよ、ということかと。
ローカルでもバスコントローラが逝ったら同じことだが、信頼性は
またネットワークより上だろうし、2枚ざしとかもコスト的には可能だから
そちらにしろ、ということかな?
良スレ発見。
とりあえずopenfilerで立てたtargetがあるので、M$のinitiatorのboot版を試してみる。
それただのNASじゃないの?
windowsからもクラスタファイルシステム使えるようにならないかのう
>>121 iscsiターゲットマシンでもRAID5は構築済みです
4台を別L2スイッチ下にして、RAID5か1+0にしたらスイッチ障害でも何とかならないかなーと・・・
>>122 コントローラー役マシンで複数iscsiアクセス可能にして、そこでRAID組めば良いって事ですね
LVSは大変そうですねえ・・・
>>13のNBD+DMでやってるのはコンカチとストライピングできるようで、ひとまずこれをiscsiでやってみようかと思ってます
ただ、これっておそらく全iscsiターゲットで同じようにデバイス名設定しないとならないと思うんですが
(マシンAのiscsiデバイス名は全てのマシンから/dev/sdm、マシンBのiscsiデバイス名は全てのマシンから/dev/sdoみたいな)
これって、iscsiadmコマンドじゃできないですよね?udevでできる?
>>10のSoftware Storageが良さそうなんですが、開発止まってますね・・・
Linux TargetのMac TM initiatorで使えてるぉ
130 :
login:Penguin:2008/01/20(日) 11:19:09 ID:4P9dssD5
iSCSIはNFSの代わりのように複数のマシンから同じスライスをマウント出来たりしないの?
>>130 ストレージプロトコルと共有サービスをごっちゃにするなよ。
iSCSIはSCSIをIPネットワーク上に乗せただけで、排他制御やファイルの管理は
ファイルシステムなどの仕事だ。
132 :
login:Penguin:2008/01/20(日) 12:18:30 ID:Z6X5zll2
だれかAtokX3載せた人いないかな?
133 :
132:2008/01/20(日) 12:20:29 ID:Z6X5zll2
すまん、Knoppixのスレに書いたつもりだった。
クラスタファイルシステムと合わせて使えば複数からマウントできたりするんでないの?
そういう使い方ができるのかどうかは知らんけど。
Red HatのGFSはそういうファイルシステムだな。
136 :
login:Penguin:2008/01/23(水) 14:45:36 ID:gkpc30Nz
IntelのServer AdapterをiSCSI HBAに書き換えて、CentOS5にIET突っ込んで、
クライアントにWindowsXP入れたら、iSCSIからBOOTできた。
でも、クライアントがVIAチップだから、4in1ドライバを導入しようとしたら、そこでHUNG
。
ちなみにIntelのServerAdapterと、StarWindの組み合わせだと、接続できなかった。
138 :
login:Penguin:2008/01/30(水) 16:16:27 ID:9DbkfmW0
WindowsXPから使えるクラスタファイルシステムなんて無償では無いよね?
このディスクをSMBで共有しようとすると、ネットワークがボトルネックになりそうだから、
速度が気になるならNIC2枚挿さないと駄目かな。
>>138 windowsとlinuxで共通で使えるクラスタFSが欲しいな。
ocfsがそうなんだと思ったんだけど、windowsの情報が探しきれない。てこた、windowsは使えないんだろうか...?
>>138 Windows Server Enterpriseのライセンスを真っ向から否定しにかかる
ソフトウエアなんて作れるはず無いだろうに。
>>139 ocfsのWindows版ならOracleのクラスタ製品のオマケに付いてくるはず。
とはいえ、いずれもServer OS用だが。
>>140 お、Enterpriseって、現行の2003のでも対応してるの?
板違い:知らない人がよく使う
145 :
login:Penguin:2008/02/11(月) 22:51:58 ID:4Yym6nD7
>137
ベンチ結果きぼんぬ
146 :
login:Penguin:2008/02/14(木) 23:01:23 ID:C/+e96NP
Open-iSCSI に興味を持ち始めたんだが、
冗長化ってどうしてる??
まだ調査中なので間違って理解しているかもしれないが、
GFS2やOCFS2は、ext3 と異なり、同時書き込みしてもデータが破損されないような保障をしてくれているんだよな?
んで、冗長化するのであればDRBD0.8を組み合わせる必要があるって結論になってるんだけど、あってるか???
他にストレージノードを冗長化するためのOSS技術について知りたいんだが。。
>>146 お舞いはまずスタック階層が違う事の認識からやり直せ
>>146ってそんな外したコトいってるか?
iSCSIを構成する物理デバイスでの冗長化ではなく、GFSとかが利用する
ブロックデバイスレベルの冗長化をDRBD以外にOSS系の方法であるか?って
聞いてるんだろ?
あえていうならiSCSIのレイヤじゃないからスレ違いということになるが、
このスレはそんなケツの穴小さくないし。
149 :
login:Penguin:2008/02/15(金) 09:26:37 ID:cBEVNy1A
ただでさえ少数民族なのに、変な煽りを入れるなよ。
滅ぶぞ。
150 :
login:Penguin:2008/02/15(金) 14:58:48 ID:dqDJVqgB
俺だけが利口
他の連中は馬鹿しかいない
その認識でオケ
>>146 んーというか、何を冗長化させたいのかがわからん。
path?
target?
targetを作ってるHDD?
どこの部分よ?
153 :
login:Penguin:2008/02/19(火) 01:21:52 ID:IPrEKLqF
最近、iSCSI Enterprise Targetの開発状況が停滞している感があるけど、どうよ?
>>153 まあ、なんでもいいけど、iscsi_trgtはカーネルソースにマージほしいな。
ietなんか遅い
tgtdのほうが速いの?
IETは、クライアントから大きな連続データのアクセスが多い時は
ietd.confで Type=blockio にしてOSのバッファキャッシュを使わない
ようにしたほうが速い。
それでも連続read/writeしながら、転送状態をモニターすると
約20秒に1回、データの送受信が1秒弱止まり、引っかかるような動きをする。
158 :
login:Penguin:2008/02/26(火) 23:54:24 ID:pIhfRG+7
RHEL5やCentOS5の場合、scsi-target-tuilsなるパッケージが入っているようだ。
スレ違いだけど
windowsXPをたターゲットにするフリーなソフトってある?
>>161 thx
DVDドライブが接続できて便利になったわ
>>162 無料のPersonalだと物理ドライブを扱えないみたいだけど、Professionalを入れたんかな?
Alcohol 52%のFree Editionで出来たよ
(ツールバーが同梱されてるけど、インストール時に除外できます)
Windows→Windowsで使ってるんで、板違いだけどw
>>163 フリーのやつだけど
ディスクは仮想ファイルでしか試してないけど
DVDドライブはちゃんと使えたよイニシエータからは物理ドライブに見えて
PowerDVDとかでDVDみれたよ
Fedora 6なのですがこんなエラー出ます
なんでしょ
iscsiadm: initiator reported error (5 - encountered iSCSI login failure)
iscsiadm: Could not execute operation on all records. Err 107.
書いてあるとおりなんじゃねぇの?
167 :
163:2008/03/03(月) 23:53:09 ID:0MTb+bFz
>>164 そですかー
昨日登録しようとしたときは、RAMディスクを作るか、イメージファイルを作るかの2種類しか選べず、
ほかの選択肢はグレーになってたんで、無料だとそんなもんかと思ってました
どこか設定を間違ってたかな (もう消しちゃったけど
>>167 もしや、フリ版のレジストコードいれてないんじゃない?
169 :
163:2008/03/06(木) 02:53:15 ID:Z6t4sJmm
>>168 もう一回やってみたんだけど、やっぱ同じだった><
↓やったこと
ttp://www.rocketdivision.com/download_starwind.html の Personal の Downloadボタンを押す
メールが届く
インストーラとシリアルキーをダウンロード
インストール後、シリアルキーを登録
公式には、PersonalでDiskBridgeプラグインは使えないっぽいんで、
Professionalをフリーで使う方法があるのか、Personalでプラグインを有効化する方法があるのかなと思うのですが。。。
いろいろ探してて、公式フォーラムにこんなスレを見つけました。
英語あんまし得意じゃないけど、無料厨に対して最後スタッフが切れてるような気がする。。。
ttp://www.rocketdivision.com/forum/viewtopic.php?t=49 えー、板違いのネタを続けるのもアレなんで、LinuxからWindowsへ接続できるかどうか試してみました^^
Initiatorは、Fedora8のscsi-target-utils(tgt)です。
StarWind Personalでimgファイルを使う場合と、Alcohol 52%でDVDドライブを使う場合でやってみて、どちらもOKでした。
>169
Personalをインストールする
RocketDivisionのレジストリを保存しておく
Personalをアンインストールする
Professional(期間限定)をインストールする
保存しておいたレジストリを書き込む
レジストリキーの、ある部分を0から1に変更
再起動
ウマー!
VMWare(VMFS)+iSCSIを検討してるんですが、LUNをマウントする時って
複数のホストからマウント出来るんですか?
キャッシュの中のデータとかが整合性取れなくなりそうな・・・
ファイルシステムとiSCSI機器の両方が対応してる必要があるのかな。
それをやりたいんだけど、どーも出来そうにないんで
疑似でエキスパンダ機能も追加できないか探してるんだけど、見つからない………
173 :
login:Penguin:2008/03/07(金) 23:23:14 ID:zqws59rJ
>>171 VMotionするつもりなら、
ESX Enterprise 2本とVirtualCenter で合計200万円オーバーだから、
EMCの一番安いストレージを100万円で買うくらいの予算あるだろ。
>>173 200万の予算で半分余ってるって発想がおかしい
>>40 そのリンク先じゃスルーしてしまう
http://www.etherboot.org/wiki/sanboot This method allows you to boot operating systems
that do not usually support network booting,
such as Microsoft Windows Server 2003, Microsoft Windows XP
176 :
163:2008/03/08(土) 20:05:59 ID:a9KQAdp3
>>170 なるほどねー
ありがとう、覚えておきます^^
>>177 ああ、それようやく出たんだ?
パフォーマンスとか使い勝手はどうですか?
>>155 結局、ietがいいのかlinux-iscsiがいいのか、どっちなの???
沖縄データセンターにTeraStationかよ(w
微妙にスレチなのを許して下さい。
win2ksp4にmsのiscsiイニシエ2.06を入れたんですが、NTFSフォーマットまでは正常終了
するのに、そのドライブを開こうとすると「デバイスが見つかりません」と言
われてしまいます。
XPに同ドライバを入れた場合は問題なく読み書き出来ているので、Linux側の
問題とも思えませんし。一応公式に2k対応のはずなんですが。
2kでmsのドライバが使えてる人っていますか?
微妙にスレチじゃないよ もろ板違いだよ
なんかネタがないね
簡単につながってサクサクうごいちゃうから、ネタがないもんなのかな
個人レベルの使い方としてはどういう使い方してるんだろ?
じゃぁ、ネタ振りついでにずうずうしく質問をしてみる。
・DVD-ROMドライブやUltriumテープドライブなどをLinux箱に付けてiSCSデバイスにして
他マシンに使わせる方法ってある?
・AX100iのようなローエンドも含め、専用iSCSIストレージは大抵スナップショット機能があるが
http://www.atmarkit.co.jp/ad/emc/clarix0512/ax02.html Linux iSCSIサーバーソフトウェア
自身がこの機能を持ったものはある?それとも、公開しているボリュームはLVMで切り出し、
そのLVM snapshotを取るといった運用をするしかない?
>>189 その
> Linux iSCSIサーバーソフトウェア自身がこの機能を持ったもの
というのが良く解らないが、サーバソフトがiSCSIイニシエータ/ターゲットの
機能、及びSNAPの機能を実現するものという解釈でよければ
残念だがLinuxでなくWindowsベースで動作するのだがSANmelodyという製品を知っている。
※微妙に板違いでもうしわけない
これならAX100とかAX150を保守つきで購入するより安く上がるかも?
SANMelodyっていくらくらいすんのかな?
>>190 有難う。さすがにSANmelodyとかになるとしっかりしてるよね。
iSCSIでストレージ統合をする場合って、やはりスナップショットは最低でも使えて、
MicrosoftのVSS, VDSや、OracleのRMAN等に対応してて、サーバー無停止で
スナップショットを取れるというのが欲しいよね。
現状、オープンソース系のiSCSI targetでは、そこまで出来るのは無いのかな。
>>175 おお、XPのネットワークブートとかできるようになってるんだな
いろいろ試してみたい物が多いんだが全然時間取れないorz
>>187 高速化チューニングネタとかどうっすか。FSのブロックサイズでかくしてみるとかなんとか
あとはインターネット経由の実験例は出てない気がする
あまりBSDいれるきはしないんだけど
FreeNASがiscsiサポートしてるのにちょっと期待してる
ZFS使えるようになったらsolaris10からFreeNASへ浮気するかもしれん・・
>163
去年の8月バージョンだけど、Starwindservice.exeが以下のレジストリキーをチェックして
日付データより体験版の残り日数を確認しているみたいです。
[HKEY_CLASSES_ROOT\CLSID\{B0519608-8C70-D5F2-5E14-AC748D51494E}\TypeLib]
"40E7"=hex:f6,d2,53,b0
CLSIDの値が同じかどうかは分かりませんが、TypeLibの下に40E7というキーがあれば、その
40E7のキーを削除すれば永遠に30日限定版が使えるかもしれません。
(40E7のキーが無ければ、キーを作成してその日の日付?を登録しているみたいです。)
レジストリモニタ regmonとかで監視すれば、Starwindservice.exeがレジストリにLicenseキー
があるかどうかを16回チェックした後に残り日数を確認していますので、一度regmonで確認して
みてください。
WindowsでiSCSI使っている人のスレってある?
見つけられない。。。誰か誘導してくれ。
>>199 それは必要なのであれば自分自身でWindows板に立てなさい。
バッファローが出したあれがあるからハードウェア板の
iSCSIでLinux-Winといった使い方は結構あるだろうし、分離されて無い方が良さそうだけどね。
と、Linux板で言うても仕方ないがw このスレもWin関連の話題多すぎる気はする
203 :
login:Penguin:2008/04/05(土) 20:37:58 ID:jTpegBCX
Open-iSCSI を CentOS5.1 で使ってみたんだけどさ、
initiator って、target から強制ログアウト出来るのだろうか??
色々テストしているうちに、以下の nexus (initiator) の残骸が残っちゃって、
tgtadm --lld iscsi --op delete --mode target --tid 1 が実行できなくなっちゃったんだよ。
セオリーで言えば、initiator 側から logout すべきなんだろうけどさ、
今後の運用を考えると、ユーザーにそんな依頼も出来ないケースが想定できるから、
なんとか target 側で強制ログアウトする方法を把握しておきたいんだが。。
そんな時、みんなはどうしてる???
# tgtadm --mode=target --op=show
Show Status iSCSI target: Target 1: iqn.2008-04.<略>:storage.iSCSI0
System information:
Driver: iscsi
Status: running
I_T nexus information:
I_T nexus: 8
Initiator: iqn.1994-05.<略>:35665b705b4e
Connection: 0
IP Address: 172.16.110.173
I_T nexus: 9
Initiator: iqn.1994-05.<略>:5bcc7e76a726
Connection: 0
IP Address: 172.16.110.183
204 :
login:Penguin:2008/04/17(木) 22:37:04 ID:4kIGTQVh
遅ればせながら、intel PRO/1000 PT Server Adapterを買ってみた。
秋葉原を数時間捜索して、何とか見つけた。スズデンオレコン?
しかも下手なGbE搭載ママンより高いな。(T_T)
取りあえず、CentOS5 tgtd環境が出来たので、
iSCSIブートで、Win2008評価版から試してみようと思う。
その後、vista homeとxp homeのブートが出来ないか、凸撃する。
205 :
login:Penguin:2008/04/18(金) 00:41:51 ID:1sTZIAhI
206 :
204:2008/04/19(土) 16:20:10 ID:+JX6+XuC
凸撃結果^^;
ISbootとtgtdの相性は最悪。
OSインストール中にリブートが掛かると、
LANカード、tgtd間のセッションが残り、
再接続で毎回エラーになる。ありえん。
ターゲットをiscsitargetの最新版に
差し替えたら、何とか安定した。
ISBoot.exe Ver13.0 (PRO/1000 PT)
iscsitarget-0.4.16.tar.gz
207 :
204:2008/04/19(土) 16:25:38 ID:+JX6+XuC
で、各OSの状況だが、
2008評価版は非常に良い感じ。
HDD無しで起動する。全部のLUNが見える。外部とも繋がる。
(インストール中にDISABLE設定のSATA HDDへアクセスしている気配があり、焦った。)
残念な所は、製品版が高くて買えないと言う事実だけだ。
VISTA HOME(32Bit)は・・・
インストール時にターゲットを認識できず。
FDにドライバを用意したが、読み込めない。
インストールさえ出来なかった。
XP HOMEは思った以上に良い感じ。
インストール時に2003用のFDを読み込ませた所、認識した。
クライアントはHDD無しで起動できた。
ただし、起動時にNICに設定したLUNのみ認識し、他のLUNは見えない。
まあ、XP Proや2003なら、Microsoft提供のイニシエータが動くからいいのか。
グラフィック、LAN、サウンド等のドライバーとの競合はなかった。
NICはターゲットへのアクセスで専有されてしまい、
外部との通信には使用できなかった。
LANドライバーを突っ込んだらフリーズして、起動しなくなった。(T_T)
オンボードのNICで十分だとは思うが、他社のNICとの併用は必須だな。
Pro/1000dualとかだとポートが無駄になるっぽい。
XP用のイメージを複数用意して、各LUN番号へ設定すれば、
NICの設定画面から、起動したいLUNを選んでbootできると分かったので、
これで、通販やオンライン振込み等の環境をゲーム環境と分離できる。
かなり幸せな環境になった。
因みにマザーはSocket939のNVIDIAチップセット
210 :
204:2008/04/23(水) 22:20:53 ID:GpXKQ0To
>>209のPDFを斜め読みしたけど、環境作るのが面倒だな・・・
PXEでiSCSIイニシエータを取得してるみたい。
このスレの誰かがやってくれる・・・きっと・・・
確か2万円弱/clientって聞いた覚えが。
$95ってドコに書いてあったんですか?
>>212
最近、LinkStationがiSCSI対応してるんだな。
安いのでも非公式対応ファームとかがある。
さすが、GPL。
SSHでトンネリングさせてインターネットごしに使ったが10MB/s位出た。
217 :
login:Penguin:2008/05/20(火) 09:42:02 ID:xbQta+KR
ターゲット/イニシエータ の種類とスペック晒して欲しい
>>216
ターゲット:ubuntu hardy 64bit iet
イニシエータ:ubuntu hardy 32bit open-isci
両方ともCore2Duoの2GHz位のマシン
ドライブは単発SATA上のLVMを30G位切り出したもの
イニシエータ側は100MのNIC
同一環境でsshfsだと2MB/s位だった
VirtualBoxがイニシエータ持ってるのでSSHネット越しにマウントして
Fedora9のネットインストールでけた
過疎ってるなー
OpenFiler使ってるヒトいる ?
>>218 遅すぎる。VIAC3の800MHzで、VIAオンボードの100BaseのNICとUDMA100の40GのFireBallでも8.5Mb/s出てる。
221 :
220:2008/05/31(土) 16:48:34 ID:+IbK/7Wt
これ、透過的に物理HDDをiSCSIで使える?
たとえば、WindowsのイニシエータからNTFSで使ってたHDDを取り外して、
他のWindowsPCに繋げてもデータそのまま読めるのかな?
>>223 それいいな。
遠隔バックアップ用にはいいかもしれん。
target:CentOS5[tgtd]
client:Windows Vista
で、IPv6でつなげようと思ったのだが
TargetAddressとして「[fe80::192:168:1:100%eth1]:3260」が帰ってくるものだから
Vistaが素直にそれで接続しようとして失敗する
このインターフェースsuffix(%eth1)消せないのかな?
てst
228 :
sage:2008/07/04(金) 12:03:12 ID:OIM2yaJ4
RHEL5をiSCSI initiaterとして動かしてるんですが,特定のiSCSIデバイスは毎回
/dev/sddにマッピングさせるような固定設定はできないんですかね?
(iqnなどとデバイス名をマッピングさせる)
devfsのせいでiSCSIデバイスをオフライン,オンラインにするたびにイニシエーター側の
デバイス名が変わってしまうのを防ぎたいです。
udevを使う
devfsって何?
>>229 すんません。devfsは昔のやつですね。いまはudevですた。
http://mux03.panda64.net/docs/udevrules_ja.html など見てみましたが,ベンダー名などのキーワードとデバイス名を結びつける感じですね。
ただ今回は、LinuxBoxに同モデルの2台のiSCSIがぶら下がっていて、両方に接続して
RAID1する感じなので、
udevinfo -a -p `udevinfo -q path -n /dev/sdc`
などしてみても固有の情報が見つからないですなー。シリアル番号みたいな情報を
拾ってくれてiSCSI1号機だったら毎回/dev/iscsia, iSCSI2号機だったら/dev/iscsibみたいに
デバイス作ってくれれば良いのだけど。もちっとudev勉強しなくては。
>>229 >devfsって何?
・・・ちょっと愕然。
こんなのが威張ってんのか。
devfsが主流になったことがかつてあったか?
>>231 >>228の背景知識と時間感覚(おそらくBSDユーザ)から
何(寝ぼけたこといってんの)?
くらいの意
234 :
228:2008/07/09(水) 18:56:28 ID:5XiIoR0Y
>> 233
ホウ!惜しいとこついてますね。けっこう長いことSolarisユーザです。
(Solarisユーザだからdevfsとかudevというわけではないけど)
Solarisの場合はsdaやsdbじゃなく,iqnなんか(?)から拾ってくる情報で
/dev/rdsk/c2t6090A01890CEBE312884042502156873d0
みたいなデバイスを作ってくれて,仮にOS再インストールしても
iSCSIを一度オフラインにしても再び同じデバイス名を拾ってくれるので便利ですたよ。
LinuxだとiSCSIの疑似障害起こすだけでsdaが消えてsdbになったり,
それに伴いRAID1のmdadmからsda外そうとしても「そんなデバイスありません」
と言われるから,いちいちMAKEDEV sdaしてmdadm -rしなきゃいけないとかで
ちょっと面倒なわけですよ。
>>234 udev使え
ttp://gentoo-wiki.com/HOWTO_iscsi > LinuxだとiSCSIの疑似障害起こすだけでsdaが消えてsdbになったり,
> それに伴いRAID1のmdadmからsda外そうとしても「そんなデバイスありません」
> と言われるから,いちいちMAKEDEV sdaしてmdadm -rしなきゃいけないとかで
> ちょっと面倒なわけですよ。
DRBD使った方がいいんじゃない?
RAIDにしたブロックデバイスをiscsiでマウントすることはあっても、
iscsiでブロックデバイスとして認識させたものでRAID組むなんて
やらないと思うぞJK
>>234 > Solarisの場合はsdaやsdbじゃなく,iqnなんか(?)から拾ってくる情報で
> /dev/rdsk/c2t6090A01890CEBE312884042502156873d0
つ /dev/disk/by-id/
つ /dev/disk/by-path/
つ /dev/disk/by-uuid/
>>235 BuffaloのiSCSI機器3台の構成でRAID5とかどう?
RAID5+5みたいな感じ。
Buffaloって丸ごと死んじゃう事があるんで、
RAID5+5で安心感得られるかな、とか思うんだけど。
まずBuffaloをやめるのが先だな
240 :
234:2008/07/27(日) 19:56:59 ID:5xsdcmrf
>> 235
> DRBD使った方がいいんじゃない?
予算無かったりパフォーマンスそれほど気にしない場合はdrbdも選択肢ですが
drbdだと超パフォーマンス落ちますがな。
> RAIDにしたブロックデバイスをiscsiでマウントすることはあっても、
> iscsiでブロックデバイスとして認識させたものでRAID組むなんて
> やらないと思うぞJK
ぇー。HAクラスタの世界では、一方のストレージが丸ごと落ちた場合用に
筐体間ミラーさせるのがJKじゃないのー。少なくともSunClusterとか
Veritas Clusterはそういう想定で作られてると思いますよん。
>> 236
そうそう,あれから調べてby-uuidなんかで引っかけるようにしてるのですが、結局うまくいかず。
障害を想定して、一方のiSCSI Boxを止めて/dev/md0に書き込み、再び
iSCSI Boxを有効にすると当然/proc/mdstatでFault。でもこの状態で
/dev/uuid名にアクセスすることができない。
KERNEL=="sd*", BUS=="scsi", PROGRAM="/etc/udev/scripts/iscsidev.sh %b",SYMLINK+="iscsi/%c-part%n"
みたいなルール作っても,結局/proc/mdstatにはカーネルが最初に
認識したsdaやらsdbやらが書いてあるので、それが原因かと。
(/dev/sdaは障害時に消えて無くなって、iSCSI再接続後には/dev/sddみたいな新しい名前で
カーネルに認識されるがmdstatはsdaという古い情報をずっと握っている)
オペレーション面倒ですが、毎回MAKEDEVすることにしましたよ。
仕様と理解して自己完結したつもり。
そんなアフォ仕様でうちに持ってこないでね
>>241 大丈夫、おまえんとこの予算じゃ折り合わん。
予算最小限なら
>>237みたいな構成も
良いんでは?
単品20万以下で手配出来るし。
リビルド負荷がヒデー事になるかもしれんか。
244 :
234:2008/07/30(水) 18:22:28 ID:v/QTIEyY
>>241の会社には予算的に手が出ないのかもしれないけど、この書き方だと初めて見た人が
「筐体間ミラー」=「アフォ」って勘違いするじゃん。
電源やコントローラ冗長化してても、共有部品やらファーム、オペミスやらが原因で
1台のボリューム丸ごとぶっ飛んだらどうすんのさ。君の会社は金融系に提案するときも
筐体間ミラーする必要ないほどの超人的な機械選んでるの?
って、俺釣られてる?
このスレで質問することじゃないと思うけど、
もし良かったら教えてほしい。
OCFS2(OCFS)ってのは、
共有ブロックデバイスを使用して共有ファイルシステムを実現する為のファイルシステムで、
iSCSI等で1つの領域を複数のホストでブロックデバイスとして接続し、
そのブロックデバイスを各ホストでOCFS2でmountすることにより動作・実現する。
ってことで合ってる?
各ホスト毎に専用の領域をブロックデバイスで用意し、
複数のホストでRAID(0/1/5)的に接続して、コヒーレンシを確保するファイルシステム
ではないよな?
夏厨湧いたと思って教えてくれると助かる。
>>245 最初ので合ってる、と思う。
つかGFSしか知らなかったから調べてしまった・・・。
でも、よくよく考えてみたら、
「共有ファイルシステムを実現する為のファイルシステム」
なので、やっぱり合ってるよ。・・・多分。
自信なくてゴメン。
他にスレがないのでここで聞きます。
Microsoft iSCSI Targetって、仮想ディスクイメージしか使えない?
物理ディスクをそのまま仮想デバイス化するのは無理っすか?
>>247 iSCSIはIP over SCSIであって、(i)SCSIの先にあるデバイスは不問だよ。
MS iSCSI Targetへデバイスを供給するのはInitiatorの仕事なので、
Initiatorがどのようなデバイスを利用、供給できるかが問題。
>>248 TargetとInitiatorを逆に理解してない?
>>247 Windows Storage Server 2003 + Microsoft Software iSCSI Target
ってことですよね?仮想ディスクイメージしか使えなかった気がする。
これは、盆休みのうちにXPでiSCSIブートやってみろってことか?
って、ふと思ったんだが、
PXEで流し込むブートストラップどうするんだろ
とりあえずマニュアル・ドキュメント読むか
>>252 WindowsをiSCSIからブートしたいなら、WinBoot/iを買うか、
gPXEを使う必要があるよ。
gPXEからのWindowsブートは試したことないけど、結構大変そう。
いっそ
PXEbootするようにする
→ NFSrootなLinuxで一旦起動
→ VirtualBoxのiSCSIブートでWindows実行
でLinux最小構成分の32MB程度失うだけでiSCSI+Windowsを
簡単にできなくね?
WindowsがInitiatorやらない以上iSCSIにこだわる必要性が全くないぞ
とりあえずターゲットを用意して、Windowsからtargetとして認識するところまではできたけど
これって、ドライバインストール用FDとか無いし、
nLiteとかで統合しても、ターゲットへの接続の設定がレジストリに入ってて面倒な気がするし、
結局、HDDにインストールして、HDDイメージを吸い出してtargetにしないと、起動HDD作れないんだろうか
MSのマニュアルには、ややこしい手順が書かれてるけど、
MS鯖でDHCPとtarget賄う時の必要事項とごっちゃになってるし、
ACPI3.0のiBFTで接続設定情報をBIOSからバケツリレーで引き渡すなんて、
ACPI2.0/1.0の切り替えがある程度のPCではできるわけもなく・・・・
ハードル高ぇわ
257 :
sage:2008/08/16(土) 23:17:24 ID:IbJXalSK
>>235 > RAIDにしたブロックデバイスをiscsiでマウントすることはあっても、
> iscsiでブロックデバイスとして認識させたものでRAID組むなんて
> やらないと思うぞJK
ウチでやってる
CPU負荷の低さ・I/O性能・テストした感触での信頼性、どれも想像以上で満足している
DRBDはテストしていないのだが、iSCSI + Software RAIDだと
3つ以上のホスト間でのミラーリングができたり
mdadmが柔軟なおかげで障害起こった後の復旧方法の選択肢が多いところが利点だと思われ
ホットリビルドとかホットリムーブとかイイ
あのね安全性でWindowsのソフトRAIDに勝るRAIDシステムはいまんとこ無いよ
ハードRAIDの場合ハード壊れたらアウト
カード買い直しで済めばいいけど復帰の望みは薄い
でもWindowsのソフトRAIDは外付けだろうがなんだろうが一度構成してしまえば
Windowsであれば2000だろうと2003だろと2008でもRAID構成がそのまま使えて認識する
これってすごい事なんだよ
当然RAID5はServerじゃないとサポートしてないのでXPでRAID5できないのは当然としても
他のWindowsマシンでRAID構成がそのまま復旧できて、
ハードトラブルに強く、外付けですら構成可能ってのは他に例がない
UNIXのソフトRAIDも3wareの高級RAIDカードもこれは無理
劣るのは速度だけで、それ以外のRAID本来の常用性・継続性では「最も理想的なRAID」だよ
さらに、UNIXのようにディスク管理のスキルもそれほど要らないし、
コンピューター管理のディスク管理画面さえ開いてしまえば、
壊れてれば▲マークでるし、他システムのRAIDなら1クリックで認識してしまう
馬鹿にできないんだよWindowsのRAIDは
>>259 システム入れない前提だろうけど、一部暗号化しちゃうとダメじゃね?
ちぅか、RAID5まで入れる必要あるなら、コントローラまで多重化するっしょ。
コピペに反応するなよ
>>261 おぉ確かにコピペだ。過疎スレにようこそ。
すみません、こっちで質問させて下さい。
CentOS5にIETを入れて問題なく使えることを確認したんで、junkのNICを買って
来たんですよ。BCM5708の。
で、買った後でなんとなく気が付いたんですが、TOEやiSCSI boot使う場合って
更に別途ライセンスを購入しないとダメなんでしょうか?
タダで気前良く使わせてくれるのはPRO/1000 PTだけ?
ついでに、PRO/1000 PT使ってる方がいたら教えて頂きたいんですが、iSCSIboot
に興味が無く、単に外付けHDD代わりにiSCSIを使いたい場合って、PRO/1000は
winからはSCSIアダプタとして認識されるんですか?
> SCSIアダプタとして認識
いいえ。
TOEはともかくiSCSI Bootはライセンスなしでできるだろ
と知ったか君が仰っていますw
ISOEと勘違いしてるに一票
某メーカー鯖のファーム更新でBCM5708のiSCSIbootが有効になったけど、
鯖メーカーがiSCSI機器売るために払ってる可能性もあるし、無料かどうかは知らん
あと、Windowsだと、どっちにしろ、いろいろと苦労する罠
>>267 某D社の鯖は、オンボで5708が載ってる場合しかiSCSI使えない。
某H社の鯖の場合は、ちゃんとライセンスパックが別売されてる。
某I社のオプションカードも多分iSCSIは使えない。
5708のオプションカードでiSCSIは使えないってことで<結論
271 :
269:2008/08/22(金) 23:53:25 ID:/bN7Lxst
れのぼですね、わかります
↑
わかります、って言う香具師に限って実は分かってないという罠w
分かってないんじゃなくてわざと誤解したように書いてるだけだろw
何かボケるわけでもなく、「ボク知ってるもんね」をアピールしたいだけ
ああ、わかります。
277 :
login:Penguin:2008/09/16(火) 16:13:08 ID:oxhF1vzq
USBブートできて、iSCSIがすぐ使えるディス鳥ないですか?
ESXiとか、VMWare Serverの管理OS部分に組み込んでたりされてると嬉しいな。
278 :
login:Penguin:2008/09/16(火) 16:14:35 ID:oxhF1vzq
FREE NASでUSBブートするやつがあればいいのか・・・。
クライアントがWindowsの環境で、SMB/CIFSとiSCSIでの
速度比較を行っているページとかないものでしょうか?
iSCSIで繋ぐRAMディスクBOXとか出ないもんかな。
i-RAMのネットワーク版みたいの。
ちょっとスレ違いかもしれないけど。
IETをターゲットにして、PXE+iSCSI Root+Multipathな
CentOS5.2を構築してみたんですが、
OSをシャットダウンするとき、NICをdownさせた直後に
当然iSCSIの通信が出来なくなってハングってしまいます。
ファイルシステムをアンマウントしないで電源落とすの
怖いんですが、正常にシャットダウン出来ている人いますか?
283 :
282:2008/09/21(日) 14:51:40 ID:UD7H2eYo
自己解決しました。
/etc/rc.[0|1|6]/K90networkを_K90networkとかにリネームして、NICを
落とさないようにしたら正常終了・再起動できました。
調べたらNFS Rootとかでは良く使う手みたいですね。
>>282 心配ならsync後shutdownだろjk
11gでiSCSIは厳しぃ!!!
鯖部屋からCat5e引っ張ってもらう工事してもらおうかな。
FreeNASでiSCSIターゲットを立ててみたけど
iSCSIって、CPUパフォーマンス要るんだな (;´Д`)
余ってたC3機では、全然スピードでないorz
ディスクペンチ走らせると、CPU usage 100%に張り付きだ。
NICは?
カニだな。。。
いやまて、ディスクペンチなのがダメな原因じゃないか?
290 :
286:2008/09/25(木) 13:29:08 ID:+9scV9wB
>>287 NICはGbE-PCI2で、M/Bは625EMP800(C3 800MHz)、DDR400 512MB*2。
FreeNASは0.69b3。イニシエータ側はWinXPの自作機(環境省略)
って、ここまで書いて気付いたが、スマン 板違いだった。
一応、続き書いとくと、
HDDはIDEの200GB(ST3200822A)に、iSCSIの領域を10GBほど確保。
で、ログインしてNTFSでフォーマット、CrystalDiskMark2.2を走らせてみると
(iSCSI/CIFSの順。単位はMB/s)
Sequential Read : 19.814/28.176
Sequential Write : 16.542/15.025
Random Read 512KB : 18.508/26.024
Random Write 512KB : 14.271/15.415
Random Read 4KB : 6.025/9.663
Random Write 4KB : 1.745/2.955
Test Size : 500 MB
という具合だった。
試しにExploreで数GBのファイルをコピーしてみたけど
iSCSI/CIFS共々、概ねSequential Writeと同じくらいの速度だったよ。
パフォーマンス求めるなら断然HBAだね。
>>290 Windowsのクライアントから見たシーケンシャルは、
NTFSとUFS(2)の仕様上、FreeNAS側でスラッシングの嵐なんじゃね?
SCSIはバースト転送だし、NIC性能というより、
イニシエータ、クライアントサイドは、HDDのバッファと同等か、
それ以上のバッファが必要かと思える。
Xbench Version 1.3
System Version 10.5.5 (9F33)
Physical RAM 8192 MB
Model MacPro1,1
Drive Type IET VIRTUAL-DISK
Disk Test 26.34
Sequential 33.25
Uncached Write 24.06 14.77 MB/sec [4K blocks]
Uncached Write 27.77 15.71 MB/sec [256K blocks]
Uncached Read 28.77 8.42 MB/sec [4K blocks]
Uncached Read 125.38 63.01 MB/sec [256K blocks]
Random 21.81
Uncached Write 6.80 0.72 MB/sec [4K blocks]
Uncached Write 30.63 9.81 MB/sec [256K blocks]
Uncached Read 1194.61 8.47 MB/sec [4K blocks]
Uncached Read 352.22 65.36 MB/sec [256K blocks]
iSCSIターゲット ubuntu 8.04 1GB 500GBx4(RAID5)
iSCSIイニシエータ Lopard 10.5.5 Mac Pro 8GB
って感じなんだけど、 Readに比べて、Writeが遅い気がする。
Lopard→Leopard
>>294 RAID5でランダム書き込みした場合、書き込み先ドライブが分散されるとは限らないし、
調停作業だけでもオーバヘッドになるだろjk
open SUSEにiSCSI targetを設定してWindowsでフォーマットしたあと再起動したらext3のfsckが走ってしまった・・・・・
気づかず-yオプションつけたら全滅w
うは、オレってバカの極みwwwww
298 :
login:Penguin:2008/10/07(火) 15:56:13 ID:DAXYR/qY
>>294 参考になりました。ありがとう。
安定性やCPU負荷はどうですか?
299 :
294:2008/10/07(火) 18:58:22 ID:6Fe2Jum5
>>298 素人なので詳しく分析出来てないですが特に問題ないです。
1TB強のデータを一日かかって転送したけど普通に使えてます。
ターゲット(Cel420)/イニシエータのCPU負荷はリード/ライトともに気にするほどでもないかなぁと。
1GBのファイルをターゲットへ一つだけコピーさせると15MB/sec。
二つ同時にコピーさせると30MB/sec出る。
三つ同時でも30MB/secだったからこれが上限かな。
やっぱりローカルライクにデータを扱えるのはいいなぁ。
itunesのディレクトリとかディレクトリ数が1000以上あってもすぐ開くし。
もう少し普及して欲しい…。
ちなみに、ネットワークはどんな条件かいな。
同じセグメントに他のホストがぶら下がってる?
それともターゲット−イニシエータ間は別系統?
301 :
294:2008/10/07(火) 23:32:25 ID:mCDBtlh2
書き込んだXbenchは同一セグメントにはハブ二台で計12台でぶら下がっています。
ターゲット、イニシエータは同じハブ(16ポート)で、8台がぶら下がってる状態で測定しました。
直結ではシーケンシャルが+5MB/secくらいで、ランダムは誤差程度でした。
302 :
294:2008/10/07(火) 23:51:20 ID:mCDBtlh2
ありゃ、ニホンゴが。
疲れてる状態で適当に書くもんじゃないですね。
ちゃんと伝わるか怪しいけど訂正。
ルーター - 8ポートハブ(4台) - 16ポートハブ(8台)
計12台ぶら下がっています。
書き込んだXbenchは16ポートハブにターゲット、イニシエータ含め8台がぶら下がってる状態で測定しました。
直結ではシーケンシャルが+5MB/secくらいで、ランダムは誤差程度でした。
おかしかったらごめんさいです。
疲れたのでもう寝ます。
303 :
300:2008/10/08(水) 01:26:20 ID:AjoeVjEN
ありがとう。参考になりました。
うちでもやってみたいな。
Windows Server 2008 のクラスタで要求されている
「SCSI-3 の 永続的な予約」とやらは、
iSCSI Enterprise Targetではクリアできないの?
2003ではフェイルオーバークラスタ組めたけど、
2008だとなんかうまくいかないのよ。
保守ついで
1台でXenとiSCSIターゲット(iet以外でも可)やるなら、今はどのディス鳥オヌヌメ?
CentOS
openSUSE
SUSEってTarget最初から入ってるの?
iscsi-targetはあってyastで設定できるけど
カーネルのupdateで必要なカーネルモジュールが落ちた気がする。
そこで颯爽とFreeNASが登場
FreeNASはインスコ先のHDDを対象にできないのが・・・。
>>311 USBメモリーとかにインスコすればいいんじゃね?
slackwareで1から作るとか
そこで颯爽とOpenFilerが登場
インターネット経由のiSCSIってありなの?
認証だけちゃんとしてたらおk?
>>315 ありってどのレベル?
技術レベルならできるかもってことになるが、
グローバルIP割り当てたiSCSIをそのまんま公開するのが
セキュリティ的にありかって聞かれればなし
せめてVPNを通すかってことになるが、敷居も若干高くなるね
パフォーマンス的には知らん
iSCSIを使った遠隔バックアップなんかには使えるの、、か?
ノートパソコンで使えるHBAってありますか?
普通のNICでやれってこと?
ブートさせなきゃ普通のNICでできる
ブートさせる場合でも、DHCP/tftp立てれるなら、PXE使えればできる
linux板なので、あえてwindowsは無視してみた
遠隔はVPNか、速度出そうと思ったら広域LAN(カネカカルー)
通常のダイアルアップ回線でもできないことはないけど、まぁ常識的に無い。
ギガビットで専用のネットワーク組むの薦められるくらいだし
やって出来なくはない程度じゃないかな>広域iSCSI
さらに質問ですまないのだが
iSCSIターゲットでおすすめのRAIDありませんか?
予算は30万円ぐらいまで
バッファローは対象外です
ふと、百円をやったら次は一万円をよこせと言い出す、みたいな話を思い出した。
>>321 ML115(\13000)+WD1T(\11000)*4にCentOS5.2のRAID0にして4T近くをiscsi enter prise targetにして使ってる私がとおりますよっと。クライアントがwindowsなもんでMBR制約内の2Tに分けてるけど。
Cent(というかLinux)素人だったけど、OS標準インストールして
yum update
yum install gcc
yum install kernel-devel
yum install openssl-devel
(iet落としてきて)make install
だけで動いたような。ちなみにiptablesは当然編集、SElinuxはPermissive(無効だっけ?あと、つづりあってる?)で使ってる。
それにしても今でもCentOSでRAID5(mdadm)の使い方がわかんねぇ。。。勉強中に作ってそのままなもんで。今じゃデータ入れちゃって壊せんし・・orz
CentOSでRAID5できるなら、最低6万ちょいあれば3Tぐらい(実質2.7Tぐらい?)の『iSCSIターゲットでおすすめのRAID』ができんじゃないかな?
速度やメンテ性で”おすすめ”に見合うかはわからんけど。
正直、初心者でiSCSI-SAN手をだして、今はひどいめにあっている。
このスレ(住人さんも多分)は私には敷居たかすぎです。。。
>>323 ひどいめって何?
それだけじゃわかんないぜ。
RAID0がつくれるのにRAID5が作れないなんて・・・
>>324 んー iSCSI鯖をトイレで動かそうとしてるんだけどndiswrapperとかlsusbとかinsmodとかiwconfigとか苦労してるとか。
【Wireless】Linuxで無線LAN【IEEE802.11】
http://pc11.2ch.net/test/read.cgi/linux/1214318174/l50 とか見て参考にしてるけどダメダ…
>>325 ちなみにML115のBIOSでRAID5つくれるよん。多分Centからは2.7Tのボリュームで認識できるんじゃない?
>速度やメンテ性で”おすすめ”に見合うかはわからんけど。
ってのは”オンボードRAID5でメンテしやすいか?”って言いたかった。うまく言えてなかったですわぁ
それにしてもRAIDに30万とかだせる人がウラヤマシス…orz
30万って仕事で使うってことだろ。
あんたみたいに遊びじゃない。
遊んでok
仕事が遊びより偉いわけじゃない
うらやましいなら遊びで30万突っ込んじゃおうぜ
遊びだから30万って考え方も。
仕事だったら500万とかに・・・・
金あるエンプラさんならNetAppとか買うだろう。
俺はEMC のほうが好き。
金の無いテンプラ屋さんはどうすれば?
安い胡麻油を探す
OpenSolarisでZFSや、LinuxでBtrfs、DragonflyBSDでhammerfsでがんばる(`・ω・)
Openfilerを余っていたServerで試してみた。
ServerはPowerEdge750でPen4 2.8G、メモリ2G、HDD Samsung SP2504C、SAS HBA SAS3442X
クライアントはThinkCentre A51でDELLのGigabit HUB使用
Read/Writeはシーケンシャルで40Mbytes/45Mbytes程度出た事を確認しますた。
iSCSIしか試してないけど古いServerでも有効に活用出来そうですね。
LinkStationのiSCSIなんかはUSBと変わらんぜ。
>>335 Writeの方がいいってw
360Mbpsだとネットワークはボトルネックでないよね?
NFSで計測した値も気になる
fedora9-terget
[root@localhost ~]# yum install kernel-debel
Loaded plugins: refresh-packagekit
Setting up Install Process
Parsing package install arguments
No package kernel-debel available.
Nothing to do
[root@localhost iscsitarget-0.4.16]# make; make install
make -C usr
make[1]: ディレクトリ `/root/iscsitarget-0.4.16/usr' に入ります
cc -O2 -fno-inline -Wall -Wstrict-prototypes -g -I../include -c -o message.o message.c
message.c: In function ‘ietadm_request_handle’:
message.c:130: error: storage size of ‘cred’ isn’t known
message.c:130: 警告: unused variable ‘cred’
make[1]: *** [message.o] エラー 1
make[1]: ディレクトリ `/root/iscsitarget-0.4.16/usr' から出ます
make: *** [usr] エラー 2
cc usr/ietd.o -o usr/ietd
/usr/lib/gcc/i386-redhat-linux/4.3.0/../../../crt1.o: In function `_start':
(.text+0x18): undefined reference to `main'
collect2: ld はステータス 1 で終了しました
make: *** [usr/ietd] エラー 1
iscsiの勉強する為にインスコしたばっかなので足りないものがあるのかも?
教えてエロイ人!!
使ってるfedora6は設定できてるんだけど…
>>338 yum info iscsitarget
Loaded plugins: refresh-packagekit
Available Packages
Name : iscsitarget
Arch : i386
Epoch : 1
Version : 0.4.15
Release : 11.svn142.fc9
Size : 64 k
Repo : rpmfusion-free-updates
Summary : Utilities for iSCSI Enterprise Target
URL :
http://sourceforge.net/projects/iscsitarget/ License : GPLv2
Description: An open source iSCSI target with professional features, works well
: in enterprise environment under real workload, and is scalable and
: versatile enough to meet the challenge of future storage needs.
Linux - Windows 間でひとつのボリュームを
共有しようと思って、OCFS を入れてみようと
しているんだけど、Windows版の OCFS って
RAC とか買わないと入手できないのかな?
誰か上記以外の方法も含めて Linux - Windows 間で
ボリュームを共有してる人っている?
>>338 オハヨー
>[root@localhost ~]# yum install kernel-debel
debel? develじゃね?
>Loaded plugins: refresh-packagekit
リフレッシュすりゃいいんじゃね?
カーネルの起動オプション拾って、ネットワーク設定とiSCSI設定して、
iSCSIにswitchrootして起動するinitrd作ったんだが・・・・
調べてみると、起動オプションって255文字の制限があるらしいじゃないですか
vlanまで対応したおかげで、起動オプション600文字超えてしまって・・・orz
おまえら、どうしてる?
dhcpで取得して、dhcpホストに対してinitrd埋め込み名で接続?
と、寂しげなスレで言ってみる
>>342 大半はカーネルじゃなくてinitから先で使う変数だろうから、
/initの先頭にでも埋めとけば?
>>342 試してないけど、x86 アーキなら 2048 までいけるんじゃないか?
$ grep COMMAND_LINE_SIZE arch/x86/include/asm/setup.h
#define COMMAND_LINE_SIZE 2048
ブートローダがしょぼいんなら、カーネルコンフィグレーションの
Processor type and features -> Built-in kernel command line あたりで
埋め込めばいいんじゃない?
あー
ソース見てみたら確かに2048になってた。
過去何回かパッチが却下されたって聞いたけど、いつの間にか採用になってたのか。
もう土日終わっちゃったんで、またこんどやってみるよ。サンクス。
誰も見ていないスレかと思ったけど、結構見てる人いるのかな
346 :
login:Penguin:2008/12/18(木) 03:45:07 ID:uySgWMbd
iSCSIでPC1でtgtdで公開して、PC2でiscsiでアクセスまではできるんだが、両方のPCでアクセスするにはどうするの?CentOSでやってるんだが。
ぐぐってcman+clvmd+GNBD+LVM+GFS/GFS2で共有は試してできたんだが、iSCSI経由で動いていないみたいでパフォーマンスが出ない。(10MB/sぐらい)
clvmdまで動かして、iscsiデバイスをmkfs -t gfsでやっても、もう片方ではまったく検知されていない。
cmanのfailover domainやresources, fencing, servicesの設定も具体的に書いているのがなくてあきらめようかなと。
PV,LV,VG,sdaのどれを公開して、やるのかすら・・・イニシエータ側は増やしたり、減っても大丈夫なようにしたいのだが。
347 :
login:Penguin:2008/12/18(木) 07:24:25 ID:lOMk7OIG
>>346 2台からの書き込みとか、不整合でデータ消滅するんじゃ
349 :
login:Penguin:2009/01/25(日) 14:56:03 ID:E+6Hg5js
AoEとiSCSIで自宅LANで遊ぶ場合にはどっちがパフォーマンスはいいの?
NFS
AoEかな?
ESXiのディスク領域にlinuxでiSCSIなサーバを作ってみようと思うのですが、
ATOMとかの安いCPU/MBでもそれりの性能は出ますか?
ATOMはどうだろう。
でもまぁ多分、先にiSCSIターゲット側のディスクが足引っ張ると思うよ。
家庭用NASのCPUはAtomよりもはるかにプアーなARM系の石で、
高級NASでCeleron 2GHzとかなので、Atomでもパワーは十分にある罠。
それは相対的な話だろ。
もっとも、AtomはCeleron2Gより下だが。
そのCeleronがNetburstなCeleronなら、下手するとATOMのほうが上かも
結局、CPU通らないとHDD→ネットワークの転送できないからな
CPUのクロックよりも、メモリバス速度の方が重要かも
以前、三省PC
http://item.rakuten.co.jp/assist-pc/c/0000000100/ で、CentOS 5.2+IETのターゲット作ったときのベンチデータがあるよ。
CrystalDiskMark 2.2
--------------------------------------------------
Sequential Read : 54.071 MB/s
Sequential Write : 39.400 MB/s
Random Read 512KB : 52.726 MB/s
Random Write 512KB : 30.645 MB/s
Random Read 4KB : 14.803 MB/s
Random Write 4KB : 1.151 MB/s
Test Size : 100 MB
HDDは2.5インチSATA 5400rpmの160GB
このベンチは物理パーティションを使った場合だけど、LVMから切り出すと2割くらい遅かった。
同一マシンでOpenSolaris2008.11でzvolでターゲットを切り出したときのベンチも取ったけど
今見つからないな。あまり速度出なかったと思う。
C7 1GHzでもこの程度出るんだからAtomでもそれなりに出るんじゃないかな?
359 :
352:2009/01/28(水) 22:53:40 ID:8pYiKLHx
>>353-358 ありがとうございました。とても参考になりました。
趣味のサーバ用なので30MB/s出れば問題なさそうです。
週末に作ってみます。
せっかくなので貼り付けておく
server:linux2.6.24-x86_64 X3360 hwRAID6
client:linux2.6.24-x86_64 X3360 iSCSI
# dd if=/dev/sda bs=65536 count=15258 of=/dev/null
15258+0 records in
15258+0 records out
999948288 bytes (1.0 GB) copied, 39.6692 s, 25.2 MB/s
# dd if=/dev/sda bs=65536 count=15259 of=/dev/null
15259+0 records in
15259+0 records out
1000013824 bytes (1.0 GB) copied, 10.6491 s, 93.9 MB/s
# dd if=/dev/sda bs=65536 count=15259 of=/dev/null
15259+0 records in
15259+0 records out
1000013824 bytes (1.0 GB) copied, 0.279964 s, 3.6 GB/s
# dd if=/dev/sda bs=65536 count=15259 of=/dev/null
15259+0 records in
15259+0 records out
1000013824 bytes (1.0 GB) copied, 0.273612 s, 3.7 GB/s
# dd if=/dev/sda bs=65536 count=15259 of=/dev/null
15259+0 records in
15259+0 records out
1000013824 bytes (1.0 GB) copied, 0.270295 s, 3.7 GB/s
1GBでもキャッシュに載っちまうようで
AoEを使ってみた。
Target: Linux(Debian lenny, Memory 8GB)
Initiator: Windows XP + WinAoE driver
で、Linuxの方で1GBのファイルを作ってそれをAoEでドライブとした。
接続は1Gigabit Ethernetで、安物ハブ経由。
--------------------------------------------------
CrystalDiskMark 2.2 (C) 2007-2008 hiyohiyo
Crystal Dew World :
http://crystalmark.info/ --------------------------------------------------
Sequential Read : 76.216 MB/s
Sequential Write : 59.867 MB/s
Random Read 512KB : 65.129 MB/s
Random Write 512KB : 76.348 MB/s
Random Read 4KB : 23.841 MB/s
Random Write 4KB : 17.450 MB/s
何故か、512KBのランダムライトが逆転してるけど…
ついでにnbdも頼む。
>>359 商品だけど、
QNAPとか調べてみるといいかも。
汎用CPU(セレロン、ATOM)によるNAS/iSCSI箱。
409、509あたりが汎用CPUです。
ATOMだったらMINI-ITXだけど、小型のリムーバブル付きITXケースって
ES34069くらいしかないから、できあい買った方が安いかも。
RAID無くていいなら何でもいいかもしれんけど。
ああそうだ、
3wareの9550で、RAID5のSeqRead400MBくらい出るやつあるんだけど、
GbE飽和する。
FCも10GbEも高いんだけど速くしたいときは何でつなげばいい?
Bondingはセッション多数張らないと意味ないよね?(モードによるけど、
2本束ねても、2倍速度が出る訳じゃなくて2セッションの時にスケジューリングで
交互にGbEを使うから遅くなりにくいってだけだよね?)
>>364 iSCSIに拘らなければ、NFSはbondingで速くなるらしいぞ。
iSCSIって1つのターゲットに複数のイニシエータが接続できるのが普通ですか?
普通
vista標準のイニシエータで複数のターゲットに接続できないのですが
方法ありましたら教えてください。
初日にして沼にはまっているド素人にHELP
-----------------------------------
Lun 0 Path=/dev/hdc,Type=fileio
Lun 1 Path=/dev/sda9,Type=fileio
-----------------------------------
↓
-----------------------------------
Feb 15 00:21:58 aohdev kernel: iSCSI Enterprise Target Software - version 0.4.17
Feb 15 00:21:58 aovdev kernel: iscsi_trgt: Registered io type fileio
Feb 15 00:21:58 aohdev kernel: iscsi_trgt: Registered io type blockio
Feb 15 00:21:58 aohdev kernel: iscsi_trgt: Registered io type nullio
Feb 15 00:21:58 aohdev kernel: iscsi_trgt: open_path(119) Can't open /dev/hdc -30
Feb 15 00:21:58 aohdev kernel: iscsi_trgt: fileio_attach(283) -30
Feb 15 00:21:58 aohdev ietd: Can't create a logical unit 30 1 0 Path=/dev/hdc,Type=fileio
-----------------------------------
HDDはあっさり認識するのですが、物理CDドライブをTargetにするばあいどうすりゃいいのでしょうか?
コマンドラインから/dev/hdcはmount可能なんですが・・・
blockioにする必要があるんじゃないか?
>>372 変わらず・・・
こんなところで躓くやつはオランようで、類似事例が出てこないでつ
ということは、removableに起因する問題かな
未対応ってオチがあるかも・・・・・
>>374 よろしければ、removable問題について一席。
それと未対応というのは、ドライブが?OSが? IETのバージョンが新しすぎる? などでしょうか
いまのところFC4とFC10でやってますIETは同じverであります
removableだと、対応必要なSCSIコマンドが増えるし、処理も増える。
なので、IETが未対応ってオチがあるんじゃないかな と。
確か、HDDとremovableで対応必須なコマンドが違ってた筈
google様に聞いてみても、removableは非対応っぽい雰囲気が・・・・
自分の所では、iSCSIbootさせてしまっているので、全部止めないと試せないんだ。ゴメン
イニシエータにWindowsは鬼門か…('A`)
DELL鯖でwindows2003のiSCSIbootやってみた(BCM5708、iBFT使用)
結論から言うと、「できるにはできるが、素直にintelNIC買うのが楽」
手順通りにやっても何か問題が残ってるようでうまくいかない。
設定いじりながら何回もインストールやりなおしてやっと成功。
intelNICだと、インストール時にSCSIアダプタとしてドライバの追加ができるらしく
たぶん、苦労することはない。対応OSなら。
iSCSIとVLAN併用する方法もわかんないし、windows鬼門すぎる
linuxだと簡単なのに・・・・
Windowsで安価に使えるクラスターファイルシステム マダー(・∀・ )っ/凵 ⌒☆チン
クラスターFSってどんなのがあります?
ocfs
>>382 THX
ocfs2とかgfsというのがあるのは分かった。
インスコ方法まとまっているのがあまりないなぁ・・・・
コツコツやってみるか
>>383 OCFS2はインストールとかほとんど考えることがない位に簡単。
GFSルートは艱難辛苦を乗り越える人生の苦い思い出を作るのに最適。
WindowsからもOCFS2読めるといいんだがなぁ
Linux、BSD、Mac、Winで共通して使える
オープンソースのクラスタファイルシステム出ないかねー。
そこからブート可能となると、いろいろ各OSの都合があって難しいだろうけど、
データ用としてなら十分に可能だと思うんだけどなー。
ZFSあたりがクラスタファイルシステムに対応してくれると一番良さそうだけど。
GFSだとLinux、BSD、MacOSXまでは使える…のか…?
やっぱWindowsが難しいか…
ocfs2 簡単だったけど、その上に vmware server 2 の
vm 置いて立ち上げたらなぜか panic 起こすんだよなぁ...
ocfs2を使うときに、o2cbを設定しなかったらどうなるの?
>>388 まあ、その手のことをしたいのならESXiでVMFS使えって感じだしなぁ
iscsiのイニシエーターが壊れた場合、iscsiで運用していたSATAのディスクを
取り外してUSBの外付けHDDケースに入れ替えて接続したりすると、
そのまま問題なく読めるのかな?
ターゲット側の実装によるだろうけど、open-iscsiなら読めたかな。
それはすごい便利だね。
iSCSI Enterprize でも出来るかな?
SunOS sxce113 5.11 snv_113 i86pc i386 i86pc
でiSCSI Targetやってるんですが、
同じハードでCIFSだと40MB/sくらい出るんですが
iSCSIだと10MB/sくらいしか出ません。
どなたかチューニングのやり方などご教授いただけませんか?
Linux側をtargetにしてクライアントPCにWin7を入れたんだけど、
NICのBIOSでtargetを認識さえさせておけば、
その後はOSメディア1枚だけで何一つ問題なく入った。
便利な時代ですな。
そんなのvistaのころからできてますけど
vistaなんてつかうわけないじゃんw
買ってないんだろ?必死だな
頼むからRC拾ってきて目新しいことできたように言わないでくれw
情シスなら評価くらいしてるだろ。
開発者とかならMSDNあるし、運用でもTechnetとかあるし。
ノートPC買えばVista入ってるし。
ここは安鯖で遊んでる人間が多そうだから自作板みたいな
煽りも出てくるんだろうな。
というか、そもそもここLinux板だから、Windowsなんか使わねえよ、ってことか。
そりゃごもっとも。
ほう、Win7をiSCSIインストールできるのか
XPとか2003とか、一度HDDに入れてイメージ作ってとか面倒だったからなぁ
7はVHDからブートできるようになったのが面白くて
Fedoraのnetbsd-iscsi試したら2TB制限有ったわ
>403-404
むかし展示品のVHDプレイヤーを電気屋からタダで貰ったけど、ソフトなくて捨てたの思い出した
VHD=バンテック・グループ・ホールディングス
LD=ライブドア
特にライバルではなかった。
ツマンネ
>>407 ここまで拾いようのない真面目ボケは初めて見た
ぶっちゃけ、劣化・安価なファイバチャネル
>410
イーサを纏めてボンディングしたり
VPN越しにストレージを置いたら災害対策とか
iSCSI越しにテープが使えるのがよかったなぁ。
あと、Linux関係ないけどWindowsでMSCSが簡単・安価に組める。
まぁ、安価なファイバーチャネルって意見は同意。
Windowsでネットワークドライブだと制限かかるような時とか。
ネットワーク越しにハードウェアとして認識してくれるのは助かる。
まあ、スイッチがへぼかったらあんまり業務で使いたいと思わないけど。
VMware ESXi用のストレージとして活躍してます。
安価なFCというより、FCが高価すぎるというか。だからFCoEとか出てくるわけで。
NASと違ってブートできる
eSATAと違って共有ディスクでも使える
うちの場合、常時稼動ファイルサーバが既にあるから、
それをターゲットにしてクライアントPCをディスクレスにしたよ。
そもそもSANの利点がわからないって事じゃない?
iSCSIはIP-SANとか言われてたような気がするが、SANについて調べてくれれば利点はわかると思う。
まだクラスタfsが弱いというのもありそう。
> eSATAと違って共有ディスクでも使える
マジ?何かWindowsだとダメダメみたいな情報しかないんだけど。
サーバーはLinuxなんだが、クライアントは全部Windowsなんだよね・・・
>>421 俺の書き方が悪かったかもしれないが、
eSATAみたいに「それ専用のディスクドライブ」を1本用意しなくてもいいって意味だよ。
俺はLinuxでファイルシステム上に置いたイメージファイルを
iSCSI越しにクライアントPCのディスクとして使わせてる。
なんとか.img みたいなやつをね。
Win7を入れて1ヶ月ぐらい、ほぼ毎日起動して使ってるけど、まったく問題ないよ。
> eSATAみたいに「それ専用のディスクドライブ」を1本用意しなくてもいいって意味だよ。
ああ!なるほど、それはなかなかにいい利点ですね。
>>410のサイトの人も、VMのイメージにしてますよね。合点がいきました。
コンソリとかVMに興味が無い奴は使わない方がいい
理想を言えばiSCSIドライブからOSごと起動+データもiSCSIドライブへ保存
ローカルはディスクレス・・・
だけどGbE以上必須になるだろうし、Winは起動もファイルシステムも厳しい('A`)
早く10GbEにな〜ぁれ
こんんにちは。
iSCSIストレージをDASのように単体サーバのみへの接続で使用する場合、
iSCSI@1Gポートx3なバスはUltra320SCSIバスの代替えになりますでしょうか?
EquallogicPS5000VX検討中なんですが、Dellの営業担当者の
歯切れが異様に悪いです。単体だと全然性能でないとか、なんか問題あるんでしょうか?
データはサーバ上のPhotoshop画像データ動画の編集や3Dレンダリング用途がメインです。
クライアントは普通にGbのワークステーションが40台くらいで接続です。
こんにちわ
430 :
login:Penguin:2009/07/11(土) 13:39:18 ID:0ACm/dO6
PS5000X使ってる。複数サーバだけど。
ランダムアクセスだとGbEx3 で十分すぎる感じ。
心配なら PS6500 にするか、10Gのが出るのを待つか。
PS4000 で十分じゃないかって気がするけど。
いいなぁ
16Tで100万以内くらいになれば即買うんだけどなぁ
>>427 DELLがEqualLogicを買ったわけだけど、今のところは「EqualLogic事業部」になってて
製造・セールス・サポート等全て鯖部署と別だという話だった。
なので、鯖部署に聞いても情報持ってないオチ。
何年かかけて統合だそうで。
432 :
427:2009/07/19(日) 07:26:55 ID:xI+IEfZ3
>430、>431
アク規制でレスが(ryでしたm_ _m
>ランダムアクセスだとGbEx3 で十分すぎる感じ。
結果報告ですが、PS5000XVx2にしました。6Gbpsあれば当面は十二分です。
ちなみに、もう少しするとPS6000系は10Gbpsコントローラがでるそうで、
更に少し間をおいてPS5000系でも使えるようになるとの事でした…あと10年戦える。
>16Tで100万以内くらいになれば即買うんだけどなぁ
私なら、SAS15kx16で1x0万くらいのキャンペーンなら即買います。
10Gbpsコントローラで将来の帯域も安堵されたりしたら
2台目以降、標準価格への特例割引で2x0万であっても
買っておいて損はないと判断しました。
>何年かかけて統合だそうで。
ぁぁああ、なんか近くでそんなお話を聞いたことがwwww
434 :
login:Penguin:2009/08/19(水) 17:26:07 ID:c1hIae3l
>>432 EqualLogiciいいなあ。
うちは金がないからMD3000iさ。ファイルサーバーと軽めのVMメインだからそんなに問題ないけど。
陰茎が硬くなって上を向いたよ
436 :
login:Penguin:2009/08/25(火) 13:21:25 ID:s/g+LA/b
ほ
そ
く
439 :
login:Penguin:2009/08/28(金) 09:21:01 ID:VfPf8aBA
ないもんっ!
細くないから恥ずかしくないもん!
えーっと、"ほしゅ"したかったんじゃね?
結果all rightだが。。
iSCSIのターゲットって何を使ってる??
iSCSI Enterprise Target使うのが普通なのかな?
Windows Storage Server
CentOSのyumで入るtgtdって、MS iSCSI Boot イニシエータでマウント出来無くね?
起動出来ないイニシエータは出来るけど。
IETでiSER出来ている人いる?
IB?
Infinibandで
それにしても、LinuxのiSCSIっていまいち盛り上がっていない気が。
FreeBSDのiSCSIはFreeNASのiSCSI対応だとか、Solarisのように
ZFSとiSCSIとの連動とかで、それなりに盛り上がっているのに。
環境がイマイチだからじゃないか。
俺もFreeNASとかSolarisは弄ったけど、Linuxはやる気しない。
って、スレ違いか。
>>449 OpenFilerというiSCSIのターゲットになれるNASアプライアンスな
ディストロがあるけど、たしかにあまり話題に上らない。
俺も一度ダウンロードしてみたけど、仮想マシンでターゲットを作ったら満足してしまった。
個人的にはDebianベースで似たようなのないかな〜と思ってるんだけど。
個人だけど、NASはvmachineのbackup用という位置づけなので
必要なときだけNASを立ち上げNFSでつなげている
個人でどのようにiSCSIを有効活用しているのか教えて欲しい
鯖にSASでHDD30本接続
接続したHDDをiSCSIで開放
他の子鯖がiSCSIbootで起動
Windows含め、ディスクレスクライアント化
vmwareとかだと、hddをイメージファイル化するけど、
仮想マシン使わずに、リアルマシンでイメージファイル化したhddが使える
>>452 PCのケースを変えたらスロットの位置関係で使ってたRAIDカードが入らなくなってしまった。
仕方なく別のPCにそのRAIDカードを挿し、
そっちをiSCSIターゲットにして iSCSI経由で接続することにした。
こりゃ便利。
同じようなパターンで、家の中に一台だけ大きいのがあれば
他の小型orノートPCで簡単に大容量ストレージが使用可能になるってのは
個人レベルでも大きなメリットになるのでは。
設置コストが安いしWinからでも使えるし。
ただ、便利だけど速くはないんだよなー
サーバがLinuxに7200rpmの1.5Tx4でRAID5、クライアントがWin7RTMだけど
クライアントから見たディスクの速度はほぼローカルディスク単発程度。
可もなく不可もなく。
まあそんなもんだろ。
ギガイーサとコアオンリーなdebianにietdのみのサーバーなら結構いけるけどな。
GbEの理論最大値で125MB/secだから、そういう点では速くない
それ以上望むなら10GbEかFCかな
体感ではターゲット側のキャッシュの量でシークタイムが結構相殺されるので
HDD単発を直接繋ぐよりはいいと思うけど。
>>452 クラスタの共有ディスクに使ってる。
検証環境作る時には非常に便利。
SANは高くて買えないし、NASはSCSI Diskとして認識しないので使えない。
10GbE高いばっかりでレイテンシ大きくて遅いから
そこそこ安くなりつつあるInfinibandのがいいんじゃないかな。
ターゲット1台にイニシエータ2〜4台位なら、スイッチレス
で構成すれば高いスイッチ買わないで済む。
>>446 にある、IETでiSERだけど、サポートはされている
みたいだけど実際にやったことはない。
Intel CT DesktopAdapter をESXi4用と思って買ってきたんだけど
iSCSIutilというのでNIC firmwareを書き換えると、tftp、DHCPを用意しなくても
直接パラメータ指定で iSCSI boot可能って書いてあった
またどうせiSCSI化するなら、使わなくなった100MBのHUBもあるので
OnBoard NIC = internet 接続 (100MB) / Intel NIC = iSCSI用 (GB)
に分離しようかなと思い調査中
これは今NFSでも同時に2台に転送するとGBの帯域を使い切ってしまい
ほかのPC等に影響を与えるため
ターゲット側の構成二種類でbonnie++でベンチマークを取ってみたのだけど速度がエラく違う。
TargetPC Seq.R Seq.W Ran.Sk Seq.Cre Ran.Cre
Pentium4 630/512MB 33840 22642 110 310 282
Opteron 2376×2/8GB 96621 98760 11550 22978 23062
項目は
TargetPC - ターゲットに使用してるPCのCPUとRAM
Seq.R ---- Sequential Output(block) 単位: K/sec
Seq.W ---- Sequential Input(block) 単位: K/sec
Ran.Sk --- Random Seek 単位: /sec
Seq.Cre -- Sequential Create 単位: /sec
Ran.Cre -- Random Create 単位: /sec
iSCSIターゲットはのドライバは ietd。
いずれもクライアント - ターゲット間の接続は GbEでクロスケーブル直結。
クライアント側は P4 3.0GHz/2GBなPC。
クライアント側PCもいくつか変えてみたけれど、ターゲット側ほどの大きな差は出なかった。
項目によってはモロに二桁違う結果が。つーことで、
ターゲット側のデバイスの能力によって天地ほども速度に差が出ることは分かったけれど、
速度に一番影響する要素って何でしょう?
CPU速度? CPUのコア数? メモリ量?
これ以上コマゴマと条件変えてテストするのも面倒w なんで、どこかに調査した文献とかないでしょうかね。
>>455 ということで、ターゲット側の能力次第で速度はかなり変わる。
本当に「遅い」のかはいろいろ実験してみないとよく分からんと思う。
ターゲットPCローカルで取ったベンチマークより速い数字が出てしまったりw
つか、そもそもRAID5は速くないと思うが。
仕組みからして、特に書き込みは単体ドライブよりも遅くなるはず。
>>462 iet.confで、type= を fileio, blockio どっちにした?
fileio にすると、OSのバッファキャッシュのフラッシュの
影響を受けるのか、ベンチマーク値が安定せずに
それこそ測定の度に2桁位ふらふらした記憶がある。
>462
興味深いです
再度調査して報告していただけると嬉しいです
スレチですまんが、MPIOターゲットになれるモジュールってある?
>>464 ベンチマークのためにキャッシュ切ってどうするww
fileioで安定しないのは、OSのファイルキャッシュ使うからだよ
実際fileioは遅い。てかblockioがデフォルトではない理由が判らん。
VMwareのストレージとして使うときにfileioに変えたら
速くなったんだけど、どうなんだろうな。
メモリ多めに積んだからキャッシュがよく効いただけかも
>>468 逆だろ
デフォがblockio
キャッシュ使うfileioが遅いって言うならメモリ買え
>>466 そもそもMPIO不可のiSCSIターゲットなんてあんの?
MC/Sなら対応してないのは多いけど。
マルチパス実装が中途半端でクソ扱いされてるのはイニシエータ側だっけか
ietdでblockio使ったらsambaよりは断然早いけど、CPUがプアだと
まだまだ遅いですね。
474 :
login:Penguin:2009/10/14(水) 22:28:26 ID:vmv5MAGQ
亀レスだけど
infinibandはスイッチが必須じゃない?
subnet managerが存在するスイッチネットワークが必要だと思った
でもIBスイッチ安いよ。10GEより全然コスパいい
ちなみにiSERはメモリにアクセスしてるうちは速い
前試したときは500MBpsは出てた
リード、ライトともにね
>>474 OpenIBに含まれるopensmを起動しておけばOK。
switchless infinibandでぐぐると幾つか出てくるよ。
現状は低遅延広帯域ネットワークはInfinibandがベストだね。
CEEが複数ベンダから安いアダプタとスイッチが出てくるようなら、
将来は次点になるかもしれないけど、ちょっと難しそう。
>>475 スイッチレスで組めるんだ
知らなかったよ、ありがとう
RDMAoCEEが動くようになれば10GEて選択も出てくるね
RDMAエンジン搭載のCEE NICがまだ無いけど
でもTCPベースのiSCSIにも言えることだけど、
キャッシュ同期が取れる冗長が組めないと
危なくてテンポラリな空間にしか使えないよね
商用はそこ解決してるわけだけどさ
Infinibandって10GbEより圧倒的に安いんだね
超ハイエンドかと思ったが、いつの間にか部署内のサーバ間接続用なんかに
ちょっとした経費で買えそうな位まで安くなってるので驚いた
とりあえずスイッチレスで試すのに2枚買ってみようかな
iSERってiSCSIとワイヤレベルでのプロトコルが違うんだよね?
ターゲットもイニシエータも対応した奴を用意しないとパフォーマンスが出る出ない
以前に通信できないってことでおk?
>>477 > ターゲットもイニシエータも対応した奴を用意しないとパフォーマンスが出る出ない
> 以前に通信できないってことでおk?
Yes、TCPは使わないです
リモートホストのメモリに直接アクセス(RDMA)するんだけど、
RDMAのRead/WriteがSCSIのRead/Writeに相当する
iSERに対応してるのは今のところ、LinuxとOpenSolarisくらいかなあ
けどiSER評価するなら、NFS/RDMA使ったほうがいいかもよ?
そろそろLinux版がGAになるし、一番簡単
RDMA使ったストレージアクセスって、iSERもSRPもNFS/RDMAも
大してパフォーマンス変わらないもの
あと、日本語ドキュメントが皆無だから頑張ってね
How toだけなら公式wikiとかバンドルされてるドキュメントで何とかなると思う
IBの日本人エンジニアなんてほんとレアだしさ
FCと同じで案件(金)が絡まないと情報出てこないのよ
情報が少なすぎて、
「試しに買ってやってみるか」にはならないんだよな
FCなら、繋いで、インターフェースのBOOTROMで設定すれば、
あとは/dev/sd?で見えるようになって使えると思ったけど。
9割がクラスタ案件だからね
入札出来るベンダも限られるし
飯のタネのノウハウは漏らさないだろうね
でもオープンな情報も多いから
英語読む気があれば色々ためせるよ
スレの本スジから外れてきちゃったね
他に行くところも無いんだけど
InfiniBandでスレ立てていいと思う。
情報が分断する気もするけど、
iSCSIとは直接関係ないしw
やっとiSCSIのスレを見つけた…
普通のPC、またはサーバ用のOS(?)で、
そのインストールしたPCをiSCSI用のストレージとして
認識させることの出来る奴の名称、誰か知ってたら教えてくださいorz
先月くらいにちょろっと見て、後で検証してみようと思ったんだが、
名前ど忘れ+ググっても出てこないorz
>>483 ありがとう。
確かにコレでも同じ事出来るな、どこ見てんだ俺はorz
でも名前が違ったような気がするんだよなぁ…
仕様見に行ったときもっとグラフィカルなサイトだった気がするし
とりあえず
>>1を試してみる、ありがとう!
Windowsで気軽に使えるクラスタファイルシステムマダー(・∀・ )っ/凵 ⌒☆チン
次は10GbEが欲しくなる。
飽き足らずにInfinibandが欲しくなる
10GbEは意外と安くならないね
来年からIntelはオンボ10Gにするらしいけどね。
問題はL2スイッチが直ぐには安くなりそうもないこと。
iSCSI用途に限らないんだけど、今のLinuxで10Gのカードって
ノウハウ的にどこがおすすめ?
Intel,Broadcom,Chelsio,MallaoxあたりとBladeNetworksの
24portスイッチをつなげてみようかと思うんだけど。
ノウハウ的って意味が正確には判らないけど、
自分とこではChelsio買った部署があるな。
HPC屋が推してたらしい。
>>493 39s。阿鼻叫喚はとりあえず聞こえてきていないということですね。
とりあえず阿鼻叫喚は聞こえて来ないから、マトモに動かないと
いうことは無いんじゃない?
ただし、ToEはカード上で処理できるセッション数を超えた途端に
ホストCPU処理になってしまうため、用途によってはトラフィックごとに
アダプタを別けざるを得ず、ケーブリングでハマると聞いたことが
あるので、その辺は実際のワークロードをかけて幾つかの製品を
試したほうがいいと思う。
最近はCEEだ何だと言われる位なので、各社問題無くなってるのかも
しれないけど。
ToEってなに?
TOE == TCP Offloading Engine
単に"o"にツッコミたかった?
なんだTOEのことかよ
>>499 こんな信頼性もパフォーマンスも無さそうなTargetの
使いどころが正直判らん。
VMwareとかHyper-Vとかのライブマイグレーションの練習用?
>>500 練習だったら自分で組んだ方が早いわな。
ソフトウェアによるイニシエータ/ターゲットの存在を
知らない人も世の中にはいるんだよw
いや、マジで。
>>502 そんな人がVMwareとかHyper-Vでシステムを仮想化とか、無茶じゃないか?
一人でVMware Player使うとかいうのとはわけが違う。
>>503 > そんな人がVMwareとかHyper-Vでシステムを仮想化とか、無茶じゃないか?
> 一人でVMware Player使うとかいうのとはわけが違う。
そんなに違うか?
所詮単なる道具だぜ?
505 :
login:Penguin:2009/11/06(金) 08:57:28 ID:qWrsNhC4
>>503 文章読解力がないようだが、
>>502は
>>500-501に対するresだ。
つまり「信頼性もパフォーマンスもなさそうなTarget」の存在意味。
仮想化云々はまったく関係ない。
iSCSIは従来のSCSI同様
専用のHBAと専用の機器の組み合わせで使うものだ
と思い込んでる人もいる、とゆー話。
# いや、某中古サーバ専門店の店員が。
# マジ驚いたよw
ぉっと
iSCSI HBA使うメリットって今あんのかな?
8GFCのスイッチとHBAの価格が4GFCと大して変わらんくらいまで落ちてきてんだよね
あるPC(Windows7)からiSCSIでマウントしてるディスクを
別PC(XP)からSambaでファイル共有して同時に読み書きってできるのかな
iSCSIは、SCSIであって、使い方はSATAやSASとほぼ一緒
なので、iSCSIをマウントしたPC/鯖とsambaで共有すればいい。
>>510 レスありがとうございます
この例はあぼーんするが
[PC1:Win7/NTFS] <---iSCSI---> [NAS鯖:Linux/EXT3] <---iSCSI---> [PC2:Win7/NTFS]
この例は大丈夫ってことですね
[PC1:Win7/NTFS] <---Samba--->
[PC3:XP/NTFS] <---Samba---> [NAS鯖:Linux/EXT3] <---iSCSI---> [PC2:Win7/NTFS]
[PC4:XP/NTFS] <---Samba--->
どっちがどっちだ?
iSCSIはブロックデバイス、sambaはファイルシステム
ブロックデバイス(HDD)を適当なファイルシステムでフォーマットして
sambaで共有させれば、結果的にiSCSIの中にあるファイルを共有したことになる。
iSCSIのイメージをsambaで共有しても、HDDイメージファイルを共有したことにしかならない。
>>512 NAS鯖
・24h常時稼動
・iSCSI Target(物理ストレージ側)
・Sambaファイル共有サーバー
PC1〜4
・電源ON/OFFのある完全なクライアントPC
・iSCSI Initiator
・Windowsファイル共有クライアント(Windowsファイル共有サーバーの設定はせず)
他PCがマウント中のHDDイメージの中身を、NAS鯖自信ならば読み書きできると勘違いしました
あくまでHDDイメージなんですね
>>511の上の例では、
NAS鯖内に複数の異なるHDDイメージを作成して、
それぞれマウントすればあぼーんすることはないが、
同一のHDDイメージをマウントするとあぼーんするわけですね
>>511の下の例では
PC2がマウント中のHDDイメージを、NAS鯖がマウントするとあぼーんするから、
PC2をWindowsファイル共有サーバーにする方法しかないと理解しました
経路も迂回するし、PC2が電源OFFの時は読み書きできずとうまくいかないもんですね
クラスタファイルシステムでも使えばよろし。
クラスタファイルシステム何種類かあるけど一番有力なのはどれだろう
Windowsでも一つくらいサポートしてもいいような
iSCSIをocfs2で使うのと、
iSCSIをサーバのどれかがNASになってNFS/SMBで共有するのは
どちらが性能いいのかな。Linuxのみで使うとして。
ん?HDDイメージの場合、Targetとしてマウント中でも
HDDイメージそのものはそれがおいてある物理HDD上で
コピーしたりすることはできるよね?
できるけど・・・・
イメージの前半と後半でコピーした時間が違うなんてことになるぜ
>>517 ocfs2は、CPU負荷が高くなると、同期・調停信号が遅れて、
ファイル壊れるとか消えるとか色々変な事が起きる。
ので、smbで済むような用途ならsmbの方が良い。
タイムスタンプの精度が必要とか、
inodeの値まで揃える必要があるような場合だとocfs2
>>516 Windowsで使えるクラスタファイルシステムだとOCFSくらいじゃね?
認識があってるかも分からんが
linuxのkernel-stageに /fs/dst つ〜ブロックデバイスのネットワークプロトコルが入ってた
nfsの替わりもあってpohmelfsというらしい
5年後に名前が残ってるかさえわからんが…
>>518 それがやりたい人はSolaris使ってZFS pool上にiSCSI targetを構築しましょう。
LVMじゃ駄目なの?
ハァ?
>>523 とりあえず、SolarisのZFS + iSCSIがどう動作しているのか
お勉強してきた方がいい
ターゲットの0.4.16と1.4.19を比べて
特に高負荷時のパフォーマンス上がってますか?
CentOS5.4(2.6.18-164.11.1.el5) + iet(1.4.19)
でターゲット構築してるんですがローカルで
iscsiam -m discovery -t sendtargets -p hogehoge
とやってもタイムアウトしてしまって、ターゲット名が表示
されません。
iscsiadm: socket 3 header read timed out
iscsiadm: Login I/O error, failed to receive a PDU
とあるので、iscsi-targetが接続要求に反応していないのではないかと
思うのです。ietd.confはデフォルトのLun 0 Path=の部分のみ書き換えて
後はそのままです。
#cat /proc/net/iet/session
tid:1 name:iqn.2001-04.com.example:storage.disk2.sys1.xyz
#cat /proc/net/iet/volume
tid:1 name:iqn.2001-04.com.example:storage.disk2.sys1.xyz
lun:0 state:0 iotype:fileio iomode:wt path:/dev/VG00/test
と出るので、IETの起動も一見正常に行われているように見えます。
ただ、この状態でservice iscsi-target stopとやると正常に停止できず、
psで見るとietadm --op deleteがうまくいっていなくて止まっているようです。
何かヒントだけでも頂けませんでしょうか?
3260番ポートを開けてない、とか?
ところで、単なる好奇心ですが
CentOS標準の tgtd ではなく
ietd を選んだのは何故でしょう?
CDNって分散fsって言っていい物?
>>528 iptablesではローカルホスト、ローカルネットワークからは全部開けてて、
一応telnetで接続するとコネクションまでは出来てるっぽいです。
わざわざietを使う理由ですけど、クライアントでMacを使ってて、
GlobalSAN iSCSI initiatorとの相性が悪くてマウントは出来るけど
書き込みが出来ないんですね。Windowsでは普通に使えるんですけど。
で、仕方なくietを使おうとしている次第でした。
まぁ、バックアップ用途なので最悪NetatalkかSAMBAで代替とします。
tgtd でターゲットを作成する際、
過去に使った(既に消された) tid ってのは再利用不能なんでしょうか?
tgtadm --lld iscsi -m target -o show で何も表示されない
(ターゲットが一つも存在しない)状態でも
--tid=0 などと既に削除した ID を指定して新規作成しようとすると
tgtadm: 'tid' option is necessary と断られてしまいます。
もちろんまだ一度も使ってない ID を指定すれば作成可能なのですが、
これでは「どこまで使ったか」を別途記録しておかないといけないことになり
テストで作成/削除を繰り返した後など、非常に不便です。
これは「そういうもの」なんでしょうか?
また「既に使ったもの」はどこを見れば確認できるのでしょう?
使用 OSは CentOS 5.4です。
ietdとscstは使ったけどietdは使ったこと無いな
kernel-2.6.33 で iscsitargetを利用したいのですがpatchなどありましたら教えてください
2.6.14以降なら普通に使えると思うが
何かパッチが必要なの?
ietdの場合は一応モジュール作らないとならないんじゃなかったかな
パッチが大量に当たっているディストリのkernelだとconflictすることもあるだろう。
そういう場合はディストリ配布のパッケージ使えばいいわけだけど。
iscsitarget-1.4.19で、writeよりreadの方が圧倒的に遅いんだけど、こういうもの?
イメージではwriteの方が遅くなるよな気がしてたんだけどなぁ。
fileioでもblockioでも同じ結果。
>>534 RH系なら、rpmbuildでkmod出来るから、それを先にインスコすればおk
以前動かしていたietdでは、read/writeによる速度差は感じなかった。
どちらかのNICが送信に弱い/受信に弱いとか、なんかあるんじゃね?
そもそも、ietdも動作おかしい点がいくつもあるけど。
NICそのものかドライバが原因てのはあるかもね。
iperfだとワイヤースピード出るのに、
iometerでブロック流すとリードだけ安定しないってのは遭遇したことある。
その時はドライバ変えたら改善した。
とりあえずオフロード無効にしてみ?
>>538-539 tgtdにしてみたら嘘みたいに解消した…。
負荷的にもtgtdの方がかなり有利みたい。
Cent雄5.4 x86_64環境。
まだ詳しく検証してないから、はっきりしたことは分からんけど、
NICドライバ周りも含めて色々調べてみる予定。
今のところ、
> そもそも、ietdも動作おかしい点がいくつもあるけど。
これには同意せざるを得ない感じ。
ho
ze
543 :
login:Penguin:2010/04/15(木) 01:57:24 ID:5j98vEiw
Hyper-V2.0 Live-Migration 用に、WSFC構築時のiSCSIとして、
ietdとtgtdを使ってみました。
すったもんだあって、結局・・・OpenSolarisのZFSでiSCSI-Targetを
使って、何となくWSFCを構成していますが、クラスタ検証テストはNG、
でも、Hyper-Vのクイックマイグレーション程度なら使えるっぽいです。
最初、dladmとか使ってNICチーミングしていた時は、ごまかしごまかしで
クラスタ検証テストも警告状態でスルーしたのですが、MPIOに切り替えると
クラスタ検証テストは完全にNGで終了しました。(涙
なお、NICはIntel系×4ポート、Mem16GB、Xeon3440、SATA1TB×4:Raid-5
構成の同一ハード仕様サーバを複数台使って検証しました。
#金出して、StoregeServerStandard以上を使えって事でしょうか?
まぁ、・・・ご参考まで。
544 :
527:2010/05/12(水) 23:33:11 ID:5KXCICkg
超亀報告ですが、ietdのバグだったようで
正常に動作してなかったみたいです。1.4.20.1で
rpmパッケージを作成してインストールしてみたら、
あっさりつながった…。
IETでBlockSize使うとWindowsからまともに使えないな
546 :
545:2010/06/06(日) 19:41:12 ID:083/OJg7
冤罪だった
WindowsもIETも悪くない
VirtualBoxだ
乙
iSCSIサーバーの性能ってCPUに左右される?
昔のセレロンPCとかをサーバーにしても遅いかな。
>>548 左右されるよ
あとメモリ容量にもね。
まぁセレロン言ってもピンキリだから何とも言えんわな。
>>548 iSCSIのパフォーマンスは伝送路に大きく左右される。つまりNIC/ケーブル/ハブ。
さらに言えば、CPU、ノースブリッジ、サウスブリッジ、メモリ。
iSCSIで接続したHDを、他の何と比べるかによって答えは変わってくる。
ローカル接続のHDと比べると、ネットワークは、10MbpsでiSCSIは話にならない。
100Mbpsでも、常用するには使い方を割り切るか、忍耐強さが必要。
感覚的には、USB接続の外付けHD程度(但し抜き差し不可)かな。
たとえばDVD1枚分のコピーに1時間...みたいな。(もうちょい早いか?)
それなりに使おうとすれば1Gbpsは必要。
実効速度で最低でも300〜500Mbpsは出ないと辛い。
ビット毎秒をバイト毎秒に置き換えればわかると思うが、
仮にGbEを使って実効速度800Mbps出たとしても、100メガバイト毎秒。
それでやっと一昔前のパラレルATA接続のハードディスクといい勝負。
当然、GbEを活かそうと思えば、それなりのCPUに、
それなりのノースブリッジ、サウスブリッジ、それにメモリも必要になってくる。
実験や勉強なら鱈セレでも使える...っちゃあ、使えるが、
GbEを活かせないようなハードウェアなら、実用にはならないと思った方がいい。
セレロンを積んでるような奴では、かなりキツイと思う。
でも要は、何と比べるか...だと思うよ。
結論:「やってみんとわからん」
CentOS で iSCSIターゲットをデータ領域としてマウントしているのですが、
shutdown/reboot時にはこのデバイスを先にアンマウントしておかないと
Umounting file systems で止ってしまい正常に終了できません。
このアンマウントを自動的に行わせるにはどうしたらいいのでしょう?
安全を考えるとデバイスを使用している可能性のある samba等の終了より後で
アンマウントしたいところですが、かといって iscsid や network が終了した後では
(当然)正常に umount が実行されません。
(即ち、/etc/rc.d/rc[0|6].d/K?? の前でも後でも不可)
取り敢えず、現在は /etc/rc.d/init.d/iscsi の stop スクリプトの先頭に umount を
書き込んでしまいましたが、どうにも美しくありません。
皆さんはどうやって解決してますか?
CentOS は netdev 見てくれないのか?
鳥別スレで聞いみそ。
情報どうもです。
_netdevオプションで解決しました。
iSCSI導入方法紹介してるサイトでも意外とこの話出てないんですね。
いや、普段 NFS等使ってる人には常識ということなんだろうけど(汗)
>>551 そうなるとNASなんかのiSCSIはダメダメかい?
ARMとかどうよ。
そんなの用途次第だろ
>>556 モノによっては真面目にGbEに対応してるものもある。
牛のLS-XHLとか。
freenasのiscsiにchapを設定した状態で
windows7のイニシエータから接続できないんですが
非対応でしょうか。
ちょっと教えてください。
Linuxにデータが入ってるNTFSフォーマットなHDDを接続して、そのドライブを
iSCSIで別のWinなマシンに見せるて事は可能でしょうか?
可能
563 :
561:2010/07/23(金) 20:02:31 ID:pyQA++fK
>>562 おお、やはり出来ましたか。
最初FreeNASでやろうとしてPort Multiplier使えなくて、Openfilerでやろうとした
ら、Openfilerだとファーマット前提だったので諦めかけてました。
ちょっとCentでも入れて頑張ってみます。
ありがとうございました。
ううう、何度やっても読み書きともに9MB/sぐらいしか速度がでない・・・。なぜ!
freebsd+iscsi, freenas+iscsiやったけど全部9MB/sだ・・・。
freenasスレいってきます!
100BASEだろ?普通じゃん。
ううん、netperfで実効900Mちょいっす。結局まだ悩んでる・・・。
568 :
login:Penguin:2010/10/05(火) 14:44:03 ID:YSD2OI5p
ターゲットはせんとくん5.5+scsi-target-utilsで、
イニシエータ側はXP+MS御製の2.08を使用。
HDDイメージの方はイニシエータ側からローカルドライブの如く見えるものの、
CDのISOが変。
1.7Gbyte位のJustSuite2010のISOだとチャンとターゲット側でマウントされて、
XP側からはローカルの光学ドライブにDVDがマウントされた状態で見えるのに、
3.4GByte程度のStella Nabigator9のISOだと、ターゲット側でマウントされない。
76.8GByte程度のISOだとなおさら。
XP側からは、空のドライブがローカルに接続された状態に見えるんだな。
こりゃ何だろか?
どこかに2Gの壁があるとか。
570 :
login:Penguin:2010/10/07(木) 23:29:09 ID:5n61HLDj
確かにBD用の70GByteものISOは異常かも知れなったが、
普通に二層DVDのISOがマウントできんとは..........
571 :
login:Penguin:2010/10/17(日) 16:26:29 ID:6x4y1zO+
よっしゃ行けたXPのSANブート
せんとくん5.5では、iSCSI Enterprise targetの方だと、旨く決まるな。
だがCDイメージISOのマウントはまだまだ。
tgtdってwrite-cacheをoffにした方がSequential Write速いのな。
randomはオンの時の方が速いみたいだけど…
CentOS5.5で/dev/sdbのWD10EACSを丸々backing-storeに設定して
win7(x64)のPCから計測
オフの時:
Sequential Read : 107.801 MB/s
Sequential Write : 81.818 MB/s
Random Read 512KB : 102.682 MB/s
Random Write 512KB : 46.133 MB/s
Random Read 4KB (QD=1) : 10.972 MB/s [ 2678.6 IOPS]
Random Write 4KB (QD=1) : 1.250 MB/s [ 305.2 IOPS]
Random Read 4KB (QD=32) : 97.925 MB/s [ 23907.5 IOPS]
Random Write 4KB (QD=32) : 1.290 MB/s [ 315.0 IOPS]
オンの時:
Sequential Read : 107.513 MB/s
Sequential Write : 60.971 MB/s
Random Read 512KB : 100.259 MB/s
Random Write 512KB : 45.661 MB/s
Random Read 4KB (QD=1) : 10.226 MB/s [ 2496.7 IOPS]
Random Write 4KB (QD=1) : 2.819 MB/s [ 688.3 IOPS]
Random Read 4KB (QD=32) : 83.901 MB/s [ 20483.7 IOPS]
Random Write 4KB (QD=32) : 13.341 MB/s [ 3257.0 IOPS]
573 :
login:Penguin:2010/11/24(水) 17:25:34 ID:Js+FOcjI
CDイメージのマウントに成功。
SCSI-Target-utilsの最新版なら、ちゃんと出来る模様ですな。
地図ソフトのインスコなどが、3昼夜掛かっていたのが、1時間半で出来る様になったぜ。
sentos5.5+tgtでLVMパーティーションをWindowsでiscsiでマウントさせて見て試してるんだけど、
初めはイニシエーター上でマウントしてWindowsでフォーマットさせて読み書きも問題無く使えるんだけど、
何かの拍子に再マウントするとこの「DISKはフォーマットされてません」となってしまう。
どうやらイニシエーター側でおかしな状態になるっぽい。
だれかやってみた人いませんか?
上の方で出てるiSCSIをソフトウェアRAID1にするのってスプリットブレインやデータ
の差異が起きたらどんな動作をするのだろう・・?
もし問題ないのならDRBDの盆雑さやリソース喰いすぎから開放されるんだが
煩雑、だよな?
ぼんざつw
なぜか変換できないw
あーあれだ
ずっとぼんざつって読んでた・・orz
どんまい
pohmelfs DSTってどうなったの?
まともにこれらって使えなくね?
どこがだよ?
何が悲しくてゲイツOSに命を預けなきゃならんのだ。
Windows Update の度に逃げられちゃ話にならん。
めちゃくちゃうれしいぞ
無料だから俺みたいな乞食が泣いてよろこぶわ
何言ってやがる、ファイルサーバーとして使うなら
Solaris≒Windows>>BSD>>>Linuxだろ
何が悲しいって、Linuxをファルサーバーにせにゃならん金の無さ
LinuxはVFSまともに作り直さない限りWindowsの足下にも及ばんわ
>>585 Solarisはわかる。ZFS最高。
でも、どういう理由で Solaris≒Windows なのか言ってみろ。
いつも思うんだが、
iSCSIイニシエータ(ホスト側)
iSCSIターゲット(ストレージ側)
って、命名ミスったな、と思わん?
ええと、ホスト側というのはストレージをホストしてるわけじゃなくて
ホストアダプタ的な意味で、ターゲットは個々のストレージ使ってる側じゃなくて
ストレージがあってさっきのホストからターゲットにされる側
とかいまだに脳内確認しないといけないことがあって萎える。
旧来のSCSIから使われている名前なので、まぁがんばって慣れるんだな。
ちなみに俺は違和感ないし、命名ミスったとも思わん。SCSI subsystemではinitiatorがbus上のtargetを探すので、英語的にはとても的確だと思うが。
われざとか逝ってよしとか使ってみたかったの?
もうちょっと勉強してから書き込め
xサーバとxクライアントにくらべればまし
>>591 サーバ - クライアントの概念を理解できてないんだね
>>586 >>585ちゃうけどストレージコントローラのドライバと
それ専用のGUIユーティリティは充実してるよね>Windows
Windowsで使えるクラスタリングファイルシステムマダー(・∀・ )っ/凵 ⌒☆チン
WindowsにZFS移植
どうせNAS使うんでしょ
ローカルなファイルシステムなんてなんでもいいじゃん
ZFS使いたいなら、Windowsなんて捨ててSolarisでいいじゃん
iSCSI+DM-MPとGNBD+DM-MPってどっちが速度出るのかな?
誰か試した人居たらこっそり教えてちょ
****+DM-MPの方が速かったよ(こっそり
どっちだよ!
iSCSIというものを最近知ったので、このスレをざっと眺めたんだけど、
>>22がちょっと気になった
ところでiSCSIって1つのターゲットに複数から同時に接続しても問題ないの?
つ クラスタファイルシステム
>>604 ターゲット次第
うっかり両方からマウントかけてFS崩壊させたり楽しいことができるぞ
>>604 iSCSIとしては、何ら問題ない。
ファイルシステムやロジカルボリュームマネージャーは
クラスター対応してるの使わないと駄目だけどね。それはiSCSIの問題じゃないし。
btrfsをクラスター対応させるって言ってた記憶があるけど、実装される気配すらないな
クラスタFSってのは必須なのかな。
同じファイルに同時アクセスしないって保証されれば
ext3でもいいってことにはならない?
問題ない
世の中のActive/StandbyなHAクラスタはそうしてるのもいる
>>610 メインメモリ上のcache/bufferとHDDの内容が食い違っても大丈夫だと思う?
>>610 複数台から同時にアクセスしないって保証があれば大丈夫
分散ロックマネージャだっけ?
あれNノードで共有するならN*(N-1)/2のリンクがいるんだっけ?
なんかややこしいからNFSやCIFSでよくない?
クラスタFS以外のFSを複数台でマウントしたらクラッシュするだろ
iSCSIはそうならないための制御をしてくれてるんじゃないの?
できないならNFSのほうがマシじゃん。
>>617 お前、ファイルシステムのお勉強して出直せ
>>617 NFSの後ろ二文字は何の略だと思ってるんだ?
お前が書いてるのは「HDDよりWindowsの方がマシ」みたいなもんで
本来比較対象になるものではない。
違うレイヤーの技術だ。
NFSは複数からの接続もokだろ?
NFSの先がext3でもいいんじゃなかったのか?
iSCSIはそれがだめなんだろ??
いやだから、NFSの場合はネットワークを飛び交うデータは(ものすごく大雑把に言うと)
「このファイルを開け、シーク、読め。ディレクトリエントリに新規ファイル追加しろ」
といったファイルシステムの操作であって、iSCSIの場合は
「ブロック(セクタ)○番のデータを読め、書け」
というブロック操作そのもの。全くレイヤが違って、どっちの機能が欲しいかによるということ。
通常、サーバーのファイルシステムをクライアントから共有したいのであれば、基本的には前者が向いている。
NFSで十分なことを、わざわざiSCSI + クラスタファイルシステムにするのは無駄。
じゃ、なぜiSCSIのようなものが必要とされているかは、答えが一つじゃないので自分で調べてくれ。
もうアホはほっとけよ
>617
まぁ言葉の説明で分からなければ
実際にiSCSI targetにlogonしてみると良いよ。
未formatのUSB-HDDつないだような感覚なんだ。
だな
判らないなら試して理解した方が早い
iSCSI の Target にした HDD を local でもそのまま扱えるかどうか興味があります。
Target の HDD を iSCSI の target としてではなく、local で WinXP ドライブ割り当て
したり、Linux vfs mount などできるように iSCSI は設定できますか?
・ Storage PC に Linux で iSCSI で target を準備。target専用のHDD を割り当て
・ work PC (WinXP) 側から iSCSI initiator で接続、NTFS もしくは FAT32 でformat して、
local HDD の内容を target に転送した後切断
・ iSCSI の target にした HDD を iSCSI 経由でなく直接扱う。
HDD を USB MassStorage Class で扱ったり、SATA AHCI HotSwap でできることを
物理的にではなく電気的に行いたいです。SMB でも実現できるけど転送レートが遅いので
>>625 それができないターゲットソフトウェアなんてまずない。
少なくともSTGTとSCSTではできた。
実際にマウントするにはkpartx使ったり、/dev/sdX自体をターゲットにしたり。
ちなみにFSをフォーマットする前にfdiskが必要。
すばらしい。iSCSI いじってみる気になれました。
Atom D525MW ですが、お勧めの distribution と
target の組み合わせはありますか。
最近は、仕事の関連で Fedora base で管理したり作業することが多いですが、
LAN でサーバを構築・運用したりはしてきたり、昔は、slack, deb, redhat で
いろいろハードはいじっていたので fdisk だとかはわかります。
パフォーマンスがよくて安定している target ソフトウェアと、それがメインに
供給されているdistribution があったら教えていただけるとうれしいです。
くれくれ、ですみません。
RHEL6
Gentoo Linux
OpenIndianaでCOMSTAR
COMSTARといえばNECか
懐かしいな
T.O.E.! T.O.E.!
iscsi+dm-multipathでスループット向上は期待できない?
GbEx2でtargetはCOMSTARやらFreeNASやら試してみたけど115MB/s(GbEx1でも同じ)の壁を超えられん。
multipath.confをいじりまわして現在こんな風になっている。
mpathd (33000000022af3af8) dm-3 FreeBSD,iSCSI DISK
size=10G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=2 status=active
|- 11:0:0:0 sdc 8:32 active ready running
`- 12:0:0:0 sdd 8:48 active ready running
マルチパスにしてもその先にぶら下がるディスクは一個なわけで
そっちが律速になるんでないかい
636 :
634:2011/08/14(日) 00:34:42.06 ID:/6lDpvsC
target側はSSD(C300)にしてあるのでシーケンシャルリードなら250MB/sくらいは出てます。
LUNの実体はZFS上のファイルなので16Gあるメモリキャッシュに乗ってしまえばもっと出るはず。
メモリキャッシュに乗ってないのでは?
638 :
634:2011/08/14(日) 02:35:02.68 ID:/6lDpvsC
わざと100BASEに落としてみると上限が11.8MB/sに張り付いた。
netperfでドンぐらい出てる?
マルチパスにしてもスループットが向上しないのが論点なんだからnetperfで単体パスのスループット測っても意味ないんじゃないの
openfiler 2.99
Celeron E3300
8GB memory
LSI Logic 8408E+1TB 7200rpm×8 RAID5
intel 1000PT dual port GbE
openfiler上でbond0を作り、mode=6
readだけなら170MB/sくらい出ているよ
writeは100MB/sくらいが上限だけども
らうんど★ろびん
bondingも頭の片隅にはあったけど、何となく悔しいのでもうちょっと試行錯誤してみる
イニシエータA(PC1台目)でCeonOS5.4をインストールして
その起動イメージをターゲット上でコピーして
イニシエータB(PC2台目)で起動する...って事は
可能なのでしょうか?
起動イメージをターゲット上でコピーした後に
initrdを展開してイニシエータの情報だったりを
変更しないと駄目でしょうか?
>>645 イニシエータAとイニシエータBのハードウェアが同じならいけるのでは?
ハードウエアの違いはKudzuが頑張ってくれるので大体の場合は普通に起動できる
手作業は起動してからhostnameとネットワークの再設定くらいかな
648 :
645:2011/08/29(月) 11:30:28.67 ID:0iHZTzp/
イニシエータAでOSインストール時に設定した
イニシエータ名が/etc/iscsi/initiatorname.iscsi
に記載されて...その起動イメージ(iSCSI LU)コピー後
イニシエータBで起動するとBoot中に
イニシエータ名が違うと言われてしまって...。
ターゲットがutf16(windows)で
イニシエータがutf8(linux)だと
ファイル名ちゃんと出る?
iSCSIはファイルシステムより下の層なのだが
ターゲットを丸ごとバックアップしたい場合、どういう方法があるかな?
dd
653 :
login:Penguin:2011/11/03(木) 19:01:17.03 ID:fJaPra6f
iSCSIってターゲット側のメモリが多ければ多いだけI/Oが高速化するの?
キャッシュに使えるだろ
iSCSIがあってiUSBがないのは
なぜなんだぜ?
つ usbip
USB IPの話題で、そういえば昔はプリンタやスキャナとかをSCSIにつなげていたなぁ、
iSCSI対応スキャナとかあったら…とか思ったけど、今はスキャナが直接
TCP/IP吐き出すから無意味か。
658 :
login:Penguin:2011/12/21(水) 01:03:51.78 ID:ESfRvjD5
ISCSIで公開する領域はfileioにしたほうが、バックアップやサーバ移動など保守しやすいと思うのですが、
どうなのでしょうか。
hddデバイスを丸ごと公開するよりも、動作が鈍くなるなど問題が生じたりするでしょうか。
一つ思うのは、ファイルの大きさに制限があるのではないかということです。
2Tほどの領域を公開するなんてことはfileioでは無理でしょうか。
ファイルとブロックデバイスという視点じゃなくファイルシステムの入ったオブジェクトとしてみれば保守しやすさなんてどちらも変わんね
>>659 バックアップは、ファイルの方が取り扱いやすいかなって思ったんです
ブロックデバイスは、バックアップやリストアがややこしくないですか
全体コピるならcp使うかdd使うかの違いだし、daemon止めてローカルでマウントすれば中身丸見えだし、
どっちも一緒だべ。
>ローカルでマウントすれば
/dev/ディレクトリ以下のデバイスファイルでなくてもいいわけか
ddで吸い上げて、それをどっかのディレクトリ(/somewhere/ディレクトリ)にマウントして、アイスかっじたらいいわけか。
663 :
login:Penguin:2012/01/23(月) 12:20:52.98 ID:aBtiN+EL
せめて
××は試しましたが
△△という点で不満です
くらいのことは書いてみようよ
ふりーにゃすえいと
タダ&情報量の多いものから取り敢えず試してみりゃいいと思うけどね
失敗しても別に爆発する訳でもなし
何もやらなきゃ何が分からないのかすら永遠に分からんまま
レポよろ
そのうち・・
僕の肛門も爆発しそうです
だめだー単一点の存在しないクラスタFS探してたけどなかなかこれ!ってのがない。
GFS2 RHCSでやるもfence失敗したらハング、複数のiscsiのミラーはCLVMでは不可。速度は出る
Glusterfs 単一点無し、構成も自由度高いけどノード増えると遅すぎ
Web公開領域とセッションとかの保存用に少し欲しいだけなら普通にNFSの方がいい気がしてきた。lsycdとか、、
LustreやGPFSじゃダメなの?
チューにグまにゅあル教えてくだしあ
ほしゅ
677 :
login:Penguin:2012/07/19(木) 19:01:27.28 ID:djeiiKZQ
>>677 それってEthernet over SCSIであって、
SCSI over IP(Ethernet) ではないのでは・・
>>678 NET2280 PCI over USB
usbip USB over IP
RFC894 IP over Ethernet
SSC-502 Ethernet over SCSI
iSCSI SCSI over IP
現実性や冗長性はともかく、既成技術の組み合わせで構成しているところがミソやね。
>>673 fence失敗したらハングって・・fenceってわざとハングさせる為の物じゃん
スプリットブレインシンドローム起こさせない為に
保守
esxi 5.1のソフトウェアイニシエータとUbuntu上のietを試してる。
iscsiログインはできて、パーティション作成まではできるんだけど、vmfsフォーマットしようとするとコネクションタイムアウトになってしまう。。。
683 :
login:Penguin:2013/01/07(月) 13:58:42.55 ID:E9KbilrE
debianのコアのみにiscsitargetをインストールして
vmwareのデータストアとして使ってるんだけど
どうもパフォーマンスが良くない。
NICはe1000eなんだけど何かいい情報ないですかね。
どのくらいの性能を期待してどうガッカリだったのかを書いたほうが良いのでは
ちょっと説明が難しいんですけど具体的には
esxiゲストのCentOSがyum updateすると
ストア側の負荷がtopコマンドで4〜5くらいまで上昇して
他のゲストOSの反応が悪くなる感じです。
少し前にはiscsiでabortとか出てゲストがすべて止まったこともありました。
ストア側はxeon e3110でメモリ2GBです。
ietd.confはtype=blockioとしているくらいで、他はデフォルトのままです。
つーか、ソフトウェア、NIC、CPU、メモリの情報なんかより、
ストレージの情報がいちばん重要だと思うんだけど。
esxiに直接SSDつけた方がいいんじゃない?
>>685 とりあえずiotopとvmstatを1日中眺める作業から始めてみようか
ありがとう。やってみる
vmstat 短時間だけど抜粋 5秒間隔
ほとんど負荷なしの状態でcentosのデスクトップにログインした
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
r b swpd free buff cache si so bi bo in cs us sy id wa
0 0 0 1849948 92720 88632 0 0 0 345 269 533 0 0 100 0
0 0 0 1849948 92724 88632 0 0 10 98 108 282 0 0 100 0
0 0 0 1835608 92728 88632 0 0 3278 250 1070 1968 3 2 95 0
0 0 0 1849788 92740 88632 0 0 3655 501 1289 2541 0 2 98 0
0 0 0 1849872 92744 88632 0 0 2210 284 783 1521 0 1 99 0
0 0 0 1849892 92744 88632 0 0 1976 336 839 1664 0 2 98 0
0 0 0 1849636 92744 88632 0 0 3706 788 1658 3339 0 3 97 0
0 0 0 1849772 92744 88632 0 0 3278 953 1679 3744 0 3 97 0
1 0 0 1849824 92748 88632 0 0 1565 583 895 1824 0 1 99 0
0 0 0 1849872 92748 88632 0 0 1475 232 401 678 0 1 99 0
0 0 0 1849984 92748 88632 0 0 70 90 108 229 1 0 99 0
0 0 0 1850064 92748 88632 0 0 318 315 213 439 0 0 100 0
0 0 0 1850056 92748 88632 0 0 133 81 108 187 0 0 100 0
0 0 0 1850320 92748 88632 0 0 606 436 470 1119 0 1 99 0
0 0 0 1850196 92748 88632 0 0 1270 308 600 1200 0 1 99 0
0 0 0 1850128 92748 88632 0 0 1471 193 702 1712 0 1 99 1
0 0 0 1849824 92748 88632 0 0 300 350 328 790 0 0 99 0
0 0 0 1849824 92748 88632 0 0 2 124 108 244 0 0 100 0
0 0 0 1849948 92748 88632 0 0 2 101 72 150 0 0 100 0
0 0 0 1850016 92748 88632 0 0 0 704 514 1424 0 1 99 0
そのときのiotopは
Total DISK READ: 0.86 M/s | Total DISK WRITE: 154.95 K/s
PID USER DISK READ DISK WRITE SWAPIN IO> COMMAND
1048 root 0 B/s 130.19 K/s 0.00 % 0.68 % [kjournald]
2457 root 113.42 K/s 0 B/s 0.00 % 0.00 % [istiod1]
2458 root 83.07 K/s 0 B/s 0.00 % 0.00 % [istiod1]
2459 root 85.46 K/s 0 B/s 0.00 % 0.00 % [istiod1]
2460 root 69.49 K/s 0 B/s 0.00 % 0.00 % [istiod1]
2461 root 104.63 K/s 0 B/s 0.00 % 0.00 % [istiod1]
2462 root 76.68 K/s 0 B/s 0.00 % 0.00 % [istiod1]
2463 root 150.16 K/s 0 B/s 0.00 % 0.00 % [istiod1]
2464 root 195.89 K/s 0 B/s 0.00 % 0.00 % [istiod1]
loadaverageは最高1.2くらいで他ゲストにはとくに影響なし
でもistiod1のDISK WRITEがすべて0B/sってどういうことだろ?
DVDやBD等の光学ドライブをiSCSIターゲットにしたいのだが、ietだとできないっぽい
最近はSCSTとかLIOとかあるみたいだがいまいち情報が少ないな
保守
iSCSIを使ってみたくて調べていたらIomega StorCenter ix2という製品が安いんだけど
このくらいのスペック(Marvell6282 1.6GHz メモリ256MB)だとどの位の速度出るもん?
上の方でCPUとかメモリとかがいるって書いてあったしこの程度のハードだとどの程度
性能が出るのか気になる。
まぁ、メインで使いたいのがMacBookAirとかSSDで容量が少ないマシンで今使っている
データ溜め込んでるUSB HDDつなぐの面倒くさくなったからなんだけど、無線LANで
運用の時点で性能云々という話ではなくなるのかもしれないけどね・・・。
ん?無線LAN経由でiSCSIしたいってこと?
当面の目的はそんな感じ。
メインは編集用の写真データを貯めこんでる外付けUSBなHDDを無線化出来たら
良いなーって感じかな。据え置き機(有線GbE)とMBA(無線LAN)と両方からマウント
出来る環境になるとちょっと編集をしたい時と腰を据えて編集する時どっちも同じ
ディスクを参照出来るし、付け替えとかの手間が無くて面倒くさくなくて良いかなと。
マウント自体は共用せず排他で使う感じなので特殊なFSはいらないと思う。
iomega って Jazz とか clik! とか作ってたとこだよね。
今こんなの作ってたんか。
とっくに潰れたと思ってたw
mini-ITXのPCにFreeNASでも入れた方が融通が利くし安上がりなんじゃ。
ベルヌーイやzipでなくその2つを思い出すってどうなの
時期が後ろよりなだけじゃない?
Jazは売る側だったから辛酸をなめさせられたな
zipは単語自体は生き残ってるしな
節子それ違うzipや
全然LinuxかすらないけどiSCSIという物に触ってみたくてVMWareにNetBSD入れて
Windows8からつないでみた・・・けどCrystalmark完走する前に何やら止まってしまい
Windowsの管理ツールからも切断出来ずみたいな状態になってしまった。こんなもん?
お前の環境なんか知らんがな
ちゃんと設定して使えばそんなもんではない
多くの企業でそんなもんが使われてるとでも思うのか
705 :
702:2013/04/09(火) 23:33:58.38 ID:HwE5pPgB
>>704 いや、別にiSCSIそのものをどうこう言っているつもりもないし、多くの企業が
こんな構成を使っているわけでもないだろ?
ただ、ちゃんと設定と言ってもNetBSDはデフォルト設定のままデーモンを
起動しただけ(ローカルHDDを100MB分)、Win8のイニシエータはIP指定で
つないでFAT32でフォーマット。認証もなし、ネットワークもPC内のローカル。
限りなくシンプルな構成な気がするんだけどどこがまずそう?
可能性としては容量少なすぎてCrystalMark的に問題があったとか
(一応50MBの選んだけど)、Win8のイニシエータの実装がネットワーク的に
瞬断とか起きた際にリカバリうまく出来ないとか、VMWareのネットワーク
部分と何か相性が悪いとか、そもそもNetBSDの実装がイマイチだったり
とか色々想像してるんだけどよくわからないや。
そんな組み合わせにゃ興味ねーし
気になるなら面倒がって妄想してねーで
もっといろんな組み合わせでテストしてみればー?
はじめて試すなら、まずM$のコードから離れたほうがいいな。
彼らは平気でオレオレ仕様で実装してくるから。
ADが土台として使ってるKerberosがいい例。
Win8のイニシエータを試すなら、ターゲットもM$じゃないと地雷踏む可能性大。
逆にいわゆる世間一般のiSCSIを体験したいなら、まずM$は忘れろ。
708 :
702:2013/04/10(水) 00:21:50.67 ID:4O1mKJ2T
>>707 アザッス。おっしゃるとおりどんなもんか触ってみたかったのが発端。
試した環境は職場のPCなんで明日まで試せないんだけどイニシエータの
管理アプリが固まった後はシャットダウンも出来なくなりなんとなく昔の
イマイチ実装だったWebDAVを彷彿させるなと思っていたところなんで
確かにそっち側に地雷がある可能性は否めないですね。
とりあえず来週WindowsServer組む予定なのでWindows環境はそちらで
試してみます。
709 :
702:2013/04/10(水) 20:38:34.37 ID:6WgVreAz
Crystal Disk MarkのQD32ってテスト項目ってSATA特有の機能を使っている
と言う認識なんだけどiSCSIなボリュームに対して使えるものなの?ってググると
iSCSI上でテストした結果が出てくるので動くものは動くんだろうけど。
なんとなく気になってiSCSIの実装が違うDebianな環境をVMwareに作って同様の
ベンチマークをしてみたら同じところで止まった。ムムムム。
710 :
702:2013/04/17(水) 23:19:28.06 ID:m0MzdCnM
ムムム。一応特定は出来た。
実装の問題かとVMware上にdebian, netbsd, freenas, solarisと入れて試してダメ
イラッときて一台マシンを用意してfreenas入れて試してもダメ
Initiatorの問題かとStarWindの物を入れてもダメ
ソース読んで、デバッグしてみて止まっている場所も特定したけど腑に落ちず
ふと別のマシンから試したらOK。色々調べてみたらノートン先生が犯人でしたorz
コード的には非同期のファイル書き込みを投げた後、I/Oの終了待ちのSleepExで
ずっとループしててそこが原因だった。この状態でそのファイルのハンドルいじると
ロックしてシャットダウンすら出来なくなる。どこら辺(ディスクI/Oなのかネットワーク
なのか)が遮断されるとかまでは特定出来ていないけど困った話デスな
まぁ、でもsambaなNASをネットワークドライブの場合はノートン先生を
生かしていても完走するのでヤヤコシイ話ではある・・・orz
/etc/cron.d/mdadm の過負荷にやられた。なんだこの爆弾