コマンドのとこちょっと訳してみた。 プールとファイルシステムを作成 ・「tank」という名前のミラー設定のプールを作成 # zpool create tank mirror c0t0d0 c1t0d0 ・/export/home へマウントするホームディレクトリーファイルシステムを作成 # zfs create tank/home # zfs set mountpoint=/export/home tank/home ・数名のユーザーのホームディレクトリーを作成 注: 継承機能のため自動的に /export/home/{ahrens,bonwick,billm} にマウントされる # zfs create tank/home/ahrens # zfs create tank/home/bonwick # zfs create tank/home/billm ・プールに容量追加 # zpool add tank mirror c2t0d0 c3t0d0
属性の設定 ・全ホームディレクトリーを自動的に NFS エクスポート # zfs set sharenfs=rw tank/home ・プール内の全てを圧縮設定 # zfs set compression=on tank ・Eric のクォータを 10g に制限 # zfs set quota=10g tank/home/eschrock ・Tabriz に 20g の予約を保証 # zfs set reservation=20g tank/home/tabriz ZFS スナップショット ・Mark のホームディレクトリーのスナップショットを取る # zfs snapshot tank/home/marks@tuesday ・以前のスナップショットにロールバックする # zfs rollback tank/home/perrin@monday ・水曜日の版の foo.c をちょっと見る $ cat ~maybee/.zfs/snapshot/wednsday/foo.c
ZFS バックアップ/リストア ・フルバックアップ実施 # zfs backup tank/fs@A > /backup/A ・差分バックアップ # zfs backup -i tank/fs@A tank/fs@B > /backup/B-A ・遠隔複製: 1 分間分の差分を送出 # zfs backup -i tank/fs@11:31 tank/fs@11:32 | ssh host zfs restore -d /tank/fs ZFS データ移行 ・旧サーバーのプールをエクスポート old# zpool export tank ・新サーバーへ物理的にディスクを移動し、プールをインポート new# zpool import tank
能書きみてるとすごそうだが、パフォーマンスちゃんと出るんかこれ。
FreeBSDとかLinuxとかにも移植されて、標準のファイルシステムになったらうれしいな。
9 :
名無しさん@お腹いっぱい。 :2006/05/03(水) 16:00:22
xfsみたいに異様にフォーマットに時間かかりそう…
ZFS + zsh + カワサキ Z1 + ゼットン。これ最強。ロート Zi: は未使用にて不明。
>>9 >>4 の通り、フォーマットという手順はないんじゃなかった?
遅そうだけど、どうだろね。書き込みに対して毎回チェックサム計算するみたいだし。 遅ければ適材適所で。 速度、安定性ともども文句なければ迷わず載り換えだろうな。
>>7 ,12
>>2 の記事引用。
> おおむね UFS より速いっぽいし、特定のデータアクセスパターンでは
> 4〜6倍速いらしいです。逆に特定のデータアクセスパターンではUFSに比べて
> 数倍遅いですが、改善する余地があるとのこと。
あと、
>>2 の記事の
> I/Oパイプラインによる並列処理
あたり読むと、特に SMP では速そうな感じ。今後の多コアなサーバー用途には
向いてそう。
>>13 いやつまりそれって「速い場合もあるし遅い場合もある」としか言ってないので
結局わかんねーじゃん。
『おおむね UFS より速いっぽい』w
UFSでさえモノにできてないMacが、ZFSを使いこなせるとは思えないけどな… っつーか自分とこで開発しないで、目新しいそうな技術に注目して 「さすがはApple、目のつけ所がいいぜ」とか思わせようとする 乞食宣伝テクには、いつものことながら飽きれてしまう
つか、UFSより現状のHFS+の方が高性能だと思いますが…
>>16 私気がついただけで 2 ヵ所破綻してますが。
UFS 使いこなせてないなら、ZFS ポンと持ってきた方が楽やん。
よそから持ってくるより、自分とこで開発した方が「さすが Apple」に決まってるやん。
てことで、あんさんアホだっか? なんくせつけんなやボケ。
>>16 UFSよりZFSの方がリソースフォークの扱いとかでMacで使うのに楽だと聞いたよ。
いつのまにかベースがMach+FreeBSDじゃなくてOpenSolarisになってたら笑う。
>>20 でも将来的にそういうのも考えてmicrokernelにしてんじゃないの?
solarisは無いと思うけど、freebsdやめるってのはありえない話ではないと思う。
単純にBSDライセンスにあやかりたいからだろ?乞食なんだよ
ZFSってオープンソースなの?BSDと同じライセンスで使えるのかな。
>>14 線形データアクセスの予測先読みをする機構があるから
通常のアクセスパターンだと速くなるみたいだよ。
>>27 そういうのってzfs以外のファイルシステムでも実装できるんじゃないの?
29 :
名無しさん@お腹いっぱい。 :2006/05/03(水) 23:18:45
>>25 CDDLということは、Linuxにも移植できそうね。
ライセンス問題で採用しないディストリビューションもあるかもだけど。
ただLinuxにはZFSの機能の大半がすでにあるから、
Mac OS Xに移植するほどのメリットはなさそう。
実際にZFS使ってる人ってこの板にいるかな?
Solarisスレで声掛けたら捕まるかな?
>>28 そりゃ実装できるかどうかで言えばFAT16にだってできるだろうけど
そんな指摘には意味なくない? ZFSではそういうある程度
インテリジェントな機構を最初からFSレベルに統合してるのが
キモなわけでしょ。ジャーナリングにしてもRAIDにしてもそうなわけで。
>>29 あるにはあるけどな。
ファイルシステムの方は機能的には充実しているけど、実績がいまいちだし、
LVMやmdに至っては、どっちも本家筋に当たるHP-UXやSolarisの劣化コピーだしな。
そういう意味では、ZFSみたく一貫したものが欲しいところだな。
reiser4も問題があるというのはあっちのファイルシステムスレで出てる
34 :
名無しさん@お腹いっぱい。 :2006/05/04(木) 02:34:19
ZFSが一つ心配なことが。 大きいファイルで一部だけを書き換える場合、 ZFSは別のブロックに一部データを書き込んでから、 ファイルシステムのツリーを変更するみたいだけど、 そんなことしてたら大きいファイルの場合、 ブロックがあちこちに点在(断片化)するんじゃないだろうか。 HFS+みたいに断片化してたら、 自動的に連続ブロックに移動させる機能でもあるのかな。
>>34 ワラ
君は…ちょっと知識が足りないかも…
プールってLVMとどこか違うの? LVM+JFS2の方がよくね?
質問です。 >トランザクション的操作 >ディスク上のデータは必ず常に整合状態。fsck(1M)不要は当たり前、でjournaling filesystemではない これって矛盾しているような気がするんですけれど・・・ トランザクション的操作=journaling なんじゃないんですか?
39 :
名無しさん@お腹いっぱい。 :2006/05/04(木) 03:51:33
>>35 うーん、そうなのかなー。
詳しく教えてくださ〜い。
40 :
名無しさん@お腹いっぱい。 :2006/05/04(木) 03:58:40
トランザクション的操作というのは、 下の引用の一番頭のポインタを書き換えるまでは、 ファイルツリーに一切変更がないから、 いつでも元に戻せる(ロールバック)できるような様を表してるんじゃないかと。 他のFSのジャーナリングは、変更ログをどんどん書き足していって、 フラッシュ時にツリーに変更ログを書き込むことで、 フラッシュ前にOSが落ちたりしても復旧できる仕組みなんじゃなかったっけ? > 整合性の保持には「何か書き込みを行う場合は必ず元データを新しい場所にコピーしてから」 > (copy-on-write)で、1つ版のあがったファイルシステムのイメージを作成し、 > 古い版を指している一番頭のポインタを新しい版を指すように変更する > (ここがアトミック)という方法を行っているようです
>>38 「的」ってのがアヤシイけど、
「トランザクション処理」ってのは、
複数の処理を一つのように処理すること。trans-action=処理をまたがって
FOLDOCだと See {atomic}と注釈。
Journalingはそれを実現するための技法。
更新記録を取りながら、更新を進めていく。
まあ、もうすぐ製品版の Solaris にものるから、使われるようになったらすぐわかるよ。 だけどさ、特定のデバイスドライバとかと違って汎用のファイルシステムで、 しかも UFS に代えてこれから主流として使おうってもんなんだから、 一応 Fire E25K とかのハイエンドで業務利用するのも視野に入ったレベルで 実装がすすめられてるわけで、とりあえず入れてみました、この先実用まで たどりつけるかどうかわかりません、てないい加減なもんでは少なくともないわな。 Linux のガラクタファイルシステム群といっしょくたにすんなよな。
NetBackupなどのバックアップソフトも対応するまでにかなり時間がかかるだろうし。 本格的に普及するのは、あとバージョン二つぐらい上がらんとだめだろうな。 それまでSunが残ってるかどうか心配だがw
UFS使わなくなるとufsdumpの名前なりポジションが気になるな。 もちろんzfs snapshotなりなんなりでいいんだけど
ufsdump は UFS 用なんだから、UFS 使わなくなったらポジションはないだろ。 UFS なくなったりはしないと思うが。
ufsdump どころか、mount も vfstab も不要なんだろ?
VxFSに対するダンプコマンドもufsdumpだよ。
ん? ZFS も ufsdump コマンドでバックアップしたい、という話? それは知らんが... そんな愛着あるわけ?w
>>47 カプセル化した場合でしょ。
VxFSネイティブはHP-UXならvxdumpがある
Solaris用にそれがにあるか知らんけど
LFSでは対抗できませんかそうですか。
FFS, FFFS, LFS と来て ZFS ならあなたのファイルシステム人生はカンペキです。 ZFS 移行後は LFS は Sprite で使ってあげてください。
もう半年くらい使ってるけど リストアらくちんでイイね。 ファイルシステムもリストア掛けたらつくってくれるし。 俺のデスクトップ程度で使ってる程度じゃトラブルないし。
54 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 00:49:35
>>52 使ってる人キタ━━━━━(゜∀゜)━━━━━!!!!
よかったらベンチマークとかしてみてくれませんか?
ディレクトリやファイルを10000個とか作ったり、
100KB程度のファイル1000個に書き込んだり、読み込んだり、
1GB程度のファイルを書き込んだり、読み込んだり。
誰かベンチマーク用のいいソフト知りませんかー?
もしくはベンチマーク用のスクリプト書いて〜。
>>53 >UNIX File Systemsの代替として最適だとしている。
・・・・ん、あ、ufsかwww
57 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 05:13:57
LeopardではZFS 128bit FileSystem採用が最大の話題だね ZFSは最初からデータの書き込み中にOS落ちたりすることを前提に作ってるから、 ジャーナリングとかの中途半端な仕組みは要らない。 いつHDのケーブルを引っこ抜こうとも、ファイルシステムは正常な状態ってこと つまりfsckみたいなエラーリカバリのphaseを作らなくても 次の稼働中に前回落ちたときのトランザクション分はロールバックされるわけだ ロールバック対象前はファイルがファイルシステムによってロックされている DB分かる人なら、トランザクションの考え方と同じだよ クライアントで使うメリットを考えると、 これからのSATA/eSATAとかのホットプラグに対応したHDを使うにはうってつけ ボリュームプールでパーティションの容量を好きなように変更できるのもいい LinuxのLVMみたいな機構をファイルシステムレベルで実装したってことだね ファイルシステムレベルでRAID機能持ってるのもいい チェックサムでデータが壊れないってのもいい 暗号化でノートPC盗まれても安心だ スナップショットはクライアント環境ではいらないと思う 主にDBサーバのバックアップとかに使う技術だから
>>57 > ジャーナリングとかの中途半端な仕組みは要らない。
&
> DB分かる人なら、トランザクションの考え方と同じだよ
…
60 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 07:11:57
>>LeopardではZFS 128bit FileSystem採用が最大の話題だね Leopardで採用するなんて誰か言ったか…?
% time mkfile 10g tmp 0.03u 25.07s 7:09.92 5.8% まぁそもそもうちはDISKがはやく無いからなぁ・・・ [ID 640982 kern.info] IDE device at targ 1, lun 0 lastlun 0x0 [ID 846691 kern.info] model ST380011A [ID 479077 kern.info] ATA/ATAPI-6 supported, majver 0x7e minver 0x1b [ID 228648 kern.info] ata_set_feature: (0x66,0x0) failed
>>58 なんで、ZFS(16EiB)がUFS2(1YiB)に、
ボリュームサイズが負けてるのかと思ったら、
ZFS can store 16 Exabytes in each storage pool, file system, file, or file attribute.
これなのね。
もうLinux駄目駄目だな
LinuxよりMacOS Xの方がTCO安いからね
MacOS Xはハードが縛られるから、それさえなければいいと思う。 俺は、Solarisでいいや。
69 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 12:14:53
>>57 私の発言を集めて編集してあちこちに貼り付けるとは…。
ちょっと複雑な気分。
> DB分かる人なら、トランザクションの考え方と同じだよ
ここは誤解を招きやすいから元スレでもツッコミが入った。
> スナップショットはクライアント環境ではいらないと思う
ここは元スレで、クライアント環境でもウイルスとかに感染した場合に有効だって話が出た。
>>57 > LeopardではZFS 128bit FileSystem採用が最大の話題だね
Mac OS X 10.5(Leopard) には間に合わないと思う。
10.5って今年末〜来年頭ぐらいのリリース予定だったはず。
そもそもUFSじゃまともに動くかんアプリ多いし。 Microsoft Office for Macもその一つ。
>>71 --------------------
そもそもUFSじゃまともに動くかんアプリ多いし。
--------------------
その理由の大半わ、「"case sensitive"じゃないことを前提にしている」ってだけでFSの仕様と関係無いす。
>>72 違うよ。
コテで無知晒すのって恥ずかしくない?
あちこちで恥さらしまくってるからいまさらって感じでしょ。> MACオタ ここ数日だけでも、Intel次世代スレとかAMD次世代スレとか CPUアーキスレとかで、あからさまな間違いを指摘されまくってるし。
そっか。 MacもSolarisと同じくエンディアンの問題があるんだな。 MacのHFS+やUFSがCPUのエンディアンによってフォーマットが変わるのかどうか知らんが。
>>73 さん
そうすか?多くのクロスプラットフォームアプリわ、もはやリソースフォークを持たないし特に問題が
おきる理由も無い筈すけど。。。
>>74 さん
あちこちで印象操作ご苦労様す。決して具体例わ指摘できないようすけど(笑)
>>75 さん
UFSわエンディアンでフォーマットに互換性が無くなるとのことす。
http://docs.sun.com/app/docs/doc/819-0386/6n2qla469?a=view -------------------------
PARC と x86 とでは UFS フォーマットが異なります。SPARC はリトルエンディアンによるビット
コーディング、x86 はビッグエンディアンによるビットコーディングを採用しています。UFS 用に
フォーマットされたメディアは、それらがフォーマットされたハードウェアプラットフォームに制限されます。
-------------------------
77 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 15:39:14
変なのが湧いてきたな…
SolarisのUFSに互換性が無いのはしっとるがな。 MacのUFSの話だがな。
4.2BSD のもともとの ufs のコードは、エンディアン依存性のあるもの だったが、そこから派生した各ベンダの実装が、エンディアン依存か 独立かは、それとは別の話だな。 NetBSDは options FFS_EI をつければ、どちらのエンディアンで書いた ffs も読み書きできるし、MacOS X は、NetBSD から派生したコードも 含んでいるから、big endian で書かれたファイルシステムを、 little endianの Core Duo マシンで読み書きできても不思議はない。 MacOS X の話をしてるのに Sun のドキュメントを引用するのは的はずれ。 実際にどうなのかは知らんが。
81 :
73 :2006/05/05(金) 16:07:20
DarwinのufsのばいとおーだーはFreeBSDと同じ。
xnu/bsd/ufs/ufs/ufs_byte_order.cが変換。
mount時のoptionで指定可能。MNT_REVEND。
続きはmac板のUNIXスレで。
>>76 の馬鹿も知りたければ来な。
>>79 面倒なのでまとめると
・英文Webページの内容を誤読。 <- 私の書き込みに英文記事への引用わ無いす
・後藤氏の記事を誤読 <- 誤読かどうかわ当該スレッドを読んで貰うとして、元記事がそういう性質のモノ
・MPP云々<- 分類についてわTop500.orgサイトの記事を読んでDr. Dongarraに文句を言って欲しいす(笑)
>>81 それってUFSでMS Officeが不具合を発生する原因なんすか(笑)
>>56 そこのベンチマーク、Createの結果はあっても他がないねー。
bonnie++がZFSでのReadとDeleteに対応してないとか?
NFS経由の結果はあるから、それを見る限りファイル操作は
ext3の半分ぐらいのパフォーマンスかな。
ただReadはむしろ早いから、ほとんどの用途では全体的に早くなりそう。
用途として向かないのはメールサーバぐらいかな?
あとZFS使ってる人いたら、暗号化した状態とかで、
ベンチマークしてみてもらえませんか?
http://www.coker.com.au/bonnie++/
Dr. Dongarra が、SR8000 を大規模SMPだなんて書いたことは一度も ない筈だが、何言ってんだ、このバカは?
マカは何処でもうざいな
>>88 それから、
------------------------
Dr. Dongarra が、SR8000 を大規模SMPだなんて書いたことは一度も
ない筈だが、
------------------------
少なくとも、Top500の解説にあるように"Shared Memory MIMD"をMPPに分類するというのわ認めたと
思っておくす。
・MPPマシンはメモリ共有アーキテクチャだと主張。
で、これ間違いなんすか(笑)
GWだなぁ…
スレ違いだからほどほどに>MACオタ HFS+でbonnie++のベンチマークしてみたけど、遅い遅いw RAIDも使ってないし、G5 1.6GHzだし、しょうがないかな。 PowerMac G5 1.6GHz, Memory 1GB, HDD WD3200JD, Mac OS X 10.4.6, HFS+ Version 1.03, Size 300M, files 16 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP 26612 91 56964 33 54835 25 35490 92 477783 86 +++++ +++ ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 3650 66 9645 90 3885 67 423 12 25087 80 191 7
┏┳┳┓ ハイ. ┏┳┳┓ ┏┫┃┃┃池沼と遊ぶのは ┃┃┃┣┓ ┃┃┃┃┣┓ ここまで ┏┫┃┃┃┃ ┃ ┃┃┏━━━┓┃┃ ┃ ┃ 池沼 ┣┫ . ・∀・ ┣┫. STOP!┃ ┗━━━━┛┗┳━┳┛┗━━━━┛ ┏┻┓┃ ┏━┛ ┣┻┓ ┗━━━┫ ┗━┓ . ┗━━━┛
>>92 スマン、もうちょい遊ばして。(w
> 少なくとも、Top500の解説にあるように"Shared Memory MIMD"をMPPに分類するというのわ認めたと思っておくす。
馬鹿だねえ。まだ、それが誤読だと気づいてないのか?
Top500 の解説には、「MIMD マシンの一種として shared memory MIMDがある」
とは書いてあるが、「MPP は shared memory MIMD である」とは一言も書いてない。
MACオタは、そう書いてあると誤読して、Top500 の記述を引用したが、
じつはその引用部分には「MPP は shared memory システムではない」という
意味のことが書いてある。(w
そのことは Intel スレでさんざん陰に指摘されているのに、相変わらず
理解できてないようだな。(w
> ・MPPマシンはメモリ共有アーキテクチャだと主張。
> で、これ間違いなんすか(笑) もちろん間違い。
まだ気づいてなかったのは、はっきり言って、ちょっと驚いたよ。
> SR8000の9-way SMPが「大規模」じゃ無いってのわ、当時の常識から見てちと
> 違うんじゃないすか?
ハァ?
その何年も前に、10倍以上の規模を持つOrigin 2000 があったわ。
1997年ぐらいには、Sun あたりでも、64プロセッサの Enterprise 1000 を
出してる。
書けば書くほど、馬鹿がバレるんだから、いいかげんに黙れば?
>>91 メモリ1GBのマシンで Size 300M ではベンチマークにならんのでは?
最低でもメモリの倍くらい、できれば10倍くらいのサイズにしないと。
陰どころか陽に指摘されても、相変わらず自分の勘違いが認識できないのね。 というわけで、池沼とのお遊びは、これで終りにします。
>>96 の粘着さんわ退場してくれたみたいすけど、そんなに自信があるなら該当個所を対訳でもすれば
良いかと思うす。私がやっても良いすけど、ここでやっちゃ迷惑そうなんで止めておくす。。。
> MACオタの勘違いはそこから発してるのか? だからと言って、カートナーとかいう調査会社があると想像する 理由にはならんだろう。(w
>>94 上のベンチマークのページと引数合わせてみた。
大して結果は変わらないねー。
PowerMac G5 1.6GHz, Memory 1GB, HDD WD3200JD, Mac OS X 10.4.6, HFS+
bonnie++ -r 1024 -s 8g
Version 1.03, Size 8G, files 16
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
26800 92 53541 32 24789 12 27211 73 51446 15 118.0 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
/sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
4132 77 8548 91 3723 67 429 13 26851 87 194 7
Xserve G5 x 2 Fedora 5でも今試してるけど、
なぜか10倍ぐらい時間掛かってる。
結果が出たら報告する。
101 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 18:38:28
102 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 19:31:42
Xserve G5 x 2, Memory 2GB, HDD 不明250GB, Fedora Core 5, ext3 bonnie++ -r 1024 -s 8g Version 1.03, Size 8G, files 16 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP 5051 99 42674 27 22711 9 5508 99 56594 8 135.5 1 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 15274 99 +++++ +++ 23921 99 14764 94 +++++ +++ 23868 99 ZFSの人、報告頼む。
103 :
63 :2006/05/05(金) 19:39:33
Nevada snv_38 X86,64bit,AMD Athlon(tm) 64 Processor 3200+,ST380011A Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP machine 2G 21737 25 25737 7 17059 3 47881 57 49757 3 216.4 0 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 19664 68 +++++ +++ +++++ +++ 28324 97 +++++ +++ +++++ +++ machine,2G,21737,25,25737,7,17059,3,47881,57,49757,3,216.4,0,16,19664,68,+++++,+++,+++++,+++,28324,97,+++++,+++,+++++,+++ こんなんでいいのかな。
104 :
63 :2006/05/05(金) 19:44:20
10Gで再度。 Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP machine 10G 20091 23 25023 6 16578 3 40543 49 45665 3 200.3 0 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 27625 92 +++++ +++ +++++ +++ 15546 57 +++++ +++ 23038 54 machine,10G,20091,23,25023,6,16578,3,40543,49,45665,3,200.3,0,16,27625,92,+++++,+++,+++++,+++,15546,57,+++++,+++,23038,54
> 大して結果は変わらないねー。 sequential output の rewrite (54.8MB/s vs 24.8MB/s) sequential input の block (478MB/s vs 51.4MB/s) random seek (86/sec vs 15/sec) あたりはかなり違いが出てると思うよ。 478MB/s って値は、メモリキャッシュのせいだね。
106 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 20:14:03
やってみますた。 nv_b37, Blade 1000 750MHz, LSI logic SAS1068, T7K250 x3 台 # zpool iostat -v (default の stripe) capacity operations bandwidth pool used avail read write read write ---------- ----- ----- ----- ----- ----- ----- mypool 288K 696G 2 3 336K 441K c2t0d0 220K 232G 0 1 112K 147K c2t1d0 28K 232G 0 1 112K 147K c2t2d0 39.5K 232G 0 1 112K 147K ---------- ----- ----- ----- ----- ----- ----- # ptime mkfile 10g testfile_10g real 1:46.628 user 0.196 sys 41.708 bonnie++: Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP machine 8G 25108 98 63450 61 53474 62 23554 97 135876 86 840.4 8 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 6405 99 +++++ +++ 10016 99 6580 97 +++++ +++ 11205 99 machine,8G,25108,98,63450,61,53474,62,23554,97,135876,86,840.4,8,16,6405,99,+++++,+++,10016,99,6580,97,+++++,+++,11205,99
>>103-104 ありがとー。
Createの速度は十分速いけど、なぜかReadとDeleteの結果がないね〜。
上のベンチマークのページにもないんだよねー。なんでだろ?
あと暗号化ってもう実装されてるのかなー?
Solaris 10 6/06のZFS 1.0で実装されてくるかな?
108 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 23:07:15
以外にスレが伸びてるな と書くとスレが止まる法則
>>108 残念、貼り付けた犯人はLinux&Mac使いでした。
>>109 使ってる人が増えないと、スレも伸びなさそう。
Solarisってシェア大きいのかな?
112 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 23:42:12
>>72 有名人が間違いを広めないでください。
UFSで多くのアプリで互換性に問題が発生するのは、Cabon File Manegerに、使用できない関数が大量にあるためです。
これらのAPIは、UFSの能力不足が原因で未実装になっています。
大文字小文字問題は、修正の容易な軽微な問題です。
>>75 ファイルシステムのエンディアンの問題と言うのは、エンディアンの異なるマシンの間でドライブを繋ぎ変えた時に発生します。
特定アプリの互換性云々では無いので、心配不要です。
MACオタさんは、本職がハード屋さんなんじゃないかと想像。
>>113 つうことは、仮にZFSを導入したとしても、同じことが起きるんちゃうん?
>>113 ---------------------
有名人が間違いを広めないでください。
UFSで多くのアプリで互換性に問題が発生するのは、Cabon File Manegerに、使用できない関数が
大量にあるためです。
---------------------
失礼したす。リソース関係だけかと思っていたすけど、File IDが使えないらしいのわMacintoshのソフトとして
わ大問題すね。
>>98 なにもよんでないけど
アーキテクチャの分類は
いろいろ直交したのがあるから。
SMPかつMPPなのはSUNがやっているようにweb serviceにフォーカスしてる。
ccNUMAのMPPはHPCより。
ここはZFSの中核スレッドだな
>>117 だ・か・らMPPってのわ90年代のHPC業界の流行語に過ぎないす。
そして、top500の編者達わ、"the buzz-word MPP systems is fashonable here"と断じて、
(
http://top500.org/orsc/1996/node3.html 参照)より明確に
・Shared-memory SIMD
・Distributed-memory SIMD
・Shared-memory MIMD
・Distributed-memory MIMD
という分類を広めようとしてるんだと思うす。
てゆうか、
>>98 にある SGI の資料 (2005年10月28日発行) でも
MPP って使ってるじゃん。MACオタって、6時間前のレスも忘れち
まうのか?
それはそれとして、
> そして、top500の編者達わ…という分類を広めようとしてるんだと思うす。
この想像自体は、やっぱりMACオタの脳内妄想ですな。
だって、top500 自体、いまだに
ttp://www.top500.org/sublist/ といったページで、Computer Architecture の項目の分類として
MPP って言葉を使ってるしね。
>>119 がMACオタの妄想じゃないとすると、ここは
当然
・Shared-memory SIMD
・Distributed-memory SIMD
・Shared-memory MIMD
・Distributed-memory MIMD
でないといけない筈だよな。(w
たまにはZFSの話もしようぜ。
125 :
117 :2006/05/06(土) 04:00:14
すまん。ちょっと訂正だけさせて。 > ビジネスで使われてる大規模SMPシステムは全てccNUMAだよ。 IBM pSeries 690 とか Sun Fire 15K とか SGI Altix は ccNUMA だけど、 富士通の PRIMEPOWER はクロスバーを使ってて UMA らしい。 HP Superdome もそうみたい。 というわけで「全て」というのは間違いだった。スマン。
126 :
117 :2006/05/06(土) 04:17:31
と思ったら、HP SuperDome はセル内はクロスバーを通らなくて 速く、結局 ccNUMA だった。というわけで、大規模 SMP の中で 例外はPRIMEPOWER だけかも。
いいかげんスレ違いだから他でやってくれまいかね。
128 :
誘導 :2006/05/06(土) 06:21:12
129 :
名無しさん@お腹いっぱい。 :2006/05/06(土) 09:07:37
自レスに誘導とは…。 どこのスレの誤爆だろう。
ネタだろ? すべったけど。
>>114 Appleの中の人の優先度の高い検討事項でしょうね。
>>131 むしろHFS+同様の豊富なmegadataサポートという仕様に目をつけてZFS採用を検討しているように見えるすけど。。。
聞いた話だと、HFS+って9からXに移行したときにジャーナル機能をつけたってことらしいんだけど ZFSを検討してるって事は、Apple的にはファイルシステムとして自信がないってことなのかな? ext3がext2にジャーナルつけてもヘタレなままなのと同しで、HFS+も弱いんでしょうか? 基本的にAppleがZFSをメインに据えて、HFS+を廃止ない限りZFSにはならないと思う 両立路線で行くと、みんなHFS+しか使わないから、ZFS上でMac OS Xで使う上で問題が出る気がする UFSのときと同じで一過性のもので終わるんじゃないですかね? ZFS使ってXの機能をブラッシュアップする斬新な計画があるならいいけど そうでなければ、話題性に利用して終わると思うな。Appleっていつでもそうだし
>>133 プリインストールとデフォルト導入時のファイルシステムを ZFS にするだけの
ことだと思うけど。UFS はそうしてもらえなかっただけでしょ。
>>132 だよね。どっかの記事にそう書いてあったと思うけど。
MacOS でのセマンティクス実現するのが楽だとかなんとか。
metadata ねw。
137 :
誘導 :2006/05/06(土) 15:19:07
>>138 カーネルを Solaris に置き換えてしまうための地ならしかも知れんぞ。
今、サーバー機どうするか悩んでるはずだし。Mach がんばって改良するより
Solaris ぽんと持ってきた方が早あがりだし安い。
Solarisのカーネル見てみんな自分のやってることが馬鹿らしくなったんだな サーバーOSはもうSolarisしかありえん。その他のデスクトップや組み込みなら いろいろ努力する甲斐もあるだろうけどさ。
142 :
名無しさん@お腹いっぱい。 :2006/05/06(土) 18:35:41
>>140-141 Solarisのkernelってそんなにいいの?
LinuxやFreeBSDのkernelなら雑誌とかで読んで、少しは知ってるけど。
先生、Solarisのkernelについて教えてください。
>>141 もうちょっとウガッた見方すると、PowerPC でソデにされた IBM によっぽど
腹立てて、AIX への当てつけとかww
なぜファイルシステムのスレはどれもこれも知能が低いのだろう
>>144 どっちかというとAppleに逃げられたために、貧乏オープンソースプログラマをこき使って、POWERへ
良質のオープンソースソフトを移植させて大儲け。。。って目論見が潰えてショックを受けてるのわ
IBMかと思うす。
MACオタが香ばしすぎる件
Mandatory Access Controlオタ Solaris使いか
Solaris使いを馬鹿にするのかっ!
151 :
名無しさん@お腹いっぱい。 :2006/05/06(土) 21:28:58
>>143 先生それは私には厳しすぎます。
もっと手取り足取り教えてください。
>> 貧乏オープンソースプログラマ IBM自身やSGI, Intel, HP, Redhat, SuSEなどにいる連中は結構な高級取りだと 思うぞ。OSDLなんてのもあるか。
高給だったな。すまん。
SUNやIBMからみれば自分のサイトで公開したり sourceforgeを間借りしてるなんて片隅の連中ですよ でもやっぱり気持ちは同じだと思ってるワケです いい仕事をサプライ(供給)できる側でありたい ただ ただそれだけですヨ――― ギセイはあってあたり前 それをギセイと思わない心なんですヨ 世界中ドコに出しても恥ずかしくナイと思ってるんです オープンソースという、一歩間違えると左寄りに誉め殺されかねない世界で いいモノを供給できるサプライヤーでいたいんですヨ ハッカーと呼ばれる人種はきっと皆同じですよ ただ ただいいモノを与えたいだけなんです―――
>>152 ちと誤解があるみたいすけど、底辺のオープンソースプログラマがmac miniやiMac G5を買うことわ有るとしても
わざわざこれ買って開発に勤しんでくれるということわ、在り得ないかと思うす。
http://www-06.ibm.com/systems/jp/p/express/185.shtml これでもAppleに逃げられた後に慌ててリリースした最廉価版モデルという。。。
結局、お高くとまった高給取りのIBMの連中に、Jobsの語る「エコシステム」の意味わ理解されなかったという
ことかと。もはやIBMに残された市井のプログラマ向けの製品わLinux搭載のPS3のみってことになるすけど、
どうなることやら(笑)
にげたとかどうでもいい。 ここはZFSのスレだっつーに。
そもそもIBMってPowerなんかどうでもよくてEMT64で稼ぐ気満々じゃないの?
>>155 高い!Macがかなり安く感じられるす。
というかPPC970ってもう終了?
POWER5のシステムお客に納品いっぱいやってるけど・・・。 POWER5がいいのかAIXがいいのかっていうのはあるけど 安定してるし安物のPCサーバよりよっぽどいい。 俺はSolarisで納品しているときの方が楽しいが。
すごい自作自演が見れた。
162 :
名無しさん@お腹いっぱい。 :2006/05/06(土) 23:13:37
>>140-141 他スレ見てきたけど、Solarisってもう終焉?
売りにできるのはひょっとしてZFSぐらいなんじゃー…。
|
J
163 :
名無しさん@お腹いっぱい。 :2006/05/06(土) 23:13:47
MACヲタ。 それじゃないが、俺んとこ、このまえ検証用に買ったぞ。開発だけが使うとでも思ってるのか…
>>163 そもそも、AIXがどういったことに使われてるのかすら、
MACオタは知らないのでは、、、。しかし、喋りは兎も角こんな痛々しい人だったっけ。
>どっちかというとAppleに逃げられたために、貧乏オープンソースプログラマをこき使って、POWERへ >良質のオープンソースソフトを移植させて大儲け。。。って目論見が潰えてショックを受けてるのわ >IBMかと思うす。 >ちと誤解があるみたいすけど、底辺のオープンソースプログラマがmac miniやiMac G5を買うことわ有るとしても >わざわざこれ買って開発に勤しんでくれるということわ、在り得ないかと思うす。 アホじゃないのか? AIXにゃオープンソースのアプリケーションなんて必要ないんだよ。 DB2とWebsphereとcatiaとチボリとsmitマンが走れば良いんだよ。
167 :
名無しさん@お腹いっぱい。 :2006/05/06(土) 23:46:02
おまえOpenPOWERが売れなくて、ラインナップが消えていくの知らないのか? すなわちPOWER=AIXってことなんだよ。
169 :
164 :2006/05/06(土) 23:51:10
>>166 では言い換えて、
IBMが何処で使われているか知らないでしょ?
これで文句ないですか。MACオタさん?
zシリーズはPOWERじゃないしなw
そもそもなんであんな糞高いpseriesを買って、わざわざlinux動かさなきゃならんのだ? gccじゃPOWERの性能引き出せないしな。x86で充分だっての。 コレくらいのお品になるとcatiaが動かしたいから、DB2が使いたいからという理由で買うんだっての。 目的がはっきりしてるの。
あのーzfsの話していいですか…?
キリも良いし、本題に戻りませう。
>>165 smitマンバロスwwwwwwwwwwwwwwwwwwwwwww
176 :
名無しさん@お腹いっぱい。 :2006/05/07(日) 00:12:33
Solaris 10 6/06ってデリバリはいつくらい? /もzfsっていうのは間に合わないかな。
IBMの営業にきいてみな。 OpenPowerっておすすめ?ってさ。 うちの担当の金融の営業は「自身が無いから現状AIXを選んでください」って いってたぞ。
MACオタはアップルストアでぶるぶる震えながらmac miniを撫でまわすのが 関の山なんだから、エンタープライズの話なんか振っちゃダメ!
PowerPCじゃなくてPOWERの話をしているんでしょ? そして現状POWERじゃAIXかi5/OSかlinuxのしか動かないでしょ? で、IBMさんはlinux一押しだけれどさ、POWERでlinuxしか動かない OpenPOWERは出してみたけれど不人気で退場なわけ。 AIXが動かない分安くなっているんだよ?なんで売れないの? だから、POWERじゃlinuxやオープンソフトのアプリなんて必要ないわけ。(MACオタのネタフリの結論) そもそもLinuxインスコしたPseriesで問題が出ると、赤帽かSUSEの技術者がやってくるんだぜ。 IBMは本腰じゃないのさ。 サーバ仮想化? 論理分割したPseriesがどれだけパフォーマンス出るか知ってる? ありゃ、でかいSMPマシンとして使う物だ。 お前が出てくると話が飛ぶからMac板にこもってろ、な?
>>176 そりゃああた、06 年 6 月でしょ? あれ? 06 年の 6 番目だっけ?
>論理分割したPseriesがどれだけパフォーマンス出るか知ってる? つまり、性能出ないって事?
>>180 いやー。あんまし月と実際に手元に届く時期が一致した記憶がないからw
でもホントに6月なら社内のsquidプロキシ程度から利用してみようかなって
思い中なのよ。
>>176 先日の話なら、なんか別個にもうひとつ ZFS じゃないパーティションが要って、
かなりイビツな実現だって書いてあったような。普通にやるにはブートローダが
ZFS 読めないとだめでしょ。
>>177-179 さん
私わPOWERアーキテクチャ(PPC ISAを持つプロセッサファミリ)のことを語っているので
あって製品名としてのPOWERサーバーのことで無いということわ、踏まえておいて欲しいす。
>>177 さん
------------------------
「自身が無いから現状AIXを選んでください」
------------------------
だからPower Macのような一般向けPOWERアーキテクチャ機をばら撒いて、
linux on POWERの人柱を集めることが必要だったんだと思うす。そもそも金融向け
なんて「UNIXなんて。。。」と言われていたのすらそう、昔の話でわ無い筈す。
>>179 さん
前段わ上で回答済みかと思うので、ここだけ。
------------------------
論理分割したPseriesがどれだけパフォーマンス出るか知ってる?
------------------------
POWER4->POWER5での性能向上わ知っている筈すけど、IBMのロードマップでわ
今後さらにオーバーヘッドを低減する技術が投入される予定す。
そろそろzfsの話をしようぜ
>>179 POWERじゃZFS動かないよな。そろそろ空気読め。
5月末に出して欲しいなあ。 6月頭にGW分の振り休がもらえるから、そこでインストール地獄にはまり込みたいなあw
>>188 UNIX商標の問題に近いかも。
日本だけやっぱり表記がちがったりしてねw
マランツよりは手強そうだなあ…
StarOfficeモナー
もう3文字の愛着の湧きそうな名前なんて諦めて コードのMD5値あたりを製品名にしちゃおうか。
the Last Word FS ということで lwFS にします。
それか、Phile System で PHS ってのはどう?
>>188 分野がもろ被りだしなw
ZFSによるメリット
・糞高いVeritas製品とはサヨナラ
・SPARC版Solarisとx86版SolarisとでLANフリーバックアップ環境を簡単に構築できる
NTTアイティも可哀想だな、こりゃ。
ZappaaaaaaanFS
ンフォッ!
乙FS
痔FS
ようやくzfsに戻ったかと思ったら今度はNTTの子会社が商標持ってますよかorz zをζと読み替えてみるとか@日本。
COW って、ファイル単位なのブロック単位なの? たとえばログみたいに append ばっかりされるような状況として、 もしファイル単位だとファイルサイズ二乗オーダのスペースが必要 になりそうで嫌だし、そうでなくてブロック単位だと、読むときに シークしまくりになりそうで嫌だなあ。 誰か詳しい人教えてください。
2FS
乙FS
FSz
FSSuite
Final Fat Fast FileSystem
いつの間にかネタスレになっててワロスw
211 :
名無しさん@お腹いっぱい。 :2006/05/08(月) 01:38:07
2F5
212 :
名無しさん@お腹いっぱい。 :2006/05/08(月) 01:52:29
乙牛5
213 :
名無しさん@お腹いっぱい。 :2006/05/08(月) 01:53:55
乙キ5
なんかこのスレ盛り上がってますね
場違いなこと書いて、赤恥じかきまくってスレ荒らしまくったのに
よくもまあ顔出せるな。
>>216 せめてコテ外せよ。
頭おかしいのをスルー出来て便利。> コテ
219 :
204 :2006/05/08(月) 09:31:44
>>214 サンクス。そうみたいね。
>>204 に挙げたような状況だと可変ブロックサイズと相俟って
読む時くちゃくちゃになりそうだなあ。
220 :
名無しさん@お腹いっぱい。 :2006/05/08(月) 13:18:07
6/06は/はzfs化が無理だとして・・・ SVMでRAID1を組んで運用してた方法は当面 zfsに置き換えられなくってそのままにしなきゃ ならないってことだよね? (Openbootの対応も待つ必要があるのかな) DISK2発の場合、/はSMVでミラーにして残りをzfsでRAID1って 構成が現実的?
内蔵ディスクだけならLVMでいいだろw
223 :
名無しさん@お腹いっぱい。 :2006/05/08(月) 22:21:08
>216 Yes. >219 COW のページと End-to-End Checksums のページを見ると、データを書き換えると 常に uberblock まで変更が伝播するようなので DB みたいに最初に領域を確保して おいて中身を書き換えるような操作を行うアプリは既存の FS に比べてオーバーヘッ ドが大きそう。
>>225 これ最初に書いた本人だけど、あちこちに貼り付けすぎ…。
貼り付ける暇があったら、bonnie++結果をググって、そのURLを報告しる。
とりあえず、MACオタはUNIX板に出入り禁止。
反対。たたいてる方はただの言いがかりにしか見えん。 スレ違いな方向へ持って行ったのも彼じゃないし。オレは投稿歓迎する。
今北産業
> スレ違いな方向へ持って行ったのも彼じゃないし。 ハァ? ZFSスレで、わざわざUFSに関する間違った推測を披露してたのは誰? IBMが、POWERへオープンソースソフトを移植させて大儲けを企んで いるという妄想を書いたのは誰?
すくなくとも、MACオタ氏の話はおもしろいよ。あんたのはただのイヤミと あげ足とり。それ以前にどんな経緯があるのかは知らんが、見てて極めて不愉快。 気分わるいからどっか行ってくれ。
>>232 SFじゃないんだから、面白いウソなら許されるなんてありえん。
ホントであろうとスレ違いは許されない。
スレ違いを煽ると無駄にスレ消費しますやね 適当なところで火消ししておわりにしよーよ。
228 はもう来ないで欲しい
MACオタが現れる限り、アンチMACオタはいつでも現れるだろう。 自作板をみても分かる通り、MACオタが、嘘、スレ違い、見苦しい 言い逃れをやめるとは思えないからな。 228の同類が現れて欲しくないと思うなら、MACオタが2度とこの板に 書き込まないことを祈るしかない。
Macオタの執着癖は相当なものだから、追い出すのは不可能。オタ信者も同様 Macオタに犯された時点で釣堀として捉えるべき SUNの成果物をあたかもAppleの技術のように浮かれるMac信者は末期癌的存在 こいつらが騒ぐだけでZFSの評価が2ランク下がる
人のフリして書くなよ見苦しい。
それだ。
MACオタ、こういう時だけコテハンやめるのな。
流れと、内容のあまりの頓珍漢ぶりからみて、
>>116 もMACオタっぽいね。
俺にはアンチMACオタが「一人で」騒いでいるように見える。
少なくとも俺以外に一人いるし、MACオタもいるので、最低三人はいるよ。
だって共有コテハンだし
俺にはこのスレはもう終わったように見える。
245 :
名無しさん@お腹いっぱい。 :2006/05/10(水) 21:23:48
6/06 が届かないことには、なにもみんな話せないだろうなー。 ネットにある情報と、ソースコードだけで話せる話題は少ない。 実際に運用始めた人とか出てくれば、 安定性とかパフォーマンスとかいろいろ分かってくるかと。
nevadaで使えるじゃない。
ZFS て、いわゆる VFS レイヤ使って実装してあるんじゃないんだよね? もっと下からやらないとあんないろいろ機能付けれないよね?
VFSの意味わかっていってる・・・わけないなw
VFSの意味をわかってらっしゃる
>>248 様の講義が始まります。
皆様お誘い合わせのうえ奮ってご参加ください。
つまんないやつ…
一瞬、stackable file systemのことかな、と思ったけど solarisにはないんだっけ。
ZFSって今はどこまで実装されてるの?
6/06がないからテストできないよ〜!とかわめくやつは さっさとnevadaいんすとーるしてみやがってください。
____
|\ ,. ‐''":::::::::::::;::::`'-、
|ヘ| /::::::::::::::;:/´ヾヘ;:::::::::ヽ
|ヘ| /::::::::::((,/ `、::r、:::゙,
>>1 | ̄| ,'::::::::::::i゙ \ / i::::i 学習ルーム来いヤ!☆
ピュー (∃⊂ヽ !::::::::::::| ● ● l::::| / 〉 ブラッドパーチーだべ
─── └┘\ !::::::::::::! !:::!/\/
\/ \::::::::!"" ____ ""!::| \/
──── ヽ |::::::| l, / ノ::i /
`、 i:::::l、ヽ.,_ `''''" _,..イ:::::i /
───── ゙、 ヽ;i \ヽ,.l ̄_,l |:::/ /
゙、 ヽ`、 | / レ' /
────── ゙、 / `ヽ''" i. /
/ NEVADA |/
─────── / |
むー。MacOSX上のParallelsに入れようとしたけど
なんかインストーラ自体があがってこねーぜwwwww
>>253 イメージのダウソで失敗してたのかなぁ・・・・?
|∀・)
257 :
名無しさん@お腹いっぱい。 :2006/05/22(月) 18:35:00
hageてみる
ハゲんなボケが
build39楽しいよ。
39 回目の神経衰弱
262 :
名無しさん@お腹いっぱい。 :2006/05/26(金) 05:21:03
ZGMF-X19A
ZFS 正式リリース月間到来
今月は Z 月間とします。なるべく製品名に Z のついた商品を使いましょう。政府広告。
266 :
名無しさん@お腹いっぱい。 :2006/06/02(金) 07:09:33
ZFS filesytem for FUSE/Linux age
6 月もタケナワですが、06/06 はまだでしょうか?
きみは刻の涙をみる
きざみのなみだ? タマネギ??
ZZFSはまだでしょうか?
直リンすればダウンロードでk
でも俺のマシンって/一本切りだから ZFSにしちゃうとブートできなくなるんだよな
あー、nevadaのいくつか忘れたけど、 zfs /からブートできるようになったやつは、 6/06には入ってないんですよね。
あれは ZFS の他にパーティションも必要だし、かなり強引なやり方での実現で、 取り込まれてないでしょ?
6/06ダウンロードまだー?
6/06とは、2006年6月ではなく、2007年6月06日のことだったんだよ!
6月31日まであきらめてはいけない!
6/20のプレスリリースに availability todayって書いてあるんだけど、 ダウンロードするところだと、まだcoming soonって書いてある。
June 26, 2006 って書いてあるね。
今日だな。米西部時間か?
6/06 出てる。けど、x86 だけ。SPARC 版はなぜかリンク切れ...
キターーーーーーーーーーーーーーーー
>>282 リンクの URL に '?' が足りんかった。ただいま SPARC 版ダウンロード中。
ウキキーw
やっとこのスレの出番がやってきました! 使ってみた方、感想とかよろです!
お前も使ってみろって > 285 おれはSUNWrealplayerというパッケージにびくーりしたよw
よしっ、じゃあ、これから先は一度 ZFS パーティションに保存したもの以外 投稿ダメ、ってことにしよう。
ZFS にインストールしたブラウザからのカキコはダメでつか?
SPARC Solaris10 6/06いんすこしてraid-z領域作ってみた。 zpool iostat -vやらdf, du で見えるサイズってパリティの容量も 含めた形で表示されるのね。 ぱっと見で実際に使える空き容量が見えないのはちょっと不便かも
とりあえずbonnie++-1.03aでベンチってみたので結果貼り付け へっぽこい環境なのは勘弁ね。 【試験環境】 SF V250 / 1GB Mem / SPARC IIIi 1GHz *1 【HDD】 5. c0t9d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107> /pci@1d,700000/scsi@4/sd@9,0 6. c0t10d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107> /pci@1d,700000/scsi@4/sd@a,0 7. c0t11d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107> /pci@1d,700000/scsi@4/sd@b,0
292 :
291 :2006/06/28(水) 19:07:10
【RAID-Z 36G*3】 bash-3.00# zpool iostat -v capacity operations bandwidth pool used avail read write read write ------------- ----- ----- ----- ----- ----- ----- datapool 602K 101G 19 121 2.27M 13.7M raidz 602K 101G 19 121 2.27M 13.7M c0t9d0s0 - - 7 64 830K 6.84M c0t10d0s0 - - 7 64 782K 6.84M c0t11d0s0 - - 6 64 737K 6.84M ------------- ----- ----- ----- ----- ----- ----- Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 24338 74 31799 25 26476 20 28239 78 97649 28 618.0 3 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 10486 98 84123 99 16544 99 7931 75 101819 98 15740 98 v250-sol10,2G,24338,74,31799,25,26476,20,28239,78,97649,28,618.0,3,16,10486,98,84123,99,16544,99,7931,75,101819,98,15740,98
293 :
291 :2006/06/28(水) 19:08:34
【RAID-1 36G*2】 bash-3.00# zpool iostat -v capacity operations bandwidth pool used avail read write read write ------------- ----- ----- ----- ----- ----- ----- datapool 106K 33.7G 40 41 4.99M 4.71M mirror 106K 33.7G 40 41 4.99M 4.71M c0t10d0s0 - - 19 40 2.49M 4.71M c0t11d0s0 - - 20 40 2.50M 4.71M ------------- ----- ----- ----- ----- ----- ----- Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 25992 79 30635 24 23659 19 30088 84 62609 18 468.2 3 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 9828 99 85253 99 10933 67 9342 96 107981 99 17208 99 v250-sol10,2G,25992,79,30635,24,23659,19,30088,84,62609,18,468.2,3,16,9828,99,85253,99,10933,67,9342,96,107981,99,17208,99
294 :
291 :2006/06/28(水) 19:09:48
【Strype? 36G*2】 bash-3.00# zpool iostat -v capacity operations bandwidth pool used avail read write read write ----------- ----- ----- ----- ----- ----- ----- datapool 81K 67.5G 0 0 662 9.00K c0t10d0s0 36K 33.7G 0 0 331 4.46K c0t11d0s0 45K 33.7G 0 0 331 4.54K ----------- ----- ----- ----- ----- ----- ----- Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 29662 88 46206 35 37441 27 31343 86 106434 30 894.3 4 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 10342 99 84056 99 16615 99 8648 77 106625 99 16604 99 v250-sol10,2G,29662,88,46206,35,37441,27,31343,86,106434,30,894.3,4,16,10342,99,84056,99,16615,99,8648,77,106625,99,16604,99
295 :
291 :2006/06/28(水) 19:10:28
【Single 36G*1】 bash-3.00# zpool iostat -v capacity operations bandwidth pool used avail read write read write ----------- ----- ----- ----- ----- ----- ----- datapool 51.5K 33.7G 0 8 17.1K 231K c0t10d0s0 51.5K 33.7G 0 8 17.1K 231K ----------- ----- ----- ----- ----- ----- ----- Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 21779 64 33060 26 23404 16 28566 79 54388 12 324.6 1 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 10479 99 84418 99 10719 68 10363 99 108279 99 16928 98 v250-sol10,2G,21779,64,33060,26,23404,16,28566,79,54388,12,324.6,1,16,10479,99,84418,99,10719,68,10363,99,108279,99,16928,98
296 :
291 :2006/06/28(水) 19:12:51
【UFS 36G*1】 Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 33174 96 42439 30 14675 18 34016 98 67608 27 332.7 2 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 5342 48 161391 99 7310 53 8241 59 167950 97 4572 44 v250-sol10,2G,33174,96,42439,30,14675,18,34016,98,67608,27,332.7,2,16,5342,48,161391,99,7310,53,8241,59,167950,97,4572,44 SVMでMirrorした物との比較もしようかと思ったけど 同期とる時間が90minぐらい かかるのでとりあえずパス。 あと、OSは書き忘れてたけど Solaris10 6/06でっす。
ZFSだけで、pathの負荷分散って出来る?
>297 無理じゃね? SCSIならVxVM入れる、FCならSun TrafficManager or VxVMぐらいしか思いつかんわ
ストレージメーカのものを使うか、VxVMしかないのか。
>>291 乙〜。
さすがに36GBだけあって、転送速度は遅いけど、
RAID-Zでちゃんと高速化されてるね。
しかしファイルの作成、読込、削除が速い!
読込だけはUFSに負けてるけど、それ以外は圧勝。
というか、LinuxとかMac OS Xと比べると桁が違うぐらい速い。
それだけSolarisが優秀ってことかな?
CPU に余力があれば compression=on で速くなるらしいね。 容量も節約できて一石二鳥。もっとも CPU が弱いと逆効果だろうけど。
圧縮環境もとりあえず上げときます。 【RAID-Z 36G*3 compression=on】 bash-3.00# zpool iostat -v datapool capacity operations bandwidth pool used avail read write read write ------------- ----- ----- ----- ----- ----- ----- datapool 155K 101G 39 44 180K 259K raidz 155K 101G 39 44 180K 259K c0t9d0s0 - - 2 8 97.7K 135K c0t10d0s0 - - 2 9 98.2K 134K c0t11d0s0 - - 2 9 97.7K 134K ------------- ----- ----- ----- ----- ----- ----- bash-3.00# zfs get compression datapool NAME PROPERTY VALUE SOURCE datapool compression on local Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 18895 55 40130 31 31153 35 25064 77 78634 50 1867 68 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 9929 99 85010 99 15476 95 7420 74 98016 94 15434 95 v250-sol10,2G,18895,55,40130,31,31153,35,25064,77,78634,50,1867.4,68,16,9929,99,85010,99,15476,95,7420,74,98016,94,15434,95 やはしCPU負荷増えますね。 時間が取れればVxVM/VxFSとの比較も出来るけどスレ違いの上うざいかな?
>>302 いややって欲しい。
ZFSとの比較だし問題ないだろ。
ZFSの最大のライバルだからな。
compression=on で cat /dev/zero >file とかするとおもすれぇw ファイルが超巨大化しても空き容量余裕タプーリ
その道はNTFSが何年も前に通った道だ
307 :
291 :2006/06/29(木) 22:29:33
308 :
291 :2006/06/29(木) 22:31:15
【VxVM/VxFS Stripe 36G*2】 bash-3.00# fstyp /dev/vx/rdsk/datadg/stripevol vxfs v stripevol fsgen ENABLED 142247936 - ACTIVE - - pl stripevol-01 stripevol ENABLED 142247936 - ACTIVE - - sd datadg01-01 stripevol-01 ENABLED 71123968 0 - - - sd datadg02-01 stripevol-01 ENABLED 71123968 0 - - - Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 31020 96 110525 82 22255 27 31383 98 107088 69 412.4 4 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 6855 69 83970 99 10977 83 9050 73 85056 97 9662 78 v250-sol10,2G,31020,96,110525,82,22255,27,31383,98,107088,69,412.4,4,16,6855,69,83970,99,10977,83,9050,73,85056,97,9662,78
309 :
291 :2006/06/29(木) 22:32:07
【VxVM/VxFS RAID-5 36G*3】 bash-3.00# fstyp /dev/vx/rdsk/datadg/raid5vol vxfs v raid5vol raid5 ENABLED 10485760 - ACTIVE - - pl raid5vol-01 raid5vol ENABLED 10485760 - ACTIVE - - sd datadg03-01 raid5vol-01 ENABLED 5242880 0 - - - sd datadg01-01 raid5vol-01 ENABLED 5242880 0 - - - sd datadg02-01 raid5vol-01 ENABLED 5242880 0 - - - Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 8874 32 9219 8 4113 8 22913 77 62421 54 360.7 4 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 2766 37 81958 99 2686 39 3013 36 86437 98 2861 35 v250-sol10,2G,8874,32,9219,8,4113,8,22913,77,62421,54,360.7,4,16,2766,37,81958,99,2686,39,3013,36,86437,98,2861,35
310 :
291 :2006/06/29(木) 22:33:47
【VxVM/VxFS mirror 36G*2】 bash-3.00# fstyp /dev/vx/rdsk/datadg/mirrorvol vxfs v mirrorvol fsgen ENABLED 10485760 - ACTIVE - - pl mirrorvol-01 mirrorvol ENABLED 10485760 - ACTIVE - - sd datadg01-01 mirrorvol-01 ENABLED 10485760 0 - - - pl mirrorvol-02 mirrorvol ENABLED 10485760 - ACTIVE - - sd datadg02-01 mirrorvol-02 ENABLED 10485760 0 - - - Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 30864 97 42962 28 12566 14 28155 87 54015 31 522.5 4 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 5697 57 82645 99 8720 64 7607 62 84611 97 5635 47 v250-sol10,2G,30864,97,42962,28,12566,14,28155,87,54015,31,522.5,4,16,5697,57,82645,99,8720,64,7607,62,84611,97,5635,47
311 :
291 :2006/06/29(木) 22:34:23
【VxVM/VxFS single 36G*1】 bash-3.00# fstyp /dev/vx/rdsk/datadg/singlevol vxfs v singlevol fsgen ENABLED 10485760 - ACTIVE - - pl singlevol-01 singlevol ENABLED 10485760 - ACTIVE - - sd datadg01-01 singlevol-01 ENABLED 10485760 0 - - - Version 1.03 ------Sequential Output------ --Sequential Input- --Random- -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP v250-sol10 2G 32082 96 45295 27 22303 23 25957 81 53405 31 297.7 3 ------Sequential Create------ --------Random Create-------- -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP 16 6228 64 41023 49 9594 66 8583 65 89816 99 6406 51 v250-sol10,2G,32082,96,45295,27,22303,23,25957,81,53405,31,297.7,3,16,6228,64,41023,49,9594,66,8583,65,89816,99,6406,51
ufsならufsdumpでDDSにバクアプ。 zfsはzfsdumpってのがあるの?
zfs snapshot filesystem@name|volume@name Creates a snapshot with the given name. See the "Snapshots" section for details. zfs backup [-i snapshot] snapshot2 Creates a backup of snapshot2. The backup is written to standard output, which can be redirected to a file or to a different machine. For example, using ssh(1). By default, a full backup is performed. -i snapshot Perform an incremental backup from snapshot to snapshot2. The format of the backup archive is evolving. No back- wards compatibility is guaranteed. You may not be able to restore your backups on future versions of ZFS.
>>5 のtypo発見
・水曜日の版の foo.c をちょっと見る
-$ cat ~maybee/.zfs/snapshot/wednsday/foo.c
+$ cat ~maybee/.zfs/snapshot/wednesday/foo.c
テープにバックアップして世代管理&シーケンシャルアクセスしたいっす!
ふっ。通はテープでランダムアクセスするんだよ。こんどやってみな。
ふっ。真の通は脳内に全部記憶してランダムアクセスするんだよ。こんどやってみな。
>>317 MZ-80BとかX1とかのシャープのパソコンを思い出すなぁ
それランダムアクセスじゃないし。ひょっとするとシーケンシャルアクセスにも 入れてもらえないんでは。
>>318 読むたびに値が変わるかCRCエラーです
漏れの脳内ダブルセクターとかのプロテクトが掛かっているもよう
>>318 俺の脳みそは大部分が/dev/nullにリンク貼られてるようです
脳みそびろーん ∩___∩ | ノ ヽ/⌒) /⌒) (゚) (゚) | .| / / ( _●_) ミ/ .( ヽ |∪| / 読むたびに化けるクマー \ ヽノ / / / | _つ / | /UJ\ \ | / ) ) ∪ ( \ \_)
/dev/zero に再リンクすれば安定する。
/dev/urandam
価格はけっこう手ごろなのね
最近の HDD って、あんな方向で使っていいんだ!?
以前から、方向変えなければokじゃなかった? 最初から縦なら縦で使い続ける。
昔の HDD は回路基盤があるのを下面、コネクタがあるのを後面とすると 下面を下にして円盤は水平、左右の側面を下にして円盤は垂直の 2 種類 (左右側面を別々に考えれば 3 種類)の置き方しかダメだったよ。 マニュアルにそう書いてあった。けどその後上面を下にしたパソコンが ちらほら出てきたから、最近はどうとでも置けるのかな。
ポータブルプレイヤの HDD なんか結構いろんな向きになりそうだが……
3.5inch HDD のポータブルプレーヤ使ってんの?
向きは構わんからしっかり固定しろ、ってHGSTの中の人が言ってた
ぶらんぶらん ブラ下げておくのは却下ってこと?
>>335 中に入ってる人の向きの問題なのか。いまじゃどっち向きでも耐えられるんだな。
NASA で訓練したのか?
さすがジョナサン! これはSunのストレージサーバとしては初めて成功する予感。
え? ヨナタンの手柄ぁ? ほんとかぁ?
341 :
名無しさん@お腹いっぱい。 :2006/07/20(木) 01:44:36
からあげだよもん
>>333 iPodはよく振ると曲順がシャッフルされるよ?
>>342 俺全曲ランダム再生とか良くやるからそれ欲しいな。
ZFS 安定してる? トラブル情報ない?
>344 お前みたいな他人任せな考え方がするやつがいること自体がトラブル。自分で試せ。
なにをトンチンカンなことを... 評論家気取りか?
No news is good news.
No gnus is bad news.
No ZFS is good news.
>>347 そうだな。流血先端にはだいぶ前から出てるが、悪い話は聞いたことがない。
よさそうだね。
実際にシステム組んで1ヶ月ぐらい運用してみないとわからないという意味で 評価結果が出てくるまでしばらく時間がかかると思うのだが。 ZFSを欲しがるユーザの納期が1週間とかってことはないと思うんだけど。
OpenSolaris(Solaris Express もか?)で ZFS 追加されてからだいぶ経つけど、 悪い話は聞いたことがないね。
まぁ、初期の ZFS ではパフォーマンスの問題があったりとか、あとは 普通の HDD じゃなくてリムーバブルメディア上に ZFS 領域を作成した場合 パニックすることがあるとかいう問題はあったみたいだけど、そのあたりも 軒並み fix されてるみたいだしね。
SunからThumperみたいにzfs前提といえるようなサーバが出ることを考えると それほど問題があるとは思えないな。
よしっ! じゃ今後ファイルシステム作成するときは特別な理由がない限り ZFS 以外 使用禁止。既存ファイルシステムも可及的速やかに ZFS に移行すること。以上。
>>355 Solaris以外に移植してから言え。
移植完了!!
NFSv4 とか ZFS とか、MS-Windows (NTFS) のファイル属性とか ACL とかに ある程度配慮した作りになってるみたいだけど、ZFS を MS-Windows に実装して 使うとか、MS-Windows に NFSv4 クライアントを実装して ZFS をリモート利用するとか、 可能なんだろうか?
ZFS を smbd で Win からマウントするとかはやってる
>MS-Windows (NTFS) のファイル属性とか ACL とかに 例えば? ACL は Posix じゃねーの?
NTFSのACLじゃないの? sambaでZFS(とNFSv4)のACLはまだ扱えないと読んだことがあるけど、 どうなったんだろう。
samba で NFS を扱うとかワケワカメ
NFSゲートウェイ?
sambaというか、NFSv4とCIFSでのACLの相互運用性の話でしょ?
つーか、じかに MS-Windows に ZFS 積んで NTFS なしで完結できたりしたら おもしろそうだけど。 それムリでも NFSv4 クライアント実装して、Samba なしでリモートの ZFS 使うってのもできたらおもしろそう。 別に Samba きらいな訳じゃないけど、シンプルに構成できた方が より発展の目があるかと。
367 :
名無しさん@お腹いっぱい。 :2006/07/25(火) 05:57:05
winで動くnfs clientは既にいくつかあるだろ
だから v4 より前の NFS は MS-Windows から見たら不便で誰も使わないでしょ。 そこらへん NFSv4 や ZFS は考慮されてるのよ。 ...って、そういう話の前提くらい汲んでくれよめんどくさい。
で、考慮ってどの辺が? って話題に戻る
ttp://docs.sun.com/app/docs/doc/819-6260/6n89n6cb6?a=view 『Solaris ZFS 管理ガイド』
7. ACL による ZFS ファイルの保護
新しい Solaris ACL モデル
最近のバージョンの Solaris では、主に POSIX ドラフト ACL 仕様に基づく ACL 実装が
サポートされていました。POSIX ドラフトに基づく ACL は、UFS ファイルを
保護するために使用され、NFSv4 より前のバージョンの NFS によって変換されます。
NFSv4 を導入したことにより、NFSv4 が提供する UNIX クライアントとUNIX 以外の
クライアントとの間の相互運用性を、新しい ACL モデルを使って完全に
サポートできるようになりました。NFSv4 仕様で定義されている新しい ACL 実装は、
NT 方式の ACL を使用して、より豊かなセマンティクスを実現します。
新しい ACL モデルは、主に次の点が異なっています。
* NFSv4 仕様に基づいており、NT 方式の ACL に似ています。
* アクセス特権をより詳細に設定できます。詳細については、表 7−2 を参照してください。
* setfacl や getfacl コマンドではなく、chmod および ls コマンドを使用して設定および表示します。
* ディレクトリのアクセス特権をどのようにサブディレクトリに適用するかを指定するために、より多くの継承セマンティクスを利用できます。詳細については、「ACL 継承」を参照してください。
>>369 こんだけ手間かけさせたからには、なんかおもしろいこと言ってくれるんだよな?
なんとなくSolaris/x86 に書いて見たけど反応ないんでこっちにも書かせて。 OpenSolaris amd64 で LSI Logic の SAS な LSISAS1064/1068 の HBA 使ってる人います? ドライバーは mpt になるかと思うんだけど。 LSISAS3401, 3080, 3442, 3800 あたり。 問題なく使えてるんなら HBA を購入したい。
サルっぽい質問で申し訳ありませんが、 ZFSって desktop環境でも幸せになれるんでしょうか? snapshotとかおもちろそうですが..
ルートパーティション ZFS にできるのは当分先っぽいから、 そこへ全部入れてるんなら意味ないかな。そうじゃないなら、意味あるんじゃね?
376 :
名無しさん@お腹いっぱい。 :2006/08/08(火) 06:11:27
sambaと組み合わせて、volume shadow copyできるのだろうか?
>>376 Leopard には ZFS 入らんだろ?
「なくし物をなくす」... もうちょっと気の利いた訳はなかったんかいw
紛失物が完全に消え去るって意味かと思ったぜ。
>>378 でもスナップショット機能あるっぽいね。ZFS 入るんだろうか??
タイムマシーンて、要はゴミ箱のちょっと気のきいたやつ? 昔 POSTGRES にタイムトラベルって機能あったなw どっちにしてもこのスレと POSTGRES は何も関係ない。
中の人からzfsのエンジニアにコンタクトがあったという話がなかった?それが憶測を呼んでいるのかな
それにしても毎回毎回金太郎アメのような演出とたいした内容でもないのにたらたらの自慢話。 イヤにならんのかね? Mac 利用者だし、次も MacOS X の機材買うと思うけど、あれ見てるとイヤになる。
>>383 Leopardのアップデート内容がしょぼしょぼだから、演出と美麗字句が
完全に浮いちゃっているねぇ…
385 :
名無しさん@お腹いっぱい。 :2006/08/08(火) 22:58:09
>>385 FreeBSD にはもうのってんだよね? それならそう不思議でもない。
388 :
名無しさん@お腹いっぱい。 :2006/08/09(水) 00:45:58
>>387 もう使える状態になってたっけ,アレ?
そのblogからだと、FreeBSDとは関係なくPortしたっぽい。
>>384 Tigerのときもかなり言われた。
Spotlightだけかよ,って。
>>386 おー、いいなぁーと思って価格を見たら、、、目を疑った。
>>389 結局、10.3以降のアップデートはIntel対応とか64bit周りとかがあるにせよ、
ユーザにとっては蛇足ばっかりってことになるのかな。って完全に板違い棚…
>>391 スナップショットをユーザ権限でとれないのは何で?
393 :
名無しさん@お腹いっぱい。 :2006/08/14(月) 22:42:47
質問です。 Solaris10とZFSでファイルサーバを構築しようと考えます /ファイルシステムは普通にメタでミラーして データー領域をZFS RAIDZにしようと考えているのですが マザーボードなどが逝ってしまい、OS自身の再セットアップが必要となったとき 前の環境で利用していたZFS RAIDZを認識させる事ができるのでしょうか?
r'゚'=、 / ̄`''''"'x、 ,-=''"`i, ,x'''''''v'" ̄`x,__,,,_ ┏┓ ┏━━┓ __,,/ i! i, ̄\ ` 、 ┏━┓ ┏━┛┗━┓┃┏┓┃ __x-='" | /ヽ /・l, l, \ .ヽ ┃ ┃ ┗━┓┏━┛┃┗┛┃┏ /(━━━━ 1 i・ ノ く、ノ |━━━i i,━━┓┃ ┃ ┏━┛┗━┓┃┏┓┃┃ | i, {, ニ , .| | i, ┃┃ ┃ ┗━┓┏━┛┗┛┃┃┗ .l, i,━━━━ } 人 ノヽ |━━━{ {━━┛┗━┛ ┃┃ ┃┃ }, '、 T`'''i, `ー" \__,/ .} | ┏━┓ ┗┛ ┗┛ .} , .,'、 }, `ー--ー'''" / } i, ┗━┛ | ,i_,iJ `x, _,,.x=" .| } `" `ー'" iiJi_,ノ
>>393 endianの違いまで考慮しているくらいだからたぶんokだと思うけど
やり方は知らない。
ぜひ試した結果を教えてください。
ZFS On-Disk Specificationをながめているのですが トランザクションをどう実現しているかわかりません。 なにか参考になるドキュメントはありますか?
もうある程度動いてるのか? すげーな。
JFS とか XFS も FreeBSD 移植プロジェクト自体はあったんだが…
XFSならcurrentにあるよ。
へぇ〜 XFS 使ってる人いるんでしょうか?
IRIXかLinuxならいるでしょう。
ヘッダファイルに定義があっただけだろ? ま、実装しかけてるのは確かかもね。
Leopardに間に合うか微妙。 Loepard Serverからかも。。 デフォルトのファイルシステムをHFS+からZFSにするには 色々と解決すべき問題があるし、実装してエンドユーザに 新しい体験させるには更に色々とね。
どうせなら、カーネルごと持ってけばいいのに。
俺もそう思う。
>>406 HFS+のジャーナリングの時みたいに、コマンドラインから叩けば使えるけど、
それを知らない人は使えませんよー。あと自己責任ですよーってやると思う。
>>407 やっぱ、Mach を苦労して改良した人たちが大勢いるだろうから難しいでしょ。
え? Solaris に Mach の IPC 付けるのはそんなに難しくない? それ大きい声で言っちゃダメでしょ..w
>>410 それはつまり、OpenSolarisの一派になると。
・・・・・ちょっと見てみたい・・・・
一応 PowerPCの上でもまだ動かないとだめなんじゃない?
動いてるって話だったと思うよ。OpenSolaris ね。ZFS まで動いてるのかは知らん。
このへんはそれだけじゃ無理だろ。 > Finderだけでなく、アプリケーションでもTime Machineのバックアップは有効で > す。例えば、『アドレスブック』では個人名を指定して、誤って消してしまった > アドレスデータを復帰できます。 ... > 私たちはこのTime MachineのAPIを公開しているので、どのアプリケーションも > Time Machine対応にすることが可能です。この点は開発者にとても評価されてい > ます。
>>415 そのへんが「気の効いたUI」だ。
毎日のpdumpfsの後でlatestのlink countが1の部分だけDBに追加していけば
検索・checkoutが可能。1日1回のバックアップの時点に戻れるだけでいいなら
これで十分。ZFSを実装するより遥かに現実的じゃないか。
後代(けっこ近いかも)に禍根を残すイタい機能だったりしてw
消したはずのデータが嫁にタイムマッシーン!
これは未来にも行けますか?
行けます。お使いのシステムに /dev/random があることを確認して使って下さい。
421 :
名無しさん@お腹いっぱい。 :2006/08/31(木) 13:12:12
すみません、ちょっとお伺いしたい事があるのですが、 1.家にある古いHDD、たとえば10GB1つ、30GB2つ、80GB2つ を 230GBのひとかたまりのボリュームとして使う 2.「ちょっと30GBを1個別PCで使おう」と思ったときに、 230GBを使い切っていなければ、何か操作をすれば 中のデータを保ったままボリュームを200GBに縮められ、30GBを1個はずせる 3.はずした30GBの用件が終わったら、後でボリュームに付け足して230GBに戻す みたいな事をしたいと思っているんですが、ZFSでRAID-Zならこれが出来ますか? 自分でもZFSに限らず色々調べたのですが、特に2.が出来る方法がわかりませんでした。 ZFSのRAID-Zがこれが出来そうに見えたのですが、実際どうなのでしょうか。
「色々調べた」としか書かないような質問者の方が感じ悪い。
面倒だから教えない。
2.は今後実装予定だが今は未実装ということだった気がする。
手段が目的になってる典型だな 230Gをパーティション分けした思えば良いじゃないか 従来のFS使って外したい30Gと10Gをswap用にしとけ これなら30G外しっぱなしでも構わないぞと亀+テスト
・「zfs shrink」で検索するとそれらしきことが書いてある。 ・LVMでは「なんかやばそうなディスクが使っているデータを他へ退 避させて外す」ってのはよくある。 というわけで、shrinkをサポートし、LVM的機能も持っているzfs なら当然できるんじゃない? 5分くらい調べれば見つかるよ、きっと。がんばれ。
Sun の中の人のコメント
[zfs-discuss] Re: Shrinking a zpool?
http://mail.opensolaris.org/pipermail/zfs-discuss/2006-April/002064.html A similar feature exists on VxVM to re-layout storage. It has a lot
of value in certain circumstances mostly revolving around migrating
from one storage solution to another.
However, that feature didn't arrive until years after the initial
product rollout. I think that having a stable product is more
important in the short term than having a product with every feature.
Once ZFS has been out (and on the system disk!) a year, the feature
should be in the product.
あんまり使わない機能だしな。
431 :
421 :2006/09/07(木) 12:55:22
みなさんありがとうございます。
>>422 ,424
すみませんでした。調べるためのキーワードを良くわかっていなかったようです。
>>427 目的が「こまいディスクを1かたまりにしたい」という事なので・・・
いわゆるファイル置き場にするつもりです。
>>428 shrink とか LVM と言ったキーワードで調べたら確かに良くわかりました。
ありがとうございました。
>>429 なるほど。ありがとうございました。
とりあえずVMwareでLVMを練習してみます。
皆様重ねてお礼申し上げます。ありがとうございました。
あのー、何とかして同一ディスク上の 別パーティション(not スライス)をzpoolに組み込めないのかな・・・
>>432 x86? not スライスってことは、fdisk パーティションのこと?
もしそうなら、できない。
その fdisk パーティションも Solaris fdisk パーティションとしてがっちんこ(再インストール)して、適当にスライス切ってとかいうのはダメなの?
違う話ならすまん。
>>433 トンクス
やっぱり再インストールが要りますか・・・・
別デバイスとして見せる方法とかないもんかと思って・・・・
デュアルブートしてたマシンをSolaris一本化しようと思ったら
再インストールするかパーティション諦めるしかないのか。
俺がやった方法。 Solaris パーティションと別のパーティションは UNIX パーティション (ID = 99) として確保。 そしてその UNIX パーティションに対して zpool create をかける。 zpool が何かエラーっぽいメッセージ出したような記憶があるけど、 実際にはちゃんと pool が作られてて使える。
>>435 そのUNIXパーティションは、どういうデバイスパスになるんですか?
c0d0pn (n = パーティション番号) もちろん、c0d0 の部分は環境によって違うかも。
ぬほっ format の fdisk だとSolarisのパーティション以外が見えない?! インストールするとき、CDドライブ借りてやったから今は別OS起動できないし・・・ 今回は、何かSolaris内からパーティションテーブルのIDいじる上手い手が 見つかるまでZFS諦めます。(´・ω・`)ショボーン
>>438 >Solarisのパーティション以外が見えない?!
「見えない」ってより「存在しない(作られてない)」ってことではなくて?
ないなら作ればいいかと。
>>435 ウホっ、それいけるんだ。
その手を使えば、USB接続なハードディスクにNTFSとかと共存できるかな?
zpool import/export がいけると更にいいな・・・
441 :
名無しさん@お腹いっぱい。 :2006/10/13(金) 22:55:52
ZFSの弱点も次のHWリリースで解消されそうだ。 ホットスペアとダブルパリティがアベイラブルになる。
つうかハードディスクの容量が伸びないんだけど。 エクサワロスまでいくんすか
ワロプの複数形。
おー、なんか最近 FreeBSD 方面すげーな。SoC も結構結果よかったみたいだし。
Apple んとこちょっとだけ Leopard のことが載ってるけど、ZFS はないね。
Macはワンパーティション主義だから、 boot出来ないと、入れる意味が薄れちゃうしね。 それからHFS+上じゃないと、PEFバイナリが不安定なのをなんとかしないと。 MS OfficeとかまだLaunchCFMApp経由でしょ?
OS XはOS X ServerのbootパーティションはHFS+のみにするなど、 UFSのサポートを半分止めてしまったりする状態だからなぁ… UFSですらこうなんだから、ZFSに至っては…
451 :
名無しさん@お腹いっぱい。 :2006/11/26(日) 22:50:10
ZFSのRAID-Z。ディスクたくさん並べると結構早いよ。シーケンシャルのみだけど。
452 :
名無しさん@お腹いっぱい。 :2006/11/27(月) 18:18:30
変なこと聞いているかもしれないけど、 ディスク2台でミラーリングじゃなくて RAID-Zすることって可能性ですか?
453 :
名無しさん@お腹いっぱい。 :2006/11/27(月) 21:07:13
マニュアルによると最小台数が2台となっているから動くんじゃないだろうか。
RAIDはあまりよく知らないんだけど、RAID-Zって 要はRAID-5類似の機能なんだよな…? 2台ですることに何かメリットはあるの?
2台の時はRAID-1相当とか。 2台の時の冗長性は気になるな・・・・
456 :
名無しさん@お腹いっぱい。 :2006/11/27(月) 23:02:32
NetAppもシステム領域を2台でRAID4って構成取っているところも 少なくないので、不思議な構成ではないのだと思う。 ZFSの場合、普通にミラーも出来るので、あえてRAID-Zにする 理由は無いけど。 結局はミラーと同じ動きになるのだと思うけど、プログラム的に どっちが早いのかだろうね。普通に考えるとミラーだが、意外と RAID-Zの方が速い、、、なんて事はないんだろうな。
RAID-Zってディスクの動的追加ってできるのでしたっけ? それができるのだったら2台でRAID-Zもおいしいかも…。
出来るよ。
459 :
名無しさん@お腹いっぱい。 :2006/11/27(月) 23:53:40
RAID-Zは非常に頭の良い実装で、Disk追加するとこんな感じ。 [3台構成] *** [4台構成(1台追加)] *** **** つまり、増設後に新たに書き込まれた分だけ4台でストライプされる。 Disk 1台こけた場合のミラー再同期やRAID-Zのリコンストラクト処理も 全てのブロックに対して行うのではなく、実際に使われているデータ ブロックのみが対象となる。 36GBのミラーを例にとる。SVMやVxVM、ハードRAIDでは36GBのフルコピー となる。ZFSだと、36GBの内、使用量が10GBだとしたら、10GBのコピー になる。ファイルシステムとボリュームマネージャが統合されると こうした事が可能になるわけ。
>>459 >つまり、増設後に新たに書き込まれた分だけ4台でストライプされる。
それって、容量目一杯使っているとこにディスク増設しても
容量が増えないってこと?
理解が悪くてスマソ。
>>457 RAID-Z自体にディスク追加はできないんじゃね?
zpoolのmanには
The existing device cannot be part of a raidz configuration.
って書いてあるようだが。
>>461 間違えた。ごめん。
×zpoolのmanには
○zpoolのmanのzpool attachには
463 :
名無しさん@お腹いっぱい。 :2006/11/28(火) 00:34:33
ZFSとNetAppでIsiron出番無し。 以上。
464 :
名無しさん@お腹いっぱい。 :2006/11/28(火) 01:18:32
465 :
名無しさん@お腹いっぱい。 :2006/11/28(火) 01:26:39
Isiron、ATAのみじゃん? FC無いの?
そういえば1diskからArrayに足していけるのってX-RAIDぐらいか?
468 :
名無しさん@お腹いっぱい。 :2006/12/01(金) 00:00:28
469 :
名無しさん@お腹いっぱい。 :2006/12/01(金) 02:12:44
じ ぶ ん で や れ
>>468 やってやるよ。
だがその前にSolaris落としてインストールしなくちゃならんので待っててくれ。
ついでに空き容量も無ければ、すぐに使えるマシンもない。
今使ってるマシンのうちどれを利用するか検討してみる。
俺がもうやっちゃった
473 :
名無しさん@お腹いっぱい。 :2006/12/01(金) 10:37:29
ベンチしてくれた人ありです。 しかし恐ろしいほどの速度が出ちゃいましたね。 いったい原因は何なんでしょう・・・。
ベンチソフトのバグだろ
ベンチソフトの作成元がNetAppというのがポイントじゃね?
敵のベンチマークソフトで良いスコアを出すぐらいの 目標はクリアしてしかるべきじゃね?
478 :
名無しさん@お腹いっぱい。 :2006/12/03(日) 22:33:37
zfsがHA化できればいいのだが
479 :
名無しさん@お腹いっぱい。 :2006/12/03(日) 23:22:08
11/06でSunClusterに対応すると聞いた。そうなればVCSも追随するのでは?
VCS使うなら、Vx〜3点セットも買うし。
481 :
名無しさん@お腹いっぱい。 :2006/12/04(月) 07:45:22
CFSオプション
484 :
名無しさん@お腹いっぱい。 :2006/12/04(月) 20:57:32
ZFS RAID-Zに1台だけDisk追加が可能か試してみた。 結果は×。RAID-Zの容量拡張は最低でも3台必要。 zpool create mypool raidz c1t0d0 c1t1d0 c1t2d0 zpool add mypool raidz c2t0d0 c2t1d0 c2t2d0
486 :
名無しさん@お腹いっぱい。 :2006/12/05(火) 19:48:54
ユーザ単位のクオータを考慮した場合、ZFSの流儀では1ユーザ1ファイルシステム なんだろうな。通常?のUNIXクオータも載せて欲しいな。 ユーザ単位に固定容量のファイルシステムを割り当てられるのは便利だけど。 10000人いたら10000個のファイルシステムがdf -hやzfs listで並んでしまう。 zpool create mypool raidz c1t0d0 c1t1d0 c1t2d0 zfs create mypool/home zfs create mypool/home/user1 zfs create mypool/home/user2 zfs set mountpoint=/export/home mypool/home zfs set quota=2g mypool/home/user1 zfs set quota=2g mypool/home/user2
487 :
名無しさん@お腹いっぱい。 :2006/12/06(水) 20:04:14
NetAppのFlexVolやTree Quotaは数に制限があったと思う。 その意味ではZFSのQuotaの方が優れているな。 スナップショットの管理とsend、recvの使い勝手についてはまだまだだけど。
バックアップ取らない運動のキーマンになりそうで素敵なRAIDですね BD-ROM 1TBとかないのかなぁ
489 :
名無しさん@お腹いっぱい。 :2006/12/06(水) 21:05:46
バックアップは普通に取れるよ? NFS V4のACL使わなければNetBackupでも行ける。 send使えば確実に取れるし。 sun1# zfs send pool/home@snapshot1 > /backup/home@snapshot1 ネットワーク上にもう1台、同容量のZFSファイルシステムを持つサーバを立てておけば、差分コピーによる バックアップも可能です。SunFireX4500なら24TBで1000万位。 まずは1回目のスナップショットを取ってフルコピー。 sun1# zfs send pool/home@snapshot1|ssh sun2 zfs recv pool/home@snapshot1 次の日にスナップショット取って差分コピー。 sun1# zfs send -i pool/home@snapshot1 pool/home@snapshot2|ssh sun2 zfs recv pool/home@snapshot2
>>489 24TB・・・バックアップ込みでもうちの需要の6倍はありますねw
保守意識の低い会社に居るんでよだれの出るサーバです
491 :
名無しさん@お腹いっぱい。 :2006/12/06(水) 23:06:13
ストレージやバックアップにお金出してくれない経営陣は少なくないよね。 ただ、最近、風潮が変わってきたかも。SOX法やらリスクマネジメントやらの キーワードが世間で話題になっており、ともすると、アナリストから会社の 体制について問い合わせが来たりする。で、遅ればせながら経営陣からIS部門 に「うちはどうなっている」と。NetAppが売れてきているのもそのせいかな? ZFSはNetAppを買えないサイトに、安く、同様の環境を作る事が出来る所が メリットだと思う。機能的にはまだまだ粗いので運用的な工夫は必要だけど。
うわー、ここまであからさまなNetAppの宣伝は見たことねえwwwwwww
493 :
名無しさん@お腹いっぱい。 :2006/12/07(木) 07:37:17
ZFSの宣伝では?
SunFireのファイルサーバの宣伝はいいけど、一般的な会社じゃオーバースペックだね
495 :
名無しさん@お腹いっぱい。 :2006/12/07(木) 22:23:46
>>494 PCのDiskまできっちりバックアップとろうと思ったら、既存のファイル
サーバー分と加えて、計10TB位はすぐに行かないか?
メールアーカイブとか、ややこしい話もあるしな。
496 :
名無しさん@お腹いっぱい。 :2006/12/07(木) 22:37:41
ZFS、Diskがたくさん無いと遊べないかと思うかもしれないけど。 ファイルでもPool作れるんで遊んでみましょう。 余っているパーティション使ってもいいし。 # mkdir /work # mkfile 200m /work/file1 # mkfile 200m /work/file2 # mkfile 200m /work/file3 # zpool create rzpool raidz /work/file1 /work/file2 /work/file3
>>493 NetApp業者乙
売ってもいないのに宣伝ってありうるのか?
>>496 とりあえず、この遊び方は基本だね。
パーティション用意したりしなくていいのは結構助かる。
499 :
名無しさん@お腹いっぱい。 :2006/12/08(金) 16:29:55
Solaris10 6/06以上のマシンを持っているやつはZFSで遊ぼう。 すぐさまmkfileしてzpoolだ!
GSP! GSP!
正式に搭載されてしばらく経つけど、不具合って一切聞こえてこないね。 ちょっとすごいんじゃない?
リリースが遅れて、Solaris(10)の商業的な価値を低下させたぐらいかな?
名前出てから実用になるまでをこんな短期間で達成したファイルシステムって 他にあるかよ? ちょっとすげーと思うけど。
504 :
名無しさん@お腹いっぱい。 :2006/12/09(土) 03:24:51
これだけ画期的なファイルシステムは他にはないよ。UFSやJFS、XFS EXT3、VxFSなんかとは次元が違う。
EXT4ってどうよ?
506 :
名無しさん@お腹いっぱい。 :2006/12/09(土) 03:53:37
RAID1+0ボリュームの作成、ファイルシステム作成、マウント設定、マウント作業 が一行だけで済むファイルシステムは他にはない。誰でも使える。 zpool create -m /zfs mirpool mirror c1t0d0 c1t1d0 mirror c1t2d0 c1t3d0
はやくOSXとLinuxで正式採用されないものか。
うさん臭いスレだな
Linux は... 誰に聞いても VFS がダメだっていうよ。VFS ダメだったら 何くっつけてもダメだわなw
RAIDとか簡単に作成できるのは分かったが 稼働中にHDD引っこ抜いてみたりとか がりがり書いてるときにいきなり電源切ってみましたとか そういうレポはないのか
512 :
名無しさん@お腹いっぱい。 :2006/12/10(日) 03:51:51
>>511 全然問題ないよ。ZFSの良い所の一つとして、データの再同期が
実際に使用されているデータブロックのみに対して行われる事です。
1GBしか使っていなければ、1GBのみの同期で済むので、再同期の時間が
短くて済みます。
ちなみに現Versionではホットスペアはサポートされていないので注意。
11/06でサポートです。RAID6相当のRAID-Z2も同様。
すごいらしいことは、なんとなくわかった。 実運用でZFS使ってる人いる?
514 :
名無しさん@お腹いっぱい。 :2006/12/10(日) 11:47:37
もうすぐ実運用
Solaris11からだろうな。
516 :
名無しさん@お腹いっぱい。 :2006/12/10(日) 19:40:57
11/6で流行るんじゃね? なんて言ったってRAID6(相当)
RAID6をソフトウェアで処理するのは、相当重いだろ。
518 :
名無しさん@お腹いっぱい。 :2006/12/10(日) 21:45:17
>>517 βで試験している限りでは性能はそれほど落ちない。
マルチコア、マルチCPUなら1コアまるっとパリティ演算だけやらせればXORチップより速い
>>518 ,519
性能より負荷を気にしているわけだがw
521 :
名無しさん@お腹いっぱい。 :2006/12/10(日) 21:54:18
CPU負荷なんて最近のCPUなら気にするほどでは。
こうもマルチコアが一般化してくると、多少のCPU負荷でも無問題という気になってくる。
ていうかむしろCPUを使うアプリケーションを求めているのだろうな
524 :
名無しさん@お腹いっぱい。 :2006/12/10(日) 22:14:25
ZFSはシーケンシャルread/writeはすごく速い。構成によってはハードRAIDよりも速い。 ハードウェアRAIDに劣るのはランダムwrite。ライトキャッシュが無いので これは仕方ないよね。
526 :
名無しさん@お腹いっぱい。 :2006/12/10(日) 23:20:54
今までのソフトウェアRAID5は書き込み性能があまりにも遅くて使い物に ならなかった。が、ZFSは書き込み性能も良い。ソフトウェアRAID5で はじめて使い物になるレベルのプロダクトである所がすごいでしょ。 金の無いサイトには朗報じゃないかと思うんだけど。 しかもスナップショットやクローンと言う便利機能が気軽に使える。 SolarisのUFSスナップショットなんかだと使用中に性能が落ちるん だけど、こちらはそんな事無いからね。コマンドも1秒位で返るし。
oracleなんかでrawデバイスつかえますか?
528 :
名無しさん@お腹いっぱい。 :2006/12/11(月) 00:53:47
ボリュームを作ればOK。でも、ファイルシステムでいいじゃん。ASM? zfs create -V 5gb tank/vol
>>526 >今までのソフトウェアRAID5は書き込み性能があまりにも遅くて使い物に
>ならなかった。
RAIDframeはだめですかそうですか。
超うさん臭いスレだな
531 :
名無しさん@お腹いっぱい。 :2006/12/11(月) 01:23:17
RAIDframeってRAID5でも速いの? SVMはVMは単体Diskの性能よりも はるかに遅くなるんだよ。
FreeBSD:geom の graid3 とか gvinum な RAID5 とか 遅いと言われれば遅いか? 充分実用レベルとは思うがね
533 :
名無しさん@お腹いっぱい。 :2006/12/11(月) 20:31:03
ZFSは数百MB/sec出るよ。
いやそうじゃなくて
535 :
名無しさん@お腹いっぱい。 :2006/12/11(月) 20:47:41
単体ディスクだと30MB/sec位か。ソフトウェアRAID5でそれ位出れば 十分実用的と言えるが。
GTOコピペを思いだすスレだな
並列に read/write を発行しても性能が出るような作りになってるのかな? まあ、random read/write の性能値から推測はできるんだろうけど、 どこまでちゃんと動くのか興味があるなあ。 並列アクセスするとダメダメになるのって、最近ありがちだし。
538 :
名無しさん@お腹いっぱい。 :2006/12/11(月) 23:19:16
>>537 ランダムは性能出ないよ。HW RAIDと違ってwrite cacheが無いので
539 :
名無しさん@お腹いっぱい。 :2006/12/11(月) 23:20:20
ファイルの生成と削除は速いんで、意外とメールスプールなんかも ありかもしれない。NetAppのpostmarkでも良い値を出していたような。
540 :
名無しさん@お腹いっぱい。 :2006/12/12(火) 21:05:17
11/06出たらしいぞ。みんなRAID-Z2使ってみよう
ババアはナチュラルに人種差別するからな。
542 :
名無しさん@お腹いっぱい。 :2006/12/13(水) 00:40:31
まずはこれだけ覚えろ。/mypoolと言うファイルシステムがすぐに作成される。 RAID1 zpool create mypool mirror c1t0d0 c1t1d0 RAID1+0 zpool create mypool mirror c1t0d0 c1t1d0 mirror c1t2d0 c1t3d0 RAID-Z zpool create mypool raidz c1t0d0 c1t1d0 c1t2d0 spare c1t3d0 RAID-Z2 zpool create mypool raidz2 c1t0d0 c1t1d0 c1t2d0 spare c1t3d0
RAIDZ2って、RAIDZと何が違うの?
RAID-Z2 zpool create mypool raidz2 c1t0d0 c1t1d0 spare c1t2d0 c1t3d0 こうじゃねえの?
546 :
名無しさん@お腹いっぱい。 :2006/12/14(木) 01:01:31
>>545 2台でRAID6組んでも意味無いじゃん。
と言いながら542は3台で組んでしまっている。意味無いね。
最低でも5台以上ないとな。3D+2P
4台ならRAID1+0の方がきれいだ。
>>547 OS XはUFSサポートの悪夢があるから、どうにも信用できないんだよなぁ
へぇ〜。結構早いサポートだねぇ。もう安定稼働してるってことなんだろうなぁ。
549 のせいで信用が大幅ダウン
ZFSはUFSと違って、Mac独自のリソースフォークとか、 ファイルタイプ/クリエーターとかもFS内に格納できるんじゃないかなー。 となると、10.6ぐらいでZFSを標準フォーマットとして採用してくることもあり得る。 それにSunとAppleは仲が良い。
よっしゃ、じゃその勢いで Quartz と CoreAudio を Solaris に積んでくれたのむ。
10.5 からは、カーネルは Mach/Solaris、Unix コマンド群は FreeBSD/Solaris/GNU から 好きな組み合わせを選べます。
えーっと、そいじゃ カーネルはSolaris、コマンド群はSolarisでいっちょ頼むわ ・・・ ・・・・・・ (ノ ゚Д゚)ノ ==== ┻━━┻ ( ・ω・)いや? SolarisにあのGUIが付くと考えればオイシイか・・・
556 :
名無しさん@お腹いっぱい。 :2006/12/21(木) 00:36:15
docs.sun.com。いつの間にか11/06の部分も翻訳されている。 さぁ、RAID-Z2を使ってみようかな
558 :
名無しさん@お腹いっぱい。 :2006/12/21(木) 01:04:27
ZFSのsnapshotコマンドで -r と言う再帰処理のオプションがついた。 全然意味無いじゃんと思っていたら、これって全てのスナップショットの タイムスタンプが同じになるんだね。それは確かに便利。 TimeFinderなんかでも複数のBCV Volを同一のタイミングで切り離したり 同期させたりする事が出来るけど、同じ様な要件に対応できそうね。
560 :
名無しさん@お腹いっぱい。 :2006/12/24(日) 15:46:04
ZFSのchecksumって64bitだと思っていたんだけど、もしかして256bitがデフォルト?
散々ガイシュツな話題だがraidzにディスクが追加できたらなぁ あとはshrinkか 個人で使ってる俺にはあると嬉しい機能なんだが優先度はかなり低そうだよね
562 :
名無しさん@お腹いっぱい。 :2007/01/05(金) 21:00:23
バックアップ機能を強化して欲しい。NetAppで言う所のSnapVaultやSnapMirror機能
別のRAID/ZFS領域にスナップショットのフルバックアップと スナップショット間の増分バックアップを保存するのとどう違うの?
NetAppは知らんけど、 一般的には、スナップショットとMirrorは意味が全く違うものだし。
うん、そうだよね。
LinuxのZFSが書き込みまでフルサポートしたな。パフォーマンスは悪そうだが。
環境によってはRAID-Z のパリティやチェックサムの計算がボトル ネックになるように思うのですが、(Solaris x86の) ZFS ではこれ らの計算にマルチコア(マルチCPU)を使うことができますか? せめて zpool を複数作った場合は別のスレッドになってくれると うれしいなあと思うのですが、試す環境がなくて…
>>566 これかな。
使えるようになるまで、まだしばらくかかりそうね。
ttp://www.wizy.org/wiki/ZFS_on_FUSE ttp://zfs-on-fuse.blogspot.com/ First alpha of ZFS on FUSE with write support
Ladies (?) and gentlemen, the first preview of ZFS on FUSE/Linux
with full write support is finally here!
You can consider it my (late) Christmas gift for the Linux community ;)
Don't forget this is an alpha-quality release. Testing has been very limited.
Performance sucks right now, but should improve before 0.4.0 final,
when a multi-threaded event loop and kernel caching support are working
(both of these should be easy to implement, FUSE provides the kernel caching).
FUSEかよ
なんかすべて台無しな予感
FUSE ってなに?
おままごと。
>>571 ググレカス
google://fuse linux
すっぱいぶどう
カスぐぐった Filesystem in USErspace ってことか
電流増えるとプッチンて切れるあのフューズのことか? さもありなん。
ヒューズが切れるのに音なんかしないぜ。 ブレーカかなんかと勘違いしてるんじゃないの?
>>577 10km先で針の落ちる音が聞こえる耳なら聞こえるはずだ。
鼓膜破けそうだけどな。
プッチンを擬声語と捉えるか擬態語と捉えるかが問題であろう。
FUSEじゃまともなシロモノになるわけがないと思うのは偏見なんだろうか。
Google の SoC だったんね。
Proposal 読んだ感じだと、interoperability のことを第一に考えて
FUSE にしたっぽい。ガチで利用しようという気はなさげ。
MacOSX が ZFS 乗せてくれば、利用価値はそれなりにありそうだけど
(マルチブートマシンでOSX領域読みたいとか)。
FUSE for FreeBSD があるから FreeBSD でもすぐに動くようになるよ!
とか言われても、ハァって感じだがw
ttp://www.wizy.org/wiki/ZFS_on_FUSE/ApplicationProposal
fs周りではLinuxどころではなくボロクソに言われていたOS Xが、 一躍トップクラスに躍り出る可能性があるのか。
仕様が良くても実装がなあ。しょせんBSDだからなあ。
カーネルはともかく、ZFSの部分はパクリまくったんじゃないの? CDDLはBSDとは矛盾しないんでしょ?
>>582 えっと、VFS がダメだからどんなファイルシステムのせてもダメと言われてるのは
Linux ですが。
Solarisに遥かに劣るBSDカーネルの上にZFS乗っけても、 信頼性や安定性は未知の領域じゃまいか。 駄目とか良いとかじゃなくて、出てみないと分からん。
犬糞はどっちにしろダメ確定。
>586 釣れますか?
>>585 OS Xのまったく使い物にならないUFSの腐れポートとか、
いまだにHFS+を使い続けていることとか知らないヤシ?
583=586かな
>>589 MacOSXのUFSはCarbon File Managerの機能が
一部欠落してるのがMacで使うには痛過ぎるだけじゃね?
同種サービスに対するOSごとの稼働率を比較した資料とかあるの? そんなにBSDを否定するんだから、たぶんあるんだと思うので見てみたい
香具師は真面目に質問するとたぶん逃げるよ
冬休み終わったからもう来ないだろケケケケ
>>591 HFS+比だけど、速度もものすごく遅いよ。
あと、OS X serverではブートパーティションにUFSを指定できなくなっているし、
ファイルサーバのファイル置き場としてもUFSは使っちゃいけないとすら
言われている。アップル的にはもはやなかったことにしたいシロモノじゃないかな。
アップルは新しもの好きだから、もうFSに関しては ZFSしか見てないだろうな。 UFSはBSD由来の名残りってだけじゃないか?
case insensitiveなHFS+前提で動いてるAPIとかアプリが多かったから UFSにはトラブル多かったね。 後方互換性への配慮を最小限にしてレガシーをばっさばっさ切るのは Appleみたいなところの役割だから、UFSをメンテナンスモードにして ZFSに飛びつくなら、それはそれでよいことだ。
UFSって使われてないから切り捨てても あんまし問題ないんじゃない? というか、MacOSXのスレで話題に上るだろうがで、額寄せ合って 侃々諤々言い合った結果、その議論の参加者に結局UFSユーザは いなかった・・・そんなオチが見える・・・ UFS→ZFSには問題あんまりないだろうし。
>>597 そんなんだったら、ZFSも普及しないなw
USB採用とかフロッピー廃止とか、まー結果的にトレンドの先鞭つけたと 言えなくもないものは、ハードウェア系にはそこそこある。USBの場合は 市場も開拓したし。 とはいえFSの場合、そーゆー効果はあんましないだろな。
あの頃はまったく流行るとは思わなかったUSBメモリが まさかフロッピー、MO、ZIPと並み居る規格を葬りさるとは
602 :
名無しさん@お腹いっぱい。 :2007/01/10(水) 00:45:54
MOとZIPはどっちにしろ普及しなかっただろ
NeXT 流れのいるここらでは MO は禁句ww
zipもっとった。しかも100M。
MOもZIPもそれなりに普及したかな
Zip出た時わざわざ香港に買いにいったがな
Zip持ってたなぁ。写真データを入れてた。 ドライブにメディア差し込んだ時の駆動音が好きだった。
俺もLS-120とかPDとか色々と消えたメディアを持っているな
>604 むしろ zip は 100M 以外知らないけどあったの?
ttp://www.iomega.com/jp/zip/products/750usb.html 750MB のドライブは 100MB のメディアは読めるだけで書けないらしい。
買わんわなぁそれだとw
ちなみにオレは 128MB の SCSI MO ドライブを 13 万円だかで買った覚えがあるw
3.5inch 勢もがんばって欲しいがね。12cm は胸ポケットに入らん。
ところで ZFS って DVD+-R, BD-R 等のジュークボックスでどんどんメディア追加とか
いう使い方できるんだろうか?(とむりやり ZFS に戻してみるw)
3つの raidz のストライプのzpool で、 ちょっと無茶をしていたら(後述)、1つのraidz のメンバのディス クが別の raidz のスペアとして同期を初めちゃって一見うまいこ と動くようになってしまった。でも明かにおかしいよなあ。 status の CKSUM は増えてるし。 どういう無茶をしたかというと 1) zpool replace 中に、replace元デバイスを使えなくした(iscsi だっ たので iscsi サーバのサービスを止めた) 2) 1) の後に zpool コマンドは固まるようになったので reboot 3) halt まで進まずに固まったので、電源でリセット そしたら、1) の replace元デバイスは zpool からは見えなくなっ て、前述のような状況に。
むかし、MSXDOSとかであった仮想ドライブみたいに使えたら面白いなぁ ファイルテーブルだけ、固定ディスクに入れて データはリムーバブルメディア、 で、必要になったら「ドライブAにディスク358を入れてください」とか。
DVD-RAMのおかげで不要になった
DVD-RAM って、あの名前だけ DVD で実体は松下 PD の後継だったやつか? あんなもん死んでも買わんと思ったがなw 5inch だしだせー
いまだに615みたいなのが湧いて出てくるのか
別にアイデアってほどのもんじゃねーだろ。
FDD のいっこしかついてない PC で MS-DOS でさえも B: って打ったら
「B ドライブにフロッピ入れろ」って出るぜ。
>>611 の最後ももちろん Plan9 の WORM ストレージ念頭。
「zfs の今後の計画リスト」みたいなのはどこかに公開されてるの? 具体的には zpool の shrink (というか Linux の vgreduce みたいなもの) が予定されているのかを知りたいんだけど。
どんなに馬鹿にされようがFreeBSDでzfsを完全実装ってのはやり遂げて欲しい 社内サーバはActiveDirectoryとか使わないものに関してはひとつのOSに纏めたい
MS(X)-DOSの仮想ドライブとは違うだろう。 あれは個別のメディアを単一の物理ドライブで扱うためのもので、 論理的に1つであるはずのボリュームを 複数の物理メディア/物理ドライブに分割するのとは根本的に違う。
FreeBSD の FreeBSD Status Report Fourth Quarter 2006 によれば * ACL以外の file system としての機能は一通り実装したよ * stress test も全部 OK * メモリリーク(?)が問題として残っているけど、 SUNの中の人も同じことに悩んでるって聞いた ACLについては POSIX ACL より NTFS/NFSv4-type ACLs に するかどうか判断しないといけないねー、だそうで。
>>622 stress testに関しては、かなりの高負荷らしいがな。
Solaris も好きだけど、FreeBSD やるね。 普段会社で使ってるのはみな FreeBSD。ZFS 楽しみ。
zfs set に -r オプションがないのはどうしてだろう。
627 :
名無しさん@お腹いっぱい。 :2007/01/25(木) 23:41:50
>>626 つーか、sendに -r をつけて欲しい。
home directoryをZFSにした場合、quota使うには、1user 1zfsである必要がある。
となると、ユーザ数分だけsend/recvするのかと!
>>627 たしかにちょっと欲しいな。
せっかく snapshot には -r できたんだし。
プンソなんだからいつでもご自由に DIY!
MacOS X Leopard は 3 月下旬とかいう話が出てるな。ZFS 2 つめの商用リリース。 FreeBSD 方面具合はどうなんだ?
あれ,leopardに乗るの? 将来的に乗せたいってだけじゃなかったのか.
きっとベースが Solaris に変わってるに違いないww
へ?んなことライセンス的にできるの? よく知らんが、LeopardにはDTraceも実装されるらしいし、、ひょっとしたら
なぜライセンスが気にかかるのかよくわからんが、冗談だよw
SolarisコンテナもMac OS Xに乗るかな。
636 :
名無しさん@お腹いっぱい。 :2007/02/12(月) 23:47:55
zfs自体のライセンスはどうなってんの?
どうもなにも... OpenSolaris のライセンスだろ。どっか他から持ってきたもんなのか? たとえ Sun の専有技術だとしても、金払ってライセンスしてもらうまでだろ? 何の心配してるのかぜんぜんわかんないんだけど..
まあもちつけ。
「どうなってんの?」という聞き方はそのものズバリと聞きたいことが
あるんだけど何らかの心理的障壁によりそれを表現していない聞き方だ。
しかも、本人に自覚が少ない。
>>636 実りのある質問のためには、自分の求めるものを
より具体的に示した方がよいですよ。
ライセンスについて心配事が曖昧であるならそれも含めて質問を。
ZFSの実装コードのライセンスと、ZFSの仕様自体の
ライセンスの心配をしているのだろうか?
SUNは、これまでの例に従えば、基本的に仕様はオープンにしてきているはず。
ZFSを誰かが再実装する分には、大丈夫そうな気がするな。
今も多くのプロジェクトが走っているみたいだし。
SUNの書いた、ZFSのコードを利用するとなると
利用はSolarisのコードライセンスに従うんではないかな?
その内容については詳しくない。誰かよろしく。
>>638 Solarisのライセンスに従ってどうすんだよorz
opensolaris.orgが公開しているソースはCDDLだから、これを使えばおk。
640 :
名無しさん@お腹いっぱい。 :2007/02/14(水) 01:52:00
公開できるとか、なんの話なんだよw? Apple が ZFS のせるって言ってんだから、有料なら有料で金払ってるだろうし、 無料ならそのまま組込むだろうし、なんにひっかかってんのかぜんぜんわからん。 ソース公開要件のあるライセンスだと Darwin には取り込めないはず、とかの意味?
CDDLを守れば良いと使えると思うんだが、 CDDLって公開要件あるのか? もしそうでもZFS以外にライセンス感染する glueのコードだけ出せばいいんじゃね?
643 :
名無しさん@お腹いっぱい。 :2007/02/14(水) 02:14:10
仕様はフリーで 実装されたコードはCDDLに従うってことでおk? 今はオプソ界と仲良くやってるけど悪意を持った場合に特許問題とか大丈夫? いや、zfs実際すげえ面白そうだし使い始めたら依存しそうな気がして怖いw
644 :
名無しさん@お腹いっぱい。 :2007/02/14(水) 02:15:38
実装されたコード < OpenSolarisの話ね。分かると思うけど。
>>642 著作権者はどのようなライセンスを設定することもできるわけで、
一般の人にはCDDLを、特別な契約を結んだAppleには別ライセンスを
それぞれ適用するということもできなくはない。
こういうデュアルライセンスはCDDLをGPLに置き換えても成立しうる。
>>643 > 今はオプソ界と仲良くやってるけど悪意を持った場合に特許問題とか大丈夫?
あんた今の MacOS X は Apple がすべてイチから書き上げたとでも思ってるのかww?
特許と著作権を勘違いしないように。 特許問題については、イチから書いたどうかという点は特別な場合を除き意味がない。
>>645 一般的にはそうだが、Appleが別のライセンスで契約したかは
今後ZFSを含んだ Mac OS X がソース非公開で出荷された時に初めて分かる
と思うので現時点では不明だな。
一応CDDLのFAQとかは読んでみた。
ZFSのコードと改変部分を公開すれば製品に使ってもよいみたいだな。
>>643 どんなことも疑いだしたらきりがない。
こういう場合は、ライセンサーのこれまでの実績で判断するしかない。
nfs,staroffice,solaris,javaとオープンにしてきたSunを信用するかしないか、だ。
zfsがもし、MSの発表したものだったら、いくらオープンといわれても
オレは眉をべとべとにして見てしまうだろう
そういう類の話だな
650 :
名無しさん@お腹いっぱい。 :2007/02/14(水) 17:59:20
>>646 逆。zfsをフリーなOSに持って行った場合の後のことが少し引っかかっただけ。
まあスレの流れ的にLeopardと思ったんだろうけどAppleは単に別のライセンスを受ければすむ話。
>>649 > nfs,staroffice,solaris,javaとオープンにしてきたSunを信用するかしないか、だ。
Sun としてはzfsの優位性が証明できれば市場を広げられるといったとこか。
意図がいまいち掴めなくて怖いのよ。
ライセンス議論ごっこいーかげんにしてほしいよトホホすぎる。
特許問題については「イチから書いたどうかという点はまったく意味がない」 と思うが、どうか?
>>648 Darwinはオープンソースだから、ライセンスは問題ないってことか。
AppleはFreeBSDの主な開発者だから、FreeBSD版ZFSを使うこともあり得るかも。
>AppleはFreeBSDの主な開発者だから、FreeBSD版ZFSを使うこともあり得るかも。??どこの宇宙の方ですか?
655 :
名無しさん@お腹いっぱい。 :2007/02/14(水) 21:33:14
Apple信者は怖いなw
いつの間にかPortする側とされる側が逆転している…! げに恐ろしきものは信者かな。
>>653 FreeBSD版って いつから、ZFSがオープンになってんねん
おまいら全員 OpenSolaris のソース全行音読してこい。
まぁでもfreebsdの故みゅみればmac関係者がねぇ
おまえら釣れすぎだ
appleとopensourceの悲惨な歴史を見れば疑いたくもなるだろ。 正に盗人だからな。
>>659 お仕事ご苦労様です。
520 名前: 名称未設定 Mail: 投稿日: 2007/02/13(火) 22:53:27 ID: 2qfptv3r0
http://pc9.2ch.net/test/read.cgi/mac/1171230282/64-66 によると
LVM,セキュアOS,Xenはマカにとって目糞鼻糞な技術だそうですね.
#セキュアOSやXenはともかく,LVMのスナップショットバックアップ(これはZFSでも可能)や
#ディスクの動的追加は一般ユーザにもうれしい機能だと思うんだけどなあ
521 名前: 名称未設定 Mail: sage 投稿日: 2007/02/13(火) 22:57:48 ID: xLobrGef0
何かよく知らんが、慣用句の使い方が間違っていることの方が気になる。
>>663 盗んでも知らん顔してる MS の方がマシかもしれない
少なくともコミュニティは掻き回さない
>>665 コミュニティかき回したってどの話のことだ?
最近ではkhtmlとかFreeBSDとかじゃないか?
実際のとこ、FreeBSDの開発にどれくらいAppleが参加してるもんなの? このスレにはFreeBSD開発者は少ない?
Appleは前科が多すぎるからなぁ
>>669 > 実際のとこ、FreeBSDの開発にどれくらいAppleが参加してるもんなの?
> このスレにはFreeBSD開発者は少ない?
数は知らないけど、Michael Smithは前はFreeBSDの主力開発者のひとりで
今AppleでDarwinのカーネル書いてる
IBM なぜFreeBSDか - Japan
http://www-06.ibm.com/jp/developerworks/opensource/050819/j_os-freebsd.shtml OpenBSD/macppcはNetBSDコードに基づきますが、完全に機能する
ポートにするために、OpenBSDプロジェクトにより依存しています。
明白な理由から、FreeBSDプロジェクトはそっけない態度を取り続け、
IntelとAMDのサポートに専念していましたが、Mac OS XのOSS
カーネルであるDarwinがリリースされて以来、FreeBSDコードが
Macintoshアーキテクチャーで動くようになりました。このことは、
AppleがIntelサポートを発表した今日では、あまり関係がないように
思えるかもしれません。しかし、FreeBSDとDarwinの開発には重なり
合う部分がかなりあり、かなり多くのFreeBSD開発者がApple社員です。
PowerPC 依存、Macintosh のアーキ依存部分はかなりが NetBSD 由来のはず。 MacOS X の最初の頃の話だけど。 FreeBSD と NetBSD の開発メンバーで Apple へ行ったのはたくさんいる。
Zにしたらもう次がないのでいい名前じゃない。
>>675 んじゃZZや、V、G、W、Xなどなど…。と思ったら、vfs、gfs、xfsは既にあるなぁ。
wfsだとWindows FSっぽい。
ってことで、∀fsなんてどうよ。
>>676 その次はfsSEED(fs種)->fsSEED Destiny(fs種死)か。
FS91 とか
FFS(Fast File System)→FFFS(Fat Fast File System) の前例からして ZZFS だなw
次は、Σfsでお願いします
681 :
名無しさん@お腹いっぱい。 :2007/02/15(木) 20:12:54
Appleは、gccにもフルタイムのコミッタを出してるな。 C++のプレコンパイルヘッダ周りとかを担当している。 他にもmDNSResponder(howl)とか、Linux/*BSDに還元されてる。
PPC時代に自前のコンパイラを持ってないからだろ。
ま、それはNeXTからずっとgccだから
684 :
名無しさん@お腹いっぱい。 :2007/02/16(金) 02:45:50
技術の話しようぜ
自前のコンパイラ持ってないところは辛いね
raidzやmirrorのメンバのディスクをreplaceしたいんだけど、 replace するためには現在と同量(あるいはそれより大きい) ディスクを用意するために、今の正確なサイズを知るにはどうした らいいんでしょう?
format
>>687 ども。prtvtoc ってのでもいいことを知りました。
なんか難しく考えすぎてた。
689 :
名無しさん@お腹いっぱい。 :2007/02/19(月) 23:30:48
そろそろ誰か本稼働サーバで使ってる人いないかな? トラブル報告をほとんど聞かないけど、もうSolaris版は安定してる?
>>689 出始めにしては良いほうだけどZFSは本稼動させるほどには安定してない。
結構固まるよ。
むしろその上の >John Baldwin: 私個人としては、一方のOSからもう一方へ何もポーティ >ングする計画はありません。もっとも、OS X Tigerのlaunchdを、 >FreeBSDのinitとinetdへの交換として移植するとおもしろいなあと思っ >ています。 これにびっくりした
launchd は面白いよ。init, inetd, xinetd, cronなど起動に関する こと全般を一つの設定に統合できるのは合理的だしスマート。 始めは戸惑うけどね。
Solaris+ZFSですげえ幸せになった奴とかいないの?
Linux + LVM + ソフトウェアRAID + ext3で不幸になったヤシなら山のようにおるな
俺すげー幸せになった。安いハードウェアRAIDをCore2DuoのRAIDZに置き換えた。 速いし、チェックサムで安心だし、スナップショット1時間起きに取ってるので 間違って rm しても安心だし。かなり幸せ。
> スナップショット1時間起き ぐあ、そんな使い方もあるのか。目から鱗だ。
NetApp使いなら普通に考えるだろ
700 :
名無しさん@お腹いっぱい。 :2007/02/21(水) 01:20:31
つーか、ZFSはNetAppと違って255世代なんてせこい制限になっていないからな。 1分置きにとっても大丈夫だよ。 ついでに、sshやrshとsend/recvを組み合わせれば、リモートレプリケーション 的な事も出来る。
Solaris+ZFSに移行したいけど、今のファイルサーバ(Linux)の データを一旦退避するだけの空きディスクがないぜ。
>>700 1分おきはすげーな。スナップショットを取る処理の負荷はどうなんだろ。
思いついて実行してから3日後には反省しきりだろ
1分置きはともかく1時間置きにsnapshotとって運用しても大丈夫なのか雷電
ああ、今のこところ問題ないぜ1
俺の経験だと destroy の時にシステムがハングすることが何度かあった。 スナップショットたくさん作るのはいいんだけど、その後 destroy するのが恐い。
>705 焦って口が回ってないぞ
FreeBSDのzfs移植者も「まだメモリリークがあるけどそれはSolarisも一緒でSunが調査中」みたいな事を言っていたような気が。 一時間置きにsnapshotとれるなら楽しいが、やはりそこまでやるのはまだ時期早尚か? というかsnapshotさえ取らなければ大丈夫なのか?
がんがんsnapshot取ってだめになるならそれをアピールすればおk
どこにアピールするんだ。 というかzfsの安定性向上に合力するほどの余裕がほしいな。 霞食って生きていく方法はないだろうか。
>>710 プンソラのzfs-discussでアッピール頼む。
ZFSに移行しようか悩む俺を勇気づける心強いお言葉の例:
http://mail.opensolaris.org/pipermail/zfs-discuss/2007-January/025303.html > ZFS is new, that's right. There're some problems, mostly related to
> performance and hot spare support (when doing raid in ZFS). Other that
> that you should be ok. Quite a lot of people are using ZFS in a
> production. I myself have ZFS in a production for years and right now
> with well over 100TB of data on it using different storage arrays and
> I'm still migrating more and more data. Never lost any data on ZFS, at
> least I don't know about it :)))))
しかしNFSのパフォーマンスで問題報告が散見されるのも事実。
悩むよ。
zfsとは関係ないが、改行のない<pre>〜</pre>は始末に困るな。
>>705 スナップショットの食う容量と、パフォーマンスへの影響を知りたいです
毎日ベンチ取るような設定とかできないかな?
714 :
名無しさん@お腹いっぱい。 :2007/02/21(水) 22:35:14
何かの展示会で日鉄エレックがデモしていたよ。1分おきのSnapshot。 彼らはSolaris10とZFSをベースにした自社開発のNASを展示していて、展示会の 期間中スナップショットを取りつづけていた。
>>713 んなもんやってみりゃいいじゃん。cron とシェルスクリプト駆使すりゃプーだろ。
なるほど!
わざわざ DTrace 使うようなもんかよw
あまり知られていない事実ワロタ。 誰も知らんつーのw >あまり知られていない事実: >カートが見当たらなかった為、データの入ったSun Fire X4500データサーバを >キャンパスの向こう側まで手で運んだことがある。
前の話をぶりかえすようですまんが、スナップショットを頻繁に取 るのは今のところ問題発生してないな。 ただ、zfs send | zfs recv と組み合わせようとすると、1回あた り結構時間かかるから、あまり短くはできなさそう。 たとえば、俺のホーム(700GBくらい)では .bash_history くらいし か変更がなくても一回に数分かかる。
> ただ、zfs send | zfs recv と組み合わせようとすると、1回あた > り結構時間かかるから、あまり短くはできなさそう。 それは ZFS の問題か? 関係ないよな?
関係なくないだろ。
ホーム700GBってデカすぎね? って動画なら普通か。
>>722 なかなか興味深い話題だとおもう
>>725 でかいことにケチをつけても始まらないかもね。
727 :
722 :2007/03/02(金) 21:33:28
うちの研究室では 700GB ってかなり控え目な方なんだけど。 学生より少ないし。 ちなみに音声系の研究室です。
>>725 HDDレコーダなんて1GBあっても全然足りないといわれているわけだしね。
そういえば、最近のHDDレコーダって中身がLinuxなのが多くなっているようだけど、
PCどころではなく突然の電源断が多いから、この手のデジタル家電にこそZFSは
向いているのかもしれない。
まあ、組み込みWindowsでNTFSにしているところも多いだろうけど。
うげ、1GBじゃなくて1TB…
>>728 組み込みSolarisはちょっと見てみたいな。
>>728 Windows系のHDDレコーダーって何処があるんだっけ?
Panaと芝とNECはLinuxだよね。
ふと、新しいiMacに、フラッシュ搭載か、というネタを聞いてるとき思ったんだけど Leopardって、ZFS載るじゃないですか、で、iMacにSSDが載るとしても まあ、供給事情からいって、32GBくらいだと思うんですよ とすると、それだけだと今までのiMacよりも容量が少なくなっちゃう。 どうするか? もしかすると、HDDとSSDを両方乗せてくるかも?! とここまでが妄想で。 ZFSでHDDとSSDという速度差があるようなメディアを混在してプールを作ったとき そのパフォーマンスはどうなるのか気になったのでこのスレに来てみた。 誰か、こういうの試せる環境にある人います?
NeXT は最初 5inch MO オンリーだったけどあまりに遅くて不評だったので マイナーチェンジしてスワップ専用の 40MB SCSI HDD 併設になったよ。 まあそういうことするのは平気だね、Jobs 氏は。
それなんてHybrid HDD
>>735 言うなればソフトウェアハイブリッドだな。
>>737 FUSEだけどな…
マイクロカーネルOSならともかく、モノリシックOSの代表のLinuxがFUSEみたいなこと
やっても、あんまり嬉しくない。
FUSE じゃないと実現できない、ってとこが Linux のクソさ加減を表してるなw
これは酷いレスだな おまいが近所に住んでない事を祈るよ
うまい事くっ付ければFUSE上のZFSを/homeでマウントできるのかな?
FUSEである程度力を発揮すればカーネル標準に取り込むような流れも出ると思うぞ
カーネル内実装に移行するときにコードをある程度再利用できるなら、 まずはFUSE上に実装してみるってのも手ではあると思う。 実際のところどうなのかは知らないけど。
Solaris で、VFS との関係はどうなってるの? Linux のカーネルへ持って行くのに VFS 作り直しだととりあえず近い将来ってのは絶望的だろ。
はあ?
なんのためのVFSだと思ってるんだw
Linux の VFS はガタガタだよ? おわかり?
Various Filesystem Switcher
>>747 「Linux VFS だめだめ」って話はしばしば聞くけど、奥なんとかの
プロパガンダ以上に議論が進むの見たことない。
仮に VFS ガタガタが真実だとすれば、それはもうほとんどOSとし
てガタガタと言うことになる。
実際ガタガタだろ。あんだけマンパワーかけて未だに安定したもんにならない。 もう何年も堂々巡り状態じゃん。
もうLinuxの話は禁止。
奥なんとか、ってなに?
実際OSとしてガタガタなのなら変にLinuxなんか使わないで他 のOS使えばいいじゃない。 まして、ZFSの移植なんて考えない方が良いのでは?
うむ、まあ、正論だな。オレは使ってないw
OpenSolaris始まったな
おれも巡り合わせが悪くて使わなくなったな。
じゃあ、カーネル内実装にするときには再利用できないわけね。 ダメじゃん。 そもそも、性能も必要なfsの実装にFUSEなんて使っちゃいけないでしょ。
これからは、FUSEが主役になる!!! マイクロカーネルみたいなモノですよ!!!
>>760 カーネル組み込みより単純に実装できる割には
性能低下が少なめ、とはきいた記憶があるな。
スクリプト言語みたいなもんか。
うーん、ファイルシステムをカーネル外で実装して動かしてからカーネル内に移すってのは、 太古の昔からやられてたごくふつーの手順だと思うけど。4BSD の FFS もそうだし。 それの手順というか、整理しただけでしょ?
763 :
名無しさん@お腹いっぱい。 :2007/04/05(木) 22:31:52
SunFire X4500のいぱーいのディスクで大きな1ファイルシステムを作ってみた。 10数TBだが、ふつーに動くな。社内のワークエリアとして開放。しばらく様子見。
764 :
名無しさん@お腹いっぱい。 :2007/04/06(金) 22:52:38
7.x-RELEASEでは常用になるという事で宜しいか?
766 :
名無しさん@お腹いっぱい。 :2007/04/06(金) 23:36:25
ZFS。移植されるの早かったな。もう完成か。
カーネルメモリ食いまくりのリッチソリューションって 状態は改善されたのか?
> ZFS is available in the HEAD branch and will be > available in FreeBSD 7.0-RELEASE as an experimental feature. だろ? 常用桶はまだ先の話ジャマイカ?
8になるころは安定するかなぁ。 とはいえ、7はSMPの性能向上といいXen対応といい、目玉の機能が多そうだ。
その代わり安定性が犠牲になります。
771 :
名無しさん@お腹いっぱい。 :2007/04/07(土) 04:09:45
>769 SMP 本格対応ってのは 5 の時も 6 の時も 当初は目玉だったはずなのだ
>>772 遅れに遅れてはきたが、それでもこないだ実装終わった
ってんだから問題あるまい。
GIANT Lock が消えたニュースは驚いたけどな
SMPは7でとりあえず完全対応ってことにしたいんじゃね?
でもとりあえずZFSで遊ぼうっと。もう一台ちょっと枯れたマシン用意するか…
>>774 おもわずがんばったなと言いかけたぜ。
Solarisもbootはまだサポートしてないね
bootはもうちょっと先だねぇ
>>772 それを言うと Linux も 2.0, 2.2, 2.4, 2.6 全て SMP 改善のために大幅に書き直されたはず。
いまだウンコ。
さらに、i486, Pentium, PenPro, PenII, PenIII, Netburst すべて SMP が改善されるはずだった。
バス飽和しまくり。論外。
まともなのって Solaris と IRIX と AIX くらいだろ。昔だと DG-UX とかよかったらしいが。
OSとハードウェアアーキテクチャいっしょくたにして語るのって頭悪い。 言いたいことはわからないでもないけどね。
この場合いっしょくたで十分。SMP は一朝一夕では達成できない。 腐った指針では何年経ってもできない。
Linux=x86 Solaris=SPARC AIX=POWER 分けて考える必要なし。
783 :
名無しさん@お腹いっぱい。 :2007/04/08(日) 01:06:30
SolarisはX64でもきれいに動くじゃん。SMP
16コアとか動かしてみたか?
動いてるが。
マルチプロセッサで性能を出せるコンピュータアーキテクチャだからこそ、 その上のOSで工夫しがいがあるわけで、ごちゃまぜで語るのは杜撰としか言えない。 例えば、SPARCでLinuxを走らせるとどうなるか、x86上のSolarisはどうなのかという あたりをよーく考えてみるといい。
考えてみるだけじゃダメだろ。どうなるの? データ出しなさい。
x86上でスケールするかは見てみたいな SPARCはそれ自体がスケールすることを目指したアーキテクチャだからスケールする SPARCのSはScalableだったように記憶している で?ここZFSスレじゃなかったっけ? まあ、FreeBSDで動いたら次のトピックはSolaris上でBoot対応、くらいかな? Leopard発売もちょっとしたトピックになるか?
>>788 Scalable Processor ARChitecture
Super Ponkotu ARChitecture
>>786 やったことないんじゃねーか。最初からそういいな。
いつものことだ。
>>786 SPARC で Linux → ゴミ
x86 で Solaris → プロセッサバス飽和した時点でゴミ
要はHyperTransportなAthlon64マンセーってことか?
HyperTransport って現状のはせいぜい 4コアって話じゃなかった? 8つだったか?
せいぜい 8core までくらいのマーケット向けに最適化すると 3本だよねーということであって もっと必要ならもっとつける(そしてもっと高くなる) ということでしょ いや数十本のHT足が必要だ、みたいになってくると 根本的に別の設計が必要だろうけど
> いや数十本のHT足が必要だ、みたいになってくると > 根本的に別の設計が必要だろうけど 結局そういう規模の SMP を想定した技術じゃないのよ。
アーキテクチャ論議ってほんとどこでも始まるんだな
しったかは何処にでもいるからな
お!良い感じになってきたな。
803 :
名無しさん@お腹いっぱい。 :2007/04/11(水) 22:19:13
ZFSはバックアップ機能(send/recv)が弱いよな。 snapshotが-r の再帰オプションつけているんだからさ。send -r 実装キボン
gbdeやgeliと併用できるのかな
下痢?
808 :
名無しさん@お腹いっぱい。 :2007/04/12(木) 01:31:18
Linuxでもライセンス的に問題無くなったって事なのかな?
まだだろ。 CDDLのままなんだから。
FUSEがあるから大丈夫。
>>810 だから今度GPL2になるかもって話なんだけど・・・・
パクLinuxには簡単には使わせないよ、ってことだろ。
ZFS的にはsolaris以外はパクリじゃん。
実装そのまま持ってってんだからパクリもなにも... そのものだろ。 機能落ちで「ZFS と呼ぶな」とでも言うんならともかく。
VMWareServerの仮想ディスクにnevada b62を入れて zfsのraidz2プールでいろいろ試してみた。 やったことはmkfileで128Mのファイル5個をプールして iscsiのターゲットディスクにして、WindowsからMSのイニシエータで つなぎこんでNTFSでフォーマットしてファイルを詰め込んでみた。 元のPCがひどいのでパフォーマンスもほとんど気にならずにまあ普通に使える んで障害状況を作り出すために、プールしたファイル2個を削除してみたところ zpool status では縮退状態で動いてるというレポートがあがるんだけど Windowsからファイルにアクセスすると一部のファイルやフォルダが壊れてしまった。 そのあと実マシンにインストールしたnevadaで同じ事を試してみたが そちらは問題なし。おそらくVMWareServerの仮想ディスクが原因 じゃないかと思うが、Windowsからiscsiで繋ぐストレージマシンを 作ろうかと思ってたのでちょっと不安になってきた。 長文すまん
>>817 mkfile したのが仮想OSの中なら VMware Server とはあんまり
関係なさそうなのにね。
>818 不思議なんだよね その後、scsiの仮想ディスクを追加してraidz2プールにしたら問題なかったし
820 :
名無しさん@お腹いっぱい。 :2007/05/15(火) 23:08:06
>>817 VMware動かしているOSのキャッシュじゃねーの?
821 :
名無しさん@お腹いっぱい。 :2007/05/24(木) 23:11:09
ZFSでデータのコピーを複数持てる。これ、面白い。
http://blogs.sun.com/relling/entry/zfs_copies_and_data_protection こんな風に動くみたい。
# zpool create -f zwimming raidz c1t0d0 c1t1d0 c1t2d0 c1t3d0 c1t4d0
# zfs create -o copies=1 zwimming/single
# zfs create -o copies=2 zwimming/dual
# zfs create -o copies=3 zwimming/triple
# cp -rp /usr/share/man1 /zwimming/single
# cp -rp /usr/share/man1 /zwimming/dual
# cp -rp /usr/share/man1 /zwimming/triple
# zfs list -r zwimming
NAME USED AVAIL REFER MOUNTPOINT
zwimming 48.2M 310M 33.5K /zwimming
zwimming/dual 16.0M 310M 16.0M /zwimming/dual
zwimming/single 8.09M 310M 8.09M /zwimming/single
zwimming/triple 23.8M 310M 23.8M /zwimming/triple
/zwimming/singleにデータを置いた場合はRAID5で保護されます。
/zwimming/dualにデータを置いた場合は、RAID1+5的に保護されます。
ズィーエフエス
>>779 DG/UXは88kの頃は良かったが、Intelになってからはもうボロボロだった。
ようするに、Intelのバス設計が駄目って事?
SunはもっとZFSを宣伝すべきだと思う。素晴らしいよ。このファイルシステム
826 :
名無しさん@お腹いっぱい。 :2007/05/26(土) 16:19:23
ZFS応援
試してみたけどZFSすごすぎ。 これから部署内のネットワーク鯖作るんだけどこれ採用しよっと。
Leopardが採用予定だからXserveを使うのが賢いな
Apple は業務で使うにはサポートに問題ありすぎ。
何故に劣化Un*x使うのが賢いのかよくわからんな。
現状のZFSを現場に導入するとか、ふつうに釣りだろ……
普通に考えれば人柱召喚呪文だろう
自宅のLinux鯖を Solaris に入れ替える勇気が出ない。 zfs使ってみたいがしかし。。
もう一台買えw
ん。ZFS普通に使ってるよ。開発現場では。 ただ、客先に納入するシステムに導入するということはまだ無い。
さすがに客先に導入するにはまだちょっと早いだろうね。
Solaris11待ちじゃない? なんせ、10標準ではついていない機能なわけだし。
FreeBSDは8待ち、OS Xは
>>829 がいうように、業務で使うにはサポートポリシーに
問題がありすぎるんで却下。
はぁ? 10 の最初のに間に合わなかっただけで、とっくに標準ですが。 具体的に何を危惧してんの?
標準ったって、ufsの置き換えだし、 veritasの置き換えにはならんでしょ?
具体的に VxFS の代わりにしようとか思ってんだったら、「ちょっと早い」とか いい加減なこと言ってないでちゃんと検証項目作ってテストしたら? ま、作れないんだろうがw
838 ではないしVxFS の置き換えをしたわけではないが、 スナップショットの destroy をきっかけに落ちることが何度かあって まだちょっと早いかなあという気はしている。
FreeBSD の場合は強引にも 6 に入れて欲しい。試験的でいいから。(予定あるのかな?) そうすれば 7 ではそれなりになるかも。
ZFSは6には入れないってどこかで読んだ気がする
別にFreeBSDにとってはどうでもいいものだし。
>>843 信頼できるfsとソフトウェアRAIDと論理ボリュームマネージャーがあるからいらない
というのなら、SolarisにもZFSが必要ないってことになるぞ。
って、キチガイ煽りに反応してしまった。
845 :
名無しさん@お腹いっぱい。 :2007/06/04(月) 23:46:31
ZFSがあればVxVM/VxFSは要らない。 ZFSを使ってみると驚くほどの簡単さ(使いやすさ)に感動する。これで無償だもんな。 いいのかよ>Sun と言いたくなるよ。 バックアップ機能(スナップショットやレプリケーションの自動化)の強化と クラスタファイルシステム機能の追加をして欲しい。 また、インストールのデフォルトがZFSになると嬉しい。SVMも正直要らん
10なんぞに用は無いから9にバックポートしてくれよ
10 使え。どっかのトンチキな OS といっしょにするな、互換性高いだろうが。
848 :
名無しさん@お腹いっぱい。 :2007/06/06(水) 00:42:59
>>846 そろそろ11って時期なのに。10使おうよ。結構安定しているぜ
10のパッチの出来の悪さは許容ならん 4−5年は運用するマシンで使えるかっ
マーケティングワード満載だからな
852 :
名無しさん@お腹いっぱい。 :2007/06/07(木) 10:46:35
人柱にされるマカ……
ZFSてBSDライセンスに近い形で公開されてるんだから、 Appleが独自に改良しても公開義務はないはずだよ。 だから、AppleもこれをOSの基盤に採用出来る。 逆にLinuxでは、このライセンス方式では使いたく ても使えない状態で、違うライセンス方式でも出せ って話になってるんじゃないの。
855 :
マカ :2007/06/07(木) 11:39:25
せいぜい頑張って協力しますわ まあコンスーマOSのレベルじゃバグ出しの精度も高が知れてるけど ボトムのほうからブートFSにして段々と信頼性を確保してくってのは 健全な路線なんじゃないでしょうか で、ということは、TimemachineってSnapshot使うことになったのかな?
>>855 だから公開義務ないんだって言ってんだろ糞マカ。
公開するかどうかはAppleの自由。そういうライセンスなの。
まあSunも太っ腹というか、Sunにそういう形での提供を望む
顧客が多いということなんだろうな。
話がかみあってない。
zfsはCDDL。 BSDライセンスでないと、FreeBSDに含めることは出来るが、GENERICカーネルに組込めない。 つまり使うのにkernelの再構築が必要で、ufsの置き換えにはならず、ユーザも急には増えないから安定するのに時間がかかる… 絶望した。
ZFSもGPL化考えてるだかって話なかった? あ、GPLだとだめ?
もっとだめだろw
>>858 モジュール読み込むだけだから、その点は問題ない。
問題になのはzfsからのbootとinstaller。
bootの方はCDDL回避のために、loaderの変更をスクラッチ
からやんないとだめ。
installerはbootできるようになれば、結構簡単にできそう。
bootパーティションくらいZFSじゃなくてもよかろうが。
863 :
名無しさん@お腹いっぱい。 :2007/06/07(木) 21:59:49
ZFSはシーケンシャルread/writeが異常に速いな。 ソフトウェアRAID5なのに。
前提が違っているんだろうな
まあ、カーネルをZFSに置く意味はあんまりないよね。 Solarisだって、ディスク1本のみか1組のミラーだけで構成されたzpoolからしか カーネルはロードできないんじゃなかったっけ? だとすると、カーネル置場用に小さなzpoolを別に用意しなきゃならないわけで、 結局、カーネル用に小さなUFS領域を用意するのと変わらないよね。 将来、ブートローダが多数のiSCSIディスクで構成されたRAID-Zのzpoolからも カーネルをロードできるようになれば素敵なんだが。
>>865 いや、UFSと違うように、電源断につよかったりとかになると思うんだが・・・・
結局、grubががんばらないと駄目なの?
FreeBSDには、GEOMとかの便利屋的レイヤが突っ込まれてて、 ちゃんと使えば(今後作りこまれていけば)相当なことができるんで あって、なにも今更ZFSを担ぎ出す必要を感じない。
zfsオワタ・・・ 最後に,よりカーネルに近い部分での機能強化も紹介しよう。Windows Se rver 2008ではついに「Transactional NTFS(TxF)」や「Transactional Registry(TxR)」,「Kernel Transaction Manager(KTM)」が搭載さ れる。ファイル・システムやレジストリの更新履歴をログに保存して,自由に過去 の状態に戻したりできるようになるのだ。 Hutson氏は,「これらのトランザクショナル機能のコードは,マネージド・コード ではないが(Win32 APIとして実装されている機能),.NETアプリケーションか らも利用できるようにラッパーを用意する」と語る。Windows Server 2008 では,データベースを使わずとも,従来よりもデータが強固に保護されたアプリケ ーションを開発できるようになるだろう。
MS のファイルシステムねww.. 今度は出るといいねププww FAT 以降、いろんな話があったけど、結局ちゃんと出たのは NTFS だけだろ うくくw あとは意味もなく多数のバリエーションで互換性が悲惨.... ひー。
> rver 2008ではついに「Transactional NTFS(TxF)」や「Transactional これ、機能的には UFS Journal レベルだろ。10 年以上遅れてるな。あわれ...
871 :
名無しさん@お腹いっぱい。 :2007/06/08(金) 11:24:29
Transactional NTFSみたいな機能は面白いと思う。一定の処理が完了しなかったらロールバックする。 NTFSを使いたいかと言うと別の話だけど。
そう。MS-DFSなんて絵に描いた餅だな。 いつ使うことになるんだか。 壊れたときの責任の所在が怖くて動かせんわ。
2000の初期ならともかく2003とかでNTFS壊れるか? ついこのまえ、数十台使って一ヶ月耐久負荷試験したら、 高負荷での信頼性が皆無のLinuxのxfsやext3に較べて、 よほどNTFSのがfsとして信頼できる感じなんだが。 ちなみにSolarisはfs以前にハードウェアトラブル多すぎで、途中で放棄。 っていうか機能とパーフォーマンスと実用性を総合的に鑑みて、 ZFS以外でNTFSに勝ってるお勧めってなによ?
実績 zfsなんて実績皆無
マカーに人柱になってもらえw
マックにのったって、鯖ではほとんど使われないじゃん 人柱になるのん?
はあ。別に ext3 とかと較べなくても... そんなん意味ないんだけどww Linux は VFS 腐ってるからファイルシステム全部ダメって有名なんだが。 んなもんに勝ったとか言われてもな... NTFS の Solaris UFS に勝ってるとこっていったい何よw? もっと言うと 4.3BSD reno の Fat Fast File System よりマシな点も (独自規格で自慢にならんが)ACL 付いてるくらいなことなんじゃないのかよ?ww
まだほとんど使われてないようしろもん、よくこんなマンセーできるなw わらけてくる
MacOS X で試せとか言ってるけど、OS のコアなとこがぜんぜん違うのに、 安定性とか性能とかっていうところに関わる部分が共通だと思ったら そうはいかないと思うがな。
>Linux は VFS 腐ってるから ソース希望。ファイル名と行番号で。
>>878 このスレ阿呆なの多いから
マンセーしてても、自分じゃ使ってない奴ばかりだぜw
882 :
名無しさん@お腹いっぱい。 :2007/06/08(金) 15:19:53
LinuxはGoogleで使われてるからカーネル、FS問わず超高性能! 惨なんて足元にも及びませんwwwww
>>881 マンセーします、自分じゃ使ってないけど
これ一番たち悪いねw
使ってる奴ほとんどいないから、抽象論に終始するんだよね
ZFS褒めてもらいたくてMac板から出張してきてる奴が多いんだろw
スナップショット解除するとか、物理デバイス縮退するとか、問題出てるの そういうとこだけだろ。今までのファイルシステムの範囲で使う限りじゃ 不具合ぜんぜん聞かないが。根本から変更してるのにこんなトラブルの少ない ファイルシステムは初めてみたよ。
トラブルの実例も上がらないのはどういうわけだろうな。 どっちが抽象論だって??ww 使えよ、タコw
実際には使われてないもの トラブルも少ないわな マックにのったら、出てくるだろ、わらわらと 人柱として ただ、マックごときじゃ、大した話題にもならんよw
使ってる人、おててあげてー
ごめんなさいorz、使ってません
開発見てると、バグいっぱいでてるようですが でも、これはいいことだけどねえ
>>882 Google が FreeBSD も Solaris も使ってないと思ってるバカがここにも..w
>>893 どこの? Apple の? FreeBSD の?
特にBSDなんて使わないだろ、あんな管理大変なの あれだけのデータセンタ作るのに、コスト的には大変過ぎるだろ
>>897 げげげげ... ZFS 使うとか使わないとかよりハルカ以前なやつ...
そんなこったろうと思った。バカくさw
実際、メインで使われてないんだから、しょうがない
GoogleってLinuxカーネルの開発者ばっかヘッドハントしてるからなあ 異常なほどに
お前らが毎日使ってるamazonやyoutubeもLinuxだw web2.0とかいわれてる企業はほとんどLinux使ってるな
結局OS信者の代理戦争の具にしかされてないZFSカワイソス・・・
zfsなんて大した話題でもないもの、実際 Sunは命運かけてるみたいだけど
まあ、これからだね 俺もいまの時点でマンセーしてるのは、いささか早計とは思うかな
マカーがからむと、遅かれ早かれこういう運命w
このスレでさえ、使ってる奴皆無w わろた、どうしようもねえな
スナップショットって個人・開発用途で便利につかえるもんなの? Subversionとかのリポジトリの実装に使用したりなんて事はないよねぇ。
実際、ファイルシステムなんかぽんぽん変えるもんじゃないし zfs?、じゃあ、とりかえるかなんて奴はほとんどいない OS に標準だから使うだけで で、zfsを標準にしたOSってなにがあるの?いまんとこ
ソラリスのテンくらいじゃない?
>>907 便利だよ。
んで、fsレベルのスナップショットよりもさらに便利なのがVMwareのスナップショット。
>>909 残念ながら標準fsではない。11でもおそらく標準はUFSでそ。
solaris10も標準じゃないんじゃねえの 付属でついてくるくらいで
>>911-912 だろ、そんなもんだろ
だから、マカーに期待、これは標準で使うんじゃないの?w
そんなにマンセーするなら、標準で使えってのw
わけの分からん絡み方だな・・・ 煽りたいならもうちょっと気の利いたスレ逝ってきたら
こりゃダメっぽいな、zfs
ソラリステンテン
Leopardスレにこのスレへのリンク張るから、マカとドザが来て荒らすわけで…。 で、次スレのテンプレ考えみた。
このペースだと埋まるの一ヵ月後な件
>>867 同じことがzfsだと簡単にできるというのが利点でないの?
単にFreeBSDにはZFSが手に余るだけ。 対応しているハードウェアが圧倒的に少なすぎる。
ZFS ってハードウェアに依存するの?
926 :
ななし :2007/06/09(土) 10:46:25
ときどきこのスレに無知かつキチガイがFreeBSD系のウソを撒き散らしているし、 FreeBSDスレはめちゃくちゃ荒れているしってことで、アンチFreeBSDの荒らしが UNIX板にまぎれこんでいるのか…
>>926 所詮2ちゃんねるだし、「嘘を嘘と見抜けないと・・・・」とは、よく言うものだ。
あの程度で荒れてるなら、他の趣味板の粘着度合いについていけない。
放置すれば消えるだろうし、削除依頼で戦う気がなきゃいちいち愚痴るな。
>>870 UFS Journal って TxF NTFS みたいに Transaction 処理できるものなの?
スレちがいだけど、ちと Transaction サポートしたファイルシステムが欲しく、
ならちょっと使ってみたいんだけど、ググってもそれらしいものが引っ掛からないっぽく。
Transaction + Network Distributed なファイルシステムだと最高なんだけどなあ。
ZFS はネットワーク分散じゃないのが残念すぎる。
全く分かっていない >870 哀れ
ぐだぐだいってねえで、使えよw
>>929 トランザクション処理とは銘打ってはいないけど、NILFSは?
>>931 なんで自分が使ってないものを人に進めるんですか?
ガイキチですか?
間違いない、使徒だ。
>>932 さすがにNILFSはちょっといくらなんでもソースハックするぐらいしか遊びようがないような
LFSってログとってfsckいらずってことは、特に銘打っていなくても トランザクション処理をやっているってことだよね? NILFSじゃアレなら、NetBSDのLFSはどうよ。
まあ、UFS に軽く負けてるようなもん引き合いに出して ZFS にケチつけられてもなぁ。 レベル低過ぎるしww こんなバカども見てると Sun は安泰だと思うよ。つくずくww
日本語でおk
>>936 ユーザーが明示的にトランザクションの範囲を決められないなら、
それってトランザクション的な処理をするジャーナリングなファイルシステム。
トランザクションなファイルシステムってのは、
トランザクションの開始や終了などのAPIがユーザーに提供されてるやつ。
>>900 Linux に限らずだよ。ベル研にいた連中とかも採ってる。
一体誰に勝ちたいのかなぁ?
誰も使ってねえファイルシステムw
おお、それはすごい
945 :
名無しさん@お腹いっぱい。 :2007/06/10(日) 19:26:48
ZFS普通に使われているけどな。人柱とか、何を言っているんだか。 VxVM/VxFSの方が、毎度毎度Bugに驚かされている。
まったく。小心者がビビってるのは見苦しいよなw
アウトの条項 ・これが一番だろ ・実績ねえなぁ ・昔から言われてる常識だろ どれかにのみ心奪われて欠点が冷静に評価できないのは・・・ 実績って、具体的には何を差してるんだろうね?宇宙船でも作りたいんでしょうか・・・ 昔から言われている事を信じるだけって怖いですよね・・・ ZFSが評価されているのは、 別に新しいからだけとかオープンソースだからというだけじゃない。 ZFSの仕組みが面白いから評価されている。 そして、それは実際に使ってみようかと思わせる魅力。 MSの話も魅力なんだろうけど、 今まで話だけで実現できなかったモノが多いので皆が懐疑的になる。 ZFSは、ちゃんと実装が出てきているから、テストでもなんでもできる。 MSのFSの話は、実装が出てきてからだろうな。
俺のいる研究室のファイルサーバzfsだよ。 ちょっと前まで snapshot を destroy する時に落ちることが あったけど最近は平気みたい。
それはすごい
ま、オーソドックスな UFS と FFSv2 残して ZFS 以外の Unix 用ファイルシステムは死滅確定だろ。時間の問題。HFS+ も含めてな。 Linux も JFS や XFS 放置確定でまともなパスが消えるから ZFS 持ってくるか ZFS 互換用意するしかないだろうね。 ま、せいぜい言わしときゃいいんじゃね? MS の新ファイルシステムね、、へぇ〜ppu
>>948 マーフィー来襲月間である1、2月はバックアップをこまめにね
>>939 トランザクション用APIやシステムコールを提供するなら、アプリケーションも
それに対応するよう書き換えないといけないね。
どんなAPIが提供されるのか、見てみないことには何とも言えないな。
トランザクションの単位がファイル1個だけじゃああまりうれしくないし。
>>936 ええ? LFS って Log-structured File System のことですよね。
あれってログがどうこう言うのじゃなくて、ひたすらハードディスクの空いてる領域に
シーケンシャルにデータ、メタデータを書いて行くんでしたよね、確か…。
なんかアイドル時にデフラグみたいなことをしないと意味がなくて、
その最適化がすごく難しかったやつだったと思うけど…
スレ的には FreeBSD + ZFS はすごく楽しみ。
そういや最新の奴って、物凄いメモリー食うの直ったのかな?
954 :
名無しさん@お腹いっぱい。 :2007/06/11(月) 21:30:55
何ヶ月か前に、ZFSで組んだファイルサーバを納品したが。特に問題は出ていないようだ。
>>954 > 何ヶ月か前に、ZFSで組んだファイルサーバを納品したが。特に問題は出ていないようだ。
ちょwww
それ単にまだ稼働してないか、使ってないだけ。 電源入れただけっていうのもけっこうある。
>>952 トランザクション用の API は Win32、COM、Managed、コマンドライン が提供されているみたい。
これはこれで面白い機能だと思うよ。アプリ屋さんは例外処理が格段に楽になるし。
もちろんZFSも面白い機能が盛りだくさんだ。
昔犬使いで、今は魔使いだけど、ext2のアホさ加減には付き合いきれず、 reiserfs/XFS/JFSを試してみてどれも気に入らなかった。 reiserfsはましか。 そのうちZFSも試すんだろう。
>>957 コマンドラインってのが地味に良いな。
インストールや設定系のシェルスクリプトに重宝しそうだ。
>>957 もちろん面白いとは思うんだけど、APIとして使いやすい形になってるかどうかが
気になるなあと思って。
たとえば、トランザクション中にトランザクションと関係ないファイル出力(ログとか)
をしたい場合はあると思うんだけど、ロールバックしたときにそれも取り消される
ようなのじゃダメだろうなあ、とか。
たぶんそんなことは考慮済みなんだろうけど。
DB使う代わりに、普通のファイル使えるってのが面白いかな。 ロックがどうなるかが気になる所。
>>955 オマエ、Fire X4500 とかどういう趣旨の製品かわかってるか? 少しは世の中勉強しな。
ぱちょこんばっか使ってないで。
>>958 魔使いってなんだ?
あんたの問題はたぶん FreeBSD で FFSv2 か Solaris で UFS 使ってりゃ
軽く解決してただろな。
あ、悪魔くんの魔か。FreeBSD かww
965 :
958 :2007/06/12(火) 10:53:38
>>963 FreeBSDは4.6.2くらいから本格参戦している。 導入作業済は
通算台数100台程度。今やFreeBSDが無いと文字通り生きて
いくことが出来ない飯の種だ。
FreeBSD 2.xから使ってるけど 魔使いなんてーのは初めて聞いた。 ま、俺様導入作業済みは20台未満。
スティーブ君は本件については結局しゃべらなかったようですな。 やっぱりジョナサンがしゃべったのがよくなかったのかね。 まあ大部分がNDAで保護されている会議だから、そのうちぽつぽつ出てくるのかも知れんけど。 スクリーンショットは昨年末から出ているし。
ほっほんとはZFSなんて使いたくないんだからね アッポーが使えって言うから仕方なく使うんだからね
このスレでZFSに興味をもって、使ってないPCにFreeBSD-Current入れて 少し試してみたけど、使い方は本当に簡単で便利ですね。 ところで最低でも512MB用意しろ的なZFSのWarningが出るのですが、 RAMが256MBの環境だったせいか、不安定で何度もpanicしました。
うぎゃーーーーーーー leopardでは採用しないとよ...
>>970 採用しないとはいってない
でも採用するとも言ってない
採用しないキタ━━━(゚∀゚)━━━━!!ー
以前にも他社のうっかりさんが事前リークしてJobsブチギレ、搭載先延ばしになった機能があったような。 気のせいかな?
目玉機能ではないからおとがめなしだろ。 OSXServerなら使い道あるんかな?
まぁこれで毀誉褒貶の激しい面々から距離を置けると考えれば、 それはそれで。
次スレ要らなくなっちゃったな・・・ このまま埋めるか。
をいをい、ここは Mac 板じゃねーつーの。Apple が潰れようが ハゲがふさふさになろうが次スレは要るぞw つーか、Mach改の VM あたりに根本的処置しないとうまくのらないとか、 そんな話なんじゃねーの?
マカーがいつのまにかのっとっててわろたw
さすがにハゲがふさふさになったら次スレは要らないんじゃねぇの?
いや、zfs は養毛剤じゃねえしw
このスレはハゲ多そうだな
ReadOnlyだけど載ってるみたいね。 やっぱり、timemachineには使われていないと言うことか?
そりゃそうだろ。ZFS が安定してからじゃないと、テストにならんがなw
ってことは、Updateで利用できる可能性もアリ、と
987 :
名無しさん@お腹いっぱい。 :2007/06/13(水) 15:27:27
次スレは要る。Mac OS Xだけが採用してるだけじゃなくて、
Solaris、FreeBSD、Linuxとあちこちで使われようとしてるんだし。
というわけで、
>>919-920 のテンプレで次スレ立ててくる。
アップル、LeopardとZFSの憶測めぐる真相を明らかに
http://japan.cnet.com/news/ent/story/0,2000056022,20350753,00.htm >Appleは、Leopard にZFSを採用する点については認めたものの、
>まだZFSをデフォルトファイルシステムにはしていないと語った。
>どうやら、(Information Weekに登場した)Appleの幹部の発言
>は誤りだったようだ。Leopardは2つのファイルシステムをサポートする。
>1つは、現在Mac OS Xに採用されているHFS+で、もう1つが2005年に発表
>されたSunの次世代ファイルシステムZFSだ。しかし、ZFSの採用後も
>デフォルトオプションはHFS+のままだ。
ZFS埋葬sage
>>984 Time Machineは別のボリュームに差分バックアップする技術らしいから、
スナップショットとは別の技術だね。
埋め。
vgextendしますた
お、埋まるのか。
埋め。
>>969 そうっすか…。まだ結構メモリー食うんですね。
Solaris の方はどうなんすかね。
>>963 童貞のまま40才になると魔法が使えるようになる。
SolarisもFreeBSDもZFS使いたいなら、最低512MB推薦1GB以上のようですよ
1000初めてのなんで、やさしくしてね!
999 :
名無しさん@お腹いっぱい。 :2007/06/14(木) 01:28:26
1000なら2chもZFS!
1000 プゲラ
1001 :
1001 :
Over 1000 Thread このスレッドは1000を超えました。 もう書けないので、新しいスレッドを立ててくださいです。。。