2040年問題 - HFSのタイムスタンプは2040年2月6日までしか取り扱えない。
2048年問題 - 2038年問題の1980年起点版。FATファイルシステムのタイムスタンプなどが1980年起点である。
2079年問題 - FATファイルシステムのタイムスタンプの起点の1980年1月1日を基点として、年数を下2桁だけで処理するソフトウェアなどは、その起点の99年後(2079年12月31日)までしか正常動作しない。
2108年問題 - FATファイルシステムのタイムスタンプは2107年12月31日までしか取り扱えない。
-----------------------------------------------------------------------
60056年問題 - NTFSのタイムスタンプは60056年5月28日までしか取り扱えない。
NTFSはいいとしてFATとかどうすんお
FATの2048年とか2079年問題はファイルシステムの問題じゃないよね。
2108年問題はファイルシステムの問題かもしれないけど、あと90年もFATが現役かなあ?
2040年のHFSの問題はファイルシステムの問題かもしれんけど、古いMacなんか趣味でしか使われてないから問題なさそう。
OSやAPがFSのタイムスタンプを符号あり扱いするように仕様変えれば
FSのブロックレイアウトは変わらないから68年先伸ばしできるお?
作りかえれないOSやAPはコードよりデータの寿命を優先してそれまでに捨てる
そんなのもはやFATとよべない。
おれの誕生日に作ったファイルかはるか未来のファイルに化ける。
2048年問題って聞いたことない
FATの精度が2秒だからそんなのないんじゃないの?
>>576 FATディスクフォーマットのタイムスタンプが累計秒数で記録されていると思ってないか
>>578 ファイルシステム上は問題は起きないが、ファイルのタイムスタンプを1980年1月1日深夜0時ジャストからの経過秒数として32bit整数で保持しているプログラムが正常に動作しなくなる。
……ただし、そんなプログラムが実在するかは知らない。
DOSの時間系関数を使って管理してるDOSアプリには2048年問題は起こらない
ダメなのはC標準関数使ってるDOSアプリということですね
UNIXからFATをフォーマットしてる場合は48年以前に38年問題にひっかかるわけですし
×フォーマット
○マウント
いや、やっぱりC標準関数は1970年を基点とするからそれはないだろうな
FATで0x0000 0x0000というタイムスタンプのファイルがあったとして
それはエポック秒で315500400と変換されてしまうから48年問題は起こりそうにない
アプリで独自に符号付32bit値として保有してる場合だけに48年問題は起こる
こんなアプリ作ってる人いるんかいな?
Linuxのmanpage見たら、ファイルの状態を取得する stat(), fstat(), lstat() 関数は、
ファイルの日時に time_t を使っていますね。
time()関数 〜 紀元 (1970年1月1日00:00:00 UTC) からの経過時間を秒単位で返す。
も、返すのは time_t。
time_t をたどると正体は
/usr/include/bits/types.h:103:#define __SLONGWORD_TYPElong int
で 32bitのようですが、time_t を使うもの全般が、ファイルシステムに関係なくまずいのかな。
>>583 くっついてるw
× > /usr/include/bits/types.h:103:#define __SLONGWORD_TYPElong int
○ > /usr/include/bits/types.h:103:#define __SLONGWORD_TYPE long int
time_tの正体が何かはシステムによって違うでしょ。
>>464 >time_tはカーネルの64bit化とは関係なく、既に64bit化されてる。
まじで?
time_tが64bit化されたlibcのバージョン教えてくださいおねがいします
GNU libcではtime_tはlong intであってlong intの大きさは処理系定義なので
まあきっとあってもおかしくはないとかなんとかかんとか
32ビットでフォーマットされているものを突然64ビットで扱おうとして
データを壊しまくるファイルシステムw
>>586 >
>>464 >>time_tはカーネルの64bit化とは関係なく、既に64bit化されてる。
ubuntu 12 i386でsizeof time_tをprintしてけど32bitだ
Ubuntuは32bitということですが
64bitに対応したLinuxディストリビューションはどれになりますか?
あと初歩的な質問になりますが
32bitのLinuxからも、64bitのLinuxからも、
同一のファイルシステムをmountして問題なく扱えますよね?
例えば、ファイルのタイムスタンプの扱いが気になるのですが、
そこは、どちらにしてもファイルシステムの仕様通りに
きちんと処理してくれているということでしょうか。
Ubuntuにも64bitなかったっけ
マウントの問題は大丈夫
__STD_TYPE __TIME_T_TYPE __time_t; /* Seconds since the Epoch. */
>>592 Ubuntuに64bitありますね
ありがとうございます
#include <time.h>
#include <stdio.h>
int main(void)
{
printf("%d\n", sizeof(time_t));
}
8だった@Debian sid/amd64
ちょww8ビットてww
8bytes
>>595のやつ
Debian6.0.6@amd64(サーバー)
Ubuntu12.10@amd64(デスクトップ)
どっちも8でした
>>591 x86とAMD64で何が違うのかをもうちょっと知れば、そういう質問は出てこない気がするなあ。
Linux vmware-virtual-machine 3.2.0-33-generic #52-Ubuntu SMP Thu Oct 18 16:19:45 UTC 2012 i686 i686 i386 GNU/Linux
Linux version 3.1.10-g22b4fcd (
[email protected]) (gcc version 4.6.x-google 20120106 (prerelease) (GCC) ) #1 SMP PREEMPT Fri Nov 2 10:55:26 PDT 2012
てもとだとこの2つはsizeof(time_t)は4だったが
>>464の
「time_tはカーネルの64bit化とは関係なく、既に64bit化されてる。 」
と矛盾してないのか?
>>599 32bitと64bitとしか書いてないからx86とamd64とは限らない。
というかその二つに限定すると理解が疑われかねんな。
602 :
595:2012/11/28(水) 02:17:16.58 ID:nx7Okma8
なんとなく気になったので同じ環境で-m32つけたら4になった
ちうことで2038年までに64bit環境に移行すれという事らしい
>>601 「初心的質問」でそれ以外のアーキテクチャを
持ち出すだろうか?
つかどう考えても
>>591が言ってるのはamd64とi386のことだろ。
単純な64bit化だと上4バイトは100年ぐらい使われないから
その領域を有効活用しようという輩がいるかもしれない
>>606 COBOL世代とはビット単価が違うからなぁ
アップデートしない組込環境ではtime_tうんぬん以前に脆弱性がやばい
組み込みってネット繋がないじゃん
んなわけあるか
ext3では秒単位で2038年まで
ZFSの重複排除、当たり前だがメモリすげぇ食うな・・・
ファイル鯖としちゃあ便利な機能だがそんなにコストかけれないし重複排除は諦めるか
メモリだけなら今安いから大したコストじゃないけど
CPUもそれなりのがいるんだろ?
>>612 なんで当たり前なん?
メモリーがたくさんいるのはなんで?
ファイル鯖にそんなCPU盛りたくないしねぇ。
ついでに他のアプリケーション動かせばいいんだろうが、なんにせよ個人じゃそんな鯖にゴリゴリさせる仕事がない。
重複排除とか圧縮かけても軽いくらいスペック盛るくらいなら、その金でHDD増設した方がいいんだよなw
重複排除ってどのくらいのスペックあれば快適に使えるの?
>>616 ZFSのrecordsizeによるけど、デフォだった場合、
データ1T辺り、重複排除だけで10G+ってオーダーでメモリーが必要になったはず。
L2ARCにSSDを用意しないと、メモリーから溢れた瞬間、とてつもなく遅くなる。
CPUよりメモリーの方を何とかしないとダメ。
同一内容を検索・識別するんじゃなくて、
ファイルコピー動作とかを認識して重複排除するとかできないんだろうか?
最近読みだしたデータに限って同一判定するとか。
620 :
login:Penguin:2012/11/29(木) 18:54:19.39 ID:UP0NKDBj
>>619 よく意味が分からんけど
書き込みが発生したときにブロック単位で同じのがあるかどうかを見るんじゃないの
そのテーブルがメモリをバカ食いするってことだと思うけど
それただのCoWじゃねーか?
NAS上で完結する世界ならそれでもいいけど、実際に求められてるものとは違う
重複判定できるってことは、そのぶん余計なメタデータを読み書きしないといけないんだから性能落ちるよね
重複排除によって無くなった行われるはずだったユーザーデータの書き込み量のほうが多いかもしれない
>>623 クラウド、VPSの仮想HDDの中の/bin以下のファイルみたいなかなり特殊な用途?
XFSを褒め殺しにしていると疑われているオレ様がやってきましたよ
褒め殺しではない
純粋に褒めているし実際に使っている
叩いた事など神に誓ってない
ZFSなら叩きたい
そっか よかったね
XFSとZFSの良いとこ取りの新ファイルシステム YFS
>>619 特定の状況だけ適用してもらいたいんならその状況時にユーザーモード側でioctl発行しろと返されんのがオチ
>>618 HDD増やした方がコスパよくね?業務に使うならともかく個人ならな
同じ形式のファイルをテラ単位で扱うような用途じゃないとあまり恩恵はないだろうな
少なくても自分は容量食ってるのは動画とか音楽とか写真だから全く意味無い
仮想マシンのファイルはほとんど同じなので、
重複排除でバンザーイと思って、Virutalboxと
ZFSの組み合わせを試してみた事がある。
ほとんど重複排除の効果は無く、一時停止で保存した
ファイルでゲストOSが再開できないとか、逆の意味で
バンザーイの結果だった。
世代バックアップとか
ハードリンクで済むような
大きいファイルの世代バックアップには有効そうなんじゃない?
何ギガもあるsqliteファイルとか。
バックアップになってるのかそれ
前にもそんな議論があったような
まあ核攻撃に耐えられなければバックアップとは言えないからなあ
バックアップでないものをバックアップと言う人が多いよ
まったく
前の議論もそうだけど
勝手にバックアップのハードル上げてるだけだと思うが
月面データセンターだと万全のバックアップできる
応答時間に数秒要するからバックアップにしか使えないけど
月は出ているか?
ってガンダムXごっこができるな。
スペースデブリの月面DCへの影響は無視してもいいよね。
電磁波って宇宙だと減衰しないから
宇宙に向けて全データを電磁波の形で発信しておけば
少なくともこの宇宙がなくなるまでは保存されるな。
>>640 その発信したデータを読みたければ、電磁波より速く飛んで先回りして受信しなければならないのでは
え?w突っ込むとこそこかよww
文系かよw
643 :
login:Penguin:2012/12/01(土) 15:37:17.27 ID:RSbxRGIT
ZFSの重複排除ってメモリに蓄えるから、
不意の電源OFFだと全部破壊されちゃうんだよね
それだとバックアップに使うのは怖いな
んなわけない
>>643みたいな幼稚な人が作ってるファイルシステムあったら教えて下さい。
>>640 波長によって激しく減衰する、宇宙は完全な真空ではなく万年やら億年
経過したそれが何も影響しないというのはアフォ。
ファイルシステムとバックアップは分けて考えなければいけない
分けて考えないのが近年の高機能ファイルシステムでしょ!
俺だよ。この俺が言ってんだし間違いない。
この前、自分定義のバックアップって言葉使って馬鹿にされた馬鹿が
粘着してるなぁ。
その時馬鹿にした連中の方が勝手な定義してたな
しつこいよ
定義なんて話の都度擦り合わせればいいのよ。
はいはいビールジョッキ思想
ZFSのファイルシステムにMysqlのデータを置いた環境があり、
某システムの評価で圧縮して400MバイトのMysqlのダンプファイルを
インポートしてみた。
平時はあまり使われない、Logsの領域にも激しく書き込みがあり、
Logsのallocの領域がみるみる増えて行く。raidz1のディスクで30MB/sec
Logsの30MB/secと合計で60MB/secの書き込みが出来て、ZFSの
実力の一部が判った。
662 :
login:Penguin:2012/12/24(月) 22:27:48.15 ID:sbyUtyUS
なんでext4には作成日時のタイムスタンプがないの?
ctime無いのはFAT位でないかい
ctimeってリンク数増やしたりとかしたら変わらないかい
それはmtime
ZFS Linux Native RC13が出てました。
いろいろ直っているみたいだが、ウチの
自宅サーバでは何の問題無く動いているので、
違いが判らん。
ctimeとcrtimeは混同してはいけない
birth time があるよ
>>666 誤り
mtimeが変わるのはファイルの内容を書き換えた時
リンクカウントの増減はメタデータだけの変更に当たる
ctime をファイル作成日時だと勘違いしてるやつがいるのか?
NTFS ボリューム上で新規ファイルが作成できない現象について
http://blogs.technet.com/b/askcorejp/archive/2010/04/26/ntfs.aspx $Secure のデータは少しずつ登録される事が多く、非常にフラグメントが発生しやすい環境です。
$Secure のフラグメントが解消される事で、登録できるセキュリティ記述子の数が増える事が期待できます。
Windows7 / Windows Server 2008 R2 以降の環境で発生した場合には、まずはデフラグの実施をご検討ください。
※ 現在、Windows 7 / Windows Server 2008 R2 環境でデフラグを実施したところ、反対に $Secure の File Record 数が増えてしまったという報告を受けています。
詳細が確認出来次第この記事をアップデートいたしますので、それまで $Secure の ATTRIBUTE_LIST を減らす事を目的としたデフラグの実施はお待ちください。
;(;゙゚'ω゚');
raidz や raidz2 で、玉を増やすほうの grow が出来るようにならないかなあ。
>>672 その地雷を最初に踏んだ人がどれだけ悩んだか
話を聞いてみたい
675 :
login:Penguin:2013/01/06(日) 23:12:39.85 ID:kYUtqyri
重複排除と透過圧縮とファイルのチェックサムの機能がある
ファイルシステムってZFSだけでしょうか?
調べてみるとlessfsは重複排除と圧縮機能があるみたいですがチェックサムはなさそうで
ext4とbtrfsは圧縮とチェックサムがあって重複排除はない(btrfsは実装予定?)みたいです
ext4のチェックサムってメタデータだけでしょ
データが化けてもメタデータさえOKならファイルシステムの整合性は完璧だからな。
ファイルが壊れてもファイルシステムが壊れなければ意味があるっ
raid5+xfsでデータ化けするて聞いたんだけど
raid5で1ディスクの1ブロックだけ化けた場合でも修復できないんだっけ?
釣りか? ソフトウェアRAID だろうが、ハードウェアRAID だろうが、RAID5 と
ファイルシステムではレイヤーが違うから「RAID5+xfsでデータ化ける」なんてことはない。
データが化けるのは別の原因で xfs 以外のファイルシステムにしたときに、たまたまその
ブロックを踏まなかったってだけだろ。
この場合ハードウェアRAID が何らかの故障を抱えているんだと思う。
ただ、アクセス速度を上げるために、パリティチェックしない製品/設定がある
(ハードディスクに全くアクセスできない場合のみパリティから修復)らしいので、
「raid5で1ディスクの1ブロックだけ化けた場合でも修復できない」事はありえるが。
ディスク3台で A,B,パリティ になってる所で
パリティ部分がデータ化けしたらそのブロックは修復できんの?
RAID5ではどっちみち化けたら修復できない。どっちが正しいか判別できないからだ。
RAID-Zなら別だがな。
なるほどね、勉強になった
1ビットのパリティは1ビット以内の誤りを検出できるだけだからな。
化けられたらどうしようもない。
運を天に任せて1台切り離せば読めるかもしれないぞ。
エラーにならずにデータ化けってありうるの?
HDDにCRCが付いてるだろ。
何もせずとも、いつの間にかデータが書き換わってしまうことはありうる。
そのため最近の RAID 装置は、「書き直し」ジョブが定期的に走るようになってる。
HDDは10^-13から10^-16。RAMは10^-10から10^-17。NWは10^-12。
なので1[PB]とか読み出したら、上位(RAMならECCとか)でチェックしない限り確実に誤データが入り込むんでない?
>>683 btrfsのRAID5も、実装されたら修復できるようになるんじゃないかな。
出る出るといわれ続けてもうすぐ4年経つんだっけかw
btrfsではデータブロックのチェックサム(CRC)を記録してるから、
化けたブロックは特定できるはず。
どのデバイス上のブロックが化けているかが分かれば、
残りのデバイス上のブロックからXORでブロックの中身を計算して
書き戻せば修復できるはず。
もっとも、RAID5以前に「読み」「書き」以外のことをすると
高頻度であっさりハングする不安定さをどうにかすべきだと思うが。
brtfs捨てて、ZFSのライセンスを見直すだけでいいんだけどなぁ
ZFSはクローズドソースになっちゃったんじゃないの? FreeBSDは、オープンソースの最終版からフォークしたような…
Linuxファイルシステムの進化ももZFSがクローズドでは、もう期待出来ないね。
真剣にNTFSライセンスの購入を検討した方がいいんじゃないの?
>>692 ZFSはlinux界隈じゃなくてUNIX界隈だから関係ないよ。
クローズドからオープンになった事例は結構ある。
ってかオラクルは何でクローズドにしたんだろ。
>>694 ライバルを買収して相手製品を死蔵して潰す場合と、
ライバルを買収して相手製品を自社で売る場合がある。
オラクルには独自のFSがあるんで、死蔵させて潰す選択をしただけ。
>>695 > オラクルには独自のFSがあるんで、死蔵させて潰す選択をしただけ。
何言ってんだ? Solarisで使ってるだろ。
まさかbtrfsのことじゃないか?
ZFS Storage Applianceとか全然売れてねぇけどな
遅すぎるわ
商用ファイルサーバなら既にIsilonがあるしなあ。
699 :
675:2013/01/12(土) 15:01:50.21 ID:cOhIruVB
btrfsでその手の付加機能使うのは、まだ怖すぎる。。。
やっぱFSみたいな物は、昔から言われてるけど、企業がお金かけて作らないと
厳しいねぇ。
ドッグフードをガシガシ食って、主要部分だけでもバグ潰ししないと、いつまで経っても、
ドッグフードのまま・・・
zfsでいいからgrowつけてー
btrfsの重複排除は使ってるっていう情報が見当たらないですね
重複排除と透過圧縮とファイルのチェックサムがあって
わりと使われていそうなのはZFSだけみたいなんでZFSを使ってみることにします
703 :
login:Penguin:2013/01/12(土) 17:43:29.86 ID:uRAkZkwX
なんでみんなZFSなんだよ!
Linuxには、ext4っていう最先端技術が一杯盛り込まれた優れたファイルシステムがあるだろう?
ORACLE様ならbtrfsやZFSなんての無視してASMでいいやん
>>677 ext4 のチェックサムはメタデータに対してなんですね
何か勘違いしてました
ZFSでもファイルデータの修復ができるのはRAIDZとかで冗長化している場合だけですよね
ファイルのデータに対してチェックサムじゃなくて誤り訂正符号が
付けられるファイルシステムは聞いたことないですし
もしかして3-way mirrorかRAID6なら(そんな頻繁に起こると思いませんが)データ化けが起ころうが訂正できるのかな
いずれにせよlessfsってのとbtrfsの重複排除機能の情報は少ないのでZFSにしてみます
そんなに誤り訂正欲しきゃ
RAID5+0でもRIDE6+0ででも組めばいいのに
>>703 zlib圧縮すらstableでないfsじゃぁねぇ…。
RAID6も故障Diskが既知でないと訂正できないみたい。
正直、データの整合性はHWに任せてOKと思うんだけど…
>>707 stableじゃない事がなんなんだ!
皆でドッグフードの不味い部分をもっとガツガツ食べようぜ
誤り訂正はできたら良いなってところで
透過的圧縮と特に重複排除が優先して使いたい機能です
lessfsで良いじゃないかってところなんですが情報が少なくて躊躇してます・・・
よく考えたら3-way mirrorやRAID6にしようがファイルの読み出しで
きっと毎回全部のディスクからデータを読んで比較なんかしてないですよね
mdadm はそんな設定があるのかな?
ZFSはファイルを読んだときにチェックサムが合ってなければ
RAID-Zから復旧してくれるんだろうと思います
>>710 おまえがそもそもRAIDがなんなのかすら理解できていないことは理解できた
面倒くせーな…
だったらEMCでも買えよ
>>710 RH系だとraid-checkってスクリプトがスケジュールに登録されてて
週一でアレイの整合性チェックが実行されるはず
mdが内部でどんな処理してるのかまでは知らないけど
確かにRAID6なんかでデータ部の修復までしてくれたら嬉しいわな
気にしすぎなんじゃないかと思うが
どんだけ大容量のファイル使ってんだかしらんが
数世代前でも無い限りRawデータだってCRCぐらい付いてるだろ
まず、HDDにはセクタ単位でECCがついている。
このため、かなりの数のbitが同時に都合よく化けない限り、エラー訂正できる。
(もちろんエラーが、検出は出来ても訂正は出来ない場合にはリードエラーとなる)
そして、これは推測だけど「訂正可能なレベルのエラー」の中で、ある程度の回数だとかbit数だとかの規定値を超えたら
それはファームにより「不良セクタ」としてマークされ、代替処理が行われると思われる(OSからは見えない)。
一方、RAID456で使われているのは「パリティ」で、これは誤り訂正も出来ないし
エラー検出能力もきわめて低い。
しかし、「欠損」つまりどこのbitでエラーが起きたのか確実にわかるケースに限定すれば
正確に補完する能力があり、容量効率も良い。
これの欠損が、物理的な故障にぴたりとあてはまる。
というのが俺の認識。
CRCと言っても幾つもあって、訂正できるのもある。
訂正できるものでRAIDで使われているものもある。
なんでZFSスレ すぐdat落ちしてしまうん?
RAID-5・6の欠点はパリティ更新時の障害によるサイレントクラッシュであって、
パリティの算出手法そのものには、まあ問題ない。
そこまでRAID5やRAID6に不満や疑義あるならEMCでも使えばいいじゃん
>>721 708でも書いたんだけど、エラー位置が既知の場合しか訂正できない様に
読めるんだけど。
普通はそういうのは誤り訂正符号とは言わないと思う。(個人的感想)
これを誤り訂正可能というなら、ただのパリティも誤り訂正可能だよ。
もちろん世の中すべてのRAID6の実装を知ってるわけでなく、wikipediaの
記述に関してだけ言っています。
>>724 それが所謂サイレントクラッシュな訳だが。
誤り訂正符号で治せないのと、破損位置が分からないのは、
別の問題じゃねーの。
>>724は、
>>717に対する
>>721の良く分からないコメントに(横から)レスしました。
ECCと呼ばれるものはエラー位置が未知の状態で訂正します。
(パンクチャ/デパンクチャしたりもしますが…)
ECCでは、エラー位置が分からないのと訂正不能なのは同じ問題です。
ECCを採用するのは符号化率や計算能力とのトレードオフになるので、
エラー位置が分かることになっているRAIDでは採用しないのも当然と思います。
> ZFSでもファイルデータの修復ができるのはRAIDZとかで冗長化している場合だけですよね
RAID Z でないものも zpool scrub かけてエラーがあった場合に
checksum からなんとかできる程度の修理はしてくれる > ZFS
限界はあるけど.
っていうかどの程度までリカバリしてくれるのかは良く知らないのだ
ZFSならmirrorからでも修復は可能
あと複数Diskで冗長化してなくても、zfs set copies=xでファイル書き込み時に同一Disk内の複数の箇所に分散コピーできる
素直にHDD増やした方がいいけどね
zolってどーなってるの?
>>731 Windows Server 2012からね。
今のところWindows8とかのクライアントOSには載ってないよ。
重複除去使いたいからNTFS使ってるけど(´・ω・`)
ZFSとbtrfsって比較してる奴は……勝負になると思ってんのかなぁ?
全然違うじゃない
……名前の格好良さが!
(SunとOracleの信頼の差というのと、初出の安定感とかもあるけどさ!使いたい技術ってまず名前で決めるじゃない!)
巣に帰ってどうぞ
Btrfsってあと何年でstableになるんだろう。
ZFSのRaidzは数増やせないから不便で不便で(´;ω;`)
速度的には同じくらいなん?
ZFSと比較はしたことはないがスナップショット取るとIOが固まるとか
スナップショットを削除するとIOが固まるとか時々deadlockが発生するとか
速度以前の問題。着実に改善はされてるがまだまだ。
ext5のが先にくるよ
fedora18ででたファイルシステムってどうなの?
>740
btrfsでしょ
昨日やってみたよ
FedFS のことかな。
>>741 btrfs は前からなかったっけ。
743 :
login:Penguin:2013/01/17(木) 13:21:54.21 ID:rZx4pOd9
dragonflyBSD hammerの方が着実に実績を積んでる
744 :
739:2013/01/18(金) 00:42:49.27 ID:nOSdqiD+
>>741 ググってから発言してくれ頼む
>>742 うん、それ
うちではインストールが途中で止まったから諦めた
>744
そうですか
btrfsを選択してOSをインストール出来るようになったのはfc18からじゃない
>>744 ファイルシステム名くらい最初から書けよ……。
アホ二人
Server 2012のシステムファイルをそのまま配布しているので真っ黒
そもそもボラクルにやる気があるのか
>>750 btrfsのことならメイン開発者はもうオラクルにはいないぞ
752 :
363:2013/01/20(日) 20:51:21.82 ID:VrfUmOPB
なに!
ならもうBtrfsはオワコンなのか
始まってすらいなかったような・・・
早くbtrfs捨ててZFSを突っ込めばいいのに……
FreeBSD, OpenBSDと共同で、OpenZFSとか作れないものなのかしらん。
ライセンスは、GPLv2とBSDのデュアルライセンスで
また初めから実装するのは無駄だしBSDと共同はないだろ
その方向ならHAMMERとかどうなん。使ったことないからよく知らないけど。
HammerをOpenBSDやデフォルトにしてほしい
だからZOLどうなってンのよ。
>>759 一向にstable出ないけど1,2ヶ月にいっぺんくらいはrc更新されてるよ。
>>760 返信ありがとう。気長にstable出るの待つかあ。
>>761 これでさらにexFAT/GPTで起動が出来れば、
USBメモリがより安全になり使い道広がるんだが。
Windowsに他ファイルシステムを使えるようにするフリーソフトは何故ないの
Win版FUSEであるDokanもあるし、何が無いんだ?
DokanてWin8未対応じゃなかったっけ
互換モードでインストールできて動くんじゃなかったっけ
何かまずいか?
煽りメソッドとかいう下らないのだろどうせ
Dokan上でencfs4win動かしたらなんか動作が怪しかった
ext4をWinで使いたいです><
zfsで定期的にスナップショット取ってるんですけど
スナップショットから特定のファイルだけ削除することは出来ますか?
この記事がすごくおもしろかったんだけど、
【清水理史の「イニシャルB」】 予想以上に便利な記憶域スペースやSkyDrive連携
Windows 8+NUC+Thunderboltで作る自宅サーバー - INTERNET Watch
http://internet.watch.impress.co.jp/docs/column/shimizu/20130122_582241.html win8の「記憶域スペース」と同等なことをLinuxで実現できるファイルシステムってあるのかな?
いまはLVMで 1TBのHDDを4本束ねて 4TBのボリュームを1つ作っているけど、
どれか1つでもHDDが欠けると、ボリューム全体が見えなくなってしまうよね。
ZFSは、ソフトウェアRAIDとLVMの「あいのこ」みたいな認識を持っているのですが(私の不勉強でしたらすみません)
ZFSは、Raid1をやりつつオンラインで領域拡張をしたり、ボリュームを構成しているHDDの一台が壊れても、
マシンを止めたりファイルシステムをアンマウントせずともHDDの付け替えとかできるの?
>>774 Linux NativeのZFSを使ってるけど、
1T4本なら3Tのディスクが確保できるよ。RAIDZ1というキーワードで
google検索すると、機能の説明や設定方法がいろいろ出ているので、
そちらを参照。
オンラインで切り替えが出来るか、自分も不勉強だったが、SATAのコネクタは
OSが起動中に抜き差しが出来るみたい。年末に会社の備品の整理をした時、
大量のHDDをこの手を使って、データのチェックをしたり、内容消去を
したが、チェックに使ったLinuxマシンは一度も再起動せずにすんだ。
なお、ZFSには一応スペアディスクの機能があり、障害時にはこれに切り替わる
はずなんだが、うまく動かなかったので、単純なRAIDZ1にして使っていた。
その時のバージョンはrc8で、昨年の5月の連休にテストしたから、
今のバージョンでは動くかもしれない。
2012の記憶域プール/記憶域スペースは、zfsで言うなら、zvolを切り出すときにzvol単位で冗長性を指定できる感じだと思ってる
zfsではプール(を構成するメンバ)単位での指定だから、2012の方が柔軟なのかも
冗長性不要のものも混ぜられるから
>>775 >SATAのコネクタはOSが起動中に抜き差しが出来るみたい
それはシステムによる
コントローラ、電源、OS全部対応して初めて使える
>>778 なるほど、前に試した時には認識しなかったり、
Linuxがカーネルパニックになったりしたけど、年末に
試したシステムは、マザーボードが新しいヤツなので
オンライン交換に対応してたのか。
>>774 今のLVMってthin provisioningやraid 1/4/5/6が統合されたんだけど誰も使わないからノウハウが広まらなくて誰も使わないスパイラル
>>780 その辺、fsまで統合しないといまいち気持ちよくならないしなぁ。
782 :
login:Penguin:2013/02/05(火) 16:19:01.78 ID:8jmt/8C7
>>782 普通の外付けHDDとしては特に問題なく使えるだろうね。
ただ、RAIDの診断・管理機能はWindowsでしか使えないだろうね。
786 :
774:2013/02/05(火) 17:42:07.35 ID:iH+ZYp+S
みなさんレスありがとうございます。とても勉強になりました。
この Win8 の記憶域スペースや、VVAULTみたいなのが
Linuxでもできたらおもしろいなと思いました。
自分の場合は、4TBの前は 320GB*4 (1.28TB) のボリュームだったんだけど、
1.28TBが足りなくなってきたら、以下のようにやってました。
・いったん、べつのHDDにまるごとバックアップ
・1.28TBのLVMのボリュームを削除、320GB*4 の HDDは外す
・1TB*4 の HDD を買ってきて付けて、LVMで4TBのボリュームを作る
・バックアップからもどす
こういうのをもっとスマートにやりたい。
でも、LVMの場合、オンラインリサイズできるかどうかは、そのボリュームのファイルシステムに依存しちゃいますよね。
(いちおうxfsをつかっています)
btrfsがやる気あるのかないのか
待てないのでzfs on linuxで構築始めた
ほうそんなものがあったのか
初代Windows Home ServerのDE(Drive Extender)ぽいな
>>786 pvmove、って思ったけどオンラインのままデータ移動できるだけで対して手間変わんねーか
>>786 いやそれで十分でしょ
わざわざオンラインリサイズする必要ないような
>>790 ただ書き込みのパフォーマンスはあまり良くなかった気がするな
796 :
login:Penguin:2013/02/06(水) 10:12:30.76 ID:N5t3SmO4
>>786 前後読んでないので的はずれならごめん
xfsは拡張のみリサイズに対応してる。
電源とsataの口に余裕があれば、オンラインでのリサイズに支障はないよ。
>>793 パフォーマンス関係ないよ。
mhddfsは複数のドライブをまとめて
一本に「見せて」いるだけ。
>>797 一本に「見せる」ためにオーバーヘッドが発生してるわけで
ある程度のパフォーマンス低下は避けられないよ
しかもfuse実装だし
まあ倉庫用ととしては問題ない速度出るし、俺自身愛用している
>>798 そんなクリティカルな業務に利用するもんじゃなし
「ある程度」なんて適当なこと書かんでもw
> ZFSは、Raid1をやりつつオンラインで領域拡張をしたり、
RAID-Z系はオンライン拡張NG(FreeBSDしか知らないけど,
たぶんソラリスでも同じ?).
ただしRAID1 が要求なら,RAID1じゃなくてRAID1類似の
「同じデータを複数記録する」モードなら
動的領域拡張含めて対応OK
> ボリュームを構成しているHDDの一台が壊れても、
> マシンを止めたりファイルシステムをアンマウントせずとも
> HDDの付け替えとかできるの
ZFSとしては楽勝.すでに出てるようにOS側・ドライバとかの
対応の問題.FreeBSDでは出来てるです
>>800 > > ZFSは、Raid1をやりつつオンラインで領域拡張をしたり、
>
> RAID-Z系はオンライン拡張NG(FreeBSDしか知らないけど,
> たぶんソラリスでも同じ?).
> ただしRAID1 が要求なら,RAID1じゃなくてRAID1類似の
> 「同じデータを複数記録する」モードなら
> 動的領域拡張含めて対応OK
RAID-Z も大丈夫だよ。
> > ボリュームを構成しているHDDの一台が壊れても、
> > マシンを止めたりファイルシステムをアンマウントせずとも
> > HDDの付け替えとかできるの
>
> ZFSとしては楽勝.すでに出てるようにOS側・ドライバとかの
> 対応の問題.FreeBSDでは出来てるです
HBA でOS上のデバイス名の特定とエンクロージャーのスロット番号の特定って
どうやってる?
オンライン拡張はZFSの開発理由だからね
メモリは刺せば全容量がすぐ使えるのにHDDは刺した後もなんだかんだと色々面倒臭い
ってのが開発動機だったってあのsunのページどこいったんだろ
ZFSでいろいろ実験したときに、SSDと内蔵HDD、外付けUSBのHDDで
Poolを作ってみた。容量は全てのストレージの合計となり、SSDに空きが
ある時には読み書きも速かったが、SSDがいっぱいになったらショボーンな
結果に。アクセスの頻度をみて、中のデータをSSD->内蔵HDD->USBと
再配置するような高等な機能は無いみたい。
何か設定があるんだったけ?
SunがOracleに買われてから、失われたwebページが大量にあるんだよな...
>>803 キャッシュとかL2ARCとか
よくは知らんが、単にプールの1メンバーとしてSSD足したらそりゃそうなるわな
>>807 うんソレ
Sunの読み物って結構面白いのあったのにね
>801
RAID-Z で例えば4本のpoolについて4本を大容量に交換,は
出来るけど,5本,6本へと「本数追加」は出来ないですよね?
> HBA でOS上のデバイス名の特定とエンクロージャーのスロット番号の特定って
エンタープライズ方面は知らないけど
個人運用だと smartctl -a あたりでHDDのシリアル調べて
実際の弾とのシリアル照合してます
(オンラインで変えるのが前提だったら
設置時にシリアルを前面に貼っておくかな)
>>809 Linux だと sas2icru でエンクロージャ番号スロット番号と SAS address の対
応が取れ、SAS address との対応は、/dev/disk/by-path で取って、sas2ciru
で該当のスロットのランプを点灯させることができて楽なんですが、FreeBSD
だと似たようなことは難しいですかね…?
sas2ciru はあるので、camcontrol とかで SAS アドレスを取れるといいのだけども…
遊ぶだけならなんでもいいだろ。
シリアスな用途ならSolaris一択。
昨年の5月の連休で、ZFS Native Linuxで遊びました。
USBディスクを5台使って、RAIDZ1、2の構築とか、
USBディスクを外してディスク障害発生!!とか。
スピードが遅いんであくまで遊びでした。
USB 3.0なら実用的な速度で動くんじゃ無いかと、
こんな構成のファイルサーバを構想中
本体内 HDD システム
USB 1〜3 HDD (USB 3.0接続)
USB 4 SSDデバイス(キャッシュ用)
なんでUSB接続?
USBだと気軽にdetachできるからじゃ?
>>813 どのフラッシュメモリにも寿命がある。
USBメモリの寿命の短さはSSDの比ではない。
USBメモリをファイルシステムとして常用したらあっという間に昇天するよ。
遊びならいいんだけどさ。
どこにもUSBメモリなんて書いてないのに勝手に訓告してる奴
819 :
817:2013/02/14(木) 20:03:36.35 ID:awn2R1pZ
これは失礼。
ZFSで遊ぶような人なら
USBメモリの書き込み寿命の話なんて百も承知だよな
ZFSのRAIDZとかミラーリングでUSBメモリの寿命の短さを見かけカバーできるんでは?
ZFSがそもそもUSBメモリの障害を想定した設計になってるのか知らないけどさ。
USB = USBメモリ
だからな、一般人にとっては・・・。
一般人はUSBメモリなんて使わないよ
SDカード使うよ
>>780 LinuxのソフトRAIDってmdadm+LVMのイメージだったがどんどんmdadmと機能被ってる気が・・・
>>809 >5本,6本へと「本数追加」は出来ないですよね?
できない。
4本でRAID-Z1のプールに更に4本足して4+4本のプールは作れるけど。
ちなみにZoLだとSATAポートの位置かシリアル名使ってデバイス管理できるよ。
>>811 オープンソースがv28で止まったけど、各OSS実装はv28ベースで独自に機能拡張してるよ。
プラットフォーム毎に非互換になるとマズイので、feature flagsというので名前つけて管理してる。
そのページで28/5000ってなってるのがそれで、便宜上v5000ってことにしてバージョンではなく各feature flagsの有無を機能差としている。
なので本家以外が古いままというわけではなく、最新のillumosやZoLではlz4圧縮とか使えてこれはこれで楽しめるよ。
827 :
813:2013/02/15(金) 18:02:17.96 ID:cwGYnOZ9
一日不在の間に話題の人になってしまった。
USBで接続したいのはディスクの交換が簡単にできる事と、
動作試験が楽かなと思った事です。RAIDZの障害復旧の
テストで、3本のUSBディスクのうち1本の電源をコンセントから
抜けば障害発生の試験が出来ます。
ソフト的にディスクのハード障害をテストできれば良いのだが、
smartの機能で一部セクターの読み込み不可状態とか、ヘッドが
動かないとかエミュレート出来ないものかな。
むしろちょっと試したい人がなんでこんな高いもの買う必要があるのかと。
いや遊びでって書いてるだけだったら別にいいんだけど
その後に実用的なとか言ってるから
USBは固定出来ないから、掃除のおばちゃんが足ひっかけて抜けちゃうからダメ
置く場所が変わらないならeSATAでもリスク変わんねーだろ
掃除のおばちゃん障害復旧が優れているファイルシステムはありますか?
掃除しないこと
掃除のおばちゃんがいないとガベージコレクションできないんですが…
抜けない方が大惨事になる可能性
パソコンの電源を切った状態で掃除してもらえば
どんなファイルシステムでも壊れることはない
電源を落としたが最後、二度と起動しないシステム
書き換えなければ大丈夫
そういやZFSってファイルシステム全体をリードオンリにできるんだっけ
>>840 大抵のファイルシステムはroオプションに対応してるけど
android側から、linux のファイルシステムを外付けhdd、sdカード等で認識させた方はいらっしゃるでしょうか。
当方は、ディスクを複数にスライスしているためか、ext3を含め全てのパーティションを認識出来ませんでした。また、試す事が出来る空のメモリーも所持していません。
御存じな方、よろしくお願いします。
できるかできないかだけでいえばもちろん出来る
>>843 ありがとうございます。その場合は、ntfs のように特別なappを必要とするのでしょうか。play で探しても見つける事が出来ませんでした。
ちなみに、当方、android3.2を否rootで使用しています。
よろしくお願いします。
(´・ω・`)知らんがな
倉庫に最適な圧縮ファイルシステムはなに?
何のデータ入れるかしらんけど普通の使い方じゃ大して圧縮なんか聞かんぞ
reiserfsはスペース効率が高いよ
/etcをreiserf->ext3にコピーしたら1.5倍くらいに膨れてしまう
小さい無数のファイルってパターンはreiserfsが最強かもね
異なるファイルシステム間のコピーはスペース効率の差を考えないと落とし穴にハマる
論理は同じ4kのファイルでも消費する容量は違ってくる
849 :
456:2013/02/17(日) 11:32:16.29 ID:dRMnzkv/
>>846 お前の好きなエロ動画もエロ画像もふぁいとして圧縮済みだから、小さくならないけどいいのか?
>>846 これだな。
$ tar -cJf /dev/sdb hoge
>>850 それtar使う意味あんの。xz単体じゃ駄目なの?
シーッ
相手しちゃダメよ
>>842 Andoridで直接外部デバイスをマウントするにはrootが必要。
rootなしで間接的に読み書きする売り物アプリはある。
>>853 それが、出来たのよ。fat は、でふぉ。ntfs は、それ用のapp をインストールして。
無論、usb ホスト機能が備わったデバイスなんだけど。
出来なかったのは、複数にスライスしたディスクの認識。それと、(事情があって)未確認なのが、linux のファイルシステム。
これ、ぐぐっても上手く情報を見つける事が出来なかったので、質問させてもらいました。
855 :
login:Penguin:2013/02/18(月) 14:50:32.13 ID:6pDBV4ub
>>854 fatがマウント出来るのはSDカードと同じ扱いだからじゃないの?
少なくてもこのスレの話題ではない
>>856 おっしゃるとおりですね。これで、止めておきます。
android のスレッドで答えが出てこなかったので、こちらにすがりました。android でlinux のファイルシステムが認識するかどうかを確認する事は難しくも手間でもないので、環境が整ったら自分で試す事にします。
あと質問するならどういう手順でやってどういうエラーがでてどうだめなのかもっと具体的に書かないと
Androidのroot化スレに来れば?
こんなアプリありませんかスレでも教えてくれると思う。
スライスなんて言葉使うところでイラっときてしまったw
普通はパーティション切る、とかじゃないの。
SliceはSunOSとFreeBSDの方言だね。
方言っていうか、ちょっと違うものだと思うんだが。
いつなる、とか決まってるのか?
カーネルはいつだって発展途上だろうよ。
小数点以下の奇数偶数で性格が違ってた時期とは違うんだし。
http://sourceforge.jp/magazine/13/02/19/2355244 386プロセッササポートを廃止した「Linux 3.8」リリース、SSD向けファイルシステムやExt4でのinode内へのファイル埋め込みなど新機能も搭載
2013年02月20日 15:30 末岡洋子
大きな改良点としては、Ext4ファイルシステムでinode内にファイルを埋め込む機能の追加が挙げられる。
inodeはファイルシステム内に作成されたデータベースで、ファイルサイズやその作成/更新日、
実際のデータが格納されている位置といったファイルに関する情報が格納されている。
ファイルの中身はinodeとは別の場所に書き込まれているが、ext4では一定サイズ(通常は4KB)のブロックでデータを管理しているため、
数バイトのデータでも4KB分のブロックを消費してしまうことになっていた。
そこで、このようなサイズの小さいファイルについては、inode内で利用されていない空間に格納することでディスク容量の無駄な消費を抑え、また読み込みパフォーマンスの向上を図るという。
NTFSみたいな仕様になってきたな(700バイト前後のデータはMFTに格納)
NTFS「二十年前からやってたわー」
むしろ今までやってないことに驚愕した。
当然そういうことはやってるものだとばっかり。
869 :
login:Penguin:2013/02/25(月) 20:39:00.96 ID:6sPbIYsJ
linux生まれのファイルシステムは本当にロクなものがないな
reiserfs使えばいいじゃんって言われていたところ
>>867 MFTが無駄にでかくなるのは勘弁してほしいですな
デフラグの邪魔になるし
metadataはwrite throughがbasicだから、
そこにdataをembedするとgentleにhandleしないとtoo slow。
That's too bad.
>>872 ついでに教えて欲しいんだが、gentleにhandleするひつようがあるのはだれ?
ユーザースペースのプログラム?それともファイルシステム実装?
>>871 デフォルトじゃ256バイトまでしか格納しないから大丈夫
静的inodeのext4にサイズは元々関係ないだろ
>>876 NTFSってそうなんだ。
ぶっちゃけ意味ないよね、WindowsOSって粒度の小さいファイルがメインじゃないし。
ブラウザの履歴とかがショートカットファイルなんじゃなかったっけ?
履歴なんてまとめてDB系のファイルになってんのと違うの?
まさか1件ごとに1ファイル?
昔はCOOKIEとか1ドメインに1ファイルだったりしたな。
今はどうなってるのか知らんが。
個人的には1件ごとに1ファイルがよかったな。lsとかgrepとかつかえるし
DBの機能はファイルシステムが持つべきだった
256バイトはext4の話だろ
>>878 256バイトなのはext4の方
NTFSは700バイトくらいまでいける
>>884 ん? そうなの? 今まで埋め込み機能はなかったんじゃないの?
>>886 で今回4k以下のファイルが埋め込み可能になったと。
まさかext4のinodeが4KBあると思ってる?
>>887 ん、いや
>>866 の記事だと256バイトという記述はないので、
そうなの?って聞いているだけだけど。
>>888 さらに元の記事というか仕様をよむと書いてある
英語だけど中学生でも読めるから読んどけ
簡単な英語すら読まないクズがなんでこんなところに?
>>867 > NTFS「二十年前からやってたわー」
まるで UNIX みたいでつね。
最近は英語を読む必要もないよ
自動翻訳の変な日本語を理解する能力があればいい
技術革新で生まれた新しいスキル
NTFSってVMSの流れを汲んでるんですよね
宮坂美樹さんHPからOracleへ転職したんだ。
ご愁傷さま。
>>897の先の報告書より
> 処理可能な最大 IOPS に到達すると、性能が劣化し期待した
> 処理能力を下回ってしまうことが判明しました。
そりゃそうだろうw
上限超えてるのに期待した処理能力もクソもない。
メモリ・ディスクとネットワークが一般的なパフォーマンスボトルネックだしね
ここ10年以上いわれてるけど、シリコンものの性能向上にぜんぜん追いつけねぇ
マルチコアの世界になってさらに帯域食うようになったし
鯖のSSD化の稟議通らないです。DBチューニングするのはもう限界なんで誰か助けて
901 :
login:Penguin:2013/03/05(火) 13:28:57.86 ID:J2lJ1JvE
これ以上ディスク回転数上げたら音速越えるからな
記録密度を上げて早くするしかない
今のHDDはプロペラ機の限界
ふしおにおは甘え
ん?ジェットエンジンのタービンは音速超えてないってこと?
904 :
login:Penguin:2013/03/05(火) 15:43:02.83 ID:JaA29UJB
HDDの回転数が音速超えてソニックブームが発生するようになったら、サーバー室での作業が大変だな
ターボファンエンジンはファンがギア減速されてるから音速は超えてない
>>900 >>897でもpingがロストするくらいファイルサーバーのポートへの帯域圧迫があったらしいぞw
それで待機系への切り替えが頻繁に起こったとさ。
とっととトランクしとけよ。
>>904 掃除のおばちゃんが入ってきても気づかないから危険だな!
テラバイトメモリのPC環境って構築できるのかな
>>905 ギアードファンターボなんて特殊すぎるものを
低圧タービンと高圧タービンに分かれてて、ファンは回転数の低い低圧タービンで回す様になってる
シャコッ!
真空にすればいいんじゃね
真空管の中にボトルシップよろしくコンピューターを入れるのかw
914 :
login:Penguin:2013/03/05(火) 23:47:16.92 ID:WrNF/wFV
もうね、地震計がこう、シャッコンシャッコンシャッコンシャッコン
915 :
login:Penguin:2013/03/06(水) 00:15:55.24 ID:MoeFIkbG
月にデータセンターを作ることもできるけど
応答に3秒弱かかる
物凄く固い金属の棒で月と地球をつなぎ、棒を押したり引いたりして信号を送れば超光速通信の出来上がり
まずは光速で棒を押す技術の開発からだな
いや、光速で押す必要はないんだけどね
正しいツッコミはスレ違いなので略
>>901 今後はSDDに取って代わられるでしょ(´・ω・`)
>>912 真空だとヘッドが浮かないんじゃないのか。
ヘリウム充填にすれば音速は空気の三倍ぐらいになるが。
>>916 ものすごく硬い金属でも弾性は存在するから
地球と月の間に渡したとしても押し引きの動きは光速未満の縦波として伝わる
なので超光速通信はできない
いや明らかに
>>916は分かってて言ってるだろ。
有名なネタだし。
>>922 現実には存在しない完全剛体でも無理なんだけど…
925 :
login:Penguin:2013/03/06(水) 12:18:08.97 ID:z6bfz3k3
ハードディスクって音速以下なの?
真空にしたら音速超えれない?
音速超える以前に回転数ぜんぜん足りないだろうが
>>924 お前の言ってる「完全」とはどういうものだ?
完全剛体と光速有限は両立しないから>924のレスは変。
完全剛体のある物理学を構築したいならご自由に
完全剛体自体が今の物理学と矛盾する性質を持っているので定義次第でなんともいえる
でもその前にSSD化の予算承認してくれ
結論:月DCはデータのバックアップ/倉庫にしか使えない
あとTCP以外で通信しなきゃいけない
(例えばUDP使ってアプリ層で再送とかするとか
937 :
login:Penguin:2013/03/07(木) 17:45:56.81 ID:SLN9J81H
>>934 どうせならRFC1149を拡張しようぜ
938 :
login:Penguin:2013/03/07(木) 17:49:44.93 ID:YxdRbsv1
>>937 今のプロトコルでもロケットに鳩を乗せれば大丈夫
別に月まで持っていかなくとも、ISSぐらいでいいんじゃね?
真空だし、無重力だし。
truecryptでファイルシステムbtrfsにしようとしたらできなかったんだけどそんなもんすかね?
>>938 鳩をロケットでカプセル化すると、送達成功確率が著しく低くなるんじゃないでしょうか
またロケットは戻って来れないので、一方通行になっちゃうのでは。
>>938 |
\ __ /
_ (m) _ピコーン
|ミ|
/ `´ \
ノ´⌒ヽ,
γ⌒´ ヽ,
// ⌒""⌒\ )
i / (・ )` ´( ・) i/ 余計なこと思いついた!
!゙ (__人_) |
| |┬{ |
\ `ー' /
/ |
ZFSってgoogleかFSFが受け持ってくれたらよかったのにね。
>>940 Arch wikiに詳しく書いてあるので読んでみるといい
ライセンスがCDDLである限りFSFはありえないな。
SunをGoogleが買っちゃえばよかったのにな……戦犯は誰なんだろう……
ジョナサンなのか?エリックなのか?ラリー(ペイジじゃないほうね)が強引だったのか__
948 :
login:Penguin:2013/03/08(金) 17:43:11.09 ID:u8UldJjK
Oracleはほんとに墓場だな
mysqlとかopenofficeとか…
何をいまさら
Linuxも引っ掻き回してクソにしてやがるからな
うへe4defragってファイルと同以上の空き容量必要とするのな
でかいファイルだとデフラグできねーじゃん
>>951 でかいファイルをデフラグする意味がわかりません。
つながってた方が気持ちいいだろ?ext4だとパフォーマンスのメリットもあるし
エクステンド入れ替えてるだけなのに空き容量食いすぎだわ
× エクステンド(extend)
○ エクステント(extent)
>>951 ext4はでかいファイルのデフラグが苦手なので問題ない
RAIDZって一度組んだらディスクの数を増やすことは出来ないんだよね
容量増やそうと思ったら全部のHDD増やさないといけないんだろうけど
1TBx4で組んでて1台を2Tにしてこの2TのHDDを二つのパーティションに分けて
1TをRAIDZに1Tを別の領域として使うことは出来ますか?
>>951 LinuxだとWindowsのように容量ぎりぎりまで使うのはやめたほうがいい
空き容量が対象の最大ファイルサイズと同じだけ確保できないならば、
その巨大ファイルだけを一度バックアップし削除した状態でe4defragを
行うべきです。
>>952 P2Pでもやっているんでしょwwww
30Gのssdをやりくりしてるだけだ
人聞きの悪いやつだな。お前がp2pやってるからって他人もそうだと思うなよ
959 :
login:Penguin:2013/03/13(水) 03:41:51.92 ID:VsXQe3Fy
Linux使ってる奴がp2pが悪という日本の世間の風潮に乗っかるとは驚いた
ぜってーお前のような奴がトレントはソフトの配布にもどうとか文句つけてくると思ったよ
一から100まで言わないといけないのか?鬱陶しい
>>956 出来る出来ないで言えば、出来る。
おすすめはしないけど。
>>958 SSDなのに大きいファイルのデフラグをしたいの?
ますます意味がわからない
30GBだったらHDDにコピって書き戻した方が速そう。
>>956 1TBx4に更に2TBx4を追加する、という感じの増やし方は可能。
煽りとかじゃなくて、そこまでして個人で保持したいデータってどんなものなんだろう。
在りし日のカーチャンの動画だろう・・
エロ画像/動画の収集癖がついてしまうと、そのうち集めることそのものが目的に。
あと、アニメのTS
そこまで行ったらキチガイ。ちっとは自覚したほうがええで。
おおきも。
言うまでもないことだけど967はただのキチガイ荒らし
単なる保管用ならSSDは高価すぎる
保存ならテープでしょ
WDのHDDでもいいけど
保存用なら石版が太古の昔から最も信頼性高いとされている。
>>972 すれ違っただけでデータもってかれるんですね。わかります。
あ
btrfsってサルベージツールあるの?
fsckがsegv起こすのに期待するな。
日経Linux 2013年3月号
データ破損が起こりにくいファイルシステムBtrfsでデータの破損を防げる
Btrfsではデータを更新する際、上書きするのではなく、空き領域にデータをコピーして、そのコピーに対して変更を施す。
そのため、データの破損が起こりにくい。 「Btrfs」(バターエフエス)というファイルシステムが使われ始めた。
データの安全性を保つための仕組みを複数備え、さらに柔軟なストレージ管理やボリューム管理が可能な多機能フ…
>データ破損が起こりにくいファイルシステムBtrfs
>Btrfsでデータの破損を防げる
まじで?!
btrfs「CPU spikeやpanicはデータ破損じゃないから」
まだunder heavy developmentだというのに…
それが日経BP
まあ犠牲者が多いほうが早く安定するしな
>>978 何が問題なんだ。
「設計通りに動いた場合は」という接頭語と、「とはいえ、まだ開発途上である。」という接尾語が抜けてるだけだろう。
日経なんて情弱専用なんだから、犠牲者が増えるだけ
失われた石版がどれくらいあったか、今となってはわからない
987 :
login:Penguin:2013/03/15(金) 22:28:36.46 ID:9RL37dsq
今週リリースされたopenSUSEでbtfsが使える&サポートされてる
パッケージアップデートかけた後のロールバックとかが出来る
えっ
いままでbtrfsまともに使えなかったってこと?
ああ SUSEのSnapperのことか
埋めネタもないのか
991 :
login:Penguin:2013/03/16(土) 18:47:10.90 ID:52iRaHiP
btfsって実験用だから捨てて、最終的にはext5になるんじゃないの?
次スレ既に立ってるじゃん。うめ。
>>993 2013-02-16の講演みたいだね。面白い。
最近はちょっと安定してるっぽいことを最後の質疑応答で言ってたけど、その前のを見てるとちょっとこえーよw
開発中ならこんなものだろう
reiserfsも2.4の初期にやらかして阿鼻叫喚になったしなあ
B
t
r
fs
1001 :
1001:
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。