あ、新スレ立ったのか。乙>1
ところで、バックアップツールで一つ発見。(GNU な)cp は
メモリリークするので使ってはいけない。250GBのデータコピーしたら
メモリを使い果たしてシステムごとあぼーんしました。ガイシュツ?
どこだか知らないけど、見たことあるよ。
4 :
名無しさん@お腹いっぱい。:2006/08/01(火) 09:39:54
これはリークじゃないけど、rsyncもオンメモリで比較用データ持つから
巨大なファイルツリーの転送には使えないんだよな。どっちも本格的
バックアップには元々使わないだろうけど、対象が巨大化すると
こういった細かいツールが思うように使えなくなって困る。
…pax最強?
rsync -W
dar も同じで、ファイル管理情報でメモリ一杯になる orz
変な質問で申し訳ない。
AIXでmtxを使用することはできますか?
これのこと?→
http://mtx.badtux.net/ かなり低レベルなSCSIアクセスするみたいだから、無理じゃね?
開発対象外だし、動作レポートはSolaris/Linux/FreeBSDで埋め尽く
されてるから動いたとしても安定稼動できるかは「?」だろうし。
保守
rsyncでsshを経由してバックアップを行っています。
日本語を使用したディレクトリ下のファイルが転送されないのですが、
日本語ファイルは扱えないのでしょうか?
普通に使えると思うが、エンコーディングは?
ローカルで rsync foo/ bar/ でも駄目なの?
OSは?
>>12 OSによる。Windowsだと日本語ファイルには完全には対応していない。
16 :
名無しさん@お腹いっぱい。:2006/11/06(月) 10:46:48
Windowsだったら、UTF-8化したcygwinのrsync使えば日本語可能だけどね
UTF-8化したcygwinはどこで手にはいるのでしょうか?
ググレカス
19 :
名無しさん@お腹いっぱい。:2006/11/30(木) 20:07:14
ググったのですが見つかりません
20 :
名無しさん@お腹いっぱい。:2006/12/02(土) 23:39:41
rsyncもうまくディレクトリ分けて実行すれば何とかなるのでは?
21 :
名無しさん@お腹いっぱい。:2006/12/27(水) 01:02:15
webdavに対してrsyncを使いたいのですが、どのオプションを使えばよいのでしょうか?
davは対応していない
google に対して rsync を…
amazon に対して rsync を…
○△□ に対して rsync を…
バックアップはとっておくべきだべ。
26 :
名無しさん@お腹いっぱい。:2007/01/15(月) 00:23:57
rsync って、2つのディレクトリを比較して差分ミラーしてくれるけど、
前回の情報ってどこに保存してるの?
それとも毎回全部比較してるの?
毎回全部比較しないようにする方法はありませんか?
>>28 「毎回全部比較しない」ってどういう挙動を期待してるの?
毎回全部取れ。
>28
自分で比較しなくていいものを指示しろ
i.e. 比較が必要なものを明示しろ
rsyncでバックアップを取る際に、バックアップ元にないファイルは削除したいのですが、どのオプションをつければよいのでしょうか?
現在のオプションはavzです。これだと差分だけ転送されてバックアップできるのですが、削除はされません。
よろしくお願いします。
--delete
>>28 亀だけどLinuxなら
$ inotifywait -m -e delete -e close_write -e move -r /tmp
とかで変更操作内容を記録しておける。これを使えば差分転送を
比較なしにできるよ。OSによってAPIが違うみたいなので、他のOSの
場合はそこから調べないといけないけど。
圧縮した状態でバックアップしておきたいのですが、みなさんはどのようなツールをお使いですか?
dump
40 :
名無しさん@お腹いっぱい。:2007/02/20(火) 13:26:29
Winodws上の日本語ファイル名のファイルを
CygwinのrsyncでLinux上にコピーしたとき
Linux上でのファイル名は意味不明の数字になります。
Linux上で作った日本語ファイル名のファイルは
正常に日本語が見えています。
rsyncでコピーしたファイルの日本語ファイル名が
適切な文字コードに変換されるようにできないでしょうか?
板違いだろうなきっと
rsync はファイル名の変換をしてないので、自分で変換するコードを入れるか、
rsync したあと自分で変換するわけだが...
mv $file `echo $file| nkf -W8 -s`
とか。ただし、rsync する意味はなくなくるけどね。
Linux 側をUTF locale にするとそのまま見えたりするかも。まぁ、Windows と
一緒に使う奴ならlocale はShift JISなんだろうけどな。
なんか FreeBSD の /sbin/dump って最近変わった?
新しいテープでもなんでもこんなことをいわれるんだけど:
# dump 0ufabh /dev/nsa0 256 0 /home
DUMP: WARNING: should use -L when dumping live read-write filesystems!
DUMP: Date of this level 0 dump: Mon Mar 12 15:03:23 2007
DUMP: Date of last level 0 dump: the epoch
DUMP: Dumping /dev/da1s1a (/home) to /dev/nsa0
DUMP: mapping (Pass I) [regular files]
DUMP: mapping (Pass II) [directories]
DUMP: estimated 31198136 tape blocks.
DUMP: End of tape detected
DUMP: Closing /dev/nsa0
DUMP: Change Volumes: Mount volume #2
DUMP: Is the new volume mounted and ready to go?: ("yes" or "no")
dump - | dd of=/dev/nsa0 bs=256k で書き込む分には
全然問題なく書き込めるんだが...
baculaいいよ
45 :
名無しさん@お腹いっぱい。:2007/03/29(木) 04:18:13
rdiff-backupな人はおらんの?
つーか、cygwin→debianで使ってるんだけど、cygwin側のパーミションの取得に失敗してるのか、強制的に000になってて泣ける。それ以外はいいソフトなんだけど。
むかしはrsyncを一日一回動かしてたけど、たとえば、ファイルサイズを0にするウィルスにかかって、気づかず間にrsyncが走ったら・・・と思って怖くなって移行した。
cygwin相手にrdiff-backupなんてなあ... とてもじゃないが恐くてできない。
今、AIT-Turbo試しているんだけど、くソニーが SATA版の
ドライバのOS範囲を拡充しないので、どうしたものか。
48 :
名無しさん@お腹いっぱい。:2007/09/05(水) 14:47:30
超遅レスですが、私も rdiff-backup を使い始めました。
Linux to Linux です。
pdumpfs は、リモートからの(or リモートへの)バックアップに対応していないので
rdiff-backup を使い始めたのですが、
# rdiff-backup ./foo user@host::/bar
するにしても
# rdiff-backup user@host::/foo /bar
するにしても、相手方に rdiff-backup がインストールしていないとダメなんだよね
(やってみたらそうなった)
rdiff-backup は、バックアップから取り出すときの指定は、pdumpfs よりいろいろできそうだけど、
pdumpfs の、YYYY/MM/DD ごとにファイルが並ぶほうが、直感的でわかりやすいな。
pdumpfs-rsync というのもみつけた。
49 :
名無しさん@お腹いっぱい。:2007/10/28(日) 09:20:07
rsyncをcronで実行しているのですが、実行結果をログの形で残すことはできないでしょうか?
できます
もちろんできます
たしかにできました。ありがとうございました。
rsyncをcronで実行しているのですが、実行結果のログを残す方法を教えてください
>>filename.log 2>&1
rsyncが止まって動かなくなるんで、バックアップに使えなくなった・・・orz.
scpに切り替えてしまうのが吉。
rsyncは規模に対する限界が速すぎるので、scpにして後は回線帯域を
投げて解決。フルコピーできない場合はmd5sumとか取っておいて、それを
比較して該当分だけscp。
たかがファイルコピーだが、規模が大きくなると別種の問題になるよね。
rsyncはメモリリークしてるわけじゃないけど結構前のGNU cpではリークしてて、
数百GB、数百万ファイルのcp -aしたらメモリが尽きてお亡くなりに。
そりゃ普通はリークしてもすぐ終了するから問題ないんだけどね・・・
rsyncは対象ファイルが多くなればなるほどメモリ使うからね
数が多いと数ギガとか使われる
>>56 規模が大きいことを前提としておいて scp とか md5sum とかあり得ない。
そんなことするくらいなら、古典的な tar の差分バックアップの方がずっとまし。
ついでに言うと rsync 3.0 でその手の問題は解決。
Win のデータを Linux サーバに、Unison というソフトで同期バックアップをしているのですが、
日本語のファイル・フォルダ名が入っていると、バックアップができません。
パッチとか、良い方法はありますか?
>>60 それはまった。Linux側ではUTF-8、Windows側でSJISでうまく同期できず。
OCamlなんて言語で書いてあるから直す気も失せた。
現状うまく使う方法としてはSamba経由でドライブにマウントして、
その上でunisonをドライブ同士でかけることかな。もっとも自分は
Windowsのオフラインフォルダに逃げた逃亡兵。
>>62 smbget でミラーつくったりしてるけど。
>>62 おお、同志よ!やっぱりはまりましたか!
じゃ私は、Unison 諦めて Mercurial に逃げます!
バックアップを暗号化したいのですが、定番のやり方ってあります?
現在は、cron+dumpでファイルに落として、そのファイルを別ホストにミラーするのと
DVDに焼くのとでバックアップを回してます。これだとダンプしたファイルを
秘匿しないといけないのが難だなってことで、暗号化したいと思っています。
初めはGnuPGがいいかなと思ったのですが、同一のパスフレーズから完全一致する
鍵ペアを再生成する方法がわからなかったので、鍵ペアの保守に困りそう...
てことで、mcryptを調べたりしているところです。
対象ホストはLinuxですが、なるべくOSに依存しない手段を選べると嬉しいです。
何かアドバイスがいただけるとありがたいです。
bacula はバックアップの暗号化をサポートしてるで
やっとでたのか〜
70 :
名無しさん@お腹いっぱい。:2008/04/14(月) 11:14:42
追記:あと差分コピーも可です。
>>70 ファイル数が多いとすぐ1Gとか行っちゃうよ
個々のファイルサイズにもよるけど
tarで固めて全部送ったほうが速い場合もある
rsyncで処理するのが不適当なファイル数なら、俺なら(ufs)dump/restore使うなあ。
そういう意味ではなく、全体のファイル数が多くて、差分コピーするって話なのですが・・・
500GBのストレージで10GBしか更新されたファイルがないようなときです
>>70 その fastcopy ってやつの仕組みは rsync とどう違うの?
>>70 rsync-3.0はあまりメモリ食わないみたいよ
着目するべきなのは容量でなくファイル数。
まあrsyncで実際に試してみりゃ問題ないのわかると思うけど。
>>75 FastCopyはこれです
http://www.ipmsg.org/tools/fastcopy.html 元々は、小さなファイルなどをオンメモリで一括コピーするような
高速なファイルコピー、削除ツールなのですが、
UNICODE対応、省メモリなのがこれしかなくて、
Windowsでのバックアップ、ミラーリングに使ってます
(バックアップ専用ソフトでもこういうのがなかなかない)
HDD内に100万ファイルくらいあってもメモリ量はびびたるもの。
前にWindowsでBunBackupというのを使ったのですが、こちらは、
100万ファイルだと1.0GBほどメモリを使いましたw
rsyncのソースは読んだことないのですが、
メモリをたくさん食う方だとネットでも見ているのですが、
そうなるとクリティカルなバックアップ局面では使えない気がします
3.0では解決された?
>>78 rsync 3.0ではファイルの数が多くてもメモリの使用量は少ない.
ただし,
・更新元にないファイルをどのタイミングで消すか
・ハードリンクをどれくらいちゃんと扱うか
といった条件次第では, 転送を開始する前に両端での各ファイルの
stat 結果を保持することになるのでメモリの使用量は従来同様多い.
>>78 ipmsgのファイル転送も最強に速いからね
ただ、FastCopyはファイル転送ツールじゃないでしょ?
>>80 いつからここはファイル転送ツールスレ(しかもWindows)になったんだ?
まあ rsync がベンリすぎて remote 相手でなく
ローカルで使うことも多いってことの弊害(?)だわな
人に聞く前に自分で試せ
その方が三億倍早いだろうが
お前の手と目と頭は飾りか?
飾りです、エロイ(ry
ext3専用→dump
Reiser4でdumpと同じようなソフトは何かある?
ありませんのでReiserFSは捨ててください。
87 :
名無しさん@お腹いっぱい。:2008/04/23(水) 02:47:24
初歩的な質問ですみません。OSはGNU/Linuxです。
tarを使ってバックアップを採っていたのですが、どうやらこのプロセスが
ハングアップしてしまったようで、psコマンドで見ると以下のような状態になって
しまいました。
で、kill -9 も効きません。
# ps aux
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
・・・・・ 抜粋 ・・・・・
root 4254 0.0 0.0 0 0 ? DW Apr18 1:56 [tar]
また、テープデバイスも道連れになってしまったようで、テープの操作が
できません。offlineも駄目です。
なんとかテープドライブを使える状態にしたいのですが、リブートせずに
テープデバイスを開放する方法は無いでしょうか?
# mt -f /dev/st0 status
/dev/st0: Device or resource busy
# mt -f /dev/st0 offline
/dev/st0: Device or resource busy
kernelの中でIO待ちになってしまっているので、いくらkillしても
IO待ちが終わらないとsignalは届かないだろう。
テープ無理矢理イジェクトするとか、ドライブの電源落としてみるとかすれば、
運が良ければtimeoutして戻ってきてくれるかもしれない。
ドライブの eject ボタンを5秒ほど押すと、リセットできるドライブが
多いんだがドライブの取説には書いてないか?
いちおう
kill -HUP
kill -INT
kill -QUIT
ダメなら
rmmod -f st
これはパニって死ぬかもw
91 :
87:2008/04/24(木) 02:26:04
アドバイスありがとうございます。
>>88 内蔵のドライブなのでドライブのみ電源を落とす、てのはできませんでした。
ただ、イジェクトボタンでのイジェクトは出来ました。
そこでどうだっ! とkill -9 でしたがやっぱり駄目でした。
>>89 テープのイジェクト状態で、ボタンの長押しもやってみましたが残念ながら
状態は変わりませんでした。
>>90 ありがとうございます。試してみます。
kill -HUP は-9の前にやってみたんですが、他は明日やってみます。
…rmmodはちょっと怖い(動いてないけど捕まえてるみたいだし)ので保留という
事で… スミマセン。
なんとなく、[tar]を殺せばなんとかなりそうな感じもするんですが、調べてみる
と「まあ、まずはテープを開放しろ」てなページも多かったりで(その方法も判か
らないでいますが)どっちが先なのだ?と言う感じになってしまっています。
上手く行ったらご報告しますね。
テープがSCSIならSCSIケーブル抜けばドライバがバスリセットかけて
復活するかも。その後でもっかいつなぎなおしてrescan-scsi-busすればいい。
93 :
87:2008/04/29(火) 13:57:26
結局ベンダーへ問い合わせしました。
今結果待ち。結構待ってます。
>>92 ありがとうございます。
ただ、内蔵なんですこれが。
ちなみに、windows系のサーバなんかだと周辺機器へのアクセスが無い事を確認し
て、結構 機器のoff→ON!とかやっちゃう事はあるのですが(今回のように内蔵
だとそれもままなりませんが)solarisやらLinuxで同様の事ってやって大丈夫な
ものなんでしょうか?・・・・ここで聞くこ事でもないのかもしれませんが。
カーネルがパニックとかになると、結構怖いかも(イジェクトボタン長押しはやり
ましたが。。)
ふた開けてデバイス供給コネクタだけ抜けば?
とか
scsi*系コマンドでリセット命令送信することができたような・・・
バックアップしたい500Gのドライブがあって400Gまで溜まったので
そろそろバックアップしたいと思います。
テープバックアップは考えておらず、HDDは以前にモータが壊れた事があるので
DVDでバックアップを考えています。
差分のイメージを作成し圧縮してDVDに保存することは可能でしょうか?
>>96 可能
だけど、圧縮なんて、ほとんど効果無いし、焼き損じの可能性を
考慮するとリスキー
>>96じゃないんだけど便乗で。
つまりお薦めはやっぱりテープということに?
>>98 オヌヌメは同容量のHDDだな
ddの後でザット内容を確認したら、保管しておけば
ます故障は無い
心配なら2台取れば良いし
俺なら、新品を装着して、古いのをバックアップにしまうけどね
だいたい、毎日使っていて壊れないのに
引き出し保管で壊れる訳がないんだよ
DVDの劣化の方がもっと心配じゃね?
差分を取るのも基本的には同じ考え。
テープやDVDにコマギレでしまうなら、HDDのほうが信頼感はある
テープは週単位とかの書き換え前提な一時的なバックアップだな。
>>99 >だいたい、毎日使っていて壊れないのに
ダウト。毎日使っているから壊れない。
HDDへのバックアップは極めてお勧めしない。
>100
そうなんです。
HDDは通電してないと、モータの寿命が早まる気がしています。
基本的にまわし続けていたほうが長いと思います。
やはりDVDでやりたいと思います。
今ならDVDよりはBDのほうが楽なんじゃないの
年中無休発狂妄想爆裂憤死寸前粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6による気違いカキコの続き:
リナックスデスクトップ画像 Part19
http://pc11.2ch.net/test/read.cgi/linux/1210695705/163 163 名前:login:Penguin[sage] 投稿日:2008/06/02(月) 18:40:08 ID:NHwjZMfE
FreeBSDスレにいたキチガイじゃ!!
初心者もOK! FreeBSD質問スレッド その95
http://pc11.2ch.net/test/read.cgi/unix/1210728872/793 793 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:41:54
このkitty guyは、ここより大人しいがLinux板にもいるぞw
アク禁にならないのが不思議w
795 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:53:54
やはり本人だったかw
797 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:55:10
特徴ありすぎて他板でもすぐにわかるな彼 かわいい
なんも知らないLinuxについて教えてのスレ
http://pc11.2ch.net/test/read.cgi/os/1211461879/67 67 名前:Be名無しさん[sage] 投稿日:2008/05/30(金) 18:29:07
某基地害猿みたいな奴はどこにでもいるんだな
--------------------------------------------------------------------------------------------
UNIX板のあちこちのスレッドを荒らしている凶悪メンヘラ・真性キチガイ猿粘着◆QfF6cO2gD6。
いつも荒らしを憎むようなレスをするが、実際に荒らしているのは自分。
気色の悪い年中無休発狂粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6があちこちのスレに
遂に理解できないような基地害カキコをし始めた!気持ちが悪い…。
>>100,101
壊れてもいいんだよ。
バックアップの効果は寿命が異なるメディアにデータを乗せることで
片方が壊れたときにもう一方が生きている可能性を高めるだけだから、
バックアップ側が違うタイミングで壊れる限り、問題なし。
すみません。
この調子でいくとデータが1Tをオーバーするんですけど、
HDDの容量をオーバーする場合、2台になり管理が難しくなります。
スナップショットを利用すると解決するのでしょうか。
スレからするとバックアップをどうとるかについての疑問?
バックアップ側のHDDもRAID にするしかないでしょう
or 素直に LTO-4 辺りを使うか
>>104 おいおい、壊れるタイミングは違うだろうけど、
バックアップが先に死んでいたらどうするんだ?
HDDは止めている方が死にやすいんだから、バックアップ側が先に全滅ってのは
大いにあるぞ。
で、バックアップが全滅しているのに気付くのは、大抵リストアしようとしたとき…
差分バックアップだったら, dump, tar, cpioお好きなのをどうぞ.
Dar もお勧め。
Darとは!
しらなかった
間を取って、差分データを常設HDDに格納だな!
しかし、アニメ・3D系の制作会社のテラレベルのバックアップはどーなってんの!
otsuneモヒカン先生が詳しそうだけど
ギョームの話はあまり書かないからなぁ
HDDはRAID以外使い道無いって事か
保管や可搬性を考慮した場合、DVDかテープという事に?
テラレベルのバックアップなぞ、HDD以外考えれん。
DVD はムチャでしょ。
いったい何枚いるのやら。
定期的に生死を確認するだけでも一苦労だと思うけど。
テープは強力だとは思うけど、 LTO とか個人で使うには高すぎるよね。
DDS じゃ容量的に DVD や BD と大差ないだろうし。
現実的なのは HDD しかないと思う。
俺はテラクラスのバックアップなんて言ってないが
お、おれも言ってないぞ
放送業界だとLTOで納入じゃなかったっけか。
バックアップも自然とテープでしょ。
HDDのバックアップは基本的にNGだろ!
NGなんてメディアあったっけ
確か微生物を使うやつじゃなかったっけ?
ゲーセンで配るのか。。。
なんか前提がはっきりしないから話がまとまらないね
HDD を使わないで保管しておく場合、どれくらいで壊れるの?
例えば、新品で買って、バックアップ取って、そのまま保存した場合、とかさ
もしくは、実際に壊れた人は体験談を教えてよ
>>124 迷信だろ
うちは10年で50-60台じゃ効かないくらいの
バックアップHDDが保管庫にあるが、一番古いものでも
全く問題ないよ
いちおう、安全を考えて多重化もしてるけどね
むしろDAT時代のテープが復帰できないことが多かった
書き込み不良もあるんだろうけど
とにかく時間が掛かるんで、確認もおろそかだったし
不人気なので今は一切使われていない
ローカル単位だとDVDもDLTもあるんだが
DVDは多少の焼き損じが発生してるので、バックアップの総元締めのHDDから戻す
信頼性が抜群なのは、8単位の紙テープ
これは、信頼度100%だね
もう廃棄が進んで、ほんの少ししか保管されてないけど
8/5/3.5FDは完全廃棄済み
DTLA(旧IBM)製でデータが全て飛んだことがあるから、怖いんだわ。
DTLA30台買って、結局全て壊れたもんなぁ
今はseagate使ってるよ。
おまいらはscsiつかってるのか?
サーバリプレイスと共にディスクはSASに移行中
バックアップメディアは今もDDSです
昔あったのだと、
Seagateの4G、3年もので2勝3敗、Quantumの4G、5年もので2勝1敗。
ってことで、今ではLTO使ってる。
>>126 それはDTLA だからだろ、と俺は突っ込みたい
SASってぜいたくだよな。
HDDバックアップしてる人に質問
バックアップ先のファイルシステムは何ですか?
もれは鯖:xfs
バックアップ先:xfs
ファイルシステムにせずに、ブロックデバイスに直接 tarです。
HFS PLUSじゃないのかよ!
>>134 なにそれ?
High-performance File System な。
UFSみたいなもんだよ
本来はJFSなんだろうけど、過去の資産からの継承でHFSなだけ
紙に書き写しておいて、データが飛んだら復活の呪文を唱えると…
そうそう、そんな感じ
しかしHDD って3-5年程度寝かせるだけで駄目になるもんなのかね
なる!
通電しといたほうがいい。
ブロックデバイス間でコピーしてるからファイルシステム関係ない。
xfs->xfsとかでやると速度どれくらい?ファイルシステム的にはそっちの方が
いいだろうから、速度次第でやってみたい。
ダイレクトだと50MB/s程度は出る。
キャラクタデバイスにしろよ
>>139 低温、低湿の保管庫なら
10年間くらいはは、全く問題ない
定期的に繋いでスピンアップさえしとけばいいもんだと思ってたが。
ほとんどの人がHDDバックアップなのかね?
希少でしょ
個別のファイルのバックアップは HDD2HDD が
利便性を含めて一般化してきているのではないかな?
HDDの一領域とかでなく,きちんとバックアップ用HDDという
意識で別に運用する分にはかなり有効だと思う。
毎日の差分とかも取り出す作業含めてテープよりやりやすいし。
でも,システム丸ごとの「これ、バックアップね」って
シール貼って保管する用はテープの方が安心感100倍だけど
> でも,システム丸ごとの「これ、バックアップね」って
> シール貼って保管する用はテープの方が安心感100倍だけど
かかるコストの割に使用頻度が低い(というか、ない)ので
今後はそういった慣習は無くなるのではないだろうか。
まあ、保険みたいなものだな。
保険にどれだけ金を掛けるかは、守るもの次第。
そう言う事
モーターなんか壊れたって取り換えれば良いんだよ
記録面自体は壊れていないんだから
モーターなんて、すぐ換えれるのか!?
いくらかかるの?
基板が死んだだけなら、同じ方のやつと交換すれば戻ったりするらしいけど。
モーターの交換はクリーンルームみたいな所じゃなくても大丈夫なの?
ネチネチいたぶるのがUNIX流
>>152 一時的に読み出せば、捨てて良いのだから
クリーンルームは不要
つーか長期在庫のHDDが壊れると思ってるのは
何の伝説を盲信してるの?
>何の伝説を盲信してるの?
何が目的でD2Dの布教活動してるの?
>155
伝説だというのなら
まずはおまえが試して10年後に報告してくれ
温度管理とか統計的誤差評価とかも忘れずにな
>>156-157 オマエら新品買う度に、製造年月日とにらめっこすんの?
卵じゃねーんだからさぁ(w
取れたての新鮮なHDを産地直送!
なんか嫌な表現だなぉぃw
160 :
名無しさん@お腹いっぱい。:2008/09/26(金) 00:45:13
ちょっとスレチかもしれませんが、質問させてください。
バックアップで使用するテープドライブ(DDS/SDLT/LTO等)の
クリーニングについて調べていたら、
ドライブの累積走行時間を目安に実施してください、的な説明があったのですが、
ドライブの累積走行時間は何かUNIXのコマンドで分かるのでしょうか?
とりあえず、mt -f /dev/st0 status は試したのですが、
それらしい情報はありませんでした。
mtのmanもよく読んだんですが、該当するオプションはありませんでした。
OSはRHEL4で、mtのバージョンは0.8です。
何かご存知の方がいらしたら、よろしくお願いします。
>>160 週に何回、どれくらいのテープをとか
月に何回とかの頻度を考えて、オオヨソの時間を考える
LTO,DLTはドライブによっちゃ、クリーナ入れても必要なけりゃ
そのままドライブ側でスルーするよ
レスありがとうございます。
>>161 やっぱり運用でカバーしかないですよね。
>>162 なるほど。
LTOやDLTではやり過ぎは良くないみたいですね。
自分はロギング大好きなので、
毎月記録を残そうかと思ってたんですが、
ググっても、マニュアル読んでも、
情報が出てこないのであきらめます。
LTO,DLT (リニア系?)は槍杉は×
ベンダ側も「クリーニングランプ点灯時以外やるな」
DDS,AIT とかのヘリカルスキャン系は
ある程度積極的にやるのを推奨なので
ランプ点灯しなくても定期的にやるとか
そんなのが推奨されてるんじゃなかったかな
165 :
名無しさん@お腹いっぱい。:2008/10/01(水) 22:42:54
D2Dの場合、通電は必須。
ミッドレンジのまともなストレージならば、定期的にDiskの
表面チェックをやってくれる。Checksum値が異なっていたら
エラーを出力して、HotSpareに切り替える。
こうした機構が無い場合、データが飛んでも分からないだろ。
電気代がもったいない?
そんな時はMAIDを買えば良い。一定時間ごとに通電して表面
チェックしてくれる
何か長期保存可能かつ長期可用性に優れたメディアってないかな?
テープはカビや劣化とか磁気転写が問題になるし
CDやDVDも色素が飛んだら終わりだし。
他のデジタルメディアも長期供給可能かどうかわからんし
何よりも再生機器が現存してるかどうか問題。
実家の押入に眠っていた大量のVHSテープとデータが記録されたカセットテープを見てふと思った。
>>168 MO
テープ
紙
現実的にはこれらだろ。MOとテープは30年だっけか。
紙は和紙と墨だと何百年も持つ。
>>168 穿孔紙テープだろうな
8単位10巻くらいなら、在庫有るよ
お安くしておきますが(w
バックアップってのはさぁ
意味わかってる?
バックアップなんだよ。(w
磁気情報が消えるとか、物理劣化してしまうとか
機器劣化してしまうとか、読み出せなくなる「可能性」に対して
バックアップを取るの。
まず2系統取って、確認して、常識的な劣化時間を考えて
その前に、その媒体を、その時代に安全な媒体で*バックアップ*する
それを繰り返すんだよ
その頻度と手間暇を勘定して、石に彫るもよし
和紙に綴るもよし
DVD 系(もう少し普及したらBD?)を複数とっておくのが無難じゃないかなぁ
DVD は割と長く再生互換な機器は出回るんじゃない?
MO,PD,DVD-RAMだな、長持ちするのは。
PDはメディアより規格が先に寿命を迎えたが。
>173
技術的にはそういう主張をしたくなるかもしれないが
いずれも規格の寿命は短いぞ
DVD±RW は読める期間は長そうだが
DVD-RAM 対応ドライブがいつまで供給されるか…
「その時」は DVD±RW メディアの寿命よりは先に来るでしょう
DVD±Rは規格寿命より個々のメディア寿命の方が短いな。
なにしろただの色素ですんで・・・
だから R じゃなくて RW なんじゃん
メディアの寿命にしろ規格の寿命にしろ、現状は大して長持ちしないわけだ。
ひたすらコピーし続けるしかないのか。
100年先は生きていないから、そんなに持たなくていいよ。
3.5"FDでとっといた98の資産が、見事に全部読み込めなかった俺が通りますよ。
磁気メディアは一切信用しねえ。
181 :
名無しさん@お腹いっぱい。:2008/11/28(金) 23:43:28
全然触れられていないけれどmicroSDとかCFか゛
だいぶ安くなっている。DVD-RAMよりちょっと高い程度だけれど
なんやかやでms-dosfsとか無難
CFとかはIDEにつないでブートデバイスにもなる。
電子機器だけどもちはいいんじゃないかな。
テキストとか写真は2Gbyteくらいのにバックアップしている。
最初はまとまったらDVD-Rに焼こうかと思ったけれど
小さいしどんどん値下がりするのでこのままでいいかなと
繰り返し使っているとドライバとか対応しないと特定の場所ばかり使うことになるだろうから
ファイルを累積させていらないものは落としてあとはROM使用というのなら問題ないと思う。
だめなやつは初期にパーになるらしいから最初は分散保存しておくのが良いとは思う。
>>182 リンク先の記事根本的に「100万回」を勘違いしているよね、
単に不良品掴んだだけ
メーカーによってはずれのでやすいものと全然でないものとあるみたいだから
しばらく「運搬用」とかに使って大丈夫だと思ったらROM的に書き込み
チェックしたらそれでReadOnlyにするのがよさそう。
>>184 回数の勘違いはあるけど、他のメディアなら読み取りエラーになるところを、
エラーなく化けたデータが読み込めているのが、怖い
バックアップをとるのには、いまのところrsync3が選択肢として最有力?
rdiff-backup使ってみたけど、なんかエラーで動かない・・・
何をしたいかによって異なるのに
前提なしの最強を決めようとな?
ええっと、何をしたいか、ということについて
どのような選択肢がありますか?
>188
とりあえず以下について調べてレポートしてくれ給え
dump/restore, zfs send/receive, tar, afio,
rsync, unison, pdumpfs, rdiff-backup, duplicity,
amanda, bacula,
よろしく!
cpioも入れてよ
afioがあるからいいじゃん。
>188 に期待 age
193 :
188:2009/01/07(水) 10:21:33
>189-191
ちょ、、、少し時間を下さい・・・orz
ところで、少し古いパソコンにLinux(debian)を入れて、rsyncで200GBほどのデータをほかのパソコンから
コピーしようとしたら、途中で応答がなくなってかたまってしまいます。
壊れているのか、原因がちょっとわからないのですが、とりあえず、メモリが224MBしか乗っていないのですが、
これだと不十分ということはあるでしょうか?
>193
rsync 2.x だと全体容量は関係ないけど
200GB というのが「多数のファイル」の場合には
メモリ食い過ぎて死ぬ可能性はある
転送中に top で rsync がメモリを食う様子くらいは眺めても罰はあたらない
rsync は 3.x 以降だとその辺は変わっているので
改善されるかもしれないような気もするかもしれない
rsync だめなら tar cf - xxx|ssh dokosoko 'tar xpf -' とかかな
2台が同じLAN内だったら、NFSマウントしてcp -aとか。
rsyncはファイル数に依存するね
ファイル数が多いとすぐ1Gくらいメモリ食ったりする
197 :
193:2009/01/07(水) 11:54:40
もういちどrsyncを実行して、top画面を見てみました。
メモリ使用量10%弱のところでハングアップしてしまいました。
メモリ量ではないようですね
壊れてるにしても、どこがいかれているんだろう・・・・orz
すいません、もはや板違いですが、再起動したらBIOS画面で
Mwmory Testing : 229376K OK
のところで止まって起動しなくなってしまいました。
何回か電源を切って、入れてを繰り返すと起動しましたが・・・
どこが壊れてるんでしょう?
暖めてみれば?
ていうか古い機械ならもう寿命かもね
各所の接触が悪くなっているとか
部品の劣化とか
memtest86をはしらせてみたら40%でかたまってしまった
メモリエラーじゃなくて、テストプログラム自体がフリーズしてる・・・
寿命ですかね・・・
めでたしめでたし
換えるタイミング
ごく短い間隔でミラーリングをとる方法ってありますか?
ミラーリングというか、ごく短いスパンでミラーリングをかけたいのですが
10分おきとか
>>203 cronでrsync廻せばいいじゃん。
そもそも想定しているものの容量によっては 10分で終わらない罠
zfsとかnetappあたりのスナップショット機能つきの
ファイルシステムを使うのが手っ取り早いかと。
すいません、わけわからんこと言ってるのは分かってるんですけど^^;
Raidのミラーリングなら、同時に二台のHDDにデータを書き込んでるわけですが
たとえば一台のデータを間違って消してしまったら、ミラーのデータも同時に消されてしまうんですよね?
そこで、ミラーリングしながらなおかつ遅延をかけるというか・・・
あ、やべっ、って時に、ぎりぎり直前までバックアップがとれてる、みたいな事はできるのかな?とふと思ったもので
なんかテレビのHDD録画みたいですね(遅れて見られる)
あと Raid なんて気持ち悪い書き方すんな。
RAID だ。
>208
ググってきました
たしかに、よさそうですね
>209
スマソ
IMAPサーバーのメールをバックアップしたいんです。
できればバックアップというよりはレプリケーションしたいんです。
それも遠いところ(500kmほど離れたVPNで繋がっているLAN)にあるディスクに
バックアップ(レプリケーション)したいんです。
同じサイズのISCSIなディスクを使えば解決できるだろう。
と思います。つまり、できたも同然なのですが、
具体的にどうすればよいのかという些細な点で躓いています。
例えば、二つのISCSIディスクをミラーリングすればパーフェクトなレプリケーションができるはずですが、
VPNが切れたときにリビルドされると随分時間がかかるなあとか、思います。
rsyncとかでいいかな?とも思うのですがrsyncだとファイルがディレクトリー間で移動させられたときには
コピーが発生するのかな、と思うとブルーな気分になります。
なにか良い方法はないですか?
これがうまくいったら、地震でメールサーバーのあるビルが崩壊してみんなが途方に暮れているときに、
「こんなこともあろうか○○支社にコピーしてあったのですよ」と颯爽と回復して見せれば
ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。
よろしくお願いします。
それを些細と思っているうちはアレかもね
> つまり、できたも同然なのですが、
> 具体的にどうすればよいのかという些細な点で躓いています。
新しいコピペにするには決めゼリフがちょっと長すぎるような?
できたも同然なのですが、些細な点で躓いています。
こんな感じですか
> 具体的に
は外せなくネ?
216 :
221:2009/01/22(木) 10:39:14
なるほど。暖かいご指摘ありがとうございます。勉強になります。
DRBDを使ってprimaryとsecondaryを一台のマシンで動作させて(出来ないのかもしれませんが)、
primaryをこっちのiSCSIディスク、secondaryを遠くのiSCSIディスクにすれば出来るような気がしますが、
DRBDとiSCSIでネットワークの不安定さをより考慮しているのはDRBDでしょうから、
ネックになる遠くとのVPNトンネルを通過するのがiSCSIなのは何かサブプライムローンやリボ払い的な
問題があるように思います。
secondary側にもlinux機を置いてDRBDというのが正攻法でしょうか。
あと、回答してもらいたいときには、これを書いておいたほうがいいというの教えてもらったので書いておきます。
「私は女子高生です。」
未来マン、颯爽登場!
>ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
>「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。
>「私は女子高生です。」
百合は大好物です。
僕も僕も
俺漏れも
221 :
211:2009/01/23(金) 12:02:41
どうも、こんにちは。
向こう(遠いほう)のLANのユーザーも、こっちのメールボックスを使ってるんですが
IMAPなら向こうとこっちは別にしたほうがいいなと思います。
だったら向こうにもIMAPサーバーを置いて、こっちのIMAPサーバーと向こうのIMAPサーバーで
DRBDで相互にレプリケーションし合えば万事オッケーな気がします。
それと「女子高生です」と書くとレスをもらえるというのが本当だったのでうれしいです。
でもレズはいらないです。
じゃ俺女子大生ということで
この板のグダスレらしい展開になってまいりました。
百合とレズは別腹
rsync(2.6.9) で、例えばこんな状態になっていて
sync/a/1/
sync/a/2/A/x.txt
sync/b/1/B/y.txt
sync/b/2/
nオプション付きだと
$ /usr/bin/rsync --delete -auvn --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
deleting 1/B/
1/
2/
2/A/
2/A/x.txt
「deleting 1/B/」とでるのに
実際に実行すると
$ /usr/bin/rsync --delete -auv --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
1/
2/
2/A/
2/A/x.txt
「sync/b/1/B/」ディレクトリが削除されません。
削除させる方法はあるのでしょうか?
(複数の場所を指定したくて「include」がたくさんな書き方になっています)
226 :
225:2009/10/01(木) 19:33:46
補足ですが、
--exclude "*"
で全否定して、include で追加というイメージです。
>>206 >>208 スナップショット系はディスクスペースの無駄を増やすだけ
管理ポリシーがないひとが使うとゴミだらけになる。
zfsは完全にパーになる可能性もあるから
実態の明確なファイルバックアップには向かない。
気づけば再起不能
管理ポリシーは作ればいい。
バックアップは別にやればいい。
229 :
名無しさん@お腹いっぱい。:2009/10/05(月) 15:12:14
先生っ!
実態の明確な
の意味がサッパリ分かりません
230 :
名無しさん@お腹いっぱい。:2010/01/04(月) 22:51:30
rsyncが使うネットワークの帯域を制限する方法はありませんか?
--bwlimit=KBPS
This option allows you to specify a maximum transfer rate in
kilobytes per second. This option is most effective when using
rsync with large files (several megabytes and up). Due to the
nature of rsync transfers, blocks of data are sent, then if
rsync determines the transfer was too fast, it will wait before
sending the next data block. The result is an average transfer
rate equaling the specified limit. A value of zero specifies no
limit.
ありません
もちろん
>>231 も読んだ上で
「ありません」
と答えてるわけだが、、
あります
くだらねぇ
237 :
名無しさん@お腹いっぱい。:2010/01/08(金) 05:47:00
>237
あちこちに書けば書くほど宣伝の逆効果になってるって
239 :
名無しさん@お腹いっぱい。:2010/01/14(木) 05:17:13
バックアップに最適な圧縮フォーマットを教えてください。
7zは高圧縮で良いのですが、更新されていないファイルもすべて圧縮し直さなければなりません。
できれば、更新されたファイルのみを圧縮し追加できるとよいのですが。
細かいことは気にするな
>>239 gzで各ファイルを圧縮するのが良いと思うよ
xfsdump でオートローダを使う方法が分かりません。
man page には-cオプションが「メディア交換が必要になったときに
実行するプログラムを指定する」とあるので、オートローダのカートリッジ交換を
行うスクリプトを指定しました。
すると、カートリッジ交換は正しく行なわれたものの、その後
please change media in drive 0
1: media change declined (timeout in 3600 sec)
2: media changed (default)
->
というプロンプトが現れ、そのままタイムアウトさせるとabortしてしまいます。
(default というのは「enter のみ入力の場合」という意味で timeout時は 1 を実行)
-F オプションを使うのか? とも思いましたが、-c を使うときは -F は使うな、という
情報もありましたので…→
http://www.tek-tips.com/viewthread.cfm?qid=764503 「xfsdump autoloader」などとぐぐってみても解決法は見つけられませんでした。
オートローダで運用してる方がいらっしゃったら正しい指定方法をご教示頂けないでしょうか。
使っているのはCentOS 5.4、現在の指定オプションは以下の通りです。
xfsdump \
-l 0 -o \
-L $session_name \
-M $media_label \
-c $change_cartridge_script \
-f /dev/st0 \
$backup_target
# expectを使うしかない?
# かなり面倒なことになりそうな…
xfsdumpのソース見てみましたが無理そうですね。-cはメディア交換メッセー
ジを出す前に指定のコマンドを実行するという意味しかないようです。ソース
を書き換えるのが手っ取り早いでしょう。
>>243 調べていただいてありがとうございます。
となると対策としては
(1)timeout で media changed が実行されるようにソースを書き換える
(2)メッセージを読んで正常終了で終わってなければ xfsdump -R を実行するよう
スクリプトを書き換える
(3)expect で enter を入力するようスクリプトを書き換える
のどれかって感じですかね。
ちょいと考えてみます。
しかし、
>>242 のリンク先によると、IRIXでは入れ替えスクリプトだけでOKとのこと。
IRIX版とLinux版では実装が違ってるんでしょうかね。
う〜む。
245 :
242:2010/01/21(木) 12:29:16
xfsdump の件ですが、結局ソースを書き換えて timeout→再開にしました。
ところが、今度は使用テープが一巡したとき -o オプションを指定してもなぜか
「overwrite しますか?」のプロンプトが出てくる。
(そして timeout で再びカートリッジ交換のスクリプト実行→再びプロンプトを永久に続ける、とゆー)
-o は man pageによると「テープのブロックサイズが読み取れないときに使用する」となってるけれど、
どうやら問答無用で overwrite してくれるわけではないらしい。
ダイアログが出て上書きをユーザが選択しなければならないとなるとこのオプションの存在意味は一体?
と思うけれど、調べるのも面倒になったので、これまた問答無用で上書きするようソースを書き換えました。
…どうも釈然としない………
246 :
242:2010/01/21(木) 12:30:47
その他、2本目以降の media label をコマンドラインから指定する方法がない、など
xfsdumpは対話実行が基本で「自動化」というものは想定されていないコマンドなのですね。
自動化したけりゃ面倒でも expect を使って応答するスクリプトを作成するのが正解なようです。
最新版のchagelogを見ても機能的にはあまり変わってない雰囲気なので、
オートローダを使いたければ他のバックアップソフトを使え、というのが基本スタンスのようで。
スクリプトでの操作を重視しないというのは、unix系のこの手のツールにしては珍しいですね。
247 :
名無しさん@お腹いっぱい。:2010/03/19(金) 12:26:23
rsyncでリモートのサーバにコピーする際に、特定のサーバだけパーミッションが000になってしまいエラーが出て継続できません。
別のサーバでは特にそのような問題は起きていません。
--chmodオプションで何とかなりますが、これって何で決まるのでしょうか?
すみませんが詳しい方のみ回答をお願いします
おすすめの圧縮可能なファイルシステムを教えてください。
Linuxだと意外と少ないのね。
つ ZFS compression
>>250 Linux なら Linux 板で聞いた方がいい。
そも
何故このスレで聞くのかw
すみませんがUNIX板にてLinuxに精通されている方のみ回答をお願いします
回答は終了しました
それでは、回答終了ということで回答陣の審査を行ないます。
審査結果は、
不合格
です。もう一度質問サポート精神の基本を勉強して
受験し直してください。
ベストアンサーはどれ?
つまらんネタにかまうな。
Unixに標準的に備わっているものだけでMacのタイムマシンのようなことはできませんか?
できません。
Unixに標準的に備わっているZFSでLinuxのdump|restoreのようなことはできませんか?
>>261 send / receive するか、単に snapshot 取れば良いんじゃないの
遅ればせながら百合スレと聞いてバックアップされに来ました。
ZFSからEXT4に dump|restore したいんですが、そういう方法はありますか?
tar|tar や cpio|cpio等以外でお願いします。
じゃあ rsync
rsync等以外でお願いします
普通のファイルとしてアクセスする系以外でということです
gitでおk
>265
釣りは釣り堀でお願い
「以外」の理由が分からない限り全部 >267 って答えるでしょ
早く春休みが終わって欲しいね
わからん質問しては、その回答は不正解、レベル低いプププ って流行ってるのか?
流行ってるね。
残念ながら。
273 :
名無しさん@お腹いっぱい。:2010/09/10(金) 05:38:56
Macのタイムマシンの代わりになるようなソフトはありませんか?
なんか歌があったよな?
bacula 5.0.3 を構築しているんですが、rescue cd ってどうやって作るのでしょうか?
bacula-rescueがどうすれば手に入るのか全然判らん・・・orz
また、他にもっと簡単な方法ってありますかね?
フルバックアップを取っているのですがリカバリー計画が全然たてられない・・・
OSはCentOS4 と CentOS5 です。
よろしくおねがいいたします。
276 :
名無しさん@お腹いっぱい。:2011/01/28(金) 22:13:50
Unixに標準的に備わっているコマンドだけでシンボリックリンクのタイムスタンプの保存はできませんか?
人生を戻したいぉ…
RPOは学生時代?
AIXスレでTSMネタはここだって言われて来ました
過疎?
ベンダに聞いた方がいいんじゃね。
TSMとかまだ使ってんだな。
TSM普通に新規で入れまくってるぞ(;´д`)
古いもの扱いなのか…
afioつこうた
便利ねこれ
285 :
名無しさん@お腹いっぱい。:2012/04/13(金) 19:18:45.68
こ
286 :
名無しさん@お腹いっぱい。:2012/04/15(日) 21:03:30.81
らしょっと!
287 :
名無しさん@お腹いっぱい。:2012/06/27(水) 14:33:41.29
バックアップはちゃんとしないとなー
Q. バックアップ作業は UNIX のスキルアップにつながりますか?
A. バックアップ作業は UNIX のスキルが低い人間に定型作業として従事させるには向いていますが
UNIX のスキルアップにはつながりません。
オレの世話になった先生も
研究所で下っ端の頃はテープにバックアップ取るのを
ルーチンワークとして与えられてたって言ってたわ
バックアップをとるだけならルーチンワーク。
けど設計にはそれなりにきちんとした知識が必要だと思ってる。
「RAIDしてるからバックアップはばっちり!」みたいな
とんちんかんなことをいう人のなんと多いことか。
バックアップだけして、リストアの訓練をしない組織の多い事
リストアの訓練させると新しいファイルを古いバックアップで上書きする事故多発
バックアップは簡単
確かにリストアは遙かに難しい
unixのバックアップする時にdvdとかcdromから起動するのはなぜ?
HDDのファイルシステムをマウントせずにバックアップするためです。
なぜそうする必要があるのですか?
マウント中のHDDは整合性がとれてない。
バックアップ中にアクセスされないようにするため、
ディスクをOSに認識させずに、、、、といった所でしょうか、、
そんなイメージでいい
幽体離脱的な
301 :
名無しさん@お腹いっぱい。:2013/10/22(火) 07:49:21.04
coolnovoはどのようにバックアップしてますか。
HDDが壊れてしまったUNIXマシンがあります。
ちょっと前までのバックアップ(/以下をtar -Cしたもの)が
別のWindowsマシンの中にあります。
新しいHDDを買ってきて、バックアップの状態を復元するのに
一番短い手順を教えて下さい。
tar -Cじゃ無理だな
ブラウザの履歴、ブックマークのバックアップはどのようにしてますか。
>>305 もじらのエリアをバックアップしてるだけだが。
なぜここで聞くw
最近は duplicity だな。暗号化もできるし、AmazonS3 にも対応している。
310 :
名無しさん@お腹いっぱい。:2014/11/20(木) 15:03:46.72
dumpでバックアップしたアーカイブを、展開せずに(重要)、tarに変換したいのですが、
何か方法ありますか?
ありません。