OpenSolaris/Illumos (OpenIndiana, etc.) 5
938 :
名無しさん@お腹いっぱい。:2012/04/15(日) 16:38:42.89
SolarisでNTFSをマウントする方法を探していて、FSWfsmisc.tar.gzというものを用意すればいいらしいのですが、
このファイルはどこから落とせるんでしょうか
tps://blogs.oracle.com/yappri/entry/solaris10_ntfs_mount
tps://blogs.oracle.com/mandalika/entry/mounting_windows_ntfs_on_open
辺りを参考にしています
普通にググればいくらでも出てくるよ?
>>938 ASntfs-3g-2011.4.12 という手もある
941 :
名無しさん@お腹いっぱい。:2012/04/17(火) 22:53:50.53
ふと思うところがあって、zpool statusって打ってみたら、
pool: tank
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see:
http://www.sun.com/msg/ZFS-8000-2Q scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c5t1d0p1 ONLINE 0 0 0
c6t0d0p1 UNAVAIL 0 0 0 cannot open
なんて出たので、
tp://www.sun.com/msg/ZFS-8000-2Q
に飛んでみたら、oracleのログインページに飛んだんですけど、
これってどうすれば?
アカウントとって内容を読んでから対処したほうがいいですかね。
ちなみにOpenIndiana 151aです。
もちろん読んだ方が良いけど、そんなことしなくてもメッセージに書いてあるじゃん
>>941 c6t0d0p1 UNAVAIL 0 0 0 cannot open
LiveCDから起動したらオンボbcm57781のドライバが無く、ネット不通
パッケージマネージャーで見ると57xxドライバは入っているようですが
これでは駄目な様子
broadcomのサイトにLinux用ドライバはあるのですが、
これをソースを修正&コンパイルすれば使えるようになるのでしょうか?
試しにUSBメモリで持ってきてmakeしましたが、ソース最初の
KVER = ($shell uname -r)
でこけました(Linuxのカーネルバージョン判別?)
バグで148から151にウプデートできねーw
/var/pkg/配下から57xxのmanifest開いてみたら2009年・・・
alias追記したらなんとかならないもんでしょうか?
犬ドライバのコンパイル・・・ひどい釣りネタだw
主に安NIC対応でリリースしたヤツだっけ?
951 :
名無しさん@お腹いっぱい。:2012/04/25(水) 02:21:43.18
OmniOSの特徴って?
カーチャンOS
OmniOSのサイト見るとデータセンター向けのクラウドプラットホームって書いてるね
ZFSとCrossbowとZoneとDTraceが使えるwktk仕様かと
それって他のディストリビューションでも使えるだろ
957 :
941:2012/04/30(月) 13:08:12.27
報告が遅れましたが、
>>941の件は解決しました。
マザボ側で使っていない(と思い込んでいた)SATAケーブルを一本抜いてたんですが、
それが今回UnavailになったHDDでした。
起動時にビープ音でも鳴らしてくれれば
直ぐに気づいたのになぁ、なんて思いましたがとりあえず原因がわかって治ったのでよしとします
OpenIndiana 151aに3TBのHDD(c6t1d0)をSATA接続で取り付けて、formatコマンド->fdiskを実行したところ、
>format> fdisk
>No fdisk table exists. The default partition for the disk is:
>
> a 100% "SOLARIS System" partition
>
>Type "y" to accept the default partition, otherwise type "n" to edit the
> partition table.
>WARNING: Disk is larger than 2TB. Solaris partition will be limited to 2 TB.
これって、"n"押してからどうすればいいんでしょ?
>>960 ZFSにしようぜ そしたらfdiskいらない
>>961 ZFSにする下準備としてパーティション分けしてたんですけど、必要ないんですかね
>>962 そもそも「パーティション分け」が何を意味するかを理解しよう。
>>962 ディスク全体をZFSで使うなら必要ない
zpool create hogehoge c6t1d0
でGPT作ってくれる
>>964 zpool create hogehoge c6t1d0
したあと、format->fdiskでパーティション情報を見てみたんですが、
>format> fdisk
> Total disk size is 60800 cylinders
> Cylinder size is 96390 (512 byte) blocks
>
> Cylinders
> Partition Status Type Start End Length %
> ========= ====== ============ ===== === ====== ===
> 1 EFI 0 60799 60800 100
>
となってまして、"Type: EFI"らしいんですが、これがGPT全体という理解であってますか?
お前がその辺気にしても、どうせ理解できないんだから、気にするな
>>965 それでOKです
parted -l で見るといいかも
ディスク全体を使うのってほぼ同容量の別モデルをもってきたときに泣く
可能性を思うと躊躇してしまう
>>968 最近はどこも同じブロック数だし
ミラーやRAIDZにしなきゃ関係ないんじゃない?
970 :
965:2012/05/03(木) 22:25:19.45
結局c6t1d0を丸ごとpoolにして、
tp://docs.oracle.com/cd/E26924_01/html/E25824/gkkud.html#scrolltoc
を参考にシャドウマイグレーションでファイルシステムの内容を移行しようとしたんですが、
もしかして、OpenIndianaではできない?
971 :
965:2012/05/03(木) 23:30:26.39
OpenIndianaでシャドウマイグレーションは無理そうですね。
ありがとうございました
きたか…!!
( ゚д゚ ) ガタッ
.r ヾ
__|_| / ̄ ̄ ̄/_
\/ /
 ̄ ̄ ̄
>>973 シャドウマイグレーションできるんですか?
そのまま待っても何も良い事は無いと思うぞ
>>976 そうですか。。
時系列で書くとこんな感じです。
1. 4台構成 Raid-Z + スペア1台 のうち、1台が外れてスペアの利用が始まる。この時点でデータエラーなし
2. 3時間後ぐらいにもう1台でエラー発生。データエラーが発生する。
3. なんかおかしいので zpool status を実行。もう1台でエラーが発生する事を確認。この時点でデータエラーあり
(まだ1のリカバリは終わってない)
4. 状況確認のため、何度かzpool status を実行していたが、コマンドが返ってこなくなってしまった。
5. リブートを試みる。しかしシャットダウン最中に止まってしまい、今の状態
前にもリカバリするはめになったけど、その時はデータエラーは無く事なきを得ました。
その時、リカバリに4日ぐらい掛かったので、ひょっとしたらデータエラーが発生しつつも今もリカバリを
実行しているんじゃないかな、なんても思ってはいるのですが。
SSHログインは今できるのですが、zpool status はやはり止まってしまいます。
スペア持てる状況なら、RAIDZ2 の方が冗長性高いだろってのは置いといて、
まぁ、もう一日二日待ってみれば?
>>978 ですかねぇ。もう少しだけ待ってみます。
みなさん、ありがとうございます。
他にも、何か思い付いた事とかあったら教えて下さい。
状況は後ほど報告します。
>>977 rootでzpool statusするとHDDにチェックが入るから重くなる
HDDがエラーセクタへのアクセスで時間かかってる場合は待たされる
単にresilverの進行状況やエラーの発生状況だけを確認するなら
ユーザでzpool statusするのがいいよ
>>980 >rootでzpool statusするとHDDにチェックが入るから重くなる
>ユーザでzpool statusするのがいいよ
そうなんですか、それは勉強になりました。
実は今、zpool status (uid=root)のプロセスが30個ぐらい溜まってしまっているんです。
なぜこんな事になったかと言うと、30分に一度、cronで自動実行して問題があればアラートを
送っていたんですが、今回の障害で終わらないまま溜まってしまったようなんです。
気が付いてすぐcron を止めたのですが、今あるプロセスはkill -9 でも終了できませんでした。
Linuxで言う所の、disk sleep 状態でしょうか。
ひょっとしたら、これらのプロセスを終了できればシャットダウン処理に入れるのでしょうか。
preap
>>981 その通りだと思います
IO TIMEOUTが60秒になっているので(デフォルト)
エラーでディスクからの応答待ちがかなり長いです
それがどんどん増えてしまってるんでしょう
なのでSIGKILLも効きません
>>982 preapの提案、どうもです。試しに1個やってみましたが、
# preap 9560
preap: process not defunct: 9560
#
で、駄目でした。
>>983 そうですか。"zpool status" をkill するのは無理そうなんで、
あと1日だけ様子を見て、明日の夕方ごろには電源OFFでリブートしてみます。
やっぱりリブートは明日です。往生際悪いけど、あと1日だけ待ちです
986 :
975:2012/05/18(金) 12:48:56.47
みなさん、お世話になっています。 m_(__)m
1日待った甲斐があり、少し変化があったのでお知らせします。
大量に溜まっていた zpool status のプロセスが、さっき確認したら
3個だけになっていました。
もう少し様子を見てみたいと思います。
ほす