OpenSolaris/Illumos (OpenIndiana, etc.) 6
2 :
名無しさん@お腹いっぱい。:2012/05/20(日) 01:31:31.61
おはようございます。前スレ
>>975です。新スレ乙です。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ
>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。
pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see:
http://www.sun.com/msg/ZFS-8000-8A scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use
errors: 271145 data errors, use '-v' for a list
SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
もう一台スペア追加してみるかな
いや、そーゆー話じゃなくて
現状の構成にスペア追加したらどうかな、と
ホットスペア持つなら最初からRAIDZ2の方がいいと思うが
細かくチェックしてトラブル時にすぐに入れ替える方がいい
それはそーだけど、そーゆーことじゃなく
今追加したら回復しないかな?って話
>>8 Applications may be affected.
って言ってる時点で回復は難しいぞ
読めなかった部分が読めるようになれば別だが
10 :
名無しさん@お腹いっぱい。:2012/05/21(月) 22:15:58.27
oiの場合、S.M.A.R.Tは何ていうアプリを入れれば
見れるんでしょう?
ZFSってHDDを個別識別出来たっけ?
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
みなさん、お世話になってます。色々な提案や情報提供、感謝です。
まだ、作業中ですが、中間報告します。
代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。
コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。
そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。
こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。
まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
前スレ975です。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。
故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!
ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、
1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)
というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。
作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
訂正
故障機はiscsiイニシエータで、
↓
故障機はiscsiターゲットで、
スレチかも知れませんが、教えてください。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。
インストールして正常に動作されている方、何かヒントをいただけたら。
>>18 カーネルモジュールがロードされてないとか
ハードウェアの対応が不十分とか
pfexec pkgutil -i -y hogehogeすき。
pfexec pkg install hogehoge死ぬほどきらい。
個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
zfsってWWNできちんと使える?
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
エラーメッセージ書いてみたら?
zpool replace がエラーになるってことなんかな?
25 :
22:2012/06/15(金) 01:50:46.95
usr1@oi151a:~$ zpool status -v zpool
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see:
http://www.sun.com/msg/ZFS-8000-8A scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:
NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0
errors: List of errors unavailable (insufficient privileges)
こうなっていたので、
26 :
22:2012/06/15(金) 01:51:55.41
電源切って別のHDDに入れ替えたら
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see:
http://www.sun.com/msg/ZFS-8000-3C scan: none requested
config:
NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0
こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
27 :
22:2012/06/15(金) 01:53:19.51
名前を指定してreplaceしようとしたら
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable
poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable
これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name
といわれてONLINEにできない、今ここ
もしかしてそれstripeなのか?
stripeだから次のようにメッセージが出てるわけだな
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
変な汗どころじゃ済まない話になってきたな
壊れたディスクをddなりでイメージコピーしてみる、位か……
壊れたHDDってddで読み出せるの?
元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか?
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
34 :
22:2012/06/16(土) 03:02:05.22
あれ?stripe?
usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0
あばばばば
pool作り直して首つってきます。
zpool statusの時点で気付けw
>>33 比較的軽傷な単一ディスクのプールならやったことあるけど
ストライプメンバーだとどうなるんだろうな?
37 :
22:2012/06/16(土) 12:05:20.60
>>36 自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。
しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
>>32 「正常に」読み出せるかどうかは、運次第
conv=noerror とかして、とにかく読めるところだけでもコピーするって話
>>37 SATA HDDだとREAD ERROR発生で終了というパターンが基本じゃね?
代替領域がある限りこそっと処理してるからSMART見てなきゃ気付かないはず
copies=2
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
>>40 そのはず…だけどおれも試したことないわw
RAIDZかミラーするから
そのコピーって別のディスクにって言う保証は無かった気がする
zfsのマニュアルページにはこう書いてあるな
copies=1 | 2 | 3
Controls the number of copies of data stored for this dataset.
These copies are in addition to any redundancy provided by the pool,
for example, mirroring or RAID-Z.
The copies are stored on different disks, if possible.
「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
そんな奴は居ないので安心しろ
45 :
名無しさん@お腹いっぱい。:2012/07/04(水) 00:58:48.08
もうopensolaris時代みたいにSPARC版出さないのかね。
47 :
名無しさん@お腹いっぱい。:2012/07/05(木) 00:46:33.19
>>46 出したいけどSPARC用の人員が足りてないらしい
我こそはと思う人はぜひ名乗り出てほしいそうな
LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c
unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
unconfigureで自動点灯させる意味がわからん
保守したいHDDの位置を示すならlocator使うだろ
JBODって本来はspanningのはずなのに
単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな
>>49 そういうオプションがあるのですね。
ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。
よび方は JBOD chassis とよんだほうがいいですか?
JBODでディスク交換なんてことになったらデータすっ飛んでるんじゃね?
ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに
交換する方法があるのかと思い質問させていただきました。
ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が
変わっていたりしますかね?
WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが
速いんじゃないかという気もしますが。
>>52 ZFSのメリットなくてもいいなら、
それでも良いんじゃ。
ま、好きにしろって事だが。
最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの?
あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね?
どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが
>>53 raw disk を使うメリットって何?
WriteBack Cache を使うと、ZIL を SSD に置かなくても、
書き込みが遅くならないというメリットがあるけど。
>>54 いや、RAID はハードウェア RAID で作って、その上に ZFS を作るということです。
冗長性ェ…
#この手のバカって、なんで後付で条件増やすんだろう?
RAIDカードに金払わなくて済むならそのほうが安く上がるだろ
そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ?
SSD付きのRAIDカードとははつみみです :)
ZFS って貧乏人のためのファイルシステム?
そう思っていた時期が俺にもあr(ry
一回使ってみろよ。ちびるで。
最近の LSI SAS 2208 速いですぜ。
結構差があるもんだな…。
ちと教えて頂きたいのだけど、
OpenIndianaでpkg install使ってgccやmysqlなど落とした際、
BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。
何かオペレーションが抜けているんだろうか?
インストールしたのはoi-dev-151a-text-x86.iso。
eだかcだか押してgrub書き直してみたらどーだい。
んでmilstone切って(メンテナンスモード?)で上がるかやってみる。
問題の切り分けにはなると思うんだけれど。
milestone=none指定でも上がらないようだった。
なんでだろ。
今手元に86機が無いから確認しようもないのだけれど、恐らくgrubの指定が間違っているのが原因だと思うなぁ。
そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得)
もし古いBEが残っているならそっちを試すしか。
Ummm... システムが修正してくれてるのに頼ってるところもあるからなぁ。
Solaris11だったらうまくいったりするのかな。試してみる。
H/W RAIDってそんな早いか?自由度下がるし。
MegaRAID SAS 9265-8iを使ってみなさい。
仕様が同じでも、製品ごとで性能に凄く差が出るよね。
メモ: Adobe Flash Player 11.2 はプラットフォームとして Solaris をサポートする最後のバージョンです。
BSDを思い出す…。
Flash Player自体が時代遅れ
そういやMOSのFlashバーションも廃止されたなw
79 :
名無しさん@お腹いっぱい。:2012/08/07(火) 03:10:27.30
OpenSolarisって、Linuxでいうbondingドライバみたいなのないの?
80 :
名無しさん@お腹いっぱい。:2012/08/07(火) 04:57:28.20
>>79 dladm create-aggr とか...
LSI SAS 2308 でデバイス名からスロットを特定するのには、
LSI から落してきた、SAS2IRCU を使うしかないんですかね?
cfgadm はこんなかんじでした。
root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
そういや io 151a5 出てたで。
SchilliX 0.8 release
151a5でストライプミラーからraidz2に移行しようと思って、vdevをzfs send | receiveしたら、zfs listのusedが、元のと比べて倍になってもうた。
どなたか経験した方います?
>>85 copies = 2 になってるとか?
REFERが同じならUSEDが違うのはusedbysnapshotsとかチェックしてみるとか
アップデートでカーネルパニック祭りを喰らったからp5をクリーンで入れて環境構築終わったばっかりなのにorz
89 :
名無しさん@お腹いっぱい。:2012/09/04(火) 23:15:04.15
>>86 ありがとうございます。
確認してみます。
>>88 今回はバグと脆弱性対応だからISOファイル無しと書かれていて
アップデートしかできないはずだから安心しろ
最近活発だな。
プロジェクトリーダーの退任と、なんか関係あるのか?w
AndroidのカーネルっていうかLinuxと呼ばれるものを全て取り除いて
Android/OpenSolarisや
Android/Illumos
って事にできるの?
やってみ。
>>93 可能なのか可能じゃないのか知りたいんだけど。。
やってみればわかるよ。
やるつもりがないなら答え知ってもしょうがないよ。
ARM版illumosが存在しないから、x86版Androidでやるか、
illumosをARMに移植する作業からやることになるけど、不可能ではないはず
ARM版OpenSolarisはあるな
素粒子レベルの可能性でもいいなら
151a6に上げたらGUIが立ち上がらなくなった。困った。
151a5をクリーンインストールしてstorage-serverを追加して順調に動いていたのに
初めて再起動したら数分でカーネルパニックのループに突入した。
aggr0に使ってるe1000g*のhostname.*を消してなかったので起動時にplumb出来ないというエラーが出てたので削除したのと
何となく信用できないbge0のケーブルを引っこ抜いたら無事起動した。もちろんケーブルはその後で刺した。
OpenIndianaのコンパイル環境ってどのパッケージを入れれば良いんでしょうか?
106 :
104:2012/09/13(木) 10:01:35.05
原因はやはりbge0でした。
panic時のスタックトレースにbgeが出てたので条件を調べてたんですが
bgeでvlanの仮想nicを作ってると起動時にbgeにケーブルが接続されているときにpanicします。
別の物理nicにvlanを設定すると再起動してもpanicしなくなりました。
107 :
104:2012/09/13(木) 10:42:20.33
追記
L2スイッチの方でタグ付きVLANのパケットを流すようにしてあるとやっぱりpanicしました。
bge関係はvlanを扱わないようにして解決しました。
ストレージ鯖用に使ってみたいんだけどテンプレにあるNexentaStorでおk?
109 :
104:2012/09/13(木) 22:12:43.25
110 :
104:2012/09/15(土) 10:07:04.96
肝心のコンパイルが通らないので結局gccのパッケージを入れましたorz
111 :
104:2012/09/24(月) 19:29:17.27
…bgeドライバって実はαレベル?
またpanicループしてたので全通信をaggrのvlanに集約した。
これで二週間問題なければbgeのイーサネットポートは捨てる。
e1000のクアッドポートnicを突っ込んだしもういいやorz
よく考えたらbgeは151に成ってから使えるようになったんだから安定してるかわからんよなぁ…
zfs bootでインストールしたいのですが、現状はmirror以外の構成は不可能ですか?
単体が選べるでしょ
あ、ごめんなさい。raidzプールにインストールしたかったんです。
115 :
104:2012/09/29(土) 21:45:34.85
むりっぽ
単体からミラー構成にしようとしたらinstallgrub忘れててそのまま元のディスクを外したもんだから…どっちのディスクでも起動しなくなりましたorz
起動環境のセレクタも出ないからブートセレクタかそれいぜんの問題っぽいのはわかるんだけどMBRとか関係あったっけかなぁ…
マウントしてgrubのファイルを弄って…あかん一日コースや
116 :
名無しさん@お腹いっぱい。:2012/09/30(日) 02:52:10.19
そろそろ本格的にsparc版が欲しいぜ。
118 :
名無しさん@お腹いっぱい。:2012/09/30(日) 22:13:32.49
お。サンクス。早速試してみようか。
フレームバッファはXVR-1000や1200対応してるのね。凄い。
まだまだ完成度が低いな…。
# X11go.shで落ちちゃうし。
Tシリーズ縛りとかもなし?
不手際でトラブったけどやっぱり好きだわ、これ。
sparcマシン探してみようかな。
zfs snapshotでout of spaceとか言われるからなんでだろうと思ったらボリュームのスナップショットはそのままのサイズで領域予約がくるのか。
どうすれば回避できるんだろう。
>>124 zvol -s付きで作ればいいんじゃね?
それでも足りないなら、pool増やすしか無いとおと思うが。
>>126 シン・プロビジョニング、マニュアルには非推奨になってるけど、うーん…。
かといってマシン間でボリュームをsend&recvするためだけにプールを倍以上のサイズにするのも…。
うーむ、そもそもvolumeのリザーブがそのままのサイズなのが問題なんだからコレ弄って何とかならんか。
…と思ってzfs get allしたらsend&recvで別マシンに行ったり来たりしたvolumeのreservasionとrefreservasionがnoneになっとる。
volsizeが変わってないって事は、え?もしかしてrecvの時ってリザーブが強制ゼロ???
>>128 あっちゃー(__;
そこまで読んでなかったよ。ありがとう。次からプロパティを持ってくか検討する。
かなり前に、opensolaris のカーネルをAndroidに移植しようっていった人ですけど。
やったらどうなるのかなー?
普通のAndroidに比べて動作は遅くなる?
早い遅い以前にお前には移植とか無理
Androidってのは Linuxの上に作ってあるんじゃなくって、下や横に拡張してある。
Linux捨てて他の既存 OS持ってくるのはたぶん大変。
>>132 まずAndroidをわかってなさそうだから。
カーネルを移植の意味がよくわからない
意味がわからない話題に無理に参加しなくていいです。
しかし現実的に考えて、そう容易い事ではない罠。
「Android用に」カーネル移植なら理解できるが
「Androidに」カーネル移植というところがバカっぽい
様々な知識と技術を要する別アーキテクチャへの移植と改造を
こんなゆるい頭の持ち主がやれるとは思えないんだよな
どうせ、「仮定の話なので〜」で、自分のことを棚に上げて話し出すんだよ。
ん?Solaris上でAndroidアプリ動かそうって話じゃないよな?
Androidとかどうでもいいだろ。
Android端末でSolarisを動かそうという前提なら、
ARM版Solarisはあったろ。あれをベースに改造だ。
ドライバは、x86で動くAndroidあるぐらいだから、x86 Solarisのが割りと流用きくとみた。
がしかし、わーいSolarisが動いたぐらいで、モチベが保てる作業じゃないだろうな。
面白そうではあるが。
Androidの上に仮想マシン立ててそこで動かすって話じゃないのか?
皆さん浅い知識の僕が馬鹿な質問をしてしまいすみません。
Androidのカーネル、Linuxの部分を切り取りそれに相当する物をOpensolaris 持ってきてAndroidのカーネルにすり替えたいという魂胆です。
何がしたいの?
それ、AndroidのユーザーランドをIllumous下に移植って言わんか?
Illumous+debianのIllumianやらあるので不可能だとは思わないが
滅茶苦茶大変であろうことは想像に難くない。
AndroidのユーザーランドなんてLinuxカーネルべったりだろうしね。
>>142 なに言ってるのかさっぱり分からんぞ・・・
まずは日本語の勉強からだな。
>>144 んと、Androidは共有メモリとかプロセス間通信とか独自拡張してて、
アプリはそれ使いまくり。ユーザーランドじゃなくて、カーネルに大幅に
手が入ってる。分離も悪い(のが Androidのやり方がまずいのか Linuxの
作りがわるいからなのかまでは知らんw)
とにかく、今のAndroidと殆ど変わりなく動いてくれて、Linuxという名前がつかない物がほしいんです。
AndroidがLinuxと言われてるのはカーネルがLinuxだからですよね?
だから、Linuxカーネルを取り除いて他の何かを入れたかったんです。
できますか?
>>148 技術があれば出来るよ。
その技術力が有るかどうかは知らないけどねw
>>148 ライセンスとか考えずに、ただ出来るか出来ないかでだけで言えば、出来る。
ただ、それをやるためには、OS 1個作るくらいの時間と労力が必要になるかもだが、
それでもやってみたいなら、やれば?
その辺からファイル落としてきて、installとかで出来ないの?レベルの話なら、出来ない。
自分で作れ。
Atomという名前のプロセッサが載っていてもPC用とは違う件
>>148 > とにかく、今のAndroidと殆ど変わりなく動いてくれて、Linuxという名前がつかない物がほしいんです。
なんで?
OpenSolarisベースで、Android互換な「新規の」OSを、開発するしかないかも。
Androidの、非 Linuxなコード部分を使えるのかどうか知らんが。
Solarisと、Linuxはソースの構成はかなり違うと思うぞ。
皆さんありがとうございます。
やはり
難しいのですね。
兎に角Linuxという名前がつかないスマホのOSがほしいんです。
そんなに難しい事なのですか?
やりたいならやってみりゃいいじゃん
>>156 > 兎に角Linuxという名前がつかないスマホのOSがほしいんです。
なんで?
なんか知らんけどへんなとこ気にしすぎじゃね?
>兎に角Linuxという名前がつかないスマホのOS
WindowsとiOSがあるよ
オープンソースがいいっていうなら、iOSのコア部分はDarwinだから、Solarisでやるより簡単だよ
BlackBerryもあるし。
難しいというより誰もやりたがらない。
メリットがないから。
Darwin()
>>156 難しいけど、きっと君ならできるよ。
そのLinuxを憎む気持ちをバネにしてがんばれ。
Darwin()、って……
OpenIndianaと比べても遜色ないレベルの完成度だぞ、PureDarwin
>>156 TRONあたりから、一から作れば?
はっきり言って、こことは関係ないから別の場所でやってね。
>>164 それならiOS使っとけという話もあるw
いやiOSではなくて、Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
OpenSolarisのAndroidに使われてるLinux相当の物を利用したかったのですが、皆さんがおっしゃる様にそんなに難しいのですか?
メリットがないって、、、
>>168 実装する上で何がハードルとなるかわかる人でないと無理
それがわかっても実装できるわけでもない
できるとしても時間がかかりすぎるという問題もある
そもそもソフト開発経験あるの?
まだNetBSDあたりベースにした方が現実味あると思う。
スレチなのでここまでで。
173 :
名無しさん@お腹いっぱい。:2012/10/18(木) 01:08:55.51
>>168 >Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
なぜそんなものが必要なのかまったく理解できん。
節々で「そんな難しいの?」みたいな調子で聞いてるけど
ユーザランド含めたOSを組み上げることのハードルも理解・解釈できないような人が
そんなOSを必要とするケースがマジでわからん。
難しいかどうか聞いてどうするんだろ。
自分でやる気はぜんぜんないみたいだけど、
どこかに発注するつもりなの?
発注なんてしないよ。
それを使って儲ける気もない。
ただ、とりあえず動く最初の段階は楽にクリアしたいなと思って。
それから色々と改良しながら改良する技術も身につけたいなと思ってて。
頑張れば東大だって行けるよね!んで何すればいい?
と訊いてまわる落ちこぼれ学生みたいな
何すればいい?って聞くなら一応向上心があるように見えるだろ。でもこれ
頑張って東大行きたいです、難しいですか? 可能ですか? ってしつこく聞いてるだけじゃないか
もっと酷いわ
ワロタw
もうほっとけ。
180 :
名無しさん@お腹いっぱい。:2012/10/18(木) 11:54:33.75
とりあえず東大に入る最初の段階は楽にクリアしたいなと思って。
それから色々と勉強しながら卒業できる学力も身につけたいなと思ってて。
こんなこと言ってたら病院を紹介されてもおかしくない。
まず、Androidの Linuxからの拡張部分を分離して、それをマイクロカーネルの
サーバーとしてどっかにくっつけるのがいいんじゃないか。
Chorusとか。もうないんだっけ?w ああ、Springがいいじゃんww
QNXとか Minix3とか。
Windows NT 6.xカーネルとか
>>181 Linuxは本当に嫌いなんです。
技術的な欠陥がカーネル部分で幾つもありそうだし、
なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。
フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
ずーっとそのまま気が付かず放置されてそう。
そして新しく開発に加わった人達は前の時代の人達の作った物は
完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。
マルチコアの処理や並列処理さらにはマイクロカーネル的な要素を網羅したカーネルを作っておけば
ハードウェアのフラグメントにも今のLinuxよりは対応できるし、アプリケーション等が重要だから
Androidのアプリケーション等が使えたらなお良い。
あと、パソコンよりも携帯よりのソフトウェアに強いのがAndroidでしょ?
そういった理由で、LinuxカーネルじゃないAndroidのOSが必要。
>>183 > 技術的な欠陥がカーネル部分で幾つもありそうだし、
想像で言われてもな。
能書きはいいからさっさと作れよ。
まだ居たのかよ。
>>183 >技術的な欠陥がカーネル部分で幾つもありそうだし、
思い込みじゃね?
>なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。
思い込みじゃね?
>フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
>ずーっとそのまま気が付かず放置されてそう。
思い込みじゃね?
>そして新しく開発に加わった人達は前の時代の人達の作った物は
>完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。
思い込みじゃね?
なんにしても、Linux ユーザには「root loginを正しいと考えてる」輩が多いから困るんだよね。
あ、これはFreeBSD系も一緒か。
やっぱRBACで適切に「権限分離」した環境で暮らしたいよね。
とはいえ、ついつい自分の作業アカウントには「Primary Administrator」権限を付与しちゃうんだけどさ(笑)
pfexec
だったらWindows8使ってろ
頭がおかしいのはわかっていたが思っていた以上におかしかった
>>183 お前がそう思うんならそうなんだろう、お前ん中ではな(AA略
>>183 「...そう」って、言われてもなぁ。つーか、具体的な根拠もなくそんなこと
言っても、誰も相手してくれないだけかと。
それに、「Linux」を何に置き換えても、そのまま成立すると思うよ、その文章。
OpenSolarisでも Oracle Solarisでも、AIXでも HP-UXでも MacOS Xでも
FreeBSDでも NetBSDでも。程度の差はあるけど。
まあ、IBMや SGIの偉い人たちがさんざんいじって、直らなかった(受け入れ
られなかった)という感じはオレも持ってるけどね。
ここは何のスレなんだ?
チラシの裏ではないことだけは確かだ
「難しいですか」とか「嫌い」とかばっかで
具体的に何をするって話がぜんぜん出てこないね。
iPhon/iPad欲しいけど高くって買えません><
androidスマホではりんご持ちのリア充共に馬鹿にされちゃうんです;;
だからOIカーネルの、なんかすげぇOS乗っけたスマホでやつらを見下してやりたいんです
そんな電波を受信してみたんだけど合ってる?
>>183
日本スルースキル協会から来ました
>>198 スルースキル持ってるなら、ここで出てきちゃダメだろw
もう一回鍛え直し!
洗練されたDDI/DKIとフレームワークで組み上げられた
Solarisのカーネルが美しいのは間違いない。
それにくらべてLinuxのフリーダムなこと。異論は認めない。
Plan9、Plan9を使う
OpenIndianaでAMD FXシリーズは安くコア数がほしい人以外おすすめしない
UNIXのようなマルチコア対応に優れたOSの利用者なら
安くコア数がほしくない人っていないんじゃね
まぁ裏の意味は分かる
FXはシングルコアあたりの性能がivy比で低いと言いたいのだろ
3DNowなどが削られ一部のバイナリが動かなかったり
AES-NIなどの新機能を認識しないという話があった
galaxyが切られたからな
オープンソースコミュニティ()のやつらには新機能の追加はムリか?w
151a7がきたぜー
なんかSolaris11と差が開いちゃったなぁ。
Solaris11ってもう公開されないのか?
そのうち公開すると幹部がぬかしてたけど絶賛放置中
あの襟損が積極的に公開するとは思えないし芽は無いだろう
>>209 ごめんちゃい
最近、OIいじってないことがばれましたね
一次情報も過去レスも確認しないままキターと騒ぐタイプだな
つまらんことにしつこい.. キモいな
複数OIマシンを使って1つの冗長化されたストレージ(iscsiとかnfsとか)に見せるクラスタみたいなことってできる?
情報少なすぎて何これ状態だな
DRBDみたいな物はないんだろうか
複数のNFSサーバが提供するNFSを統一された名前付けで利用しやすくするだけ
pNFS (NFS v4.1) はどれくらい使えるんだろう?
ZFSでraidz2や何やで堅牢にしていってもマシンごと死んだら結局意味ないよね
家ごとなくなったりな
ま、そんな時には zfs send, recv で。もしくは NetApp で snap mirror とか
マシン直してzfs import だろ。
外付けだったら他のマシンに繋ぐだけでいいからな
RAID筐体ごと死んだ時は復旧面倒
定期バックアップが頻繁にやりやすいだけで、置いてるvmやらdbやらの動作状態と直近データは全損で手動復旧作業必須だからな>zfs send
残念ながらdrbdで常時レプリケーションしてるLinuxには数段劣る
定期バックアップとレプリケーションをくらべる男の人って
drbdとzfsの比較って…という感じでしたが
都市ごとなくなったり
>>225,227
とはいえ、drbdはチューニングが面倒。
特にHartbeatと共存させている場合なんか、すぐにSplit Brainが起き易い。
ついでに言うと、Ethを複数束ねてもLinux bondingだと「速度倍増」が望めないというのも痛い。
drbd相当の機能がSolarisに実装されると嬉しいんだけどねぇ。
うあ、Name欄、直すの忘れてた orz.
よくわからんのだけど
LUの実体が何かなんて別に気にしなくても良いと思うのでiSCSIターゲット箱を複数用意して専用鯖で束ねるってのはダメなの?
これなら鯖死んでもデータはそこに無いから新鯖で束ね直せば良いだけでいけやしないかな。
意図はわかるし多少前進してるが、それはHDDがeth経由になって自由度が上がるだけで、上で言われてるような、
いずれかのストレージマシンが死んでもクライアントからは隠蔽されるような仕組みがいるんじゃまいか
別に家鯖に高可用性まで求めてないからマシン死ぬのは別に構わん、と思ってたが
一度電源トラブルでPCに繋がってるHDD全部飛ばして以降別マシンにsend/recvするようになったw
ちょっとまて。
zfsは電源トラブルなんかじゃデータ飛ばないだろ?
燃えたとか?
>>235 冗談で言ってるのか?
HDDが全台起動しない状況で、zfsとか関係ないだろう。
電源トラブル=停電 程度にしか思ってないんだろう
238 :
234:2012/11/22(木) 22:54:42.13
>>235 アレイ構成してるHDDが全部同時に逝ったのよ。過電流かなんかで基板が逝った。
239 :
名無しさん@お腹いっぱい。:2012/12/11(火) 06:47:25.79
ふとlastコマンドでログイン履歴を追っていたら、作成した覚えのないjackユーザでログインした形跡があって
今、青ざめています。
当該oiマシンは、ネットからすぐに外し、slocate jackしたら、
/var/cache/gdm/jack
/var/cache/gdm/jack/dmrc
が引っ掛かってきました
ちなみにls -la /var/cache/gdm/jack/dmrcすると
-rw-r--r-- 1 65432 staff 24 201*-**-** 20:04 /var/cache/gdm/jack/dmrc
となっていて、65432がjackユーザらしいのですが、
/etc/passwdファイルにはjackユーザは存在しません
oiオワタ
>239
| OpenSolaris Project: Indiana の Get the OpenSolaris..
| ...のぺージからダウンロードして起動してみる。..
| Username "jack"、Password "jack" でログイン。
243 :
239:2012/12/11(火) 14:06:39.55
え、えーと...
てへぺろ(ゝω・)
...
つまり・・・どゆこと?
jackはいつも君のそばにいるよ、そゆこと。
jackぱねえ。スパーハカーじゃん。
/usr/bill が作られてたりして
/etc/jp1よりはマシだろ?
君が一番乗りだ。
あふぉやったかなぁ・・・
買ってきてすぐのHDD(WesternDegital製 1TB SATA3)を、フォーマットも何もせんでPCに繋いで、Solaris11をDVDからインストール開始。
一応出来そうなんで進めてみたら、インストール中のフォーマット作業で、もう10時間以上経っている・・・
前もってフォーマットしておくべきだったのだろうか?それともPC自体がぶっこわれだろうか。それともSolaris11が(ry
PCはCore2Duoでメモリ4G。さすがに10時間ねぇだろうと思うんだけど・・・しかもほとんど進んでない気配。
HDDもCPU周辺も全く熱持ってなくて、ほんとに作業してんのか?と思ってしまうレベル。
なんなんだろう。
そもそもWD緑には、低速病という持病が発症することがってのは置いといて、
「インストール中のフォーマット作業」って何? newfs してるって事?
環境固有のトラブルはわからんわ
>>253 ディスク表面のサーフェースチェックを実行しているとか?
もしそうなら記録媒体の機能確認なので飛ばしても影響はないよ。
DVDドライブのIFでトラブってて超低速で動いてたらそれくらい時間がかかっても不思議じゃ無い。
oiって4TBのHDDでも認識大丈夫?
本場のZFSに初めて手を出そうと思うんだけど。
OpenIndianaじゃ本場のZFSにならないか。
Solaris取ってこよ。
>>259 4TBは試したことないが3TBは大丈夫だった
ちゃんと4KBセクターになってる(特に指定はしてない)
あ、起動ディスクとしては試してない
oiは最新じゃないだけで一応本場のZFSなんじゃない?
263 :
名無しさん@お腹いっぱい。:2013/01/31(木) 23:10:02.99
OpenillmosのZFSは独自拡張初めてんじゃなかったっけ?feature@〜って形で。
OpenIndianaだと151a5だったかa6辺りで取り込まれてたと思った。
こいつを有効にすると、zpoolのバージョンは5000とかになるはず。
Oracleが最新のZFSソースの公開やめたからしょうが無いんだけれど。
で、これを元にしてるFreeBSDも確か9-stable辺りにはもう取り込まれてような。
試したことは無いけど、独自拡張を有効にすると多分本家Solarisには
そのままimport出来ないんじゃないかなー。
sparc版良いけど、GUIとか対応してるんだろうか
>>264 自分がやった時は何もしなくてもちゃんとashift=12になってた。
ディスクによるんだろうな。確認は必要だな。
268 :
名無しさん@お腹いっぱい。:2013/02/21(木) 18:57:18.67
インストールするときのキーボードはどちらを選べばいいの?
269 :
268:2013/02/21(木) 18:58:10.54
openindianaです。
270 :
268:2013/02/21(木) 20:37:43.02
23のJapaneseが正解みたいです。
22のJapanese-Type6では半角全角で記号が入力されます。
157aでは日本語入力ができないのですが、何かしないといけないとかありますか?
271 :
268:2013/02/21(木) 21:12:01.42
ネットで検索したらでてきました。
iBusをいれればいいらしい。
272 :
268:2013/02/21(木) 22:04:18.19
いきなりrootパスワードの変更が必要みたいです。
コンソールでsuをする必要があるみたいです。
273 :
268:2013/02/21(木) 22:05:48.98
iBusとAnthyをインストールしましたが、半角全角が効きません。使い勝手がちょっと悪いです。
何か設定が必要でしょうか?
君は向いてないんだと思う
苦笑
276 :
268:2013/02/21(木) 22:27:40.92
よく分かりませんが、日本語入力が不安定みたいです。
UbuntuかMac OSXあたりがあっていると思う。
そのうちになれる。>268
なんだこのスレ
Solarisは鯖専用OS。日本語入力なんてしません。
キーボードも英語キーボード。というか、リモート専用なのでキーボードも付けません。
自作機用のマザーを流用するとキーボード付けないと何かと面倒なんだよね…
いきなり268に荒らされてた
>>281 KBDなしでもError出ない設定ができるものが多いと思うが
>>283 ハードウェアレベルのリモート管理が無いからって意味じゃね?
ブート段階から弄ることになると色々めんどくさい。
OpenIndianaのバージョンアップが止まってるので、
OmniOSへ移行しようとテストしてるけどtopとか結構パッケージが絞られてちょっと使いづらい。
最悪自前でパッケージ作れば良いんだろうけど、微妙な差があるのが・・・
久しぶりにsshログインして、zpool statusを見たら、
こんな表示が...
status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'. Once this is done, the
pool will no longer be accessible on older software versions.
>Once this is done, the pool will no longer be accessible on older software versions.
が怖くて、zpool upgradeする決心がつきません...
新機能不要ならupgradeも不要だから放ってある
同じく。
illumos系のZFS使ってる所は、もうそのVer使い出してるから、
純正Solaris使わないなら、そこまで気にすることも無いかと。
少なくともFreeBSDは9-stableに修正入った。
なのでBSDベースのNASも9.2-RELEASEベースから新バージョン使い出す事になるかと。
他は調べてないけど、Oracleがsource非公開にしちまってるから、
結局、Solarisとillumosの2系統に分かれちゃうのは、しょうが無いんだよな。
ORACLEってJavaの問題にしても、本当に迷惑かけるの得意だよな。
>>286>>289 ZFS on Linuxでも最近のrcからはZFS Feature Flagsに移行してるな。
>>287>>288 zpool status -xでも毎回出てくるから地味に迷惑だったりする。
大きなお世話の警告がイヤならソースいじって出なくしたら?
a9マダー?
294 :
名無しさん@お腹いっぱい。:2013/03/06(水) 19:56:32.12
OpenSolaris の ARM ポートはどっかにあったよね
ZFSのコンパクト版とか含まれてたな
NECでやったやつでしょ? ベースには使ってんじゃない?
zfsのメタデータ(DDT含む)を別のデバイスプールに置くってできるんだっけ?
なんかの思い違いかな。検索ワードが分からん・・
>>298 無理。
ZILとかと勘違いしてるんじゃね?
opensolaris.org が閉鎖かぁ。
終わりの始まり?
終わりの終わり
サンが身売りしたときだろうなあ。>終わりの始まり
304 :
名無しさん@お腹いっぱい。:2013/03/18(月) 19:00:03.69
あら。もう繋がらないぞ。3/24じゃなかったのか。
なんで良い技術を作り出した会社が長持ちしないんだろうね
いつも不思議に思うところだ。
306 :
名無しさん@お腹いっぱい。:2013/03/18(月) 21:06:34.87
不治痛にSunが買える甲斐性があれば、まだOpenSolarisは生きていただろうか。
よい技術を次々作り出せる会社というのは
悪く言えば幼稚だがタレントのある人種が集まるところだからだろう
別の言い方をすれば商売に頓着しないということだ
TVで言えば、プラズマパネル作っていた会社が市場原理に負けて撤退したようなもの。
>>306 「サポートできる人的リソースが無い」って理由で早々に捨てられるだろうね。
確か、未だにx86/64系はサポート外じゃなかったっけ>FJ
不治痛からも旧sunのx64鯖買えるよ
PC鯖のprimeなんちゃらではsolarisサポートしてないけど
中の人のインタビュー記事ではlinux押しだった
あーごめん
>>310は嘘
solaris11でもSolaris Premier Subscriptionに入れるモデルがあるね
詳しくはhclをどうぞ
>>307 > 悪く言えば幼稚だがタレントのある人種が集まるところだからだろう
幼稚なのはおまえだ。
技術馬鹿になっちゃうんだろうね。
Sunみたいな会社には技術バカをうまく扱える経営陣が必要で
目の前のカネしか見えない事務畑の勢力が強くなると滅亡する
マクネリがバトンタッチした頃にはもう終わってたな
自社製品どうしじゃなきゃ接続できなかった囲込みジョーシキの業界に
Sunがオープンという単語で殴込みかけて、つい先日まで存続してたこと自体が
ある意味奇跡なんだよ。
オープンソースじゃなきゃオープンじゃないとか言ってるエセオープン企業だけが
結局残った。つまらん。
Canonical「Sunは四天王最弱……」
>>318 ちょっとマテw
残りの3人を言って味噌。
Redhat、FSF、Canonicalか?
FSFは非営利だから、そこに入れるならMozilla Corpかな(Mozilla財団のほうではなく)
OpenIndiana入れてると、wake on lanで起動できなくなったりします?
同機種PCにWindows入れてるのは起動できてるんですが。
>>322 WoLの為には、確かシャットダウン時にそのための処理を
NICに設定しなきゃならなくて、
そいつをやるのはドライバの仕事だった気が。
ドライバがWoLに対応してないと、その設定が出来ずに、
WoL出来ないはず。
IPMIから起こしてやるのが一番シンプルだね
日本語入力できた。安定している。
ibusがいいみたい。
前は.profileに記述する方法をしていたのが悪かった見たいです。
ibusを自動起動するように設定したら、問題無く使えます。
Mageiaより完成度が高いです。
327 :
名無しさん@お腹いっぱい。:2013/03/30(土) 00:58:01.07
V2Cより記念カキコ。
,, _
/ ` 、
/ (_ノL_) ヽ
/ ´・ ・` l Solarisは死んだんだ
(l し l) いくら呼んでも帰っては来ないんだ
. l __ l もうあの時間は終わって、君も人生と向き合う時なんだ
> 、 _ ィ
/  ̄ ヽ
/ | iヽ
|\| |/|
| ||/\/\/\/| |
どっこい生きてる鯖の中
,, _
/ ` 、
/ (_ノL_) ヽ
/ ´・ ・` l OpenIndianaは復活するんだ。
(l し l) 悲しみの弔鐘はもう鳴り止んだ。
. l __ l 君は輝ける人生の、その一歩を、再び踏み出す時が来たんだ。
> 、 _ ィ
/  ̄ ヽ
/ | iヽ
|\| |/|
| ||/\/\/\/| |
Open-Soralis初心者だけど質問ある?
何でも聞け。
知らないこと以外はたいてい知っている。
突っ込めない箇所がない
不良セクタ出たHDDを一時的にzfsで使用する必要がある場合、
セクタの登録なんかはどうすればいいのかな?
若しくはzpoolでエラーカウントが増えても切り離さないような設定(?)とか
SATAは自動代替だろ
代替領域使い果たしたHDDは捨てる
zpool っても色々だが、少なくとも raid-z 系ならそう簡単に切り離されたりしない
死んでる部分が重なってなければ、普通に読めたりするし、死んでれば死んでるなりに
取り敢えずは動く
とは言え、下手の考え休むに似たりと言うか、とっとと交換すべき
代替不能になったHDDを再フォーマットして問題なく使えてる!
オレってプロだよな!とドヤ顔してるバカってたまにいるよねw
一時的に使用する必要がある場合と断ってるでしょ
人がいないからって空想で相手作っちゃだめよー
>>335 マシン環境によっては簡単に切り離されるよ。
mirror系ばかり使ってるのでraid-z系だと挙動が違うのかもしれないが、
タイムアウトするのか1カ所でも出るとカウント急増してdegrade化するHBAがある。
エラー原因にも寄るようだがカウントは1〜3程度で微増する場合と、
50〜3桁以上に急増して切り離される場合に2極化してる気がするな。
readonlyでimportしてもダメなんだろうか?
SCSIならdefect list登録
SATAなら代替処理できずエラー出た時点で交換
アホな工夫を考えるよりもさっさと交換
予備くらい買っとけと
>>337 エラー原因によってエラーの増え方が違うってそりゃ当たり前じゃないかと
HBA依存ってどんなの?
>>338 使用する必要があると書いてんだからエラー出て外してあったヤツを
完全に死んだHDDの代わりに間に合わせで使いたいってことだろ?
だったらimportだのreadonlyは関係ない
とりあえず、Bad Sectorが出たSATAのHDDを一時的とはいえ使用する場合に必要なのは
覚 悟
だけじゃないか?
>339
安いNASでもS.M.A.R.T.情報を監視してて、閾値を超えると即エラー返して来るヤツもあるけどね。
>>341 監視はHBAじゃなくてドライバやデーモンでやってるヤツじゃね?
そうだとすればHBA依存じゃなくてシステム依存だろ
そういう時は迷わず ufsdump | ufsrestore でしょ
それ以外の余計なことは考えない方がいい
ZFSの絡んだ話題にufsdump/ufsrestore持ち出すとかw
>>339 今時のzfs配下でもdefect list 使えるのか ! じゃあanalyzeかけるだけか
しかしなんともローテク感溢れるのでSATAやSSDでも使えるzfsレイヤから指定する方法とかもほしいなそれは
不良セクタに当たった場合に代替だけしてdegradeに落ちなければいいんだがどういう閾値なんだろうか
HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に
自動リトライかなにかするらしくsolarisから見てタイムアウトして一撃degradeとかいろいろ。
主にファームやドライバが腐ってる訳だがsolarisだしな。変な気をまわさない低機能HBA使えってのは頷ける。
>>340 exactly.
全数載せる実験で在庫HDDが足りんとかその程度の用途なのでデータの安全とか運用とか関係ない話題なんだが
なぜかSATAで長期運用中のストレージのディスク交換だと確信している方々が
>>343 だ、だまされないぞー(棒)
>>345 いや、エラー出たとか、返事かえってこねーディスク
をとっととディスって何が悪いってのが、FS側の意見。
> HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に自動リトライかなにかするらしく
こんな事やってる”HBA”はシラネ。
普通のSATAなら、HDD自身が諦めるまで、返事かえってこねー事はあるが、
こいつはHBA関係ねぇ。
とっととエラー返すHDD使えってー事だ。
>>345 ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
ディスク内部にある代替処理とはレイヤが全然違う
SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど
SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
もう予備領域を使い果たしてたりするから管理もクソも交換しかない
LDってRAIDコントローラのlogical disk/driveのつもりか?
そういうシッタカくさい略記すんなよ
ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
HBAによってはとかアホにしか見えない
あと背景説明しなかったくせに意図しないレスでファビョるのはカコワルイ
黙ってgrown defect list登録やっとけ
全数載せるだか何だか知らんけど、壊れたディスクでディスクが壊れた場合以外の実験なんて意味有るのかねぇ?
> ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
> ディスク内部にある代替処理とはレイヤが全然違う
そんなバカな..
> SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど
そんなバカな..
> SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
> もう予備領域を使い果たしてたりするから管理もクソも交換しかない
そんなバカな..www
そんなんもう何十年も前から SCSIも ATA(IDE)もいっしょだつーのwwww
ディフェクト管理で退避だとかデバイス側の SCSIコントローラーと
HDD間が ESDIで接続されてたような頃の話だぞ。
> ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
> HBAによってはとかアホにしか見えない
そんなバカな..k.k
バカは帰っていいよw
そういやエンプラ用途のディスクには自動代替処理なんて無いって聞いたな
エラー出たらコマンド打って明示しないとやってくれないとか…
その手の物は、そもそもRAIDで使われること前提だし。
HDDはリカバリなんかしなくて良いから、読めないなら読めないとさっさと答えろぼけ、
リカバリ?そんなもんこっちでやるから、早く返事しろ、アホ!仕事貯まってんだよ!
ってのが、業務用RAIDカードの仕様だからな。
で、結果が酷くなったら、HDD切り離し。
>>352 一番困るのが、何度もリトライに行って返ってこないパターンだからな
とっととエラーで返して欲しいもんだ
ん?ってことはもしかしてWDのRedってそういう仕様なのかな。
あれSATAだけどNAS用でRAID前提のディスクだよね。
>>354 TLER/CCTL/ERCとか言われてる奴だな。(メーカーによって呼び方がまちまち)
一応リトライはするけど、設定された時間で終わらなければ、Timeoutして、ホストに通知する機能。
現状だと、各社のニアライン向けは全部、コンシューマー向けだと
WDのRedとVelociRaptor、HGST/東芝の全部に付いてる。WDの前記以外と
Seagateのコンシューマー向けは無し。
ただ、東芝はこの先どうなるかは不定、現状はまだHGST時代のファーム使ってるから使えるけど、
独自に作り出すと、どうなるか分からん。
ちなみに、HGST/東芝のは設定を記憶しないので、電源入れる度に再設定が必要。
Redは使ったこと無いけど、多分一緒な気がする。
(機能が有効のままRAID以外で使われると、場合によっては問題になる場合が。)
RAIDカードスレで、HGSTを薦められてたのはこの辺りも関係してる。
356 :
名無しさん@お腹いっぱい。:2013/05/16(木) 23:00:17.42
タイムアウトってHBAが決めるんじゃないの?
設定可能項目が標準実装ならクラッシュディスクのddとかのtipにふつーにあると思う。
たぶん変更不可だったり、そもそもそんな設定自体が存在しなかったりそんな話かと。
>>346 どこのFSか知らんがZFSはエラー出たからといってそう簡単には分離しないポリシーだぞ
>>356 上で出てるけど、HDDが諦めてエラー返してきてもHBAがリトライしちゃう場合がある
逆パターンとしてディスクが長時間無応答になったのでリセット発行→ループ でスピンアップ繰り返しとかも
Disk側がやってる場合と区別付きにくいが
359 :
名無しさん@お腹いっぱい。:2013/05/17(金) 16:39:01.30
本家の方見限ってこちらに乗せ変えたのですが、sjtoeucと打つとそんなコマンド無いって言われて、
パッケージ入れ忘れかと思い探して見たけどSJISもEUCも無いみたいですね・・・
日本語対応はUTFだけのようですが何か理由があるのでしょうか?
SJISやEUCのサポートは復活しますか?
Solaris10のマニュアル見ると SUNWjfpuとあるから、それに入ってるかと。
JLE(SunOS 4.x時代(!)の日本語環境ね)の互換性保持のためのものだから、
もういいんでないw?
要るんならシェルスクリプトで iconvのラッパー書いとけば。
iconv -f SJIS -t EUC-JP
本家の方見限ってこちらに乗せ変えたのですが、
gcc -static hoge.cと打つとlibc.aが無いって言われて、
パッケージ入れ忘れかと思い探して見たけど無いみたいですね・・・
ライブラリ対応はsharedだけのようですが何か理由があるのでしょうか?
libc.aのサポートは復活しますか?
ネタかいww
oiでZFS mirrorな自宅ファイルサーバを立ててから、およそ一年経ちましたが
HDDの価格も落ち着いてきたので、HDD3本構成に移ろうかと思います。
移行するためには、現在稼働中のHDDと同容量の物を、2本追加し、
その内、1本を飛び石のようにしてファイルを移していくしかないんでしょうか
やりたい事と使えるリソースを「俺用語を用いずに」書かないと適切な回答は得られないと思うよ
以下、俺なりにエスパー
ギリギリまで節約したい、移行時には冗長性はなくてもいいって話なら、ミラー解除一本+新規追加一本に
スパースファイルで raid-z 組んで、ミラーの残りから zfs send+recieve その後ミラー側を zpool destroy で
raid-z 側に追加とか出来なくもないと思うよ
まさかとは思うけど、ZFS mirror は起動ディスクになってないよね?
>>365 なってないです。rpoolとは別のプール(ミラー)に外に見せるファイルを置いてます。
ZFSのroot(rpool?)をミラーに出来るほどの技量は無いので...
>>363は、↓のようなあまりひねりの無い方法で考えてました
1.現行ミラープールを構成してるHDDと同容量のHDD2本(仮にHDD A、HDD B)を用意する
2.1.で用意したHDD Aにプールを作る。
3.現行のミラープールのファイルを2.で作ったプールに移す
4.現行のミラープールをdestroyする
5.HDD Bと元ミラーHDD2台の合計3台でRAID-Zプールを作る
6.HDD Aのプールのファイルを5.のRAID-Zプールに移して完了。
でも
>>364のスパースファイル使う方法が非常に魅力的なので、
VirtualBoxで予行演習してみようと思います。
とか言っても、一番危ないのはコマンド打ったり、SATAケーブル抜き差しする自分自身だったりするからな...
>>366 それなら
現在のmirror(仮にC,D)のうちDをdetachする
A,B,Dでraidzを構成
単体となったCからraidzにzfs send
というのでいいんじゃないの?
それをさらにスパースファイルでHDD節約するというのが
>>364
368 :
名無しさん@お腹いっぱい。:2013/05/23(木) 23:15:13.39
369 :
名無しさん@お腹いっぱい。:2013/05/23(木) 23:36:11.67
zfsでraid5〜6みたいな実装が追加される予定ってないの?
read遅すぎなんだが
raid5よりraidzのreadが遅いのは環境のせいだったのかー
てっきり仕組み上仕方ないのかと思っていたよ
で、具体的にどんな環境ならそうなるのかなー?
「zfsでraid5〜6みたいな実装」が既にあることを理解出来ないお前の頭が悪い
え? あるの?
説明の足りない奴と行間の読めない奴の会話
zfsにはraid5~6みたいな機能はすでにあるがraid5~6を実装しているわけでナイ。
性能が悪いのはraidzのせいだがzfs的にはそこはraidzに文句を言わずにプール中のアレイ増やして解決しろ。
だっけ?
つくづく個人向けじゃねーわ>zfs
zfsやめてufjに戻します
はいはい、ついでにSolarisやめてLUMIXに戻してくださいw
カメラかよ
l2arc
結局raidzが遅いのは変わらずか
とっととraid5的な実装も追加してほしいね
H/W RAID5でzpoolつくって〜とかやりたくないんだがやってみたら十分速度出るんだよなw
>>382 ディスク20発に64GB位積めば
速度出るんじゃね?
元々そういうもんだし。
ディスク一桁台のシステムなんて、考えてねーぞ、元から。
それで遅いといわれても、はいそうですかって感じ。
このバカの脳内にある「raid5的な実装」ってのを見てみたいな
NetAppだってEMCだって「IOPS稼ぎたいなら、ディスク増やせ」って言ってくるってのに
スケール可能という話と、スケール必須という話を勘違いしている
10台以上前提とかどこに書いてあるんだ?
386 :
名無しさん@お腹いっぱい。:2013/05/27(月) 22:23:54.55
SVMさいきょう
Readを速くしたいならSSDをキャッシュとして突っ込め
>>382 はSoftware RAID-5 の書き込みホール問題とかどう考えてんの?
SSD200GBのL2ARCとSSD16GBのZILを突っ込んでるけど速くなったって気はしないなぁ…
でも仮想マシンの台数の割に反応速度が落ちないって実感はある
>>377 >つくづく個人向けじゃねーわ>zfs
個人は最初から相手にしてません、
というか個人の方はうっとうしいから使わないでお帰りください
>>385 誰もスケールの話しなんてしてない、
あなたが、ZFSの仕組み分かってないだけ。
ZFSで性能を求めたいなら、ディスクを増やせと。
IOPS稼ぐには、VDEVを増やすしか無い、
特にVDEVにRAIDZ/Z2を使う場合な。
3発のRAIDZを、5つ位纏めてプール作れば、
そこそこいけんじゃねーの。
つか、そもそも、どの程度の速度ほしいのか、
提示してないよな?お前。
なんかHDD本数増やせとかがんばってる人いるけど他と比べてRaidzが遅いのが原因じゃないの?
ZFSに読み込み速い実装が追加されるなら俺は大歓迎なんだが何が気にくわないのかねぇ
単に速度がほしいなら全部SSDにすればよくね?わざわざHDD本数増やす意図が分からんよ…
話をそらそうとしても、お前の頭が悪いだけ
だったらZFS以外使えばよくね?
ディスク増やせって言ってるのは、
ZFSがどう言うものか、わかった上でアドバイスしてるだけで。
別に無理してZFS使えなんて、誰も言ってないし。
「RAID5は速い」「raid-zは(遅いので)RAID5的な実装ではない」
とか、脳内で決めつけてるバカに何をどう説明しても無駄だろう
「速い」とか「遅い」が具体的に示されてない段階でこいつがバカなことは明らかだし
>>393 おまえがそーすりゃ良いんじゃねーの?
Oracleがソースクローズにしたおかげで、
そうそうZFSの根本的なところに手はいんねーよ?
RAID5の定義がわからんなぁ。
いやいや、RAID5は分かるでしょ
誰かさん脳内の「RAID5的な実装」が分からんだけで
お前らいじめすぎw
ZFS愛の強さゆえか・・・
新着レスがここしばらくぶりの伸び具合だったんで、OIの新展開がキタのかと思ったら・・・
個人wはLUMIXでUFJつこてたらそんでえーの
raid5バカもアレだが、この個人キチガイも大概だな
対消滅すればいいのに
>>396がわかってなさそうだがraidzとraid5は全く別だぞ
raidzがraid5に比べて読み込み遅いのは誰もが認める事実
raidzが遅いのはzfsゆえだろ?
zfsで速いraid5とやらを作るのは不可能なんじゃね?
誰もがって誰っすかね?
まぁ、RAID5とARCやL2ARCなしのraid-z比較すれば遅いだろうな
なんの意味があるのかは知らんが
×遅い
○遅い場合もある
現代でガンダーラに行きたがる人位にはいる「誰も皆」なんじゃないかな?
ゴダイゴ乙
なんだraid-zの実装も知らんやつが騒いでたのか
自動的に分散されるからraid5より上なんだがな
>>411 その代わりファイルサイズは嵩増しされるけどね。
RAIDZがそんなに速かったなんて初耳だわw
まーた始まった。「そんなに」を定義しろよ
なんだーありゃ
なんだーありゃ
ぜーせーふふんふん・・・
いーんでぃあ
OpenIndianaはなんかお先真っ暗状態・・・?
ZFSはカーネルであるillumosが開発の中心で、上物は関係無いし、
ZFS含むシステムなら、FreeBSDの方が圧倒的にアクティブな人多いし、
lz4対応は結果、BSDの方が速くなっちゃったからなぁ。
そしてSolaris自体がOracleになった事によって、
そもそもオープンなSolaris環境自体が、もうイラネって方向になってそう。。。
ZFSも本家と枝分かれせざるを得ない現状、別にSolaris系で作る必要も、
無くなってきてそうだしなぁ。
FreeBSDの ZFSってメモリ使用がドンブリなの直ったの?
×ドンブリ
○富豪
大富豪
ストレージ鯖でしか使って無いから、
メモリーの割り当てには困らないんだが、
そんなに違うか?
てか、そもそもZFSはメモリー食わしてなんぼでしょ。
カーネルスレッドが遅すぎて、まともな速度が出ない問題は治ったの?
どだろ、ZFSって元々ベンチマークで比較しにくいファイルシステムだが、
うちで、Hyper-Vのストレージとして使ってる奴は、
ハード全く同じでOI151a7+COMSTARとFreeBSD 9-stable+istgtじゃ、
シーケンシャルで100MB+ランダムでも50MB+平均で速いかな、IBのQDR IPoIBで繋いだ状態で。
ランダムでのレスポンスも体感では良さそう、OrionのAdvancesはまだかけてないから、分からんけど。
oi151のCOMSTARでiSCSIデバイスを作って、
Windows7のVirtualBox仮想マシンのブートドライブに設定してから、
Windows8をインストール、起動させるのに成功しました。
ここまでやると、ライブマイグレーションというのができるそうですが、
フリーのVirtualBoxだけでできるのか調べてるところです
>>415 そこで直線番長な結果持ってくるのはちょっと恥いので
少なくともWriteとシーケンシャルReadは高速だぞ、とかにしとけ
(ほんとに使えるなら公式がmirror推奨したりしねえ)
直線番長?
OmniOS使ってみた。
鯖用途なら、現状、OIよりこっちの方が良いかも。
カーネルその他周辺も、精力的にメンテされてるし。
まぁ、OIの更新がとろいってか、止まってんのが悪いんだが。
oi_151a7で512バイトセクタの2Tバイトディスク10発でraid-z2のpoolを使っていたんだが
最近の猛暑でマシンが落ちてしまい、何とか復旧はしたんだが、一つのWD20EARSがあまりに遅くて全体の性能を落とすようになった。
そこでST2000VN000を買ってきて交換した。
・・・んだがディスク交換後にreplaceかけたらエラーになった
zpool replace tank c14t1d0
cannot replace c14t1d0 with c14t1d0: devices have different sector alignment
過去ログ呼んでたら
>>264 でそのあたりの話が出てたので書いてあったwikiを見た
がんばって英語を読んでみたが最後のほうの
Migration of older pools onto newer disks
という章を読む限り、既存のashift=9で構成されているpoolに4kのディスクを交換するのって要するに無理ってことなんだろうか
>>429 とりあえず低速病乙。
試したこと無いけど、多分無理。
ま、出来たとしても、ashift=9のpoolでAFTのDrive使ったら、恐らくそいつが足引っ張る事になるだろうけど。
既存のHDDをsd.confでAFT扱いにして、pool作り直す手もあるっちゃあるが、
結局pool消す事には変わらんし、素直に全数入れ替える事を、おすすめするよ。
他にもEARSが有るなら、そいつも低速病発症するかもしれんし。
緑なんてさっさとポイしちゃいなさい。
7K4000 とか、2TB でも 512byte/sector なの買えばいいんじゃねーの?
>>430 > 緑なんてさっさとポイしちゃいなさい。
そのためにpoolのHDD10個まとめてポイするハメになるとか・・・ポルナレフ召喚していいですか?
あとHBAに安いからという理由でヤフオクで入手したLSIの3041を使ってたりするんだが、いろいろと詰んでる事がわかった。
>>431 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
とりあえずWindowsマシンにちょっと古めのHGSTの7K3000 が刺さっているの見つけたのでこれと入れ替えを画策することにした
これOI特有なのかな?BSDとか本家ではどうなんだろ
これ困る人結構出てきそうな気がするんだが
>>431 > 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
自己レスだが4000とかってサイズかと思って2000に置き換えてググってたがそうじゃないのか
サハロフとかの表記だと別の形式だから混乱したがHGSTならまだ512セクタのHDDを扱ってるのな
でも値段がちょっと高めなのが悩ましい
>>432 FreeBSDでも同じような感じに陥ったことがあって、もう面倒くさくなったので
新規poolは全部ashift:12で作るようにしちゃってる
10台全部まとめて交換しなくても、半分くらいの交換で低速病が改善されるかも
自分の場合は、6台交換した時点で低速病が滅多に出なくなった
因みに交換したHDDはsmartエラー出まくりだったから、RMA交換して
ヤフオクに出しちゃったから、出費がそんなになかったのはラッキーだった
どうせ2.2TBの壁とかジャネーノ?
>>436 そのとおりダヨ
いまpoolまるごと更新するならコスパと将来性で3TBモデル選びたいがそうするとHBAまで更新しなきゃならなくなる
さて22時にディスク交換してresilverが後12時間かかるようだ
明日はエアコン付けっぱなし&前面扇風機で会社行くしかねーな
>>434 FreeBSDでも発生するのか
ってことはVer28共通の問題なんかな
本家はどうなってるんだろう
>>436 あぁそういう系のか。確かにそれはそれでいやだな
なにかディスクエラー時にzfsが凍るとかドライバ・ファーム周りかと思った
ZFSだけ使えればいいから、あとはZFSを外向きに簡単設定でexport出来るようなUIをつけたのを出してくれないかな
export が NFS 的なそれなら、外向きもクソもないだろうし、inherit するから create する時に
sharenfs なりしとけばいいと思うが
freenasとかnexentaとかじゃいかんのか
443 :
名無しさん@お腹いっぱい。:2013/08/16(金) NY:AN:NY.AN
444 :
名無しさん@お腹いっぱい。:2013/08/16(金) NY:AN:NY.AN
昨日oi-dev-151a8-live-x86.isoをダウンロードするのに一晩かかった。
445 :
名無しさん@お腹いっぱい。:2013/08/16(金) NY:AN:NY.AN
黄緑色は目が疲れる。
446 :
名無しさん@お腹いっぱい。:2013/08/21(水) NY:AN:NY.AN
SATA3に対応したっぽい表示になったっぴ。
以下、boot開始〜ログインできるところまでsyslogを比較して違ってたところ。
〜〜
sata: SATA Gen2 signaling speed (3.0Gbps)
↓a7からa8
sata: SATA Gen3 signaling speed (6.0Gbps)
〜〜
zfs: open version 5000 pool rpool using 5000
↓a7からa8
でない
〜〜
/usr/lib/power/powerd: [ID 387247 daemon.error] Able to open /dev/srn
↓a7からa8
でない
〜〜
チラ裏
Oi 151a8とzfs on Linux(0.6.2)のアレイ互換性実験してみた
Linux側の鳥はopenSUSEとdebianで
zfs export/zfs importで問題なくお互いのアレイを使える模様
exportなしでOiを単純にシャットダウンしてLinux側でzfs import -f でも大丈夫
あたりめーだろアフォという話だったらスマソ
よろしい、では各feature flagsをactiveにしたときの互換性を確認するんだ
・・・というのは冗談としてoi、ZoLやその他諸々と相互運用できるファイルシステムは便利だな
FreeBSDもv5000になったみたいだし、MacZFSもZoLからのポートを開発中だから色んなOSで広く使えそう。
ディスク上のデータだけちゃんとしてれば各ポートでトラブル起こってもとりあえずoiでインポートできるから助かる。
(実際ZoLでresilverが無限ループに陥ったけどoiで回復できたことがあった)
正直、単体ディスクで試したんだろーな、程度にしか思えない俺がいる
なんか警告とかでた?
451 :
447:2013/09/10(火) 00:04:27.05
>>449 一応仮想環境でのRAIDZ3台から初めて実ディスクSATA3台のRAIDZ、実ディスク6台のRAID-Z2、同6台AFT付と試したお
openzfsのページでGMOのロゴがでかでかと出てきて
盛大に萎えた
ZFSを利用したNASを構築を検討しているのですが何点か疑問があります
1.OracleSolarisとOpenSolaris系で機能・性能上の違いはどの程度ありますか?
2.Solaris系とFreeBSD系で機能・性能上の違いはどの程度ありますか?
FreeBSDは使用経験がありますが、ZFSはSolarisが本家なので
どちらがよいのか悩んでいます
3.ZFSでWindows8のストレージプールのnウェイミラー的な構成は可能ですか?
5ウェイミラー(4台死亡までサービス継続)の構成が取れるのであれば
そのような構成の利用も検討したいです
判る方がおりましたら教えてください。よろしくお願いします
>>454 1.
OracleSolarisは機能的にはプール暗号化とかそのへんで若干進んでる、性能レベルは誤差
ただIllumos系はFreeBSD/ZFSonLinuxとの互換性を取る方向に進んでる
今は完全ではないけどそのうちアレイの完全互換が期待できる
2.
zfs自身の性能差はFreeBSDとSolarisで大差ない
ただし、iSCSI/cifs/nfsあたりの性能はillumosの方が高い。これは体感できるレベル
3.
windowsのストレージプールがよくわからんが、3Way〜nWayのRAID1相当ってことでいいのかな?
それは問題なくできる。RAID-Z/Z2の4Wayミラーで8台*4の32台アレイとか普通に組める
最近solaris利用者かなり減ってます?
そりゃ増えることはないからね
絶対数では微々増で、割合としては大幅減なんじゃないかな
>>454 v29以降の機能が入ってるのがOracle、feature flags以降の機能が入ってるのがillumos系
あと個人的には5wayミラーの理由が気になる・・・そんな凄いデータなのか
そこまで行くとミラー数増やすより停電・天災等々で物理的に全HDD逝ってしまうリスクに対処する方がいい気がしてしまうけど。
>>456 需要の多くがZFSで、そのZFSもFreeBSD/Linux移植の完成度が上がれば上がるほどそっちに流れるからなぁ。
460 :
454:2013/09/23(月) 20:29:22.71
レスありがとうございます
長文失礼します
>>455 1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
なかなか見つから無いように思います
3・・・すみません。自分もWindows8のストレージプールについては良く理解できていません
ストレージを仮想化して、スケーラビリティ、復元性、効率性を高める - Building Windows 8 - Site Home - MSDN Blogs
ttp://blogs.msdn.com/b/b8_ja/archive/2012/01/13/10256576.aspx 2ウェイミラーと3ウェイミラーが使用可能のようですが、3ウェイミラーは
・パリティではなくミラーを複数台のドライブに分散して記録する
・2台以上死んでもサービスを継続できる
っぽいです。具体的な原理は自分も良く理解できていません
このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
Windows8による構築も検討して調べてみているのですが、縮退モードからドライブ交換無しでリビルドできたり
プールからドライブの削除が出来たり、SATAカードが選び放題だったりと、Solaris(or FreeBSD)+ZFSより
優れる面もあるのですが、実績がほとんど無いこととWindowsだと言うことで不安があります
>>459 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
HBAやドライブ電源の障害でNAS丸ごとクラッシュという事態は避けたいです(単一障害点の削減)
RAID-Z2や3ウェイミラーの場合は2台の死亡までしか許容できないのでHBAと電源を
8台用意する必要があり、流石に現実的ではありません
現実的には
4台死亡を許容(5ウェイパリティ、RAID-Zしたセットをプールに追加)してHBAと電源を4台用意するか
8台死亡を許容(RAID10。ミラーしたセットをプールに追加)してHBAと電源を2台用意する
あたりが落としどころかなと思っています
> Solaris系の場合は対応したSATA HBA(PCI-Express)カードがなかなか見つから無いように思います
ま、思うのは勝手だけどな。普通LSI買うだろ
> このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
別に何面ミラーでも作れると思うけどな>ZFS
> パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
パフォーマンスは知らんけど、容量は不利だろうな
> 縮退モードからドライブ交換無しでリビルドできたりプールからドライブの削除が出来たり
ミラー構成なら何でも出来るだろ>ZFS
> 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
以下意味不明につきレスは避ける
取り敢えず、1台のマシンをNASにするなら、その1台が単一障害点とやらになるだろ
てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど?
なんつーか、素直にNetAppでも買っとけって話じゃね?
要件定義に失敗してるよーな
Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。
何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。
snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが
アプリのバグでファイルの半数以上がrmされたorz
(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった
そんな俺に誰か一言
バックアップって大事だね
snapshotでniceshot!
>>460 後半何言ってるのかわかりません
>>467 zdb叩く前にとっととバックアップからリストアしろ
仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか
まず服を脱ぎます。
まず服を脱ぎます
PHP出版に勤めます
PHP出版を辞めましたエントリを書きます
つまんね。
>>467 スナップショットがこけててもバックアップがあるんだから問題ないだろ。
2TBの書き戻しは気が変になりそうだろうが、がんばれ/
>>471 展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w
つーかその資料とやらを作ったヤシに聞けよ
CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると
加速度的に読み書きが遅くなりますね
480 :
名無しさん@お腹いっぱい。:2013/11/03(日) 14:12:45.89
>>479 ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。
そこでZILとL2ARCをSSDで、ですよ奥さん!
dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ?
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる
実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
cp dummy_5GB.bin hoge
今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。
2重化されてる。
ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。
>>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない
>>486 メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー
若しくはARCは16程度でL2に64くらいとか(計算してないけど)
Dedupの効率?みたいな物の比較ってある?
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね
dedupは思ったほど効果なかったなぁ
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く
そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし
仮想マシンのイメージファイル置き場がメジャーじゃね
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?)
マジレスすると、メールアーカイブで添付ファイルとかに効くと思う
添付ファイル単位で単離されてるならそりゃ効くだろうけども
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね
>>490 cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ
さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな
上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・
さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。
特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が
NFSはそもそも共有して意味があるんであって
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと
cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ
共有してるからvMotionできる
iSCSIよりずっと手軽で管理しやすい
それは微妙にzfsとは違う方向から異論が出そうだが、
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz
サブディレクトリ???
ファイルシステムのことかな?
そりゃ別だからmountしないと見えない
ああ、zfs createで作られるマウントポイントってなんつーの?
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう
>>502 ふっ、貴様はまだbtrfsを知らないようだな・・・
>>502 ZFS用語的にはtype=fliesystemかな? datasetでもいいか
ハードリンクできないから下手なことしたら混乱しそうだけどな
階層化たり???
>>506 filesytem単位にmountpointは設定できるからなぁ
defaultでは自動でそのまま階層化されるけどね
ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。
dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。
zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ
エクスポートの設定の問題か
そしてアンマウントできなくなっちまったが
>>509 499あたりが書いてるが
Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる
Solarisではfs作る度にクライアント側でマウントしないと使えない
誠に失礼した
ESXiは5.5になってもNFSv4はまだ使えないですかそうですか
zfs on linux以外は糞ということですねそうですね
ZFS使おうとして Linux選ぶやつなんか、いるの?
>>508 Linux LVM的に言えば
ZPOOL=VG
ZFS filesystem=LV
みたいなもんだからな
別々のLVだからmountも別
NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた
>>515 そらzfs on Linuxが安定したら乗り換える人多いだろうよ
ZFS使うためだけにOpenIndianaやFreeBSD選んでる人が結構いそうだからな。
元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。
このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw
Linuxが使いやすいとは全く思わないが、使えるデバイスの多さ(ドライバの充実度)が
半端ないからなぁ
数は力だよ、アニキ。
>>517 すでにかなり安定してるし、0.6.1以降は安定版扱いだよ
自称安定版か。
これまでどれほど自称に騙されてきた事か・・・
もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。
Btrfsは非常に安定した安心なファイルシステムです
>>523 たしかに、いつまで経ってもちゃんとしたものが出てこないという
意味では安定しまくっている。
ってか、raid5/6程度の実装に何年かかってるんだろうね。
zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。
ZFSはオーパーツだからしょうがない。
>>524 >>523はレス内容そのままのネタツイートが由来だぞw
ググると安定・安心っぷりがわかる
>>517 安定しそうにもないから >515 なんだが..w
# Linuxに ZFSを安定に稼働させられるわけがない、という..
>>521 そんなバカなww
>>524 深い泥田に柱は、結局立たないんだよ。
JFSや XFSで実証済みなので鉄板です。
本家の人達が来て大量に地盤改良剤を注入しましたがダメでしたw
途中で意味不明のヨコヤリまで入る始末。議論はケンカ腰でやるもんだそうです(爆笑)
nfsの利便性とドライバ充実度のメリットがでかいなぁ
LinuxのNFSは正直あまり使いたくない
NFSv4はFreeBSDの方が結構バギーだったんじゃない? 今は知らないけど。
あと2000年代前半でzero copy化されてパフォーマンスはその時
かなり上がったよ。
本家Solarisでさえ、デフォルトのファイルシステムに採用するのに5年以上かかったのに。
>>532 NFSの版とか zero copy入ってるかどうかとかそんな次元の話してるようじゃ
どーしよーもなくてさww
ZFSの質問です
2TBのmirrorのpoolにファイルシステムを置いてますが、これが残り23GBくらいになったところで
急激に遅くなってきました
ハード的に強化するとしたら、メモリ?HDD追加?
どちらでしょうか
536 :
名無しさん@お腹いっぱい。:2014/01/23(木) 22:34:23.55
>>535 ZFSは使用量80%未満で使う事が、大前提。これは、メーカーも言っていること。
ZFSはpoolの空き容量が20%切ったところで、遅くなり出す。
10%切ったら、遅くなるだけじゃなく、色々弊害出だして、危機的状況。
大至急HDDの追加、現状poolからのデータ退避をすすめる。
今のmirror vdev1つなプールにもう1セットmirrorを追加すれば。
急場はしのげそうですね。
使用量・負荷の均衡が取れるのははるか先でしょうから、
少しずつでも、外へ退避してから書き戻し、していくといいと思います。
空き容量が残り20%を切ったら、コピーオンライトというのを切ればいいのか
ふむふむ...
アッ
それを すてるなんてとんでもない!
スレ違いだったら申し訳ありません
今までSolarisをまともに使ったことがないので
一から勉強したいのですが、そういった目的の場合
SolarisとOpenSolarisはどちらが向いているでしようか
他OSの経験は公私双方でWindows、RHELあたりを
主に扱ったことがあります
犬厨ってのは、なんでクソつまらんコピペをばらまこうとか思えるんだろう?
とっとと精神科なりに入院すればいいのに
ダミーの dataset 作って、そこに reservation でも設定すれば
空き容量食い尽くすってのは未然に防げるのかな。
親FS(pool直下、同名)にrefreservation
空き容量なくなってきたら古いsnapshot消して凌いでたわ
1分毎のホームディレクトリスナップショットで、
ゴミ箱要らず
気兼ねなくrmできるようになりました...となるのかな?
timesliderが15分毎にスナップショット取ってくれるので
時には助かるけど、ゴミ箱も手に入るなら欲しい。
ZFSのsharesmbには無いから、Sambaに浮気したり。
zfsにnfsやsmbや統合されてるのはいいんだけど他のと併用する場合にどの程度競合するのか分からなくて怖い
sambaやglusterfsなんかで別途shareした場合安定動作するのか?というのが怖くてzfs内蔵のを使い続けてる
同じポート使うから、sambaと共存は無理じゃないの?
nfsはOKということ??
554 :
名無しさん@お腹いっぱい。:2014/01/30(木) 19:55:55.29
レイヤー違うもんをごちゃ混ぜに考えてんのか?
何が分からんのかが、分からん
今ふと思ったんだけど、raidzでzvol作って、そこで、FAT32やext2みたいな軽量なファイルシステム置けば、
信頼性と高速性を両立できるんじゃないかな?
物理的な障害はともかく、ファイルシステムぶっ壊れるのに変わりない気がするがな
>>555 ZFSはZFS上の整合性しか取ってくれないが、それで良いか?
ZVOL上のデータなんて、考えてくれないぞ?
つか、ZOVL上でいくら軽いFS動かそうが、下でZFS動いてたら一緒じゃ?
直接ZFS扱えるんなら、ZFSそのまま使えば良いんじゃ無いの・・・
無駄にアホなことやってるようにしか見えん。。。
よく言われることだが、ZFSはハードをけちる為の物じゃないから、
パフォーマンスほしけりゃ、それだけ金かけろって事。
OIでglusterfsなんで動くの?
>>558 ソースからコンパイルして、動かしてる人はいるぽいよ。
compression on + dedup on の500Gを zfs destroy かけた。
コマンドは async_destroyのおかげで即終了。
けど zfs set sharesmb=name= とかいじってたら
NFSクライアントからサーバごと見えなくなり、焦って電源サイクル。
mounting ZFS: 1/nn とか出たまま固まる。
ようやくログインできても動きが怪しい。
その後30分ぐらい iostat で svc_t が5桁台を示してたけど
zpool get の freeing が 0 になったら、完全に回復した。
教訓。大容量destroyはサービス停止時に。asyncに頼らない。
compression=lz4は、良いですね。
>>560 dedupは削除の時に激重になるんだよね
snapshot作ってる時はrmではわからないが
snapshot destroy や zfs destroyで発動する
>>562 1. ファイル入れる FS に quota
2. ファイル入れない FS に (ref)reservation
どっちでも目的は達せられる。
ただ、ファイル入れる FS の quota は
別の目的で設定したいこともあるだろうから、
ファイル入れない FS の設定で対応した方が
融通は利きやすいだろう。
>>563 NFS共有してない、SMB専用の場所いじってました。
先人の言や、自分でも試してみて、やっぱり
dedup=offに戻すと決めての過程なので、いいんですけどね。
すんごい遅い、途中で再起動しちゃうとより一層遅い。聞いてた通りでした。
>>566 zfs自体には本体の冗長性がないからglusterfsでレプリカすればかなり良いのではという思いつきなんだが
いろいろ難しそうだな
「本体の冗長性」ってなに?
サーバ1台丸ごと死んだ場合の可用性
サーバ丸ごと死んだら、さすがのZFSでも、どうにもならんだろ
ちょっとは話の流れ読めよw
ブートドライブをzfs mirror化するお話を巷で散見しますが、
ふとMBRやgrubもmirror・raidz化できるのかな?なんて思ったりしました
ZFSのミラーってセクタ位置まで同一にする保証ってあったっけ?
あるならMBRに使っても問題ないだろうけど、疑問。
MBRがファイルシステムに含まれるかどうか、考えれば分かるんじゃね?
たしかZFSのブート領域はセクタミラーを保証してた筈。
先頭から512byteまでかな
だけど、BIOSがZFSを理解出来なきゃいけないので、
パソコンでマルチブートするのは難易度高いかと
両方のディスクにブート情報書き込まないと起動しなかったような。
> だけど、BIOSがZFSを理解出来なきゃいけないので、
ご冗談を。
6TB HDD対応してます?
OpenIndianaのcifs serverでファイルサーバやってるんですが、このcifs serverって、
samba serverやWindows のファイル共有と違う動作するものなんですかね?
AndroidのES Files explorerやGhost Commanderで接続できないのが
不思議です
Sambaの開発方面によると、SMBや CIFSというのは MSの OSによってアホほど
違って、なにもかも実装するのはとてもムリだそうなので、当然違いはあると思うよ。
Sunの時に開発した人達は今でも近いところにいるのかなぁ..
そうですか
oi付属のcifs serverよりも、Sambaに入れ替えた方が筋が良いのかな...
>>582 カーネルモジュールであるゆえの絶対性能を取るか互換性を取るかのトレードオフだと思う
cifsはmsがライセンスしないといろいろ正しい実装ができないようで、
sambaはそれゆえに互換性の問題で、頭を悩ませてきた
solarisのcifsは、msからライセンスを受けてるものかもしれない。
ちなみに、sambaみたいにNTFSのACLを強引にUnix permissionにするのではくて、
zfs aclにそのまま入るので、互換性はたかいはず。
問題はillumosが、fork後にどこまで追いかけてるかだな。
ファイルサーバでSolaris 11使ってるけど、
ES Files explorerから問題なく使用できてるよ。
初歩質問ですみません、oiのCUIとGUIの切り替えってどうやってやればいいのでしょうか?
CUI: svcadm disable gdm
GUI: svcadm enable gdm
>>588 できました。
ありがとうございます。
ちなみにですが、oiはCtrl+F1みたいなCUI GUI切り替えのショートカットってないのでしょうか?
>>591 グラフィックスカードのデバイスドライバが入っていないときに
Alt+Ctrl+F1 (CUIへ)
Alt+Ctrl+F7 (GUIへ)
が効かずにフリーズしてしまうのを経験したことあるよ
(nvidiaから)ドライバ落として入れたら使えるようになたよ
>>592 なるほど、たぶんうちのはネットブックでやってるのでドライバとかその辺の関係でダメなんでしょうね。
ありがとうございました。
ノートPCにSolarisいれてyamahaのルーターとリモートVPN接続したいと考えています
Solarisを l2tp ove ipsec のクライアントにするにはどのソフトウェア使うのがいいですか?
LinuxやAndroidからの接続には成功しておりますが、SolarisはVPNサーバーにする情報ばかりで
クライアントにするための情報を見つけることができませんでした。
なにとぞ、よろしくお願いしマンモス
2TBのmirror poolから3TBのpoolにrsyncで転送しているけど、
rsync開始してから半日かかるけど、随分時間がかかっている。
もちろん、非力なマシンを割り当ててるんで、そのせいもあるんでしょうけど、
やはりZFSは読み書きが他のFSと比べて遅いんですかね
zfs send して receive とか zpool attach して detach とかしないのは宗教的な理由なのかな?
send/receiveはいいとして、ファイル転送にattach/detachを勧めるのは
それこそアヤシイ宗教って感じがして気持ちが悪い。
zfs recv -F って、プールにあるファイルシステム破壊してくれるんか
少量だけど、ファイルあったのになぁ
復元ってできないんだよね?
バックアップがなければね
3TBのHDDにpool作って、ファイルコピーしたあと、PCをリブートしたら
起動しなくて、別のBEで起動したら、poolが↓状態になってました
zpool status
pool: tank3TB
state: FAULTED
status: One or more devices could not be used because the label is missing
or invalid. There are insufficient replicas for the pool to continue
functioning.
action: Destroy and re-create the pool from
a backup source.
see:
http://illumos.org/msg/ZFS-8000-5E scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank3TB FAULTED 0 0 0 corrupted data
c9d1 FAULTED 0 0 0 corrupted data
このpoolは、もうダメ?
ただ、このpool名はなぜか、古いpool名なんだよな...
poolを作った時とは別のBEで起動しているから、不整合になっているんですかね?
zpool export して
zpool importしたら別のpool名でpoolが見えたので
その名前でzpool import "別のpool名"したら
元通りになりました
200GBくらい吹っ飛んだと思ってのが元通りになったので、
明日は良いことありそうです
そういや特定ファイルだけsendってできんもんかね
user@openindiana:/pool/zfs$ ls
test.txt
user@openindiana:/pool/zfs$ zfs snapshot pool/zfs/test.txt@today
oi@openindiana:/pool/zfs$ zfs list
こんな感じ?
snapshot取ってから特定ファイル以外消してもっかいsnapshot取ってsendして最初のsnapshotにrollback -f。意味は無いが。
それだとcloneしたほうがいいんじゃね
ってどっちみちファイル削除に時間かかりすぎて現実的じゃないなー
sshで外部からログオンする時、
パスワード聞かれるまで時間がかかるのですが、なんででしょう
>>607 DNSチェックに行った時にホスト名の解決が出来ないときにそうなる。
面倒ならsshdの設定で
> UseDNS no
と設定すればチェックしなくなる、気がする。
sshで外部からログオンする際の注意事項があります。
コンピュータのCPUが何ビットであるか調ベておく事が大切です。
32ビットCPUを搭載したコンピュータには、
32ビット用のsshをインストールすること。
64ビットCPUを搭載したコンピュータには、
64ビット用のsshをインストールすること。
これを間違えれば素早いログオンができません。
comstarでiscsi targetを作る時の話で質問。(fcでも同じだと思うけど)
lun 1,2,3,4をhostA,B,Cに公開する場合に
・Aにはlun 1,2だけを見せたい
・Bにはlun 1,3だけを見せたい
・Cにはlun 1,4だけを見せたい
上記のようなことをやりたいときはAだけのhost groupとBだけのhost group、Cだけのhost groupを作ってやって
1-A,2-A
1-B,3-B
1-C,4-C
みたいなviewを作るしかないんだよな?
個別のhost groupとは別にABCのhost groupが作れればまだいいんだけどな。
hostとlunが増えた場合を考えるとうんざりする
611 :
名無しさん@お腹いっぱい。:2014/08/10(日) 12:06:02.77
openindiana興味あるんですけど、
出た頃はoi開発者とかユーザーとかけっこう人がいて活発だったけど今はどうですか?
ユーザーはともかくoi開発者も減ったりしてますか?
oi入れてイジってるうちに開発打切りとかフェードアウトで消滅とかになったら嫌だなと思って。
oiは、147までは調子よかったと思うけど、Illumosベースの 151以降数字上がって
ないね..
oi hipsterってのがあるらしい。hipsterじゃないのはこないだの BIND穴も
埋まってないそうな..
Goslingが拾って NeWS再実装してくれるといいんだがw
オープンソラリスじゃなくてフリーソラリスというのがあるとききました。
こちらの方がオープンソラリスよりも強いですか?
おすすめのディストロビューションをおしえてください。
>>614 RedHat Enterprise Linux+有償サポートが鉄板だと思う
冗談だろ。RHELなんてどんだけイタい目にあわされたか..
それもソラリスなんですかぁ? (RHELなら知ってますけど)
SolarisはDOSの操作性を超えてますか?
先に「DOSの操作性」を定義してくれ。Appleが Mac出した頃に言ってたやつか?
もうそろそろ、armスマホ対応したソラリスカーネルのAndroid(?)が発表されて、
Oracle純正の高性能Java runtimeで今出てるアプリをサクサク...
なんてのを夢見てるんだがなぁ
寝言は寝て言いやがれですぅ
Oracle純正のJREが安定してて高性能という幻想
Googleの方がいいものを作れるに違いないという幻想
Googleは大御所オールスターズだけど最後の詰めが甘いという..
626 :
名無しさん@お腹いっぱい。:2014/11/03(月) 12:42:41.95
MS-DOSならIO.SYSとMSDOS.SYSが読み込まれてからCONFIG.SYSが順に読まれますが
OpenSolarisだとgrubからloginブロンプトまでいったいいくつのファイルが順に読まれてるんでしょうか?
9801の頃は書籍も読んだんですけどUNIXは派閥がありすぎてどれを読めばよいかわからなかったので未だに知りません
ロートルの人生詰んだ悲哀漂うコピペかな
628 :
名無しさん@お腹いっぱい。:2014/11/04(火) 13:06:17.14
jarisってもう無いの?誰も引き継いでない?
インストールされた後だと、インストール時にデバイス検知して保存しといた
定義ファイル読んでデバイスモジュールロードして、それから initが
/etc/inittab読んで、じゃなかった?
古い BSDだと init が /etc/rcを実行する。端末の定義は /etc/ttys。
サービスという意味では inetdの定義も見ておく。とか。
新規ひとりごとです
inittabも形骸化してるよな、アダムのせいでw
あっという間になくなったな
なんでjarisって消えたの?
Looking Glassは?
HotJavaってもう無いの?誰も引き継いでない?
ジャワカレーはバーモントカレーよりホットな味付けだな。
OpenWindowsってもう無いの?誰も引き継いでない?
Java Desktop Systemってどうなった?
Wabiってもう無いの?誰も引き継いでない?
俺の嫁はいつ現れるの?
俺の孫はいつ生まれるの?
645 :
名無しさん@お腹いっぱい。:2014/11/06(木) 11:04:33.37
jarisは一度ダウソしたことがあるがMsofficeがユンユン動くのだけは良かった。
仮想コンテナの共通項が IBM PCだなんて、ほんと悪い冗談だよ。
647 :
名無しさん@お腹いっぱい。:2014/12/07(日) 17:08:02.13
横から失礼します。
他PCから取り外して来たHDDで、zpool importしたら、
下のメッセージが出たんですが、
次はzpool import tank -fすればいいんですよね?
pool: tank
id: ***********
state: ONLINE
status: The pool was last accessed by another system.
action: The pool can be imported using its name or numeric identifier and
the '-f' flag.
see:
http://illumos.org/msg/ZFS-8000-EY config:
tank ONLINE
c5t5d0 ONLINE
はい
>>648 ありがとうございます。
zpool import tank -fしましたら、
今度はコマンドがいつまでも終わりません。
/dev/dsk/c5t5d0は、3TBなんですが、どれくらいの時間でコマンドが終了するのが普通なんでしょうか?
>>649 何度も(ほとんどの場合プール名でなく id 指定で) import してきましたが、瞬時です。
正常シャットダウンしたクリーンなpoolではないのかな?
大量削除中に強制電源断したときは、ブートに(mountされるまで)数時間待ったものですが。
zpool scrubしたら、
とあるMirror poolにこんなメッセージが出てたんだけど、
HDDよりマザボがおかしいのかな
scrub repaired 8K in 12h9m with 0 errors on Sun Jan 4 17:00:37 2015
config:
SmartOSって、それ自体や設定ファイルはUSBメモリ上にあって、ZFSはKVMのイメージだけに使われるという理解であってる?
その場合、そのUSBメモリのバックアップてどうしたらいいのだろ?
バックアップが必要なデータをUSBに置かなければいいだろ。アホか。
ここ生きてるの?
OpenSolarisってPCパーツ屋で売ってるマザボで動くんだっけ?
サーバー屋さんから買わないとダメかな
最近のOiとかOmniとかなら昔ほどはパーツ選ばないよ
新しすぎるデバイス(USB3コントローラとか)やチップセットは怪しくなるので
一世代前ぐらいの構成が無難なのはSolaris系に限らずオープン系OSの定石だけど
>>655 保証はできないけど大概のPCでほぼ確実にブートすると思うよ
実用的に使おうと思えばオンボNICの実績の有無さえ注意しておけばおk
後で互換性のあるNICを増設するつもりならそれこそマザーは何でもいいんじゃねえかな